JP2015022589A - Display device, display method, display program, and information storage medium storing the display program - Google Patents
Display device, display method, display program, and information storage medium storing the display program Download PDFInfo
- Publication number
- JP2015022589A JP2015022589A JP2013151103A JP2013151103A JP2015022589A JP 2015022589 A JP2015022589 A JP 2015022589A JP 2013151103 A JP2013151103 A JP 2013151103A JP 2013151103 A JP2013151103 A JP 2013151103A JP 2015022589 A JP2015022589 A JP 2015022589A
- Authority
- JP
- Japan
- Prior art keywords
- display
- conversion
- homography
- image information
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、表示装置、表示方法、表示プログラム、及び、表示プログラムを記憶した情報記憶媒体に関する。 The present invention relates to a display device, a display method, a display program, and an information storage medium storing the display program.
近年、拡張現実(Augmented Reality)技術が利用されている。具体的には、例えば、下記非特許文献1には、内側カメラ及び外側カメラを有するとともに表示画面を有するタブレット端末において、三次元空間における平面環境の三次元位置が与えられたとき内側カメラからユーザ視点の三次元位置を取得し、ホモグラフィ(homography)変換により、端末の画面部分が透けているように画像を表示(ビデオシースルー表示)する技術が開示されている。 In recent years, augmented reality technology has been used. Specifically, for example, in the following Non-Patent Document 1, in a tablet terminal having an inner camera and an outer camera and having a display screen, the user from the inner camera is given a three-dimensional position of a planar environment in a three-dimensional space. There is disclosed a technique for acquiring a three-dimensional position of a viewpoint and displaying an image (video see-through display) so that a screen portion of a terminal is transparent by homography conversion.
しかしながら、上記従来技術においては、適用される環境が限定されるという問題がある。具体的には、上記従来技術内で使用されるホモグラフィ変換は、平面環境に限定して適用できるにすぎず、非平面環境への適用が課題であった。 However, the above-described conventional technique has a problem that the environment to which it is applied is limited. Specifically, the homography transformation used in the above prior art can only be applied to a planar environment, and its application to a non-planar environment has been a problem.
本発明は、上記課題に鑑みて上記のような撮影環境に限定されず、非平面環境においても実環境とのずれがより少なく端末の画面部分が透けて見えるような画像を表示することのできる表示装置、表示方法、表示プログラム、表示プログラムを記憶した情報記憶媒体を提供することを目的とする。 The present invention is not limited to the above shooting environment in view of the above problems, and can display an image in which the screen portion of the terminal can be seen through with less deviation from the actual environment even in a non-planar environment. It is an object to provide a display device, a display method, a display program, and an information storage medium storing the display program.
本発明の表示装置は、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラと、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段と、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段と、前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段と、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段と、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段と、を含み、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。 The display device according to the present invention includes a display unit including a screen, an inner camera arranged in the same direction as a display direction of the display unit, an outer camera arranged in a direction opposite to the display direction, Based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera, the position information acquiring means for acquiring the position information of the feature point in the three-dimensional space, and the image information acquired by the inner camera Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on, attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera, position information of the feature points, user viewpoint position Based on the information and the posture information, a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature points onto the screen is calculated. Conversion matrix calculation means; and conversion means for performing homography conversion on the image information acquired by the outer camera using the conversion matrix, and the display means displays the image information subjected to the homography conversion on the screen. It is characterized by displaying.
本発明の表示方法は、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラと、を含む表示装置において、位置情報取得手段により、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得し、視点位置情報取得手段により、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得し、姿勢情報取得手段により、前記外側カメラの姿勢を表す姿勢情報を取得し、変換行列算出手段により、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出し、変換手段により、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換し、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。 The display method of the present invention comprises display means including a screen, an inner camera arranged in the same direction as the display direction of the display means, and an outer camera arranged in a direction opposite to the display direction. In the display device, the position information acquisition unit acquires the position information of the feature points in the three-dimensional space based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera, and the viewpoint position information The acquisition means acquires viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera, the attitude information acquisition means acquires attitude information representing the attitude of the outer camera, and a transformation matrix Based on the position information of the feature point, the user viewpoint position information, and the posture information, the calculation means transmits the feature point to the screen. A transformation matrix representing a homography transformation that approximates a projection transformation is calculated, the transformation means performs homography transformation on the image information acquired by the outer camera using the transformation matrix, and the display means The converted image information is displayed on the screen.
本発明の表示プログラムは、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラとを含むコンピュータシステムにおいて、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段、前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段、及び、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段としてコンピュータシステムを機能させ、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。 The display program of the present invention includes display means including a screen, an inner camera arranged in the same direction as the display direction of the display means, and an outer camera arranged in a direction opposite to the display direction. In the computer system, based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera, position information acquisition means for acquiring position information of feature points in the three-dimensional space, acquired by the inner camera Viewpoint position information acquisition means for acquiring viewpoint position information indicating the viewpoint position of the user based on the obtained image information, attitude information acquisition means for acquiring attitude information indicating the attitude of the outer camera, position information of the feature point, the user Based on the viewpoint position information and the posture information, the homogenous that approximates the transmission projection conversion of the feature points onto the screen A transformation matrix calculation means for calculating a transformation matrix representing a phy transformation; and a computer system that functions as a transformation means for performing homography transformation on the image information acquired by the outer camera using the transformation matrix, and the display means The image information subjected to the homography conversion is displayed on the screen.
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。 Embodiments of the present invention will be described below with reference to the drawings. In addition, about drawing, the same code | symbol is attached | subjected to the same or equivalent element, and the overlapping description is abbreviate | omitted.
[第1の実施形態]
図1は、本実施の形態における表示装置の外形の一例を示す図である。図1に示すように、表示装置100は、例えば、タブレット等の携帯端末であって、スクリーン101と、内側カメラ102、及び、外側カメラ103を含む。
[First embodiment]
FIG. 1 is a diagram illustrating an example of an outer shape of a display device according to this embodiment. As shown in FIG. 1, the
具体的には、例えば、図1(A)に示すように、表示装置100は、板状であって、当該表示装置100の第1の面に平面状のスクリーン101を有する。当該スクリーン101は、例えば、画像を表示するスクリーン101として機能するとともに、タッチパネルとして機能してもよい。
Specifically, for example, as illustrated in FIG. 1A, the
表示装置100はスクリーン101の周辺の所定の位置に、内側カメラ102を有する。また、図1(B)に示すように表示装置100の第1の面に対向する第2の面の所定の位置に外側カメラ103を有する。ここで、内側カメラ102及び外側カメラ103としては、例えば、CCDカメラを用いる。
The
なお、図1に示した表示装置100の形状や、スクリーン101、内側カメラ102、及び外側カメラ103の位置や大きさ等は、一例であって、本実施の形態はこれに限定されるものではない。
Note that the shape of the
図2は、本実施の形態における表示装置のハードウェア構成の概要について説明するための図である。本実施の形態における表示装置100は、図2に示すように、例えば、制御部201、記憶部202、操作部203、表示部204、内側カメラ102、外側カメラ103を含む。なお、各部は、内部バス109により互いに接続される。
FIG. 2 is a diagram for describing an outline of the hardware configuration of the display device according to the present embodiment. As shown in FIG. 2, the
制御部201は、例えば、MPUやCPUであって、記憶部202に格納されたプログラムに従って動作する。
The
記憶部202は、例えば、ROMやRAM等の情報記録媒体で構成され、制御部201によって実行されるプログラムを保持する情報記録媒体である。また、記憶部202は、制御部201のワークメモリとしても動作する。なお、当該プログラムは、例えば、ネットワーク等を介して、ダウンロードされて提供されてもよいし、または、カード型メモリ等のコンピュータで読み取り可能な各種の情報記憶媒体によって提供されてもよい。
The
操作部203は、例えば、複数のボタンまたはタッチパネル等のインターフェースで構成され、ユーザの指示操作に応じて、当該指示操作の内容を制御部201に出力する。表示部204は、上記スクリーン101に対応し、例えば、液晶ディスプレイ、有機ELディスプレイ等であって、制御部201からの指示に従い、情報を表示する。なお、上記構成は一例であって、本実施の形態はこれに限定されるものではない。例えば、表示装置100は、更に、電話機能や通信機能を有してもよい。
The
次に、制御部201の機能的構成の一例について説明する。図3は、図2に示した制御部の機能的構成の一例を示す図である。
Next, an example of a functional configuration of the
図3に示すように、制御部201は、機能的に、例えば、内側カメラ画像情報取得部301、外側カメラ画像情報取得部302、視点位置情報取得部303、位置情報取得部304、姿勢情報取得部305、変換行列算出部306、変換部307、仮想オブジェクト情報取得部308、判定部309、及び重畳部310を含む。
As illustrated in FIG. 3, the
内側カメラ画像情報取得部301は、内側カメラ102により撮影された画像情報を取得する。また、外側カメラ画像情報取得部302は、外側カメラ103により撮影された画像情報を取得する。
The inner camera image
視点位置情報取得部303は、内側カメラ102により撮影された画像情報に基づいて、当該表示装置100を使用するユーザの視点位置情報を取得する。具体的には、視点位置情報取得部303は、内側カメラ102により撮影された画像情報に含まれるユーザの目の位置に基づいて、視点位置を取得する。
The viewpoint position
位置情報取得部304は、外側カメラ103により取得された画像情報に基づいて、実環境における特徴点の位置情報を取得する。また、姿勢情報取得部305は、外側カメラ103の姿勢を表す姿勢情報を取得する。ここで、当該姿勢情報と当該特徴点の位置情報は、例えば、周知のVisual SLAMを用いて、同時に実時間で推定することによって取得される。
The position
変換行列算出部306は、上記特徴点の位置情報、姿勢情報、及び、視点位置情報に基づいて、ホモグラフィ変換行列を算出する。具体的には、例えば、実環境における各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離dの和が最小になるホモグラフィ変換行列を算出する。より具体的には、例えば、下記式(1)を用いて算出する。なお、当該距離としては、例えば、二乗距離の他、その他の距離を用いてもよい。
上記式(1)において、Fは特徴点の3次元位置の集合を示し、Hはホモグラフィ変換行列を示す。また、PUPRは、ユーザの視点位置を投影中心としたピンホールカメラモデルにおけるスクリーン101上の位置への透視投影変換を示す変換行列を表し、PDPRは、外側カメラのレンズ中心を投影中心としたピンホールカメラモデルにおける特徴点の外側カメラの画像上の位置への変換を示す透視投影を示す変換行列を表す。
In the above equation (1), F represents a set of three-dimensional positions of feature points, and H represents a homography transformation matrix. P UPR represents a transformation matrix indicating a perspective projection transformation to a position on the
ここで、ピンホールカメラモデルとは、カメラによる結像の仕組みをレンズによる収差のない透視投影変換で近似したモデルである。図4において、Viewpointvが上記視点位置情報に対応し、Display Dが上記スクリーン101に対応し、xが特徴点の位置情報に対応する。また、uDが特徴点xがスクリーン101上に透視投影変換された位置に対応し、uC1が特徴点の外側カメラ103の画像上での位置に対応する。更に、カメラC1が外側カメラに対応する。なお、当該ピンホールモデル等の詳細については、周知であることから、詳細な説明については省略する。また、図4からわかるように、上記v、x、uD、uC1等はベクトルを表す。
Here, the pinhole camera model is a model that approximates the mechanism of image formation by a camera by perspective projection conversion without aberration by a lens. In FIG. 4, Viewpointv corresponds to the viewpoint position information, Display D corresponds to the
変換部307は、上記のように算出されたホモグラフィ変換行列を用いて、外側カメラ103により取得された画像情報を算出されたホモグラフィ変換行列に基づいて、ホモグラフィ変換する。仮想オブジェクト情報取得部308は、例えば、予め記憶部202に記憶された1または複数の仮想オブジェクトの特徴点の位置情報を含む仮想オブジェクト情報を取得する。
The
ここで、仮想オブジェクトとは、例えば、広告表示や案内表示等であって、本実施の形態においては、後述するように、実環境に当該仮想オブジェクトに対応するオブジェクトが存在すると判定した場合には、スクリーン101上に表示されたオブジェクトに重畳して表示されるオブジェクトに相当する。より具体的には、例えば、図5に示すように、スクリーン101上にビデオシースルー表示されたA大学のビルを示すように表示されたA大学の文字を含むオブジェクトや、図6に示すように、スクリーン上にビデオシースルー表示された所定の本に重ねて所定の識別表示されたオブジェクトに相当する。なお、各仮想オブジェクトの画像情報は、例えば、対応する仮想オブジェクトの特徴点に関連付けられて、記憶部202に記憶される。
Here, the virtual object is, for example, an advertisement display or a guidance display, and in this embodiment, as described later, when it is determined that an object corresponding to the virtual object exists in the real environment. This corresponds to an object displayed superimposed on the object displayed on the
判定部309は、当該仮想オブジェクト情報と視点位置情報取得部303で取得された視点位値情報、位置情報取得部304で取得された特徴点の位置関係を比較し、外側カメラ103で取得された画像情報中に、あらかじめ設定された仮想オブジェクトを重畳するオブジェクトが存在するか否かを判定する。
The
重畳部310は、判定部309の判定結果に応じて、当該仮想オブジェクトをホモグラフィ変換された画像情報に重畳する。そして、表示部204は、判定部309が、仮想オブジェクトを重畳すべきオブジェクトが存在しないと判定した場合には、上記ホモグラフィ変換された画像情報を表示する。つまり、仮想オブジェクトは表示せずに、単に実環境をビデオシースルー表示する。
The superimposing
一方、判定部309が、仮想オブジェクトを重畳すべきオブジェクトが存在すると判定した場合には、当該仮想オブジェクトがホモグラフィ変換された画像情報に重畳された画像情報を表示する。例えば、この場合、重畳部310は、上記ホモグラフィ変換した画像情報と、仮想オブジェクト(仮想オブジェクトに対応する実環境におけるオブジェクト)を上記HPDPRで変換した(PDPRを用いて外側カメラ103で取得された画像上の位置へ変換するとともにHを用いてホモグラフィ変換した)画像情報を合成し、表示部204は、当該合成された画像情報を表示する。
On the other hand, when the
なお、上記ホモグラフィ変換した画像情報に、仮想オブジェクトを視点位置が投影中心である透視投影変換(PUPRで変換)した画像情報を合成してもよい。なお、上記においては実際に重畳する場合において説明したが、本実施の形態における重畳には、例えば、仮想オブジェクトに対応するオブジェクトを指示するなどその他の形式を表示する場合も含まれる。 Note that image information obtained by perspective projection conversion (converted by PUPR ) of the virtual object whose viewpoint position is the projection center may be combined with the image information obtained by the homography conversion. In the above description, the case of actual superimposition has been described, but the superimposition in the present embodiment includes the case of displaying other formats such as indicating an object corresponding to a virtual object.
次に、図7を用いて、当該表示装置100のフローの概要の一例について説明する。なお、下記のフローは一例であって、本実施の形態におけるフローは下記に限定されるものではない。また、下記においては、説明の簡略化のため、仮想オブジェクトが重畳表示される場合を例として説明する。
Next, an example of an outline of the flow of the
まず、外側カメラ103及び内側カメラ102は、それぞれ画像情報を取得する(S101)。位置情報取得部304は、外側カメラ103により取得された画像情報に基づいて、特徴点の位置情報を取得する(S102)。姿勢情報取得部305は、表示装置100の姿勢を表す姿勢情報を取得する(S103)。
First, the
視点位置情報取得部304は、内側カメラ102からの画像情報に基づいて、ユーザの視点位置情報を取得する(S104)。変換行列算出部306は、上記特徴点の位置情報、姿勢情報、視点位置情報に基づいて、変換行列を算出する(S105)。変換部307は、外側カメラ103により取得された画像情報を、上記変換行列に基づいて、ホモグラフィ変換する(S106)。
The viewpoint position
重畳部310は、上述した判定部309の判定結果に応じて、対応する仮想オブジェクトをホモグラフィ変換された画像情報に重畳する(S107)。表示部204は、上記ホモグラフィ変換された画像情報を、スクリーン101に表示する(S108)。
The superimposing
なお、図7に示した上記フローは、一例にすぎず、本実施の形態はこれに限られるものではない。例えば、S102の特徴点の位置情報取得やS103の姿勢情報取得は、上記のように同時に行ってもよい。また、S104の視点位置情報の取得は、S102やS103と同時に行ってもよい。更に、上記においては、仮想オブジェクトを重畳して、いわゆる拡張現実を実現する表示装置100について説明したが、S107を省略して、仮想オブジェクトの重畳を行わないビデオシースルー型の表示装置100を実現するように構成してもよいし、ユーザが選択できるように構成してもよい。
Note that the flow shown in FIG. 7 is merely an example, and the present embodiment is not limited to this. For example, the position information acquisition of the feature point in S102 and the attitude information acquisition in S103 may be performed simultaneously as described above. Further, the acquisition of the viewpoint position information in S104 may be performed simultaneously with S102 and S103. Furthermore, in the above description, the
本実施の形態によれば、非平面環境においても実際の環境とのずれがより少ない、端末の画面部分が透けているように画像を表示(ビデオシースルー表示)することができる。また、例えば、タブレット等の携帯端末に搭載可能な装置のみで、実時間で上記のような画像を表示することができる。更に、仮想オブジェクトを重畳させる場合には、より少ない探索時間で当該仮想オブジェクトに対応する実物のオブジェクトをユーザに認識させることができる。 According to this embodiment, even in a non-planar environment, an image can be displayed (video see-through display) so that the screen portion of the terminal is transparent with less deviation from the actual environment. Further, for example, the above-described image can be displayed in real time only by a device that can be mounted on a portable terminal such as a tablet. Furthermore, when superimposing virtual objects, it is possible to allow the user to recognize a real object corresponding to the virtual object in a shorter search time.
本発明は、上記実施の形態に限定されるものではなく、上記実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えてもよい。 The present invention is not limited to the above-described embodiment, and is substantially the same configuration as the configuration shown in the above-described embodiment, a configuration that exhibits the same operational effects, or a configuration that can achieve the same purpose. May be replaced.
例えば、変換行列算出部306によるホモグラフィ変換行列の算出においては、更に、仮想オブジェクトの特徴点に基づいてホモグラフィ変換行列を算出するように構成してもよい。具体的には、例えば、下記式(2)に示すように、特徴点に仮想オブジェクトの特徴点を含め、E(H’)を最小にするホモグラフィ変換行列(H’)を算出する。
この場合、変換部307は、上記H’で外側カメラ103からの画像情報をホモグラフィ変換するとともに、上記PDPRで仮想オブジェクトを透視投影変換したのち上記H’でホモグラフィ変換し、重畳部310は、これらの変換結果を合成し、表示部204は当該合成された画像情報を表示する。
In this case, the
[第2の実施形態]
次に、本発明の第2の実施形態を説明する。本実施の形態においては、主に、ホモグラフィ変換行列の算出において、各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離に所定の重み付けを行った上で、当該和が最小になるホモグラフィ変換行列を算出する点が、上記第1の実施形態と異なる。なお、下記においては、第1の実施形態と同様である点については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, mainly in the calculation of the homography transformation matrix, each of the positions obtained by perspective projection transformation of the feature points on the
図8は、本実施の形態における制御部の機能的構成の一例を示す図である。図8に示すように、本実施の形態においては、制御部201は、機能的に更に注目領域検出部311及び重み付け部312を有する。
FIG. 8 is a diagram illustrating an example of a functional configuration of the control unit in the present embodiment. As shown in FIG. 8, in the present embodiment, the
注目領域検出部311は、内側カメラ102からの画像情報に基づいて、ユーザが注視する注目領域を抽出する。具体的には、例えば、ユーザの目線に基づく注視点から所定の範囲を注目領域として抽出する。重み付け部312は、上記注目領域に含まれる各特徴点への重み付け値が他の特徴点よりも大きくなるように重み付け値を求める。
The attention
そして、変換行列算出部306は、各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離に上記各特徴点に対応する重み付け値で重み付けを行った上で、当該和が最小になるホモグラフィ変換行列を算出する。具体的には、例えば、変換行列算出部306は、下記式(3)に基づいて、変換行列を算出する。
上記式(3)においては、wxが重み付けする値を表す。また、重み付け部312は、重み付け値を、例えば、下記式(4)を用いて算出する。
ここで、aは注視点の位置に対応し、rthは、所定の閾値を示す。重み付け部312は、上記式(4)からわかるように、例えば、注視点aとスクリーン101上に投影された特徴点との距離が所定の閾値rth以下の場合には、w0(w0は1よりも大きな値で、例えば2のn乗(nは自然数))を重み付け値とし、所定の閾値rthより大きい場合には、1を重み付け値とする。その他の点は、上記第1の実施形態と同様であるため、説明を省略する。
Here, a corresponds to the position of the gazing point, and r th indicates a predetermined threshold value. As can be seen from the above equation (4), the
本実施の形態によれば、上記第1の実施形態と同様に、非平面環境においても実際の環境とのずれがより少なく端末の画面部分が透けているように画像を表示することができる。また、例えば、タブレット等の携帯端末に搭載可能な装置のみで、実時間で上記のような画像を表示することができる。更に、仮想オブジェクトを重畳させる場合には、より少ない探索時間で当該仮想オブジェクトに対応する実物のオブジェクトをユーザに認識させることができる。 According to the present embodiment, as in the first embodiment, an image can be displayed so that the screen portion of the terminal is transparent in the non-planar environment with less deviation from the actual environment. Further, for example, the above-described image can be displayed in real time only by a device that can be mounted on a portable terminal such as a tablet. Furthermore, when superimposing virtual objects, it is possible to allow the user to recognize a real object corresponding to the virtual object in a shorter search time.
更に、本実施の形態によれば、ユーザが位置ずれを認識しやすい重要な部分に位置ずれが生じることを更に抑制することができる。 Furthermore, according to the present embodiment, it is possible to further suppress the occurrence of a position shift at an important part where the user can easily recognize the position shift.
なお、上記重み付けは一例であって、本実施の形態はこれに限られるものではない。例えば、上記においては、注目領域に含まれる特徴点に他の特徴点よりも大きな重み付けを行う場合について説明したが、顕著性の高いパターンをあらかじめ記憶しておき、当該顕著性の高いパターンに含まれる特徴点に対応する距離により大きな重み付け値を付与するように構成してもよい。これにより、例えば、ユーザが位置ずれを認識しやすい重要な部分に位置ずれが生じることを抑制することができる。 The weighting is an example, and the present embodiment is not limited to this. For example, in the above description, the case where the feature points included in the region of interest are weighted more than other feature points has been described. However, a highly significant pattern is stored in advance, and is included in the highly significant pattern. A larger weighting value may be given to the distance corresponding to the feature point. Thereby, for example, it is possible to suppress the occurrence of a position shift at an important part where the user can easily recognize the position shift.
また、特徴点が外側カメラ103の視野角周辺に至るに従い、当該特徴点に対応する距離への重み付けが小さくなるように構成してもよい。この場合、具体的には、例えば、重み付け部312は、下記式(5)を用いて、重み付け値を求める。
上記(5)式において、cは画像中心の位置を示し、γは所定の重みの増加率計数を示す。これにより、表示装置100を移動させる際に外側カメラ103が取得する特徴点の集合が移動方向に移り変わっていくことにより生じる、表示画像のジッタを軽減することができる。なお、上記各重み付けは組み合わせて用いてもよいし、ユーザが選択できるように構成してもよい。
In the above equation (5), c represents the position of the image center, and γ represents an increase rate count of a predetermined weight. Thereby, when moving the
本発明は、上記実施の形態に限定されるものではなく、上記実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えてもよい。 The present invention is not limited to the above-described embodiment, and is substantially the same configuration as the configuration shown in the above-described embodiment, a configuration that exhibits the same operational effects, or a configuration that can achieve the same purpose. May be replaced.
100 表示装置、101 スクリーン、102 内側カメラ、103 外側カメラ、201 制御部、202 記憶部、203 操作部、204 表示部、301 内側カメラ画像情報取得部、302 外側カメラ画像情報取得部、303 視点位置情報取得部、304 位置情報取得手段、305 姿勢情報取得手段、306 変換行列算出部、307 変換部、308 仮想オブジェクト情報取得部、309 判定部、310 重畳部、311 注目領域検出部、312 重み付け部。 100 display device, 101 screen, 102 inner camera, 103 outer camera, 201 control unit, 202 storage unit, 203 operation unit, 204 display unit, 301 inner camera image information acquisition unit, 302 outer camera image information acquisition unit, 303 viewpoint position Information acquisition unit, 304 position information acquisition unit, 305 posture information acquisition unit, 306 transformation matrix calculation unit, 307 conversion unit, 308 virtual object information acquisition unit, 309 determination unit, 310 superimposition unit, 311 attention area detection unit, 312 weighting unit .
Claims (12)
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラと、
前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段と、
前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段と、
前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段と、
前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段と、
前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段と、を含み、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示装置。 Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
An outer camera arranged in a direction opposite to the display direction;
Position information acquisition means for acquiring position information of feature points in the three-dimensional space based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera;
Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera;
Attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera;
A transformation matrix calculation unit that calculates a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature point onto the screen based on the position information of the feature point, the user viewpoint position information, and the posture information. When,
Image information acquired by the outer camera, and conversion means for performing a homography conversion using the conversion matrix,
The display means displays the image information subjected to the homography conversion on the screen.
A display device characterized by that.
前記ホモグラフィ変換行列算出手段は、前記各特徴点を前記スクリーン上に透視投影変換した位置と、前記変換行列を用いて前記各特徴点を前記スクリーン上にホモグラフィ変換した位置との各距離に特徴点毎に所定の重み付けをした値の和が最小となる変換行列を算出することを特徴とする請求項1記載の表示装置。 The feature points are a plurality of feature points,
The homography transformation matrix calculation means calculates each distance between a position obtained by perspective projection transformation of the feature points on the screen and a position obtained by homography transformation of the feature points on the screen using the transformation matrix. The display device according to claim 1, wherein a transformation matrix that minimizes a sum of values weighted with a predetermined weight for each feature point is calculated.
前記内側カメラにより取得された画像情報に基づいて、ユーザの注目対象を抽出する注目領域検出手段と、
前記複数の特徴点のうち、前記注目領域に含まれる各特徴点への重み付け値が他の特徴点よりも大きくなるように重み付け値を求める重み付け手段と、を含み、
前記重み付けは、前記重み付け値に基づいて行われる、
ことを特徴とする請求項3記載の表示装置。 The display device further includes:
Based on image information acquired by the inner camera, attention area detection means for extracting a user's attention object;
Weighting means for obtaining a weighting value such that a weighting value for each feature point included in the region of interest among the plurality of feature points is larger than other feature points;
The weighting is performed based on the weighting value.
The display device according to claim 3.
前記変換行列算出手段は、更に、前記仮想オブジェクトの位置情報に基づいて、前記ホモグラフィ変換行列を算出することを特徴とする請求項5に記載の表示装置。 The display device further includes virtual object information acquisition means for acquiring virtual object information representing position information of feature points on the virtual object,
The display device according to claim 5, wherein the transformation matrix calculation unit further calculates the homography transformation matrix based on position information of the virtual object.
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラと、を含む表示装置において、
位置情報取得手段により、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得し、
視点位置情報取得手段により、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得し、
姿勢情報取得手段により、前記外側カメラの姿勢を表す姿勢情報を取得し、
変換行列算出手段により、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出し、
変換手段により、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換し、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示方法。 Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
In a display device including an outer camera disposed in a direction opposite to the display direction,
Based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera by the position information acquisition means, the position information of the feature points in the three-dimensional space is acquired,
The viewpoint position information acquisition means acquires viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera,
Attitude information acquisition means acquires attitude information representing the attitude of the outer camera,
Based on the position information of the feature points, the user viewpoint position information, and the posture information, a transformation matrix that represents a homography transformation that approximates the transmission projection transformation of the feature points onto the screen is obtained by a transformation matrix calculation unit. Calculate
The image information acquired by the outer camera is converted by the conversion means using the conversion matrix, and the homography is converted.
The display means displays the image information subjected to the homography conversion on the screen.
A display method characterized by that.
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラとを含むコンピュータシステムにおいて、
前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段、
前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段、
前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段、
前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段、及び
前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段、
としてコンピュータシステムを機能させ、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示プログラム。 Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
A computer system including an outer camera disposed in a direction opposite to the display direction;
Position information acquisition means for acquiring position information of feature points in the three-dimensional space based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera;
Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera;
Attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera;
A transformation matrix calculation unit that calculates a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature point onto the screen based on the position information of the feature point, the user viewpoint position information, and the posture information. And conversion means for performing homography conversion on the image information acquired by the outer camera using the conversion matrix,
As a computer system
The display means displays the image information subjected to the homography conversion on the screen.
A display program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013151103A JP2015022589A (en) | 2013-07-19 | 2013-07-19 | Display device, display method, display program, and information storage medium storing the display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013151103A JP2015022589A (en) | 2013-07-19 | 2013-07-19 | Display device, display method, display program, and information storage medium storing the display program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015022589A true JP2015022589A (en) | 2015-02-02 |
Family
ID=52486964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013151103A Pending JP2015022589A (en) | 2013-07-19 | 2013-07-19 | Display device, display method, display program, and information storage medium storing the display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015022589A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184838A (en) * | 2014-03-21 | 2015-10-22 | 大木 光晴 | Image processing device, method, and program |
US10242428B2 (en) | 2016-06-07 | 2019-03-26 | Samsung Display Co., Ltd. | Transparent display apparatus and driving method thereof |
KR20210032549A (en) * | 2016-09-14 | 2021-03-24 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and computer program |
US11089284B2 (en) | 2016-09-14 | 2021-08-10 | Canon Kabushiki Kaisha | Image processing apparatus, image generating method, and storage medium |
-
2013
- 2013-07-19 JP JP2013151103A patent/JP2015022589A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184838A (en) * | 2014-03-21 | 2015-10-22 | 大木 光晴 | Image processing device, method, and program |
US10242428B2 (en) | 2016-06-07 | 2019-03-26 | Samsung Display Co., Ltd. | Transparent display apparatus and driving method thereof |
KR20210032549A (en) * | 2016-09-14 | 2021-03-24 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and computer program |
US11089284B2 (en) | 2016-09-14 | 2021-08-10 | Canon Kabushiki Kaisha | Image processing apparatus, image generating method, and storage medium |
KR102382247B1 (en) * | 2016-09-14 | 2022-04-08 | 캐논 가부시끼가이샤 | Image processing apparatus, image processing method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210131790A1 (en) | Information processing apparatus, information processing method, and recording medium | |
US11189055B2 (en) | Information processing apparatus and method and program | |
TWI505709B (en) | System and method for determining individualized depth information in augmented reality scene | |
US9495068B2 (en) | Three-dimensional user interface apparatus and three-dimensional operation method | |
JP5871345B2 (en) | 3D user interface device and 3D operation method | |
US9824497B2 (en) | Information processing apparatus, information processing system, and information processing method | |
JP6074494B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
JP5843340B2 (en) | 3D environment sharing system and 3D environment sharing method | |
KR20160122702A (en) | Information processing device, information processing method and program | |
JP2015095802A (en) | Display control apparatus, display control method and program | |
JP7372061B2 (en) | Remote work support system | |
KR20160060582A (en) | Device and method for processing visual data, and related computer program product | |
JP2015022589A (en) | Display device, display method, display program, and information storage medium storing the display program | |
JP2015138428A (en) | Additional information display apparatus and additional information display program | |
JP2010157850A5 (en) | ||
JP5439281B2 (en) | User viewpoint space video presentation device, user viewpoint space video presentation method and program | |
CN105814604B (en) | For providing location information or mobile message with the method and system of at least one function for controlling vehicle | |
JPWO2018025825A1 (en) | Imaging system | |
JPWO2018225804A1 (en) | Image display device, image display method, and image display program | |
JP2017046233A (en) | Display device, information processor, and control method of the same | |
JP6146869B2 (en) | Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously | |
JPWO2011093031A1 (en) | Mobile terminal, action history description method, and action history description system | |
JP5649842B2 (en) | Information providing apparatus, information providing method, and program | |
JP2018088604A (en) | Image display device, image display method, and system | |
JP6156930B2 (en) | Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image |