JP2015022589A - Display device, display method, display program, and information storage medium storing the display program - Google Patents

Display device, display method, display program, and information storage medium storing the display program Download PDF

Info

Publication number
JP2015022589A
JP2015022589A JP2013151103A JP2013151103A JP2015022589A JP 2015022589 A JP2015022589 A JP 2015022589A JP 2013151103 A JP2013151103 A JP 2013151103A JP 2013151103 A JP2013151103 A JP 2013151103A JP 2015022589 A JP2015022589 A JP 2015022589A
Authority
JP
Japan
Prior art keywords
display
conversion
homography
image information
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013151103A
Other languages
Japanese (ja)
Inventor
聖 池田
Sei Ikeda
聖 池田
誠 冨岡
Makoto Tomioka
誠 冨岡
宏介 佐藤
Kosuke Sato
宏介 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2013151103A priority Critical patent/JP2015022589A/en
Publication of JP2015022589A publication Critical patent/JP2015022589A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform video-see-through display having less deviation from a real environment even in a non-planar environment.SOLUTION: The display device includes: display means; an inner side camera; an outer side camera; positional information acquisition means for acquiring positional information of a feature point based on image information including a non-planer environment in a three-dimensional space acquired by the outer side camera; viewpoint position information acquisition means for acquiring viewpoint position information showing a viewpoint position of a user; attitude information acquisition means for acquiring attitude information showing an attitude of the outer side camera; conversion matrix calculation means for calculating a conversion matrix showing a homography conversion approximated to transmission and projection conversion to the screen of the feature point based on the positional information of the feature point, the user viewpoint position information, and the attitude information; and conversion means performing homography conversion of the image information acquired by the outer side camera using the conversion matrix. The display means displays the homograph-converted image information on the screen.

Description

本発明は、表示装置、表示方法、表示プログラム、及び、表示プログラムを記憶した情報記憶媒体に関する。   The present invention relates to a display device, a display method, a display program, and an information storage medium storing the display program.

近年、拡張現実(Augmented Reality)技術が利用されている。具体的には、例えば、下記非特許文献1には、内側カメラ及び外側カメラを有するとともに表示画面を有するタブレット端末において、三次元空間における平面環境の三次元位置が与えられたとき内側カメラからユーザ視点の三次元位置を取得し、ホモグラフィ(homography)変換により、端末の画面部分が透けているように画像を表示(ビデオシースルー表示)する技術が開示されている。   In recent years, augmented reality technology has been used. Specifically, for example, in the following Non-Patent Document 1, in a tablet terminal having an inner camera and an outer camera and having a display screen, the user from the inner camera is given a three-dimensional position of a planar environment in a three-dimensional space. There is disclosed a technique for acquiring a three-dimensional position of a viewpoint and displaying an image (video see-through display) so that a screen portion of a terminal is transparent by homography conversion.

タブレット型情報端末における拡張現実感のための実映像の幾何学的補正法、喜瀬川 拓也、奈良先端科学技術大学院大学修士論文(NAIST-IS-MT0851027)、2012年2月2日Geometric correction method for augmented reality on tablet-type information terminals, Takuya Kisegawa, Master's thesis at Nara Institute of Science and Technology (NAIST-IS-MT0851027), February 2, 2012

しかしながら、上記従来技術においては、適用される環境が限定されるという問題がある。具体的には、上記従来技術内で使用されるホモグラフィ変換は、平面環境に限定して適用できるにすぎず、非平面環境への適用が課題であった。   However, the above-described conventional technique has a problem that the environment to which it is applied is limited. Specifically, the homography transformation used in the above prior art can only be applied to a planar environment, and its application to a non-planar environment has been a problem.

本発明は、上記課題に鑑みて上記のような撮影環境に限定されず、非平面環境においても実環境とのずれがより少なく端末の画面部分が透けて見えるような画像を表示することのできる表示装置、表示方法、表示プログラム、表示プログラムを記憶した情報記憶媒体を提供することを目的とする。   The present invention is not limited to the above shooting environment in view of the above problems, and can display an image in which the screen portion of the terminal can be seen through with less deviation from the actual environment even in a non-planar environment. It is an object to provide a display device, a display method, a display program, and an information storage medium storing the display program.

本発明の表示装置は、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラと、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段と、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段と、前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段と、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段と、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段と、を含み、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。   The display device according to the present invention includes a display unit including a screen, an inner camera arranged in the same direction as a display direction of the display unit, an outer camera arranged in a direction opposite to the display direction, Based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera, the position information acquiring means for acquiring the position information of the feature point in the three-dimensional space, and the image information acquired by the inner camera Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on, attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera, position information of the feature points, user viewpoint position Based on the information and the posture information, a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature points onto the screen is calculated. Conversion matrix calculation means; and conversion means for performing homography conversion on the image information acquired by the outer camera using the conversion matrix, and the display means displays the image information subjected to the homography conversion on the screen. It is characterized by displaying.

本発明の表示方法は、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラと、を含む表示装置において、位置情報取得手段により、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得し、視点位置情報取得手段により、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得し、姿勢情報取得手段により、前記外側カメラの姿勢を表す姿勢情報を取得し、変換行列算出手段により、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出し、変換手段により、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換し、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。   The display method of the present invention comprises display means including a screen, an inner camera arranged in the same direction as the display direction of the display means, and an outer camera arranged in a direction opposite to the display direction. In the display device, the position information acquisition unit acquires the position information of the feature points in the three-dimensional space based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera, and the viewpoint position information The acquisition means acquires viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera, the attitude information acquisition means acquires attitude information representing the attitude of the outer camera, and a transformation matrix Based on the position information of the feature point, the user viewpoint position information, and the posture information, the calculation means transmits the feature point to the screen. A transformation matrix representing a homography transformation that approximates a projection transformation is calculated, the transformation means performs homography transformation on the image information acquired by the outer camera using the transformation matrix, and the display means The converted image information is displayed on the screen.

本発明の表示プログラムは、スクリーンを含む表示手段と、前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、前記表示方向と反対方向に向けて配置された外側カメラとを含むコンピュータシステムにおいて、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段、前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段、及び、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段としてコンピュータシステムを機能させ、前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、ことを特徴とする。   The display program of the present invention includes display means including a screen, an inner camera arranged in the same direction as the display direction of the display means, and an outer camera arranged in a direction opposite to the display direction. In the computer system, based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera, position information acquisition means for acquiring position information of feature points in the three-dimensional space, acquired by the inner camera Viewpoint position information acquisition means for acquiring viewpoint position information indicating the viewpoint position of the user based on the obtained image information, attitude information acquisition means for acquiring attitude information indicating the attitude of the outer camera, position information of the feature point, the user Based on the viewpoint position information and the posture information, the homogenous that approximates the transmission projection conversion of the feature points onto the screen A transformation matrix calculation means for calculating a transformation matrix representing a phy transformation; and a computer system that functions as a transformation means for performing homography transformation on the image information acquired by the outer camera using the transformation matrix, and the display means The image information subjected to the homography conversion is displayed on the screen.

第1の実施の形態における表示装置の外形の一例を示す図である。It is a figure which shows an example of the external shape of the display apparatus in 1st Embodiment. 第1の実施の形態における表示装置のハードウェア構成の概要を示す図である。It is a figure which shows the outline | summary of the hardware constitutions of the display apparatus in 1st Embodiment. 図2に示した制御部の機能的構成の一例を示す図である。It is a figure which shows an example of a functional structure of the control part shown in FIG. ピンホールカメラモデルを用いたユーザの視点位置と外側カメラによる透視投影変換について説明するための図である。It is a figure for demonstrating the perspective projection conversion by a user's viewpoint position and outer camera using a pinhole camera model. 仮想オブジェクトの一例について説明するための図である。It is a figure for demonstrating an example of a virtual object. 仮想オブジェクトの他の一例について説明するための図である。It is a figure for demonstrating another example of a virtual object. 第1の実施の形態における表示装置のフローの概要の一例を示す図である。It is a figure which shows an example of the outline | summary of the flow of the display apparatus in 1st Embodiment. 第2の実施の形態における制御部の機能的構成の一例を示す図である。It is a figure which shows an example of a functional structure of the control part in 2nd Embodiment.

以下、本発明の実施形態について、図面を参照しつつ説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。   Embodiments of the present invention will be described below with reference to the drawings. In addition, about drawing, the same code | symbol is attached | subjected to the same or equivalent element, and the overlapping description is abbreviate | omitted.

[第1の実施形態]
図1は、本実施の形態における表示装置の外形の一例を示す図である。図1に示すように、表示装置100は、例えば、タブレット等の携帯端末であって、スクリーン101と、内側カメラ102、及び、外側カメラ103を含む。
[First embodiment]
FIG. 1 is a diagram illustrating an example of an outer shape of a display device according to this embodiment. As shown in FIG. 1, the display device 100 is a portable terminal such as a tablet, for example, and includes a screen 101, an inner camera 102, and an outer camera 103.

具体的には、例えば、図1(A)に示すように、表示装置100は、板状であって、当該表示装置100の第1の面に平面状のスクリーン101を有する。当該スクリーン101は、例えば、画像を表示するスクリーン101として機能するとともに、タッチパネルとして機能してもよい。   Specifically, for example, as illustrated in FIG. 1A, the display device 100 has a plate shape, and includes a flat screen 101 on a first surface of the display device 100. For example, the screen 101 may function as a touch panel as well as function as a screen 101 that displays an image.

表示装置100はスクリーン101の周辺の所定の位置に、内側カメラ102を有する。また、図1(B)に示すように表示装置100の第1の面に対向する第2の面の所定の位置に外側カメラ103を有する。ここで、内側カメラ102及び外側カメラ103としては、例えば、CCDカメラを用いる。   The display device 100 has an inner camera 102 at a predetermined position around the screen 101. In addition, as shown in FIG. 1B, an outer camera 103 is provided at a predetermined position on the second surface opposite to the first surface of the display device 100. Here, as the inner camera 102 and the outer camera 103, for example, CCD cameras are used.

なお、図1に示した表示装置100の形状や、スクリーン101、内側カメラ102、及び外側カメラ103の位置や大きさ等は、一例であって、本実施の形態はこれに限定されるものではない。   Note that the shape of the display device 100 illustrated in FIG. 1 and the positions and sizes of the screen 101, the inner camera 102, and the outer camera 103 are merely examples, and the present embodiment is not limited thereto. Absent.

図2は、本実施の形態における表示装置のハードウェア構成の概要について説明するための図である。本実施の形態における表示装置100は、図2に示すように、例えば、制御部201、記憶部202、操作部203、表示部204、内側カメラ102、外側カメラ103を含む。なお、各部は、内部バス109により互いに接続される。   FIG. 2 is a diagram for describing an outline of the hardware configuration of the display device according to the present embodiment. As shown in FIG. 2, the display device 100 according to the present embodiment includes, for example, a control unit 201, a storage unit 202, an operation unit 203, a display unit 204, an inner camera 102, and an outer camera 103. Each unit is connected to each other by an internal bus 109.

制御部201は、例えば、MPUやCPUであって、記憶部202に格納されたプログラムに従って動作する。   The control unit 201 is, for example, an MPU or CPU, and operates according to a program stored in the storage unit 202.

記憶部202は、例えば、ROMやRAM等の情報記録媒体で構成され、制御部201によって実行されるプログラムを保持する情報記録媒体である。また、記憶部202は、制御部201のワークメモリとしても動作する。なお、当該プログラムは、例えば、ネットワーク等を介して、ダウンロードされて提供されてもよいし、または、カード型メモリ等のコンピュータで読み取り可能な各種の情報記憶媒体によって提供されてもよい。   The storage unit 202 is an information recording medium configured by an information recording medium such as a ROM or a RAM, and holds a program executed by the control unit 201. The storage unit 202 also operates as a work memory for the control unit 201. The program may be provided by being downloaded via a network or the like, or may be provided by various information storage media that can be read by a computer such as a card-type memory.

操作部203は、例えば、複数のボタンまたはタッチパネル等のインターフェースで構成され、ユーザの指示操作に応じて、当該指示操作の内容を制御部201に出力する。表示部204は、上記スクリーン101に対応し、例えば、液晶ディスプレイ、有機ELディスプレイ等であって、制御部201からの指示に従い、情報を表示する。なお、上記構成は一例であって、本実施の形態はこれに限定されるものではない。例えば、表示装置100は、更に、電話機能や通信機能を有してもよい。   The operation unit 203 includes, for example, an interface such as a plurality of buttons or a touch panel, and outputs the content of the instruction operation to the control unit 201 in accordance with a user instruction operation. A display unit 204 corresponds to the screen 101 and is, for example, a liquid crystal display, an organic EL display, or the like, and displays information according to an instruction from the control unit 201. In addition, the said structure is an example, Comprising: This Embodiment is not limited to this. For example, the display device 100 may further have a telephone function and a communication function.

次に、制御部201の機能的構成の一例について説明する。図3は、図2に示した制御部の機能的構成の一例を示す図である。   Next, an example of a functional configuration of the control unit 201 will be described. FIG. 3 is a diagram illustrating an example of a functional configuration of the control unit illustrated in FIG. 2.

図3に示すように、制御部201は、機能的に、例えば、内側カメラ画像情報取得部301、外側カメラ画像情報取得部302、視点位置情報取得部303、位置情報取得部304、姿勢情報取得部305、変換行列算出部306、変換部307、仮想オブジェクト情報取得部308、判定部309、及び重畳部310を含む。   As illustrated in FIG. 3, the control unit 201 functionally includes, for example, an inner camera image information acquisition unit 301, an outer camera image information acquisition unit 302, a viewpoint position information acquisition unit 303, a position information acquisition unit 304, and posture information acquisition. Unit 305, conversion matrix calculation unit 306, conversion unit 307, virtual object information acquisition unit 308, determination unit 309, and superimposition unit 310.

内側カメラ画像情報取得部301は、内側カメラ102により撮影された画像情報を取得する。また、外側カメラ画像情報取得部302は、外側カメラ103により撮影された画像情報を取得する。   The inner camera image information acquisition unit 301 acquires image information captured by the inner camera 102. The outer camera image information acquisition unit 302 acquires image information captured by the outer camera 103.

視点位置情報取得部303は、内側カメラ102により撮影された画像情報に基づいて、当該表示装置100を使用するユーザの視点位置情報を取得する。具体的には、視点位置情報取得部303は、内側カメラ102により撮影された画像情報に含まれるユーザの目の位置に基づいて、視点位置を取得する。   The viewpoint position information acquisition unit 303 acquires viewpoint position information of the user who uses the display device 100 based on image information captured by the inner camera 102. Specifically, the viewpoint position information acquisition unit 303 acquires the viewpoint position based on the position of the user's eyes included in the image information captured by the inner camera 102.

位置情報取得部304は、外側カメラ103により取得された画像情報に基づいて、実環境における特徴点の位置情報を取得する。また、姿勢情報取得部305は、外側カメラ103の姿勢を表す姿勢情報を取得する。ここで、当該姿勢情報と当該特徴点の位置情報は、例えば、周知のVisual SLAMを用いて、同時に実時間で推定することによって取得される。   The position information acquisition unit 304 acquires position information of feature points in the actual environment based on the image information acquired by the outer camera 103. In addition, the posture information acquisition unit 305 acquires posture information representing the posture of the outer camera 103. Here, the posture information and the position information of the feature point are acquired by simultaneously estimating in real time using the well-known Visual SLAM, for example.

変換行列算出部306は、上記特徴点の位置情報、姿勢情報、及び、視点位置情報に基づいて、ホモグラフィ変換行列を算出する。具体的には、例えば、実環境における各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離dの和が最小になるホモグラフィ変換行列を算出する。より具体的には、例えば、下記式(1)を用いて算出する。なお、当該距離としては、例えば、二乗距離の他、その他の距離を用いてもよい。

Figure 2015022589
A transformation matrix calculation unit 306 calculates a homography transformation matrix based on the feature point position information, posture information, and viewpoint position information. Specifically, for example, the sum of the distances d between the position where each feature point in the real environment is perspective-projected on the screen 101 and the position where the feature point is homographically transformed on the screen 101 is minimized. A homography transformation matrix is calculated. More specifically, for example, it is calculated using the following formula (1). As the distance, for example, other distances may be used in addition to the square distance.
Figure 2015022589

上記式(1)において、Fは特徴点の3次元位置の集合を示し、Hはホモグラフィ変換行列を示す。また、PUPRは、ユーザの視点位置を投影中心としたピンホールカメラモデルにおけるスクリーン101上の位置への透視投影変換を示す変換行列を表し、PDPRは、外側カメラのレンズ中心を投影中心としたピンホールカメラモデルにおける特徴点の外側カメラの画像上の位置への変換を示す透視投影を示す変換行列を表す。 In the above equation (1), F represents a set of three-dimensional positions of feature points, and H represents a homography transformation matrix. P UPR represents a transformation matrix indicating a perspective projection transformation to a position on the screen 101 in the pinhole camera model with the user's viewpoint position as the projection center, and P DPR represents the lens center of the outer camera as the projection center. 3 represents a transformation matrix indicating a perspective projection indicating transformation of a feature point in a pinhole camera model into a position on an image of an outer camera.

ここで、ピンホールカメラモデルとは、カメラによる結像の仕組みをレンズによる収差のない透視投影変換で近似したモデルである。図4において、Viewpointvが上記視点位置情報に対応し、Display Dが上記スクリーン101に対応し、xが特徴点の位置情報に対応する。また、uが特徴点xがスクリーン101上に透視投影変換された位置に対応し、uC1が特徴点の外側カメラ103の画像上での位置に対応する。更に、カメラCが外側カメラに対応する。なお、当該ピンホールモデル等の詳細については、周知であることから、詳細な説明については省略する。また、図4からわかるように、上記v、x、u、uC1等はベクトルを表す。 Here, the pinhole camera model is a model that approximates the mechanism of image formation by a camera by perspective projection conversion without aberration by a lens. In FIG. 4, Viewpointv corresponds to the viewpoint position information, Display D corresponds to the screen 101, and x corresponds to the feature point position information. Further, u D characteristic point x corresponds to the perspective projection transformation positions on the screen 101, u C1 corresponds to the position on the image of the outer camera 103 feature points. Furthermore, the camera C 1 corresponds to the outer camera. Since details of the pinhole model and the like are well known, detailed description is omitted. Further, as can be seen from FIG. 4, the above v, x, u D , u C1, etc. represent vectors.

変換部307は、上記のように算出されたホモグラフィ変換行列を用いて、外側カメラ103により取得された画像情報を算出されたホモグラフィ変換行列に基づいて、ホモグラフィ変換する。仮想オブジェクト情報取得部308は、例えば、予め記憶部202に記憶された1または複数の仮想オブジェクトの特徴点の位置情報を含む仮想オブジェクト情報を取得する。   The conversion unit 307 uses the homography conversion matrix calculated as described above to perform homography conversion on the image information acquired by the outer camera 103 based on the calculated homography conversion matrix. The virtual object information acquisition unit 308 acquires virtual object information including position information of feature points of one or more virtual objects stored in advance in the storage unit 202, for example.

ここで、仮想オブジェクトとは、例えば、広告表示や案内表示等であって、本実施の形態においては、後述するように、実環境に当該仮想オブジェクトに対応するオブジェクトが存在すると判定した場合には、スクリーン101上に表示されたオブジェクトに重畳して表示されるオブジェクトに相当する。より具体的には、例えば、図5に示すように、スクリーン101上にビデオシースルー表示されたA大学のビルを示すように表示されたA大学の文字を含むオブジェクトや、図6に示すように、スクリーン上にビデオシースルー表示された所定の本に重ねて所定の識別表示されたオブジェクトに相当する。なお、各仮想オブジェクトの画像情報は、例えば、対応する仮想オブジェクトの特徴点に関連付けられて、記憶部202に記憶される。   Here, the virtual object is, for example, an advertisement display or a guidance display, and in this embodiment, as described later, when it is determined that an object corresponding to the virtual object exists in the real environment. This corresponds to an object displayed superimposed on the object displayed on the screen 101. More specifically, for example, as shown in FIG. 5, an object including the letters of University A displayed so as to show the building of University A displayed on the screen 101 as a video see-through display, or as shown in FIG. 6. This corresponds to the object identified and displayed in a predetermined manner on a predetermined book displayed on the screen as a video see-through display. Note that the image information of each virtual object is stored in the storage unit 202 in association with the feature point of the corresponding virtual object, for example.

判定部309は、当該仮想オブジェクト情報と視点位置情報取得部303で取得された視点位値情報、位置情報取得部304で取得された特徴点の位置関係を比較し、外側カメラ103で取得された画像情報中に、あらかじめ設定された仮想オブジェクトを重畳するオブジェクトが存在するか否かを判定する。   The determination unit 309 compares the virtual object information with the viewpoint position value information acquired by the viewpoint position information acquisition unit 303 and the positional relationship between the feature points acquired by the position information acquisition unit 304, and is acquired by the outer camera 103. It is determined whether or not there is an object in which a preset virtual object is superimposed in the image information.

重畳部310は、判定部309の判定結果に応じて、当該仮想オブジェクトをホモグラフィ変換された画像情報に重畳する。そして、表示部204は、判定部309が、仮想オブジェクトを重畳すべきオブジェクトが存在しないと判定した場合には、上記ホモグラフィ変換された画像情報を表示する。つまり、仮想オブジェクトは表示せずに、単に実環境をビデオシースルー表示する。   The superimposing unit 310 superimposes the virtual object on the image information that has been subjected to the homography conversion in accordance with the determination result of the determining unit 309. When the determination unit 309 determines that there is no object on which the virtual object is to be superimposed, the display unit 204 displays the image information subjected to the homography conversion. In other words, the virtual environment is simply not displayed, but the real environment is simply displayed as video see-through.

一方、判定部309が、仮想オブジェクトを重畳すべきオブジェクトが存在すると判定した場合には、当該仮想オブジェクトがホモグラフィ変換された画像情報に重畳された画像情報を表示する。例えば、この場合、重畳部310は、上記ホモグラフィ変換した画像情報と、仮想オブジェクト(仮想オブジェクトに対応する実環境におけるオブジェクト)を上記HPDPRで変換した(PDPRを用いて外側カメラ103で取得された画像上の位置へ変換するとともにHを用いてホモグラフィ変換した)画像情報を合成し、表示部204は、当該合成された画像情報を表示する。 On the other hand, when the determination unit 309 determines that there is an object on which the virtual object is to be superimposed, the image information on which the virtual object is superimposed on the image information obtained by homography conversion is displayed. For example, in this case, the superimposing unit 310 converts the image information obtained by the homography conversion and the virtual object (the object in the real environment corresponding to the virtual object) using the HP DPR (acquired by the outer camera 103 using the P DPR ). The display unit 204 displays the synthesized image information.

なお、上記ホモグラフィ変換した画像情報に、仮想オブジェクトを視点位置が投影中心である透視投影変換(PUPRで変換)した画像情報を合成してもよい。なお、上記においては実際に重畳する場合において説明したが、本実施の形態における重畳には、例えば、仮想オブジェクトに対応するオブジェクトを指示するなどその他の形式を表示する場合も含まれる。 Note that image information obtained by perspective projection conversion (converted by PUPR ) of the virtual object whose viewpoint position is the projection center may be combined with the image information obtained by the homography conversion. In the above description, the case of actual superimposition has been described, but the superimposition in the present embodiment includes the case of displaying other formats such as indicating an object corresponding to a virtual object.

次に、図7を用いて、当該表示装置100のフローの概要の一例について説明する。なお、下記のフローは一例であって、本実施の形態におけるフローは下記に限定されるものではない。また、下記においては、説明の簡略化のため、仮想オブジェクトが重畳表示される場合を例として説明する。   Next, an example of an outline of the flow of the display device 100 will be described with reference to FIG. The following flow is an example, and the flow in the present embodiment is not limited to the following. Further, in the following, for the sake of simplicity of explanation, a case where a virtual object is displayed in a superimposed manner will be described as an example.

まず、外側カメラ103及び内側カメラ102は、それぞれ画像情報を取得する(S101)。位置情報取得部304は、外側カメラ103により取得された画像情報に基づいて、特徴点の位置情報を取得する(S102)。姿勢情報取得部305は、表示装置100の姿勢を表す姿勢情報を取得する(S103)。   First, the outer camera 103 and the inner camera 102 each acquire image information (S101). The position information acquisition unit 304 acquires the position information of feature points based on the image information acquired by the outer camera 103 (S102). The posture information acquisition unit 305 acquires posture information representing the posture of the display device 100 (S103).

視点位置情報取得部304は、内側カメラ102からの画像情報に基づいて、ユーザの視点位置情報を取得する(S104)。変換行列算出部306は、上記特徴点の位置情報、姿勢情報、視点位置情報に基づいて、変換行列を算出する(S105)。変換部307は、外側カメラ103により取得された画像情報を、上記変換行列に基づいて、ホモグラフィ変換する(S106)。   The viewpoint position information acquisition unit 304 acquires the viewpoint position information of the user based on the image information from the inner camera 102 (S104). The transformation matrix calculation unit 306 calculates a transformation matrix based on the feature point position information, posture information, and viewpoint position information (S105). The conversion unit 307 performs homography conversion on the image information acquired by the outer camera 103 based on the conversion matrix (S106).

重畳部310は、上述した判定部309の判定結果に応じて、対応する仮想オブジェクトをホモグラフィ変換された画像情報に重畳する(S107)。表示部204は、上記ホモグラフィ変換された画像情報を、スクリーン101に表示する(S108)。   The superimposing unit 310 superimposes the corresponding virtual object on the image information subjected to the homography conversion in accordance with the determination result of the determination unit 309 described above (S107). The display unit 204 displays the image information subjected to the homography conversion on the screen 101 (S108).

なお、図7に示した上記フローは、一例にすぎず、本実施の形態はこれに限られるものではない。例えば、S102の特徴点の位置情報取得やS103の姿勢情報取得は、上記のように同時に行ってもよい。また、S104の視点位置情報の取得は、S102やS103と同時に行ってもよい。更に、上記においては、仮想オブジェクトを重畳して、いわゆる拡張現実を実現する表示装置100について説明したが、S107を省略して、仮想オブジェクトの重畳を行わないビデオシースルー型の表示装置100を実現するように構成してもよいし、ユーザが選択できるように構成してもよい。   Note that the flow shown in FIG. 7 is merely an example, and the present embodiment is not limited to this. For example, the position information acquisition of the feature point in S102 and the attitude information acquisition in S103 may be performed simultaneously as described above. Further, the acquisition of the viewpoint position information in S104 may be performed simultaneously with S102 and S103. Furthermore, in the above description, the display device 100 that realizes so-called augmented reality by superimposing virtual objects has been described. However, the video see-through display device 100 that does not superimpose virtual objects is realized by omitting S107. You may comprise so that a user can select.

本実施の形態によれば、非平面環境においても実際の環境とのずれがより少ない、端末の画面部分が透けているように画像を表示(ビデオシースルー表示)することができる。また、例えば、タブレット等の携帯端末に搭載可能な装置のみで、実時間で上記のような画像を表示することができる。更に、仮想オブジェクトを重畳させる場合には、より少ない探索時間で当該仮想オブジェクトに対応する実物のオブジェクトをユーザに認識させることができる。   According to this embodiment, even in a non-planar environment, an image can be displayed (video see-through display) so that the screen portion of the terminal is transparent with less deviation from the actual environment. Further, for example, the above-described image can be displayed in real time only by a device that can be mounted on a portable terminal such as a tablet. Furthermore, when superimposing virtual objects, it is possible to allow the user to recognize a real object corresponding to the virtual object in a shorter search time.

本発明は、上記実施の形態に限定されるものではなく、上記実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えてもよい。   The present invention is not limited to the above-described embodiment, and is substantially the same configuration as the configuration shown in the above-described embodiment, a configuration that exhibits the same operational effects, or a configuration that can achieve the same purpose. May be replaced.

例えば、変換行列算出部306によるホモグラフィ変換行列の算出においては、更に、仮想オブジェクトの特徴点に基づいてホモグラフィ変換行列を算出するように構成してもよい。具体的には、例えば、下記式(2)に示すように、特徴点に仮想オブジェクトの特徴点を含め、E(H’)を最小にするホモグラフィ変換行列(H’)を算出する。

Figure 2015022589
For example, the calculation of the homography transformation matrix by the transformation matrix calculation unit 306 may be configured to further calculate the homography transformation matrix based on the feature points of the virtual object. Specifically, for example, as shown in the following formula (2), the feature point of the virtual object is included in the feature point, and the homography transformation matrix (H ′) that minimizes E (H ′) is calculated.
Figure 2015022589

この場合、変換部307は、上記H’で外側カメラ103からの画像情報をホモグラフィ変換するとともに、上記PDPRで仮想オブジェクトを透視投影変換したのち上記H’でホモグラフィ変換し、重畳部310は、これらの変換結果を合成し、表示部204は当該合成された画像情報を表示する。 In this case, the conversion unit 307 performs homography conversion on the image information from the outer camera 103 at the above H ′, and after performing perspective projection conversion on the virtual object by the above P DPR , performs the homography conversion at the above H ′, and performs the superposition unit 310 Combines these conversion results, and the display unit 204 displays the combined image information.

[第2の実施形態]
次に、本発明の第2の実施形態を説明する。本実施の形態においては、主に、ホモグラフィ変換行列の算出において、各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離に所定の重み付けを行った上で、当該和が最小になるホモグラフィ変換行列を算出する点が、上記第1の実施形態と異なる。なお、下記においては、第1の実施形態と同様である点については説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, mainly in the calculation of the homography transformation matrix, each of the positions obtained by perspective projection transformation of the feature points on the screen 101 and the positions obtained by homography transformation of the feature points on the screen 101 are used. The point of calculating a homography transformation matrix that minimizes the sum after performing a predetermined weighting on the distance is different from the first embodiment. In the following, description of the same points as in the first embodiment will be omitted.

図8は、本実施の形態における制御部の機能的構成の一例を示す図である。図8に示すように、本実施の形態においては、制御部201は、機能的に更に注目領域検出部311及び重み付け部312を有する。   FIG. 8 is a diagram illustrating an example of a functional configuration of the control unit in the present embodiment. As shown in FIG. 8, in the present embodiment, the control unit 201 further includes a region of interest detection unit 311 and a weighting unit 312 functionally.

注目領域検出部311は、内側カメラ102からの画像情報に基づいて、ユーザが注視する注目領域を抽出する。具体的には、例えば、ユーザの目線に基づく注視点から所定の範囲を注目領域として抽出する。重み付け部312は、上記注目領域に含まれる各特徴点への重み付け値が他の特徴点よりも大きくなるように重み付け値を求める。   The attention area detection unit 311 extracts the attention area that the user gazes on based on the image information from the inner camera 102. Specifically, for example, a predetermined range is extracted as a region of interest from a gazing point based on the user's line of sight. The weighting unit 312 determines the weighting value so that the weighting value for each feature point included in the region of interest is larger than the other feature points.

そして、変換行列算出部306は、各特徴点をスクリーン101上に透視投影変換した位置と、当該各特徴点をスクリーン101上にホモグラフィ変換した位置との各距離に上記各特徴点に対応する重み付け値で重み付けを行った上で、当該和が最小になるホモグラフィ変換行列を算出する。具体的には、例えば、変換行列算出部306は、下記式(3)に基づいて、変換行列を算出する。

Figure 2015022589
Then, the transformation matrix calculation unit 306 corresponds to each feature point to each distance between the position where each feature point is perspective-projected on the screen 101 and the position where each feature point is homographically transformed on the screen 101. After weighting with the weighting value, a homography transformation matrix that minimizes the sum is calculated. Specifically, for example, the conversion matrix calculation unit 306 calculates a conversion matrix based on the following equation (3).
Figure 2015022589

上記式(3)においては、wが重み付けする値を表す。また、重み付け部312は、重み付け値を、例えば、下記式(4)を用いて算出する。

Figure 2015022589
In the above equation (3), w x represents a value to be weighted. Further, the weighting unit 312 calculates the weighting value using, for example, the following formula (4).
Figure 2015022589

ここで、aは注視点の位置に対応し、rthは、所定の閾値を示す。重み付け部312は、上記式(4)からわかるように、例えば、注視点aとスクリーン101上に投影された特徴点との距離が所定の閾値rth以下の場合には、w(wは1よりも大きな値で、例えば2のn乗(nは自然数))を重み付け値とし、所定の閾値rthより大きい場合には、1を重み付け値とする。その他の点は、上記第1の実施形態と同様であるため、説明を省略する。 Here, a corresponds to the position of the gazing point, and r th indicates a predetermined threshold value. As can be seen from the above equation (4), the weighting unit 312 is, for example, w 0 (w 0) when the distance between the gazing point a and the feature point projected on the screen 101 is equal to or less than a predetermined threshold value r th. Is a value larger than 1, for example, 2 to the nth power (where n is a natural number) is a weighting value, and when it is larger than a predetermined threshold value r th , 1 is a weighting value. Since other points are the same as those in the first embodiment, description thereof will be omitted.

本実施の形態によれば、上記第1の実施形態と同様に、非平面環境においても実際の環境とのずれがより少なく端末の画面部分が透けているように画像を表示することができる。また、例えば、タブレット等の携帯端末に搭載可能な装置のみで、実時間で上記のような画像を表示することができる。更に、仮想オブジェクトを重畳させる場合には、より少ない探索時間で当該仮想オブジェクトに対応する実物のオブジェクトをユーザに認識させることができる。   According to the present embodiment, as in the first embodiment, an image can be displayed so that the screen portion of the terminal is transparent in the non-planar environment with less deviation from the actual environment. Further, for example, the above-described image can be displayed in real time only by a device that can be mounted on a portable terminal such as a tablet. Furthermore, when superimposing virtual objects, it is possible to allow the user to recognize a real object corresponding to the virtual object in a shorter search time.

更に、本実施の形態によれば、ユーザが位置ずれを認識しやすい重要な部分に位置ずれが生じることを更に抑制することができる。   Furthermore, according to the present embodiment, it is possible to further suppress the occurrence of a position shift at an important part where the user can easily recognize the position shift.

なお、上記重み付けは一例であって、本実施の形態はこれに限られるものではない。例えば、上記においては、注目領域に含まれる特徴点に他の特徴点よりも大きな重み付けを行う場合について説明したが、顕著性の高いパターンをあらかじめ記憶しておき、当該顕著性の高いパターンに含まれる特徴点に対応する距離により大きな重み付け値を付与するように構成してもよい。これにより、例えば、ユーザが位置ずれを認識しやすい重要な部分に位置ずれが生じることを抑制することができる。   The weighting is an example, and the present embodiment is not limited to this. For example, in the above description, the case where the feature points included in the region of interest are weighted more than other feature points has been described. However, a highly significant pattern is stored in advance, and is included in the highly significant pattern. A larger weighting value may be given to the distance corresponding to the feature point. Thereby, for example, it is possible to suppress the occurrence of a position shift at an important part where the user can easily recognize the position shift.

また、特徴点が外側カメラ103の視野角周辺に至るに従い、当該特徴点に対応する距離への重み付けが小さくなるように構成してもよい。この場合、具体的には、例えば、重み付け部312は、下記式(5)を用いて、重み付け値を求める。

Figure 2015022589
Further, as the feature point reaches the periphery of the viewing angle of the outer camera 103, the weight to the distance corresponding to the feature point may be reduced. In this case, specifically, for example, the weighting unit 312 obtains a weighting value using the following equation (5).
Figure 2015022589

上記(5)式において、cは画像中心の位置を示し、γは所定の重みの増加率計数を示す。これにより、表示装置100を移動させる際に外側カメラ103が取得する特徴点の集合が移動方向に移り変わっていくことにより生じる、表示画像のジッタを軽減することができる。なお、上記各重み付けは組み合わせて用いてもよいし、ユーザが選択できるように構成してもよい。   In the above equation (5), c represents the position of the image center, and γ represents an increase rate count of a predetermined weight. Thereby, when moving the display apparatus 100, the jitter of the display image which arises when the set of the feature points acquired by the outer camera 103 changes in the moving direction can be reduced. The above weights may be used in combination or may be configured so that the user can select them.

本発明は、上記実施の形態に限定されるものではなく、上記実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えてもよい。   The present invention is not limited to the above-described embodiment, and is substantially the same configuration as the configuration shown in the above-described embodiment, a configuration that exhibits the same operational effects, or a configuration that can achieve the same purpose. May be replaced.

100 表示装置、101 スクリーン、102 内側カメラ、103 外側カメラ、201 制御部、202 記憶部、203 操作部、204 表示部、301 内側カメラ画像情報取得部、302 外側カメラ画像情報取得部、303 視点位置情報取得部、304 位置情報取得手段、305 姿勢情報取得手段、306 変換行列算出部、307 変換部、308 仮想オブジェクト情報取得部、309 判定部、310 重畳部、311 注目領域検出部、312 重み付け部。   100 display device, 101 screen, 102 inner camera, 103 outer camera, 201 control unit, 202 storage unit, 203 operation unit, 204 display unit, 301 inner camera image information acquisition unit, 302 outer camera image information acquisition unit, 303 viewpoint position Information acquisition unit, 304 position information acquisition unit, 305 posture information acquisition unit, 306 transformation matrix calculation unit, 307 conversion unit, 308 virtual object information acquisition unit, 309 determination unit, 310 superimposition unit, 311 attention area detection unit, 312 weighting unit .

Claims (12)

スクリーンを含む表示手段と、
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラと、
前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段と、
前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段と、
前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段と、
前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段と、
前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段と、を含み、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示装置。
Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
An outer camera arranged in a direction opposite to the display direction;
Position information acquisition means for acquiring position information of feature points in the three-dimensional space based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera;
Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera;
Attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera;
A transformation matrix calculation unit that calculates a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature point onto the screen based on the position information of the feature point, the user viewpoint position information, and the posture information. When,
Image information acquired by the outer camera, and conversion means for performing a homography conversion using the conversion matrix,
The display means displays the image information subjected to the homography conversion on the screen.
A display device characterized by that.
前記ホモグラフィ変換行列算出手段は、前記特徴点を前記スクリーン上に透視投影変換した位置と、前記変換行列を用いて前記特徴点を前記スクリーン上にホモグラフィ変換した位置との距離が最小となる変換行列を算出することを特徴とする請求項1記載の表示装置。   The homography transformation matrix calculation means minimizes a distance between a position obtained by perspective projection transformation of the feature points on the screen and a location obtained by homography transformation of the feature points on the screen using the transformation matrix. The display device according to claim 1, wherein a conversion matrix is calculated. 前記特徴点は複数の特徴点であって、
前記ホモグラフィ変換行列算出手段は、前記各特徴点を前記スクリーン上に透視投影変換した位置と、前記変換行列を用いて前記各特徴点を前記スクリーン上にホモグラフィ変換した位置との各距離に特徴点毎に所定の重み付けをした値の和が最小となる変換行列を算出することを特徴とする請求項1記載の表示装置。
The feature points are a plurality of feature points,
The homography transformation matrix calculation means calculates each distance between a position obtained by perspective projection transformation of the feature points on the screen and a position obtained by homography transformation of the feature points on the screen using the transformation matrix. The display device according to claim 1, wherein a transformation matrix that minimizes a sum of values weighted with a predetermined weight for each feature point is calculated.
前記表示装置は、更に、
前記内側カメラにより取得された画像情報に基づいて、ユーザの注目対象を抽出する注目領域検出手段と、
前記複数の特徴点のうち、前記注目領域に含まれる各特徴点への重み付け値が他の特徴点よりも大きくなるように重み付け値を求める重み付け手段と、を含み、
前記重み付けは、前記重み付け値に基づいて行われる、
ことを特徴とする請求項3記載の表示装置。
The display device further includes:
Based on image information acquired by the inner camera, attention area detection means for extracting a user's attention object;
Weighting means for obtaining a weighting value such that a weighting value for each feature point included in the region of interest among the plurality of feature points is larger than other feature points;
The weighting is performed based on the weighting value.
The display device according to claim 3.
前記表示装置は、更に、前記ホモグラフィ変換された画像情報に仮想オブジェクトを重畳する重畳手段を含むことを特徴とする請求項1乃至4のいずれかに記載の表示装置。   The display device according to claim 1, further comprising a superimposing unit that superimposes a virtual object on the image information subjected to the homography conversion. 前記重畳手段は、前記仮想オブジェクトを前記スクリーンへ透過投影変換して、前記ホモグラフィ変換された画像情報に重畳することを特徴とする請求項5に記載の表示装置。   6. The display device according to claim 5, wherein the superimposing unit superimposes the virtual object on the screen through transmission projection conversion, and superimposes the virtual object on the image information subjected to the homography conversion. 前記重畳手段は、前記仮想オブジェクトを前記外側カメラの画像面上に透視投影変換した上で前記ホモグラフィ変換した画像情報を、前記ホモグラフィ変換された画像情報に重畳することを特徴とする請求項5に記載の表示装置。   The superimposing unit superimposes the image information obtained by performing the perspective projection conversion on the image surface of the outer camera and then performing the homography conversion on the image information subjected to the homography conversion. 5. The display device according to 5. 前記表示装置は、更に、前記仮想オブジェクト上の特徴点の位置情報を表す仮想オブジェクト情報を取得する仮想オブジェクト情報取得手段を含み、
前記変換行列算出手段は、更に、前記仮想オブジェクトの位置情報に基づいて、前記ホモグラフィ変換行列を算出することを特徴とする請求項5に記載の表示装置。
The display device further includes virtual object information acquisition means for acquiring virtual object information representing position information of feature points on the virtual object,
The display device according to claim 5, wherein the transformation matrix calculation unit further calculates the homography transformation matrix based on position information of the virtual object.
前記重畳手段は、前記仮想オブジェクトを前記外側カメラの画像面上に透視投影変換した上で前記ホモグラフィ変換した画像情報を、前記ホモグラフィ変換された画像情報に重畳することを特徴とする請求項8に記載の表示装置。   The superimposing unit superimposes the image information obtained by performing the perspective projection conversion on the image surface of the outer camera and then performing the homography conversion on the image information subjected to the homography conversion. 9. The display device according to 8. スクリーンを含む表示手段と、
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラと、を含む表示装置において、
位置情報取得手段により、前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得し、
視点位置情報取得手段により、前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得し、
姿勢情報取得手段により、前記外側カメラの姿勢を表す姿勢情報を取得し、
変換行列算出手段により、前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出し、
変換手段により、前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換し、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示方法。
Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
In a display device including an outer camera disposed in a direction opposite to the display direction,
Based on the image information including the non-planar environment in the three-dimensional space acquired by the outer camera by the position information acquisition means, the position information of the feature points in the three-dimensional space is acquired,
The viewpoint position information acquisition means acquires viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera,
Attitude information acquisition means acquires attitude information representing the attitude of the outer camera,
Based on the position information of the feature points, the user viewpoint position information, and the posture information, a transformation matrix that represents a homography transformation that approximates the transmission projection transformation of the feature points onto the screen is obtained by a transformation matrix calculation unit. Calculate
The image information acquired by the outer camera is converted by the conversion means using the conversion matrix, and the homography is converted.
The display means displays the image information subjected to the homography conversion on the screen.
A display method characterized by that.
スクリーンを含む表示手段と、
前記表示手段の表示方向と同じ方向に向けて配置された内側カメラと、
前記表示方向と反対方向に向けて配置された外側カメラとを含むコンピュータシステムにおいて、
前記外側カメラにより取得された3次元空間における非平面環境を含む画像情報に基づいて、前記3次元空間における特徴点の位置情報を取得する位置情報取得手段、
前記内側カメラにより取得された画像情報に基づいてユーザの視点位置を表す視点位置情報を取得する視点位置情報取得手段、
前記外側カメラの姿勢を表す姿勢情報を取得する姿勢情報取得手段、
前記特徴点の位置情報、前記ユーザ視点位置情報、及び、前記姿勢情報に基づいて、前記特徴点の前記スクリーンへの透過投影変換に近似するホモグラフィ変換を表す変換行列を算出する変換行列算出手段、及び
前記外側カメラにより取得された画像情報を、前記変換行列を用いてホモグラフィ変換する変換手段、
としてコンピュータシステムを機能させ、
前記表示手段は、前記ホモグラフィ変換された画像情報を前記スクリーンに表示する、
ことを特徴とする表示プログラム。
Display means including a screen;
An inner camera arranged in the same direction as the display direction of the display means;
A computer system including an outer camera disposed in a direction opposite to the display direction;
Position information acquisition means for acquiring position information of feature points in the three-dimensional space based on image information including a non-planar environment in the three-dimensional space acquired by the outer camera;
Viewpoint position information acquisition means for acquiring viewpoint position information representing the viewpoint position of the user based on the image information acquired by the inner camera;
Attitude information acquisition means for acquiring attitude information representing the attitude of the outer camera;
A transformation matrix calculation unit that calculates a transformation matrix representing a homography transformation that approximates a transmission projection transformation of the feature point onto the screen based on the position information of the feature point, the user viewpoint position information, and the posture information. And conversion means for performing homography conversion on the image information acquired by the outer camera using the conversion matrix,
As a computer system
The display means displays the image information subjected to the homography conversion on the screen.
A display program characterized by that.
請求項11に記載の表示プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the display program according to claim 11.
JP2013151103A 2013-07-19 2013-07-19 Display device, display method, display program, and information storage medium storing the display program Pending JP2015022589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013151103A JP2015022589A (en) 2013-07-19 2013-07-19 Display device, display method, display program, and information storage medium storing the display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013151103A JP2015022589A (en) 2013-07-19 2013-07-19 Display device, display method, display program, and information storage medium storing the display program

Publications (1)

Publication Number Publication Date
JP2015022589A true JP2015022589A (en) 2015-02-02

Family

ID=52486964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013151103A Pending JP2015022589A (en) 2013-07-19 2013-07-19 Display device, display method, display program, and information storage medium storing the display program

Country Status (1)

Country Link
JP (1) JP2015022589A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184838A (en) * 2014-03-21 2015-10-22 大木 光晴 Image processing device, method, and program
US10242428B2 (en) 2016-06-07 2019-03-26 Samsung Display Co., Ltd. Transparent display apparatus and driving method thereof
KR20210032549A (en) * 2016-09-14 2021-03-24 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and computer program
US11089284B2 (en) 2016-09-14 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus, image generating method, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184838A (en) * 2014-03-21 2015-10-22 大木 光晴 Image processing device, method, and program
US10242428B2 (en) 2016-06-07 2019-03-26 Samsung Display Co., Ltd. Transparent display apparatus and driving method thereof
KR20210032549A (en) * 2016-09-14 2021-03-24 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and computer program
US11089284B2 (en) 2016-09-14 2021-08-10 Canon Kabushiki Kaisha Image processing apparatus, image generating method, and storage medium
KR102382247B1 (en) * 2016-09-14 2022-04-08 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and computer program

Similar Documents

Publication Publication Date Title
US20210131790A1 (en) Information processing apparatus, information processing method, and recording medium
US11189055B2 (en) Information processing apparatus and method and program
TWI505709B (en) System and method for determining individualized depth information in augmented reality scene
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP5871345B2 (en) 3D user interface device and 3D operation method
US9824497B2 (en) Information processing apparatus, information processing system, and information processing method
JP6074494B2 (en) Shape recognition device, shape recognition program, and shape recognition method
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
KR20160122702A (en) Information processing device, information processing method and program
JP2015095802A (en) Display control apparatus, display control method and program
JP7372061B2 (en) Remote work support system
KR20160060582A (en) Device and method for processing visual data, and related computer program product
JP2015022589A (en) Display device, display method, display program, and information storage medium storing the display program
JP2015138428A (en) Additional information display apparatus and additional information display program
JP2010157850A5 (en)
JP5439281B2 (en) User viewpoint space video presentation device, user viewpoint space video presentation method and program
CN105814604B (en) For providing location information or mobile message with the method and system of at least one function for controlling vehicle
JPWO2018025825A1 (en) Imaging system
JPWO2018225804A1 (en) Image display device, image display method, and image display program
JP2017046233A (en) Display device, information processor, and control method of the same
JP6146869B2 (en) Video instruction display method, system, terminal, and program for superimposing instruction image on photographing moving image synchronously
JPWO2011093031A1 (en) Mobile terminal, action history description method, and action history description system
JP5649842B2 (en) Information providing apparatus, information providing method, and program
JP2018088604A (en) Image display device, image display method, and system
JP6156930B2 (en) Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image