JP2009288613A - Information presentation device - Google Patents

Information presentation device Download PDF

Info

Publication number
JP2009288613A
JP2009288613A JP2008142299A JP2008142299A JP2009288613A JP 2009288613 A JP2009288613 A JP 2009288613A JP 2008142299 A JP2008142299 A JP 2008142299A JP 2008142299 A JP2008142299 A JP 2008142299A JP 2009288613 A JP2009288613 A JP 2009288613A
Authority
JP
Japan
Prior art keywords
image
screen
viewpoint
camera
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008142299A
Other languages
Japanese (ja)
Other versions
JP5337409B2 (en
JP2009288613A5 (en
Inventor
Hideaki Arai
英明 新居
Susumu Tate
▲すすむ▼ 舘
Naoki Kawakami
直樹 川上
Takumi Yoshida
匠 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2008142299A priority Critical patent/JP5337409B2/en
Publication of JP2009288613A publication Critical patent/JP2009288613A/en
Publication of JP2009288613A5 publication Critical patent/JP2009288613A5/ja
Application granted granted Critical
Publication of JP5337409B2 publication Critical patent/JP5337409B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Overhead Projectors And Projection Screens (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To present an image with less incompatibility to an external environment on a screen, without the need of directly measuring the position and direction of user's eyeballs. <P>SOLUTION: A viewpoint camera 1 is arranged in a position conjugate to the viewpoint 101 of the user 10. The viewpoint camera 1 is configured to capture an image in the direction of the screen 3 from the viewpoint 101 as a viewpoint image. A background camera 2 is configured to capture an environmental image lying behind the screen 3 as a background image. A projector 4 is arranged in a position conjugate to the viewpoint 101 and the viewpoint camera 1. The projector is configured to project a projection image formed by a processing part 5 on the screen 3. The processing part 5 is configured to make a correspondence between the background image and the viewpoint image and convert the background image to an image in the rear side of the screen 3 from the viewpoint 101. Thus, the projection image is formed. Further, the formed projection image is transmitted by the processing part 5 to the projector 4. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、情報提示装置に関するものである。より詳しくは、本発明は、スクリーンによって視野から隠蔽されている環境についての情報を、スクリーンに提示することができる装置に関するものである。   The present invention relates to an information presentation apparatus. More particularly, the present invention relates to an apparatus capable of presenting information about an environment hidden from view by the screen on the screen.

比較的に小型のスクリーンに画像を投影することにより、オーグメンティド・リアリティ(Augmented Reality: AR)あるいは複合現実感(Mixed Reality: MR)を提供しようとする技術が、下記特許文献1や下記非特許文献1に記載されている。   Technologies that provide Augmented Reality (AR) or Mixed Reality (MR) by projecting an image on a relatively small screen are disclosed in Patent Document 1 and Non-Patent Document 1 below. It is described in Patent Document 1.

これらの文献に記載の技術においては、小型のスクリーンに様々な画像を投射することにより、ARやMRを提供できるようになっている。また、これらの技術では、スクリーンの後ろ側にあると想像される環境の画像をスクリーンに投影することにより、スクリーンの存在を、使用者から認識されにくくすることもできる。つまり、この技術においては、スクリーンを構成する物体を、スクリーンとしてではなく、あたかも環境の一部であるかのように認識させることができる。   In the techniques described in these documents, AR and MR can be provided by projecting various images onto a small screen. Also, with these technologies, it is possible to make the presence of the screen difficult to be recognized by the user by projecting an image of the environment that is supposed to be behind the screen onto the screen. In other words, in this technique, objects constituting the screen can be recognized as if they are part of the environment, not as a screen.

具体的には、これらの技術では、スクリーンの周囲における環境(外部環境)の画像に対して違和感が少ない画像をスクリーンに提示する。これにより、あたかもスクリーンを外部環境に埋没させることができ、その結果、スクリーンの存在感を希薄とすることができる。なお、前記したようにスクリーンの存在感が希薄となることを、ARやMRの分野では、「透明化」と称することがある。   Specifically, in these techniques, an image with less discomfort with respect to an image of the environment (external environment) around the screen is presented on the screen. As a result, the screen can be buried in the external environment, and as a result, the presence of the screen can be made thin. In addition, in the field of AR or MR, the presence of a screen having a small presence as described above may be referred to as “transparency”.

ところで、従来の技術では、外部環境に対して違和感のない画像をスクリーンに投射するために、使用者における眼球の位置や視線の向きを常に測定している。そして、測定された位置や向きから見えるはずの画像と矛盾しない画像を生成して、スクリーンに投射する。これにより、スクリーンの透明化を適切に行うことができる。   By the way, in the conventional technique, the position of the eyeball and the direction of the line of sight of the user are always measured in order to project an image that does not feel uncomfortable with the external environment on the screen. Then, an image consistent with the image that should be seen from the measured position and orientation is generated and projected onto the screen. Thereby, transparency of a screen can be performed appropriately.

ここで、使用者の視線の向きを常に測定するためには、例えば使用者の頭部に、眼球位置や視線検出のための計測装置を取り付ける必要がある。この計測装置は、三次元な位置や向き(姿勢)を計測できるようになっている。このような計測装置は、例えば変位センサや加速度センサを用いて構成できる。
特開2000−122176号公報 INAMI, M., KAWAKAMI, N., AND TACHI, S. 2003. Optical camouflage using retro-reflective projection technology. In Proc. of the 2nd ISMAR '03.
Here, in order to always measure the direction of the user's line of sight, for example, a measuring device for detecting the eyeball position and the line of sight needs to be attached to the user's head. This measuring apparatus can measure a three-dimensional position and orientation (posture). Such a measuring device can be configured using, for example, a displacement sensor or an acceleration sensor.
JP 2000-122176 A INAMI, M., KAWAKAMI, N., AND TACHI, S. 2003. Optical camouflage using retro-reflective projection technology.In Proc. Of the 2nd ISMAR '03.

しかしながら、使用者の頭部に計測装置を取り付けると、その使用者の動きが、計測装置自体やそのための配線によって制約されてしまう。また、従来の計測装置では、使用者の眼球の位置や向きを精度良く計測することが難しいという不都合もあった。眼球の位置や向きの測定精度が劣化すると、投射された画像と外部環境と間の違和感が大きくなり、その結果、スクリーンの透明化が妨げられるおそれがある。   However, when a measuring device is attached to the user's head, the movement of the user is restricted by the measuring device itself and the wiring therefor. In addition, the conventional measuring apparatus has a disadvantage that it is difficult to accurately measure the position and orientation of the user's eyeball. When the measurement accuracy of the position and orientation of the eyeball deteriorates, a sense of incongruity between the projected image and the external environment increases, and as a result, there is a possibility that the transparency of the screen may be hindered.

この問題を避けるため、環境中(例えば室内の天井など)に測定装置を取り付け、使用者の動きを観察することによって眼球の位置や向きを計測することも考えられる。しかしながら、このような技術では、使用者の移動可能な範囲が、計測可能な範囲(例えば室内)のみに制限されてしまう。また、この技術でも、眼球の位置や向きを精度良く計測することは依然として難しいという問題がある。しかも、外部に測定装置を設置すると、装置全体が大型化ないし複雑化し、装置コストや設置コストが増大するという問題もある。   In order to avoid this problem, it is conceivable to measure the position and orientation of the eyeball by attaching a measuring device in the environment (for example, indoor ceiling) and observing the movement of the user. However, with such a technique, the range in which the user can move is limited to a measurable range (for example, indoors). This technique also has a problem that it is still difficult to accurately measure the position and orientation of the eyeball. In addition, when the measuring device is installed outside, there is a problem that the entire device becomes larger or complicated, and the device cost and installation cost increase.

本発明は、このような状況に鑑みてなされたものである。本発明の主な目的は、使用者の眼球の位置や向きを直接に測定することを不要としながら、外部環境に対して違和感の少ない画像をスクリーンに提示することを可能にする技術を提供することである。   The present invention has been made in view of such a situation. A main object of the present invention is to provide a technique that makes it possible to present an image with less discomfort to the external environment on the screen without directly measuring the position and orientation of the user's eyeball. That is.

本発明は、下記のいずれかの項目に記載の構成を備えている。   The present invention has a configuration described in any of the following items.

(項目1)
視点カメラと、背景カメラと、スクリーンと、プロジェクタと、処理部とを備えており、
前記視点カメラは、使用者の視点と共役となる位置に配置されており、
かつ、前記視点カメラは、前記視点から前記スクリーンの方向を見たときの、前記スクリーン及びその周囲についての画像を視点画像として取得する構成となっており、
前記背景カメラは、前記視点から前記スクリーンを見たときに前記スクリーンの後ろ側に存在する環境についての画像を背景画像として取得する構成となっており、
前記スクリーンは、前記使用者の視野内において、背景と共に使用者に視認される程度に小さいサイズとされており、
かつ、前記スクリーンは、前記プロジェクタから投影された画像の少なくとも一部を、前記使用者の視点に向けて反射することができる構成となっており、
前記プロジェクタは、前記視点及び前記視点カメラと共役となる位置に配置されており、
かつ、前記プロジェクタは、前記処理部で生成された投影画像を前記スクリーンに投影する構成となっており、
前記処理部は、
前記背景カメラで取得した前記背景画像と、前記視点カメラで取得した前記視点画像とを対応させることにより、前記背景画像を、前記視点から前記スクリーンの後ろ側を見た場合の画像に変換し、これによって、投影画像を生成する処理を行う
構成となっており、
さらに、前記処理部は、生成された前記投影画像を前記プロジェクタに送る構成となっている
ことを特徴とする情報提示装置。
(Item 1)
It has a viewpoint camera, a background camera, a screen, a projector, and a processing unit.
The viewpoint camera is arranged at a position conjugate with the user's viewpoint,
And the viewpoint camera is configured to acquire an image of the screen and its surroundings as a viewpoint image when the direction of the screen is viewed from the viewpoint.
The background camera is configured to acquire, as a background image, an image of an environment existing on the back side of the screen when the screen is viewed from the viewpoint.
The screen is small enough to be visually recognized by the user together with the background within the user's field of view.
And the screen is configured to reflect at least a part of the image projected from the projector toward the user's viewpoint,
The projector is disposed at a position conjugate with the viewpoint and the viewpoint camera,
And the projector is configured to project the projection image generated by the processing unit onto the screen,
The processor is
By associating the background image acquired by the background camera with the viewpoint image acquired by the viewpoint camera, the background image is converted into an image when the back side of the screen is viewed from the viewpoint, As a result, a process for generating a projection image is performed.
Furthermore, the processing unit is configured to send the generated projection image to the projector.

視点カメラを使用者の視点と共役な位置に配置することにより、視点から見た画像を視点カメラで取得することができる。なお、この明細書では、視点カメラで得られた画像(この画像は、視点から見たときの画像に相当している)を視点画像と称している。   By arranging the viewpoint camera at a position conjugate with the user's viewpoint, an image viewed from the viewpoint can be acquired by the viewpoint camera. In this specification, an image obtained by a viewpoint camera (this image corresponds to an image viewed from the viewpoint) is referred to as a viewpoint image.

また、この発明では、プロジェクタを、使用者の視点及び視点カメラと共役な位置に配置している。すると、視点カメラで取得した視点画像と同じ画像を仮にプロジェクタからスクリーンに投影すると、使用者は、その画像を違和感なく観察することが可能になる。   In the present invention, the projector is disposed at a position conjugate with the user's viewpoint and the viewpoint camera. Then, if the same image as the viewpoint image acquired by the viewpoint camera is projected onto the screen from the projector, the user can observe the image without a sense of incongruity.

本発明では、視点カメラで取得した視点画像を基準として、背景画像を変換し、これによって、投影画像を生成して、スクリーン上に提示することができる。生成された投影画像は、視点画像を基準として変換されているので、視点画像に対して違和感が少ないものとすることができる。一方、使用者は、スクリーンに提示された投影画像と、スクリーンの周囲の環境とを同時に観察することができる。このとき、使用者は、投影画像と周囲の環境との間における違和感をあまり感じないので、スクリーンが周囲環境に埋没しているかのように感じることができる。   In the present invention, it is possible to convert a background image on the basis of a viewpoint image acquired by a viewpoint camera, thereby generating a projection image and presenting it on a screen. Since the generated projection image is converted on the basis of the viewpoint image, it is possible to reduce discomfort with respect to the viewpoint image. On the other hand, the user can simultaneously observe the projected image presented on the screen and the environment around the screen. At this time, the user does not feel a sense of incongruity between the projected image and the surrounding environment, and can feel as if the screen is buried in the surrounding environment.

しかも、本発明では、視点画像を基準として背景画像を変換しているので、使用者の眼球の位置や姿勢を測定する必要がない。このため、眼球の位置や姿勢を測定する装置の設置を省略することが可能になり、使用者の移動を容易にすることができる。   In addition, in the present invention, since the background image is converted based on the viewpoint image, it is not necessary to measure the position and posture of the user's eyeball. For this reason, it becomes possible to omit the installation of a device for measuring the position and posture of the eyeball, and the movement of the user can be facilitated.

また、本発明では、視点画像を基準として背景画像を変換しているので、測定された眼球の位置や姿勢を基準にする場合に比較して、一層適切な投影画像を生成することが可能になる。   Further, in the present invention, since the background image is converted based on the viewpoint image, it is possible to generate a more appropriate projection image as compared with the case where the measured position and orientation of the eyeball are used as a reference. Become.

(項目2)
前記背景カメラは、前記スクリーンの背面側の位置に配置されている、項目1に記載の情報提示装置。
(Item 2)
The information presentation apparatus according to item 1, wherein the background camera is disposed at a position on a back side of the screen.

スクリーンの背面側に背景カメラを設置することにより、背景画像の取得が容易となる。   By installing a background camera on the back side of the screen, acquisition of a background image is facilitated.

(項目3)
前記背景カメラは、前記視点カメラとほぼ同じ向きに配置されている、項目2に記載の情報提示装置。
(Item 3)
Item 3. The information presentation device according to Item 2, wherein the background camera is arranged in substantially the same direction as the viewpoint camera.

背景カメラと視点カメラの向きが大きく異なると、遮蔽関係(いわゆるオクルージョン)において、背景画像と視点画像との間の矛盾を生じる可能性が高まる。これに対して、この項目の発明では、両カメラがの向きをほぼ同じとすることにより、このような問題の回避を容易とすることができる。   When the orientations of the background camera and the viewpoint camera are greatly different, there is a high possibility of inconsistency between the background image and the viewpoint image in the occlusion relationship (so-called occlusion). On the other hand, in the invention of this item, avoiding such a problem can be facilitated by making the directions of both cameras substantially the same.

(項目4)
前記スクリーンは、再帰性反射スクリーンとされている、項目1〜3のいずれか1項に記載の情報提示装置。
(Item 4)
The information presentation device according to any one of items 1 to 3, wherein the screen is a retroreflective screen.

スクリーンを拡散反射スクリーンとした場合には、スクリーンに投射された画像が、外乱光(例えば環境中に存在する光)の影響により、使用者からは見づらくなる可能性がある。これに対して、この項目の発明では、再帰性反射スクリーンを用いることにより、スクリーンに投射された画像の輝度は、外乱光に対して十分に強くなる。このため、スクリーンに提示される投射画像の視認性を向上させることができる。   When the screen is a diffuse reflection screen, the image projected on the screen may be difficult for the user to see due to the influence of disturbance light (for example, light existing in the environment). On the other hand, in the invention of this item, by using the retroreflective screen, the brightness of the image projected on the screen is sufficiently strong against disturbance light. For this reason, the visibility of the projected image presented on the screen can be improved.

(項目5)
前記スクリーンは、外側に凸となる円弧面を備えている、項目1〜4のいずれか1項に記載の情報提示装置。
(Item 5)
The information display device according to any one of items 1 to 4, wherein the screen includes an arc surface that is convex outward.

外側に凸となる円弧面を備えたスクリーンとは、例えば、球状スクリーン、円筒状スクリーンであるが、これらには制限されない。   Examples of the screen having an arc surface protruding outward are a spherical screen and a cylindrical screen, but are not limited thereto.

円弧面上に投影画像を提示することにより、使用者が移動しても、投影画像を観察することが可能になる。使用者が移動することにより、視点画像や背景画像も変化する場合は、適宜な周期で投影画像を再生成することにより、違和感の少ない投影画像を使用者に提示することができる。   By presenting the projection image on the arc surface, the projection image can be observed even if the user moves. When the viewpoint image and the background image change due to the movement of the user, it is possible to present the projection image with a little uncomfortable feeling to the user by regenerating the projection image at an appropriate cycle.

(項目6)
前記背景カメラは、複数とされており、
かつ、前記背景カメラは、前記円弧面の後ろ側に存在する環境の画像を取得するように配置されており、
さらに、前記複数の背景カメラの向きは、互いに異なっている
項目5に記載の情報提示装置。
(Item 6)
The background camera is a plurality,
And the said background camera is arrange | positioned so that the image of the environment which exists in the back side of the said circular arc surface may be acquired,
6. The information presentation device according to item 5, wherein directions of the plurality of background cameras are different from each other.

互いに向きの異なる複数のカメラを用いることにより、使用者が移動しても、移動位置に応じた適切な背景画像を取得することが容易になる。例えば円筒状スクリーンを用いた場合は、スクリーンの外周面から、その外側の方向(半径の延長方向)に向けてカメラを設置することが好ましい。   By using a plurality of cameras having different directions, it is easy to obtain an appropriate background image corresponding to the moving position even if the user moves. For example, when a cylindrical screen is used, it is preferable to install the camera from the outer peripheral surface of the screen toward the outside direction (radius extension direction).

(項目7)
前記処理部において、前記投影画像を生成する処理は、以下の処理により行われる、項目1〜6のいずれか1項に記載の情報提示装置:
(1)前記背景画像と、前記視点画像との間における、対応点を取得する処理;
(2)前記対応点の情報に基づいて、前記背景画像を射影変換する処理。
(Item 7)
The information presentation device according to any one of items 1 to 6, wherein the processing unit generates the projection image by the following processing:
(1) Processing for obtaining corresponding points between the background image and the viewpoint image;
(2) A process for projective transformation of the background image based on the corresponding point information.

対応点の情報に基づいて、背景画像を射影変換することにより、視点から見た環境画像に対して違和感の少ない投影画像を生成することができる。しかも、この項目の発明では、立体構造モデルを生成しなくても、いわゆるイメージベースド・レンダリング(Image-Based Rendering: IBR)の手法により、投影画像を生成することができる。   By performing projective transformation on the background image based on the corresponding point information, it is possible to generate a projected image with less discomfort with respect to the environment image viewed from the viewpoint. In addition, in the invention of this item, a projection image can be generated by a so-called image-based rendering (IBR) technique without generating a three-dimensional structure model.

(項目8)
前記プロジェクタから投影される前記投影画像は、前記スクリーンと、前記スクリーンの外側とにわたって投影される構成となっている
項目1〜7のいずれか1項に記載の情報提示装置。
(Item 8)
The information presentation device according to any one of items 1 to 7, wherein the projection image projected from the projector is configured to be projected across the screen and the outside of the screen.

投影画像を、スクリーンとそのスクリーンの周囲との両者にわたるように投影することができる。この場合には、スクリーンを移動させたり、使用者が移動した場合であっても、スクリーンがプロジェクタの投影範囲内にあれば、違和感の少ない投影画像をスクリーン上に提示することができる。   The projected image can be projected across both the screen and the periphery of the screen. In this case, even when the screen is moved or the user moves, if the screen is within the projection range of the projector, a projected image with a little uncomfortable feeling can be presented on the screen.

また、この項目の発明では、プロジェクタの投影範囲(投影角)を予め広く設定することができる。プロジェクタの投影範囲をスクリーン上のみに制限しようとすると、そのための装置構成が必要になってしまう。これに対して、この項目の発明では、そのような装置構成が不要になり、装置コストや設置コストの低減を図ることができる。また、この発明では、視点画像に対して矛盾のない投影画像を生成して投影するので、広範囲に投影された画像が当該使用者に視認されても、支障は少ないと考えられる。   In the invention of this item, the projection range (projection angle) of the projector can be set wide in advance. If an attempt is made to limit the projection range of the projector only to the screen, an apparatus configuration for that purpose is required. On the other hand, in the invention of this item, such an apparatus configuration becomes unnecessary, and the apparatus cost and the installation cost can be reduced. Further, in the present invention, a projection image having no contradiction with respect to the viewpoint image is generated and projected. Therefore, even if an image projected over a wide range is visually recognized by the user, it is considered that there is little trouble.

(項目9)
前記視点カメラ及び/又は前記プロジェクタは、使用者の頭部に装着される構成となっている
項目1〜8のいずれか1項に記載の情報提示装置。
(Item 9)
The information presentation device according to any one of items 1 to 8, wherein the viewpoint camera and / or the projector is configured to be mounted on a user's head.

カメラ及び/又はプロジェクタを使用者の頭部に設置することにより、使用者が移動しても、カメラ及びプロジェクタを使用者の視点と共役な位置に保つことが容易となる。また、視点カメラ及び/又はプロジェクタを、使用者の頭部に装着することにより、使用者の視点と、カメラやプロジェクタにおける共役点とを物理的に(例えば固定具により)接続することができる。このため、この項目の発明では、視点画像を精度良く生成することができる。さらには、使用者にとって、投影画像を正確に視認することが容易になる。   By installing the camera and / or projector on the user's head, it is easy to keep the camera and projector in a conjugate position with the user's viewpoint even when the user moves. In addition, by mounting the viewpoint camera and / or projector on the user's head, the user's viewpoint and the conjugate point of the camera or projector can be physically connected (for example, by a fixture). For this reason, in the invention of this item, the viewpoint image can be generated with high accuracy. Furthermore, it becomes easy for the user to visually recognize the projected image accurately.

(項目10)
以下のステップを備えることを特徴とする情報提示方法:
(a)使用者の視点からスクリーンの方向を見たときの、スクリーン及びその周囲についての画像を視点画像として取得するステップ;
(b)前記視点から前記スクリーンを見たときに前記スクリーンの後ろ側に存在する環境についての画像を背景画像として取得するステップ;
(c)前記背景カメラで取得した前記背景画像と、前記視点カメラで取得した前記視点画像とを対応させることにより、前記背景画像を、前記視点から前記スクリーンの後ろ側を見た場合の画像に変換し、これによって、投影画像を生成するステップ;
(d)前記処理部で生成された投影画像を、前記視点の位置から、前記スクリーンに投影するステップ。
(Item 10)
An information presentation method comprising the following steps:
(A) a step of acquiring images of the screen and its surroundings as viewpoint images when the direction of the screen is viewed from the viewpoint of the user;
(B) obtaining an image of an environment existing behind the screen as the background image when the screen is viewed from the viewpoint;
(C) By associating the background image acquired by the background camera with the viewpoint image acquired by the viewpoint camera, the background image is changed to an image when the back side of the screen is viewed from the viewpoint. Converting and thereby generating a projection image;
(D) Projecting the projection image generated by the processing unit onto the screen from the viewpoint position.

(項目11)
項目10に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。
(Item 11)
A computer program for causing a computer to execute each step according to item 10.

このコンピュータプログラムは、各種の記録媒体、例えば、磁気的記録媒体(ハードディスクなど)、電気的記録媒体(フラッシュメモリやDRAMなど)、光学的記録媒体(CDやDVDなど)、光磁気的記録媒体(MOなど)に記録することができる。記録媒体の種類はこれらに制約されない。また、このプログラムは、各種の媒体(光ファイバや銅線など)を介して、信号として伝達されることができる。   This computer program can be recorded on various recording media such as a magnetic recording medium (such as a hard disk), an electrical recording medium (such as a flash memory or DRAM), an optical recording medium (such as a CD or DVD), or a magneto-optical recording medium (such as a hard disk). MO etc.). The type of the recording medium is not limited to these. The program can be transmitted as a signal via various media (such as an optical fiber and a copper wire).

このプログラムは、各種の言語(例えばC言語やアセンブリ言語)により記述されることができる。また、このプログラムは、実行前にコンパイルを要する言語で記述されてもよい。この場合において、このプログラムは、コンパイル前のものであっても、コンパイル後のものであってもよい。   This program can be described in various languages (for example, C language or assembly language). The program may be described in a language that requires compilation before execution. In this case, the program may be a pre-compiled program or a compiled program.

本発明によれば、使用者の眼球の位置や向きを直接に測定することを不要としながら、外部環境に対して違和感の少ない画像をスクリーンに提示することが可能になる。   According to the present invention, it is possible to present on the screen an image that is less uncomfortable with respect to the external environment while eliminating the need to directly measure the position and orientation of the user's eyeball.

(第1実施形態)
以下、本発明の第1実施形態に係る情報提示装置の構成を、図1及び図2に基づいて説明する。
(First embodiment)
Hereinafter, the configuration of the information presentation apparatus according to the first embodiment of the present invention will be described with reference to FIGS. 1 and 2.

(第1実施形態の構成)
本実施形態に係る情報提示装置は、視点カメラ1と、背景カメラ2と、スクリーン3と、プロジェクタ4と、処理部5と、第1ハーフミラー6と、第2ハーフミラー7と、ケーシング8とを主要な構成として備えている(図1参照)。
(Configuration of the first embodiment)
The information presentation apparatus according to the present embodiment includes a viewpoint camera 1, a background camera 2, a screen 3, a projector 4, a processing unit 5, a first half mirror 6, a second half mirror 7, and a casing 8. As a main configuration (see FIG. 1).

視点カメラ1は、使用者10の視点101と共役となる位置に配置されている。具体的には、視点カメラ1と視点101との間には、第1ハーフミラー6と第2ハーフミラー7とが配置されており、これによって、視点カメラ1と視点101とが共役となっている。   The viewpoint camera 1 is disposed at a position conjugate with the viewpoint 101 of the user 10. Specifically, the first half mirror 6 and the second half mirror 7 are arranged between the viewpoint camera 1 and the viewpoint 101, and thereby the viewpoint camera 1 and the viewpoint 101 become conjugate. Yes.

視点カメラ1は、視点101からスクリーン3の方向を見たときの、スクリーン3及びその周囲についての画像を取得する構成となっている。このように取得された画像を、この明細書では視点画像と称している。   The viewpoint camera 1 is configured to acquire images about the screen 3 and its surroundings when the direction of the screen 3 is viewed from the viewpoint 101. The image acquired in this way is referred to as a viewpoint image in this specification.

視点カメラ1は、プロジェクタ4及び第1ハーフミラー6と共に、ケーシング8の内部に収納されている(ケーシング8については後述する)。   The viewpoint camera 1 is housed in a casing 8 together with the projector 4 and the first half mirror 6 (the casing 8 will be described later).

この実施形態では、視点カメラ1の画角は、スクリーン3だけでなく、スクリーン3の周囲(外側)にわたる画像を撮影できるように設定されている。つまり、本実施形態における視点カメラ1は、スクリーン3の周囲における環境の画像も撮影できる構成となっている。   In this embodiment, the angle of view of the viewpoint camera 1 is set so that not only the screen 3 but also an image over the periphery (outside) of the screen 3 can be taken. That is, the viewpoint camera 1 in the present embodiment is configured to be able to capture an image of the environment around the screen 3.

視点カメラ1は、画像データを取得して処理部5に送ることができるように構成されている。視点カメラ1は、静止画に限らず、動画を取得するものであってもよい。動画は静止画の連続として把握できるので、本明細書の説明においては、静止画を前提として説明する。視点カメラ1は、既定の周期で、視点画像を取得するようになっている。既定の周期は、適宜に設定できる。例えば、1秒当たり10〜60枚程度の画像を取得することが好ましいが、処理部5の能力などの制約条件によって上限が決まる。   The viewpoint camera 1 is configured to acquire image data and send it to the processing unit 5. The viewpoint camera 1 is not limited to a still image, and may be a camera that acquires a moving image. Since a moving image can be grasped as a sequence of still images, the description in this specification will be based on the assumption of still images. The viewpoint camera 1 acquires viewpoint images at a predetermined cycle. The predetermined period can be set as appropriate. For example, it is preferable to acquire about 10 to 60 images per second, but the upper limit is determined by constraints such as the capability of the processing unit 5.

背景カメラ2は、視点101からスクリーン3を見たときにスクリーン3の後ろ側に存在する環境についての画像を取得する構成となっている。このように取得された画像を、この明細書では背景画像と称している。   The background camera 2 is configured to acquire an image of the environment existing behind the screen 3 when the screen 3 is viewed from the viewpoint 101. The image acquired in this way is referred to as a background image in this specification.

背景カメラ2は、この実施形態では、円筒状に形成されたスクリーン3(後述)に取り付けられており、スクリーン3の外側方向に向けて設置されている。また、背景カメラ2は、使用者10から離間した位置(背面側の位置)に設置されている。   In this embodiment, the background camera 2 is attached to a screen 3 (described later) formed in a cylindrical shape, and is set toward the outside of the screen 3. Further, the background camera 2 is installed at a position (a position on the back side) that is separated from the user 10.

背景カメラ2は、背景についての画像データを取得して処理部5に送ることができるように構成されている。背景カメラ2は、視点カメラ1と同様に、動画を取得するものであってもよいが、ここでは静止画を前提として説明する。また、背景カメラ2は、視点カメラ1と同期して、既定の周期で、背景画像を取得するようになっている。   The background camera 2 is configured to acquire image data about the background and send it to the processing unit 5. The background camera 2 may acquire a moving image as in the case of the viewpoint camera 1, but will be described on the premise of a still image here. Further, the background camera 2 acquires a background image in a predetermined cycle in synchronization with the viewpoint camera 1.

スクリーン3は、使用者10の視野内において、背景と共に使用者に視認される程度に小さいサイズとされている。すなわち、スクリーン3の大きさは、「スクリーン3を見たときに、スクリーン3の周囲に、スクリーン3の外部に存在する環境の画像を観察できる程度」とされている。視野の全体がスクリーンで覆われて、外部環境が観察できないような条件下では、本実施形態の技術を適用することは難しいと考えられる。   The screen 3 has a size small enough to be visually recognized by the user together with the background within the visual field of the user 10. That is, the size of the screen 3 is such that “when the screen 3 is viewed, an image of an environment existing outside the screen 3 can be observed around the screen 3”. It is considered that it is difficult to apply the technique of the present embodiment under the condition that the entire visual field is covered with the screen and the external environment cannot be observed.

スクリーン3は、プロジェクタ4から投影された画像の少なくとも一部を、使用者の視点に向けて反射することができる構成となっている。   The screen 3 is configured to reflect at least part of the image projected from the projector 4 toward the user's viewpoint.

具体的には、この実施形態においては、スクリーン3は、再帰性反射スクリーンとされている。再帰性反射スクリーンとしては、再帰性反射機能を備えた各種の構成のものを利用することができる。例えば、基材(図示せず)の表面に再帰性反射材料(例えばガラスビーズ)を塗布した構成のものを利用できる。もちろん、この構成に制約される必要はない。再帰性反射スクリーンの基本的な構成としては、前記した特許文献1や非特許文献1に記載されたものと同様でよいので、これ以上詳しい説明は省略する。   Specifically, in this embodiment, the screen 3 is a retroreflective screen. As the retroreflective screen, various configurations having a retroreflective function can be used. For example, the thing of the structure which apply | coated the retroreflection material (for example, glass bead) to the surface of a base material (not shown) can be utilized. Of course, there is no need to be constrained by this configuration. The basic configuration of the retroreflective screen may be the same as that described in Patent Document 1 and Non-Patent Document 1 described above, and thus detailed description thereof is omitted.

また、本実施形態におけるスクリーン3は、外側に凸となる円弧面を備えたものとなっている。具体的には、本実施形態のスクリーン3は、円筒状に形成されている。そして、その外周面が、外側に凸となる円弧面を備えたスクリーンとなっている。ただし、スクリーン3の形状としては、円筒状に限らず、例えば球状のものを用いることができる。なお、スクリーン3の形状は、プロジェクタ4の投影範囲内の大きさであれば、特に制約されない。スクリーン3の形状としては、平面,球体,円筒形のような単純な形状だけでなく、人の立体形状など、複雑な形状であってもよい。このような場合でも、プロジェクタ4によって、視点101と共役な点から画像を投影すれば、歪みの無い投影が可能になる。   Further, the screen 3 in the present embodiment is provided with an arc surface that is convex outward. Specifically, the screen 3 of the present embodiment is formed in a cylindrical shape. And the outer peripheral surface becomes a screen provided with the circular arc surface which becomes convex outside. However, the shape of the screen 3 is not limited to a cylindrical shape, and for example, a spherical shape can be used. The shape of the screen 3 is not particularly limited as long as it is a size within the projection range of the projector 4. The shape of the screen 3 may be not only a simple shape such as a plane, a sphere, and a cylinder, but also a complicated shape such as a three-dimensional shape of a person. Even in such a case, if the projector 4 projects an image from a point conjugate with the viewpoint 101, projection without distortion becomes possible.

プロジェクタ4は、視点101及び視点カメラ1と共役となる位置に配置されている。具体的には、プロジェクタ4は、第1ハーフミラー6の作用により、視点101と共役となっている。さらに、プロジェクタ4は、第2ハーフミラー7の作用により、視点カメラ1と共役となっている。   The projector 4 is disposed at a position conjugate with the viewpoint 101 and the viewpoint camera 1. Specifically, the projector 4 is conjugate with the viewpoint 101 by the action of the first half mirror 6. Further, the projector 4 is conjugate with the viewpoint camera 1 by the action of the second half mirror 7.

プロジェクタ4は、処理部5で生成された投影画像(後述)を、第1及び第2ハーフミラー6及び7を介して、スクリーン3に投影する構成となっている。   The projector 4 is configured to project a projection image (described later) generated by the processing unit 5 onto the screen 3 via the first and second half mirrors 6 and 7.

この実施形態では、プロジェクタ4から投影される投影画像は、スクリーン3だけでなく、スクリーン3の周囲(外側)にわたって投影される構成となっている。つまり、本実施形態におけるプロジェクタ4の投影角は、スクリーン3の周囲にまで画像を投影できる大きさに設定されている。   In this embodiment, the projection image projected from the projector 4 is configured to be projected not only on the screen 3 but also around the screen 3 (outside). That is, the projection angle of the projector 4 in the present embodiment is set to a size that can project an image up to the periphery of the screen 3.

プロジェクタ4及び視点カメラ1は、前記したように、ケーシング8の内部に収納されている(図2参照)。ケーシング8は、図示しない固定具により、使用者の頭部(例えば側頭部)に固定されるようになっている。もちろん、固定を解除すれば、ケーシング8を頭部から除去することもできるようになっている。   As described above, the projector 4 and the viewpoint camera 1 are accommodated in the casing 8 (see FIG. 2). The casing 8 is fixed to the user's head (for example, the temporal region) by a fixture (not shown). Of course, if the fixing is released, the casing 8 can be removed from the head.

したがって、本実施形態においては、視点カメラ1とプロジェクタ4とが、ケーシング8を介して、使用者10の頭部に装着される構成となっている。   Therefore, in this embodiment, the viewpoint camera 1 and the projector 4 are configured to be mounted on the user's 10 head via the casing 8.

処理部5は、まず、背景カメラ2で取得した背景画像と、視点カメラ1で取得した視点画像とを対応させる。これにより、背景画像を、視点101からスクリーン3の後ろ側を見た場合の画像に変換できる。処理部5では、この処理によって、投影画像を生成するようになっている。さらに、処理部5は、生成された投影画像をプロジェクタ4に送る構成となっている。   The processing unit 5 first associates the background image acquired by the background camera 2 with the viewpoint image acquired by the viewpoint camera 1. As a result, the background image can be converted into an image when the back side of the screen 3 is viewed from the viewpoint 101. The processing unit 5 generates a projection image by this processing. Further, the processing unit 5 is configured to send the generated projection image to the projector 4.

より具体的には、本実施形態の処理部5においては、投影画像を生成する処理を、以下の処理により行っている:
(1)背景画像と視点画像との間における、対応点を取得する処理;
(2)対応点の情報に基づいて、背景画像を射影変換する処理。
More specifically, in the processing unit 5 of the present embodiment, the process of generating a projection image is performed by the following process:
(1) Processing for acquiring corresponding points between the background image and the viewpoint image;
(2) A process for projective transformation of the background image based on the corresponding point information.

処理部5は、例えば、パーソナルコンピュータやワークステーションなどの適宜のハードウエアと、このハードウエアを動作させる適宜なプログラムによって構成することができる。処理部5における具体的な動作は後述する。   The processing unit 5 can be configured by, for example, appropriate hardware such as a personal computer or a workstation and an appropriate program for operating the hardware. Specific operations in the processing unit 5 will be described later.

(第1実施形態の動作)
次に、本実施形態に係る情報提示装置の動作を、図3に示すフローチャートを主に参照しながら説明する。また、使用者10とスクリーン3と環境との配置関係の一例を、図4に概略的に示す。図4において符号9は、外部環境(正確にはその一部)を示す。さらに、使用者10とスクリーン3との位置関係を、図5に概念的に示す。なお、処理部5と各カメラ及びプロジェクタとの間でデータ伝送を行うための通信路としては、無線あるいは有線を用いることができる。無線通信路を構成するためのプロトコルとしては、例えばBluetoothを用いることができるが、これには制約されない。
(Operation of the first embodiment)
Next, the operation of the information presentation apparatus according to the present embodiment will be described with reference mainly to the flowchart shown in FIG. An example of the positional relationship among the user 10, the screen 3, and the environment is schematically shown in FIG. In FIG. 4, reference numeral 9 indicates an external environment (exactly part thereof). Furthermore, the positional relationship between the user 10 and the screen 3 is conceptually shown in FIG. Note that wireless or wired communication can be used as a communication path for performing data transmission between the processing unit 5 and each camera and projector. As a protocol for configuring the wireless communication path, for example, Bluetooth can be used, but is not limited thereto.

(ステップSA−1及びSA−2)
背景カメラ2により、背景画像を撮影する。撮影した画像の一例を図6(a)に示す。その後、取得した背景画像におけるレンズ歪みを補正する。その結果得られた背景画像を図6(b)に示す。レンズ歪みを補正する技術については、既存技術を用いることができるので、詳細についての説明は省略する。
(Steps SA-1 and SA-2)
A background image is taken by the background camera 2. An example of the photographed image is shown in FIG. Thereafter, the lens distortion in the acquired background image is corrected. The background image obtained as a result is shown in FIG. Since the existing technique can be used as the technique for correcting the lens distortion, a detailed description thereof will be omitted.

(ステップSA−3及びSA−4)
前記したステップと前後して、あるいはこれらのステップと並行して、視点カメラ1により、視点画像を撮影する。撮影した画像の一例を図6(c)に示す。その後、前記したステップSA−2の場合と同様に、取得した視点画像におけるレンズ歪みを補正する。その結果得られた視点画像を図6(d)に示す。
(Steps SA-3 and SA-4)
A viewpoint image is taken by the viewpoint camera 1 before or after the above steps or in parallel with these steps. An example of the photographed image is shown in FIG. Thereafter, as in the case of step SA-2 described above, lens distortion in the acquired viewpoint image is corrected. FIG. 6D shows the viewpoint image obtained as a result.

(ステップSA−5)
次に、補正後の背景画像と視点画像との間における対応点を探索する。対応点探索アルゴリズムの一例を、以下に詳しく説明する。
(Step SA-5)
Next, a corresponding point between the corrected background image and the viewpoint image is searched. An example of the corresponding point search algorithm will be described in detail below.

異なる位置にあるカメラによって撮影された画像間の対応を得るのは、一般に難しい問題である。本実施形態では、背景物体が平面であるか、あるいは各カメラから十分に離れていると仮定した。その上で、背景画像と視点画像の対応を求めるために、Scale-Invariant Feature Transform(SIFT)と呼ばれる手法を用いる。SIFTとは、特徴点の検出と特徴量の記述を行うアルゴリズムである。SIFTは画像の回転・スケール変化・照明変化等に頑健な特徴量を記述する。このため、SIFTは、異なる視点から得られた画像の間の対応を求めるのに適している。また、SIFTは、画像の線形変換が行われた場合でも、画像間の対応を検出できるため、背景物体が平面であるか、もしくはカメラから十分に離れているという条件を満たせば、非常に精度よく対応を得ることができる。また、仮に、背景物体が平面である等の条件を満たさない場合でも、画像間で特徴的な点を対応付けるため、人間が見た場合において最適に近い投影画像を生成しうる技術であると考えられる。   Obtaining correspondence between images taken by cameras at different positions is generally a difficult problem. In the present embodiment, it is assumed that the background object is a plane or is sufficiently away from each camera. In addition, a method called Scale-Invariant Feature Transform (SIFT) is used to obtain the correspondence between the background image and the viewpoint image. SIFT is an algorithm for detecting feature points and describing feature quantities. SIFT describes features that are robust to image rotation, scale changes, lighting changes, and so on. For this reason, SIFT is suitable for obtaining correspondence between images obtained from different viewpoints. SIFT can detect correspondence between images even when linear transformation of images is performed, so if the condition that the background object is a plane or is sufficiently far from the camera is satisfied, it will be very accurate. You can get a good response. In addition, even if the background object is not a flat surface or the like, it is considered to be a technique that can generate a projection image that is close to optimal when viewed by a human because a characteristic point is associated between images. It is done.

以下に、SIFTのアルゴリズムを概説する。SIFTの処理は、特徴点の検出と特徴量の記述の2段階から成る。   The SIFT algorithm is outlined below. SIFT processing consists of two stages: feature point detection and feature quantity description.

(特徴点の検出)
特徴点の検出では、まず、スケールの異なる平滑化画像の差分である、Difference-of-Gaussian(DOG)画像から極値を探索する。これにより、候補点の位置とスケールとを決定する。次に、検出された候補点に対して、主曲率とコントラストによる絞り込みを行う。さらに、サブピクセル推定により特徴点の位置とスケールを算出する。
(Detection of feature points)
In the detection of feature points, first, an extreme value is searched from a Difference-of-Gaussian (DOG) image that is a difference between smoothed images having different scales. Thereby, the position and scale of the candidate point are determined. Next, the detected candidate points are narrowed down by the main curvature and contrast. Further, the position and scale of the feature point are calculated by subpixel estimation.

(特徴量の記述)
次に、特徴量の記述を行う。まず、検出した特徴点近傍の輝度勾配から、オリエンテーションを求める。オリエンテーションの方向に回転して特徴量を記述することで、特徴量は、回転に不変となる。そして、特徴点を中心とした、その特徴点のスケールを半径とした円領域内の輝度勾配情報を、特徴ベクトルとして記述する。
(Description of features)
Next, the feature amount is described. First, orientation is obtained from the brightness gradient in the vicinity of the detected feature point. By describing the feature value by rotating in the orientation direction, the feature value becomes invariant to the rotation. Then, luminance gradient information in a circular area centered on the feature point and having the radius of the scale of the feature point is described as a feature vector.

SIFTのアルゴリズムとしては、文献(例えばD. G. Lowe. Object recognition from local scaleinvariant features. In Proc. of IEEE International Conference on Computer Vision (ICCV), pp. 1150.1157, 1999.)に記載のものを用いることができるので、これ以上詳しい説明は省略する。   As SIFT algorithms, those described in the literature (eg, DG Lowe. Object recognition from local scaleinvariant features. In Proc. Of IEEE International Conference on Computer Vision (ICCV), pp. 1150.1157, 1999.) can be used. Detailed description will be omitted.

特徴点を検出した結果の例を図7に示す。この図において符号11は視点画像、符号21は背景画像を示す。また、両画像間を結ぶ多数の線は、特徴点の対応関係を表している。   An example of the result of detecting the feature points is shown in FIG. In this figure, reference numeral 11 denotes a viewpoint image, and reference numeral 21 denotes a background image. In addition, a large number of lines connecting the two images represent the correspondence between feature points.

(ステップSA−6)
ついで、対応点の探索結果に基づいて、射影変換行列を算出する。この算出アルゴリズムを以下に詳しく説明する。
(Step SA-6)
Next, a projective transformation matrix is calculated based on the corresponding point search result. This calculation algorithm will be described in detail below.

2台のカメラで1つの平面を撮影した場合、得られる2枚の画像間の対応は、平面射影変換によって関係づけられる。この対応関係を図8に概念的に示した。図8における符号Hが、射影変換行列である。   When one plane is photographed by two cameras, the correspondence between the two obtained images is related by plane projective transformation. This correspondence is conceptually shown in FIG. A symbol H in FIG. 8 is a projective transformation matrix.

2次元平面上の点
x = [x, y]
から同じく2次元平面上の点
x′= [x′, y′]
への射影変換は、[x1, x2, x3] 〜 [x, y, 1]なる同値関係が成り立つような斉次座標
xチルダ = [x1, x2, x3]
を用いれば、
と書ける。ここで、s は任意の実数であり、Hは次のような3×3行列である。
Point on 2D plane
x = [x, y] T
From the same point on the two-dimensional plane
x ′ = [x ′, y ′] T
Projective transformation to the, [x1, x2, x3] T ~ [x, y, 1] T becomes homogeneous coordinates as equivalence relation is established
x tilde = [x1, x2, x3] T
If you use
Can be written. Here, s is an arbitrary real number, and H is a 3 × 3 matrix as follows.

Hを射影変換行列と呼ぶ。周期的に撮影した各画像(すなわち各フレーム)ごとに、行列Hを求める。背景カメラ2で撮影した画像を射影変換することによって、使用者10の視点101から見たときの画像が得られる。上に例示した射影変換行列Hの要素数は9であるが、全ての要素を定数倍しても同じ変換を表すため、自由度は8である。よってh33 = 1 としてもよい。対応点を1組与えれば、式1から、
が得られる。整理すると、
の2つの式が得られる。この結果、4組以上の対応が判れば、最小二乗法により、射影変換行列Hを求めることができる。
H is called a projective transformation matrix. A matrix H is obtained for each image (that is, each frame) taken periodically. An image taken from the viewpoint 101 of the user 10 is obtained by projective transformation of the image taken by the background camera 2. The number of elements of the projective transformation matrix H exemplified above is 9, but the degree of freedom is 8 because all the elements are multiplied by a constant to represent the same transformation. Therefore, h 33 = 1 may be set. Given a pair of corresponding points, from Equation 1,
Is obtained. Organize
The following two equations are obtained. As a result, if four or more sets of correspondences are known, the projective transformation matrix H can be obtained by the least square method.

しかし、SIFT特徴量を用いて検出した対応点には、誤対応が含まれている可能性がある。誤対応があると、外れ値の影響で射影変換後の画像が大きく歪んでしまう場合がある。そこで、RANSAC(RANdom SAmple Consensus)を用いて射影変換行列を求める。RANSACは、外れ値を含むデータの中から外れ値を排除してフィッティングを行う手法である。   However, there is a possibility that the corresponding points detected using the SIFT feature amount include incorrect correspondence. If there is an incorrect correspondence, an image after projective transformation may be greatly distorted due to the influence of an outlier. Therefore, a projective transformation matrix is obtained using RANSAC (RANdom SAmple Consensus). RANSAC is a method for performing fitting by removing outliers from data including outliers.

RANSACのアルゴリズムを以下に示す。
1. 幾つかの対応点をランダムに選択する。
2. 最小二乗法によりパラメータを計算する。
3. 求めたパラメータを適用したとき、設定した誤差範囲にある点の個数を評価値とする。
4. 評価値が十分に大きければ求めたパラメータを採用し、終了する。
5. 1〜4 を有限回繰り返す。
6. 十分大きな評価値が得られなければ失敗とみなし、終了する。
The RANSAC algorithm is shown below.
1. Select several corresponding points at random.
2. Calculate the parameters using the least squares method.
3. When the obtained parameters are applied, the number of points within the set error range is taken as the evaluation value.
4. If the evaluation value is sufficiently large, adopt the obtained parameter and finish.
5. Repeat steps 1 to 4 a finite number of times.
6. If a sufficiently large evaluation value is not obtained, it is considered a failure and the process is terminated.

こうして、正しいパラメータ(すなわち射影変換行列)を推定できる。RANSACのアルゴリズムについては、文献(例えばM. A. Fischler and R. C. Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. In Commun. ACM, Vol. 6, pp. 381.395, 1981.)に記載のものを用いることができるので、これ以上詳細についての説明は省略する。   In this way, a correct parameter (that is, a projective transformation matrix) can be estimated. The RANSAC algorithm is described in literature (for example, MA Fischler and RC Bolles. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography. In Commun. ACM, Vol. 6, pp. 381.395, 1981.) Since the described ones can be used, further details will be omitted.

本実施形態では、SIFT 特徴量に基づく対応点探索と、RANSAC による射影変換行列の算出を併用することによって、画像間の対応を非常に頑健とすることができる。   In this embodiment, the correspondence between images can be made very robust by using the corresponding point search based on the SIFT feature amount and the calculation of the projective transformation matrix by RANSAC in combination.

(ステップSA−7)
ついで、算出された射影変換行列を用いて、背景画像に対して、射影変換を適用する。これにより、投影されるべき画像(投影画像)を生成することができる。変換の一例を図9に示す。図9(a)は背景画像の例を示す。図9(b)における枠Lで示した部分が、射影変換により生成された投影画像を示している。
(Step SA-7)
Next, projective transformation is applied to the background image using the calculated projective transformation matrix. Thereby, an image to be projected (projected image) can be generated. An example of the conversion is shown in FIG. FIG. 9A shows an example of a background image. A portion indicated by a frame L in FIG. 9B shows a projection image generated by projective transformation.

(ステップSA−8)
ついで、生成された投影画像を、プロジェクタ4からスクリーン3の方向へ投影することができる。
(Step SA-8)
Next, the generated projection image can be projected from the projector 4 toward the screen 3.

スクリーン3に向けて投影された画像の例を図10に示す。図10(a)は、スクリーン(この例では円形の平面物体)に投影画像が照射され、それが、外部環境と共に視認される様子を示している。図10(b)は図10(a)における要部の拡大図である。   An example of an image projected toward the screen 3 is shown in FIG. FIG. 10A shows a state in which a projection image is irradiated on a screen (a circular planar object in this example) and is visually recognized together with the external environment. FIG.10 (b) is an enlarged view of the principal part in Fig.10 (a).

図10の例では、スクリーンの周囲の画像は、現実の環境についての画像であり、スクリーン上の画像が、投影された画像である。しかし、この図に示されるように、投影画像は、環境画像と整合しているので、スクリーンは、あたかも環境中に埋没しているかのように認識される。   In the example of FIG. 10, the image around the screen is an image of the actual environment, and the image on the screen is a projected image. However, as shown in this figure, since the projection image is aligned with the environment image, the screen is recognized as if it were buried in the environment.

視点を移動させ、それぞれの視点で得た投影画像を投影した例を図11に示す。図11(a)は、スクリーンから視点が離れた場合を示す。図11(b)は、視点がスクリーンに近付いた場合を示す。図11(c)は、斜め方向からスクリーンを見た場合を示す。図11(d)は、視点を回転させた場合を示す。   FIG. 11 shows an example in which the viewpoint is moved and projection images obtained from the respective viewpoints are projected. FIG. 11A shows a case where the viewpoint is away from the screen. FIG. 11B shows a case where the viewpoint approaches the screen. FIG.11 (c) shows the case where a screen is seen from the diagonal direction. FIG. 11D shows a case where the viewpoint is rotated.

本実施形態の装置では、視点カメラ1を使用者10の視点101と共役な位置に配置することにより、視点101から見た画像を視点カメラ1で取得することができる。   In the apparatus of the present embodiment, the viewpoint camera 1 can be acquired by the viewpoint camera 1 by arranging the viewpoint camera 1 at a position conjugate with the viewpoint 101 of the user 10.

また、この実施形態では、プロジェクタ4を、使用者10の視点101及び視点カメラ1と共役な位置に配置している。この場合、視点カメラ1で取得した視点画像と同じ画像をプロジェクタ4からスクリーンに投影すると、使用者10は、その画像を違和感なく観察することが可能になる。   In this embodiment, the projector 4 is disposed at a position conjugate with the viewpoint 101 of the user 10 and the viewpoint camera 1. In this case, when the same image as the viewpoint image acquired by the viewpoint camera 1 is projected from the projector 4 onto the screen, the user 10 can observe the image without a sense of incongruity.

本実施形態では、視点カメラ1で取得した視点画像を基準として、背景画像を変換し、これによって、投影画像を生成して、スクリーン3に提示することができる。生成された投影画像は、視点画像を基準として変換されているので、視点画像に対して違和感が少ないものとすることができる。一方、使用者は、スクリーン3に提示された投影画像と、スクリーンの周囲の環境とを同時に観察することができる。このとき、使用者は、投影画像と周囲の環境との間における違和感をあまり感じないので、スクリーン3が周囲環境に埋没しているかのように感じることができる。つまり、この技術によれば、スクリーン3の透明化が可能になる。   In the present embodiment, the background image is converted using the viewpoint image acquired by the viewpoint camera 1 as a reference, thereby generating a projection image and presenting it on the screen 3. Since the generated projection image is converted on the basis of the viewpoint image, it is possible to reduce discomfort with respect to the viewpoint image. On the other hand, the user can observe the projected image presented on the screen 3 and the environment around the screen at the same time. At this time, the user does not feel much discomfort between the projected image and the surrounding environment, and can feel as if the screen 3 is buried in the surrounding environment. That is, according to this technique, the screen 3 can be made transparent.

しかも、本実施形態では、視点画像を基準として背景画像を変換しているので、使用者の眼球の位置や姿勢を測定する必要がない。このため、眼球の位置や姿勢を測定する装置の設置を省略することが可能になり、使用者の移動を容易にすることができる。さらには、眼球の位置や姿勢を測定する装置の設置を省略することにより、本実施形態では、情報提示装置の製造コストや設置コストを低減しうるという利点もある。   In addition, in the present embodiment, since the background image is converted based on the viewpoint image, there is no need to measure the position and posture of the user's eyeball. For this reason, it becomes possible to omit the installation of a device for measuring the position and posture of the eyeball, and the movement of the user can be facilitated. Furthermore, by omitting the installation of a device that measures the position and orientation of the eyeball, this embodiment also has an advantage that the manufacturing cost and installation cost of the information presentation device can be reduced.

すなわち、本実施形態によれば、使用者の眼球の位置や向きを直接に測定することを不要としながら、外部環境に対して違和感の少ない画像をスクリーンに提示することが可能になる。   That is, according to the present embodiment, it is possible to present an image with a little uncomfortable feeling to the external environment on the screen without directly measuring the position and orientation of the user's eyeball.

また、測定装置により測定される眼球の位置や姿勢の精度は、使用者がどこを注視しているかを正確に推定するためには十分ではなく、このため、投影画像の精度を向上させることが難しいという問題があった。これに対して、本実施形態では、視点画像を基準として背景画像を変換しているので、測定された眼球の位置や姿勢を基準にする場合に比較して、高精度で適切な投影画像を生成することが可能になる。このため、環境に対して違和感の少ない投影画像をスクリーンに投影できるという利点がある。   In addition, the accuracy of the position and posture of the eyeball measured by the measuring device is not sufficient for accurately estimating where the user is gazing, and this can improve the accuracy of the projection image. There was a problem that it was difficult. In contrast, in the present embodiment, since the background image is converted based on the viewpoint image, an appropriate projection image can be obtained with higher accuracy than in the case where the measured position or posture of the eyeball is used as a reference. Can be generated. For this reason, there exists an advantage that a projection image with little discomfort with respect to an environment can be projected on a screen.

さらに、本実施形態では、スクリーン3の背面側に背景カメラ2を設置しているので、背景画像の取得が容易となるという利点もある。   Furthermore, in this embodiment, since the background camera 2 is installed on the back side of the screen 3, there is an advantage that acquisition of a background image is easy.

さらに、本実施形態では、背景カメラ2を、視点カメラ1とほぼ同じ向きに配置することが好ましい。背景カメラ2と視点カメラ1の向きが大きく異なると、遮蔽関係(いわゆるオクルージョン)において、背景画像と視点画像との間の矛盾を生じる可能性が高まる。これに対して、両者の向きをほぼ一致させることにより、このような問題の回避を容易とすることができる。   Furthermore, in the present embodiment, it is preferable that the background camera 2 is arranged in substantially the same direction as the viewpoint camera 1. If the orientations of the background camera 2 and the viewpoint camera 1 are greatly different, there is a high possibility of inconsistency between the background image and the viewpoint image in the occlusion relationship (so-called occlusion). On the other hand, avoiding such a problem can be facilitated by making both directions substantially coincide.

また、スクリーン3を拡散反射スクリーンとした場合には、スクリーン3に投射された画像が、外乱光(例えば環境中に存在する光)の影響により、使用者10からは見づらくなる可能性がある。これに対して、本実施形態では、再帰性反射スクリーンを用いることにより、スクリーン3に投射された画像の輝度は、外乱光に対して十分に強くなる。このため、スクリーンに提示される投射画像の視認性を向上させることができる。   When the screen 3 is a diffuse reflection screen, the image projected on the screen 3 may be difficult for the user 10 to see due to the influence of disturbance light (for example, light existing in the environment). On the other hand, in the present embodiment, by using the retroreflective screen, the brightness of the image projected on the screen 3 is sufficiently strong against disturbance light. For this reason, the visibility of the projected image presented on the screen can be improved.

スクリーン3を再帰性反射スクリーンとすることにより、さらに、以下の利点を発揮できる。
・視点位置から投影された光が視点に効率よく戻るので、投影光の光量を絞ることができる。したがって、プロジェクタを小型にし、さらに、その発熱量を低く抑えることができる。このため、プロジェクタを頭部に装着しやすくなる。
・投影光の光量を絞ることができるので、プロジェクタの焦点深度を深くすることができる。このため、プロジェクタの焦点位置の調整を厳密に行わなくとも、スクリーン上の画像を精度良く視認できる。
・スクリーンの形状がゆがんでいても、基本的に、投影された画像と同じ画像を使用者が視認できる。したがって、スクリーンの形状の自由度が高くなり、各種の形状を採用できる。
・別々の場所から投影された光は、それぞれ光源の方向に反射するため、1つのスクリーンでいくつもの映像を提示することができる。このため、同時に同じスクリーンを見ている複数の使用者に対して、それぞれの視点に対応した画像を提示できる。
By making the screen 3 a retroreflective screen, the following advantages can be further exhibited.
-Since the light projected from the viewpoint position returns efficiently to the viewpoint, the amount of projection light can be reduced. Therefore, the projector can be downsized and the amount of heat generated can be kept low. This makes it easier to attach the projector to the head.
-Since the amount of projection light can be reduced, the depth of focus of the projector can be increased. For this reason, the image on the screen can be viewed with high precision without strictly adjusting the focal position of the projector.
-Even if the shape of the screen is distorted, basically, the user can visually recognize the same image as the projected image. Accordingly, the degree of freedom of the shape of the screen is increased, and various shapes can be adopted.
-Since light projected from different locations is reflected in the direction of the light source, a number of images can be presented on one screen. For this reason, an image corresponding to each viewpoint can be presented to a plurality of users who are simultaneously viewing the same screen.

さらに、本実施形態のスクリーン3は、外側に凸となる円弧面を備えている。スクリーン3における円弧面の部分に投影画像を提示することにより、使用者10が移動しても、投影画像を観察することが可能になる。使用者10が移動した場合でも、適宜な周期で投影画像を生成し続けることによって、違和感の少ない投影画像を使用者に提示することができる。   Furthermore, the screen 3 of the present embodiment includes an arc surface that is convex outward. By presenting the projection image on the arcuate surface portion of the screen 3, the projection image can be observed even if the user 10 moves. Even when the user 10 moves, it is possible to present a projected image with less discomfort to the user by continuously generating the projected image at an appropriate cycle.

また、本実施形態では、投影画像を生成する処理を
(1)背景画像と、視点画像との間における、対応点を取得する処理;及び
(2)対応点の情報に基づいて、背景画像を射影変換する処理
により実施している。このように、対応点の情報に基づいて、背景画像を射影変換することにより、視点から見た環境画像に対して違和感の少ない投影画像を生成することができる。しかも、本実施形態では、立体構造モデルを生成しなくても、いわゆるイメージベースド・レンダリングの手法により、投影画像を生成することができる。したがって、処理部5への負担が軽くなり、背景画像を短い周期で生成することが可能になる。
In this embodiment, the process of generating a projection image includes (1) a process of acquiring corresponding points between the background image and the viewpoint image; and (2) a background image based on the information of the corresponding points. It is implemented by the process of projective transformation. In this way, by performing projective transformation of the background image based on the corresponding point information, it is possible to generate a projection image that is less uncomfortable with respect to the environment image viewed from the viewpoint. Moreover, in the present embodiment, a projection image can be generated by a so-called image-based rendering method without generating a three-dimensional structure model. Therefore, the burden on the processing unit 5 is reduced, and a background image can be generated in a short cycle.

また、本実施形態では、投影画像を、スクリーン3とそのスクリーンの周囲との両者にわたるように投影している。したがって、本実施形態では、スクリーン3を移動させたり、使用者10が移動した場合であっても、スクリーン3がプロジェクタ4の投影範囲内にあれば、違和感の少ない投影画像をスクリーン上に提示することができる。   In the present embodiment, the projected image is projected so as to cover both the screen 3 and the periphery of the screen. Therefore, in the present embodiment, even when the screen 3 is moved or the user 10 moves, if the screen 3 is within the projection range of the projector 4, a projected image with less discomfort is presented on the screen. be able to.

また、本実施形態の装置では、プロジェクタ4の投影角を広く設定することができる。スクリーン3の外側に存在する、再帰性反射材ではない物体に投影される画像については、ほとんどの光が視点の方向に反射しないため、実質的に使用者には視認されない。   Further, in the apparatus of the present embodiment, the projection angle of the projector 4 can be set widely. With respect to an image projected on an object that is outside the screen 3 and is not a retroreflective material, most of the light is not reflected in the direction of the viewpoint, so that it is substantially invisible to the user.

また、プロジェクタ4の投影範囲をスクリーン上のみに制限しようとすると、そのための装置構成が必要になってしまう。これに対して、この実施形態では、そのような装置構成が不要になり、装置コストや設置コストの低減を図ることができる。また、この実施形態では、視点画像に対して矛盾のない投影画像を生成して投影するので、広範囲に投影された画像が当該使用者に視認されても、支障は少ないと考えられる。   Further, if it is attempted to limit the projection range of the projector 4 only to the screen, an apparatus configuration for that purpose is required. On the other hand, in this embodiment, such an apparatus configuration becomes unnecessary, and the apparatus cost and the installation cost can be reduced. Further, in this embodiment, a projection image having no contradiction with respect to the viewpoint image is generated and projected, so that even if an image projected over a wide range is visually recognized by the user, it is considered that there is little trouble.

さらに、本実施形態では、視点カメラ1及びプロジェクタ4を、使用者10の頭部に装着している。これにより、使用者10が移動しても、視点カメラ1びプロジェクタ4を使用者10の視点と共役な位置に保つことが容易となる。また、視点カメラ1及びプロジェクタ4を、使用者10の頭部に装着することにより、使用者10の視点と、カメラ1及びプロジェクタ4における共役点とを物理的に(例えば固定具により)接続することができる。このため、この実施形態の装置では、視点画像を精度良く生成することができる。さらには、視点に共役となる位置にプロジェクタ4を精度良く取り付けることができるので、使用者10にとっては、投影画像を正確に視認することが容易になる。   Furthermore, in this embodiment, the viewpoint camera 1 and the projector 4 are mounted on the user's 10 head. Thereby, even if the user 10 moves, it becomes easy to keep the viewpoint camera 1 and the projector 4 in a conjugate position with the viewpoint of the user 10. Further, by attaching the viewpoint camera 1 and the projector 4 to the head of the user 10, the viewpoint of the user 10 and a conjugate point in the camera 1 and the projector 4 are physically connected (for example, by a fixture). be able to. For this reason, the apparatus of this embodiment can generate the viewpoint image with high accuracy. Furthermore, since the projector 4 can be accurately attached at a position conjugate with the viewpoint, it is easy for the user 10 to visually recognize the projection image accurately.

本実施形態における各種の処理は、適宜のコンピュータプログラムにより、コンピュータ上で実行することができる。例えば、処理部5における処理は、コンピュータプログラムによる処理が適切である。   Various processes in the present embodiment can be executed on a computer by an appropriate computer program. For example, the processing in the processing unit 5 is appropriately performed by a computer program.

(第2実施形態)
次に、本発明の第2実施形態に係る情報提示装置を、図12に基づいて説明する。この第2実施形態の説明においては、前記した第1実施形態で説明した構成要素と基本的に共通する要素については、同一符号を付することにより、説明を簡略化する。
(Second Embodiment)
Next, an information presentation apparatus according to a second embodiment of the present invention will be described based on FIG. In the description of the second embodiment, elements that are basically the same as the components described in the first embodiment are denoted by the same reference numerals, and the description is simplified.

第2実施形態においては、スクリーン3が、平板状に構成されている。そして、スクリーン3の前面(使用者側の面)が再帰性反射面とされている。また、背景カメラ2は、スクリーン3の背面側に取り付けられている。   In the second embodiment, the screen 3 is formed in a flat plate shape. The front surface (user side surface) of the screen 3 is a retroreflecting surface. The background camera 2 is attached to the back side of the screen 3.

第2実施形態の装置では、スクリーン3を手で持ちながら、適宜の位置にスクリーン3を移動させることができる。その際、スクリーン3と使用者10との位置関係に応じた適切な投影画像をスクリーン3に投影することができる。その投影画像を使用者10が環境内で視認することにより、使用者10は、スクリーン3があたかも環境に埋没しているかのような感覚を受けることができる。また、投影画像の縮尺を拡大または縮小することにより、スクリーン3を、あたかも凸または凹レンズのように認識させることも可能である。   In the apparatus of the second embodiment, the screen 3 can be moved to an appropriate position while holding the screen 3 by hand. At that time, an appropriate projection image corresponding to the positional relationship between the screen 3 and the user 10 can be projected onto the screen 3. When the user 10 visually recognizes the projection image in the environment, the user 10 can feel as if the screen 3 is buried in the environment. Further, by enlarging or reducing the scale of the projected image, the screen 3 can be recognized as if it were a convex or concave lens.

第2実施形態における他の構成及び利点は、第1実施形態と基本的に同様なので、これ以上詳細な説明は省略する。   Other configurations and advantages of the second embodiment are basically the same as those of the first embodiment, and thus detailed description thereof is omitted.

(第3実施形態)
次に、本発明の第3実施形態に係る情報提示装置を、図13に基づいて説明する。この第3実施形態の説明においては、前記した第1実施形態で説明した構成要素と基本的に共通する要素については、同一符号を付することにより、説明を簡略化する。
(Third embodiment)
Next, an information presentation apparatus according to a third embodiment of the present invention will be described based on FIG. In the description of the third embodiment, elements that are basically the same as the components described in the first embodiment are denoted by the same reference numerals, and the description is simplified.

第3実施形態においては、スクリーン3が、球体状に構成されている。そして、スクリーン3の全面が再帰性反射面とされている。また、背景カメラ2は複数とされている。複数の背景カメラ2は、スクリーン3の周囲に、外側を向く状態で取り付けられている。   In the third embodiment, the screen 3 is formed in a spherical shape. The entire surface of the screen 3 is a retroreflecting surface. There are a plurality of background cameras 2. The plurality of background cameras 2 are attached around the screen 3 so as to face outward.

第3実施形態の装置でも、スクリーン3を手で持ちながら、適宜の位置にスクリーン3を移動させることができる。その際、スクリーン3と使用者10との位置関係に応じた適切な投影画像をスクリーン3に投影することができる。   Even in the apparatus of the third embodiment, the screen 3 can be moved to an appropriate position while holding the screen 3 by hand. At that time, an appropriate projection image corresponding to the positional relationship between the screen 3 and the user 10 can be projected onto the screen 3.

さらに、第3実施形態の装置では、複数の背景カメラ2によって、広い範囲における背景を取得しておくことができる。したがって、使用者10がスクリーン3の側面や背面をのぞき込んだ場合でも、スクリーン3と使用者10との位置関係に応じた適切な投影画像をスクリーン3に投影することができる。   Furthermore, in the apparatus according to the third embodiment, the background in a wide range can be acquired by the plurality of background cameras 2. Therefore, even when the user 10 looks into the side surface or the back surface of the screen 3, an appropriate projection image corresponding to the positional relationship between the screen 3 and the user 10 can be projected onto the screen 3.

第3実施形態における他の構成及び利点は、第1実施形態と基本的に同様なので、これ以上詳細な説明は省略する。   Other configurations and advantages of the third embodiment are basically the same as those of the first embodiment, and thus detailed description thereof is omitted.

(第4実施形態)
次に、本発明の第4実施形態に係る情報提示装置を、図14に基づいて説明する。この第4実施形態の説明においては、前記した第1実施形態で説明した構成要素と基本的に共通する要素については、同一符号を用いることにより、説明を簡略化する。
(Fourth embodiment)
Next, an information presentation apparatus according to a fourth embodiment of the present invention will be described with reference to FIG. In the description of the fourth embodiment, elements that are basically the same as the components described in the first embodiment described above are simplified by using the same reference numerals.

第4実施形態においては、スクリーン3に投影された画像を再び取得することにより、投影画像に対してフィードバックをかける構成となっている。以下、図14に従って、フィードバックをかける処理について説明する。   In the fourth embodiment, the image projected on the screen 3 is acquired again, and the projected image is fed back. Hereinafter, the process of applying feedback will be described with reference to FIG.

(ステップSB−1)
第1実施形態に従ってスクリーン3に投影された画像を、視点カメラ2によって再び取得する。
(Step SB-1)
The image projected on the screen 3 according to the first embodiment is acquired again by the viewpoint camera 2.

(ステップSB−2)
ついで、視点カメラ2で取得された画像(つまりスクリーン上で表示された画像)と、プロジェクタ4から投影された画像(投影画像)とを、処理部5において比較する。
(Step SB-2)
Next, the processing unit 5 compares the image acquired by the viewpoint camera 2 (that is, the image displayed on the screen) with the image projected from the projector 4 (projected image).

(ステップSB−3)
表示された画像と投影された画像とが同じとなるように、投影画像を補正する。なお、このとき画像どうしを比較するための特徴量としては、色や輝度など、適宜のものを用いることができる。表示画像と投影画像とが十分に近い場合には、補正を省略することができる。
(Step SB-3)
The projected image is corrected so that the displayed image is the same as the projected image. At this time, as the feature amount for comparing the images, appropriate ones such as color and luminance can be used. If the display image and the projected image are sufficiently close, correction can be omitted.

(ステップSB−4)
補正された投影画像をスクリーン3に投影する。その後、さらに、視点カメラ2により、スクリーン上の画像と初期の投影画像とを再び比較することにより、投影画像を再び補正することができる。
(Step SB-4)
The corrected projection image is projected onto the screen 3. Thereafter, by further comparing the image on the screen with the initial projection image by the viewpoint camera 2, the projection image can be corrected again.

第4実施形態における他の構成及び利点は、第1実施形態と基本的に同様なので、これ以上詳細な説明は省略する。   Other configurations and advantages of the fourth embodiment are basically the same as those of the first embodiment, and thus detailed description thereof is omitted.

なお、前記実施形態及び実施例の記載は単なる一例に過ぎず、本発明に必須の構成を示したものではない。各部の構成は、本発明の趣旨を達成できるものであれば、上記に限らない。   Note that the description of the embodiment and the examples is merely an example, and does not indicate a configuration essential to the present invention. The configuration of each part is not limited to the above as long as the gist of the present invention can be achieved.

例えば、前記した各機能要素(例えば処理部5)は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。   For example, each functional element described above (for example, the processing unit 5) only needs to exist as a functional block, and does not need to exist as independent hardware. As a mounting method, hardware or computer software may be used. Furthermore, one functional element in the present invention may be realized by a set of a plurality of functional elements, and a plurality of functional elements in the present invention may be realized by one functional element.

また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。グリッドコンピューティングにより機能を実現し、あるいは機能要素を構成することも可能である。   Moreover, the functional element may be arrange | positioned in the position physically separated. In this case, the functional elements may be connected by a network. It is also possible to realize functions or configure functional elements by grid computing.

本発明の第1実施形態に係る情報提示装置の概略的な構成を説明するためのブロック図である。It is a block diagram for demonstrating the schematic structure of the information presentation apparatus which concerns on 1st Embodiment of this invention. 図1の装置における要部の拡大図である。It is an enlarged view of the principal part in the apparatus of FIG. 図1に示される装置を用いた情報提示方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the information presentation method using the apparatus shown by FIG. 使用者とスクリーンと外部環境との位置関係を説明するための説明図である。It is explanatory drawing for demonstrating the positional relationship of a user, a screen, and external environment. 使用者とスクリーンとの位置関係を説明するための説明図である。It is explanatory drawing for demonstrating the positional relationship of a user and a screen. カメラで取得したレンズの歪み補正の一例を説明するための図である。図(a)は、補正前の背景画像を示す。図(b)は、補正後の背景画像を示す。図(c)は、補正前の視点画像を示す。図(d)は、補正後の視点画像を示す。It is a figure for demonstrating an example of distortion correction of the lens acquired with the camera. FIG. 1A shows a background image before correction. FIG. (B) shows a background image after correction. FIG. 3C shows a viewpoint image before correction. FIG. 4D shows a corrected viewpoint image. 背景画像と視点画像との間における対応点を説明するための説明図である。It is explanatory drawing for demonstrating the corresponding point between a background image and a viewpoint image. 射影変換の原理を説明するための説明図である。It is explanatory drawing for demonstrating the principle of projective transformation. 射影変換行列を用いた射影変換の一例を示す図である。図(a)は、変換前の背景画像を示す。図(b)は、変換後の背景画像を示す。図(b)では、参考のため、枠で囲まれた背景画像の周囲に、視点画像を表している。It is a figure which shows an example of the projective transformation using a projective transformation matrix. FIG. 1A shows a background image before conversion. FIG. (B) shows the background image after conversion. In FIG. 5B, a viewpoint image is shown around a background image surrounded by a frame for reference. 図(a)は、スクリーンに向けて投影画像を投影した状態を説明する図である。図(b)は図(a)の一部拡大図である。FIG. 4A is a diagram for explaining a state in which a projection image is projected toward the screen. Fig. (B) is a partially enlarged view of Fig. (A). 視点を様々に変化させた状態で投影画像を生成し、投影した状態を説明する図である。図(a)は、スクリーンから視点が離れた場合を示す。図(b)は、視点がスクリーンに近付いた場合を示す。図(c)は、斜め方向からスクリーンを見た場合を示す。図(d)は、視点を回転させた場合を示す。It is a figure explaining the state which produced | generated the projection image in the state which changed the viewpoint variously, and was projected. The figure (a) shows a case where the viewpoint is away from the screen. FIG. (B) shows a case where the viewpoint approaches the screen. FIG. 3C shows a case where the screen is viewed from an oblique direction. FIG. 4D shows a case where the viewpoint is rotated. 本発明の第2実施形態に係る情報提示装置を説明するための説明図である。It is explanatory drawing for demonstrating the information presentation apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る情報提示装置を説明するための説明図である。It is explanatory drawing for demonstrating the information presentation apparatus which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る情報提示装置を説明するためのフローチャートである。It is a flowchart for demonstrating the information presentation apparatus which concerns on 4th Embodiment of this invention.

符号の説明Explanation of symbols

1 視点カメラ
11 視点画像
2 背景カメラ
21 背景画像
3 スクリーン
4 プロジェクタ
5 処理部
6 第1ハーフミラー
7 第2ハーフミラー
8 ケーシング
9 外部環境
10 使用者
101 使用者の視点
DESCRIPTION OF SYMBOLS 1 Viewpoint camera 11 Viewpoint image 2 Background camera 21 Background image 3 Screen 4 Projector 5 Processing part 6 1st half mirror 7 2nd half mirror 8 Casing 9 External environment 10 User 101 Viewpoint of user

Claims (11)

視点カメラと、背景カメラと、スクリーンと、プロジェクタと、処理部とを備えており、
前記視点カメラは、使用者の視点と共役となる位置に配置されており、
かつ、前記視点カメラは、前記視点から前記スクリーンの方向を見たときの、前記スクリーン及びその周囲についての画像を視点画像として取得する構成となっており、
前記背景カメラは、前記視点から前記スクリーンを見たときに前記スクリーンの後ろ側に存在する環境についての画像を背景画像として取得する構成となっており、
前記スクリーンは、前記使用者の視野内において、背景と共に使用者に視認される程度に小さいサイズとされており、
かつ、前記スクリーンは、前記プロジェクタから投影された画像の少なくとも一部を、前記使用者の視点に向けて反射することができる構成となっており、
前記プロジェクタは、前記視点及び前記視点カメラと共役となる位置に配置されており、
かつ、前記プロジェクタは、前記処理部で生成された投影画像を前記スクリーンに投影する構成となっており、
前記処理部は、
前記背景カメラで取得した前記背景画像と、前記視点カメラで取得した前記視点画像をとを対応させることにより、前記背景画像を、前記視点から前記スクリーンの後ろ側を見た場合の画像に変換し、これによって、投影画像を生成する処理を行う
構成となっており、
さらに、前記処理部は、生成された前記投影画像を前記プロジェクタに送る構成となっている
ことを特徴とする情報提示装置。
It has a viewpoint camera, a background camera, a screen, a projector, and a processing unit.
The viewpoint camera is arranged at a position conjugate with the user's viewpoint,
And the viewpoint camera is configured to acquire an image of the screen and its surroundings as a viewpoint image when the direction of the screen is viewed from the viewpoint.
The background camera is configured to acquire, as a background image, an image of an environment existing on the back side of the screen when the screen is viewed from the viewpoint.
The screen is small enough to be visually recognized by the user together with the background within the user's field of view.
And the screen is configured to reflect at least a part of the image projected from the projector toward the user's viewpoint,
The projector is disposed at a position conjugate with the viewpoint and the viewpoint camera,
And the projector is configured to project the projection image generated by the processing unit onto the screen,
The processor is
By associating the background image acquired by the background camera with the viewpoint image acquired by the viewpoint camera, the background image is converted into an image when the back side of the screen is viewed from the viewpoint. Thus, it is configured to perform a process of generating a projection image,
Furthermore, the processing unit is configured to send the generated projection image to the projector.
前記背景カメラは、前記スクリーンの背面側の位置に配置されている、請求項1に記載の情報提示装置。   The information presentation apparatus according to claim 1, wherein the background camera is disposed at a position on a back side of the screen. 前記背景カメラは、前記視点カメラとほぼ同じ向きに配置されている、請求項2に記載の情報提示装置。   The information presentation apparatus according to claim 2, wherein the background camera is arranged in substantially the same direction as the viewpoint camera. 前記スクリーンは、再帰性反射スクリーンとされている、請求項1〜3のいずれか1項に記載の情報提示装置。   The information presentation device according to claim 1, wherein the screen is a retroreflective screen. 前記スクリーンは、外側に凸となる円弧面を備えている、請求項1〜4のいずれか1項に記載の情報提示装置。   The information presentation device according to claim 1, wherein the screen includes an arc surface that is convex outward. 前記背景カメラは、複数とされており、
かつ、前記背景カメラは、前記円弧面の後ろ側に存在する環境の画像を取得するように配置されており、
さらに、前記複数の背景カメラの向きは、互いに異なっている
請求項5に記載の情報提示装置。
The background camera is a plurality,
And the said background camera is arrange | positioned so that the image of the environment which exists in the back side of the said circular arc surface may be acquired,
The information presentation device according to claim 5, wherein directions of the plurality of background cameras are different from each other.
前記処理部において、前記投影画像を生成する処理は、以下の処理により行われる、請求項1〜6のいずれか1項に記載の情報提示装置:
(1)前記背景画像と、前記視点画像との間における、対応点を取得する処理;
(2)前記対応点の情報に基づいて、前記背景画像を射影変換する処理。
The information presentation device according to claim 1, wherein the processing unit generates the projection image by the following processing.
(1) Processing for obtaining corresponding points between the background image and the viewpoint image;
(2) A process for projective transformation of the background image based on the corresponding point information.
前記プロジェクタから投影される前記投影画像は、前記スクリーンと、前記スクリーンの外側とにわたって投影される構成となっている
請求項1〜7のいずれか1項に記載の情報提示装置。
The information presentation apparatus according to claim 1, wherein the projection image projected from the projector is configured to be projected across the screen and the outside of the screen.
前記視点カメラ及び/又は前記プロジェクタは、前記使用者の頭部に装着される構成となっている
請求項1〜8のいずれか1項に記載の情報提示装置。
The information presentation device according to any one of claims 1 to 8, wherein the viewpoint camera and / or the projector is configured to be mounted on a head of the user.
以下のステップを備えることを特徴とする情報提示方法:
(a)使用者の視点からスクリーンの方向を見たときの、スクリーン及びその周囲についての画像を視点画像として取得するステップ;
(b)前記視点から前記スクリーンを見たときに前記スクリーンの後ろ側に存在する環境についての画像を背景画像として取得するステップ;
(c)前記背景カメラで取得した前記背景画像と、前記視点カメラで取得した前記視点画像とを対応させることにより、前記背景画像を、前記視点から前記スクリーンの後ろ側を見た場合の画像に変換し、これによって、投影画像を生成するステップ;
(d)前記処理部で生成された投影画像を、前記視点の位置から、前記スクリーンに投影するステップ。
An information presentation method comprising the following steps:
(A) a step of acquiring images of the screen and its surroundings as viewpoint images when the direction of the screen is viewed from the viewpoint of the user;
(B) obtaining an image of an environment existing behind the screen as the background image when the screen is viewed from the viewpoint;
(C) By associating the background image acquired by the background camera with the viewpoint image acquired by the viewpoint camera, the background image is changed to an image when the back side of the screen is viewed from the viewpoint. Converting and thereby generating a projection image;
(D) Projecting the projection image generated by the processing unit onto the screen from the viewpoint position.
請求項10に記載の各ステップをコンピュータに実行させるためのコンピュータプログラム。   The computer program for making a computer perform each step of Claim 10.
JP2008142299A 2008-05-30 2008-05-30 Information presentation device Expired - Fee Related JP5337409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008142299A JP5337409B2 (en) 2008-05-30 2008-05-30 Information presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008142299A JP5337409B2 (en) 2008-05-30 2008-05-30 Information presentation device

Publications (3)

Publication Number Publication Date
JP2009288613A true JP2009288613A (en) 2009-12-10
JP2009288613A5 JP2009288613A5 (en) 2011-06-02
JP5337409B2 JP5337409B2 (en) 2013-11-06

Family

ID=41457864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008142299A Expired - Fee Related JP5337409B2 (en) 2008-05-30 2008-05-30 Information presentation device

Country Status (1)

Country Link
JP (1) JP5337409B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160931B2 (en) 2011-04-08 2015-10-13 Hewlett-Packard Development Company, L.P. Modifying captured image based on user viewpoint
JP2017219837A (en) * 2016-06-07 2017-12-14 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Transparent display device and drive method of the same
CN117148591A (en) * 2023-10-27 2023-12-01 深圳市光舟半导体技术有限公司 Ray apparatus and AR glasses

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886615A (en) * 1994-09-19 1996-04-02 Mitsubishi Electric Corp Image display apparatus and image display system
JP2000010194A (en) * 1998-06-19 2000-01-14 Minolta Co Ltd Picture display method and device
JP2000122176A (en) * 1998-08-11 2000-04-28 Minolta Co Ltd Information presentation method and device therefor
JP2000148381A (en) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan Input image processing method, input image processor and recording medium on which input image processing program has been recorded
JP3080607U (en) * 2001-03-27 2001-10-05 アイテム十六株式会社 Screen image processing device
JP2006352473A (en) * 2005-06-15 2006-12-28 Kyushu Institute Of Technology Method for visualizing shielded space
JP2008109433A (en) * 2006-10-26 2008-05-08 Fuji Xerox Co Ltd Image projection system and program to be used in the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0886615A (en) * 1994-09-19 1996-04-02 Mitsubishi Electric Corp Image display apparatus and image display system
JP2000010194A (en) * 1998-06-19 2000-01-14 Minolta Co Ltd Picture display method and device
JP2000122176A (en) * 1998-08-11 2000-04-28 Minolta Co Ltd Information presentation method and device therefor
JP2000148381A (en) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan Input image processing method, input image processor and recording medium on which input image processing program has been recorded
JP3080607U (en) * 2001-03-27 2001-10-05 アイテム十六株式会社 Screen image processing device
JP2006352473A (en) * 2005-06-15 2006-12-28 Kyushu Institute Of Technology Method for visualizing shielded space
JP2008109433A (en) * 2006-10-26 2008-05-08 Fuji Xerox Co Ltd Image projection system and program to be used in the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9160931B2 (en) 2011-04-08 2015-10-13 Hewlett-Packard Development Company, L.P. Modifying captured image based on user viewpoint
JP2017219837A (en) * 2016-06-07 2017-12-14 三星ディスプレイ株式會社Samsung Display Co.,Ltd. Transparent display device and drive method of the same
CN117148591A (en) * 2023-10-27 2023-12-01 深圳市光舟半导体技术有限公司 Ray apparatus and AR glasses

Also Published As

Publication number Publication date
JP5337409B2 (en) 2013-11-06

Similar Documents

Publication Publication Date Title
TWI547828B (en) Calibration of sensors and projector
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
JP4584246B2 (en) How to display an output image on an object
CN103501688B (en) The method and apparatus that point of fixation maps
JP2019141620A (en) Fixation point determination method and device on three-dimensional object
Klein Visual tracking for augmented reality
US20130335535A1 (en) Digital 3d camera using periodic illumination
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
US11734876B2 (en) Synthesizing an image from a virtual perspective using pixels from a physical imager array weighted based on depth error sensitivity
CN109416744A (en) Improved camera calibration system, target and process
US20210232858A1 (en) Methods and systems for training an object detection algorithm using synthetic images
CN107407959B (en) Manipulation of three-dimensional images based on gestures
JP2007129709A (en) Method for calibrating imaging device, method for calibrating imaging system including arrangement of imaging devices, and imaging system
JP2006258798A (en) Device and method for improved shape characterization
US11568555B2 (en) Dense depth computations aided by sparse feature matching
US11915453B2 (en) Collaborative augmented reality eyewear with ego motion alignment
JP2009278456A (en) Video display device
JP6984071B6 (en) Lens meter system without equipment
JP4193342B2 (en) 3D data generator
JP5611875B2 (en) Information display device, information display method, and program
JP5337409B2 (en) Information presentation device
JP2002143094A (en) Visual axis detector
JP2018112894A (en) System and control method
Nitschke et al. I see what you see: point of gaze estimation from corneal images
JP6266580B2 (en) Head mounted display, calibration method and calibration program, and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R150 Certificate of patent or registration of utility model

Ref document number: 5337409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees