JP2016092681A - Projection device, control method of projection device, and program - Google Patents
Projection device, control method of projection device, and program Download PDFInfo
- Publication number
- JP2016092681A JP2016092681A JP2014227262A JP2014227262A JP2016092681A JP 2016092681 A JP2016092681 A JP 2016092681A JP 2014227262 A JP2014227262 A JP 2014227262A JP 2014227262 A JP2014227262 A JP 2014227262A JP 2016092681 A JP2016092681 A JP 2016092681A
- Authority
- JP
- Japan
- Prior art keywords
- projection
- projection plane
- image
- video
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、投影装置、投影装置の制御方法、プログラムに関する。特には、複数のスクリーンのそれぞれに映像を投影する投影装置と、この投影装置の制御方法と、この投影装置を制御するためのプログラムに関する。 The present invention relates to a projection apparatus, a control method for the projection apparatus, and a program. In particular, the present invention relates to a projection device that projects an image on each of a plurality of screens, a control method for the projection device, and a program for controlling the projection device.
スクリーンなどの投影面に映像を投影する投影装置について、特定の位置に存在する人物には特定の映像の内容が視認できるようにし、他の特定の位置に存在する人物には、特定の映像の内容が見えないようにしたいという要望がある。例えば、机など挟んで2人の人物が向かい合って座っているような状況で、一方の人物だけに提示したい情報がある場合がある。この場合には、机上に置かれた立体物のうち、前記一方の人物の側を向く投影面に、前述の情報を含む特定の映像を投影する。これにより、前記一方の人物にのみ、特定の情報を提示できる。 For projection devices that project images onto a projection surface such as a screen, the content of a specific image is visible to a person present at a specific position, and the specific image is displayed to a person present at another specific position. There is a desire to hide the contents. For example, there may be information that is desired to be presented to only one person in a situation where two persons are sitting facing each other across a desk or the like. In this case, among the three-dimensional objects placed on the desk, a specific image including the above-described information is projected onto a projection surface facing the one person. Thereby, specific information can be presented only to the one person.
しかしながら、このような構成では、他の特定の人物が立体物の投影面を自分の方に向けることで、前述の特定の映像の内容を見ることができる。また、立体物を移動させると、机の上面に前述の特定の映像が投影されるため、他の特定の人物はこの特定の映像を見ることができる。このように、従来の構成では、秘密の保持が不充分であった。また、特許文献1には、人の目とディスプレイとの位置関係からディスプレイの表示を切替える構成が開示されている。しかしながら、表示する映像のうちの特定の映像のみを切替える構成は開示されていない。
However, in such a configuration, the content of the specific video can be seen by another specific person pointing the projection surface of the three-dimensional object toward him / herself. Further, when the three-dimensional object is moved, the above-mentioned specific image is projected on the upper surface of the desk, so that another specific person can see this specific image. As described above, in the conventional configuration, confidentiality is insufficient.
上記実情に鑑み、本発明が解決しようとする課題は、ある投影面に投影される映像について、特定の方向からは特定の映像を視認でき、他の特定の方向からは視認できないようにすることである。 In view of the above situation, the problem to be solved by the present invention is to make it possible to visually recognize a specific image from a specific direction and not from another specific direction for an image projected on a certain projection plane. It is.
上記課題を解決するため、本発明は、第1の投影面と第2の投影面に映像を投影する映像投影手段と、前記第1の投影面と前記第2の投影面を撮像する撮像手段と、前記撮像手段が撮像した前記映像から前記第2の投影面の位置情報を算出する位置情報算出手段と、前記第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替える切替手段と、を有することを特徴とする。 In order to solve the above problems, the present invention provides an image projection unit that projects an image on a first projection plane and a second projection plane, and an imaging unit that captures the first projection plane and the second projection plane. And position information calculating means for calculating position information of the second projection plane from the video imaged by the imaging means, and projecting on the second projection plane in accordance with the position information of the second projection plane Switching means for switching the video to be switched.
本発明によれば、第2の投影面に投影される映像について、特定の方向からは特定の映像を視認でき、他の特定の方向からは視認できないようにできる。 According to the present invention, with respect to an image projected on the second projection plane, a specific image can be viewed from a specific direction and cannot be viewed from another specific direction.
(各実施形態に共通の構成)
以下、本発明を実施するための形態について、図面を用いて詳細に説明する。図1(a)は、本発明の各実施形態の投影装置1の構成例と、第1のスクリーン21の構成例を模式的に示す外観斜視図である。図1(b)は、第2のスクリーン22の構成例を模式的に示す外観斜視図である。
(Configuration common to each embodiment)
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1A is an external perspective view schematically showing a configuration example of the
投影装置1は、プロジェクタ11とカメラ12とを有する。プロジェクタ11は、後述する映像投影手段101の例であり、第1のスクリーン21の第1の投影面211と、第1の投影面211に配置された第2のスクリーン22の第2の投影面221に映像を投影する。カメラ12は、後述する不可視光投射手段102と撮像手段103の例である。カメラ12は、可視光画像を撮像してRGB画像データ(可視光画像データ)を生成できる。また、カメラ12は、第1のスクリーン21などの物体に対して不可視光を投射し、物体で反射した不可視光を検出し、不可視光画像データを生成することができる。本発明の実施形態では、このカメラ12が生成した不可視光映像データを用い、TOF(タイム オブ フライト)方式により、第1のスクリーン21などの物体までの距離計測を行う。本実施形態では、不可視光の例として赤外線が適用される。そして、カメラ12は、TOF方式の距離計測に用いることができるように、赤外線を投射する高速赤外LEDなどの赤外線エミッタと、赤外線を検出できる撮像素子とを有し、検出した赤外線を含む波長帯域の映像データを生成する。なお、TOF方式による距離計測は公知であるため、説明を省略する。また、カメラ12は、プロジェクタ11が映像を投影できる範囲の全域に対して不可視光を投射でき、かつ、この範囲の全域を撮像できる。
The
第1のスクリーン21は、使用中はプロジェクタ11およびカメラ12との位置関係が固定される。第1のスクリーン21は、第1の投影面211を有する。投影装置1のプロジェクタ11は、第1のスクリーン21の第1の投影面211に映像を投影する。これにより、第1のスクリーン21の第1の投影面211に映像が表示される。使用者や使用者以外の観者などといった第1のスクリーン21の周囲に存在する人物は、第1の投影面211を見ることにより、プロジェクタ11が投影する映像(投影内容)を把握できる。なお、カメラ12は、第1のスクリーン21の第1の投影面211の全域に不可視光を投影でき、かつ、第1のスクリーン21の全域を撮像できる。
The positional relationship between the
第2のスクリーン22は可搬型のスクリーンであり、使用中であっても、移動させて投影装置1との相対的な位置関係を変更することができる。第2のスクリーン22は、第2の投影面221を有する。第2のスクリーン22は、第1のスクリーン21の第1の投影面211に設置されて用いられる。第2の投影面221は、第1の投影面211と同様に、投影装置1のプロジェクタ11が投影する映像を受け、使用者や観者がそれを見て投影内容を把握できるようにするためのものである。第2のスクリーン22は立体形状を有している。そして、第2の投影面221は、第2のスクリーン22が設置される面に対して傾斜している。すなわち、第2のスクリーン22が第1の投影面211に設置されると、第2の投影面221は、第1の投影面211に対して、ある角度をもって傾斜する。このため、第2の投影面221が向く方向に存在する人物は、第2の投影面221に投影された映像を見ることができる。一方、第2の投影面221の向いていない方向に存在する人物は、第2の投影面221を見ることができず、第2の投影面221に投影される映像を見ることはできない。
The
第2のスクリーン22には、投影装置1が第2の投影面221の位置や向きを検出するためのマーカー222が設けられる。図1(b)に示すように、例えば第2の投影面221が四辺形である場合には、マーカー222は、第2の投影面221の四隅部に設けられる。なお、マーカー222の位置および数は、図1(b)に示す構成に限定されるものではない。また、マーカー222は、カメラ12で撮影した際に検出しやすい形状であればよい。
The
図2は、投影装置1の使用状態の例を模式的に示す図であり、第1のスクリーン21の第1の投影面211に、第2のスクリーン22を設置した状態を模式的に示す。第2のスクリーン22は、プロジェクタ11が映像を投影できる範囲(すなわち、第1の投影面211)に配置されて使用される。図2中のP1は、第1の投影面211に投影される映像を示す。第1の投影面211には、第1のスクリーン21の周囲に存在する全ての人物に見られてもよい映像を投影する。説明の便宜上、このような映像を、「第1の映像P1」と称する。第1のスクリーン21の周囲に存在する人物は、第1の投影面211からの方向によらず、第1の映像P1を視認できる。図2中のP2は、プロジェクタ11により第2の投影面221に投影される映像を示す。第2のスクリーン22の第2の投影面221には、特定の人物にのみ見せ、それ以外の人物には見せたくない映像である。説明の便宜上、このような映像を、「第2の映像P2」と称する。前述のとおり、第2の投影面221は、第1の投影面211に対して傾斜している。このため、第1の投影面211の周囲のうち、第2の投影面221が向く側からは、第2の投影面221に投影される第2の映像P2を視認できる。一方、その反対側からは第2の投影面221が見えず、第2の映像P2を視認できない。
FIG. 2 is a diagram schematically illustrating an example of a usage state of the
ここで、投影装置1と第2のスクリーン22の寸法と角度の例について、図3を参照して説明する。図3は、投影装置1と第2のスクリーン22の寸法や角度の一例を模式的に示す図である。第1の投影面211は、縦が400mmで横が600mmの四辺形である。プロジェクタ11とカメラ12は、第1の投影面211の中心真上400mmの位置に、アームなどの支持部材によって設置されている。なお、プロジェクタ11およびカメラ12と第1のスクリーン21の第1の投影面211との位置関係は固定されている。第2のスクリーン22の第2の投影面221は、第1のスクリーン21の第1の投影面211に設置した状態では、第1の投影面211に対して30°の角度で傾斜する。第1の投影面211および第2の投影面221がこのような寸法であると、第2のスクリーン22が第1の投影面211の最も端に設置された場合には、プロジェクタ11が第2の投影面221に映像を投影する角度は48°となる。このため、この場合でも、プロジェクタ11は、第2の投影面221に映像を投影できる。なお、投影装置1と第2のスクリーン22は、この構成に限られるものではない。ユースケースに応じて最適な寸法と角度を採用すればよい。
Here, an example of dimensions and angles of the
次に、投影装置1の構成例について、図4を参照して説明する。図4は、投影装置1の構成例を示す機能ブロック図である。図4に示すように、投影装置1は、映像投影手段101と、不可視光投射手段102と、撮像手段103と、制御手段104と、位置情報算出手段105と、補正手段106と、記憶手段107と、映像認識手段108と、映像データ生成手段109とを有する。さらに、投影装置1は、操作手段110と、入出力制御手段111とを有する。本発明の実施形態では、プロジェクタ11が映像投影手段101として機能し、カメラ12が撮像手段103および不可視光投射手段102として機能する例を示す。
Next, a configuration example of the
制御手段104は、投影装置1の各部を制御する。映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影し、第2の投影面221に第2の映像P2を投影する。不可視光投射手段102は、制御手段104による制御にしたがい、撮像手段103の撮像範囲(第1の投影面211を含む範囲)に不可視光を投影する。撮像手段103は、第1の投影面211(第2の投影面221を含む)を撮像し、RGB映像データを生成する。また、撮像手段103は、不可視光投射手段102が第1のスクリーン21や第2のスクリーン22などの物体に投射して反射した不可視光を検出し、不可視光映像データを生成する。位置情報算出手段105は、撮像手段103が生成した不可視光映像データから、第1の投影面211と第2の投影面221の位置情報(三次元座標)を算出する。補正手段106は、第1の補正手段の例として機能し、第1の投影面211に投影される第1の映像P1に歪みが生じないように、第1の映像P1の映像データを補正する。また、補正手段106は、第2の補正手段の例として機能し、第2の投影面221に投影される第2の映像P2に歪みが生じないように、第2の映像P2の映像データを補正する。記憶手段107は、各種データを記憶する。映像認識手段108は、撮像手段103が生成したRGB映像データに対して、画像認識処理を行う。映像データ生成手段109は、映像投影手段101が投影する映像データを生成する。例えば、映像データ生成手段109は、第1の映像P1の映像データに、第2の投影面221に対応する範囲に第2の映像P2の映像データを重ね合わせることによって、映像投影手段101が映像の投影に用いる映像データを生成する。操作手段110は、使用者等が投影装置1を操作したり、各種情報を入力したりする際に用いられる。入出力制御手段111は、外部機器9とのデータの送受信を行う。
The control means 104 controls each part of the
本実施形態では、投影装置1は、第1の映像P1の映像データと第2の映像P2の映像データを、外部機器9から入出力制御手段111を介して受信する。なお、外部機器9としては、例えばパーソナルコンピュータなどといった、映像データを出力する機器が適用される。
In the present embodiment, the
(第1の実施形態)
次に、第1の実施形態の処理について説明する。図5(a)(b)は、第1の実施形態の動作を示す図である。具体的には、図5(a)は、第2の投影面221が特定の人物HBの側を向いている状態を模式的に示す図である。図5(b)は、第2の投影面221が特定の人物HBの側を向いていない状態を模式的に示す図である。第1の実施形態の処理は、第2の投影面221に対向する側に存在する人物HBには第2の映像P2を見せ、第2の投影面221とは反対側に存在する人物HAには第2の映像P2を見せない機能を実現する処理である。
(First embodiment)
Next, the processing of the first embodiment will be described. FIGS. 5A and 5B are diagrams illustrating the operation of the first embodiment. Specifically, FIG. 5 (a), a state where the
図5(a)(b)に示すように、人物HAと人物HBとが第1の投影面211を挟んで向き合っているものとする。そして、第2の映像P2を人物HAには見せたくなく、人物HBにのみに見せたいユースケースを例に示して説明する。この場合には、使用者等(例えば、人物HB)は、図5(a)に示すように、第2のスクリーン22を、映像投影手段101が映像を投影できる範囲内(ここでは第1の投影面211)に、第2の投影面221が人物HBの方向を向くように設置する。そして、図5(a)に示すように、第2の投影面221が人物HBの側を向いている場合には、投影装置1は、第2の投影面221に第2の映像P2を投影する。これにより、第2の投影面221には、第2の映像P2が表示される。これに対し、図5(b)に示すように、第2の投影面221が人物HBの側を向いていない場合には、投影装置1は、第2の投影面221に第2の映像P2を投影しない。このため、人物HAから第2の投影面221が見える場合であっても、この人物HAは第2の映像P2を見ることはできない。
As shown in FIGS. 5A and 5B, it is assumed that the person H A and the person H B face each other with the
本発明の実施形態では、第2の映像P2を見ることを想定する位置をあらかじめ設定する。この位置を「観察位置」と称する。そして、第2の投影面221と観察位置との位置関係が、第2の投影面221を観察位置から視認できるが観察位置以外の位置からは視認できないという条件を充足するか否かを判断する。そしてこの条件を充足した場合には、第2の投影面221に第2の映像P2を投影する。一方、この条件を充足しない場合には、第2の投影面221に第2の映像P2を投影しない。
In the embodiment of the present invention, a position assumed to view the second video P 2 is set in advance. This position is referred to as an “observation position”. Then, it is determined whether or not the positional relationship between the
本発明の実施形態では、前述の条件を充足するか否か、すなわち、第2の投影面221が人物HBから見える範囲にあるか否かを、第2の投影面221の位置情報に基づいて判断する。そして、この第2の投影面221の位置情報として、第2の投影面221と人物HBとを結ぶ直線Aと第2の投影面221が向く方向との角度θを用いる。具体的には、制御手段104は、上面視(第1の投影面211の法線方向視)において、第2の投影面221の中心と人物HBとを結ぶ直線Aを算出する。さらに、制御手段104は、上面視において、第2の投影面221が向く方向を示す直線Bを算出する。この直線Bは、第2の投影面221の中心を通過する第2の投影面221の法線を、第1の投影面211に投影した直線である。制御手段104は、直線Aと直線Bとがなす角度θを算出する。そして、制御手段104は、条件判断手段の例として機能し、角度θの値が所定範囲内であるか否かを判断する。角度θの値が所定範囲内であれば、前述の条件を充足すると判断する。この場合には、制御手段104は映像投影手段101を、第2の投影面221に第2の映像P2(人物HBに見せ、人物HAには見せないことを想定した映像)を投影するように制御する。一方、前述の条件を充足しない場合(この角度θが所定範囲内にない場合)には、制御手段104は、第2の投影面221が人物HBから見える範囲にないと判断する。この場合には、制御手段104は映像投影手段101を、第2の投影面221に第2の映像P2を投影しないように制御する。このように、制御手段104は、切替手段の例として機能し、第2の投影面221の位置情報に応じて、第2の投影面221に投影する映像を切替える。なお、この角度θの所定範囲は特に限定されるものではないが、例えばこの角度θの所定範囲には30°以内が適用できる。
In the embodiment of the present invention, whether or not the above-described condition is satisfied, that is, whether or not the
直線Aを算出する方法としては、次のような方法が適用できる。使用者等(人物HB等)が操作手段110を介して人物HBの第1の投影面211に対する位置(観察位置)を入力する。人物HBは、この観察位置から第2の投影面221を観察することになる。制御手段104は、入力された観察位置と検出した第2の投影面221(マーカー222)とから直線Aを算出する。また、投影装置1が近距離通信アンテナを備えており、人物HBが身に付けている無線タグを検出することができる構成であってもよい。この場合には、制御手段104は、無線タグの検出結果に基づいて、第1の投影面211に対する人物HBが存在する位置(すなわち、観察位置)を算出する。そして、制御手段104は、その算出結果と第2の投影面221の検出結果から直線Aを算出する。
As a method for calculating the straight line A, the following method can be applied. A user or the like (person H B or the like) inputs the position (observation position) of the person H B with respect to the
次に、上述の機能を実現するための処理の内容およびフローについて説明する。上述の機能を実現するための処理には、図6に示す事前処理と、図7に示すメイン処理とが含まれる。また、メイン処理には、図8に示す投影処理が含まれる。なお、投影装置1は、CPU131とRAM134とROM135とHDD137とを含むコントロールコンピュータ13を有する(後述。図14参照)。そして、ROM135またはHDD137には、図6〜図8に示す処理を含め、投影装置1を制御するためのコンピュータプログラムや各種パラメータが格納されている。CPU131は、ROM135またはHDD137からこのコンピュータプログラムを読み出し、RAM134に展開して実行する。これにより、コントロールコンピュータ13は、制御手段104、位置情報算出手段105、補正手段106、記憶手段107、映像認識手段108などの投影装置1の各手段として機能し、後述の処理が実現する。
Next, the content and flow of processing for realizing the above-described functions will be described. The process for realizing the above-described functions includes a pre-process shown in FIG. 6 and a main process shown in FIG. The main process includes the projection process shown in FIG. The
図6は、事前処理の例を示すフローチャートである。プロジェクタ11は、固定された光学系を有する。そこで、プロジェクタ11が第1の投影面211に投影する映像に歪が生じないようにするために、所定の補正パラメータを用いて映像データを補正する。本発明の実施形態では、所定の補正パラメータとして射影変換行列を用い、投影する映像の映像データに対して射影変換を施す。事前処理は、この補正パラメータ(本発明の実施形態では射影変換行列)を算出するキャリブレーション処理である。なお、射影変換行列は、次の式で表される。
FIG. 6 is a flowchart illustrating an example of pre-processing. The
ステップS601で、不可視光投射手段102は、制御手段104による制御にしたがい、撮像手段103の撮像範囲の全体に対して不可視光(本発明の実施形態では赤外線)を投射する。そして、撮像手段103は制御手段104による制御にしたがい、撮像範囲の全体を撮像し、不可視光映像データとRGB映像データを生成する。生成した不可視光映像データとRGB映像データは、記憶手段107に記憶される。
In step S <b> 601, the invisible
ステップS602で、位置情報算出手段105は、制御手段104による制御にしたがい、撮像手段103が生成した映像データから不可視光映像データを抽出する。そして、位置情報算出手段105は、抽出した不可視光映像データを用いて、撮像範囲の全体についてTOF法による距離計測を行う。そして、位置情報算出手段105は、撮像範囲の全体(不可視光映像データに写っている範囲の全体)について、三次元座標情報を生成する。具体的には、位置情報算出手段105は、撮像範囲の三次元空間に三次元座標系を設定し、不可視光映像データに写っている物体の三次元座標を算出する。位置情報算出手段105は、これらの三次元座標系および三次元座標を三次元座標情報(位置情報)として生成し、生成した三次元座標情報を記憶手段107に記憶させる。その後、ステップS603に進む。
In step S <b> 602, the position
ステップS603で、位置情報算出手段105は、ステップS602で生成した三次元座標情報から、第1の投影面211の三次元座標を算出する。そして、補正手段106は、第1の投影面211と映像投影手段101の三次元座標から、第1の補正パラメータの例である第1の射影変換行列を算出する。そして、ステップS604に進む。
In step S603, the position
ステップS604で、制御手段104は、ステップS603で補正手段106が算出した第1の射影変換行列を、記憶手段107に記憶する。上記ステップを経て、事前処理を終了する。
In step S604, the
次に、メイン処理の例について説明する。図7は、メイン処理の例を示すフローチャートである。図8は、メイン処理に含まれる投影処理の例を示すフローチャートである。 Next, an example of the main process will be described. FIG. 7 is a flowchart illustrating an example of main processing. FIG. 8 is a flowchart illustrating an example of the projection process included in the main process.
ステップS701で、制御手段104は、観察位置を設定する。観察位置は、第2の映像P2を見ることが想定される位置であり、ここでは、人物HBが存在する位置である。観察位置の設定方法は、前述のとおりである。そして、制御手段104は、設定した観察位置を記憶手段107に記憶する。
In step S701, the
ステップS702で、不可視光投射手段102は、制御手段104による制御にしたがい、撮像範囲の全体に向けて不可視光を投射する。撮像手段103は、制御手段104による制御にしたがい、撮像範囲の全体を撮像し、撮像範囲の全体が写った不可視光映像データとRGB映像データを生成する。そして、ステップS703に進む。
In step S <b> 702, the invisible
ステップS703で、位置情報算出手段105は、撮像手段103がステップS702で撮影して生成した映像データから、不可視光映像データを抽出する。そして、位置情報算出手段105は、抽出した不可視光映像データを用いてTOF法による距離計測を行い、撮影範囲の全体に写り込んでいる物体の三次元座標情報を生成する。そして、生成した三次元座標情報を記憶手段107に記憶する。そして、ステップS704に進む。
In step S703, the position
ステップS704で、補正手段106は、事前処理において記憶手段107に記憶した第1の射影変換行列を読み出す。そして、ステップS705に進む。
In step S704, the
ステップS705で、補正手段106は第1の補正手段の例として機能し、第1の映像P1の映像データを補正する。すなわち、映像データ生成手段109は、第1の映像P1の映像データに対して、読み出した第1の射影変換行列を用いて射影変換を行う。そして、ステップS706に進む。
In step S705, the correcting means 106 functions as an example of the first correction means corrects the first image data of the image P 1. That is, the video
ステップS706で、映像認識手段108は、撮像手段103が生成した映像データからRGB映像データ(可視光映像データ)を抽出する。そして、映像認識手段108は、抽出したRGB映像データに、第2の投影面221に設けられるマーカー222が写り込んでいるか否かを検索する。RGB映像データに写っているマーカー222は、第2の投影面221の位置などを示す特徴情報となる。そして、ステップS707に進む。
In step S706, the
ステップS707で、制御手段104は、RGB映像データから、特徴情報であるマーカー222が検出されたか否かを判断する。特徴情報を検出できた場合にはステップS708に進み、特徴情報を検出できていなければステップS712に進む。
In step S707, the
ステップS708で、位置情報算出手段105は、ステップS706で検出したマーカー222と、ステップS703で生成した三次元座標情報から、第2の投影面221の三次元座標を算出する。また、補正手段106は、第2の補正手段として機能し、第2の投影面221の三次元座標と映像投影手段101の三次元座標から、第2の補正パラメータの例である第2の射影変換行列を算出する。そして、ステップS709に進む。
In step S708, the position
ステップS709で、制御手段104は、ステップS701で設定されて記憶された観察位置を、記憶手段107から読み出す。そして、位置情報算出手段105は、観察位置の三次元座標と第2の投影面221の三次元座標から、観察位置と第2の投影面221のなす角度θを算出する。そして、ステップS710に進む。
In step S709, the
ステップS710で、制御手段104は、S709で算出した角度θが所定範囲内であるか否かを判断する。制御手段104は、角度θが所定範囲内である場合にはステップS711に進む。そうでない場合にはステップS713に進む。
In step S710, the
ステップS711で、補正手段106は、第2の補正手段として機能し、第2の映像P2の映像データを補正する。具体的には、補正手段106は、第2の映像P2の映像データに対して、第2の射影変換行列を用いた射影変換を行う。そして、ステップS714に進む。
In step S711, the
ステップS707でマーカー222が検出されなかった場合には、第1のスクリーン21に第2のスクリーン22が設置されていないことになる。この場合には、ステップS712に進む。ステップS712では、制御手段104は、第2のスクリーン22の設置を促す処理を実行する。例えば、制御手段104は、映像投影手段101を制御し、第1のスクリーン21に、第2のスクリーン22の設置を促すメッセージを投影する。また、投影装置1がスピーカーなどの拡声手段を有する構成であれば、制御手段104は、拡声手段を制御して、第2のスクリーン22の設置を促す音声を発する。そして、ステップS714に進む。
If the
ステップS710で角度θが所定範囲内でないと判断された場合は、第2のスクリーン22の第2の投影面221が観察位置以外の位置からも見えるおそれがある状態である。この場合には、ステップS713に進む。ステップS713では、制御手段104は、第2のスクリーン22の向きの確認や修正を促す処理を実行する。例えば、制御手段104は、映像投影手段101を制御し、第2のスクリーン22の向きの確認や修正を促すメッセージを投影する。また、投影装置1がスピーカーなどの拡声手段を有する構成であれば、制御手段104は、拡声手段を制御して、第2のスクリーン22の向きの確認や修正を促す音声を発する。そして、ステップS714に進む。
If it is determined in step S710 that the angle θ is not within the predetermined range, the
ステップS714で、制御手段104は、図8のステップS801に示す投影処理を行う。この投影処理では、映像データ生成手段109は、制御手段104による制御にしたがい、映像投影手段101が投影する映像の映像データを生成する。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを重ね合わせることによって、映像投影手段101が投影する映像データを生成する。この際、第2の映像P2の映像データを、第2の投影面221に対応する位置(範囲)に重ね合わせる。そして、映像投影手段101は、制御手段104による制御にしたがい、映像を投影する。前述の映像データを用いることにより、第1の投影面211に第1の映像P1が投影され、第2の投影面221に第2の映像P2が投影される。
In step S714, the
なお、ステップS712またはステップS713を経由してこのステップS714に進んだ場合には、このステップS714において、第1の映像P1のみを投影し、第2の映像P2は投影しない。例えば、映像投影手段101は、第1の映像P1の映像データを用いて映像の投影を行う。このような構成によれば、第2のスクリーン22が設置されていない場合や、第2のスクリーン22の第2の投影面221と観察位置との位置関係が前述の条件を充足していない場合には、第2の映像P2は投影されない。
If the process proceeds to step S714 via step S712 or step S713, only the first video P 1 is projected and the second video P 2 is not projected in step S714. For example, the
そして、ステップS702に戻り、以降、ステップS702〜S714を繰り返す。 Then, the process returns to step S702, and thereafter, steps S702 to S714 are repeated.
上述の処理では、ステップS710で特定の人物HBと第2の投影面221のなす角度θが所定範囲内にあるか否かを判断し、ステップS711でこの判断結果に応じて第2の映像データを生成するか否かを決定している。ただし、本発明の処理は、この構成に限定されない。このような判断を行わなくても、次のように簡易的に目的を達成することも可能である。
In the above-described processing, it is determined in step S710 whether or not the angle θ formed by the specific person H B and the
図9(a)(b)に示すように、投影装置1の撮像手段103が、特定の人物HBが存在する側(観察位置の側)に配置される。そしてこの構成では、図7のステップS710が省略され、ステップS709の次にステップS711に進む。なお、図9(a)は、第2の投影面221が特定の人物HB(観察位置)の方向を向いている状態における動作の概念を模式的に示す図である。また、図9(b)は、第2の投影面221が特定の人物HBの側(観察位置の側)を向いていない状態を模式的に示す図である。
As shown in FIGS. 9A and 9B, the imaging means 103 of the
図7のステップS707で、映像認識手段108は、観察位置の側に配置された撮像手段103により生成されたRGB映像データから、特徴情報であるマーカー222を検出する。観察位置の側に配置される撮像手段103により撮像される映像にマーカー222が写っていることは、観察位置からは第2の投影面221が視認でき、他の位置からは第2の投影面221が視認できないことを示している。すなわち、前述の角度θが所定範囲内にある場合と同等の状態であるとみなせる。そこで、このような構成においては、ステップS710を省略してもよい。すなわち、この構成では、ステップS707で、制御手段104は、条件判断手段として機能する。そして、制御手段104は、マーカー222が検出された場合には、直線Aと直線Bの角度θが所定範囲内にあると判断し、マーカー222が検出されない場合には、角度θが所定範囲内にないと判断する。
In step S707 in FIG. 7, the
図9(a)に示す状態では、第2の投影面221が観察位置の側を向いているため、撮像手段103により生成されるRGB映像データにマーカー222が写る。このため、映像認識手段108によって、RGB映像データからマーカー222が検出される。この場合には、ステップS708,S709,S711を経て、ステップS714に進む。そして、ステップS714では、第1の投影面211に第1の映像P1が投影され、第2の投影面221に第2の映像P2が投影される。
In the state shown in FIG. 9A, since the
図9(b)に示す状態では、第2の投影面221が観察位置の側を向いていないため、図7のステップS707では、マーカー222が検出されないという判断結果が得られる。この場合には、制御手段104は条件判断手段として機能し、角度θが所定範囲内にはないと判断する。そして、ステップS712を経てステップS714に進む。このため、ステップS714では、映像投影手段101は、第1の投影面211に第1の映像P1を投影し、第2の投影面221には第2の映像P2を投影しない。
In the state shown in FIG. 9B, since the
以上説明したとおり、本実施形態においては、第2の投影面221と観察位置との位置関係に応じて、第2の投影面221に投影する映像を切替えることができる。したがって、特定の人物に見せることを想定し、それ以外の人物に見せないことを想定した映像について、当該他の人物に見せないようにできる。
As described above, in the present embodiment, the image projected on the
また、本実施形態によれば、第1の映像P1の映像データと、第2の映像P2の映像データについて、それぞれ別々に歪の補正を行う。このため、第1の投影面211に投影する第1の映像P1と、第2の投影面221に投影する第2の映像P2の両方について、投影された状態で歪が表示内容に補正できる。さらに、プロジェクタ11と第2の投影面221との位置関係が変わったとしても、第1の投影面211と第2の投影面221のいずれにも歪のない映像を投影できる。
Further, according to the present embodiment, distortion correction is separately performed on the video data of the first video P 1 and the video data of the second video P 2 . Therefore, for both the first video P 1 projected onto the
(第2の実施形態)
次に、第2の実施形態の処理について説明する。第2の実施形態の処理は、第2の投影面221に第2の映像P2を投影している間において、マーカー222が認識できなくなった場合に、第2の映像P2の投影を停止する処理である。例えば、第2のスクリーン22が動かされると、撮像手段103が撮像している映像にブレが発生し、映像認識手段108によりマーカー222を認識できなくなることがある。その場合には、特定の人物HBにのみ見せる第2の映像P2が第2の投影面221を外れ、第1の投影面211に投影されるおそれがある。そこで、このような事態が発生しないよう、第2の投影面221が静止している時のみ第2の投影面221へ第2の映像P2の投影を行い、第2の投影面221が動いている最中は、第2の映像P2を第2の投影面221へ投影しないようにする。なお、第1の実施形態と共通の構成については説明を省略する。
(Second Embodiment)
Next, the processing of the second embodiment will be described. The process of the second embodiment stops the projection of the second video P 2 when the
図10は、第2の投影面221が静止している状態と動いている状態での処理を模式的に示す図である。図10中のX1は、第2のスクリーン22(第2の投影面221)が静止している状態を示す。この状態においては、投影装置1は第2の投影面221に第2の映像P2を投影する。図10中のX2は、第2のスクリーン22(第2の投影面221)が移動中の状態を示す。この状態においては、投影装置1は、第2の投影面221に第2の映像P2を投影しない。図10中のX3は、第2のスクリーン22(第2の投影面221)が再度静止した状態を示す。この状態では、投影装置1は、第2の投影面221に第2の映像P2を投影する。
FIG. 10 is a diagram schematically illustrating processing in a state where the
図11は、上述の動作を実現するための処理の内容を示すフローチャートであり、図7のステップS714の投影処理の内容の詳細を示す。 FIG. 11 is a flowchart showing the contents of the process for realizing the above-described operation, and shows details of the contents of the projection process in step S714 of FIG.
ステップS1101で、制御手段104は、メイン処理のステップS703(図7参照)で算出した第2の投影面221の現在の三次元座標を、記憶手段107に記憶する。そして、S1102に進む。
In step S1101, the
ステップS1102で、制御手段104は、前回のステップS1101で記憶した第2の投影面221の三次元座標を読み出す。そして、S1103に進む。
In step S1102, the
S1103で、制御手段104は、第2の投影面221の前回と今回(現在)の三次元座標の差分を算出する。そして、S1104に進む。
In step S <b> 1103, the
S1104で、制御手段104は、ステップS1103で算出した差分が0でない値であるか否かを判断する。差分が0でなければ、第2の投影面221は移動したことを示し、差分が0であれば第2の投影面221は移動していないことを示す。差分が0でない値であればステップS1105に進み、差分が0であればS1106に進む。
In step S1104, the
ステップS1105で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に対して第1の映像P1を投影する。そして、本処理を終了する。
In step S <b> 1105, the
一方、ステップS1106で、映像投影手段101は、制御手段104による制御にしたがい、第1の映像P1を第1の投影面211に投影するとともに、第2の映像P2を第2の投影面221に投影する。具体的には、映像データ生成手段109は、第1の映像P1の映像データの第2の投影面221に対応する領域に、第2の映像P2の映像データの内容を上書きすることにより、映像投影手段101が投影する映像の映像データを生成する。そして、映像投影手段101は、このように生成された映像データを用いて、第2のスクリーン22(第2の投影面221)が載置された第1の投影面211に向けて映像を投影する。これにより、第1の投影面211には第1の映像P1が投影され、第2の投影面221には第2の映像P2が投影される。
On the other hand, in step S1106, the
本実施形態によれば、例えば第2のスクリーン22が移動している間には第2の投影面221に対して第2の映像P2を投影しない。これにより、第2の映像P2が第2の投影面221を外れて第1の投影面211に投影されることを防止できる。
According to the present embodiment, for example, the second image P 2 is not projected onto the
(第3の実施形態)
次に、第3の実施形態の処理について説明する。第3の実施形態の処理は、映像投影手段101から第2の投影面221に至る光路の近傍領域に物体が存在する場合に、第2の投影面221への第2の映像P2の投影を停止する処理である。映像投影手段101は、自身から離れた位置にある第1の投影面211および第2の投影面221に対して映像を投影する。このため、映像投影手段101と第2の投影面221の間に、例えば白紙などといった光路を妨げるものをかざすと、この白紙に第2の映像P2が投影される。したがって、特定の人物HBが存在する側(観察位置の側)以外の側から第2の映像P2の内容を見ることが可能になる。本実施形態では、このような場合に、第2の映像P2を特定の人物HBだけに見せ、他の人物HAに見られないようにする。このような機能を実現するため、映像投影手段101と第2の投影面221の間の光路を妨げるおそれがある物体を検出した際には、第2の投影面221への第2の映像P2の投影を行わないようにする。
(Third embodiment)
Next, the processing of the third embodiment will be described. The process of the third embodiment is to project the second video P 2 onto the
図12は、映像投影手段101と第2の投影面221との間の光路に物体S(例えば白紙など)が差し込まれた際の動作概念を模式的に示す図である。制御手段104は、映像投影手段101と第2の投影面221との間の光路の近傍領域に物体Sが存在していると判断した場合には、第2の投影面221へ第2の映像P2を投影しない。光路の近傍領域としては、例えば、映像投影手段101と第2の投影面221の中心とを通過する直線Lを中心とする円柱形状の領域Nが適用される。なお、この円柱形状の領域Nの半径は特に限定されるものではなく、第2の投影面221のサイズ等に応じて適宜設定される。例えば、第2の投影面221のサイズが前述のとおりであれば、この領域Nの半径は例えば約50mmが適用できる。さらに、前記光路の近傍領域は、このような円柱形状の領域Nに限られるものではない。例えば、映像投影手段101と第2の投影面221の四隅部を結ぶ四角錐形状の領域などであってもよい。
FIG. 12 is a diagram schematically illustrating an operation concept when an object S (for example, a blank sheet) is inserted into the optical path between the
図13は、本実施形態における投影処理の例を示すフローチャートであり、図7のステップS714の投影処理の内容を示す。 FIG. 13 is a flowchart showing an example of the projection processing in this embodiment, and shows the contents of the projection processing in step S714 in FIG.
S1301で、制御手段104は、映像投影手段101と第2の投影面221の三次元座標から、映像投影手段101と第2の投影面221の中心とを結ぶ直線Lの方程式を算出する。そして、S1602に進む。なお、映像投影手段101の座標を(x1,y1,z1)とし、第2の投影面221の中心座標を(x2,y2,z2)とすると、この直線Lの方程式は以下のように表わされる。
In step S <b> 1301, the
ステップS1302で、映像認識手段108は、物体検出手段の例として機能し、メイン処理のステップS703(図7参照)で生成した三次元座標情報を用い、直線Lから所定距離内に存在する物体(オブジェクト)を検索する。そして、ステップS1303に進む。
In step S1302, the
ステップS1303で、制御手段104は、映像認識手段108(物体検出手段)による検索結果に基づき、光路の近傍領域(本実施形態では、直線Lを中心とする円柱形状の領域N)に物体が存在するかどうかを判断する。物体が存在すると判断した場合にはS1304に進み、物体が存在しないと判断した場合にはS1305に進む。
In step S1303, the
ステップS1304で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影する。ただし、映像投影手段101は、第2の投影面221に第2の映像P2を投影しない。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを重ねた映像データを生成せず、映像投影手段101は、補正された第1の映像P1の映像データを用いて、映像を投影する。これにより、第1の投影面211には第1の映像P1が投影されるが、第2の投影面221には第2の映像P2が投影されない。そして、この処理を終了する。
In step S <b> 1304, the
ステップS1305で、映像投影手段101は、制御手段104による制御にしたがい、第1の投影面211に第1の映像P1を投影し、第2の投影面221に第2の映像P2を投影する。例えば、映像データ生成手段109は、第1の映像P1の映像データに第2の映像P2の映像データを上書きすることにより、映像投影手段101が投影する映像の映像データを生成する。これにより、第1の投影面211には第1の映像P1が投影され、第2の投影面221には第2の映像P2が投影される。そして、この処理を終了する。
In step S <b> 1305, the
本実施形態によれば、映像投影手段101から第2の投影面221に至る光路の近傍領域に物体を接近させると、第2の映像P2の投影を停止するため、見せたくない映像を見せないようにできる。
According to this embodiment, when the close of the object region near the optical path from the
次に、投影装置1のハードウェア構成例について、図14を参照して説明する。図14は、投影装置1のハードウェア構成例を模式的に示す図である。投影装置1は、プロジェクタ11と、カメラ12と、コントロールコンピュータ13とを有する。
Next, a hardware configuration example of the
プロジェクタ11は、映像投影手段101の例である。プロジェクタ11は使用者等に視覚的に知らせるべき情報を可視光の映像により投影する。プロジェクタ11は、コントロールコンピュータ13のI/Oコントローラ136およびグラフィックコントローラ132との間でデータの送受信を行う。なお、プロジェクタ11には、公知の各種プロジェクタが適用できる。
The
カメラ12は、不可視光投射手段102および撮像手段103の例である。このようなカメラ12としては、例えば、赤外線エミッタ内蔵カメラが適用される。赤外線エミッタ内蔵カメラは、撮影した撮像映像をRGB輝度情報のデジタル信号であるRGB映像データに変換する。また、赤外線エミッタ内蔵カメラは赤外線の撮像素子を備えている。そして、赤外線エミッタ内蔵カメラは、内蔵された赤外線エミッタから赤外線を投射してその反射光を撮影し、不可視光映像データを生成する。カメラ12は、I/Oコントローラ136との間でデータの送受信を行う。前述のとおり、投影装置1は、赤外線エミッタ内蔵カメラによる赤外線投射時刻と反射光の撮影時刻から、TOF(タイム オブ フライト)方式の距離計測により、カメラ12と被写体(物体)との距離を計測する。なお、TOF法式の距離計測は公知であるため、説明を省略する。
The
コントロールコンピュータ13は、CPU131と、メモリコントローラ133と、RAM134と、ROM135と、グラフィックコントローラ132と、I/Oコントローラ136と、HDD137と、内部バス138とを有するコンピュータである。メモリコントローラ133は、RAM134やROM135に対するアクセスなどを統括する。RAM134は、高速アクセス可能な揮発性のメモリであり、CPU131が所定の演算処理を行う際のワークエリアとして用いられる。HDD137またはROM135には、ブートローダプログラムおよび投影装置1を制御するためのプログラムが格納されている。内部バス138は、メモリコントローラ133とI/Oコントローラ136で情報の伝達が出来るよう、電気信号を送受信する。I/Oコントローラ136は、HDD137、プロジェクタ11、カメラ12と、内部バス138を介して接続しているメモリコントローラ133などとの間で、データの送受信を行う。グラフィックコントローラ132は、プロジェクタ11による映像の投影を制御する。
The
投影装置1の電源が投入されると、CPU131は、ROM135またはHDD137に格納されるブートローダプログラムを読み出して実行し、次いで、投影装置1を制御するためのコンピュータプログラムを読み出してRAM134に展開する。そして、CPU131は、RAM134に展開したこのコンピュータプログラムを実行する。これにより、コントロールコンピュータ13は、図4に示す投影装置1の各手段として機能し、前述の処理が実現する。
When the power of the
また、コントロールコンピュータ13が映像データ生成手段109として機能する際には、CPU131は、第1の映像P1の映像データをRAM134のフレームバッファに格納し、第2の映像P2の映像データを、前記フレームバッファに上書きする。これにより、プロジェクタ11が投影する映像の映像データが生成される。プロジェクタ11は、このフレームバッファに格納される映像データを用いて映像を投影する。
When the
以上、本発明の各実施形態について、図面を参照して詳細に説明したが、前記各実施形態は、本発明の実施にあたっての具体例を示したに過ぎない。本発明の技術的範囲は、前記各実施形態に限定されるものではない。本発明は、その趣旨を逸脱しない範囲において、種々の変更が可能であり、それらも本発明の技術的範囲に含まれる。 As mentioned above, although each embodiment of this invention was described in detail with reference to drawings, each said embodiment only showed the specific example in implementation of this invention. The technical scope of the present invention is not limited to the above embodiments. The present invention can be variously modified without departing from the spirit thereof, and these are also included in the technical scope of the present invention.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
1:投影装置
11:プロジェクタ
12:カメラ
101:映像投影手段
102:不可視光投射手段
103:撮像手段
104:制御手段
105:位置情報算出手段
106:補正手段
107:記憶手段
108:映像認識手段
109:映像データ生成手段
110:操作手段
111:入出力制御手段
1: Projector 11: Projector 12: Camera 101: Video projection means 102: Invisible light projection means 103: Imaging means 104: Control means 105: Position information calculation means 106: Correction means 107: Storage means 108: Video recognition means 109: Video data generation means 110: operation means 111: input / output control means
Claims (12)
前記第1の投影面と前記第2の投影面を撮像する撮像手段と、
前記撮像手段が撮像した前記映像から前記第2の投影面の位置情報を算出する位置情報算出手段と、
前記第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替える切替手段と、
を有することを特徴とする投影装置。 Image projection means for projecting an image on the first projection surface and the second projection surface;
Imaging means for imaging the first projection plane and the second projection plane;
Position information calculating means for calculating position information of the second projection plane from the video imaged by the imaging means;
Switching means for switching an image projected on the second projection plane in accordance with position information of the second projection plane;
A projection apparatus comprising:
前記位置情報算出手段は、前記特徴情報に基づいて前記第2の投影面の位置情報を算出することを特徴とする請求項1に記載の投影装置。 Extracting feature information related to the second projection plane from the video imaged by the imaging means;
The projection apparatus according to claim 1, wherein the position information calculation unit calculates position information of the second projection plane based on the feature information.
前記撮像手段は、前記不可視光投射手段が投影した不可視光からなる不可視光映像を撮像し、
前記位置情報算出手段は、前記不可視光映像に基づいて前記第2の投影面の位置情報を算出することを特徴とする請求項1または2に記載の投影装置。 Further comprising invisible light projection means for projecting invisible light,
The imaging means captures an invisible light image composed of invisible light projected by the invisible light projection means,
The projection apparatus according to claim 1, wherein the position information calculation unit calculates position information of the second projection plane based on the invisible light image.
前記切替手段は、前記所定の条件を充足すると判断された場合には、前記第2の投影面に投影すべき映像を前記第2の投影面に投影させ、前記所定の条件を充足しないと判断された場合には、前記第2の投影面に投影すべき映像を投影させないことを特徴とする請求項1から3のいずれか1項に記載の投影装置。 A condition determining means for determining whether or not a positional relationship between the second projection plane and a preset observation position satisfies a predetermined condition;
When it is determined that the predetermined condition is satisfied, the switching unit projects an image to be projected on the second projection plane onto the second projection plane, and determines that the predetermined condition is not satisfied. 4. The projection apparatus according to claim 1, wherein in the case of being performed, an image to be projected is not projected on the second projection plane. 5.
前記切替手段は、前記物体検出手段により物体が検出された場合には、前記第2の投影面に投影すべき映像を前記第2の投影面に投影させ、前記所定の条件を充足しないと判断された場合には、前記第2の投影面に投影すべき映像を投影させないことを特徴とする請求項1から7のいずれか1項に記載の投影装置。 An object detection means for detecting an object existing within a predetermined range from an optical path from the projection means to the second projection plane;
The switching means, when an object is detected by the object detection means, projects an image to be projected on the second projection plane onto the second projection plane, and determines that the predetermined condition is not satisfied. The projection apparatus according to any one of claims 1 to 7, wherein in the case of being performed, an image to be projected is not projected on the second projection plane.
前記第2の投影面に投影する映像を第2の補正パラメータを用いて補正する第2の補正手段と、
をさらに有することを特徴とする請求項1から8のいずれか1項に記載の投影装置。 First correction means for correcting an image projected on the first projection plane using a first correction parameter;
Second correction means for correcting an image projected on the second projection plane using a second correction parameter;
The projection apparatus according to claim 1, further comprising:
前記第2の補正手段は、前記映像投影手段と前記第2の投影面との位置情報に基づいて前記第2のパラメータを算出することを特徴とする請求項9に記載の投影装置。 The first correction unit calculates the first correction parameter based on positional information between the video projection unit and the first projection plane,
The projection apparatus according to claim 9, wherein the second correction unit calculates the second parameter based on positional information between the video projection unit and the second projection plane.
前記第1の投影面と前記第2の投影面を撮像するステップと、
前記第1の投影面と前記第2の投影面を撮像した映像から前記第2の投影面の位置情報を算出するステップと、
算出した第2の投影面の位置情報に応じて、前記第2の投影面に投影する映像を切替えるステップと、
を有することを特徴とする投影装置の制御方法。 A method for controlling a projection apparatus having image projection means for projecting an image on a first projection plane and a second projection plane,
Imaging the first projection plane and the second projection plane;
Calculating positional information of the second projection plane from an image obtained by imaging the first projection plane and the second projection plane;
Switching the image projected on the second projection plane according to the calculated position information of the second projection plane;
A control method for a projection apparatus, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227262A JP2016092681A (en) | 2014-11-07 | 2014-11-07 | Projection device, control method of projection device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014227262A JP2016092681A (en) | 2014-11-07 | 2014-11-07 | Projection device, control method of projection device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016092681A true JP2016092681A (en) | 2016-05-23 |
Family
ID=56019918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014227262A Pending JP2016092681A (en) | 2014-11-07 | 2014-11-07 | Projection device, control method of projection device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016092681A (en) |
-
2014
- 2014-11-07 JP JP2014227262A patent/JP2016092681A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109739361B (en) | Visibility improvement method based on eye tracking and electronic device | |
CN106846410B (en) | Driving environment imaging method and device based on three dimensions | |
KR102114377B1 (en) | Method for previewing images captured by electronic device and the electronic device therefor | |
US9064293B2 (en) | Vehicle surroundings monitoring device | |
US10026207B2 (en) | Image display device, image display method and storage medium | |
CN106605195B (en) | Communication apparatus and control method of communication apparatus | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
JP6249248B2 (en) | Projection device | |
WO2013146269A1 (en) | Image capturing device, image processing method, and program | |
KR20150113889A (en) | Image processing apparatus, image processing method, and storage medium | |
JP6494239B2 (en) | Control device, control method, and program | |
JP2013076924A5 (en) | ||
JP2015212898A (en) | Image processor, information processing method and program | |
EP3381180B1 (en) | Photographing device and method of controlling the same | |
JP2016085380A (en) | Controller, control method, and program | |
WO2017187694A1 (en) | Region of interest image generating device | |
WO2021238564A1 (en) | Display device and distortion parameter determination method, apparatus and system thereof, and storage medium | |
US20160328201A1 (en) | Display control system, display control apparatus, display control method, and storage medium | |
KR102314943B1 (en) | Information processing apparatus, information processing method, and recording medium | |
JPWO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device | |
US11589001B2 (en) | Information processing apparatus, information processing method, and program | |
US20190318503A1 (en) | Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker | |
JP2016092681A (en) | Projection device, control method of projection device, and program | |
JP2015159460A (en) | Projection system, projection device, photographing device, method for generating guide frame, and program | |
JP6057407B2 (en) | Touch position input device and touch position input method |