JP2011180712A - Projection type image display apparatus - Google Patents
Projection type image display apparatus Download PDFInfo
- Publication number
- JP2011180712A JP2011180712A JP2010042587A JP2010042587A JP2011180712A JP 2011180712 A JP2011180712 A JP 2011180712A JP 2010042587 A JP2010042587 A JP 2010042587A JP 2010042587 A JP2010042587 A JP 2010042587A JP 2011180712 A JP2011180712 A JP 2011180712A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- unit
- image
- sub
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、スクリーンに映像を投写する投写型映像表示装置に関する。 The present invention relates to a projection display apparatus that projects an image on a screen.
従来、パーソナルコンピュータを投写型映像表示装置(以下適宜、プロジェクタとも表記する)に接続し、ディスプレイの画像をスクリーンに投写することが行われている。この投写映像を用いてプレゼンテーション等を実施するとき、拡大縮小やクリックなどの投写映像に対する操作を行う場合には、パーソナルコンピュータ側でのマウス操作が必要である。 2. Description of the Related Art Conventionally, a personal computer is connected to a projection video display device (hereinafter also referred to as a projector as appropriate) and an image on a display is projected onto a screen. When a presentation or the like is performed using this projection image, a mouse operation on the personal computer side is required when performing operations on the projection image such as enlargement / reduction or click.
スクリーンから離れることなく投写映像に対する操作が行えるようにするため、いくつかの技術が知られている。特許文献1には、プロジェクタスクリーンをタッチパネルで構成することで、スクリーン上での接触検知を可能にすることが記載されている。特許文献2には、スクリーンに投影された画像に対するレーザポインタの照射位置をカメラによって検出し、照射位置に応じた適切な画像をスクリーンに投影する技術が開示されている。 Several techniques are known to enable operations on projected images without leaving the screen. Japanese Patent Application Laid-Open No. H10-228561 describes that a touch screen can be detected by configuring a projector screen with a touch panel. Japanese Patent Application Laid-Open No. 2004-228688 discloses a technique for detecting an irradiation position of a laser pointer with respect to an image projected on a screen by a camera and projecting an appropriate image corresponding to the irradiation position on the screen.
特許文献1および2に記載の技術は、投写映像に対するタッチ操作を実現するために、タッチパネルまたはレーザポインタという特別なデバイスが必要になる。 The techniques described in Patent Documents 1 and 2 require a special device such as a touch panel or a laser pointer in order to realize a touch operation on a projected image.
本発明はこうした状況に鑑みなされたものであり、その目的は、ユーザが特別なデバイスを用いることなく、投写映像に対するタッチ操作を実現するための技術を提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for realizing a touch operation on a projected image without a user using a special device.
本発明のある態様は、投写型映像表示装置である。この装置は、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための第1撮像部と、前記スクリーンの上方空間を撮像するための第2撮像部と、前記第2撮像部により撮像された画像に基づき、所定物体が前記スクリーンに接触しているか否かを判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記第1撮像部により撮像された画像に基づき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える。 One embodiment of the present invention is a projection display apparatus. The apparatus includes a projection unit that projects an image on a screen, a first imaging unit that captures an area including at least the image projected on the screen, and a second imaging unit that captures an upper space of the screen. And a contact determination unit that determines whether or not a predetermined object is in contact with the screen based on an image captured by the second imaging unit, and a contact determination unit that determines that the predetermined object is in contact with the screen, A coordinate determination unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video based on the image captured by the first imaging unit;
本発明の別の態様も、投写型映像表示装置である。この装置は、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える。 Another aspect of the present invention is also a projection display apparatus. The apparatus moves above the screen from a projection unit that projects an image on a screen, an imaging unit that captures at least a region including the image projected on the screen, and an image captured by the imaging unit. A real image detecting unit for detecting a real image of a predetermined object, a shadow detecting unit for detecting a shadow of the predetermined object generated by projection light from the projection unit, from an image captured by the imaging unit, and a real image of the predetermined object; When the distance between corresponding points of the shadow is equal to or less than a predetermined threshold value, it is determined that the predetermined object is in contact with the screen, and the contact determination unit determines that the predetermined object is in contact with the screen. A coordinate determining unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video.
本発明のさらに別の態様も、投写型映像表示装置である。この装置は、メインスクリーンに映像を投写する投写部と、少なくとも前記メインスクリーンに投写された映像を含む領域を撮像するための撮像部と、前記投写部による投写領域内に前記メインスクリーンとは別個のサブスクリーンが存在するとき、前記撮像部により撮像された画像から前記サブスクリーンの位置および範囲を特定するサブスクリーン特定部と、前記サブスクリーンの範囲に合わせて、該サブスクリーンに表示すべき所定のサブ映像を成形するサブ映像処理部と、前記メインスクリーンに表示すべき所定のメイン映像に対して、前記サブスクリーン特定部で特定されたサブスクリーン位置に前記サブ映像を重畳して合成する合成部と、を備える。 Yet another embodiment of the present invention is also a projection display apparatus. The apparatus includes: a projection unit that projects an image on a main screen; an imaging unit that captures at least an area including the image projected on the main screen; and the main screen in a projection area by the projection unit. A sub-screen specifying unit for specifying the position and range of the sub-screen from the image captured by the imaging unit, and a predetermined screen to be displayed on the sub-screen in accordance with the range of the sub-screen A sub video processing unit that forms the sub video, and a composition that superimposes the sub video on the sub screen position specified by the sub screen specifying unit and synthesizes the predetermined main video to be displayed on the main screen A section.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.
本発明によれば、ユーザが特別なデバイスを用いることなく、投写映像に対するタッチ操作を実現することができる。 According to the present invention, it is possible to realize a touch operation on a projected image without a user using a special device.
実施の形態1.
図1は、実施の形態1に係る投写型映像表示装置10とスクリーン16との位置関係を示す図であり、図1(a)は側方から、図1(b)は上方から見た様子を示す。
Embodiment 1 FIG.
FIG. 1 is a diagram illustrating a positional relationship between the
投写型映像表示装置10の前面には、映像光の投写口18が形成されている。投写型映像表示装置10はいわゆる短焦点プロジェクタであるので、投写口18は斜め下方を向くように設けられている。これによって、装置10に接近して位置する投影面にも映像を投写可能となっている。
A
図1では、投写型映像表示装置10は例えばテーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。このスクリーン16は拡散性の高い専用のスクリーンであることが好ましい。代替的に、専用のスクリーンを設置せず、テーブルトップなどに直接映像を投写してもよい。
In FIG. 1, the
投写口18に隣接して(例えば上方に)、カメラ12が設置される。このカメラ12は、固体撮像素子および信号処理回路等を備えるデジタルカメラであることが好ましい。固体撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Devices)イメージセンサである。信号処理回路は、固体撮像素子から出力される信号に対して、A/D変換やRGBフォーマットからYUVフォーマットへの変換などの各種信号処理を施す。
The
図1(b)に示すように、カメラ12は少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。カメラ12で撮像された画像は、スクリーン16に近接するかまたは接触する物体、例えばユーザの指Fの二次元座標を検出するために利用される。
As shown in FIG. 1B, the lens position and the angle of view are set so that the
投写口18の下方には、近赤外線を透過するフィルタを通して画像を撮像する赤外線カメラ14が設置される。赤外線カメラ14は、その光軸がスクリーン16の面に対して略平行になるように配置され、少なくともスクリーン16の上方を撮像するようにレンズ位置および画角が設定される。赤外線カメラ14で撮像された画像は、スクリーン16に接触する物体、例えばユーザの指Fを検出するために利用される。
Below the
なお、カメラ12および赤外線カメラ14は、投写型映像表示装置10とは別体であってもよいし、装置10に内蔵されていてもよい。
The
投写型映像表示装置10にはパーソナルコンピュータ20が接続され、投写対象の映像信号を提供する。代替的に、投写型映像表示装置10にSDカードスロットなどの外部記録媒体ドライブを設けておき、外部機器を用いることなく記録媒体内の映像を投写できるように装置10を構成してもよい。
A
投写型映像表示装置10は、スクリーン16にタッチするユーザの指Fの二次元座標を検出することで、スクリーン上に投写された映像に対してタッチパネルのような操作を実現する。
The
図2は、投写型映像表示装置10の機能ブロック図である。この構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSI、光学部品および機構部品で実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 2 is a functional block diagram of the
パーソナルコンピュータ(PC)20は、投写対象の映像信号を投写型映像表示装置10に供給する。映像信号は、例えば映画などの動画像、アプリケーション画像、ウェブブラウザ画像などであるが、これらに限定されない。映像保持部40は、外部から供給される映像信号を一時的に保持する。
The personal computer (PC) 20 supplies a video signal to be projected to the
投写部42は、光源と、供給される映像信号に応じて光源から入射される光を変調する光変調部と、光変調部から入射される光の焦点位置を調整するフォーカスレンズ等から構成されている。光変調部により生成された映像光は、フォーカスレンズを介してスクリーン16に投写される。
The
光源としては、フィラメント型の電極構造を有するハロゲンランプ、アーク放電を発生させる電極構造を有するメタルハライドランプ、キセノンショートアークランプ、高圧型の水銀ランプ、LEDランプなどを採用することができる。 As the light source, a halogen lamp having a filament-type electrode structure, a metal halide lamp having an electrode structure for generating arc discharge, a xenon short arc lamp, a high-pressure mercury lamp, an LED lamp, or the like can be employed.
光変調部にはDMD(Digital Micromirror Device)を採用することができる。DMDは、画素数に対応した複数のマイクロミラーを備え、各マイクロミラーの向きが各画素信号に応じて制御されることにより、所望の映像光が生成される。 A DMD (Digital Micromirror Device) can be employed for the light modulation unit. The DMD includes a plurality of micromirrors corresponding to the number of pixels, and desired video light is generated by controlling the direction of each micromirror according to each pixel signal.
フォーカスレンズは、ステッピングモータ、ボイスコイルモータ(VCM)、ピエゾ素子などのレンズ駆動部によりそのレンズ位置が光軸上で移動される。 The lens position of the focus lens is moved on the optical axis by a lens driving unit such as a stepping motor, a voice coil motor (VCM), or a piezo element.
カメラ12は、スクリーン16に投写された映像を主な被写体として撮像する。赤外線カメラ14は、スクリーン16の上方の赤外線画像を撮像する。
The
制御部30は、ユーザの指によるスクリーン16へのタッチ操作を検出する。制御部30は、ターゲット検出部32、座標決定部34、先端検出部36および接触判定部38を含む。
The
ターゲット検出部32は、カメラ12で撮像された画像と、投写部42によりスクリーンに投写された画像とを取得する。そして、投写画像と撮像画像の差分を取ることで、ターゲットとしてのユーザの指を認識する。または、予め準備されたサンプル画像とのマッチングを実行することで、ユーザの指を認識してもよい。
The
座標決定部34は、ターゲット検出部32により認識されたユーザの指の画像から指の先端を認識し、その指先端の投写画像内における二次元座標を決定する。座標は、指先端の画素位置と、撮像画像内で投写画像が占める画素領域の大きさおよび位置とから決定することができる。
The coordinate
先端検出部36は、赤外線カメラ14で撮像された赤外線画像を取得し、スクリーンに向いたユーザの指の先端を検出する。この認識は、例えば予め準備されたサンプル画像とのマッチングにより実現できる。
The
接触判定部38は、赤外線画像内において、先端検出部36で検出されたユーザの指先端が、スクリーン16と接触しているか否かを判定する。
The
接触判定部38により指がスクリーンと接触していると判定された場合にのみ、座標決定部34で決定された二次元座標は、ポインティング位置情報としてパーソナルコンピュータ20に送信される。また、接触判定部38によりユーザの指がタップ、すなわち短期間に断続する接触がなされたと判定されたとき、タップイベントとしてパーソナルコンピュータ20に送信される。
Only when the
パーソナルコンピュータ20は、ポインティング位置情報およびタップイベント情報を、実行中のアプリケーションへの入力として与える。例えば、ある座標でタップイベントを受け取った場合、画面上のその座標でのクリックが行われたものとして処理する。こうすることで、指がスクリーンに接触した状態での移動をカーソル移動として処理したり、タップイベントをクリックとして処理するなど、スクリーンをタッチパネルのように扱うことが可能になる。
The
図3(a)はカメラ12により撮像される画像の一例を示し、図3(b)は赤外線カメラ14により撮像される画像の一例を示す。図3(a)において、座標決定部34により、位置A、Bのそれぞれにおいて指の先端の二次元座標が決定される。図3(b)において、接触判定部38により、位置A、Bのそれぞれにおいて指の先端がスクリーン16に接触したか否かが判定される。位置Aのときは非接触と判定され、位置Bのときは接触と判定される。指がスクリーンに接触している位置Bのときのみ、指先端の二次元座標がポインティング位置情報としてパーソナルコンピュータに送信される。
3A shows an example of an image captured by the
以上説明したように、実施の形態1に係る投写型映像表示装置10によれば、スクリーン上のユーザの指の二次元座標を決定するとともに、ユーザの指がスクリーンに接触したか否かを検出することができる。指がスクリーンに触れているときの動作をもってポインティング位置情報とするので、スクリーン上でのユーザの手の移動のみでポインティング位置を判断する場合と比較して、誤入力を低減することができる。
As described above, according to the
本実施の形態によると、短焦点のプロジェクタ等を用いてテーブル上に映像を投写するような使用態様において、投写映像の周囲にいるユーザが自分の手で映像に対するタッチ操作を行うことができるので、非常に直感的な操作が実現される。 According to this embodiment, in a usage mode in which an image is projected onto a table using a short focus projector or the like, a user around the projected image can perform a touch operation on the image with his / her hand. A very intuitive operation is realized.
また、接触検知機能を有する特別なスクリーンを使用しないので、投写型映像表示装置10の投写対象が制限されない。また、ユーザは特殊な機能を有するタッチペンやレーザポインタなどを使用する必要がない。
In addition, since a special screen having a contact detection function is not used, the projection target of the
また、撮像画像内で複数ターゲットの認識を許可することで、マルチタッチ、すなわち複数ユーザによる複数箇所へのタッチも処理することが可能である。撮像画像内で複数のターゲットが認識された場合、いずれのターゲットを優先して認識すべきかを指のタップ動作などで変更可能に構成してもよい。または、複数のターゲットが認識された場合、それぞれのターゲット情報の総和を入力としてもよい。例えば、タッチされた座標の中間点を二次元座標として決定したり、各タッチの移動方向のベクトルを求め、それらの合成ベクトルの方向にカーソルを動かしたりしてもよい。 In addition, by permitting recognition of a plurality of targets in the captured image, multi-touch, that is, touches to a plurality of locations by a plurality of users can be processed. When a plurality of targets are recognized in the captured image, it may be configured such that which target should be recognized with priority can be changed by a finger tap operation or the like. Alternatively, when a plurality of targets are recognized, the sum of the target information may be input. For example, an intermediate point of the touched coordinates may be determined as a two-dimensional coordinate, or a vector in the movement direction of each touch may be obtained, and the cursor may be moved in the direction of the combined vector.
なお、以上の説明では、映像信号の供給源としてパーソナルコンピュータを用いることを述べたが、投写型映像表示装置10がコンピュータとしての機能を内蔵していてもよい。
In the above description, a personal computer is used as a video signal supply source. However, the
赤外線カメラ14の代わりに、カメラ12と同様のデジタルカメラでスクリーン16の上方を撮像してもよい。この場合、予め準備された指のサンプル画像とのマッチングを行ってユーザの指の先端を認識する。
Instead of the
スクリーンに対するタップ、すなわち連続してタッチする動作に対して、特別な機能を関連づけてもよい。例えば、タップ動作時に、タップした位置に近い辺が下になるように投写映像の方向を変更するような設定としたり、予め定められた領域を拡大するような設定としたり、あるいは所定のプロジェクタメニューが表示される設定にしてもよい。 A special function may be associated with a tap on the screen, that is, a continuous touch operation. For example, at the time of tapping operation, it is set to change the direction of the projected image so that the side close to the tapped position is down, to set to enlarge a predetermined area, or to a predetermined projector menu May be set to be displayed.
指による投写映像に対する操作を行う場合、ユーザの手の影になる部分には投写映像が映らなくなってしまう。これを回避するために、投写映像の四隅などに操作認識用のサブウインドウを投写表示するようにしておき、このサブウインドウ内での指による操作(ドラッグアンドドロップ、タップなど)がメインの投写映像に対する操作として認識されるように構成してもよい。サブウインドウは、メインの投写映像と重畳表示されてもよいし、別のウインドウとして表示されてもよい。
投写映像の一部にバーチャルキーボードを投写表示し、カメラによるタッチ認識でキーボード入力を行えるようにしてもよい。
When an operation is performed on a projected image with a finger, the projected image is not projected in a portion that becomes a shadow of the user's hand. In order to avoid this, sub-windows for operation recognition are projected and displayed at the four corners of the projected image, and finger operations (drag and drop, tap, etc.) in this sub-window are the main projected images. You may comprise so that it may be recognized as operation with respect to. The sub window may be superimposed on the main projection image or may be displayed as a separate window.
A virtual keyboard may be projected and displayed on a part of the projected image, and keyboard input may be performed by touch recognition by the camera.
スクリーンの上方を撮像する赤外線カメラを複数台設け、それぞれ異なる方向から撮像するようにしてもよい。こうすると、例えば一台のカメラに対し同一直線上に複数の認識対象が存在していても、別のカメラによってそれらを区別することが可能になる。 A plurality of infrared cameras for imaging the upper part of the screen may be provided, and imaging may be performed from different directions. In this way, for example, even if there are a plurality of recognition targets on the same straight line for one camera, they can be distinguished by another camera.
実施の形態2.
図4は、実施の形態2に係る投写型映像表示装置50とスクリーン16との位置関係を示す図である。図1と同様の符号を付した要素は、上述したのと同様の構造および機能を有する。実施の形態1と同様に、投写型映像表示装置50は、テーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。
Embodiment 2. FIG.
FIG. 4 is a diagram showing a positional relationship between the
カメラ52は、図1のカメラ12と同様のデジタルカメラであり、投写口18とは水平方向および高さ方向の異なる位置に設置される。カメラ52は、少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。
The
実施の形態2では、投写光により生じるユーザの指Fの影Sを利用することで、単一のカメラ52を用いて、ユーザの指Fによるスクリーン16対するタッチ操作を検出する。
In the second embodiment, a touch operation on the
図5は、実施の形態2に係る投写型映像表示装置50の機能ブロック図である。この図においても、各機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 5 is a functional block diagram of the
パーソナルコンピュータ20、映像保持部40および投写部42の構成は、図3に関して説明したものと同様である。制御部60は、ユーザの指によるスクリーン16へのタッチ操作を認識する。制御部60は、指検出部62、影検出部64、接触判定部66および座標決定部68を含む。
The configurations of the
指検出部62は、カメラ52で撮像された画像と、投写部42によりスクリーンに投写された画像とを取得する。そして、投写画像と撮像画像の差分を取ることで、ターゲットとしてのユーザの指Fの実像を認識する。または、予め準備されたサンプル画像とのマッチングを実行することで、ユーザの指を認識してもよい。
The
影検出部64は、カメラ52で撮像された画像を取得し、ユーザの手の影Sを検出する。例えば、画素の輝度が所定のしきい値よりも小さい領域を影Sとして検出するようにしてもよい。
The
接触判定部66は、指Fの実像の先端と、影Sの先端を特定し、それらの距離に基づき指がスクリーンに接触しているか否かを判定する。例えば、両者の距離が所定のしきい値以下である場合、スクリーンに接触していると判定してもよい。
The
座標決定部68は、接触判定部66により指がスクリーンに接触していると判定された場合に、指先端の投写画像内における二次元座標を決定する。座標は、指先端の画素位置と、撮像された画像内で投写画像が占める画素領域の位置および大きさとから決定することができる。
The coordinate
座標決定部68で決定された二次元座標は、ポインティング位置情報としてパーソナルコンピュータ20に送信される。また、接触判定部66によりユーザの指がタップ、すなわち短期間に断続する接触がなされたとき、タップイベントとしてパーソナルコンピュータ20に送信される。パーソナルコンピュータ20における処理は、実施の形態1と同様である。
The two-dimensional coordinates determined by the coordinate
図6(a)、(b)は、カメラにより撮像されるユーザの指Fと影Sの一例を示す。図6(a)は、ユーザの指がスクリーンから離れているときの撮像画像である。この場合、指Fの実像の先端と、影Sの先端とが離れているので、スクリーンに触れていないことが判別できる。図6(b)は、ユーザの指がスクリーンに接触しているときの撮像画像である。この場合、指Fの実像の先端と、影Sの先端とはほぼ一致するので、スクリーンに接触していることを判別できる。 6A and 6B show an example of the user's finger F and shadow S imaged by the camera. FIG. 6A is a captured image when the user's finger is away from the screen. In this case, since the tip of the real image of the finger F and the tip of the shadow S are separated from each other, it can be determined that the screen is not touched. FIG. 6B is a captured image when the user's finger is in contact with the screen. In this case, since the tip of the real image of the finger F and the tip of the shadow S substantially coincide with each other, it can be determined that the finger F is in contact with the screen.
以上説明したように、実施の形態2に係る投写型映像表示装置によれば、単一のカメラによる撮像画像に基づき、ユーザの指のスクリーンへの接触を検出することができる。実施の形態1と同様に、指がスクリーンに触れているときの動作をもってポインティング位置情報とするので、スクリーン上でのユーザの手の移動のみでポインティング位置を判断する場合と比較して、誤入力を低減することができる。また、接触検知機能を有する特別なスクリーン、特殊な機能を有するタッチペンやレーザポインタなどを使用する必要がない。 As described above, according to the projection display apparatus according to the second embodiment, it is possible to detect contact of the user's finger with the screen based on an image captured by a single camera. As in the first embodiment, since the pointing position information is determined by the action when the finger is touching the screen, it is erroneously input as compared with the case where the pointing position is determined only by the movement of the user's hand on the screen. Can be reduced. Further, it is not necessary to use a special screen having a contact detection function, a touch pen having a special function, a laser pointer, or the like.
撮像映像内においてユーザの指Fの実像および影Sの複数検出を許容することで、マルチタッチ、すなわち複数ユーザによる複数箇所へのタッチも処理することが可能である。
カメラを水平方向に離間させて二台以上設置してもよい。こうすると、ユーザの手で遮られて陰になる部分を少なくすることができるので、マルチタッチに対応しやすくなる。
By allowing a plurality of detections of the real image of the user's finger F and the shadow S in the captured image, it is possible to process multi-touch, that is, touches to a plurality of locations by a plurality of users.
Two or more cameras may be set apart in the horizontal direction. In this way, it is possible to reduce the number of shaded areas that are blocked by the user's hand, making it easier to support multi-touch.
実施の形態3.
図7は、実施の形態3に係る投写型映像表示装置100とスクリーン16との位置関係を示す図である。図中、図1と同様の符号を付した要素は、上述したのと同様の構造および機能を有する。実施の形態1および2と同様に、投写型映像表示装置100は、テーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。
Embodiment 3 FIG.
FIG. 7 is a diagram showing a positional relationship between the
カメラ54は、投写口18とは水平方向および高さ方向の異なる位置に設置される。カメラ54は、少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。カメラ54は、実施の形態2におけるカメラ52よりもスクリーンの上方を広く撮像できるようにすることが好ましい。
The
実施の形態3では、スクリーン16(以下、「メインスクリーン」と呼ぶ)とは別に、メインスクリーンよりも面積が小さく、かつ持ち運びが可能なサブスクリーン80を使用する。サブスクリーン80は、好適には白色の板であり、軽量かつ丈夫であれば任意の素材を使用できる。サブスクリーン80の少なくとも片面は、メインスクリーン16と同様の拡散性を有するように表面処理されていることが好ましい。
In the third embodiment, apart from the screen 16 (hereinafter referred to as “main screen”), a sub-screen 80 that has a smaller area than the main screen and can be carried is used. The
図8は、投写型映像表示装置100により投写される映像の一例を示す図である。メインスクリーン16上には、メイン映像72が投写表示される。サブスクリーン80が投写領域外にあるときには、メイン映像72には変化がない。サブスクリーン80を投写領域内に持ち込むと、所定のサブ映像82がサブスクリーン80上に投写表示される。このとき投写口18からは、メイン映像72とサブ映像82とを合成した映像に対応する映像光が投写されている。
FIG. 8 is a diagram illustrating an example of an image projected by the
投写領域内にあるサブスクリーン80を常時認識可能とするため、サブスクリーン80の表面には所定のマーカが印刷されている。サブスクリーン80の上下左右および回転を区別できるように、マーカはサブスクリーン80の四隅または四辺に設けられていることが好ましい。マーカは、画像内で認識可能であれば任意のものを使用できる。
A predetermined marker is printed on the surface of the sub-screen 80 so that the sub-screen 80 in the projection area can always be recognized. The markers are preferably provided at the four corners or sides of the
マーカは、近赤外線等の特定の波長のみで撮像でき、肉眼では見えないインクで印刷されてもよい。この場合、カメラ54のレンズに特定波長を透過するフィルタを取り付けておく。こうすることで、マーカによってサブ映像の視認性が低下するおそれがない。さらに、投写光や外来光の影響を受けずに、マーカを撮像することができる。
The marker may be printed with ink that can be imaged only at a specific wavelength, such as near infrared rays, and is not visible to the naked eye. In this case, a filter that transmits a specific wavelength is attached to the lens of the
サブスクリーンには、種々のサブ映像を表示させることができる。例えば、メイン映像に対する操作メニュー画面をサブ映像として表示させてもよい。こうすると、メニュー画面を手でもって自由に移動させたり、手元にメニュー画面を物理的に引き寄せたりすることができるので、操作性が向上する。または、メイン映像に対する資料的な映像(例えば、説明書、解説書、注釈など)をサブ映像としてサブスクリーン上に表示させてもよい。 Various sub-images can be displayed on the sub-screen. For example, an operation menu screen for the main video may be displayed as a sub video. In this way, the menu screen can be freely moved by hand, or the menu screen can be physically pulled to hand, so that the operability is improved. Alternatively, a material video (for example, a manual, a commentary, an annotation, etc.) for the main video may be displayed as a sub video on the sub screen.
図9は、実施の形態3に係る投写型映像表示装置100の機能ブロック図である。この図においても、各機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 9 is a functional block diagram of the
映像保持部40および投写部42は、実施の形態1および2のものと同様である。
The
制御部110は、カメラ54によって撮像された画像を取得し、メイン映像およびサブ映像のスケーリングやフィッティング等の処理を実行する。制御部110は、マーカ認識部112、サブスクリーン特定部114、関連ファイル取得部116、ファイル格納部118、サブ映像処理部120、メイン映像処理部122および合成部124を備える。
The
マーカ認識部112は、撮像画像内からマーカを認識する。この認識は、予め準備されたサンプル画像とのマッチング等により実現することができる。後述するように、マーカが二次元コードである場合は、対応プログラムを用いてコードに埋め込まれた内容を読み取ることができる。
The
サブスクリーン特定部114は、認識されたマーカに基づきサブスクリーン80の四隅または四辺を認識し、サブスクリーンの位置、向き、大きさおよび形状を特定する。
The
関連ファイル取得部116は、マーカ認識部112で認識されたマーカに特定のサブ映像ファイルが関連づけられている場合、そのファイルをファイル格納部118から取得してサブ映像処理部120に渡す。このファイルの関連づけについては詳細に後述する。
When a specific sub video file is associated with the marker recognized by the
サブ映像処理部120は、サブスクリーン特定部114で特定されたサブスクリーンの大きさおよび形状に合わせて、サブ映像のスケーリングおよびフィッティングを実行する。このような処理は周知であるので、詳細な説明は省略する。
The sub
メイン映像処理部122は、図示しないメインスクリーン特定部で特定されたメインスクリーンの大きさおよび形状に合わせて、メイン映像のスケーリングおよびフィッティングを実行する。
The main
合成部124は、メイン映像とサブ映像とをフレーム単位で取得する。そして、サブスクリーン特定部114で特定されたサブスクリーンの位置および向きに合わせてサブ映像のフレームをメイン映像のフレームに重畳合成する。合成されたフレームは、映像信号として映像保持部40に送られる。
The synthesizing
上述したように、メインスクリーンに表示されるメイン映像と、サブスクリーンに表示されるサブ映像とは、別個にスケーリングとフィッティングが行われる。その後、合成部124によって合成画像として構成され、その映像信号が映像保持部40に供給される。これによって、サブスクリーンが投写領域内で移動したり回転したりした場合でも、リアルタイムでサブスクリーン上にサブ映像をフィッティングすることができる。
As described above, the main video displayed on the main screen and the sub video displayed on the sub screen are scaled and fitted separately. Thereafter, the synthesized image is formed as a synthesized image by the synthesizing
以上のように構成することで、同一のプロジェクタ光学系を使用して、メインスクリーンとサブスクリーンにそれぞれ別の映像を投写表示することが可能になる。 With the configuration as described above, it is possible to project and display different images on the main screen and the sub screen using the same projector optical system.
サブスクリーン80の上下移動に、サブ映像の拡大縮小の機能を関連づけておいてもよい。例えば、サブスクリーン80を上方(図7の矢印Cの方向)に移動させるとサブ映像が拡大し、下方に移動させるとサブ映像が縮小するように設定してもよい。
A sub-image enlargement / reduction function may be associated with the vertical movement of the sub-screen 80. For example, the sub image may be set to be enlarged when the
サブスクリーン80にある程度の厚みがある場合、側面にもマーカを印刷しておき、これをカメラの撮像画像内で認識することで、サブスクリーンの鉛直方向の移動距離を求めることができる。代替的に、撮像画像内でのサブスクリーン面積の変化に基づき、サブスクリーンの鉛直方向移動を推測してもよい。すなわち、所定時間内または所定フレーム間隔での面積変化量から、鉛直方向の移動距離を推測することができる。
If the
続いて、サブ映像処理部120は、サブスクリーンの鉛直方向の移動距離に応じた拡大率または縮小率を設定し、サブ映像をその比率で拡大または縮小した上で合成部124に供給する。こうすることで、メイン映像を変化させずに、サブスクリーン上のサブ映像のみを拡大縮小表示させることができる。
Subsequently, the sub
複数枚のサブスクリーン80を準備しておき、サブスクリーン毎に異なるサブ映像を自動的に投写できるように構成してもよい。図10は、このようなサブスクリーンとサブ映像ファイルとの関連づけを説明する図である。
A plurality of
図10に示すように、サブスクリーンA、Bにはそれぞれ異なるマーカMが予め印刷されている。そして、これらのマーカと投写すべき映像ファイルとを予め関連づけて、ファイル格納部118に記憶させておく。いずれかのサブスクリーンを投写領域内に入れると、マーカ認識部112がマーカを読み取り、関連ファイル取得部116が読み取られたマーカに関連づけられた映像ファイルを取得し、サブ映像処理部120に渡す。こうすることで、サブスクリーンを投写領域内で入れ替えるだけで、サブスクリーンに投写されるサブ映像を簡便に切り替えることができる。
As shown in FIG. 10, different markers M are printed in advance on the sub-screens A and B, respectively. These markers are associated with the video file to be projected in advance and stored in the
代替的に、サブスクリーン80上のマーカをQRコード等の二次元コードにしてもよい。この場合、サブスクリーン80とサブ映像ファイルとの関連づけを予め行っていなくてもよい。例えば、二次元コードに記憶装置内のディレクトリとファイル名を記述しておき、マーカ認識部112が二次元コードを読み取ると、関連ファイル取得部116が読み取られたファイルを検索するように構成してもよい。あるいは、二次元コードにIP(Internet Protocol)アドレスやURL(Universal Resourse Locator)を記述しておいてもよい。この場合、マーカ認識部112が二次元コードを読み取ると、ブラウザが起動して対応するウェブページがネットワークを介して取得され、サブスクリーン上にそのウェブページが投写表示されるように投写型映像表示装置を構成してもよい。
Alternatively, the marker on the
以上説明したように、実施の形態3によれば、メインスクリーンにメイン映像を投写しつつ、実体のサブスクリーンを投写領域内に移動させたとき、サブスクリーン上にメイン映像とは別のサブ映像を投写表示することが可能になる。これにより、サブスクリーンを物理的に移動させるといった、より直感的な操作を行えるようになる。また、サブスクリーンの鉛直方向移動に拡大縮小の機能を対応させておけば、メニュー画面などを表示させる必要なく、より直感的な操作で拡大縮小処理を行うことができる。 As described above, according to the third embodiment, when a main video is projected on the main screen and the actual sub-screen is moved into the projection area, a sub-video different from the main video is displayed on the sub-screen. Can be projected and displayed. As a result, a more intuitive operation such as physically moving the sub-screen can be performed. Further, if the function of enlargement / reduction is associated with the vertical movement of the sub-screen, the enlargement / reduction process can be performed with a more intuitive operation without the need to display a menu screen or the like.
上記の説明では、投写型映像表示装置100にパーソナルコンピュータの機能が埋め込まれているものとして説明した。しかしながら、投写型映像表示装置とパーソナルコンピュータを接続した上で、上述の制御部110に相当する機能を有するソフトウェアをコンピュータにインストールすることで、同等の機能を発揮させることも可能である。
In the above description, it is assumed that the function of a personal computer is embedded in the
本発明をいくつかの実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on several embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. is there.
実施の形態1と3、実施の形態2と3は、それぞれ組み合わせて実施することができる。 Embodiments 1 and 3 and Embodiments 2 and 3 can be implemented in combination.
投写口からの映像光とは別に、ユーザの指を照らす照明を設けてもよい。この場合、近赤外線等の特定波長の照明を使用し、この波長を選択的に透過するフィルタをレンズに取り付けたカメラでユーザの指を撮像するように構成してもよい。こうすることで、ユーザの指を認識する際の投写光や外来光による影響を低減することができる。 In addition to the image light from the projection port, illumination for illuminating the user's finger may be provided. In this case, illumination with a specific wavelength such as near infrared rays may be used, and a user's finger may be imaged with a camera in which a filter that selectively transmits this wavelength is attached to the lens. By doing so, it is possible to reduce the influence of projection light and external light when recognizing the user's finger.
実施の形態では、ユーザの指によるタッチ操作について説明したが、ユーザが物理的なポインティングデバイス、例えば指し棒などを用いてタッチ操作を行う場合にも、上記と同様の構成で各実施の形態を適用することができる。 In the embodiment, the touch operation with the user's finger has been described. However, when the user performs a touch operation using a physical pointing device, for example, a pointing stick, each embodiment is configured with the same configuration as above. Can be applied.
実施の形態では、投写型映像表示装置を用いてテーブルトップなどの水平面に映像を投写する場合について説明したが、壁面などの垂直面に映像を投写する場合にも本発明を適用することができる。後者の場合、プレゼンテーションなどで説明者が道具を用いることなく投写映像にタッチしながら画面操作することが可能になる。
また、平面でなく曲面に映像を投写する場合でも、設置するカメラの数や向きを適切に設定することで本発明を適用可能である。
In the embodiment, the case where an image is projected onto a horizontal surface such as a table top using the projection display apparatus has been described. However, the present invention can also be applied to the case where an image is projected onto a vertical surface such as a wall surface. . In the latter case, it becomes possible for the presenter to operate the screen while touching the projected image without using a tool in a presentation or the like.
Even when an image is projected on a curved surface instead of a flat surface, the present invention can be applied by appropriately setting the number and orientation of cameras to be installed.
10、50、100 投写型映像表示装置、 12、52 カメラ、 14 赤外線カメラ、 16 スクリーン、 18 投写口、 20 パーソナルコンピュータ、 30、60、110 制御部、 32 ターゲット検出部、 34 座標決定部、 36 先端検出部、 38 接触判定部、 40 映像保持部、 42 投写部、 62 指検出部、 64 影検出部、 66 接触判定部、 68 座標決定部、 72 メイン映像、 80 サブスクリーン、 82 サブ映像、 112 マーカ認識部、 114 サブスクリーン特定部、 116 関連ファイル取得部、 118 ファイル格納部、 120 サブ映像処理部、 122 メイン映像処理部、 124 合成部。 10, 50, 100 Projection-type image display device, 12, 52 camera, 14 infrared camera, 16 screen, 18 projection port, 20 personal computer, 30, 60, 110 control unit, 32 target detection unit, 34 coordinate determination unit, 36 Tip detection unit, 38 Contact determination unit, 40 Video holding unit, 42 Projection unit, 62 Finger detection unit, 64 Shadow detection unit, 66 Contact determination unit, 68 Coordinate determination unit, 72 Main video, 80 Sub screen, 82 Sub video, 112 marker recognition unit, 114 sub-screen specifying unit, 116 related file acquisition unit, 118 file storage unit, 120 sub video processing unit, 122 main video processing unit, 124 synthesis unit.
Claims (6)
少なくとも前記スクリーンに投写された映像を含む領域を撮像するための第1撮像部と、
前記スクリーンの上方空間を撮像するための第2撮像部と、
前記第2撮像部により撮像された画像に基づき、所定物体が前記スクリーンに接触しているか否かを判定する接触判定部と、
前記接触判定部により接触していると判定されたとき、前記第1撮像部により撮像された画像に基づき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、
を備えることを特徴とする投写型映像表示装置。 A projection unit that projects an image on a screen;
A first imaging unit for imaging at least a region including an image projected on the screen;
A second imaging unit for imaging the space above the screen;
A contact determination unit that determines whether a predetermined object is in contact with the screen based on an image captured by the second imaging unit;
A coordinate determination unit that outputs coordinates of the predetermined object as a pointing position with respect to the video based on an image captured by the first imaging unit when it is determined by the contact determination unit;
A projection-type image display device comprising:
少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、
前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、
前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、
前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、
前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、
を備えることを特徴とする投写型映像表示装置。 A projection unit that projects an image on a screen;
An imaging unit for imaging at least an area including an image projected on the screen;
A real image detection unit for detecting a real image of a predetermined object moving above the screen from an image captured by the imaging unit;
A shadow detection unit that detects a shadow of the predetermined object generated by the projection light from the projection unit, from an image captured by the imaging unit;
A contact determination unit that determines that the predetermined object is in contact with the screen when the distance between the corresponding point of the real image of the predetermined object and the shadow is equal to or less than a predetermined threshold;
A coordinate determination unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video when it is determined by the contact determination unit to be in contact;
A projection-type image display device comprising:
少なくとも前記メインスクリーンに投写された映像を含む領域を撮像するための撮像部と、
前記投写部による投写領域内に、前記メインスクリーンとは別個のサブスクリーンが存在するとき、前記撮像部により撮像された画像から前記サブスクリーンの位置および範囲を特定するサブスクリーン特定部と、
前記サブスクリーンの範囲に合わせて、該サブスクリーンに表示すべき所定のサブ映像を成形するサブ映像処理部と、
前記メインスクリーンに表示すべき所定のメイン映像に対して、前記サブスクリーン特定部で特定されたサブスクリーン位置に前記サブ映像を重畳して合成する合成部と、
を備えることを特徴とする投写型映像表示装置。 A projection unit that projects an image on the main screen;
An imaging unit for imaging at least an area including an image projected on the main screen;
A sub-screen specifying unit that specifies the position and range of the sub-screen from an image captured by the imaging unit when a sub-screen separate from the main screen exists in the projection area of the projection unit;
A sub video processing unit for shaping a predetermined sub video to be displayed on the sub screen in accordance with the range of the sub screen;
A synthesizing unit that superimposes and synthesizes the sub video at a sub screen position specified by the sub screen specifying unit with respect to a predetermined main video to be displayed on the main screen;
A projection-type image display device comprising:
認識されたマーカに予め関連づけられたサブ映像を取得するサブ映像取得部と、
をさらに備えることを特徴とする請求項4に記載の投写型映像表示装置。 A marker recognition unit for recognizing a predetermined marker formed on the sub-screen;
A sub video acquisition unit for acquiring a sub video pre-associated with the recognized marker;
The projection display apparatus according to claim 4, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042587A JP2011180712A (en) | 2010-02-26 | 2010-02-26 | Projection type image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010042587A JP2011180712A (en) | 2010-02-26 | 2010-02-26 | Projection type image display apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011180712A true JP2011180712A (en) | 2011-09-15 |
Family
ID=44692175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010042587A Pending JP2011180712A (en) | 2010-02-26 | 2010-02-26 | Projection type image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011180712A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120098852A1 (en) * | 2010-10-07 | 2012-04-26 | Nikon Corporation | Image display device |
JP2013069161A (en) * | 2011-09-22 | 2013-04-18 | Casio Comput Co Ltd | Projector system, projector, control method and program |
JP2013257861A (en) * | 2012-05-18 | 2013-12-26 | Ricoh Co Ltd | Image processing apparatus, image processing program, and image processing method |
JP2014021562A (en) * | 2012-07-12 | 2014-02-03 | Canon Inc | Touch detection apparatus, touch detection method, and program |
US20140253513A1 (en) * | 2013-03-11 | 2014-09-11 | Hitachi Maxell, Ltd. | Operation detection device, operation detection method and projector |
JP2016102880A (en) * | 2014-11-28 | 2016-06-02 | キヤノンマーケティングジャパン株式会社 | Image projection device and control method of image projection device |
JP2016170709A (en) * | 2015-03-13 | 2016-09-23 | シャープ株式会社 | Touch detection device |
JP2017021861A (en) * | 2016-11-01 | 2017-01-26 | 日立マクセル株式会社 | Projector and head mounted display device |
JP2017050701A (en) * | 2015-09-02 | 2017-03-09 | 株式会社バンダイナムコエンターテインメント | Projection system |
JP2017102768A (en) * | 2015-12-03 | 2017-06-08 | セイコーエプソン株式会社 | Information processor, display device, information processing method, and program |
JP2017526222A (en) * | 2014-06-18 | 2017-09-07 | トムソン ライセンシングThomson Licensing | Use of scanable codes associated with access devices |
CN107407994A (en) * | 2015-03-27 | 2017-11-28 | 精工爱普生株式会社 | Interactive projector and interactive projection system |
US10152177B2 (en) | 2013-03-11 | 2018-12-11 | Maxell, Ltd. | Manipulation detection apparatus, manipulation detection method, and projector |
CN109579842A (en) * | 2018-11-28 | 2019-04-05 | 珠海格力电器股份有限公司 | Localization method and device, method for controlling projection and device, the mobile phone of two-dimensional surface |
CN109983764A (en) * | 2016-11-21 | 2019-07-05 | 精工爱普生株式会社 | Projecting apparatus system |
JP2019186588A (en) * | 2018-03-30 | 2019-10-24 | 株式会社プレースホルダ | Content display system |
-
2010
- 2010-02-26 JP JP2010042587A patent/JP2011180712A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120098852A1 (en) * | 2010-10-07 | 2012-04-26 | Nikon Corporation | Image display device |
JP2013069161A (en) * | 2011-09-22 | 2013-04-18 | Casio Comput Co Ltd | Projector system, projector, control method and program |
JP2013257861A (en) * | 2012-05-18 | 2013-12-26 | Ricoh Co Ltd | Image processing apparatus, image processing program, and image processing method |
JP2014021562A (en) * | 2012-07-12 | 2014-02-03 | Canon Inc | Touch detection apparatus, touch detection method, and program |
US20140253513A1 (en) * | 2013-03-11 | 2014-09-11 | Hitachi Maxell, Ltd. | Operation detection device, operation detection method and projector |
US10514806B2 (en) | 2013-03-11 | 2019-12-24 | Maxell, Ltd. | Operation detection device, operation detection method and projector |
US9367176B2 (en) * | 2013-03-11 | 2016-06-14 | Hitachi Maxell, Ltd. | Operation detection device, operation detection method and projector |
US10152177B2 (en) | 2013-03-11 | 2018-12-11 | Maxell, Ltd. | Manipulation detection apparatus, manipulation detection method, and projector |
JP2017526222A (en) * | 2014-06-18 | 2017-09-07 | トムソン ライセンシングThomson Licensing | Use of scanable codes associated with access devices |
JP2016102880A (en) * | 2014-11-28 | 2016-06-02 | キヤノンマーケティングジャパン株式会社 | Image projection device and control method of image projection device |
JP2016170709A (en) * | 2015-03-13 | 2016-09-23 | シャープ株式会社 | Touch detection device |
CN107407994A (en) * | 2015-03-27 | 2017-11-28 | 精工爱普生株式会社 | Interactive projector and interactive projection system |
EP3276465A4 (en) * | 2015-03-27 | 2018-11-07 | Seiko Epson Corporation | Interactive projector and interactive projection system |
US10534448B2 (en) | 2015-03-27 | 2020-01-14 | Seiko Epson Corporation | Interactive projector and interactive projection system |
WO2017038982A1 (en) * | 2015-09-02 | 2017-03-09 | 株式会社バンダイナムコエンターテインメント | Projection system |
GB2557787A (en) * | 2015-09-02 | 2018-06-27 | Bandai Namco Entertainment Inc | Projection system |
JP2017050701A (en) * | 2015-09-02 | 2017-03-09 | 株式会社バンダイナムコエンターテインメント | Projection system |
GB2557787B (en) * | 2015-09-02 | 2021-02-10 | Bandai Namco Amusement Inc | Projection system |
JP2017102768A (en) * | 2015-12-03 | 2017-06-08 | セイコーエプソン株式会社 | Information processor, display device, information processing method, and program |
JP2017021861A (en) * | 2016-11-01 | 2017-01-26 | 日立マクセル株式会社 | Projector and head mounted display device |
CN109983764A (en) * | 2016-11-21 | 2019-07-05 | 精工爱普生株式会社 | Projecting apparatus system |
US20190324571A1 (en) * | 2016-11-21 | 2019-10-24 | Seiko Epson Corporation | Projector system |
US10754474B2 (en) * | 2016-11-21 | 2020-08-25 | Seiko Epson Corporation | Projector system |
JP2019186588A (en) * | 2018-03-30 | 2019-10-24 | 株式会社プレースホルダ | Content display system |
CN109579842A (en) * | 2018-11-28 | 2019-04-05 | 珠海格力电器股份有限公司 | Localization method and device, method for controlling projection and device, the mobile phone of two-dimensional surface |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011180712A (en) | Projection type image display apparatus | |
US10469737B2 (en) | Display control device and display control method | |
US11470377B2 (en) | Display apparatus and remote operation control apparatus | |
JP6153564B2 (en) | Pointing device with camera and mark output | |
JP5488082B2 (en) | Information recognition system and control method thereof | |
US9767612B2 (en) | Method, system and apparatus for removing a marker projected in a scene | |
US20140218300A1 (en) | Projection device | |
JP5258399B2 (en) | Image projection apparatus and control method thereof | |
KR101457976B1 (en) | Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program | |
AU2014221568A1 (en) | Apparatus and method for positioning image area using image sensor location | |
CN106851234B (en) | Projector and control method of projector | |
JP2009064109A (en) | Image projector and its control method | |
EP2364013A2 (en) | Information processing apparatus, method and program for imaging device | |
JP2014174832A (en) | Operation detection device and operation detection method | |
JP2011043876A (en) | Image display device | |
TWI531954B (en) | Touch and gesture control system and touch and gesture control method | |
JP2012185630A (en) | Projection device | |
JP5817149B2 (en) | Projection device | |
WO2016147629A1 (en) | Projector and display control method | |
JP2012238293A (en) | Input device | |
US20150261385A1 (en) | Picture signal output apparatus, picture signal output method, program, and display system | |
WO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device | |
US11048400B2 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
JP2013080266A (en) | Input device | |
JP5162855B2 (en) | Image processing apparatus, remote image processing system, and image processing method |