JP2011180712A - Projection type image display apparatus - Google Patents

Projection type image display apparatus Download PDF

Info

Publication number
JP2011180712A
JP2011180712A JP2010042587A JP2010042587A JP2011180712A JP 2011180712 A JP2011180712 A JP 2011180712A JP 2010042587 A JP2010042587 A JP 2010042587A JP 2010042587 A JP2010042587 A JP 2010042587A JP 2011180712 A JP2011180712 A JP 2011180712A
Authority
JP
Japan
Prior art keywords
screen
unit
image
sub
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010042587A
Other languages
Japanese (ja)
Inventor
Toshiaki Nakakuki
俊朗 中莖
Naoyuki Futamura
直幸 二村
Kazuo Ishimoto
一男 石本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010042587A priority Critical patent/JP2011180712A/en
Publication of JP2011180712A publication Critical patent/JP2011180712A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve touch panel operation for a projected image of a projector. <P>SOLUTION: A projection part 42 projects an image to a screen 16. A camera 12 picks up an area including at least the image projected to the screen 16. An infrared camera 14 picks up an upper space of the screen 16. A contact determination part 38 determines whether a user's finger is brought into contact with the screen 16, based on the image picked up by the infrared camera 14. When the contact determination part 38 determines contact of the user's finger, a coordinate determination part 34 outputs the coordinates of a tip of the user's finger as a pointing position to the projected image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、スクリーンに映像を投写する投写型映像表示装置に関する。   The present invention relates to a projection display apparatus that projects an image on a screen.

従来、パーソナルコンピュータを投写型映像表示装置(以下適宜、プロジェクタとも表記する)に接続し、ディスプレイの画像をスクリーンに投写することが行われている。この投写映像を用いてプレゼンテーション等を実施するとき、拡大縮小やクリックなどの投写映像に対する操作を行う場合には、パーソナルコンピュータ側でのマウス操作が必要である。   2. Description of the Related Art Conventionally, a personal computer is connected to a projection video display device (hereinafter also referred to as a projector as appropriate) and an image on a display is projected onto a screen. When a presentation or the like is performed using this projection image, a mouse operation on the personal computer side is required when performing operations on the projection image such as enlargement / reduction or click.

スクリーンから離れることなく投写映像に対する操作が行えるようにするため、いくつかの技術が知られている。特許文献1には、プロジェクタスクリーンをタッチパネルで構成することで、スクリーン上での接触検知を可能にすることが記載されている。特許文献2には、スクリーンに投影された画像に対するレーザポインタの照射位置をカメラによって検出し、照射位置に応じた適切な画像をスクリーンに投影する技術が開示されている。   Several techniques are known to enable operations on projected images without leaving the screen. Japanese Patent Application Laid-Open No. H10-228561 describes that a touch screen can be detected by configuring a projector screen with a touch panel. Japanese Patent Application Laid-Open No. 2004-228688 discloses a technique for detecting an irradiation position of a laser pointer with respect to an image projected on a screen by a camera and projecting an appropriate image corresponding to the irradiation position on the screen.

特開2004−212488号公報JP 2004-212488 A 特開2008−27080号公報JP 2008-27080 A

特許文献1および2に記載の技術は、投写映像に対するタッチ操作を実現するために、タッチパネルまたはレーザポインタという特別なデバイスが必要になる。   The techniques described in Patent Documents 1 and 2 require a special device such as a touch panel or a laser pointer in order to realize a touch operation on a projected image.

本発明はこうした状況に鑑みなされたものであり、その目的は、ユーザが特別なデバイスを用いることなく、投写映像に対するタッチ操作を実現するための技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for realizing a touch operation on a projected image without a user using a special device.

本発明のある態様は、投写型映像表示装置である。この装置は、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための第1撮像部と、前記スクリーンの上方空間を撮像するための第2撮像部と、前記第2撮像部により撮像された画像に基づき、所定物体が前記スクリーンに接触しているか否かを判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記第1撮像部により撮像された画像に基づき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える。   One embodiment of the present invention is a projection display apparatus. The apparatus includes a projection unit that projects an image on a screen, a first imaging unit that captures an area including at least the image projected on the screen, and a second imaging unit that captures an upper space of the screen. And a contact determination unit that determines whether or not a predetermined object is in contact with the screen based on an image captured by the second imaging unit, and a contact determination unit that determines that the predetermined object is in contact with the screen, A coordinate determination unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video based on the image captured by the first imaging unit;

本発明の別の態様も、投写型映像表示装置である。この装置は、スクリーンに映像を投写する投写部と、少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、を備える。   Another aspect of the present invention is also a projection display apparatus. The apparatus moves above the screen from a projection unit that projects an image on a screen, an imaging unit that captures at least a region including the image projected on the screen, and an image captured by the imaging unit. A real image detecting unit for detecting a real image of a predetermined object, a shadow detecting unit for detecting a shadow of the predetermined object generated by projection light from the projection unit, from an image captured by the imaging unit, and a real image of the predetermined object; When the distance between corresponding points of the shadow is equal to or less than a predetermined threshold value, it is determined that the predetermined object is in contact with the screen, and the contact determination unit determines that the predetermined object is in contact with the screen. A coordinate determining unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video.

本発明のさらに別の態様も、投写型映像表示装置である。この装置は、メインスクリーンに映像を投写する投写部と、少なくとも前記メインスクリーンに投写された映像を含む領域を撮像するための撮像部と、前記投写部による投写領域内に前記メインスクリーンとは別個のサブスクリーンが存在するとき、前記撮像部により撮像された画像から前記サブスクリーンの位置および範囲を特定するサブスクリーン特定部と、前記サブスクリーンの範囲に合わせて、該サブスクリーンに表示すべき所定のサブ映像を成形するサブ映像処理部と、前記メインスクリーンに表示すべき所定のメイン映像に対して、前記サブスクリーン特定部で特定されたサブスクリーン位置に前記サブ映像を重畳して合成する合成部と、を備える。   Yet another embodiment of the present invention is also a projection display apparatus. The apparatus includes: a projection unit that projects an image on a main screen; an imaging unit that captures at least an area including the image projected on the main screen; and the main screen in a projection area by the projection unit. A sub-screen specifying unit for specifying the position and range of the sub-screen from the image captured by the imaging unit, and a predetermined screen to be displayed on the sub-screen in accordance with the range of the sub-screen A sub video processing unit that forms the sub video, and a composition that superimposes the sub video on the sub screen position specified by the sub screen specifying unit and synthesizes the predetermined main video to be displayed on the main screen A section.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、ユーザが特別なデバイスを用いることなく、投写映像に対するタッチ操作を実現することができる。   According to the present invention, it is possible to realize a touch operation on a projected image without a user using a special device.

実施の形態1に係る投写型映像表示装置とスクリーンとの位置関係を示す図であり、図1(a)は側方から、図1(b)は上方から見た様子を示す図である。It is a figure which shows the positional relationship of the projection type video display apparatus which concerns on Embodiment 1, and a screen, FIG. 1 (a) is a figure which shows a mode that it saw from the side, FIG.1 (b) is seen from upper direction. 実施の形態1に係る投写型映像表示装置の機能ブロック図である。2 is a functional block diagram of the projection display apparatus according to Embodiment 1. FIG. (a)はカメラにより撮像される画像の一例を示し、(b)は赤外線カメラ14により撮像される画像の一例を示す図である。(A) shows an example of an image taken by the camera, and (b) shows an example of an image taken by the infrared camera 14. 実施の形態2に係る投写型映像表示装置とスクリーンとの位置関係を示す図である。It is a figure which shows the positional relationship of the projection type video display apparatus concerning Embodiment 2, and a screen. 実施の形態2に係る投写型映像表示装置の機能ブロック図である。6 is a functional block diagram of a projection display apparatus according to Embodiment 2. FIG. (a)、(b)は、カメラにより撮像されるユーザの指Fと影Sの一例を示す図である。(A), (b) is a figure which shows an example of the user's finger | toe F and shadow S imaged with a camera. 実施の形態3に係る投写型映像表示装置とスクリーンとの位置関係を示す図である。It is a figure which shows the positional relationship of the projection type video display apparatus concerning Embodiment 3, and a screen. 投写型映像表示装置によりメインスクリーンおよびサブスクリーンに投写される映像の一例を示す図である。It is a figure which shows an example of the image | video projected on a main screen and a subscreen by a projection type video display apparatus. 実施の形態3に係る投写型映像表示装置の機能ブロック図である。6 is a functional block diagram of a projection display apparatus according to Embodiment 3. FIG. サブスクリーンとサブ映像ファイルの関連づけを説明する図である。It is a figure explaining the correlation of a subscreen and a sub video file.

実施の形態1.
図1は、実施の形態1に係る投写型映像表示装置10とスクリーン16との位置関係を示す図であり、図1(a)は側方から、図1(b)は上方から見た様子を示す。
Embodiment 1 FIG.
FIG. 1 is a diagram illustrating a positional relationship between the projection display apparatus 10 and the screen 16 according to the first embodiment. FIG. 1A is a side view, and FIG. 1B is a top view. Indicates.

投写型映像表示装置10の前面には、映像光の投写口18が形成されている。投写型映像表示装置10はいわゆる短焦点プロジェクタであるので、投写口18は斜め下方を向くように設けられている。これによって、装置10に接近して位置する投影面にも映像を投写可能となっている。   A projection port 18 for image light is formed on the front surface of the projection display apparatus 10. Since the projection display apparatus 10 is a so-called short focus projector, the projection port 18 is provided to face obliquely downward. As a result, an image can be projected onto a projection surface located close to the apparatus 10.

図1では、投写型映像表示装置10は例えばテーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。このスクリーン16は拡散性の高い専用のスクリーンであることが好ましい。代替的に、専用のスクリーンを設置せず、テーブルトップなどに直接映像を投写してもよい。   In FIG. 1, the projection display apparatus 10 projects an image on a screen 16 disposed on a plane such as a table top. The screen 16 is preferably a dedicated screen having high diffusibility. Alternatively, an image may be projected directly on a table top or the like without installing a dedicated screen.

投写口18に隣接して(例えば上方に)、カメラ12が設置される。このカメラ12は、固体撮像素子および信号処理回路等を備えるデジタルカメラであることが好ましい。固体撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Devices)イメージセンサである。信号処理回路は、固体撮像素子から出力される信号に対して、A/D変換やRGBフォーマットからYUVフォーマットへの変換などの各種信号処理を施す。   The camera 12 is installed adjacent to the projection port 18 (for example, above). The camera 12 is preferably a digital camera provided with a solid-state image sensor and a signal processing circuit. The solid-state imaging device is, for example, a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor. The signal processing circuit performs various signal processing such as A / D conversion and conversion from the RGB format to the YUV format on the signal output from the solid-state imaging device.

図1(b)に示すように、カメラ12は少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。カメラ12で撮像された画像は、スクリーン16に近接するかまたは接触する物体、例えばユーザの指Fの二次元座標を検出するために利用される。   As shown in FIG. 1B, the lens position and the angle of view are set so that the camera 12 can capture at least the entire projection area projected from the projection port 18 onto the screen 16. The image captured by the camera 12 is used to detect the two-dimensional coordinates of an object that approaches or touches the screen 16, for example, the user's finger F.

投写口18の下方には、近赤外線を透過するフィルタを通して画像を撮像する赤外線カメラ14が設置される。赤外線カメラ14は、その光軸がスクリーン16の面に対して略平行になるように配置され、少なくともスクリーン16の上方を撮像するようにレンズ位置および画角が設定される。赤外線カメラ14で撮像された画像は、スクリーン16に接触する物体、例えばユーザの指Fを検出するために利用される。   Below the projection port 18 is installed an infrared camera 14 that captures an image through a filter that transmits near infrared rays. The infrared camera 14 is arranged so that its optical axis is substantially parallel to the surface of the screen 16, and the lens position and the angle of view are set so that at least the image above the screen 16 is imaged. The image captured by the infrared camera 14 is used to detect an object that touches the screen 16, for example, the user's finger F.

なお、カメラ12および赤外線カメラ14は、投写型映像表示装置10とは別体であってもよいし、装置10に内蔵されていてもよい。   The camera 12 and the infrared camera 14 may be separate from the projection display apparatus 10 or may be built in the apparatus 10.

投写型映像表示装置10にはパーソナルコンピュータ20が接続され、投写対象の映像信号を提供する。代替的に、投写型映像表示装置10にSDカードスロットなどの外部記録媒体ドライブを設けておき、外部機器を用いることなく記録媒体内の映像を投写できるように装置10を構成してもよい。   A personal computer 20 is connected to the projection display apparatus 10 and provides an image signal to be projected. Alternatively, the projection display apparatus 10 may be provided with an external recording medium drive such as an SD card slot, and the apparatus 10 may be configured to project an image in the recording medium without using an external device.

投写型映像表示装置10は、スクリーン16にタッチするユーザの指Fの二次元座標を検出することで、スクリーン上に投写された映像に対してタッチパネルのような操作を実現する。   The projection display apparatus 10 detects the two-dimensional coordinates of the user's finger F that touches the screen 16, thereby realizing an operation like a touch panel on the image projected on the screen.

図2は、投写型映像表示装置10の機能ブロック図である。この構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSI、光学部品および機構部品で実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 2 is a functional block diagram of the projection display apparatus 10. This configuration can be realized by an arbitrary processor, memory, other LSI, optical component, and mechanical component in terms of hardware, and is realized by a program loaded in the memory in terms of software. Describes functional blocks realized through collaboration. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

パーソナルコンピュータ(PC)20は、投写対象の映像信号を投写型映像表示装置10に供給する。映像信号は、例えば映画などの動画像、アプリケーション画像、ウェブブラウザ画像などであるが、これらに限定されない。映像保持部40は、外部から供給される映像信号を一時的に保持する。   The personal computer (PC) 20 supplies a video signal to be projected to the projection display apparatus 10. The video signal is, for example, a moving image such as a movie, an application image, a web browser image, or the like, but is not limited thereto. The video holding unit 40 temporarily holds a video signal supplied from the outside.

投写部42は、光源と、供給される映像信号に応じて光源から入射される光を変調する光変調部と、光変調部から入射される光の焦点位置を調整するフォーカスレンズ等から構成されている。光変調部により生成された映像光は、フォーカスレンズを介してスクリーン16に投写される。   The projection unit 42 includes a light source, a light modulation unit that modulates light incident from the light source according to a supplied video signal, a focus lens that adjusts a focal position of light incident from the light modulation unit, and the like. ing. The image light generated by the light modulation unit is projected onto the screen 16 via the focus lens.

光源としては、フィラメント型の電極構造を有するハロゲンランプ、アーク放電を発生させる電極構造を有するメタルハライドランプ、キセノンショートアークランプ、高圧型の水銀ランプ、LEDランプなどを採用することができる。   As the light source, a halogen lamp having a filament-type electrode structure, a metal halide lamp having an electrode structure for generating arc discharge, a xenon short arc lamp, a high-pressure mercury lamp, an LED lamp, or the like can be employed.

光変調部にはDMD(Digital Micromirror Device)を採用することができる。DMDは、画素数に対応した複数のマイクロミラーを備え、各マイクロミラーの向きが各画素信号に応じて制御されることにより、所望の映像光が生成される。   A DMD (Digital Micromirror Device) can be employed for the light modulation unit. The DMD includes a plurality of micromirrors corresponding to the number of pixels, and desired video light is generated by controlling the direction of each micromirror according to each pixel signal.

フォーカスレンズは、ステッピングモータ、ボイスコイルモータ(VCM)、ピエゾ素子などのレンズ駆動部によりそのレンズ位置が光軸上で移動される。   The lens position of the focus lens is moved on the optical axis by a lens driving unit such as a stepping motor, a voice coil motor (VCM), or a piezo element.

カメラ12は、スクリーン16に投写された映像を主な被写体として撮像する。赤外線カメラ14は、スクリーン16の上方の赤外線画像を撮像する。   The camera 12 captures an image projected on the screen 16 as a main subject. The infrared camera 14 captures an infrared image above the screen 16.

制御部30は、ユーザの指によるスクリーン16へのタッチ操作を検出する。制御部30は、ターゲット検出部32、座標決定部34、先端検出部36および接触判定部38を含む。   The control unit 30 detects a touch operation on the screen 16 by the user's finger. The control unit 30 includes a target detection unit 32, a coordinate determination unit 34, a tip detection unit 36, and a contact determination unit 38.

ターゲット検出部32は、カメラ12で撮像された画像と、投写部42によりスクリーンに投写された画像とを取得する。そして、投写画像と撮像画像の差分を取ることで、ターゲットとしてのユーザの指を認識する。または、予め準備されたサンプル画像とのマッチングを実行することで、ユーザの指を認識してもよい。   The target detection unit 32 acquires an image captured by the camera 12 and an image projected on the screen by the projection unit 42. Then, the user's finger as a target is recognized by taking the difference between the projected image and the captured image. Alternatively, the user's finger may be recognized by executing matching with a sample image prepared in advance.

座標決定部34は、ターゲット検出部32により認識されたユーザの指の画像から指の先端を認識し、その指先端の投写画像内における二次元座標を決定する。座標は、指先端の画素位置と、撮像画像内で投写画像が占める画素領域の大きさおよび位置とから決定することができる。   The coordinate determination unit 34 recognizes the tip of the finger from the image of the user's finger recognized by the target detection unit 32, and determines two-dimensional coordinates in the projected image of the finger tip. The coordinates can be determined from the pixel position at the tip of the finger and the size and position of the pixel area occupied by the projected image in the captured image.

先端検出部36は、赤外線カメラ14で撮像された赤外線画像を取得し、スクリーンに向いたユーザの指の先端を検出する。この認識は、例えば予め準備されたサンプル画像とのマッチングにより実現できる。   The tip detection unit 36 acquires an infrared image captured by the infrared camera 14 and detects the tip of the user's finger facing the screen. This recognition can be realized by matching with a sample image prepared in advance, for example.

接触判定部38は、赤外線画像内において、先端検出部36で検出されたユーザの指先端が、スクリーン16と接触しているか否かを判定する。   The contact determination unit 38 determines whether or not the finger tip of the user detected by the tip detection unit 36 is in contact with the screen 16 in the infrared image.

接触判定部38により指がスクリーンと接触していると判定された場合にのみ、座標決定部34で決定された二次元座標は、ポインティング位置情報としてパーソナルコンピュータ20に送信される。また、接触判定部38によりユーザの指がタップ、すなわち短期間に断続する接触がなされたと判定されたとき、タップイベントとしてパーソナルコンピュータ20に送信される。   Only when the contact determination unit 38 determines that the finger is in contact with the screen, the two-dimensional coordinates determined by the coordinate determination unit 34 are transmitted to the personal computer 20 as pointing position information. Further, when it is determined by the contact determination unit 38 that the user's finger is tapped, that is, contact that is intermittent in a short time is made, it is transmitted to the personal computer 20 as a tap event.

パーソナルコンピュータ20は、ポインティング位置情報およびタップイベント情報を、実行中のアプリケーションへの入力として与える。例えば、ある座標でタップイベントを受け取った場合、画面上のその座標でのクリックが行われたものとして処理する。こうすることで、指がスクリーンに接触した状態での移動をカーソル移動として処理したり、タップイベントをクリックとして処理するなど、スクリーンをタッチパネルのように扱うことが可能になる。   The personal computer 20 provides pointing position information and tap event information as inputs to the running application. For example, when a tap event is received at a certain coordinate, processing is performed assuming that a click at that coordinate on the screen has been performed. By doing this, it is possible to handle the screen like a touch panel, such as processing the movement with the finger in contact with the screen as a cursor movement or processing as a tap event click.

図3(a)はカメラ12により撮像される画像の一例を示し、図3(b)は赤外線カメラ14により撮像される画像の一例を示す。図3(a)において、座標決定部34により、位置A、Bのそれぞれにおいて指の先端の二次元座標が決定される。図3(b)において、接触判定部38により、位置A、Bのそれぞれにおいて指の先端がスクリーン16に接触したか否かが判定される。位置Aのときは非接触と判定され、位置Bのときは接触と判定される。指がスクリーンに接触している位置Bのときのみ、指先端の二次元座標がポインティング位置情報としてパーソナルコンピュータに送信される。   3A shows an example of an image captured by the camera 12, and FIG. 3B shows an example of an image captured by the infrared camera 14. In FIG. 3A, the coordinate determining unit 34 determines the two-dimensional coordinates of the tip of the finger at each of the positions A and B. In FIG. 3B, the contact determination unit 38 determines whether or not the tip of the finger has contacted the screen 16 at each of the positions A and B. When the position is A, it is determined as non-contact and when the position is B, it is determined as contact. Only when the finger is in position B where the finger is in contact with the screen, the two-dimensional coordinates of the finger tip are transmitted to the personal computer as pointing position information.

以上説明したように、実施の形態1に係る投写型映像表示装置10によれば、スクリーン上のユーザの指の二次元座標を決定するとともに、ユーザの指がスクリーンに接触したか否かを検出することができる。指がスクリーンに触れているときの動作をもってポインティング位置情報とするので、スクリーン上でのユーザの手の移動のみでポインティング位置を判断する場合と比較して、誤入力を低減することができる。   As described above, according to the projection display apparatus 10 according to the first embodiment, the two-dimensional coordinates of the user's finger on the screen are determined and whether or not the user's finger has touched the screen is detected. can do. Since the pointing position information is determined by the action when the finger is touching the screen, erroneous input can be reduced compared to the case where the pointing position is determined only by the movement of the user's hand on the screen.

本実施の形態によると、短焦点のプロジェクタ等を用いてテーブル上に映像を投写するような使用態様において、投写映像の周囲にいるユーザが自分の手で映像に対するタッチ操作を行うことができるので、非常に直感的な操作が実現される。   According to this embodiment, in a usage mode in which an image is projected onto a table using a short focus projector or the like, a user around the projected image can perform a touch operation on the image with his / her hand. A very intuitive operation is realized.

また、接触検知機能を有する特別なスクリーンを使用しないので、投写型映像表示装置10の投写対象が制限されない。また、ユーザは特殊な機能を有するタッチペンやレーザポインタなどを使用する必要がない。   In addition, since a special screen having a contact detection function is not used, the projection target of the projection display apparatus 10 is not limited. Further, the user does not need to use a touch pen or a laser pointer having a special function.

また、撮像画像内で複数ターゲットの認識を許可することで、マルチタッチ、すなわち複数ユーザによる複数箇所へのタッチも処理することが可能である。撮像画像内で複数のターゲットが認識された場合、いずれのターゲットを優先して認識すべきかを指のタップ動作などで変更可能に構成してもよい。または、複数のターゲットが認識された場合、それぞれのターゲット情報の総和を入力としてもよい。例えば、タッチされた座標の中間点を二次元座標として決定したり、各タッチの移動方向のベクトルを求め、それらの合成ベクトルの方向にカーソルを動かしたりしてもよい。   In addition, by permitting recognition of a plurality of targets in the captured image, multi-touch, that is, touches to a plurality of locations by a plurality of users can be processed. When a plurality of targets are recognized in the captured image, it may be configured such that which target should be recognized with priority can be changed by a finger tap operation or the like. Alternatively, when a plurality of targets are recognized, the sum of the target information may be input. For example, an intermediate point of the touched coordinates may be determined as a two-dimensional coordinate, or a vector in the movement direction of each touch may be obtained, and the cursor may be moved in the direction of the combined vector.

なお、以上の説明では、映像信号の供給源としてパーソナルコンピュータを用いることを述べたが、投写型映像表示装置10がコンピュータとしての機能を内蔵していてもよい。   In the above description, a personal computer is used as a video signal supply source. However, the projection display apparatus 10 may incorporate a computer function.

赤外線カメラ14の代わりに、カメラ12と同様のデジタルカメラでスクリーン16の上方を撮像してもよい。この場合、予め準備された指のサンプル画像とのマッチングを行ってユーザの指の先端を認識する。   Instead of the infrared camera 14, a digital camera similar to the camera 12 may be used to capture an image above the screen 16. In this case, the tip of the user's finger is recognized by matching with a finger sample image prepared in advance.

スクリーンに対するタップ、すなわち連続してタッチする動作に対して、特別な機能を関連づけてもよい。例えば、タップ動作時に、タップした位置に近い辺が下になるように投写映像の方向を変更するような設定としたり、予め定められた領域を拡大するような設定としたり、あるいは所定のプロジェクタメニューが表示される設定にしてもよい。   A special function may be associated with a tap on the screen, that is, a continuous touch operation. For example, at the time of tapping operation, it is set to change the direction of the projected image so that the side close to the tapped position is down, to set to enlarge a predetermined area, or to a predetermined projector menu May be set to be displayed.

指による投写映像に対する操作を行う場合、ユーザの手の影になる部分には投写映像が映らなくなってしまう。これを回避するために、投写映像の四隅などに操作認識用のサブウインドウを投写表示するようにしておき、このサブウインドウ内での指による操作(ドラッグアンドドロップ、タップなど)がメインの投写映像に対する操作として認識されるように構成してもよい。サブウインドウは、メインの投写映像と重畳表示されてもよいし、別のウインドウとして表示されてもよい。
投写映像の一部にバーチャルキーボードを投写表示し、カメラによるタッチ認識でキーボード入力を行えるようにしてもよい。
When an operation is performed on a projected image with a finger, the projected image is not projected in a portion that becomes a shadow of the user's hand. In order to avoid this, sub-windows for operation recognition are projected and displayed at the four corners of the projected image, and finger operations (drag and drop, tap, etc.) in this sub-window are the main projected images. You may comprise so that it may be recognized as operation with respect to. The sub window may be superimposed on the main projection image or may be displayed as a separate window.
A virtual keyboard may be projected and displayed on a part of the projected image, and keyboard input may be performed by touch recognition by the camera.

スクリーンの上方を撮像する赤外線カメラを複数台設け、それぞれ異なる方向から撮像するようにしてもよい。こうすると、例えば一台のカメラに対し同一直線上に複数の認識対象が存在していても、別のカメラによってそれらを区別することが可能になる。   A plurality of infrared cameras for imaging the upper part of the screen may be provided, and imaging may be performed from different directions. In this way, for example, even if there are a plurality of recognition targets on the same straight line for one camera, they can be distinguished by another camera.

実施の形態2.
図4は、実施の形態2に係る投写型映像表示装置50とスクリーン16との位置関係を示す図である。図1と同様の符号を付した要素は、上述したのと同様の構造および機能を有する。実施の形態1と同様に、投写型映像表示装置50は、テーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。
Embodiment 2. FIG.
FIG. 4 is a diagram showing a positional relationship between the projection display apparatus 50 according to the second embodiment and the screen 16. Elements denoted by the same reference numerals as those in FIG. 1 have the same structure and function as described above. Similar to the first embodiment, the projection display apparatus 50 projects an image on a screen 16 arranged on a plane such as a table top.

カメラ52は、図1のカメラ12と同様のデジタルカメラであり、投写口18とは水平方向および高さ方向の異なる位置に設置される。カメラ52は、少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。   The camera 52 is a digital camera similar to the camera 12 of FIG. 1, and is installed at a position different from the projection port 18 in the horizontal direction and the height direction. The camera 52 is set with a lens position and an angle of view so that at least the entire projection area projected from the projection port 18 onto the screen 16 can be imaged.

実施の形態2では、投写光により生じるユーザの指Fの影Sを利用することで、単一のカメラ52を用いて、ユーザの指Fによるスクリーン16対するタッチ操作を検出する。   In the second embodiment, a touch operation on the screen 16 by the user's finger F is detected using the single camera 52 by using the shadow S of the user's finger F generated by the projection light.

図5は、実施の形態2に係る投写型映像表示装置50の機能ブロック図である。この図においても、各機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 5 is a functional block diagram of the projection display apparatus 50 according to the second embodiment. Also in this figure, those skilled in the art will understand that each functional block can be realized in various forms by hardware only, software only, or a combination thereof.

パーソナルコンピュータ20、映像保持部40および投写部42の構成は、図3に関して説明したものと同様である。制御部60は、ユーザの指によるスクリーン16へのタッチ操作を認識する。制御部60は、指検出部62、影検出部64、接触判定部66および座標決定部68を含む。   The configurations of the personal computer 20, the video holding unit 40, and the projection unit 42 are the same as those described with reference to FIG. The control unit 60 recognizes a touch operation on the screen 16 by the user's finger. The control unit 60 includes a finger detection unit 62, a shadow detection unit 64, a contact determination unit 66, and a coordinate determination unit 68.

指検出部62は、カメラ52で撮像された画像と、投写部42によりスクリーンに投写された画像とを取得する。そして、投写画像と撮像画像の差分を取ることで、ターゲットとしてのユーザの指Fの実像を認識する。または、予め準備されたサンプル画像とのマッチングを実行することで、ユーザの指を認識してもよい。   The finger detection unit 62 acquires an image captured by the camera 52 and an image projected on the screen by the projection unit 42. Then, by taking the difference between the projected image and the captured image, the real image of the user's finger F as a target is recognized. Alternatively, the user's finger may be recognized by executing matching with a sample image prepared in advance.

影検出部64は、カメラ52で撮像された画像を取得し、ユーザの手の影Sを検出する。例えば、画素の輝度が所定のしきい値よりも小さい領域を影Sとして検出するようにしてもよい。   The shadow detection unit 64 acquires an image captured by the camera 52 and detects a shadow S of the user's hand. For example, an area where the luminance of the pixel is smaller than a predetermined threshold value may be detected as the shadow S.

接触判定部66は、指Fの実像の先端と、影Sの先端を特定し、それらの距離に基づき指がスクリーンに接触しているか否かを判定する。例えば、両者の距離が所定のしきい値以下である場合、スクリーンに接触していると判定してもよい。   The contact determination unit 66 specifies the tip of the real image of the finger F and the tip of the shadow S, and determines whether the finger is in contact with the screen based on the distance between them. For example, when the distance between the two is less than or equal to a predetermined threshold, it may be determined that the screen is in contact.

座標決定部68は、接触判定部66により指がスクリーンに接触していると判定された場合に、指先端の投写画像内における二次元座標を決定する。座標は、指先端の画素位置と、撮像された画像内で投写画像が占める画素領域の位置および大きさとから決定することができる。   The coordinate determination unit 68 determines two-dimensional coordinates in the projected image of the finger tip when the contact determination unit 66 determines that the finger is in contact with the screen. The coordinates can be determined from the pixel position at the tip of the finger and the position and size of the pixel area occupied by the projected image in the captured image.

座標決定部68で決定された二次元座標は、ポインティング位置情報としてパーソナルコンピュータ20に送信される。また、接触判定部66によりユーザの指がタップ、すなわち短期間に断続する接触がなされたとき、タップイベントとしてパーソナルコンピュータ20に送信される。パーソナルコンピュータ20における処理は、実施の形態1と同様である。   The two-dimensional coordinates determined by the coordinate determination unit 68 are transmitted to the personal computer 20 as pointing position information. Further, when the user's finger is tapped by the contact determination unit 66, that is, when the contact is intermittent in a short time, it is transmitted to the personal computer 20 as a tap event. Processing in the personal computer 20 is the same as that in the first embodiment.

図6(a)、(b)は、カメラにより撮像されるユーザの指Fと影Sの一例を示す。図6(a)は、ユーザの指がスクリーンから離れているときの撮像画像である。この場合、指Fの実像の先端と、影Sの先端とが離れているので、スクリーンに触れていないことが判別できる。図6(b)は、ユーザの指がスクリーンに接触しているときの撮像画像である。この場合、指Fの実像の先端と、影Sの先端とはほぼ一致するので、スクリーンに接触していることを判別できる。   6A and 6B show an example of the user's finger F and shadow S imaged by the camera. FIG. 6A is a captured image when the user's finger is away from the screen. In this case, since the tip of the real image of the finger F and the tip of the shadow S are separated from each other, it can be determined that the screen is not touched. FIG. 6B is a captured image when the user's finger is in contact with the screen. In this case, since the tip of the real image of the finger F and the tip of the shadow S substantially coincide with each other, it can be determined that the finger F is in contact with the screen.

以上説明したように、実施の形態2に係る投写型映像表示装置によれば、単一のカメラによる撮像画像に基づき、ユーザの指のスクリーンへの接触を検出することができる。実施の形態1と同様に、指がスクリーンに触れているときの動作をもってポインティング位置情報とするので、スクリーン上でのユーザの手の移動のみでポインティング位置を判断する場合と比較して、誤入力を低減することができる。また、接触検知機能を有する特別なスクリーン、特殊な機能を有するタッチペンやレーザポインタなどを使用する必要がない。   As described above, according to the projection display apparatus according to the second embodiment, it is possible to detect contact of the user's finger with the screen based on an image captured by a single camera. As in the first embodiment, since the pointing position information is determined by the action when the finger is touching the screen, it is erroneously input as compared with the case where the pointing position is determined only by the movement of the user's hand on the screen. Can be reduced. Further, it is not necessary to use a special screen having a contact detection function, a touch pen having a special function, a laser pointer, or the like.

撮像映像内においてユーザの指Fの実像および影Sの複数検出を許容することで、マルチタッチ、すなわち複数ユーザによる複数箇所へのタッチも処理することが可能である。
カメラを水平方向に離間させて二台以上設置してもよい。こうすると、ユーザの手で遮られて陰になる部分を少なくすることができるので、マルチタッチに対応しやすくなる。
By allowing a plurality of detections of the real image of the user's finger F and the shadow S in the captured image, it is possible to process multi-touch, that is, touches to a plurality of locations by a plurality of users.
Two or more cameras may be set apart in the horizontal direction. In this way, it is possible to reduce the number of shaded areas that are blocked by the user's hand, making it easier to support multi-touch.

実施の形態3.
図7は、実施の形態3に係る投写型映像表示装置100とスクリーン16との位置関係を示す図である。図中、図1と同様の符号を付した要素は、上述したのと同様の構造および機能を有する。実施の形態1および2と同様に、投写型映像表示装置100は、テーブルトップなどの平面に配置されたスクリーン16上に映像を投写する。
Embodiment 3 FIG.
FIG. 7 is a diagram showing a positional relationship between the projection display apparatus 100 and the screen 16 according to the third embodiment. In the figure, elements denoted by the same reference numerals as those in FIG. 1 have the same structure and function as described above. Similar to the first and second embodiments, the projection display apparatus 100 projects an image on a screen 16 arranged on a plane such as a table top.

カメラ54は、投写口18とは水平方向および高さ方向の異なる位置に設置される。カメラ54は、少なくとも投写口18からスクリーン16に投写された投写領域の全体を撮像できるよう、レンズ位置および画角が設定される。カメラ54は、実施の形態2におけるカメラ52よりもスクリーンの上方を広く撮像できるようにすることが好ましい。   The camera 54 is installed at a position different from the projection port 18 in the horizontal direction and the height direction. The camera 54 has a lens position and an angle of view so that at least the entire projection area projected onto the screen 16 from the projection port 18 can be imaged. It is preferable that the camera 54 can capture an image above the screen wider than the camera 52 in the second embodiment.

実施の形態3では、スクリーン16(以下、「メインスクリーン」と呼ぶ)とは別に、メインスクリーンよりも面積が小さく、かつ持ち運びが可能なサブスクリーン80を使用する。サブスクリーン80は、好適には白色の板であり、軽量かつ丈夫であれば任意の素材を使用できる。サブスクリーン80の少なくとも片面は、メインスクリーン16と同様の拡散性を有するように表面処理されていることが好ましい。   In the third embodiment, apart from the screen 16 (hereinafter referred to as “main screen”), a sub-screen 80 that has a smaller area than the main screen and can be carried is used. The sub screen 80 is preferably a white plate, and any material can be used as long as it is light and strong. At least one surface of the sub-screen 80 is preferably surface-treated so as to have the same diffusibility as the main screen 16.

図8は、投写型映像表示装置100により投写される映像の一例を示す図である。メインスクリーン16上には、メイン映像72が投写表示される。サブスクリーン80が投写領域外にあるときには、メイン映像72には変化がない。サブスクリーン80を投写領域内に持ち込むと、所定のサブ映像82がサブスクリーン80上に投写表示される。このとき投写口18からは、メイン映像72とサブ映像82とを合成した映像に対応する映像光が投写されている。   FIG. 8 is a diagram illustrating an example of an image projected by the projection display apparatus 100. A main image 72 is projected and displayed on the main screen 16. When the sub screen 80 is outside the projection area, the main image 72 is not changed. When the sub screen 80 is brought into the projection area, a predetermined sub image 82 is projected and displayed on the sub screen 80. At this time, image light corresponding to an image obtained by synthesizing the main image 72 and the sub image 82 is projected from the projection port 18.

投写領域内にあるサブスクリーン80を常時認識可能とするため、サブスクリーン80の表面には所定のマーカが印刷されている。サブスクリーン80の上下左右および回転を区別できるように、マーカはサブスクリーン80の四隅または四辺に設けられていることが好ましい。マーカは、画像内で認識可能であれば任意のものを使用できる。   A predetermined marker is printed on the surface of the sub-screen 80 so that the sub-screen 80 in the projection area can always be recognized. The markers are preferably provided at the four corners or sides of the sub screen 80 so that the sub screen 80 can be distinguished from top, bottom, left, right, and rotation. Any marker can be used as long as it can be recognized in the image.

マーカは、近赤外線等の特定の波長のみで撮像でき、肉眼では見えないインクで印刷されてもよい。この場合、カメラ54のレンズに特定波長を透過するフィルタを取り付けておく。こうすることで、マーカによってサブ映像の視認性が低下するおそれがない。さらに、投写光や外来光の影響を受けずに、マーカを撮像することができる。   The marker may be printed with ink that can be imaged only at a specific wavelength, such as near infrared rays, and is not visible to the naked eye. In this case, a filter that transmits a specific wavelength is attached to the lens of the camera 54. By doing so, there is no possibility that the visibility of the sub video is lowered by the marker. Furthermore, the marker can be imaged without being affected by projection light or external light.

サブスクリーンには、種々のサブ映像を表示させることができる。例えば、メイン映像に対する操作メニュー画面をサブ映像として表示させてもよい。こうすると、メニュー画面を手でもって自由に移動させたり、手元にメニュー画面を物理的に引き寄せたりすることができるので、操作性が向上する。または、メイン映像に対する資料的な映像(例えば、説明書、解説書、注釈など)をサブ映像としてサブスクリーン上に表示させてもよい。   Various sub-images can be displayed on the sub-screen. For example, an operation menu screen for the main video may be displayed as a sub video. In this way, the menu screen can be freely moved by hand, or the menu screen can be physically pulled to hand, so that the operability is improved. Alternatively, a material video (for example, a manual, a commentary, an annotation, etc.) for the main video may be displayed as a sub video on the sub screen.

図9は、実施の形態3に係る投写型映像表示装置100の機能ブロック図である。この図においても、各機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   FIG. 9 is a functional block diagram of the projection display apparatus 100 according to the third embodiment. Also in this figure, those skilled in the art will understand that each functional block can be realized in various forms by hardware only, software only, or a combination thereof.

映像保持部40および投写部42は、実施の形態1および2のものと同様である。   The image holding unit 40 and the projection unit 42 are the same as those in the first and second embodiments.

制御部110は、カメラ54によって撮像された画像を取得し、メイン映像およびサブ映像のスケーリングやフィッティング等の処理を実行する。制御部110は、マーカ認識部112、サブスクリーン特定部114、関連ファイル取得部116、ファイル格納部118、サブ映像処理部120、メイン映像処理部122および合成部124を備える。   The control unit 110 acquires an image captured by the camera 54 and executes processing such as scaling and fitting of the main video and the sub video. The control unit 110 includes a marker recognition unit 112, a sub screen identification unit 114, a related file acquisition unit 116, a file storage unit 118, a sub video processing unit 120, a main video processing unit 122, and a synthesis unit 124.

マーカ認識部112は、撮像画像内からマーカを認識する。この認識は、予め準備されたサンプル画像とのマッチング等により実現することができる。後述するように、マーカが二次元コードである場合は、対応プログラムを用いてコードに埋め込まれた内容を読み取ることができる。   The marker recognition unit 112 recognizes a marker from the captured image. This recognition can be realized by matching with a sample image prepared in advance. As will be described later, when the marker is a two-dimensional code, the content embedded in the code can be read using a corresponding program.

サブスクリーン特定部114は、認識されたマーカに基づきサブスクリーン80の四隅または四辺を認識し、サブスクリーンの位置、向き、大きさおよび形状を特定する。   The sub-screen specifying unit 114 recognizes four corners or four sides of the sub-screen 80 based on the recognized marker, and specifies the position, orientation, size, and shape of the sub-screen.

関連ファイル取得部116は、マーカ認識部112で認識されたマーカに特定のサブ映像ファイルが関連づけられている場合、そのファイルをファイル格納部118から取得してサブ映像処理部120に渡す。このファイルの関連づけについては詳細に後述する。   When a specific sub video file is associated with the marker recognized by the marker recognition unit 112, the related file acquisition unit 116 acquires the file from the file storage unit 118 and passes it to the sub video processing unit 120. This file association will be described later in detail.

サブ映像処理部120は、サブスクリーン特定部114で特定されたサブスクリーンの大きさおよび形状に合わせて、サブ映像のスケーリングおよびフィッティングを実行する。このような処理は周知であるので、詳細な説明は省略する。   The sub video processing unit 120 performs scaling and fitting of the sub video according to the size and shape of the sub screen specified by the sub screen specifying unit 114. Since such processing is well known, detailed description thereof is omitted.

メイン映像処理部122は、図示しないメインスクリーン特定部で特定されたメインスクリーンの大きさおよび形状に合わせて、メイン映像のスケーリングおよびフィッティングを実行する。   The main video processing unit 122 performs scaling and fitting of the main video in accordance with the size and shape of the main screen specified by the main screen specifying unit (not shown).

合成部124は、メイン映像とサブ映像とをフレーム単位で取得する。そして、サブスクリーン特定部114で特定されたサブスクリーンの位置および向きに合わせてサブ映像のフレームをメイン映像のフレームに重畳合成する。合成されたフレームは、映像信号として映像保持部40に送られる。   The synthesizing unit 124 acquires the main video and the sub video in units of frames. Then, the sub video frame is superimposed and synthesized on the main video frame in accordance with the position and orientation of the sub screen specified by the sub screen specifying unit 114. The synthesized frame is sent to the video holding unit 40 as a video signal.

上述したように、メインスクリーンに表示されるメイン映像と、サブスクリーンに表示されるサブ映像とは、別個にスケーリングとフィッティングが行われる。その後、合成部124によって合成画像として構成され、その映像信号が映像保持部40に供給される。これによって、サブスクリーンが投写領域内で移動したり回転したりした場合でも、リアルタイムでサブスクリーン上にサブ映像をフィッティングすることができる。   As described above, the main video displayed on the main screen and the sub video displayed on the sub screen are scaled and fitted separately. Thereafter, the synthesized image is formed as a synthesized image by the synthesizing unit 124, and the video signal is supplied to the video holding unit 40. As a result, even when the sub screen moves or rotates within the projection area, it is possible to fit the sub video on the sub screen in real time.

以上のように構成することで、同一のプロジェクタ光学系を使用して、メインスクリーンとサブスクリーンにそれぞれ別の映像を投写表示することが可能になる。   With the configuration as described above, it is possible to project and display different images on the main screen and the sub screen using the same projector optical system.

サブスクリーン80の上下移動に、サブ映像の拡大縮小の機能を関連づけておいてもよい。例えば、サブスクリーン80を上方(図7の矢印Cの方向)に移動させるとサブ映像が拡大し、下方に移動させるとサブ映像が縮小するように設定してもよい。   A sub-image enlargement / reduction function may be associated with the vertical movement of the sub-screen 80. For example, the sub image may be set to be enlarged when the sub screen 80 is moved upward (in the direction of arrow C in FIG. 7), and the sub image may be reduced when the sub screen 80 is moved downward.

サブスクリーン80にある程度の厚みがある場合、側面にもマーカを印刷しておき、これをカメラの撮像画像内で認識することで、サブスクリーンの鉛直方向の移動距離を求めることができる。代替的に、撮像画像内でのサブスクリーン面積の変化に基づき、サブスクリーンの鉛直方向移動を推測してもよい。すなわち、所定時間内または所定フレーム間隔での面積変化量から、鉛直方向の移動距離を推測することができる。   If the sub screen 80 has a certain thickness, a marker is also printed on the side surface, and this is recognized in the captured image of the camera, whereby the vertical movement distance of the sub screen can be obtained. Alternatively, the vertical movement of the sub-screen may be estimated based on the change in the sub-screen area in the captured image. That is, the vertical movement distance can be estimated from the area change amount within a predetermined time or at a predetermined frame interval.

続いて、サブ映像処理部120は、サブスクリーンの鉛直方向の移動距離に応じた拡大率または縮小率を設定し、サブ映像をその比率で拡大または縮小した上で合成部124に供給する。こうすることで、メイン映像を変化させずに、サブスクリーン上のサブ映像のみを拡大縮小表示させることができる。   Subsequently, the sub video processing unit 120 sets an enlargement rate or a reduction rate corresponding to the vertical movement distance of the sub screen, enlarges or reduces the sub video at the ratio, and supplies the sub video to the combining unit 124. In this way, only the sub video on the sub screen can be enlarged and reduced without changing the main video.

複数枚のサブスクリーン80を準備しておき、サブスクリーン毎に異なるサブ映像を自動的に投写できるように構成してもよい。図10は、このようなサブスクリーンとサブ映像ファイルとの関連づけを説明する図である。   A plurality of sub-screens 80 may be prepared so that different sub-images can be automatically projected for each sub-screen. FIG. 10 is a diagram for explaining the association between the sub-screen and the sub-video file.

図10に示すように、サブスクリーンA、Bにはそれぞれ異なるマーカMが予め印刷されている。そして、これらのマーカと投写すべき映像ファイルとを予め関連づけて、ファイル格納部118に記憶させておく。いずれかのサブスクリーンを投写領域内に入れると、マーカ認識部112がマーカを読み取り、関連ファイル取得部116が読み取られたマーカに関連づけられた映像ファイルを取得し、サブ映像処理部120に渡す。こうすることで、サブスクリーンを投写領域内で入れ替えるだけで、サブスクリーンに投写されるサブ映像を簡便に切り替えることができる。   As shown in FIG. 10, different markers M are printed in advance on the sub-screens A and B, respectively. These markers are associated with the video file to be projected in advance and stored in the file storage unit 118. When any of the sub-screens is placed in the projection area, the marker recognition unit 112 reads the marker, the related file acquisition unit 116 acquires the video file associated with the read marker, and passes it to the sub video processing unit 120. In this way, it is possible to easily switch the sub video projected on the sub screen simply by replacing the sub screen within the projection area.

代替的に、サブスクリーン80上のマーカをQRコード等の二次元コードにしてもよい。この場合、サブスクリーン80とサブ映像ファイルとの関連づけを予め行っていなくてもよい。例えば、二次元コードに記憶装置内のディレクトリとファイル名を記述しておき、マーカ認識部112が二次元コードを読み取ると、関連ファイル取得部116が読み取られたファイルを検索するように構成してもよい。あるいは、二次元コードにIP(Internet Protocol)アドレスやURL(Universal Resourse Locator)を記述しておいてもよい。この場合、マーカ認識部112が二次元コードを読み取ると、ブラウザが起動して対応するウェブページがネットワークを介して取得され、サブスクリーン上にそのウェブページが投写表示されるように投写型映像表示装置を構成してもよい。   Alternatively, the marker on the sub screen 80 may be a two-dimensional code such as a QR code. In this case, the association between the sub screen 80 and the sub video file may not be performed in advance. For example, the directory and file name in the storage device are described in the two-dimensional code, and when the marker recognition unit 112 reads the two-dimensional code, the related file acquisition unit 116 searches for the read file. Also good. Alternatively, an IP (Internet Protocol) address or a URL (Universal Resource Locator) may be described in the two-dimensional code. In this case, when the marker recognizing unit 112 reads the two-dimensional code, the browser is activated, the corresponding web page is acquired via the network, and the projected image display is performed so that the web page is projected and displayed on the sub-screen. An apparatus may be configured.

以上説明したように、実施の形態3によれば、メインスクリーンにメイン映像を投写しつつ、実体のサブスクリーンを投写領域内に移動させたとき、サブスクリーン上にメイン映像とは別のサブ映像を投写表示することが可能になる。これにより、サブスクリーンを物理的に移動させるといった、より直感的な操作を行えるようになる。また、サブスクリーンの鉛直方向移動に拡大縮小の機能を対応させておけば、メニュー画面などを表示させる必要なく、より直感的な操作で拡大縮小処理を行うことができる。   As described above, according to the third embodiment, when a main video is projected on the main screen and the actual sub-screen is moved into the projection area, a sub-video different from the main video is displayed on the sub-screen. Can be projected and displayed. As a result, a more intuitive operation such as physically moving the sub-screen can be performed. Further, if the function of enlargement / reduction is associated with the vertical movement of the sub-screen, the enlargement / reduction process can be performed with a more intuitive operation without the need to display a menu screen or the like.

上記の説明では、投写型映像表示装置100にパーソナルコンピュータの機能が埋め込まれているものとして説明した。しかしながら、投写型映像表示装置とパーソナルコンピュータを接続した上で、上述の制御部110に相当する機能を有するソフトウェアをコンピュータにインストールすることで、同等の機能を発揮させることも可能である。   In the above description, it is assumed that the function of a personal computer is embedded in the projection display apparatus 100. However, by connecting the projection display apparatus and the personal computer and installing software having a function corresponding to the above-described control unit 110 in the computer, it is possible to exert the same function.

本発明をいくつかの実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on several embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. is there.

実施の形態1と3、実施の形態2と3は、それぞれ組み合わせて実施することができる。   Embodiments 1 and 3 and Embodiments 2 and 3 can be implemented in combination.

投写口からの映像光とは別に、ユーザの指を照らす照明を設けてもよい。この場合、近赤外線等の特定波長の照明を使用し、この波長を選択的に透過するフィルタをレンズに取り付けたカメラでユーザの指を撮像するように構成してもよい。こうすることで、ユーザの指を認識する際の投写光や外来光による影響を低減することができる。   In addition to the image light from the projection port, illumination for illuminating the user's finger may be provided. In this case, illumination with a specific wavelength such as near infrared rays may be used, and a user's finger may be imaged with a camera in which a filter that selectively transmits this wavelength is attached to the lens. By doing so, it is possible to reduce the influence of projection light and external light when recognizing the user's finger.

実施の形態では、ユーザの指によるタッチ操作について説明したが、ユーザが物理的なポインティングデバイス、例えば指し棒などを用いてタッチ操作を行う場合にも、上記と同様の構成で各実施の形態を適用することができる。   In the embodiment, the touch operation with the user's finger has been described. However, when the user performs a touch operation using a physical pointing device, for example, a pointing stick, each embodiment is configured with the same configuration as above. Can be applied.

実施の形態では、投写型映像表示装置を用いてテーブルトップなどの水平面に映像を投写する場合について説明したが、壁面などの垂直面に映像を投写する場合にも本発明を適用することができる。後者の場合、プレゼンテーションなどで説明者が道具を用いることなく投写映像にタッチしながら画面操作することが可能になる。
また、平面でなく曲面に映像を投写する場合でも、設置するカメラの数や向きを適切に設定することで本発明を適用可能である。
In the embodiment, the case where an image is projected onto a horizontal surface such as a table top using the projection display apparatus has been described. However, the present invention can also be applied to the case where an image is projected onto a vertical surface such as a wall surface. . In the latter case, it becomes possible for the presenter to operate the screen while touching the projected image without using a tool in a presentation or the like.
Even when an image is projected on a curved surface instead of a flat surface, the present invention can be applied by appropriately setting the number and orientation of cameras to be installed.

10、50、100 投写型映像表示装置、 12、52 カメラ、 14 赤外線カメラ、 16 スクリーン、 18 投写口、 20 パーソナルコンピュータ、 30、60、110 制御部、 32 ターゲット検出部、 34 座標決定部、 36 先端検出部、 38 接触判定部、 40 映像保持部、 42 投写部、 62 指検出部、 64 影検出部、 66 接触判定部、 68 座標決定部、 72 メイン映像、 80 サブスクリーン、 82 サブ映像、 112 マーカ認識部、 114 サブスクリーン特定部、 116 関連ファイル取得部、 118 ファイル格納部、 120 サブ映像処理部、 122 メイン映像処理部、 124 合成部。   10, 50, 100 Projection-type image display device, 12, 52 camera, 14 infrared camera, 16 screen, 18 projection port, 20 personal computer, 30, 60, 110 control unit, 32 target detection unit, 34 coordinate determination unit, 36 Tip detection unit, 38 Contact determination unit, 40 Video holding unit, 42 Projection unit, 62 Finger detection unit, 64 Shadow detection unit, 66 Contact determination unit, 68 Coordinate determination unit, 72 Main video, 80 Sub screen, 82 Sub video, 112 marker recognition unit, 114 sub-screen specifying unit, 116 related file acquisition unit, 118 file storage unit, 120 sub video processing unit, 122 main video processing unit, 124 synthesis unit.

Claims (6)

スクリーンに映像を投写する投写部と、
少なくとも前記スクリーンに投写された映像を含む領域を撮像するための第1撮像部と、
前記スクリーンの上方空間を撮像するための第2撮像部と、
前記第2撮像部により撮像された画像に基づき、所定物体が前記スクリーンに接触しているか否かを判定する接触判定部と、
前記接触判定部により接触していると判定されたとき、前記第1撮像部により撮像された画像に基づき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、
を備えることを特徴とする投写型映像表示装置。
A projection unit that projects an image on a screen;
A first imaging unit for imaging at least a region including an image projected on the screen;
A second imaging unit for imaging the space above the screen;
A contact determination unit that determines whether a predetermined object is in contact with the screen based on an image captured by the second imaging unit;
A coordinate determination unit that outputs coordinates of the predetermined object as a pointing position with respect to the video based on an image captured by the first imaging unit when it is determined by the contact determination unit;
A projection-type image display device comprising:
スクリーンに映像を投写する投写部と、
少なくとも前記スクリーンに投写された映像を含む領域を撮像するための撮像部と、
前記撮像部により撮像された画像から、前記スクリーン上方を移動する所定物体の実像を検出する実像検出部と、
前記撮像部により撮像された画像から、前記投写部からの投写光により生じる前記所定物体の影を検出する影検出部と、
前記所定物体の実像と影の対応点間の距離が所定のしきい値以下である場合、前記所定物体が前記スクリーンに接触していると判定する接触判定部と、
前記接触判定部により接触していると判定されたとき、前記所定物体の座標を前記映像に対するポインティング位置として出力する座標決定部と、
を備えることを特徴とする投写型映像表示装置。
A projection unit that projects an image on a screen;
An imaging unit for imaging at least an area including an image projected on the screen;
A real image detection unit for detecting a real image of a predetermined object moving above the screen from an image captured by the imaging unit;
A shadow detection unit that detects a shadow of the predetermined object generated by the projection light from the projection unit, from an image captured by the imaging unit;
A contact determination unit that determines that the predetermined object is in contact with the screen when the distance between the corresponding point of the real image of the predetermined object and the shadow is equal to or less than a predetermined threshold;
A coordinate determination unit that outputs the coordinates of the predetermined object as a pointing position with respect to the video when it is determined by the contact determination unit to be in contact;
A projection-type image display device comprising:
前記接触判定部は、前記所定物体により短期間に断続する接触がなされたと判定したとき、タップ動作として出力することを特徴とする請求項1または2に記載の投写型映像表示装置。   3. The projection display apparatus according to claim 1, wherein the contact determination unit outputs a tap operation when it is determined that the contact is intermittently performed in a short time by the predetermined object. メインスクリーンに映像を投写する投写部と、
少なくとも前記メインスクリーンに投写された映像を含む領域を撮像するための撮像部と、
前記投写部による投写領域内に、前記メインスクリーンとは別個のサブスクリーンが存在するとき、前記撮像部により撮像された画像から前記サブスクリーンの位置および範囲を特定するサブスクリーン特定部と、
前記サブスクリーンの範囲に合わせて、該サブスクリーンに表示すべき所定のサブ映像を成形するサブ映像処理部と、
前記メインスクリーンに表示すべき所定のメイン映像に対して、前記サブスクリーン特定部で特定されたサブスクリーン位置に前記サブ映像を重畳して合成する合成部と、
を備えることを特徴とする投写型映像表示装置。
A projection unit that projects an image on the main screen;
An imaging unit for imaging at least an area including an image projected on the main screen;
A sub-screen specifying unit that specifies the position and range of the sub-screen from an image captured by the imaging unit when a sub-screen separate from the main screen exists in the projection area of the projection unit;
A sub video processing unit for shaping a predetermined sub video to be displayed on the sub screen in accordance with the range of the sub screen;
A synthesizing unit that superimposes and synthesizes the sub video at a sub screen position specified by the sub screen specifying unit with respect to a predetermined main video to be displayed on the main screen;
A projection-type image display device comprising:
前記サブスクリーン上に形成された所定のマーカを認識するマーカ認識部と、
認識されたマーカに予め関連づけられたサブ映像を取得するサブ映像取得部と、
をさらに備えることを特徴とする請求項4に記載の投写型映像表示装置。
A marker recognition unit for recognizing a predetermined marker formed on the sub-screen;
A sub video acquisition unit for acquiring a sub video pre-associated with the recognized marker;
The projection display apparatus according to claim 4, further comprising:
前記サブ映像処理部は、前記メインスクリーンに対する前記サブスクリーンの鉛直方向の移動に応じて、前記サブ映像を拡大または縮小処理することを特徴とする請求項4または5に記載の投写型映像表示装置。   6. The projection video display apparatus according to claim 4, wherein the sub video processing unit performs an enlargement or reduction process on the sub video in accordance with a vertical movement of the sub screen with respect to the main screen. .
JP2010042587A 2010-02-26 2010-02-26 Projection type image display apparatus Pending JP2011180712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010042587A JP2011180712A (en) 2010-02-26 2010-02-26 Projection type image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010042587A JP2011180712A (en) 2010-02-26 2010-02-26 Projection type image display apparatus

Publications (1)

Publication Number Publication Date
JP2011180712A true JP2011180712A (en) 2011-09-15

Family

ID=44692175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010042587A Pending JP2011180712A (en) 2010-02-26 2010-02-26 Projection type image display apparatus

Country Status (1)

Country Link
JP (1) JP2011180712A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120098852A1 (en) * 2010-10-07 2012-04-26 Nikon Corporation Image display device
JP2013069161A (en) * 2011-09-22 2013-04-18 Casio Comput Co Ltd Projector system, projector, control method and program
JP2013257861A (en) * 2012-05-18 2013-12-26 Ricoh Co Ltd Image processing apparatus, image processing program, and image processing method
JP2014021562A (en) * 2012-07-12 2014-02-03 Canon Inc Touch detection apparatus, touch detection method, and program
US20140253513A1 (en) * 2013-03-11 2014-09-11 Hitachi Maxell, Ltd. Operation detection device, operation detection method and projector
JP2016102880A (en) * 2014-11-28 2016-06-02 キヤノンマーケティングジャパン株式会社 Image projection device and control method of image projection device
JP2016170709A (en) * 2015-03-13 2016-09-23 シャープ株式会社 Touch detection device
JP2017021861A (en) * 2016-11-01 2017-01-26 日立マクセル株式会社 Projector and head mounted display device
JP2017050701A (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
JP2017102768A (en) * 2015-12-03 2017-06-08 セイコーエプソン株式会社 Information processor, display device, information processing method, and program
JP2017526222A (en) * 2014-06-18 2017-09-07 トムソン ライセンシングThomson Licensing Use of scanable codes associated with access devices
CN107407994A (en) * 2015-03-27 2017-11-28 精工爱普生株式会社 Interactive projector and interactive projection system
US10152177B2 (en) 2013-03-11 2018-12-11 Maxell, Ltd. Manipulation detection apparatus, manipulation detection method, and projector
CN109579842A (en) * 2018-11-28 2019-04-05 珠海格力电器股份有限公司 Localization method and device, method for controlling projection and device, the mobile phone of two-dimensional surface
CN109983764A (en) * 2016-11-21 2019-07-05 精工爱普生株式会社 Projecting apparatus system
JP2019186588A (en) * 2018-03-30 2019-10-24 株式会社プレースホルダ Content display system

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120098852A1 (en) * 2010-10-07 2012-04-26 Nikon Corporation Image display device
JP2013069161A (en) * 2011-09-22 2013-04-18 Casio Comput Co Ltd Projector system, projector, control method and program
JP2013257861A (en) * 2012-05-18 2013-12-26 Ricoh Co Ltd Image processing apparatus, image processing program, and image processing method
JP2014021562A (en) * 2012-07-12 2014-02-03 Canon Inc Touch detection apparatus, touch detection method, and program
US20140253513A1 (en) * 2013-03-11 2014-09-11 Hitachi Maxell, Ltd. Operation detection device, operation detection method and projector
US10514806B2 (en) 2013-03-11 2019-12-24 Maxell, Ltd. Operation detection device, operation detection method and projector
US9367176B2 (en) * 2013-03-11 2016-06-14 Hitachi Maxell, Ltd. Operation detection device, operation detection method and projector
US10152177B2 (en) 2013-03-11 2018-12-11 Maxell, Ltd. Manipulation detection apparatus, manipulation detection method, and projector
JP2017526222A (en) * 2014-06-18 2017-09-07 トムソン ライセンシングThomson Licensing Use of scanable codes associated with access devices
JP2016102880A (en) * 2014-11-28 2016-06-02 キヤノンマーケティングジャパン株式会社 Image projection device and control method of image projection device
JP2016170709A (en) * 2015-03-13 2016-09-23 シャープ株式会社 Touch detection device
CN107407994A (en) * 2015-03-27 2017-11-28 精工爱普生株式会社 Interactive projector and interactive projection system
EP3276465A4 (en) * 2015-03-27 2018-11-07 Seiko Epson Corporation Interactive projector and interactive projection system
US10534448B2 (en) 2015-03-27 2020-01-14 Seiko Epson Corporation Interactive projector and interactive projection system
WO2017038982A1 (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
GB2557787A (en) * 2015-09-02 2018-06-27 Bandai Namco Entertainment Inc Projection system
JP2017050701A (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
GB2557787B (en) * 2015-09-02 2021-02-10 Bandai Namco Amusement Inc Projection system
JP2017102768A (en) * 2015-12-03 2017-06-08 セイコーエプソン株式会社 Information processor, display device, information processing method, and program
JP2017021861A (en) * 2016-11-01 2017-01-26 日立マクセル株式会社 Projector and head mounted display device
CN109983764A (en) * 2016-11-21 2019-07-05 精工爱普生株式会社 Projecting apparatus system
US20190324571A1 (en) * 2016-11-21 2019-10-24 Seiko Epson Corporation Projector system
US10754474B2 (en) * 2016-11-21 2020-08-25 Seiko Epson Corporation Projector system
JP2019186588A (en) * 2018-03-30 2019-10-24 株式会社プレースホルダ Content display system
CN109579842A (en) * 2018-11-28 2019-04-05 珠海格力电器股份有限公司 Localization method and device, method for controlling projection and device, the mobile phone of two-dimensional surface

Similar Documents

Publication Publication Date Title
JP2011180712A (en) Projection type image display apparatus
US10469737B2 (en) Display control device and display control method
US11470377B2 (en) Display apparatus and remote operation control apparatus
JP6153564B2 (en) Pointing device with camera and mark output
JP5488082B2 (en) Information recognition system and control method thereof
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
US20140218300A1 (en) Projection device
JP5258399B2 (en) Image projection apparatus and control method thereof
KR101457976B1 (en) Input user interface device, projecting device, command deciding method and program storage medium storing command deciding method program
AU2014221568A1 (en) Apparatus and method for positioning image area using image sensor location
CN106851234B (en) Projector and control method of projector
JP2009064109A (en) Image projector and its control method
EP2364013A2 (en) Information processing apparatus, method and program for imaging device
JP2014174832A (en) Operation detection device and operation detection method
JP2011043876A (en) Image display device
TWI531954B (en) Touch and gesture control system and touch and gesture control method
JP2012185630A (en) Projection device
JP5817149B2 (en) Projection device
WO2016147629A1 (en) Projector and display control method
JP2012238293A (en) Input device
US20150261385A1 (en) Picture signal output apparatus, picture signal output method, program, and display system
WO2018150569A1 (en) Gesture recognition device, gesture recognition method, projector equipped with gesture recognition device and video signal supply device
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2013080266A (en) Input device
JP5162855B2 (en) Image processing apparatus, remote image processing system, and image processing method