JP6237028B2 - Projection apparatus, projection method, and information processing system - Google Patents

Projection apparatus, projection method, and information processing system Download PDF

Info

Publication number
JP6237028B2
JP6237028B2 JP2013192477A JP2013192477A JP6237028B2 JP 6237028 B2 JP6237028 B2 JP 6237028B2 JP 2013192477 A JP2013192477 A JP 2013192477A JP 2013192477 A JP2013192477 A JP 2013192477A JP 6237028 B2 JP6237028 B2 JP 6237028B2
Authority
JP
Japan
Prior art keywords
projection
projector
unit
image
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013192477A
Other languages
Japanese (ja)
Other versions
JP2015060327A (en
Inventor
優樹 ▲高▼谷
優樹 ▲高▼谷
山本 良二
良二 山本
英一郎 吉田
英一郎 吉田
小林 寛
寛 小林
厚 小久保
厚 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013192477A priority Critical patent/JP6237028B2/en
Publication of JP2015060327A publication Critical patent/JP2015060327A/en
Application granted granted Critical
Publication of JP6237028B2 publication Critical patent/JP6237028B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、投影装置、投影方法及び情報処理システムに関する。   The present invention relates to a projection apparatus, a projection method, and an information processing system.

従来、プロジェクタ等の投影装置によってスクリーン等の投影面に投影される投影画像に対して、電子ペン等のポインティングデバイスを利用してポインティング位置を移動させることにより、投影装置を操作する技術が知られている。これに対して、ポインティングデバイスを利用しなくても投影装置を操作する技術も存在する。例えば、ユーザの所定動作であるジェスチャをカメラで認識し、ジェスチャに対応する操作を投影装置に対して実行するというものである。さらに、投影画像に含まれるボタン等の操作対象を操作するための動作がユーザによって行なわれた場合に、この動作をカメラで認識し、操作対象の操作に対応する処理を投影装置に対して実行させるというものもある。また、複数のプロジェクタを並べて配置し、全体として大画面になる投影面に投影画像を投影するマルチ投影と呼ばれる技術に対しても、上述したジェスチャに応じた操作を実現することも可能である。   2. Description of the Related Art Conventionally, a technique for operating a projection apparatus by moving a pointing position using a pointing device such as an electronic pen with respect to a projection image projected on a projection surface such as a screen by a projection apparatus such as a projector is known. ing. On the other hand, there is a technique for operating the projection apparatus without using a pointing device. For example, a gesture that is a predetermined operation of the user is recognized by a camera, and an operation corresponding to the gesture is executed on the projection apparatus. Furthermore, when an operation for operating an operation target such as a button included in the projection image is performed by the user, this operation is recognized by the camera, and processing corresponding to the operation of the operation target is executed on the projection apparatus. There are also things to let you. In addition, it is also possible to realize an operation according to the above-described gesture even for a technique called multi-projection in which a plurality of projectors are arranged side by side and a projection image is projected onto a projection surface that has a large screen as a whole.

また、これらの技術においては、ポインティング位置に応じた投影装置の操作が実行されることから、現在のポインティング位置を高精度に検出できることが望ましい。ポインティング位置を高精度に検出するための技術としては、例えば、投影面の所定箇所をマーキングした画像を保持しておき、マーキングした画像と現在投影されている画像との差分をとることにより、ポインティング位置を検出するものがある。かかる技術では、マーカを常時表示させることなく、現在のポインティング位置を検出できる。   In these techniques, since the operation of the projection apparatus is executed in accordance with the pointing position, it is desirable that the current pointing position can be detected with high accuracy. As a technique for detecting the pointing position with high accuracy, for example, an image obtained by marking a predetermined portion of the projection surface is retained, and a pointing is obtained by taking a difference between the marked image and the currently projected image. Some detect the position. With this technique, the current pointing position can be detected without always displaying the marker.

しかしながら、上述した従来技術では、ユーザの動作をカメラによって認識することで投影装置を操作する状況において、カメラによって撮像可能な領域を表す撮像領域が投影画像よりも小さい場合に、投影装置に対する操作を検出することができない場合がある。撮像領域が投影画像よりも小さくなるケースは、投影面とカメラとの距離が近いことで発生する。つまり、投影面とカメラとの距離を十分に確保できない場合には、上記のような問題が発生する。このことは、マルチ投影による大画面の投影面に投影画像を投影する場合にも同様に発生する問題である。   However, in the above-described prior art, in a situation where the projection apparatus is operated by recognizing the user's operation by the camera, when the imaging area representing the area that can be captured by the camera is smaller than the projection image, the operation on the projection apparatus is It may not be detected. A case where the imaging region is smaller than the projected image occurs when the distance between the projection plane and the camera is short. That is, the above-described problem occurs when a sufficient distance between the projection surface and the camera cannot be secured. This is a problem that also occurs when a projection image is projected onto a projection screen of a large screen by multi-projection.

本発明は、上記に鑑みてなされたものであって、マルチ投影において1の投影装置によって投影される1の投影面に対する複数の指示動作を検出することが可能である投影装置、投影方法及び情報処理システムを提供することを目的とする。   The present invention has been made in view of the above, and a projection apparatus, a projection method, and information capable of detecting a plurality of instruction operations on one projection plane projected by one projection apparatus in multi-projection An object is to provide a processing system.

上述した課題を解決し、目的を達成するため、本発明に係る投影装置は、ネットワークを介して少なくとも1つの他の投影装置と接続される投影装置において、投影面に投影画像を投影する投影部と、前記投影面に含まれる撮影領域を撮影する撮影部と、前記撮影部によって撮影された撮影画像に基づいてユーザによる前記投影画像に対する指示動作を検出する検出部と、指示の対象となる前記投影面に含まれる指示対象に関する指示対象情報を記憶する指示対象情報記憶部と、前記指示対象情報記憶部によって記憶された指示対象情報に基づいて、前記撮影領域に含むことができない指示対象の有無を判定する判定部と、前記判定部によって前記撮影領域に含むことができない指示対象があると判定された場合に、前記他の投影装置へ撮影の要求を行なう要求部とを有する。   In order to solve the above-described problems and achieve the object, a projection apparatus according to the present invention projects a projection image onto a projection plane in a projection apparatus connected to at least one other projection apparatus via a network. An imaging unit that captures an imaging region included in the projection plane, a detection unit that detects an instruction operation on the projection image by a user based on a captured image captured by the imaging unit, and the target to be instructed Based on the instruction target information stored in the instruction target information storage unit and the instruction target information stored in the instruction target information storage unit, there is an instruction target that cannot be included in the imaging area. When the determination unit determines that there is an instruction target that cannot be included in the imaging region, the image is captured to the other projection device. And a request unit that makes a request.

本発明の一つの様態によれば、複数の操作対象に対するユーザのジェスチャをより多く認識することができるという効果を奏する。   According to one aspect of the present invention, it is possible to recognize more user gestures for a plurality of operation objects.

図1は、実施の形態1に係る投影システムの適用イメージの例を示す図である。FIG. 1 is a diagram illustrating an example of an application image of the projection system according to the first embodiment. 図2は、実施の形態1に係るプロジェクタのハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating a hardware configuration example of the projector according to the first embodiment. 図3は、実施の形態1に係る装置構成例を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a device configuration example according to the first embodiment. 図4は、実施の形態1に係るマルチ投影の例を説明する図である。FIG. 4 is a diagram for explaining an example of multi-projection according to the first embodiment. 図5は、座標変換行列の算出例について説明する図である。FIG. 5 is a diagram for explaining a calculation example of the coordinate transformation matrix. 図6は、実施の形態1に係る座標変換処理の流れの例を示すシーケンス図である。FIG. 6 is a sequence diagram illustrating an example of the flow of coordinate conversion processing according to the first embodiment. 図7は、実施の形態1に係るボタン位置検出処理の流れの例を示すシーケンス図である。FIG. 7 is a sequence diagram illustrating an example of a flow of button position detection processing according to the first embodiment. 図8は、実施の形態1に係るコンテンツ画像(投影画像)全体を撮影する処理の例を説明する図である。FIG. 8 is a diagram for explaining an example of processing for capturing the entire content image (projected image) according to the first embodiment. 図9は、実施の形態1に係る支援要請処理の流れの例を示すシーケンス図である。FIG. 9 is a sequence diagram illustrating an example of the flow of the support request process according to the first embodiment. 図10は、実施の形態1に係る支援要請の判定処理の流れの例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a flow of support request determination processing according to the first embodiment. 図11は、実施の形態1に係る捕捉するボタン画像の決定処理の流れの例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a flow of determining a captured button image according to the first embodiment. 図12は、実施の形態1に係る隣接するプロジェクタに支援を依頼する際の座標変換の例を説明する図である。FIG. 12 is a diagram for explaining an example of coordinate conversion when requesting support from an adjacent projector according to the first embodiment. 図13は、実施の形態1に係るカメラ動作の移動先の位置決定処理の流れの例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the flow of the position determination process of the movement destination of the camera operation according to the first embodiment. 図14は、実施の形態1に係るカメラ動作の移動先の具体例を説明する図である。FIG. 14 is a diagram for explaining a specific example of the movement destination of the camera operation according to the first embodiment. 図15は、実施の形態1に係る支援要請に対する回答の判定処理の流れの例を示すフローチャートである。FIG. 15 is a flowchart illustrating an example of a process of determining a response to a support request according to the first embodiment. 図16は、支援要請に対して保留する旨の回答が発生する場合のボタン画像の捕捉例を説明する図である。FIG. 16 is a diagram for explaining an example of capturing a button image when a response indicating suspension is generated in response to a support request. 図17は、再帰的な支援要請処理の流れの例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the flow of recursive support request processing. 図18は、支援要請に対して再帰的に支援を依頼する場合のボタン画像の捕捉例を説明する図である。FIG. 18 is a diagram for explaining an example of capturing a button image when requesting support recursively in response to a support request. 図19は、支援要請に対して支援可能な範囲を設定する場合のボタン画像の捕捉例を説明する図である。FIG. 19 is a diagram illustrating an example of capturing a button image when a supportable range is set for a support request. 図20は、支援要請に対してカメラ動作の位置を再決定する場合のボタン画像の捕捉例を説明する図である。FIG. 20 is a diagram for explaining an example of capturing a button image when the position of the camera operation is redetermined in response to the support request. 図21は、支援要請時にカメラが故障している場合のボタン画像の捕捉例を説明する図である。FIG. 21 is a diagram for explaining an example of capturing a button image when the camera is broken at the time of requesting assistance. 図22は、支援要請に対して全てのボタン画像を捕捉できない場合のボタン画像の捕捉例を説明する図である。FIG. 22 is a diagram for explaining an example of capturing a button image when all button images cannot be captured in response to a support request. 図23は、ボタン画像の面積に応じて優先度を決定する例を説明する図である。FIG. 23 is a diagram illustrating an example in which the priority is determined according to the area of the button image. 図24は、ボタン画像がカメラ画角よりも大きい場合のカメラ動作の移動先の位置決定処理の流れの例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of the flow of position determination processing for the movement destination of the camera operation when the button image is larger than the camera angle of view. 図25は、ポインティング操作が可能な範囲をフィードバックする例を説明する図である。FIG. 25 is a diagram illustrating an example in which a range in which a pointing operation can be performed is fed back. 図26は、ポインティング操作が可能なボタン画像をフィードバックする例を説明する図である。FIG. 26 is a diagram illustrating an example in which a button image that can be pointed is fed back.

以下に添付図面を参照して、本発明に係る投影装置、投影方法及び情報処理システムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることができる。   Embodiments of a projection apparatus, a projection method, and an information processing system according to the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Moreover, each embodiment can be combined suitably as long as the content is not contradicted.

(実施の形態1)
[投影システムの適用イメージ]
図1を用いて、実施の形態1に係る投影システムの適用イメージについて説明する。図1は、実施の形態1に係る投影システムの適用イメージの例を示す図である。なお、投影システムは、情報処理システムの一例である。
(Embodiment 1)
[Application image of projection system]
An application image of the projection system according to Embodiment 1 will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an application image of the projection system according to the first embodiment. The projection system is an example of an information processing system.

図1に示すように、実施の形態1に係る投影システムは、プロジェクタAやプロジェクタB等の複数のプロジェクタを使用したマルチ投影により、投影面Aや投影面B等の複数の投影面からなる大画面に投影画像を投影するものである。つまり、プロジェクタAは投影面Aに投影画像を投影し、プロジェクタBは投影面Bに投影画像を投影している。また、各プロジェクタにはカメラが搭載されている。各プロジェクタに搭載されたカメラは、ユーザによるジェスチャを認識するために利用される。本実施の形態では、投影面とプロジェクタとの距離が近いために、各プロジェクタに搭載されたカメラは投影面の一部しか撮影できない。また、図1の例では、投影面Aの投影画像に、2つのボタン画像が配置されている。ボタン画像は、ユーザによるジェスチャの操作対象となるオブジェクトである。   As shown in FIG. 1, the projection system according to the first embodiment is a large-scale projector that includes a plurality of projection surfaces such as a projection surface A and a projection surface B by multi-projection using a plurality of projectors such as a projector A and a projector B. A projected image is projected onto a screen. That is, the projector A projects the projection image on the projection plane A, and the projector B projects the projection image on the projection plane B. Each projector is equipped with a camera. A camera mounted on each projector is used to recognize a user's gesture. In the present embodiment, since the distance between the projection plane and the projector is short, the camera mounted on each projector can capture only a part of the projection plane. In the example of FIG. 1, two button images are arranged on the projection image of the projection plane A. The button image is an object that is a target of gesture operation by the user.

上述した構成において、プロジェクタAは、投影面Aに投影された投影画像に配置されたボタン画像を、自身に搭載されたカメラを利用して検出する(図1の(1)参照)。ボタン画像の検出処理は、各プロジェクタによって行なわれる。そして、プロジェクタAは、自身に搭載されたカメラだけでは2つのボタンを捕捉することができないため、隣接するプロジェクタBに、投影面Aに投影された投影画像に配置されたボタン画像の捕捉の支援を依頼する(図1の(2)参照)。   In the configuration described above, the projector A detects the button image arranged in the projection image projected onto the projection plane A by using the camera mounted on the projector A (see (1) in FIG. 1). The button image detection process is performed by each projector. Then, since the projector A cannot capture two buttons only with the camera mounted on the projector A, it assists the adjacent projector B to capture the button image arranged in the projection image projected onto the projection plane A. (See (2) in FIG. 1).

プロジェクタBは、プロジェクタAからの支援依頼を受け付けると、支援を行なえるか否かを判断する(図1の(3)参照)。支援を行なえるか否かの判断は、例えば、自身がボタン画像を捕捉しているか否か、又は、自身が投影する投影画像にボタン画像が含まれているか否かにより行なわれる。図1の例では、プロジェクタBによって投影される投影面Bの投影画像にはボタン画像が配置されていないため、プロジェクタBは、支援を行なえると判断する。そして、プロジェクタBは、支援を行なえる旨の回答をプロジェクタAに対して行なう(図1の(4)参照)。   When the projector B receives the support request from the projector A, the projector B determines whether or not the support can be performed (see (3) in FIG. 1). The determination as to whether or not the support can be performed is made based on, for example, whether or not the user has captured a button image, or whether or not the button image is included in the projection image projected by the user. In the example of FIG. 1, since the button image is not arranged in the projection image of the projection plane B projected by the projector B, the projector B determines that the support can be performed. Then, the projector B gives an answer to the effect that support can be provided to the projector A (see (4) in FIG. 1).

プロジェクタBから支援を行なえる旨の回答を得たプロジェクタAは、支援してもらうボタン画像の座標を、プロジェクタBに対して通知する(図1の(5)参照)。支援してもらうボタン画像の座標は、プロジェクタB側から見たときの座標に変換されたうえで通知される。これにより、プロジェクタBは、指示された座標に従って、自身に搭載されたカメラの向きを制御し、投影面Aに投影された投影画像に配置されたボタン画像を捕捉する支援を行なう(図1の(6)参照)。   Projector A, which has received an answer from projector B that support can be provided, notifies projector B of the coordinates of the button image to be supported (see (5) in FIG. 1). The coordinates of the button image to be supported are notified after being converted into the coordinates when viewed from the projector B side. Thereby, the projector B controls the orientation of the camera mounted on the projector B according to the instructed coordinates, and performs support for capturing the button image arranged in the projection image projected on the projection plane A (FIG. 1). (See (6)).

つまり、本実施の形態では、マルチ投影のために複数台のプロジェクタを利用する場合に、投影面とプロジェクタとの距離が近くても、複数台のプロジェクタ間で連携をとりながら、より多くの操作対象を捕捉する。これにより、複数の操作対象に対するユーザのジェスチャをより多く認識することを実現する。   In other words, in this embodiment, when multiple projectors are used for multi-projection, more operations can be performed while coordinating between the multiple projectors even if the projection plane and the projector are close to each other. Capture the subject. Thus, it is possible to recognize more user gestures for a plurality of operation targets.

[実施の形態1に係るプロジェクタのハードウェア構成]
次に、図2を用いて、実施の形態1に係るプロジェクタのハードウェア構成について説明する。図2は、実施の形態1に係るプロジェクタのハードウェア構成例を示す図である。
[Hardware Configuration of Projector according to Embodiment 1]
Next, the hardware configuration of the projector according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating a hardware configuration example of the projector according to the first embodiment.

図2に示すように、プロジェクタ10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、撮影装置14と、投影装置15と、I/F16とを有する。   As shown in FIG. 2, the projector 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a photographing device 14, a projection device 15, an I / I F16.

これらのうち、CPU11は、プロジェクタ10の全体制御を行なう。ROM12は、CPU11の制御により実行される処理で利用されるプログラムや各種データを記憶する。RAM12は、CPU11の制御により実行される処理で利用されるデータ等を一時的に記憶する。撮影装置14は、投影面やユーザのジェスチャを撮影し、RAM13に記録する。撮影装置14は、例えばカメラ等である。投影装置15は、RAM13上に展開されたコンテンツ画像を投影する。I/F16は、外部機器等と各種データのやり取りを行なう。I/F16は、例えば、赤外線通信、USB(Universal Serial Bus)、LAN(Local Area Network)、IEEE1394等のためのインタフェースである。   Among these, the CPU 11 performs overall control of the projector 10. The ROM 12 stores programs and various data used in processing executed under the control of the CPU 11. The RAM 12 temporarily stores data used in processing executed under the control of the CPU 11. The photographing device 14 photographs a projection plane and a user's gesture and records them in the RAM 13. The imaging device 14 is a camera, for example. The projection device 15 projects the content image developed on the RAM 13. The I / F 16 exchanges various data with an external device or the like. The I / F 16 is an interface for, for example, infrared communication, USB (Universal Serial Bus), LAN (Local Area Network), IEEE 1394, and the like.

[実施の形態1に係る装置構成]
次に、図3を用いて、実施の形態1に係る装置構成を説明する。図3は、実施の形態1に係る装置構成例を示す機能ブロック図である。
[Apparatus Configuration According to Embodiment 1]
Next, the apparatus configuration according to the first embodiment will be described with reference to FIG. FIG. 3 is a functional block diagram illustrating a device configuration example according to the first embodiment.

図3に示すように、プロジェクタ10は、撮影モジュール110と、投影モジュール120と、ポインティング操作検出モジュール130と、協調動作制御モジュール140とを有する。これらのうち、撮影モジュール110は、投影面やユーザによるジェスチャを撮影する。撮影モジュール110によって撮影される投影面は、プロジェクタ10自身によって投影している投影面に限られない。投影モジュール120は、投影面にコンテンツ画像(投影画像)を投影する。   As shown in FIG. 3, the projector 10 includes an imaging module 110, a projection module 120, a pointing operation detection module 130, and a cooperative operation control module 140. Among these, the imaging module 110 captures a projection surface or a user gesture. The projection plane imaged by the imaging module 110 is not limited to the projection plane projected by the projector 10 itself. The projection module 120 projects a content image (projected image) on the projection surface.

ポインティング操作検出モジュール130は、プロジェクタ10が投影しているコンテンツ画像(投影画像)を解析し、カメラの向きを制御するとともに、カメラ画像からポインティング操作を検出し、操作に応じたコマンドを出力する。また、ポインティング操作検出モジュール130は、カメラ制御部131と、カメラ画像記憶部132と、撮像領域位置算出部133と、ボタン画像認識部134と、ボタン画像位置算出部135と、カメラ動作位置決定部136と、ポインティング操作検出部137とを有する。   The pointing operation detection module 130 analyzes the content image (projected image) projected by the projector 10, controls the orientation of the camera, detects a pointing operation from the camera image, and outputs a command corresponding to the operation. The pointing operation detection module 130 includes a camera control unit 131, a camera image storage unit 132, an imaging region position calculation unit 133, a button image recognition unit 134, a button image position calculation unit 135, and a camera operation position determination unit. 136 and a pointing operation detection unit 137.

カメラ制御部131は、撮影モジュール110を制御し、カメラの向きを制御する。カメラ画像記憶部132は、カメラによって撮影された画像を表すカメラ画像を記憶する。撮像領域位置算出部133は、カメラ画像記憶部132によって記憶されたカメラ画像をもとに、カメラによって撮影されている領域を表す撮像領域(カメラ画角)の4隅座標を算出する。かかるカメラ画角は例えば方形であり、撮像領域位置算出部133は、該方形の各頂点である4隅の座標を算出する。なお、カメラ画角が方形でない場合は、そのときのカメラ画角の形を包含する最小の方形を求め、求めた方形の4隅座標を算出すれば良い。また、算出される座標は、プロジェクタ10がコンテンツ画像(投影画像)を投影している投影面に対する座標である。   The camera control unit 131 controls the photographing module 110 and controls the direction of the camera. The camera image storage unit 132 stores a camera image representing an image photographed by the camera. The imaging region position calculation unit 133 calculates the four corner coordinates of the imaging region (camera angle of view) representing the region captured by the camera based on the camera image stored by the camera image storage unit 132. The camera angle of view is, for example, a square, and the imaging region position calculation unit 133 calculates the coordinates of the four corners that are the vertices of the square. If the camera angle of view is not a square, a minimum rectangle including the shape of the camera angle of view at that time may be obtained, and the four corner coordinates of the obtained square may be calculated. The calculated coordinates are coordinates with respect to the projection plane on which the projector 10 projects the content image (projected image).

ボタン画像認識部134は、カメラ画像記憶部132によって記憶されたカメラ画像から、予め記憶しているボタン画像と一致するボタン画像を探索する。ボタン画像位置算出部135は、ボタン画像認識部134によって探索されたボタン画像の4隅座標を算出する。なお、算出される座標は、プロジェクタ10がコンテンツ画像(投影画像)を投影している投影面に対する座標である。カメラ動作位置決定部136は、撮像領域位置算出部133によって算出されたカメラ画角の4隅座標と、ボタン画像位置算出部135によって算出されたボタン画像の4隅座標とから、カメラの向きを制御するためのカメラ動作の移動先の位置を決定する。ポインティング操作検出部137は、カメラ画像記憶部132によって記憶されたカメラ画像から、ユーザのジェスチャ(ポインティング操作)を検出し、ジェスチャに応じたコマンドを投影モジュール120に出力する。   The button image recognition unit 134 searches for a button image that matches the button image stored in advance from the camera images stored by the camera image storage unit 132. The button image position calculation unit 135 calculates the four corner coordinates of the button image searched by the button image recognition unit 134. The calculated coordinates are coordinates with respect to the projection plane on which the projector 10 projects the content image (projected image). The camera operation position determination unit 136 determines the orientation of the camera from the four corner coordinates of the camera field angle calculated by the imaging region position calculation unit 133 and the four corner coordinates of the button image calculated by the button image position calculation unit 135. The destination position of the camera operation for control is determined. The pointing operation detection unit 137 detects a user gesture (pointing operation) from the camera image stored in the camera image storage unit 132 and outputs a command corresponding to the gesture to the projection module 120.

協調動作制御モジュール140は、ポインティング操作検出モジュール130によるコンテンツ画像(投影画像)の解析結果から、プロジェクタ10に隣接する他のプロジェクタに、ユーザの操作対象であるボタン画像の捕捉の支援を依頼する。加えて、協調動作制御モジュール140は、隣接するプロジェクタから支援の依頼を受け付ける。さらに、協調動作制御モジュール140は、隣接するプロジェクタ間の座標系の違いを変換する。また、協調動作制御モジュール140は、判定部141と、ボタンリスト記憶部142と、座標変換部143と、支援要請部144と、支援受付部145とを有する。   From the analysis result of the content image (projected image) by the pointing operation detection module 130, the cooperative operation control module 140 requests other projectors adjacent to the projector 10 to assist in capturing the button image that is the user's operation target. In addition, the cooperative operation control module 140 receives a support request from an adjacent projector. Further, the cooperative operation control module 140 converts the difference in the coordinate system between adjacent projectors. The cooperative operation control module 140 includes a determination unit 141, a button list storage unit 142, a coordinate conversion unit 143, a support request unit 144, and a support reception unit 145.

判定部141は、ポインティング操作検出モジュール130によって検出されたボタン画像の個数に応じて、隣接するプロジェクタにボタン画像の捕捉の支援を要請するか否かを判定する。また、判定部141は、隣接するプロジェクタから支援の要請が受け付けられた場合に、支援可能か否かを判定する。また、判定部141は、投影面の何れのボタンを隣接するプロジェクタのうち、どのカメラで捕捉するのかを判定する。ボタンリスト記憶部142は、ポインティング操作検出モジュール130によって算出されたボタン画像の座標や、検出されたボタン画像の個数等を記憶する。また、ボタンリスト記憶部142は、隣接するプロジェクタの支援を行なう場合のボタン画像の座標を記憶する。   The determination unit 141 determines whether or not to request support for capturing a button image from an adjacent projector according to the number of button images detected by the pointing operation detection module 130. The determination unit 141 determines whether or not support is possible when a support request is received from an adjacent projector. In addition, the determination unit 141 determines which button on the projection plane is captured by which of the adjacent projectors. The button list storage unit 142 stores the coordinates of the button image calculated by the pointing operation detection module 130, the number of detected button images, and the like. In addition, the button list storage unit 142 stores the coordinates of the button image when supporting an adjacent projector.

座標変換部143は、隣接するプロジェクタにボタン画像の捕捉の支援を要請する場合に、自身の座標系を隣接するプロジェクタの座標系に変換する。支援要請部144は、隣接するプロジェクタにボタン画像の捕捉の支援を要請する。支援受付部145は、隣接するプロジェクタからのボタン画像の捕捉の支援を受け付ける。なお、支援要請部144や支援受付部145による隣接するプロジェクタとの間のデータ転送は、デイジーチェーンとする。すなわち、バケツリレー式にデータ転送が行なわれる。   The coordinate conversion unit 143 converts its own coordinate system into the coordinate system of the adjacent projector when requesting support for capturing the button image from the adjacent projector. The support request unit 144 requests the adjacent projector to assist in capturing the button image. The support receiving unit 145 receives support for capturing a button image from an adjacent projector. Note that data transfer between adjacent projectors by the support request unit 144 and the support reception unit 145 is a daisy chain. That is, data transfer is performed in a bucket relay manner.

[マルチ投影]
次に、図4を用いて、実施の形態1に係るマルチ投影について説明する。図4は、実施の形態1に係るマルチ投影の例を説明する図である。マルチ投影とは、隣接する各プロジェクタによって投影される投影画像を少しずつ重ね合わせて、全体として大画面の映像を投影する仕組みである。一般に、マルチ投影を実現する場合には、前処理として、映像の位置合わせや色合いの調整等が行なわれる。
[Multi projection]
Next, multi-projection according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining an example of multi-projection according to the first embodiment. Multi-projection is a mechanism for projecting a large screen image as a whole by superimposing projected images projected by adjacent projectors little by little. In general, when multi-projection is realized, image alignment, hue adjustment, and the like are performed as preprocessing.

図4に示す例では、プロジェクタA、プロジェクタB及びプロジェクタCの3台でマルチ投影を行なう場合を表している。プロジェクタAは、破線で表された投影面(枠A)に投影画像を投影する。プロジェクタBは、実線で表された投影面(枠B)に投影画像を投影する。プロジェクタCは、一点鎖線で表された投影面(枠C)に投影画像を投影する。これらにより、図4の上方に示す大画面の映像の投影が実現する。図4の上方に示すように、プロジェクタAとプロジェクタBとの投影面(枠A,枠B)には、重なる領域が存在する。同様に、プロジェクタBとプロジェクタCとの投影面(枠B,枠C)には、重なる領域が存在する。図4の下方は、枠A、枠B及び枠Cの投影面に投影される投影画像それぞれを表している。すなわち、各プロジェクタによって投影される投影画像である。   In the example shown in FIG. 4, a case where multi-projection is performed by three projectors A, B, and C is shown. Projector A projects a projection image onto a projection plane (frame A) represented by a broken line. Projector B projects a projection image onto a projection plane (frame B) represented by a solid line. Projector C projects a projection image onto a projection plane (frame C) represented by a one-dot chain line. As a result, the projection of a large screen image shown in the upper part of FIG. 4 is realized. As shown in the upper part of FIG. 4, overlapping areas exist on the projection surfaces (frame A and frame B) of the projector A and the projector B. Similarly, overlapping areas exist on the projection planes (frame B, frame C) of projector B and projector C. The lower part of FIG. 4 represents each of the projection images projected on the projection surfaces of the frame A, the frame B, and the frame C. That is, it is a projection image projected by each projector.

本実施の形態では、隣接するプロジェクタが捕捉できないボタン画像を捕捉する支援を行なうために、他のプロジェクタで捕捉できないボタン画像の位置に向けて、自身のカメラの向きを制御するために、座標系の変換が行なわれる。以下に、座標系の変換について説明する。   In this embodiment, a coordinate system is used to control the direction of its own camera toward the position of the button image that cannot be captured by other projectors in order to assist in capturing a button image that cannot be captured by an adjacent projector. Is converted. The coordinate system conversion will be described below.

[座標系の変換]
次に、図5を用いて、座標変換行列の算出について説明する。図5は、座標変換行列の算出例について説明する図である。
[Conversion of coordinate system]
Next, calculation of the coordinate transformation matrix will be described with reference to FIG. FIG. 5 is a diagram for explaining a calculation example of the coordinate transformation matrix.

図5では、プロジェクタAとプロジェクタBとの隣接するプロジェクタ間で変換行列を算出する場合を説明する。変換行列を算出するためには、プロジェクタAとプロジェクタBとの対応点を4組以上利用する。この対応点をとるために、プロジェクタA及びプロジェクタBの投影面が重なる領域の4隅に、マーカを付した画像を表示する。   FIG. 5 illustrates a case where a conversion matrix is calculated between adjacent projectors A and B. In order to calculate the transformation matrix, four or more sets of corresponding points between the projector A and the projector B are used. In order to obtain the corresponding points, images with markers are displayed at the four corners of the region where the projection surfaces of the projector A and the projector B overlap.

例えば、プロジェクタAの座標系をxyとして表す。なお、「x」はプロジェクタAの水平座標であり、「y」はプロジェクタBの垂直座標である。同様に、プロジェクタBの座標系をpqとして表す。なお、「p」はプロジェクタBの水平座標であり、「q」はプロジェクタBの垂直座標である。そして、プロジェクタAの座標系におけるマーカ「マーカ1」の座標を(x,y)とし、プロジェクタBの座標系におけるマーカ「マーカ1」の座標を(p,q)として、図5の下方に示した数式により変換行列「H21」を算出する。このような対応点を4組(「マーカ1」、「マーカ2」、「マーカ3」、「マーカ4」)以上利用し、それぞれ変換行列を算出する。 For example, the coordinate system of the projector A is expressed as xy. “X” is the horizontal coordinate of projector A, and “y” is the vertical coordinate of projector B. Similarly, the coordinate system of the projector B is expressed as pq. “P” is the horizontal coordinate of projector B, and “q” is the vertical coordinate of projector B. Then, the coordinates of the marker “marker 1” in the coordinate system of the projector A are (x 1 , y 1 ), and the coordinates of the marker “marker 1” in the coordinate system of the projector B are (p 1 , q 1 ). The transformation matrix “H 21 ” is calculated by the mathematical formula shown below. Using four or more sets of such corresponding points (“marker 1”, “marker 2”, “marker 3”, “marker 4”), a transformation matrix is calculated.

[座標変換処理シーケンス]
次に、図6を用いて、実施の形態1に係る座標変換処理について説明する。図6は、実施の形態1に係る座標変換処理の流れの例を示すシーケンス図である。
[Coordinate transformation processing sequence]
Next, the coordinate conversion process according to the first embodiment will be described with reference to FIG. FIG. 6 is a sequence diagram illustrating an example of the flow of coordinate conversion processing according to the first embodiment.

図6に示すように、カメラ制御部131は、プロジェクタ10によって投影されたコンテンツ画像(投影画像)全体を撮影するために撮影モジュール110を制御する(ステップS101)。そして、カメラ制御部131は、撮影により得られたカメラ画像をカメラ画像記憶部132に保存する(ステップS102)。座標変換部143は、カメラ画像記憶部132に保存されたカメラ画像を取得し、各マーカの座標を利用して変換行列を算出する(ステップS103)。   As shown in FIG. 6, the camera control unit 131 controls the photographing module 110 to photograph the entire content image (projected image) projected by the projector 10 (step S101). And the camera control part 131 preserve | saves the camera image obtained by imaging | photography in the camera image storage part 132 (step S102). The coordinate conversion unit 143 acquires the camera image stored in the camera image storage unit 132, and calculates a conversion matrix using the coordinates of each marker (step S103).

[ボタン位置検出処理シーケンス]
次に、図7を用いて、実施の形態1に係るボタン位置検出処理について説明する。図7は、実施の形態1に係るボタン位置検出処理の流れの例を示すシーケンス図である。
[Button position detection processing sequence]
Next, the button position detection process according to the first embodiment will be described with reference to FIG. FIG. 7 is a sequence diagram illustrating an example of a flow of button position detection processing according to the first embodiment.

図7に示すように、カメラ制御部131は、プロジェクタ10によって投影されたコンテンツ画像(投影画像)全体を撮影するために撮影モジュール110を制御する(ステップS201)。そして、カメラ制御部131は、撮影により得られたカメラ画像をカメラ画像記憶部132に保存する(ステップS202)。ボタン画像認識部134は、カメラ画像記憶部132に保存されたカメラ画像を取得する(ステップS203,ステップS204)。   As shown in FIG. 7, the camera control unit 131 controls the photographing module 110 to photograph the entire content image (projected image) projected by the projector 10 (step S201). And the camera control part 131 preserve | saves the camera image obtained by imaging | photography in the camera image memory | storage part 132 (step S202). The button image recognition unit 134 acquires a camera image stored in the camera image storage unit 132 (steps S203 and S204).

そして、ボタン画像認識部134は、取得したカメラ画像において、予め記憶しているボタン画像と一致する画像を探索する(ステップS205)。なお、ボタン画像は予め記憶されたものを利用せずに、ユーザが登録したボタン画像を外部から取得して利用しても良い。ボタン画像位置算出部135は、ボタン画像認識部134によって探索された、カメラ画像に含まれるボタン画像について、コンテンツ画像(投影画像)全体に対する4隅座標を算出する(ステップS206)。そして、ボタン画像位置算出部135は、算出したボタン画像の4隅座標をボタンリスト記憶部142に登録する(ステップS207)。なお、ボタン画像位置算出部135は、複数のボタン画像が探索された場合には各ボタン画像についての4隅座標を算出し、ボタンリスト記憶部142に登録する。   Then, the button image recognition unit 134 searches for an image that matches the previously stored button image in the acquired camera image (step S205). Note that the button image registered by the user may be acquired from the outside and used without using the button image stored in advance. The button image position calculation unit 135 calculates the four corner coordinates for the entire content image (projected image) for the button image included in the camera image searched by the button image recognition unit 134 (step S206). Then, the button image position calculation unit 135 registers the calculated four corner coordinates of the button image in the button list storage unit 142 (step S207). When a plurality of button images are searched, the button image position calculation unit 135 calculates four corner coordinates for each button image and registers them in the button list storage unit 142.

[コンテンツ画像(投影画像)全体の撮影]
次に、図8を用いて、実施の形態1に係るコンテンツ画像(投影画像)全体を撮影する処理について説明する。図8は、実施の形態1に係るコンテンツ画像(投影画像)全体を撮影する処理の例を説明する図である。コンテンツ画像(投影画像)全体の撮影は、プロジェクタ10の電源が投入されたときや、投影されるコンテンツ画像(投影画像)が切り替わったとき等に行なわれる。また、図8上段の左方は、特にカメラの方向を制御していないデフォルトの状態を表している。図8上段の左方に示すように、撮像領域3(カメラ画角)は、ボタン画像2が配置された投影画像1(コンテンツ画像)よりも小さい。
[Shooting the entire content image (projected image)]
Next, processing for capturing the entire content image (projected image) according to Embodiment 1 will be described with reference to FIG. FIG. 8 is a diagram for explaining an example of processing for capturing the entire content image (projected image) according to the first embodiment. The entire content image (projected image) is taken when the projector 10 is turned on or when the projected content image (projected image) is switched. Further, the left side of the upper part of FIG. 8 represents a default state in which the camera direction is not particularly controlled. As shown on the left in the upper part of FIG. 8, the imaging region 3 (camera angle of view) is smaller than the projected image 1 (content image) on which the button image 2 is arranged.

カメラ制御部131は、撮像領域3を投影画像1の左上方向に移動させるように、撮影モジュール110を制御することによりカメラの向きを制御する。撮影モジュール110は、投影画像1の左上の頂点座標を検出する。そして、カメラ制御部131は、検出された投影画像1の左上の頂点座標に、撮像領域3の左上の頂点が重なるように、撮影モジュール110を制御する。撮影モジュール110は、図8上段の右方に示すように、投影画像1の左上の頂点座標に、撮像領域3の左上の頂点が重なるように、撮像領域3を移動し、このときの撮像領域3を撮影してカメラ画像を生成する。生成されたカメラ画像は、カメラ画像記憶部132に保存される。   The camera control unit 131 controls the orientation of the camera by controlling the photographing module 110 so as to move the imaging region 3 in the upper left direction of the projection image 1. The imaging module 110 detects the top left vertex coordinate of the projection image 1. Then, the camera control unit 131 controls the imaging module 110 so that the upper left vertex of the imaging region 3 overlaps the upper left vertex coordinate of the detected projection image 1. The imaging module 110 moves the imaging area 3 so that the upper left vertex of the imaging area 3 overlaps the upper left vertex coordinates of the projection image 1 as shown in the upper right part of FIG. 3 is photographed to generate a camera image. The generated camera image is stored in the camera image storage unit 132.

その後、カメラ制御部131は、図3中段の右方、図3中段の左方及び図3下段の左方に示すように、撮像領域3の右上の頂点座標に新たな撮像領域3の左上の頂点座標が重なるように、撮影モジュール110を制御していき、都度、撮像領域3を撮影してカメラ画像を生成する。ここでも同様に、生成されたカメラ画像は、カメラ画像記憶部132に保存される。   Thereafter, the camera control unit 131 sets the upper left corner of the new imaging area 3 at the vertex coordinates on the upper right of the imaging area 3 as shown in the right side of the middle stage of FIG. 3, the left side of the middle stage of FIG. The imaging module 110 is controlled so that the vertex coordinates overlap each other, and each time the imaging area 3 is captured, a camera image is generated. Here again, the generated camera image is stored in the camera image storage unit 132.

カメラ制御部131は、上記のような処理を、投影画像1の全ての頂点座標がカメラ画像に映るまで繰り返し実行する。そして、図8下段の左方に示す矢印の順序で投影画像1の撮影が行なわれることにより、投影画像1全体の撮影が完了する。投影画像1全体の撮影が完了したときには、投影画像1全体を網羅するカメラ画像がカメラ画像記憶部132に保存されることになる。また、図8下段の右方に示すように、カメラ制御部131は、投影画像1全体の撮影が完了すると、撮像領域3の位置をデフォルトの状態へ戻すように、撮影モジュール110を制御する。   The camera control unit 131 repeatedly executes the above processing until all the vertex coordinates of the projection image 1 appear in the camera image. Then, the projection image 1 is shot in the order of the arrows shown on the left in the lower part of FIG. When shooting of the entire projection image 1 is completed, a camera image that covers the entire projection image 1 is stored in the camera image storage unit 132. Further, as shown on the right side in the lower part of FIG. 8, the camera control unit 131 controls the imaging module 110 to return the position of the imaging region 3 to the default state when the imaging of the entire projection image 1 is completed.

[支援要請処理シーケンス]
次に、図9を用いて、実施の形態1に係る支援要請処理について説明する。図9は、実施の形態1に係る支援要請処理の流れの例を示すシーケンス図である。なお、図9では、プロジェクタAがプロジェクタBに対して支援要請を行なう場合を例に挙げる。
[Support request processing sequence]
Next, the support request process according to the first embodiment will be described with reference to FIG. FIG. 9 is a sequence diagram illustrating an example of the flow of the support request process according to the first embodiment. In FIG. 9, a case where projector A makes a support request to projector B is taken as an example.

図9に示すように、プロジェクタAにおいて、判定部141は、ボタンリスト記憶部142を参照し(ステップS301)、ボタンリストの情報を取得して、ボタン画像の個数を把握する(ステップS302)。そして、判定部141は、ボタン画像の個数をもとに、隣接するプロジェクタBに支援を要請するか否かを判定する(ステップS303)。ここで、隣接するプロジェクタBに支援を要請すると判定したものとし、判定部141は、支援要請部144に対して支援の要請を要求する(ステップS304)。これにより、支援要請部144は、隣接するプロジェクタBに対して、支援が可能かを問い合わせる(ステップS305)。   As shown in FIG. 9, in the projector A, the determination unit 141 refers to the button list storage unit 142 (step S301), acquires information on the button list, and grasps the number of button images (step S302). Then, the determination unit 141 determines whether to request support from the adjacent projector B based on the number of button images (step S303). Here, it is assumed that it is determined that the adjacent projector B requests support, and the determination unit 141 requests the support request unit 144 to request support (step S304). Accordingly, the support request unit 144 inquires of the adjacent projector B whether support is possible (step S305).

プロジェクタBにおいて、支援受付部145は、プロジェクタAからの支援要請を受け付けて、支援要請に対する回答をプロジェクタAに対して応答する(ステップS306)。ここで、支援が可能である旨の回答を得られたものとし、プロジェクタAにおいて、支援要請部144は、プロジェクタBから支援が可能である旨の回答を受け付けたことを判定部141に対して通知する(ステップS307)。判定部141は、支援が可能であることから、どのボタン画像をどのカメラに捕捉させるかを判定する(ステップS308)。   In the projector B, the support reception unit 145 receives the support request from the projector A, and returns a response to the support request to the projector A (step S306). Here, it is assumed that a response indicating that support is possible is obtained, and in projector A, support request unit 144 determines that the response indicating that support is possible is received from projector B to determination unit 141. Notification is made (step S307). The determination unit 141 determines which button image is to be captured by which camera because support is possible (step S308).

そして、判定部141は、隣接するプロジェクタBのプロジェクタ番号(識別情報)と、捕捉させるボタン画像の座標とを支援要請部144に対して通知する(ステップS309)。支援要請部144は、プロジェクタBのプロジェクタ番号と、ボタン画像の座標とを座標変換部143に通知し、座標変換を要求する(ステップS310)。座標変換部143は、座標変換を行ない、変換後のボタン画像の座標を支援要請部144に対して通知する(ステップS311)。支援要請部144は、プロジェクタBに対して、変換後のボタン画像の座標を隣接するプロジェクタBに対して送信する(ステップS312)。また、判定部141は、支援を依頼しなかったボタン画像の座標をカメラ動作位置決定部136に通知し、カメラ動作位置決定部136によってボタン画像の座標に向けてカメラの制御が行なわれる(ステップS313)。なお、プロジェクタBにおいても、変換後のボタン画像の座標をもとに、カメラの制御が行なわれることで、支援によるボタン画像の捕捉が実現する。   Then, the determination unit 141 notifies the support request unit 144 of the projector number (identification information) of the adjacent projector B and the coordinates of the button image to be captured (step S309). The support request unit 144 notifies the coordinate conversion unit 143 of the projector number of the projector B and the coordinates of the button image, and requests coordinate conversion (step S310). The coordinate conversion unit 143 performs coordinate conversion and notifies the support request unit 144 of the coordinates of the converted button image (step S311). The support request unit 144 transmits the converted button image coordinates to the projector B to the projector B (step S312). Further, the determination unit 141 notifies the camera operation position determination unit 136 of the coordinates of the button image for which no support has been requested, and the camera operation position determination unit 136 controls the camera toward the coordinates of the button image (step) S313). Also in the projector B, the capture of the button image with assistance is realized by controlling the camera based on the coordinates of the converted button image.

[支援要請の判定フロー]
次に、図10を用いて、実施の形態1に係る支援要請の判定処理の流れについて説明する。図10は、実施の形態1に係る支援要請の判定処理の流れの例を示すフローチャートである。なお、図10に示す判定処理とは、図9に示したステップS303における処理の詳細を表す。
[Support Request Judgment Flow]
Next, with reference to FIG. 10, the flow of the support request determination process according to the first embodiment will be described. FIG. 10 is a flowchart showing an example of a flow of support request determination processing according to the first embodiment. In addition, the determination process shown in FIG. 10 represents the detail of the process in step S303 shown in FIG.

図10に示すように、判定部141は、ボタン画像が複数検出された場合に(ステップS401:Yes)、隣接するプロジェクタが複数存在するか否かを判定する(ステップS402)。このとき、判定部141は、隣接するプロジェクタが複数存在する場合に(ステップS402:Yes)、隣接する複数のプロジェクタに支援要請を行なうことを決定する(ステップS403)。   As shown in FIG. 10, when a plurality of button images are detected (step S401: Yes), the determination unit 141 determines whether there are a plurality of adjacent projectors (step S402). At this time, if there are a plurality of adjacent projectors (step S402: Yes), the determination unit 141 determines to make a support request to the plurality of adjacent projectors (step S403).

一方、判定部141は、隣接するプロジェクタが1台のみ存在する場合に(ステップS402:No)、この隣接するプロジェクタに支援要請を行なうことを決定する(ステップS404)。すなわち、マルチ投影においては、少なくとも1台は隣接するプロジェクタが存在する。また、判定部141は、ボタン画像が0個又は1個だけ検出された場合に(ステップS401:No)、自身のプロジェクタで捕捉できるため、支援要請を行なわないことを決定する(ステップS405)。   On the other hand, when there is only one adjacent projector (step S402: No), the determination unit 141 determines to make a support request to the adjacent projector (step S404). That is, in multi-projection, at least one projector is adjacent to the projector. In addition, when only one or one button image is detected (step S401: No), the determination unit 141 determines that no support request is to be made because it can be captured by its own projector (step S405).

なお、図10に示した例では、カメラ画角内に1つのボタン画像が収まる場合を説明したが、カメラ画角に複数のボタン画像が収まる場合であっても本実施の形態を適用することができる。例えば、コンテンツ画像全体の撮影(スキャン)により、ボタン画像の座標を求めているので、該座標とカメラ画角の大きさとをもとに、ステップS401の処理に加えて、カメラ画角内にボタン画像が収まるか否かについても判定すれば良い。カメラ画角内に複数のボタン画像が収まり、カメラ画角内に収まるボタン画像の数を除いて、さらに複数のボタン画像が存在する場合には、隣接するプロジェクタに支援要請を行なえば良い。一方、カメラ画角内に複数のボタン画像が収まり、その他のボタン画像が存在しない場合には、隣接するプロジェクタに支援要請を行なわなくて良い。   In the example shown in FIG. 10, the case where one button image fits within the camera angle of view has been described, but the present embodiment is applied even when a plurality of button images fit within the camera angle of view. Can do. For example, since the coordinates of the button image are obtained by photographing (scanning) the entire content image, the button within the camera angle of view is added to the processing in step S401 based on the coordinates and the size of the camera angle of view. It may be determined whether or not the image fits. When a plurality of button images are included in the camera angle of view and there are a plurality of button images except for the number of button images that are included in the camera angle of view, a support request may be made to an adjacent projector. On the other hand, when a plurality of button images are accommodated within the camera angle of view and no other button images exist, it is not necessary to make a support request to an adjacent projector.

[捕捉するボタン画像の決定フロー]
次に、図11を用いて、実施の形態1に係る捕捉するボタン画像の決定処理の流れについて説明する。図11は、実施の形態1に係る捕捉するボタン画像の決定処理の流れの例を示すフローチャートである。なお、図11に示す決定処理とは、図9に示したステップS308における処理の詳細を表す。以下では、検出されたボタン画像の個数が2個である場合を例に挙げる。
[Determination flow of button image to be captured]
Next, the flow of the determination process of the button image to be captured according to the first embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a flow of determining a captured button image according to the first embodiment. The determination process shown in FIG. 11 represents details of the process in step S308 shown in FIG. Hereinafter, a case where the number of detected button images is two will be described as an example.

図11に示すように、判定部141は、自身のプロジェクタに対して、左方向に隣接するプロジェクタからの回答が支援可能であるか否かを判定する(ステップS501)。そして、判定部141は、左方向に隣接するプロジェクタからの回答が支援可能でない場合に(ステップS501:No)、右方向に隣接するプロジェクタからの回答が支援可能であるか否かを判定する(ステップS502)。このとき、判定部141は、右方向に隣接するプロジェクタからの回答が支援可能でない場合に(ステップS502:No)、予め決定された優先度に従い、自身が捕捉するボタン画像を決定する(ステップS503)。   As illustrated in FIG. 11, the determination unit 141 determines whether or not an answer from a projector adjacent in the left direction can be supported with respect to its own projector (step S501). Then, when the answer from the projector adjacent in the left direction cannot be supported (step S501: No), the determination unit 141 determines whether the answer from the projector adjacent in the right direction can be supported (step S501: No). Step S502). At this time, when the answer from the projector adjacent in the right direction cannot be supported (step S502: No), the determination unit 141 determines the button image that the self captures according to the predetermined priority (step S503). ).

また、判定部141は、右方向に隣接するプロジェクタからの回答が支援可能である場合に(ステップS502:Yes)、コンテンツ画像での配置において、右側のボタン画像を右方向に隣接するプロジェクタに捕捉させ、左側のボタン画像を自身で捕捉することを決定する(ステップS504)。また、判定部141は、左方向に隣接するプロジェクタからの回答が支援可能である場合に(ステップS501:Yes)、コンテンツ画像での配置において、左側のボタン画像を左方向に隣接するプロジェクタに捕捉させ、右側のボタン画像を自身で捕捉することを決定する(ステップS505)。   In addition, when the answer from the projector adjacent in the right direction can be supported (step S502: Yes), the determination unit 141 captures the right button image in the projector adjacent in the right direction in the arrangement in the content image. And determine to capture the left button image by itself (step S504). Further, when the answer from the projector adjacent in the left direction can be supported (step S501: Yes), the determination unit 141 captures the left button image in the projector adjacent in the left direction in the arrangement of the content image. And determine to capture the right button image by itself (step S505).

[座標変換の例]
次に、図12を用いて、実施の形態1に係る隣接するプロジェクタに支援を依頼する際の座標変換について説明する。図12は、実施の形態1に係る隣接するプロジェクタに支援を依頼する際の座標変換の例を説明する図である。図12では、2台のプロジェクタによってマルチ投影を行ない、プロジェクタBの投影面上にボタン画像が2つ配置されていることから、プロジェクタAに「ボタン1」の捕捉を支援してもらう状況を例に挙げる。
[Example of coordinate transformation]
Next, with reference to FIG. 12, coordinate conversion when requesting assistance from an adjacent projector according to the first embodiment will be described. FIG. 12 is a diagram for explaining an example of coordinate conversion when requesting support from an adjacent projector according to the first embodiment. FIG. 12 shows an example of a situation in which multi-projection is performed by two projectors and two button images are arranged on the projection surface of projector B, so that projector A assists in capturing “button 1”. To

図12に示すように、実線はプロジェクタAの投影面を表しており、破線はプロジェクタBの投影面を表している。また、プロジェクタBの座標系において、「ボタン1」の座標は(30,25)である。この「ボタン1」の座標について、プロジェクタAの座標系に変換するために変換行列を用いる。変換の結果として、プロジェクタAの座標系において、「ボタン1」の座標は(50,25)となる。これにより、プロジェクタAは、座標(50,25)に向けてカメラの向きを制御することにより、「ボタン1」を撮影する。   As shown in FIG. 12, the solid line represents the projection plane of projector A, and the broken line represents the projection plane of projector B. In the coordinate system of the projector B, the coordinates of “button 1” are (30, 25). A conversion matrix is used to convert the coordinates of the “button 1” into the coordinate system of the projector A. As a result of the conversion, the coordinates of “button 1” in the coordinate system of projector A are (50, 25). Thereby, the projector A captures “button 1” by controlling the direction of the camera toward the coordinates (50, 25).

なお、プロジェクタAの投影面上に配置されたボタン画像をプロジェクタBが支援する場合には、プロジェクタBの座標系において、支援するボタン画像のx座標が負で表現されることも有り得る。また、上記の例では、説明の簡略化のために、ボタン画像の中心位置(重心)の座標を変換した場合を説明したが、実際にはボタン画像の4隅座標それぞれについて変換処理を行なう。   When the projector B supports the button image arranged on the projection surface of the projector A, the x coordinate of the supporting button image may be expressed as negative in the projector B coordinate system. In the above example, for the sake of simplicity, the case where the coordinates of the center position (center of gravity) of the button image is converted has been described, but actually, the conversion processing is performed for each of the four corner coordinates of the button image.

[カメラ動作の移動先の位置決定フロー]
次に、図13を用いて、実施の形態1に係るカメラ動作の移動先の位置決定処理について説明する。図13は、実施の形態1に係るカメラ動作の移動先の位置決定処理の流れの例を示すフローチャートである。図13に示す位置決定処理は、ボタン画像位置算出部135にてボタン画像の4隅座標が算出され、撮像領域位置算出部133にてカメラ画角の4隅座標が算出された場合に開始される。
[Camera movement destination position determination flow]
Next, with reference to FIG. 13, the position determination process of the movement destination of the camera operation according to the first embodiment will be described. FIG. 13 is a flowchart illustrating an example of the flow of the position determination process of the movement destination of the camera operation according to the first embodiment. The position determination process illustrated in FIG. 13 is started when the button image position calculation unit 135 calculates the four corner coordinates of the button image and the imaging region position calculation unit 133 calculates the four corner coordinates of the camera field angle. The

図13に示すように、カメラ動作位置決定部136は、ボタン画像の4隅座標を取得する(ステップS601)。また、カメラ動作位置決定部136は、カメラ画角の4隅座標を取得する(ステップS602)。そして、カメラ動作位置決定部136は、ボタン画像の4隅座標が、全てカメラ画角の4隅座標内にあるか否かを判定する(ステップS603)。   As illustrated in FIG. 13, the camera operation position determination unit 136 acquires the four corner coordinates of the button image (step S601). In addition, the camera operation position determination unit 136 acquires the four corner coordinates of the camera angle of view (step S602). Then, the camera operation position determination unit 136 determines whether or not all the four corner coordinates of the button image are within the four corner coordinates of the camera angle of view (step S603).

このとき、カメラ動作位置決定部136は、ボタン画像の4隅座標が、全てカメラ画角の4隅座標内にない場合に(ステップS603:No)、ボタン画像の座標の中点座標(重心)を算出する(ステップS604)。また、カメラ動作位置決定部136は、カメラ画角の座標の中点座標(重心)を算出する(ステップS605)。そして、カメラ動作位置決定部136は、ボタン画像の中点座標と、カメラ画角の中点座標との距離を算出する(ステップS606)。ここで算出された距離は、カメラによる撮像領域の移動量となる。これらにより、カメラ動作位置決定部136は、算出した距離を、カメラ動作の移動先の位置として決定する(ステップS607)。一方、カメラ動作位置決定部136は、ボタン画像の4隅座標が、全てカメラ画角の4隅座標内にある場合に(ステップS603:Yes)、特にカメラ動作をさせなくて良いため、撮像領域を移動させないことを決定する(ステップS608)。   At this time, when all the four corner coordinates of the button image are not within the four corner coordinates of the camera angle of view (step S603: No), the camera operation position determination unit 136 determines the center point coordinates (center of gravity) of the button image coordinates. Is calculated (step S604). Further, the camera operation position determination unit 136 calculates the midpoint coordinates (center of gravity) of the coordinates of the camera angle of view (step S605). Then, the camera operation position determination unit 136 calculates the distance between the midpoint coordinates of the button image and the midpoint coordinates of the camera angle of view (step S606). The distance calculated here is the amount of movement of the imaging area by the camera. As a result, the camera operation position determination unit 136 determines the calculated distance as the position of the movement destination of the camera operation (step S607). On the other hand, when the four corner coordinates of the button image are all within the four corner coordinates of the camera angle of view (step S603: Yes), the camera operation position determination unit 136 does not have to perform the camera operation. Is determined not to move (step S608).

ここで、図13に示したステップS603における処理の一例を説明する。以下のように、各頂点座標について比較すれば良い。   Here, an example of the process in step S603 illustrated in FIG. 13 will be described. What is necessary is just to compare about each vertex coordinate as follows.

左下の頂点座標の比較。
「ボタン画像の左下の頂点のx座標<カメラ画角の左下の頂点のx座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「カメラ画角の左下の頂点のx座標<=ボタン画像の左下の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「ボタン画像の左下の頂点のy座標<カメラ画角の左下の頂点のy座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「カメラ画角の左下の頂点のy座標<=ボタン画像の左下の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Comparison of the lower left vertex coordinates.
If “the x coordinate of the lower left vertex of the button image <the x coordinate of the lower left vertex of the camera angle of view”, the button image is not included in the current camera angle of view.
If “x coordinate of lower left vertex of camera angle of view <= x coordinate of lower left vertex of button image” cannot be determined, the following comparison is performed.
If “y coordinate of the lower left vertex of the button image <y coordinate of the lower left vertex of the camera angle of view”, the button image is not included in the current camera angle of view.
If “y coordinate of the lower left vertex of the camera angle of view <= y coordinate of the lower left vertex of the button image” cannot be determined, the following comparison is performed.

左上の頂点座標の比較。
「ボタン画像の左上の頂点のx座標<カメラ画角の左上の頂点のx座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「カメラ画角の左上の頂点のx座標<=ボタン画像の左上の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「カメラ画角の左上の頂点のy座標<ボタン画像の左上の頂点のy座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「ボタン画像の左上の頂点のy座標<=カメラ画角の左上の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Top left vertex coordinate comparison.
If “the x coordinate of the upper left vertex of the button image <the x coordinate of the upper left vertex of the camera angle of view”, the button image is not included in the current camera angle of view.
If “x coordinate of upper left vertex of camera angle of view <= x coordinate of upper left vertex of button image” cannot be determined, the following comparison is performed.
If “y coordinate of upper left vertex of camera view angle <y coordinate of upper left vertex of button image”, the button image is not included in the current camera view angle.
If “y coordinate of the upper left vertex of the button image <= y coordinate of the upper left vertex of the camera field angle” cannot be determined, the following comparison is performed.

右下の頂点座標の比較。
「カメラ画角の右下の頂点のx座標<ボタン画像の右下の頂点のx座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「ボタン画像の右下の頂点のx座標<=カメラ画角の右下の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「ボタン画像の右下の頂点のy座標<カメラ画角の右下の頂点のy座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「カメラ画角の右下の頂点のy座標<=ボタン画像の右下の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Comparison of the lower right vertex coordinates.
If “the x coordinate of the lower right vertex of the camera field angle <the x coordinate of the lower right vertex of the button image”, the button image is not included in the current camera field angle.
If “the x coordinate of the lower right vertex of the button image <= the x coordinate of the lower right vertex of the camera field angle” cannot be determined, the following comparison is performed.
If “y coordinate of the lower right vertex of the button image <y coordinate of the lower right vertex of the camera angle of view”, the button image is not included in the current camera angle of view.
If “y coordinate of the lower right vertex of the camera angle of view <= y coordinate of the lower right vertex of the button image” cannot be determined, the following comparison is performed.

右上の頂点座標の比較。
「カメラ画角の右上の頂点のx座標<ボタン画像の右上の頂点のx座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「ボタン画像の右上の頂点のx座標<=カメラ画角の右上の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「カメラ画角の右上の頂点のy座標<ボタン画像の右上の頂点のy座標」であれば、現在のカメラ画角内にボタン画像が包含されていないことになる。
「ボタン画像の右上の頂点のy座標<=カメラ画角の右上の頂点のy座標」であれば、現在のカメラ画角内にボタン画像が包含されていることになる。
Top right vertex coordinate comparison.
If “the x coordinate of the upper right vertex of the camera view angle <the x coordinate of the upper right vertex of the button image”, the button image is not included in the current camera view angle.
If “x coordinate of upper right vertex of button image <= x coordinate of upper right vertex of camera angle of view” cannot be determined, the following comparison is performed.
If “y coordinate of upper right vertex of camera view angle <y coordinate of upper right vertex of button image”, the button image is not included in the current camera view angle.
If “y coordinate of the upper right vertex of the button image <= y coordinate of the upper right vertex of the camera angle of view”, the button image is included in the current camera angle of view.

ここで、ステップS604〜ステップS607における処理の一例を説明する。以下のように、各頂点座標からx方向とy方向との中点をそれぞれ求めることにより重心となる中点座標を求め、求めた中点座標間を移動するための値を算出する。   Here, an example of processing in steps S604 to S607 will be described. As described below, the midpoint coordinates serving as the center of gravity are obtained by obtaining the midpoints in the x direction and the y direction from the respective vertex coordinates, and a value for moving between the obtained midpoint coordinates is calculated.

ボタン画像の中点座標。
「x座標=
(ボタン画像の左下の頂点のx座標+ボタン画像の右上の頂点のx座標)÷2」
「y座標=
(ボタン画像の左下の頂点のy座標+ボタン画像の右上の頂点のy座標)÷2」
The midpoint coordinates of the button image.
"X coordinate =
(X coordinate of lower left vertex of button image + x coordinate of upper right vertex of button image) / 2
"Y coordinate =
(Y coordinate of the lower left vertex of the button image + y coordinate of the upper right vertex of the button image) / 2 ”

現在のカメラ画角の中点座標。
「x座標=
(カメラ画角の左下の頂点のx座標+カメラ画角の右上の頂点のx座標)÷2」
「y座標=
(カメラ画角の左下の頂点のy座標+カメラ画角の右上の頂点のy座標)÷2」
The midpoint coordinates of the current camera angle of view.
"X coordinate =
(X coordinate of the lower left vertex of the camera angle of view + x coordinate of the upper right vertex of the camera angle of view) / 2
"Y coordinate =
(Y coordinate of the lower left vertex of the camera angle of view + y coordinate of the upper right vertex of the camera angle of view) ÷ 2 ”

算出される距離(移動量)。
「x座標=
ボタン画像の中点座標のx座標−現在のカメラ画角の中点座標のx座標」
「y座標=
ボタン画像の中点座標のy座標−現在のカメラ画角の中点座標のy座標」
Calculated distance (movement amount).
"X coordinate =
X coordinate of midpoint coordinates of button image-x coordinate of midpoint coordinates of current camera angle of view "
"Y coordinate =
Button image midpoint coordinate y coordinate-current camera angle of view midpoint coordinate y "

[カメラ動作の移動先の具体例]
次に、図14を用いて、実施の形態1に係るカメラ動作の移動先について説明する。図14は、実施の形態1に係るカメラ動作の移動先の具体例を説明する図である。
[Specific examples of camera movement destinations]
Next, the movement destination of the camera operation according to the first embodiment will be described with reference to FIG. FIG. 14 is a diagram for explaining a specific example of the movement destination of the camera operation according to the first embodiment.

図14上段に示した例において、ボタン画像2の各頂点座標は、(1,9)、(1,11)、(5,9)、(5,11)である。同様に、撮像領域3(カメラ画角)の各頂点座標は、(6,4)、(6,8)、(12,4)、(12,8)である。投影画像1(コンテンツ画像)は、上記の各頂点を有するボタン画像2と撮像領域3とを含んでいる。   In the example shown in the upper part of FIG. 14, the vertex coordinates of the button image 2 are (1, 9), (1, 11), (5, 9), and (5, 11). Similarly, the vertex coordinates of the imaging region 3 (camera field angle) are (6, 4), (6, 8), (12, 4), and (12, 8). The projection image 1 (content image) includes the button image 2 and the imaging region 3 having the above-described vertices.

上述した状態において、カメラ動作位置決定部136は、撮像領域3の各頂点座標から、現在の撮像領域3の重心となる中点座標(9,6)を算出する。図14において、撮像領域3の中点座標は、黒四角で表している。また、カメラ動作位置決定部136は、ボタン画像2の各頂点座標から、ボタン画像2の重心となる中点座標(3,10)を算出する。図14において、ボタン画像2の中点座標は、黒丸で表している。   In the state described above, the camera operation position determination unit 136 calculates the midpoint coordinates (9, 6) that are the center of gravity of the current imaging region 3 from the vertex coordinates of the imaging region 3. In FIG. 14, the midpoint coordinates of the imaging region 3 are represented by black squares. In addition, the camera operation position determination unit 136 calculates the midpoint coordinates (3, 10) serving as the center of gravity of the button image 2 from the vertex coordinates of the button image 2. In FIG. 14, the midpoint coordinates of the button image 2 are represented by black circles.

そして、カメラ動作位置決定部136は、現在の撮像領域3の中点座標(9,6)から、ボタン画像2の中点座標(3,10)への移動量を算出する。かかる移動量の算出では、「x方向=3−9=−6」、「y方向=10−6=+4」となるので、現在の撮像領域3をx方向に「−6」移動させ、y方向に「+4」移動させる移動量「(−6,+4)」が得られる。カメラ動作位置決定部136は、現在の撮像領域3をx方向に「−6」移動させ、y方向に「+4」移動させるための移動量「(−6,+4)」を決定する。これらにより、図14下段に示すように、ボタン画像2の中点座標となる座標に、撮像領域3の中点座標となる座標が重なった移動結果が得られる。   Then, the camera operation position determination unit 136 calculates the amount of movement from the midpoint coordinates (9, 6) of the current imaging region 3 to the midpoint coordinates (3, 10) of the button image 2. In the calculation of the movement amount, since “x direction = 3-9 = −6” and “y direction = 10−6 = + 4”, the current imaging region 3 is moved “−6” in the x direction, and y A movement amount “(−6, +4)” to be moved “+4” in the direction is obtained. The camera operation position determination unit 136 determines a movement amount “(−6, +4)” for moving the current imaging region 3 “−6” in the x direction and “+4” in the y direction. As a result, as shown in the lower part of FIG. 14, a movement result is obtained in which the coordinates that are the midpoint coordinates of the image area 3 overlap the coordinates that are the midpoint coordinates of the button image 2.

[支援要請に対する回答の判定フロー]
次に、図15を用いて、実施の形態1に係る支援要請に対する回答の判定処理について説明する。図15は、実施の形態1に係る支援要請に対する回答の判定処理の流れの例を示すフローチャートである。
[Judgment flow for response to support request]
Next, with reference to FIG. 15, a determination process for a response to a support request according to the first embodiment will be described. FIG. 15 is a flowchart illustrating an example of a process of determining a response to a support request according to the first embodiment.

図15に示すように、支援受付部145は、隣接するプロジェクタからボタン画像の捕捉の支援要請を受け付ける(ステップS701)。ここで、支援受付部145は、ボタンリスト記憶部142に情報が記憶されているか否かを判定する(ステップS702)。   As illustrated in FIG. 15, the support receiving unit 145 receives a support request for capturing a button image from an adjacent projector (step S701). Here, the support receiving unit 145 determines whether information is stored in the button list storage unit 142 (step S702).

支援受付部145は、ボタンリスト記憶部142に情報が記憶されていない場合に(ステップS702:No)、既に、他の隣接するプロジェクタから支援要請を受け付けているか否かを判定する(ステップS703)。このとき、支援受付部145は、他の隣接するプロジェクタから支援要請を受け付けていない場合に(ステップS703:No)、自身の投影面で捕捉するボタン画像もなく、他の隣接するプロジェクタの支援を行なうこともないため、支援が可能である旨を、支援要請の送信元のプロジェクタに対して回答する(ステップS704)。   If no information is stored in the button list storage unit 142 (step S702: No), the support reception unit 145 determines whether a support request has already been received from another adjacent projector (step S703). . At this time, if the support reception unit 145 has not received a support request from another adjacent projector (step S703: No), there is no button image to be captured on its own projection plane, and the support reception unit 145 supports other adjacent projectors. Since it is not performed, a response indicating that the support is possible is returned to the projector as the support request transmission source (step S704).

一方、支援受付部145は、他の隣接するプロジェクタから支援要請を受け付けている場合に(ステップS703:Yes)、支援要請を保留する旨を、支援要請の送信元のプロジェクタに対して回答する(ステップS705)。すなわち、他の隣接するプロジェクタから支援要請を受け付けていて、変換後の座標待ちであれば、支援要請に対してこれ以上は保留としておく。なお、保留にした後に、送信元のプロジェクタから実際に支援の依頼がなければ、他の隣接するプロジェクタに対して支援が可能である旨を回答すれば良い。また、支援受付部145は、ボタンリスト記憶部142に情報が記憶されている場合に(ステップS702:Yes)、捕捉するボタン画像が既に決定しているため、支援が不可能である旨を、支援要請の送信元のプロジェクタに対して回答する(ステップS706)。   On the other hand, when receiving a support request from another adjacent projector (step S703: Yes), the support receiving unit 145 replies to the projector that transmitted the support request that the support request is suspended (step S703: Yes). Step S705). In other words, if a support request is received from another adjacent projector and the coordinate after conversion is awaited, the support request is put on hold further. If there is no actual request for support from the transmission source projector after the suspension, it may be answered that support can be provided to other adjacent projectors. In addition, when information is stored in the button list storage unit 142 (step S702: Yes), the support reception unit 145 indicates that support is impossible because the button image to be captured has already been determined. A response is made to the projector that is the source of the support request (step S706).

[支援要請に対する回答の具体例(1)]
次に、図16を用いて、支援要請に対して保留する旨の回答が発生する場合のボタン画像の捕捉について説明する。図16は、支援要請に対して保留する旨の回答が発生する場合のボタン画像の捕捉例を説明する図である。
[Specific examples of responses to support requests (1)]
Next, with reference to FIG. 16, the capture of the button image in the case where an answer indicating that the support request is suspended is generated. FIG. 16 is a diagram for explaining an example of capturing a button image when a response indicating suspension is generated in response to a support request.

図16では、プロジェクタA〜プロジェクタEの5台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタAの投影面Aにボタン画像が2個、プロジェクタCの投影面Cにボタン画像が2個、プロジェクタEの投影面Eにボタン画像が1個、それぞれ配置されているものとする。なお、図16の下段の表において、縦軸は時刻の流れを表し、横軸は各プロジェクタの連携関係を表している。   FIG. 16 shows an example in which multi-projection is realized by five projectors A to E. It is assumed that two button images are arranged on the projection surface A of the projector A, two button images are arranged on the projection surface C of the projector C, and one button image is arranged on the projection surface E of the projector E. In the lower table of FIG. 16, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors.

まず、プロジェクタAは、投影面Aに複数のボタン画像が検出されたため、隣接するプロジェクタBに対して支援の要請を行なう。また、プロジェクタCは、投影面Cに複数のボタン画像が検出されたため、隣接するプロジェクタB、プロジェクタDに対して支援の要請を行なう。   First, since a plurality of button images are detected on the projection surface A, the projector A requests the adjacent projector B for assistance. Further, since a plurality of button images are detected on the projection surface C, the projector C requests the adjacent projectors B and D for assistance.

次に、プロジェクタBは、プロジェクタA、プロジェクタCから支援の要請を受け付けたが、この時点ではどちらのプロジェクタの支援を行なえば良いかを判断できないため、プロジェクタA、プロジェクタCそれぞれに対して保留を回答する。なお、支援要請は完全に同一のタイミングで行なわれるわけではないので、あるプロジェクタから支援要請を受け付けたときでも、一定時間待機したうえで回答する。また、プロジェクタDは、プロジェクタCからのみ支援要請を受け付けているため、プロジェクタCに対して支援を行なえる旨を回答する。   Next, although the projector B has received the request for assistance from the projector A and the projector C, it cannot determine which projector should be supported at this time, so the projector A and the projector C are put on hold. To answer. Since the support request is not made at exactly the same timing, even when a support request is received from a certain projector, the response is made after waiting for a certain time. Further, since the projector D has received a support request only from the projector C, the projector D replies that it can support the projector C.

続いて、プロジェクタCは、プロジェクタDからの支援を受けられることがわかったため、プロジェクタBに対する支援要請を解除(キャンセル)する。また、プロジェクタBは、プロジェクタCからの支援要請が解除され、プロジェクタAからの支援要請のみとなったため、プロジェクタAに対して支援を行なえる旨を回答する。なお、プロジェクタAは、再度の支援要請をプロジェクタBに対して行なっているが、所定期間を経過した場合や、支援要請の試行回数に応じて支援要請を停止する。   Subsequently, since it has been found that the projector C can receive support from the projector D, the support request for the projector B is canceled (canceled). Further, since the support request from the projector C is canceled and only the support request from the projector A is received, the projector B replies to the projector A that support can be provided. The projector A makes a request for assistance again to the projector B, but stops the assistance request when a predetermined period has elapsed or according to the number of trials of the assistance request.

[再帰的な支援要請処理フロー]
次に、図17を用いて、再帰的な支援要請処理の流れについて説明する。図17は、再帰的な支援要請処理の流れの例を示すフローチャートである。なお、再帰的な支援要請処理とは、例えば、1台のプロジェクタによる支援では全てのボタン画像の捕捉が実現しない場合に、再帰的に、繰り返し支援要請を行なうことを意味する。
[Recursive support request processing flow]
Next, the flow of recursive support request processing will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of the flow of recursive support request processing. Note that the recursive support request processing means, for example, that repetitive support requests are made recursively when capturing of all button images is not realized by support by a single projector.

図17に示すように、支援受付部145は、プロジェクタn台分から支援要請を受け付ける(ステップS801)。ここで、nは、「n≧1」を満たす自然数である。そして、支援受付部145は、ボタンリスト記憶部142に情報が記憶されているか否かを判定する(ステップS802)。   As shown in FIG. 17, the support receiving unit 145 receives a support request from n projectors (step S801). Here, n is a natural number satisfying “n ≧ 1”. Then, the support receiving unit 145 determines whether information is stored in the button list storage unit 142 (step S802).

支援受付部145は、ボタンリスト記憶部142に情報が記憶されていない場合に(ステップS802:No)、n=1であるか否かを判定する(ステップS803)。なお、ボタンリスト記憶部142に情報が記憶されていないということは、現状、捕捉するボタン画像が存在しないことを意味する。このとき、支援受付部145は、n=1でない場合に(ステップS803:No)、自身の支援だけでは全てのボタン画像を捕捉しきれないため、n−1台分の支援を隣接するプロジェクタに要請する(ステップS804)。   If no information is stored in the button list storage unit 142 (step S802: No), the support reception unit 145 determines whether n = 1 (step S803). Note that the fact that no information is stored in the button list storage unit 142 means that there is no button image to be captured at present. At this time, when n = 1 is not satisfied (step S803: No), the support receiving unit 145 cannot capture all button images only with its own support. A request is made (step S804).

支援受付部145は、隣接するプロジェクタから支援が可能である旨の回答を受け付けていない場合に(ステップS805:No)、全てのボタン画像を捕捉することはできないが、回答で得られた台数+1(+1は、自身の支援)の支援が可能である旨を、支援要請元のプロジェクタに回答する(ステップS806)。また、支援受付部145は、n=1である場合に(ステップS803:Yes)、自身の支援だけでボタン画像を捕捉することが可能であるため、支援可能である旨を、支援要請元のプロジェクタに回答する(ステップS807)。また、支援受付部145は、隣接するプロジェクタから支援が可能である旨の回答を受け付けた場合に(ステップS805:Yes)、全てのボタン画像を捕捉することができるため、支援可能である旨を、支援要請元のプロジェクタに回答する(ステップS807)。   When the support reception unit 145 has not received a response indicating that support is possible from an adjacent projector (step S805: No), it cannot capture all the button images, but the number obtained by the response + 1 A response to the projector as the support request source is returned to the effect that support of (+1 is own support) is possible (step S806). Further, when n = 1 (step S803: Yes), the support reception unit 145 can capture the button image only with its own support. A response is made to the projector (step S807). Further, when the support reception unit 145 receives an answer indicating that support is possible from an adjacent projector (step S805: Yes), all the button images can be captured, so that support is possible. Then, a response is made to the projector that requested the support (step S807).

また、支援受付部145は、ボタンリスト記憶部142に情報が記憶されている場合に(ステップS802:Yes)、自身は支援できないため、n台分の支援を隣接するプロジェクタに要請する(ステップS808)。支援受付部145は、隣接するプロジェクタから支援が可能である旨の回答を受け付けていない場合に(ステップS809:No)、全てのボタン画像を捕捉することはできないが、回答で得られた台数(自身は支援できない)の支援が可能である旨を、支援要請元のプロジェクタに回答する(ステップS810)。また、支援受付部145は、隣接するプロジェクタから支援が可能である旨の回答を受け付けた場合に(ステップS809:Yes)、全てのボタン画像を捕捉することができるため、支援可能である旨を、支援要請元のプロジェクタに回答する(ステップS807)。   Further, when the information is stored in the button list storage unit 142 (step S802: Yes), the support reception unit 145 requests the n projectors for support for the n projectors because it cannot support itself (step S808). ). When the support reception unit 145 has not received a response indicating that support is possible from an adjacent projector (step S809: No), the support reception unit 145 cannot capture all the button images, but the number of units obtained in the response ( The support request source projector is answered to the effect that it is possible to support (it cannot support itself) (step S810). Further, when the support reception unit 145 receives an answer indicating that support is possible from an adjacent projector (step S809: Yes), all the button images can be captured, so that support is possible. Then, a response is made to the projector that requested the support (step S807).

[支援要請に対する回答の具体例(2)]
次に、図18を用いて、支援要請に対して再帰的に支援を依頼する場合のボタン画像の捕捉について説明する。図18は、支援要請に対して再帰的に支援を依頼する場合のボタン画像の捕捉例を説明する図である。
[Specific examples of responses to support requests (2)]
Next, with reference to FIG. 18, the capture of a button image when requesting support recursively in response to a support request will be described. FIG. 18 is a diagram for explaining an example of capturing a button image when requesting support recursively in response to a support request.

図18では、プロジェクタA〜プロジェクタCの3台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタAの投影面Aにボタン画像が3個配置されているものとする。なお、図18の下段の表において、縦軸は時間の流れを表し、横軸は各プロジェクタの連携関係を表している。   FIG. 18 shows an example in which multi-projection is realized by three projectors A to C. Further, it is assumed that three button images are arranged on the projection surface A of the projector A. In the lower table of FIG. 18, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors.

まず、プロジェクタAは、投影面Aに3つのボタン画像が検出されたため、隣接するプロジェクタBに2台分の支援要請を行なう。プロジェクタBは、投影面Bにボタン画像が配置されていないため、1台分の支援は可能であると判断する。但し、プロジェクタBは、プロジェクタAからの2台分の支援要請には応えることができないため、さらに、プロジェクタCに対して1台分の支援要請を行なう。プロジェクタCは、投影面Cにボタン画像が配置されていないため、1台分の支援は可能であると判断し、支援が可能である旨を、プロジェクタBに対して回答する。   First, since three button images are detected on the projection surface A, the projector A requests two projectors for assistance from the adjacent projector B. Since the button image is not arranged on the projection plane B, the projector B determines that one unit can be supported. However, since the projector B cannot respond to the support request for two units from the projector A, it further requests the projector C for one unit of support. Since the button image is not arranged on the projection surface C, the projector C determines that support for one unit is possible, and replies to the projector B that support is possible.

続いて、プロジェクタBは、右方向に隣接するプロジェクタCからの支援可能である旨の回答により、自身を含めて2台分の支援が可能であると判断し、2台分の支援が可能である旨を、プロジェクタAに対して回答する。これらにより、プロジェクタAは、右方向に隣接するプロジェクタB及びプロジェクタCからの支援が得られることが分かったため、自身は最も左側に位置するボタンAを捕捉することを決定する。また、プロジェクタAは、ボタンBとボタンCとに関して、プロジェクタBの座標系に変換する座標変換を行ない、プロジェクタBに支援を依頼する。プロジェクタBでは、右方向に隣接するプロジェクタCから支援を得られることが分かっているため、自身はボタンBを捕捉し、ボタンCをプロジェクタCに捕捉してもらうことを決定する。ここでも、プロジェクタBは、ボタンCに関して、プロジェクタCの座標系に変換する座標変換を行ない、プロジェクタCに支援を依頼する。   Subsequently, the projector B determines that it is possible to support two units including the projector B based on an answer from the projector C adjacent to the right in the direction that it can support, and can support two units. A response is given to projector A. As a result, it has been found that the projector A can obtain support from the projector B and the projector C adjacent in the right direction, so that the projector A decides to capture the button A located on the leftmost side. Further, the projector A performs coordinate conversion for converting the button B and the button C into the coordinate system of the projector B, and requests the projector B for assistance. Since it is known that the projector B can obtain support from the projector C adjacent in the right direction, the projector B itself captures the button B and decides to have the button C captured by the projector C. Again, the projector B performs coordinate conversion for converting the button C into the coordinate system of the projector C, and requests the projector C for assistance.

[支援要請に対する回答の具体例(3)]
次に、図19を用いて、支援要請に対して支援可能な範囲を設定する場合のボタン画像の捕捉について説明する。図19は、支援要請に対して支援可能な範囲を設定する場合のボタン画像の捕捉例を説明する図である。
[Specific examples of responses to support requests (3)]
Next, with reference to FIG. 19, the capture of a button image when a supportable range is set for a support request will be described. FIG. 19 is a diagram illustrating an example of capturing a button image when a supportable range is set for a support request.

図19では、プロジェクタA〜プロジェクタDの4台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタAの投影面Aにボタン画像が3個、プロジェクタCの投影面Cにボタン画像が1個、それぞれ配置されているものとする。なお、図19の下段の表において、縦軸は時刻の流れを表し、横軸は各プロジェクタの連携関係を表している。以下では、全てのプロジェクタに共通するパラメタとして、支援可能範囲というものを設定する。かかる支援可能範囲とは、隣接するプロジェクタの接続関係において、何台先までの支援を可能とするかを表すものである。ここでは、支援可能範囲を「2」として説明する。   In FIG. 19, a case where multi-projection is realized by four projectors A to D is taken as an example. It is assumed that three button images are arranged on the projection surface A of the projector A and one button image is arranged on the projection surface C of the projector C. In the lower table of FIG. 19, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors. In the following, a supportable range is set as a parameter common to all projectors. The supportable range represents how many units can be supported in the connection relationship between adjacent projectors. Here, the supportable range is described as “2”.

まず、プロジェクタAは、投影面Aに3つのボタン画像が検出されたため、隣接するプロジェクタBに2台分の支援要請を行なう。プロジェクタBは、投影面Bにボタン画像が配置されていないため、1台分の支援は可能であると判断する。但し、プロジェクタBは、プロジェクタAからの2台分の支援要請には応えることができないため、さらに、プロジェクタCに対して1台分の支援要請を行なう。   First, since three button images are detected on the projection surface A, the projector A requests two projectors for assistance from the adjacent projector B. Since the button image is not arranged on the projection plane B, the projector B determines that one unit can be supported. However, since the projector B cannot respond to the support request for two units from the projector A, it further requests the projector C for one unit of support.

続いて、プロジェクタCは、投影面Cにボタン画像が配置されているため、自身ではプロジェクタBからの支援要請には応えられないと判断する。ここで、プロジェクタCは、支援可能範囲が「2」であることから、1台分の支援要請をプロジェクタDに行なうことなく、支援を行なえない旨を、プロジェクタBに対して回答する。   Subsequently, since the button image is arranged on the projection plane C, the projector C determines that it cannot respond to the support request from the projector B itself. Here, since the supportable range is “2”, the projector C responds to the projector B that the support cannot be performed without making a support request for one projector to the projector D.

その後、プロジェクタBは、プロジェクタCからの回答により、自身の支援によって1台分の支援を行なえると判断し、1台分の支援が可能である旨を、プロジェクタAに対して回答する。プロジェクタAは、自身と、プロジェクタBの支援とによって、2つのボタン画像しか捕捉することができないので、予め設定された優先度に従い、捕捉するボタン画像を決定する。これにより、プロジェクタAは、プロジェクタBに支援してもらうボタン画像の座標変換を行ない、プロジェクタBに支援を依頼する。   After that, the projector B determines from the response from the projector C that it can support one unit by its own support, and responds to the projector A that support for one unit is possible. Since the projector A can capture only two button images by itself and the support of the projector B, the button A to be captured is determined according to a preset priority. As a result, the projector A performs coordinate conversion of the button image to be supported by the projector B, and requests the projector B for support.

つまり、支援可能範囲を設定しておくことにより、支援の要請が無限に伝播していくことを防止するとともに、あまりに遠いプロジェクタにボタン画像の捕捉を依頼することで発生するカメラ制御の負荷の増大を防止することができる。例えば、4台先のプロジェクタの投影面にカメラを向ける場合には、負荷が高くなるわりに、撮影する映像に急な角度がついてしまうため、好ましい画像を撮影することが困難になる可能性がある。   In other words, by setting the supportable range, it is possible to prevent the request for support from propagating indefinitely, and to increase the camera control load caused by requesting the button image to be captured by a projector that is too far away. Can be prevented. For example, when the camera is pointed at the projection surface of four projectors ahead, it may be difficult to capture a preferable image because the image to be captured has a steep angle instead of a high load. .

[支援要請に対する回答の具体例(4)]
次に、図20を用いて、支援要請に対してカメラ動作の位置を再決定する場合のボタン画像の捕捉について説明する。図20は、支援要請に対してカメラ動作の位置を再決定する場合のボタン画像の捕捉例を説明する図である。
[Specific examples of responses to support requests (4)]
Next, with reference to FIG. 20, the capture of the button image when the position of the camera operation is redetermined in response to the support request will be described. FIG. 20 is a diagram for explaining an example of capturing a button image when the position of the camera operation is redetermined in response to the support request.

図20では、プロジェクタA〜プロジェクタCの3台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタAの投影面Aにボタン画像が2個、プロジェクタBの投影面Bにボタン画像が1個、それぞれ配置されているものとする。なお、図20の下段の表において、縦軸は時刻の流れを表し、横軸は各プロジェクタの連携関係を表している。   FIG. 20 shows an example in which multi-projection is realized by three projectors A to C. It is assumed that two button images are arranged on the projection plane A of the projector A and one button image is arranged on the projection plane B of the projector B. In the lower table of FIG. 20, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors.

まず、プロジェクタAは、投影面Aに2つのボタン画像が検出されたため、隣接するプロジェクタBに1台分の支援要請を行なう。プロジェクタBは、投影面Bにボタン画像(ボタンC)が配置されているため、プロジェクタAの支援を行なえないと判断し、さらに隣接するプロジェクタCに1台分の支援要請を行なう。プロジェクタCは、投影面Cにボタン画像が配置されていないため、支援可能である旨を、プロジェクタBに対して回答する。プロジェクタBは、プロジェクタCからの回答により、支援可能である旨を、プロジェクタAに対して回答する。   First, since two button images are detected on the projection surface A, the projector A makes a support request for one projector to the adjacent projector B. Since the button image (button C) is arranged on the projection plane B, the projector B determines that the projector A cannot be supported, and further requests the adjacent projector C for one unit. The projector C replies to the projector B that the support is possible because the button image is not arranged on the projection surface C. In response to the response from projector C, projector B responds to projector A that support is possible.

続いて、プロジェクタAは、右方向に隣接するプロジェクタから1台分の支援が得られることが分かったため、自身は最も左側に位置するボタンAを捕捉することを決定する。また、プロジェクタAは、ボタンBの座標変換を行ない、プロジェクタBに対して該ボタンBの支援を依頼する。   Subsequently, since it has been found that the projector A can obtain support for one projector from the projector adjacent in the right direction, the projector A decides to capture the button A located on the leftmost side. In addition, the projector A performs coordinate conversion of the button B and requests the projector B to support the button B.

ここで、プロジェクタBは、右方向に隣接するプロジェクタCが支援できることがわかっているため、投影面Aに配置されたボタンBと、投影面Bに配置されたボタンCとの2つのボタン画像を対象として、自身(プロジェクタB)とプロジェクタCとで捕捉するときに、どのプロジェクタが何れのボタン画像を捕捉するのかを判断する。プロジェクタBは、右方向に隣接するプロジェクタCからの支援を受けられることがわかっているので、自身はより左側に位置するボタンBを捕捉し、プロジェクタCにはボタンCを捕捉してもらうことを決定する。プロジェクタBは、プロジェクタAから座標変換後のボタンBの座標を受け付けているため、この座標をもとにボタンBを捕捉し、プロジェクタCに対してはボタンCの座標変換を行ない、ボタンCの捕捉の支援を、プロジェクタCに対して依頼する。これらにより、プロジェクタの連携関係において、カメラの向きを再設定することにより、全体としてカメラ制御の負荷を軽減することができる。   Here, since it is known that the projector B can support the projector C adjacent in the right direction, the button B including the button B arranged on the projection plane A and the button C arranged on the projection plane B is displayed. As a target, when capturing by itself (projector B) and projector C, it is determined which projector captures which button image. Since it is known that the projector B can receive support from the projector C adjacent in the right direction, the projector B captures the button B located on the left side, and asks the projector C to capture the button C. decide. Since the projector B receives the coordinates of the button B after coordinate conversion from the projector A, the projector B captures the button B based on the coordinates, performs the coordinate conversion of the button C for the projector C, and The projector C is requested for capture support. Accordingly, the camera control load can be reduced as a whole by resetting the camera orientation in the cooperative relationship of the projectors.

[支援要請に対する回答の具体例(5)]
次に、図21を用いて、支援要請時にカメラが故障している場合のボタン画像の捕捉について説明する。図21は、支援要請時にカメラが故障している場合のボタン画像の捕捉例を説明する図である。
[Specific examples of responses to support requests (5)]
Next, with reference to FIG. 21, the capture of the button image when the camera is broken at the time of requesting assistance will be described. FIG. 21 is a diagram for explaining an example of capturing a button image when the camera is broken at the time of requesting assistance.

図21では、プロジェクタA〜プロジェクタCの3台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタAの投影面Aにボタン画像が2個配置されているものとする。なお、図21の下段の表において、縦軸は時刻の流れを表し、横軸は各プロジェクタの連携関係を表している。以下では、コンテンツ画像全体の撮影等の事前の各種処理は完了しており、運用中に何らかの要因によりプロジェクタBのカメラが故障してしまった場合を例に挙げる。   FIG. 21 shows an example in which multi-projection is realized by three projectors A to C. Further, it is assumed that two button images are arranged on the projection surface A of the projector A. In the lower table of FIG. 21, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors. In the following, an example is given of a case where various processes in advance such as shooting of the entire content image have been completed, and the camera of the projector B has failed due to some factor during operation.

まず、プロジェクタAは、投影面Aに2つのボタン画像が検出されたため、隣接するプロジェクタBに1台分の支援要請を行なう。プロジェクタBは、投影面Bにボタン画像が配置されていないが、搭載されたカメラが故障していることを検知したため、自身では支援を行なうことができないと判断する。そこで、プロジェクタBは、隣接するプロジェクタCに1台分の支援要請を行なう。   First, since two button images are detected on the projection surface A, the projector A makes a support request for one projector to the adjacent projector B. Although the button image is not arranged on the projection surface B, the projector B detects that the mounted camera is out of order and determines that the projector B cannot provide assistance. Therefore, the projector B makes a support request for one projector to the adjacent projector C.

続いて、プロジェクタCは、投影面Cにボタン画像が配置されていないため、支援が可能な旨を、プロジェクタBに対して回答する。プロジェクタBは、プロジェクタCから支援可能な旨の回答を受けると、1台分の支援が可能な旨を、プロジェクタAに回答する。プロジェクタAは、右方向に隣接するプロジェクタから支援を得られることが分かったため、自身は一番左側に位置するボタンAを捕捉することを決定する。また、プロジェクタAは、ボタンBの座標変換を行ない、該ボタンBの支援をプロジェクタBに依頼する。プロジェクタBは、ボタンBの座標変換をさらに行ない、該ボタンBの支援をプロジェクタCに依頼する。なお、上述したように、プロジェクタBは、各種の事前処理が完了しており、運用中にカメラが故障しただけであるため、座標変換等の各種処理は実行可能である。   Subsequently, since the button image is not arranged on the projection plane C, the projector C replies to the projector B that support is possible. When the projector B receives an answer indicating that support is possible from the projector C, the projector B answers to the projector A that support for one unit is possible. Since it has been found that the projector A can obtain support from a projector adjacent in the right direction, the projector A decides to capture the button A located on the leftmost side. In addition, the projector A performs coordinate conversion of the button B and requests the projector B to support the button B. The projector B further performs coordinate conversion of the button B and requests the projector C to support the button B. Note that, as described above, the projector B has completed various types of pre-processing, and has only failed in the camera during operation. Therefore, various types of processing such as coordinate conversion can be performed.

つまり、マルチ投影において連携関係にあるプロジェクタに搭載されたカメラが故障した場合であっても、再帰的に支援を要請することにより、好適にボタン画像の捕捉を実現することができる。   In other words, even when a camera mounted on a projector that has a cooperative relationship in multi-projection fails, it is possible to preferably capture a button image by recursively requesting assistance.

[支援要請に対する回答の具体例(6)]
次に、図22を用いて、支援要請に対して全てのボタン画像を捕捉できない場合のボタン画像の捕捉について説明する。図22は、支援要請に対して全てのボタン画像を捕捉できない場合のボタン画像の捕捉例を説明する図である。
[Specific example of response to support request (6)]
Next, with reference to FIG. 22, the capture of the button image when not all the button images can be captured in response to the support request will be described. FIG. 22 is a diagram for explaining an example of capturing a button image when all button images cannot be captured in response to a support request.

図22では、プロジェクタA〜プロジェクタCの3台のプロジェクタによってマルチ投影を実現する場合を例に挙げる。また、プロジェクタBの投影面Bにボタン画像が4個配置されているものとする。なお、図22の下段の表において、縦軸は時刻の流れを表し、横軸は各プロジェクタの連携関係を表している。   FIG. 22 shows an example in which multi-projection is realized by three projectors A to C. Further, it is assumed that four button images are arranged on the projection surface B of the projector B. In the table in the lower part of FIG. 22, the vertical axis represents the flow of time, and the horizontal axis represents the cooperative relationship between the projectors.

まず、プロジェクタBは、投影面Bに4つのボタン画像が検出されたため、隣接するプロジェクタA及びプロジェクタCに支援要請を行なう。プロジェクタAは、投影面Aにボタン画像が配置されていないため、1台分の支援が可能である旨を、プロジェクタBに回答する。また、プロジェクタCは、投影面Cにボタン画像が配置されていないため、1台分の支援が可能である旨を、プロジェクタBに回答する。   First, since four button images are detected on the projection surface B, the projector B requests the adjacent projector A and projector C for assistance. The projector A replies to the projector B that the button image is not arranged on the projection surface A, and that one projector can be supported. Further, since the button image is not arranged on the projection surface C, the projector C replies to the projector B that one unit can be supported.

続いて、プロジェクタBは、プロジェクタA及びプロジェクタCからの回答により、自身での捕捉で1つ、支援により2つのボタン画像を捕捉できることを認識する。但し、投影面Bに配置されたボタン画像は4つであるため、プロジェクタBは、予め定められたボタン画像の優先度に従い、捕捉するボタン(3つ)を決定する。ここで、優先度は、ボタンB、ボタンD、ボタンA、ボタンCの順に高いものとする。これにより、プロジェクタBは、ボタンB、ボタンD、ボタンAの3つのボタン画像を捕捉することを決定する。   Subsequently, the projector B recognizes from the responses from the projector A and the projector C that it can capture one button image by itself and two button images with assistance. However, since there are four button images arranged on the projection plane B, the projector B determines the buttons (three) to be captured according to the predetermined priority of the button image. Here, the priority is assumed to be higher in the order of button B, button D, button A, and button C. Thereby, the projector B determines to capture the three button images of the button B, the button D, and the button A.

プロジェクタBは、右方向に隣接するプロジェクタA、左方向に隣接するプロジェクタCのそれぞれから支援が得られることがわかっている。そこで、プロジェクタBは、捕捉するボタンB、ボタンD、ボタンAの座標をもとに、一番左側に位置するボタンAをプロジェクタAに捕捉させ、一番右側に位置するボタンDをプロジェクタCに捕捉させ、ボタンBを自身で捕捉することを決定しる。これらにより、プロジェクタBは、座標変換を行なったボタンAの支援をプロジェクタAに依頼し、座標変換を行なったボタンDの支援のプロジェクタCに依頼する。   It is known that the projector B can obtain support from each of the projector A adjacent in the right direction and the projector C adjacent in the left direction. Therefore, the projector B causes the projector A to capture the leftmost button A based on the coordinates of the button B, button D, and button A to be captured, and causes the projector D to position the rightmost button D. Capture and decide to capture Button B by itself. Accordingly, the projector B requests the projector A to support the button A that has undergone the coordinate conversion, and requests the projector C to support the button D that has performed the coordinate conversion.

つまり、全てのボタン画像を捕捉できない場合には、優先度に従い捕捉することを決定したボタン画像の位置(座標)に応じて、隣接するプロジェクタに支援を依頼するので、好適にボタン画像を捕捉させるとともに、カメラ制御の負荷を削減することができる。   In other words, when all the button images cannot be captured, the support is requested to the adjacent projector according to the position (coordinates) of the button image determined to be captured according to the priority, so that the button image is preferably captured. At the same time, the camera control load can be reduced.

[実施の形態1による効果]
プロジェクタ10は、自身で投影している投影面に配置されたボタン画像の座標や、カメラ画角の座標等をもとに、隣接するプロジェクタにボタン画像の捕捉の支援を要請する。そして、プロジェクタ10は、支援を行なえる回答を受け付けた場合に、何れのボタン画像の支援を依頼するかを判定する。続いて、プロジェクタ10は、支援を依頼するボタン画像の座標の座標系を、隣接するプロジェクタの座標系に変換し、変換後の座標とともに該ボタン画像の捕捉の支援を依頼する。これらの結果、プロジェクタ10は、複数の操作対象に対するユーザのジェスチャをより多く認識することができる。
[Effects of Embodiment 1]
The projector 10 requests an adjacent projector to assist the capturing of the button image based on the coordinates of the button image arranged on the projection surface projected by the projector 10 and the coordinates of the camera angle of view. Then, the projector 10 determines which button image is requested to be supported when an answer that can provide support is received. Subsequently, the projector 10 converts the coordinate system of the coordinates of the button image for which support is requested to the coordinate system of the adjacent projector, and requests support for capturing the button image together with the converted coordinates. As a result, the projector 10 can recognize more user gestures for a plurality of operation targets.

(実施の形態2)
さて、これまで本発明に係るプロジェクタ10の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)優先度、(2)ボタン画像とカメラ画角との関係、(3)ポインティング操作に係るフィードバック、(4)構成、について異なる実施の形態を説明する。
(Embodiment 2)
Although the embodiment of the projector 10 according to the present invention has been described so far, the present invention may be implemented in various different forms other than the above-described embodiment. Accordingly, different embodiments will be described with respect to (1) priority, (2) relationship between the button image and the camera angle of view, (3) feedback related to the pointing operation, and (4) configuration.

(1)優先度
上記実施の形態では、複数のボタン画像を捕捉するときに、予め定められた優先度に従って、どのプロジェクタに何れのボタン画像を捕捉させるかを決定する場合を説明した。かかる優先度については、ボタン画像の面積(大きさ)によって決定しても良い。図23は、ボタン画像の面積に応じて優先度を決定する例を説明する図である。図23に示すように、プロジェクタAとプロジェクタBとによりマルチ投影を実現し、投影面Aに複数のボタン画像が配置されている場合に、各ボタン画像の4隅座標から、各ボタン画像の面積を算出する。そして、算出した面積に応じて、ボタン画像の優先度を決定する。例えば、優先度は、ボタン画像の面積が大きい順に高いものとする。図23の例では、ボタン画像の面積に応じて、ボタンB、ボタンA、ボタンCの順に優先度を高く設定する。つまり、ボタン画像の面積が大きい方が操作される可能性が高いものとして、優先度を決定する。
(1) Priority In the above embodiment, a case has been described where, when capturing a plurality of button images, which button image is to be captured by which projector is determined according to a predetermined priority. Such priority may be determined by the area (size) of the button image. FIG. 23 is a diagram illustrating an example in which the priority is determined according to the area of the button image. As shown in FIG. 23, when multi-projection is realized by the projector A and the projector B and a plurality of button images are arranged on the projection plane A, the area of each button image is determined from the four corner coordinates of each button image. Is calculated. Then, the priority of the button image is determined according to the calculated area. For example, the priority is assumed to be higher in descending order of the area of the button image. In the example of FIG. 23, the priority is set higher in the order of button B, button A, and button C in accordance with the area of the button image. That is, the priority is determined on the assumption that the button image having a larger area is more likely to be operated.

(2)ボタン画像とカメラ画角との関係
また、上記実施の形態では、カメラ画角内にボタン画像が収まる場合の各処理を説明した。かかるボタン画像は、カメラ画角内に収まらない可能性もある。図24は、ボタン画像がカメラ画角よりも大きい場合のカメラ動作の移動先の位置決定処理の流れの例を示すフローチャートである。
(2) Relationship between Button Image and Camera Angle of View In the above-described embodiment, each process when the button image fits within the camera angle of view has been described. Such a button image may not fit within the camera angle of view. FIG. 24 is a flowchart illustrating an example of the flow of position determination processing for the movement destination of the camera operation when the button image is larger than the camera angle of view.

図24に示すように、カメラ動作位置決定部136は、ボタン画像の面積と、カメラ画角の面積とを算出する(ステップS901)。そして、カメラ動作位置決定部136は、カメラ画角の面積よりも、ボタン画像の面積の方が大きいか否かを判定する(ステップS902)。このとき、カメラ動作位置決定部136は、カメラ画角の面積よりも、ボタン画像の面積の方が大きい場合に(ステップS902:Yes)、該ボタン画像の重心となる中点座標を算出する(ステップS903)。また、カメラ動作位置決定部136は、カメラ画角の重心となる中点座標を算出する(ステップS904)。   As shown in FIG. 24, the camera operation position determination unit 136 calculates the area of the button image and the area of the camera angle of view (step S901). Then, the camera operation position determination unit 136 determines whether the area of the button image is larger than the area of the camera view angle (step S902). At this time, when the area of the button image is larger than the area of the camera angle of view (step S902: Yes), the camera operation position determination unit 136 calculates a midpoint coordinate serving as the barycenter of the button image ( Step S903). Further, the camera operation position determination unit 136 calculates the midpoint coordinates that are the center of gravity of the camera angle of view (step S904).

そして、カメラ動作位置決定部136は、ボタン画像の中点座標と、カメラ画角の中点座標との距離を算出する(ステップS905)。ここで算出された距離は、カメラによる撮像領域の移動量となる。これらにより、カメラ動作位置決定部136は、算出した距離を、カメラ動作の移動先の位置として決定する(ステップS906)。一方、カメラ動作先位置決定部136は、カメラ画角の面積よりも、ボタン画像の面積の方が小さい場合に(ステップS902:No)、図13に示した位置決定処理(通常処理)を実行する(ステップS907)。つまり、カメラ画角内に収まらないボタン画像が存在する場合であっても、ボタン画像の中点座標とカメラ画角の中点座標とを重ね合わせるように、撮像領域を移動させることにより、可能な限りユーザの操作性を高くすることができる。   Then, the camera operation position determination unit 136 calculates the distance between the midpoint coordinates of the button image and the midpoint coordinates of the camera angle of view (step S905). The distance calculated here is the amount of movement of the imaging area by the camera. Accordingly, the camera operation position determination unit 136 determines the calculated distance as the position of the movement destination of the camera operation (step S906). On the other hand, when the area of the button image is smaller than the area of the camera angle of view (step S902: No), the camera operation destination position determination unit 136 executes the position determination process (normal process) shown in FIG. (Step S907). In other words, even if there is a button image that does not fit within the camera angle of view, it is possible by moving the imaging area so that the midpoint coordinates of the button image and the midpoint coordinates of the camera angle of view overlap. The user operability can be improved as much as possible.

(3)ポインティング操作に係るフィードバック
上記実施の形態では、撮像領域の面積がボタン画像の面積よりも小さい場合に、ユーザ操作を容易にするために、ボタン画像の中点座標に、撮像領域の中点座標を重ねるための移動量を算出する場合を説明した。本実施の形態では、ユーザ操作を容易にするために、撮像領域をフィードバックしても良い。
(3) Feedback related to pointing operation In the above embodiment, when the area of the imaging region is smaller than the area of the button image, in order to facilitate the user operation, The case where the movement amount for overlapping the point coordinates is calculated has been described. In the present embodiment, the imaging area may be fed back in order to facilitate user operation.

図25は、ポインティング操作が可能な範囲をフィードバックする例を説明する図である。図25に示した例において、投影画像1は、ボタン画像2と、撮像領域3とを含んでいる。また、図25に示した例は、撮像領域3をボタン画像2の位置に移動させたときの状態を表している。   FIG. 25 is a diagram illustrating an example in which a range in which a pointing operation can be performed is fed back. In the example shown in FIG. 25, the projection image 1 includes a button image 2 and an imaging region 3. The example shown in FIG. 25 represents a state when the imaging region 3 is moved to the position of the button image 2.

図25に示すように、撮像領域3を移動させたときに、該撮像領域3は、ユーザによるポインティング操作の検出が可能な範囲をユーザに認識させるために、太枠等で表示させる。上述してきた実施の形態では、撮像領域をユーザに意識させずにユーザによるポインティング操作の検出を行なっていた。但し、撮像領域の面積がボタン画像の面積よりも小さい場合は、ボタン画像の領域全てでユーザによるポインティング操作を検出することができない。このため、本実施の形態では、撮像領域を表示させた投影画像を表示することで、撮像領域をユーザに意識させユーザによるポインティング操作の操作性を向上させる。また、ユーザは、ポインティング操作が可能・不可能なボタン画像を認識することも可能となる。なお、撮像領域の表示は、枠を表示させるだけでなく、撮像領域を点滅させる等、現在の撮像領域をユーザに認識させることが可能であれば、どのような手法を採用しても良い。   As shown in FIG. 25, when the imaging area 3 is moved, the imaging area 3 is displayed with a thick frame or the like so that the user can recognize the range in which the user can detect the pointing operation. In the embodiment described above, the pointing operation by the user is detected without making the user aware of the imaging region. However, when the area of the imaging area is smaller than the area of the button image, the pointing operation by the user cannot be detected in the entire area of the button image. For this reason, in the present embodiment, by displaying a projection image in which the imaging region is displayed, the user is made aware of the imaging region and the operability of the pointing operation by the user is improved. In addition, the user can recognize a button image that can / cannot be pointed. Note that any method may be used for displaying the imaging region as long as the current imaging region can be recognized by the user, such as blinking the imaging region, as well as displaying a frame.

図26は、ポインティング操作が可能なボタン画像をフィードバックする例を説明する図である。図26に示した例において、投影画像1は、ボタン画像2aと、ボタン画像2bと、ボタン画像2cと、撮像領域3とを含んでいる。また、図26に示すように、撮像領域3を移動させたときに、該撮像領域3に含まれるボタン画像2cは、他のボタン画像とは異なる色に変化させる等、所定の表示に変化させる。   FIG. 26 is a diagram illustrating an example in which a button image that can be pointed is fed back. In the example shown in FIG. 26, the projected image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. As shown in FIG. 26, when the imaging area 3 is moved, the button image 2c included in the imaging area 3 is changed to a predetermined display such as a color different from that of the other button images. .

上述してきた実施の形態では、現在の撮像領域をユーザに意識させずにユーザによるポインティング操作の検出を行なっていた。但し、投影画像内に複数のボタン画像が存在する場合には、何れのボタン画像が操作可能なボタン画像であるかをユーザが認識することが困難である。このため、本実施の形態では、現在の撮像領域に含まれるボタン画像の色を変化させた投影画像を投影することで、操作可能なボタン画像をユーザに認識させ、ユーザによるポインティング操作の操作性を向上させる。なお、ボタン画像の表示の変化は、色を変化させるだけでなく、ボタン画像を点滅させたり透過させたりする等、現在の操作可能なボタン画像をユーザに認識させることが可能であれば、どのような手法を採用しても良い。また、現在の撮像領域に含まれるボタン画像とは、ボタン画像の配置や撮像領域の配置によっては複数のボタン画像が含まれる可能性もあるため、詳細には、撮像領域の移動先となっているボタン画像を指す。   In the embodiment described above, the pointing operation by the user is detected without making the user aware of the current imaging region. However, when there are a plurality of button images in the projected image, it is difficult for the user to recognize which button image is an operable button image. For this reason, in the present embodiment, by projecting a projection image in which the color of the button image included in the current imaging region is changed, the user can recognize the operable button image, and the operability of the pointing operation by the user To improve. It should be noted that the change in the display of the button image is not limited to changing the color, but if the user can recognize the currently operable button image, such as blinking or transmitting the button image, Such a method may be adopted. The button image included in the current imaging region may include a plurality of button images depending on the arrangement of the button image or the imaging region. Indicates a button image.

(4)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。また、図示した各装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に、分散又は統合することができる。
(4) Configuration In addition, information including processing procedures, control procedures, specific names, various data, parameters, and the like shown in the document and drawings can be arbitrarily changed unless otherwise specified. Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution or integration of each device is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in arbitrary units according to various burdens or usage conditions. Or they can be integrated.

例えば、上記実施の形態では、協調動作制御モジュール140をプロジェクタ10に含む場合を説明したが、かかる協調動作制御モジュール140については、別途設けるサーバ装置に含まれる構成にしても良い。具体的には、ポインティング操作検出モジュール130によって検出されたボタン画像の座標等の情報をサーバ装置に送信し、該サーバ装置側で隣接するプロジェクタに支援を依頼するか否か等を判断する。   For example, in the above-described embodiment, the case where the projector 10 includes the cooperative operation control module 140 has been described. However, the cooperative operation control module 140 may be included in a server device provided separately. Specifically, information such as the coordinates of the button image detected by the pointing operation detection module 130 is transmitted to the server device, and it is determined whether or not to request assistance from an adjacent projector on the server device side.

10 プロジェクタ
110 撮影モジュール
120 投影モジュール
130 ポインティング操作検出モジュール
131 カメラ制御部
132 カメラ画像記憶部
133 撮像領域位置算出部
134 ボタン画像認識部
135 ボタン画像位置算出部
136 カメラ動作位置決定部
137 ポインティング操作検出部
140 協調動作制御モジュール
141 判定部
142 ボタンリスト記憶部
143 座標変換部
144 支援要請部
145 支援受付部
DESCRIPTION OF SYMBOLS 10 Projector 110 Image pick-up module 120 Projection module 130 Pointing operation detection module 131 Camera control part 132 Camera image memory | storage part 133 Image pick-up area position calculation part 134 Button image recognition part 135 Button image position calculation part 136 Camera movement position determination part 137 Pointing operation detection part 140 Cooperative Operation Control Module 141 Judgment Unit 142 Button List Storage Unit 143 Coordinate Conversion Unit 144 Support Request Unit 145 Support Acceptance Unit

特開2008−003802号公報JP 2008-003802 A

Claims (17)

ネットワークを介して少なくとも1つの他の投影装置と接続される投影装置において、
投影面に投影画像を投影する投影部と、
前記投影面に含まれる撮影領域を撮影する撮影部と、
前記撮影部によって撮影された撮影画像に基づいてユーザによる前記投影画像に対する指示動作を検出する検出部と、
指示の対象となる前記投影面に含まれる指示対象に関する指示対象情報を記憶する指示対象情報記憶部と、
前記指示対象情報記憶部によって記憶された指示対象情報に基づいて、前記撮影領域に含むことができない指示対象の有無を判定する判定部と、
前記判定部によって前記撮影領域に含むことができない指示対象があると判定された場合に、前記他の投影装置へ撮影の要求を行なう要求部と
を有することを特徴とする投影装置。
In a projection device connected to at least one other projection device via a network,
A projection unit that projects a projection image on a projection surface;
A photographing unit for photographing a photographing region included in the projection plane;
A detection unit for detecting an instruction operation on the projection image by a user based on a photographed image photographed by the photographing unit;
An instruction target information storage unit that stores instruction target information regarding an instruction target included in the projection plane to be an instruction target;
A determination unit that determines presence / absence of an instruction target that cannot be included in the imaging region based on the instruction target information stored by the instruction target information storage unit;
A projection apparatus, comprising: a request unit configured to request imaging to the other projection apparatus when the determination unit determines that there is an instruction target that cannot be included in the imaging region.
前記他の投影装置からの撮影の要求に対する回答に応じて、何れの前記指示対象の撮影を依頼するかを判定する撮影依頼判定部と、
撮影を依頼すると判定された前記指示対象の位置を表す座標値を、撮影を依頼する前記他の投影装置に対応する投影面の座標系の座標値に変換する座標変換部と、
座標系を変換された前記指示対象の前記座標値とともに、前記他の投影装置に撮影を依頼する撮影依頼部とをさらに有することを特徴とする請求項1に記載の投影装置。
In response to a response to a shooting request from the other projection device, a shooting request determination unit that determines which shooting of the instruction target is requested;
A coordinate conversion unit that converts a coordinate value representing the position of the instruction target determined to request imaging into a coordinate value of a coordinate system of a projection plane corresponding to the other projection device that requests imaging;
The projection apparatus according to claim 1, further comprising: an imaging request unit that requests the other projection apparatus to perform imaging together with the coordinate value of the instruction target whose coordinate system has been converted.
前記他の投影装置から、前記指示対象の撮影の要求を受け付ける要求受付部と、
撮影の要求が受け付けられた場合に、前記撮影部によって前記指示対象の撮影が行なわれているか否かに応じて、撮影の要求に対して回答する回答部と、
座標系を変換された前記指示対象の前記座標値とともに、撮影の依頼を受け付ける撮影依頼受付部と、をさらに有し、
前記撮影部は、受け付けられた前記座標値の前記指示対象を撮影することを特徴とする請求項2に記載の投影装置。
A request accepting unit that accepts a request for photographing the target object from the other projection device;
A response unit that responds to a request for shooting according to whether or not shooting of the instruction target is being performed by the shooting unit when a request for shooting is received;
A photographing request accepting unit that accepts a photographing request together with the coordinate value of the instruction target whose coordinate system has been converted;
The projection apparatus according to claim 2 , wherein the photographing unit photographs the instruction target having the received coordinate value.
前記撮影依頼判定部は、前記他の投影装置の位置に応じて、何れの前記指示対象の撮影を依頼するかを判定することを特徴とする請求項2又は3に記載の投影装置。   4. The projection apparatus according to claim 2, wherein the imaging request determination unit determines which of the instruction targets is requested for imaging according to a position of the other projection apparatus. 前記回答部は、複数の前記他の投影装置から撮影の要求が受け付けられた場合に、撮影の要求に対して保留する旨を回答することを特徴とする請求項3に記載の投影装置。   The projection apparatus according to claim 3, wherein the answering unit replies to the effect that the request for photographing is suspended when a request for photographing is accepted from a plurality of the other projection apparatuses. 前記要求部は、撮影の要求に対して撮影することが不可能である場合に、他の投影装置にさらに撮影の要求を行ない、
前記回答部は、他の投影装置から受け付けられた回答に応じて、撮影の要求元の投影装置に対して回答することを特徴とする請求項3に記載の投影装置。
The request unit, when it is impossible to shoot in response to a shooting request, further requests the other projection device to shoot,
The projection apparatus according to claim 3, wherein the answering unit answers to the projection requesting projection apparatus in response to an answer received from another projection apparatus.
前記要求部は、撮影を要求する投影装置の範囲が定められた撮影要求可能範囲に応じて、前記他の投影装置に撮影を要求することを特徴とする請求項6に記載の投影装置。   The projection device according to claim 6, wherein the request unit requests the other projection device to perform photographing according to a photographing requestable range in which a range of the projection device that requests photographing is determined. 前記撮影依頼判定部は、撮影を行なえる回答が得られた前記投影装置の位置に応じて、何れの前記指示対象の撮影を依頼するかを再度判定することを特徴とする請求項5〜7の何れか一つに記載の投影装置。   The said imaging | photography request determination part determines again which imaging | photography of the said instruction | indication object is requested according to the position of the said projection apparatus from which the reply which can image | photograph was obtained. The projection device according to any one of the above. 前記要求部は、前記撮影部が故障している場合に、他の投影装置にさらに撮影の要求を行ない、
前記回答部は、他の投影装置から受け付けられた回答に応じて、撮影の要求元の投影装置に対して回答することを特徴とする請求項3に記載の投影装置。
The request unit, when the photographing unit is out of order, further requests the other projection device to shoot,
The projection apparatus according to claim 3, wherein the answering unit answers to the projection requesting projection apparatus in response to an answer received from another projection apparatus.
前記撮影依頼判定部は、前記指示対象の優先度に応じて、何れの前記指示対象の撮影を依頼するかを判定することを特徴とする請求項4に記載の投影装置。   The projection apparatus according to claim 4, wherein the imaging request determination unit determines which of the instruction objects is requested for imaging according to the priority of the instruction object. 前記撮影依頼判定部は、前記指示対象の指示の指示優先順である前記優先度に応じて、何れの前記指示対象の撮影を依頼するかを判定することを特徴とする請求項10に記載の投影装置。   The said imaging | photography request determination part determines which imaging | photography of the said instruction | indication object is requested according to the said priority which is the instruction | indication priority order of the instruction | indication object instruction | indication. Projection device. 前記撮影依頼判定部は、前記指示対象の面積から決定された前記優先度に応じて、何れの前記指示対象の撮影を依頼するかを判定することを特徴とする請求項10に記載の投影装置。   The projection apparatus according to claim 10, wherein the imaging request determination unit determines which of the instruction objects is to be requested according to the priority determined from the area of the instruction object. . 前記撮影部は、前記指示対象の重心に、前記撮影領域の重心が重なるように撮影することを特徴とする請求項1に記載の投影装置。   The projection apparatus according to claim 1, wherein the imaging unit performs imaging so that the center of gravity of the imaging region overlaps the center of gravity of the instruction target. 前記投影部は、前記撮影領域を表示させた前記投影画像を投影することを特徴とする請求項1に記載の投影装置。   The projection device according to claim 1, wherein the projection unit projects the projection image on which the imaging region is displayed. 前記投影部は、現在の前記撮影領域に含まれる前記指示対象の表示を、所定の表示に変化させた前記投影画像を投影することを特徴とする請求項1に記載の投影装置。   The projection apparatus according to claim 1, wherein the projection unit projects the projection image in which the display of the instruction target included in the current imaging region is changed to a predetermined display. ネットワークを介して少なくとも1つの他の投影装置と接続される投影装置によって実行される投影方法であって、
前記投影装置は、
投影面に投影画像を投影する投影部と、
前記投影面に含まれる撮影領域を撮影する撮影部と、を有し、
前記撮影部によって撮影された撮影画像に基づいてユーザによる前記投影画像に対する指示動作を検出する検出ステップと、
指示の対象となる前記投影面に含まれる指示対象に関する指示対象情報に基づいて、前記撮影領域に含むことができない指示対象の有無を判定する判定ステップと、
前記撮影領域に含むことができない指示対象があると判定された場合に、前記他の投影装置へ撮影の要求を行なう要求ステップと
を含むことを特徴とする投影方法。
A projection method performed by a projection device connected to at least one other projection device via a network, comprising:
The projector is
A projection unit that projects a projection image on a projection surface;
An imaging unit that captures an imaging area included in the projection plane;
A detection step of detecting an instruction operation on the projection image by a user based on a photographed image photographed by the photographing unit;
A determination step of determining the presence or absence of an instruction target that cannot be included in the imaging region, based on instruction target information regarding the instruction target included in the projection plane that is an instruction target;
And a requesting step of requesting imaging to the other projection device when it is determined that there is an instruction target that cannot be included in the imaging region.
1以上の情報処理装置を有する情報処理システムであって、
投影面に投影画像を投影する投影部と、
前記投影面に含まれる撮影領域を撮影する撮影部と、
前記撮影部によって撮影された撮影画像に基づいてユーザによる前記投影画像に対する指示動作を検出する検出部と、
指示の対象となる前記投影面に含まれる指示対象に関する指示対象情報を記憶する指示対象情報記憶部と、
前記指示対象情報記憶部によって記憶された指示対象情報に基づいて、前記撮影領域に含むことができない指示対象の有無を判定する判定部と、
前記判定部によって前記撮影領域に含むことができない指示対象があると判定された場合に、他の前記情報処理装置へ撮影の要求を行なう要求部と
を有することを特徴とする情報処理システム。
An information processing system having one or more information processing devices,
A projection unit that projects a projection image on a projection surface;
A photographing unit for photographing a photographing region included in the projection plane;
A detection unit for detecting an instruction operation on the projection image by a user based on a photographed image photographed by the photographing unit;
An instruction target information storage unit that stores instruction target information regarding an instruction target included in the projection plane to be an instruction target;
A determination unit that determines presence / absence of an instruction target that cannot be included in the imaging region based on the instruction target information stored by the instruction target information storage unit;
An information processing system comprising: a requesting unit that makes a request for photographing to another information processing apparatus when the determining unit determines that there is an instruction target that cannot be included in the shooting region.
JP2013192477A 2013-09-17 2013-09-17 Projection apparatus, projection method, and information processing system Expired - Fee Related JP6237028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013192477A JP6237028B2 (en) 2013-09-17 2013-09-17 Projection apparatus, projection method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013192477A JP6237028B2 (en) 2013-09-17 2013-09-17 Projection apparatus, projection method, and information processing system

Publications (2)

Publication Number Publication Date
JP2015060327A JP2015060327A (en) 2015-03-30
JP6237028B2 true JP6237028B2 (en) 2017-11-29

Family

ID=52817822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013192477A Expired - Fee Related JP6237028B2 (en) 2013-09-17 2013-09-17 Projection apparatus, projection method, and information processing system

Country Status (1)

Country Link
JP (1) JP6237028B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6926948B2 (en) 2017-10-27 2021-08-25 セイコーエプソン株式会社 Projector, image projection system, and projector control method
WO2020261852A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Projection device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003283976A (en) * 2002-03-26 2003-10-03 Toshiba Corp Medium information recording apparatus and its method
JP2004328333A (en) * 2003-04-24 2004-11-18 Hitachi Ltd Portable communication terminal and irregular situation broadcast system
JP3905116B2 (en) * 2004-02-03 2007-04-18 松下電器産業株式会社 Detection area adjustment device
JP2005244279A (en) * 2004-02-24 2005-09-08 Matsushita Electric Ind Co Ltd Monitoring system, and monitoring apparatus and method
JP4475164B2 (en) * 2005-04-26 2010-06-09 日本ビクター株式会社 Monitoring system and monitoring method
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
JP4872482B2 (en) * 2006-06-23 2012-02-08 富士ゼロックス株式会社 Remote support device, remote support system, and remote support method
JP2008249907A (en) * 2007-03-29 2008-10-16 Brother Ind Ltd Projector and display system
JP5141137B2 (en) * 2007-08-21 2013-02-13 ソニー株式会社 Camera control method, camera control device, camera control program, and camera system
CN102754436B (en) * 2010-03-15 2015-07-22 欧姆龙株式会社 Surveillance camera terminal
JP5645448B2 (en) * 2010-04-14 2014-12-24 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2012050011A (en) * 2010-08-30 2012-03-08 Canon Inc Photographing system, photographing control method, photographing device, and program
JP5796733B2 (en) * 2011-03-23 2015-10-21 ソニー株式会社 Optical signal output device, signal processing device, signal processing method, signal processing system, imaging device, projector, and program
JP2013175990A (en) * 2012-02-27 2013-09-05 Nikon Corp Image handling apparatus and camera network system

Also Published As

Publication number Publication date
JP2015060327A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
EP3054662B1 (en) Apparatus, method and computer program for facilitating scanned document area designation for skew correction&gt;
JP2010165248A (en) Image processor, image collation method, and program
WO2017126222A1 (en) Display control device, display control method, and computer program
JP2014178968A (en) Information process device and control method of the same
JP2008003802A (en) Pointing device, pointing position detection method, and program
JP2019159739A (en) Image processing device, image processing method, and program
WO2018154634A1 (en) Projection display device, method for controlling projection display device, and program
JP2022057771A (en) Communication management device, image communication system, communication management method, and program
CN106373154B (en) Image processing apparatus and image processing method
JP6237028B2 (en) Projection apparatus, projection method, and information processing system
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JP2020178248A (en) Projection control device, projection control method, projection system, program, and storage medium
JP7504688B2 (en) Image processing device, image processing method and program
JP2005303493A (en) Obstacle-adaptive projection type display
JP2019087840A (en) Monitoring system
JP6483661B2 (en) Imaging control apparatus, imaging control method, and program
WO2019225595A1 (en) Dictionary learning device, information processing device, dictionary learning method, and program storage medium
JP2020021465A (en) Inspection system and inspection method
CN117078762A (en) Virtual reality equipment, camera calibration device and method
JP2015005026A (en) Device management terminal, device management system, and device management program
CN114979616A (en) Display method, information processing apparatus, and recording medium
JP2018198399A (en) Information processing apparatus, information processing system, information processing method, and program
JP2021197572A (en) Camera control apparatus and program
JP2018032991A (en) Image display unit, image display method and computer program for image display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171016

R151 Written notification of patent or utility model registration

Ref document number: 6237028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees