JP2014153769A - Projection system, control program, control device, and control method - Google Patents

Projection system, control program, control device, and control method Download PDF

Info

Publication number
JP2014153769A
JP2014153769A JP2013020700A JP2013020700A JP2014153769A JP 2014153769 A JP2014153769 A JP 2014153769A JP 2013020700 A JP2013020700 A JP 2013020700A JP 2013020700 A JP2013020700 A JP 2013020700A JP 2014153769 A JP2014153769 A JP 2014153769A
Authority
JP
Japan
Prior art keywords
image
projection
coordinate
imaging region
movement information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013020700A
Other languages
Japanese (ja)
Inventor
Kazuya Fujikawa
和也 藤河
Toshihiro Isozaki
敏宏 磯崎
Kazuhide Tanabe
和秀 田辺
Makoto Sugino
誠 杉野
Hiroshi Kobayashi
寛 小林
Ryoji Yamamoto
良二 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013020700A priority Critical patent/JP2014153769A/en
Publication of JP2014153769A publication Critical patent/JP2014153769A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the detection accuracy of a user operation to a projection device.SOLUTION: A projection part projects a projection image onto a projection surface. An imaging part images an imaging area, to generate a captured image. An image detection part detects a coincident image indicating an image in the projection image which is coincident with an operation target image. A first coordinate calculation part calculates a first coordinate for specifying the position of the imaging area with respect to the projection image. A second coordinate calculation part calculates a second coordinate for specifying the position of the coincident image with respect to the projection image. A movement information calculation part calculates movement information for moving the imaging area, from the first coordinate and the second coordinate. An imaging control part controls imaging by the imaging part, so as to move the imaging area, according to the movement information. An operation detection part detects the user operation to the coincident image. A projection control part generates the projection image and controls projection by the projection part.

Description

本発明は、投影システム、制御プログラム、制御装置及び制御方法に関する。   The present invention relates to a projection system, a control program, a control apparatus, and a control method.

従来、プロジェクタ等の投影装置によってスクリーン等の投影面に投影される投影画像に対して、電子ペン等のポインティングデバイスを利用してポインティング位置を移動させることにより、投影装置を操作する技術が知られている。これに対して、ポインティングデバイスを利用しなくても投影装置を操作する技術も存在する。例えば、ユーザの所定動作であるジェスチャをカメラで認識し、ジェスチャに対応する操作を投影装置に対して実行する技術が知られている。また、投影画像に含まれるボタン等の操作対象を操作するための動作がユーザによって行なわれた場合に、この動作をカメラで認識し、操作対象の操作に対応する処理を投影装置に対して実行させる技術も知られている。これらの技術は、例えば、会議等のプレゼンテーションや、店舗においてコンテンツをユーザに表示するような用途が想定される。   2. Description of the Related Art Conventionally, a technique for operating a projection apparatus by moving a pointing position using a pointing device such as an electronic pen with respect to a projection image projected on a projection surface such as a screen by a projection apparatus such as a projector is known. ing. On the other hand, there is a technique for operating the projection apparatus without using a pointing device. For example, a technique is known in which a user's predetermined gesture is recognized by a camera and an operation corresponding to the gesture is executed on the projection apparatus. In addition, when an operation for operating an operation target such as a button included in the projection image is performed by the user, this operation is recognized by the camera, and processing corresponding to the operation of the operation target is executed on the projection apparatus. Technology to make it known is also known. These techniques are assumed to be used, for example, for presentations such as conferences and for displaying contents to users in stores.

また、これらの技術においては、ポインティング位置に応じた投影装置の操作が実行されることから、現在のポインティング位置を高精度に検出できることが望ましい。ポインティング位置を高精度に検出するための技術としては、例えば、投影面の所定箇所をマーキングした画像を保持しておき、マーキングした画像と現在投影されている画像との差分をとることにより、ポインティング位置を検出するものがある。かかる技術では、マーカを常時表示させることなく、現在のポインティング位置を検出できる。   In these techniques, since the operation of the projection apparatus is executed in accordance with the pointing position, it is desirable that the current pointing position can be detected with high accuracy. As a technique for detecting the pointing position with high accuracy, for example, an image obtained by marking a predetermined portion of the projection surface is retained, and a pointing is obtained by taking a difference between the marked image and the currently projected image. Some detect the position. With this technique, the current pointing position can be detected without always displaying the marker.

しかしながら、上述した従来技術では、投影装置に対するユーザ操作を検出することができない場合があるという問題がある。具体的には、ユーザの動作をカメラによって認識することで投影装置を操作する状況において、カメラによって撮像可能な領域を表す撮像領域が投影画像よりも小さい場合に、投影装置に対する操作を検出することができない場合がある。撮像領域が投影画像よりも小さくなるケースは、投影面とカメラとの距離が近いことで発生する。つまり、プレゼンテーションやコンテンツの表示等の用途において、投影面とカメラとの距離を十分に確保できない場合には、上記のような問題が発生する。   However, the above-described conventional technique has a problem that it may not be possible to detect a user operation on the projection apparatus. Specifically, in a situation where the projection apparatus is operated by recognizing the user's operation by the camera, the operation on the projection apparatus is detected when the imaging area representing the area that can be captured by the camera is smaller than the projection image. May not be possible. A case where the imaging region is smaller than the projected image occurs when the distance between the projection plane and the camera is short. That is, the above-described problem occurs when a sufficient distance between the projection plane and the camera cannot be secured in applications such as presentation and content display.

本発明は、上記に鑑みてなされたものであって、投影装置に対するユーザ操作の検出精度を向上させることが可能である投影システム、制御プログラム、制御装置及び制御方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a projection system, a control program, a control device, and a control method capable of improving the detection accuracy of a user operation on the projection device. .

上述した課題を解決し、目的を達成するため、本発明に係る投影システムは、投影面に投影画像を投影する投影部と、撮像可能な領域を表す撮像領域を撮像し、撮像画像を生成する撮像部と、ユーザの操作対象となる画像を表す操作対象画像に一致する前記投影画像内の画像を表す一致画像を検出する画像検出部と、前記投影画像に対する前記撮像領域の位置を特定する第1座標を算出する第1座標算出部と、前記投影画像に対する前記一致画像の位置を特定する第2座標を算出する第2座標算出部と、前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出部と、前記移動情報にしたがって、前記撮像領域を移動させるように、前記撮像部による撮像を制御する撮像制御部と、前記撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出部と、検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の前記投影部による投影を制御する投影制御部とを有する。   In order to solve the above-described problems and achieve the object, a projection system according to the present invention images a projection unit that projects a projection image on a projection plane and an imaging region that represents an imageable region, and generates a captured image. An imaging unit, an image detection unit that detects a matching image that represents an image in the projection image that matches an operation target image that represents an operation target image of a user, and a first position that specifies a position of the imaging region with respect to the projection image From the first coordinate calculation unit that calculates one coordinate, the second coordinate calculation unit that calculates the second coordinate that specifies the position of the coincidence image with respect to the projection image, the first coordinate, and the second coordinate, A movement information calculation unit that calculates movement information for moving the imaging region, an imaging control unit that controls imaging by the imaging unit so as to move the imaging region according to the movement information, and the captured image An operation detection unit that detects a user operation on the matching image, and a projection control unit that generates a projection image according to the detected user operation and controls projection of the generated projection image by the projection unit. Have.

また、本発明に係る制御プログラムは、ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出ステップと、前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出ステップと、前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出ステップと、前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出ステップと、前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御ステップと、前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出ステップと、検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御ステップとをコンピュータに実行させる。   In addition, the control program according to the present invention is capable of detecting an coincidence image representing an image in a projection image that coincides with an operation target image representing an image to be operated by a user, and capable of capturing the projection image. A first coordinate calculating step for calculating a first coordinate for specifying a position of an imaging region representing the region; a second coordinate calculating step for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image; A movement information calculation step for calculating movement information for moving the imaging area from the first coordinates and the second coordinates, and imaging by the imaging apparatus so as to move the imaging area according to the movement information. An imaging control step for controlling, and an operation detection step for detecting a user operation on the coincidence image using a captured image captured by the imaging device , It generates a projection image in accordance with said detected user operation to execute a projection control step controls the projection device of the generated projected image to the computer.

また、本発明に係る制御装置は、ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出部と、前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出部と、前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出部と、前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出部と、前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御部と、前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出部と、検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御部とを有する。   In addition, the control device according to the present invention is capable of capturing an image detection unit that detects a coincidence image that represents an image in a projection image that coincides with an operation target image that represents an image to be operated by the user, A first coordinate calculation unit that calculates a first coordinate that specifies a position of an imaging region that represents the region; a second coordinate calculation unit that calculates a second coordinate that specifies the position of the coincidence image with respect to the projection image; A movement information calculation unit that calculates movement information for moving the imaging region from the first coordinate and the second coordinate, and imaging by the imaging device so as to move the imaging region according to the movement information. An imaging control unit that controls, an operation detection unit that detects a user operation on the coincidence image using a captured image captured by the imaging device, and a projection image according to the detected user operation It generates, and a projection control unit that controls the projection device of the generated projection image.

また、本発明に係る制御方法は、ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出ステップと、前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出ステップと、前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出ステップと、前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出ステップと、前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御ステップと、前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出ステップと、検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御ステップとを含む。   Further, the control method according to the present invention includes an image detection step for detecting a coincidence image representing an image in a projection image that coincides with an operation target image representing an image to be operated by a user, and capable of capturing the projection image. A first coordinate calculating step for calculating a first coordinate for specifying a position of an imaging region representing the region; a second coordinate calculating step for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image; A movement information calculation step for calculating movement information for moving the imaging area from the first coordinates and the second coordinates, and imaging by the imaging apparatus so as to move the imaging area according to the movement information. An imaging control step for controlling, an operation detecting step for detecting a user operation on the matched image using a captured image captured by the imaging device, It has been said to produce a projection image in accordance with a user operation, and a projection control step controls the projection device of the generated projection image.

本発明の一つの様態によれば、投影装置に対するユーザ操作の検出精度を向上させることができるという効果を奏する。   According to one aspect of the present invention, it is possible to improve the detection accuracy of a user operation on the projection apparatus.

図1は、本実施の形態に係る投影システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a projection system according to the present embodiment. 図2は、実施の形態1に係る装置構成例を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a device configuration example according to the first embodiment. 図3は、実施の形態1に係る一致画像の検出処理を説明する図である。FIG. 3 is a diagram for explaining the matching image detection process according to the first embodiment. 図4は、実施の形態1に係る撮像領域の移動量算出処理を説明する図である。FIG. 4 is a diagram for explaining the movement amount calculation processing of the imaging region according to the first embodiment. 図5は、実施の形態1に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the flow of movement amount calculation processing according to the first embodiment. 図6は、実施の形態2に係る装置構成例を示す機能ブロック図である。FIG. 6 is a functional block diagram illustrating a device configuration example according to the second embodiment. 図7は、実施の形態2に係る撮像領域の移動を説明する図である。FIG. 7 is a diagram for explaining movement of the imaging region according to the second embodiment. 図8は、実施の形態2に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the flow of movement amount calculation processing according to the second embodiment. 図9は、実施の形態3に係る装置構成例を示す機能ブロック図である。FIG. 9 is a functional block diagram showing a device configuration example according to the third embodiment. 図10は、実施の形態3に係る撮像領域の移動を説明する図である。FIG. 10 is a diagram for explaining the movement of the imaging region according to the third embodiment. 図11は、実施の形態3に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of a flow of a movement amount calculation process according to the third embodiment. 図12は、実施の形態4に係る装置構成例を示す機能ブロック図である。FIG. 12 is a functional block diagram illustrating a device configuration example according to the fourth embodiment. 図13は、実施の形態4に係る撮像領域の移動を示す図である。FIG. 13 is a diagram illustrating movement of the imaging region according to the fourth embodiment. 図14は、実施の形態4に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the fourth embodiment. 図15は、実施の形態5に係る装置構成例を示す機能ブロック図である。FIG. 15 is a functional block diagram showing a device configuration example according to the fifth embodiment. 図16は、実施の形態5に係る撮像領域の移動を示す図である。FIG. 16 is a diagram illustrating movement of the imaging region according to the fifth embodiment. 図17は、実施の形態5に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the fifth embodiment. 図18は、実施の形態6に係る装置構成例を示す機能ブロック図である。FIG. 18 is a functional block diagram showing a device configuration example according to the sixth embodiment. 図19は、実施の形態6に係る撮像領域の移動を示す図である。FIG. 19 is a diagram illustrating movement of the imaging region according to the sixth embodiment. 図20は、実施の形態6に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the sixth embodiment. 図21は、実施の形態7に係る装置構成例を示す機能ブロック図である。FIG. 21 is a functional block diagram illustrating an example of a device configuration according to the seventh embodiment. 図22は、実施の形態7に係る撮像領域の移動を示す図である。FIG. 22 is a diagram illustrating movement of the imaging region according to the seventh embodiment. 図23は、実施の形態7に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 23 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the seventh embodiment. 図24は、実施の形態7の変形例に係る撮像領域の移動を示す図である。FIG. 24 is a diagram illustrating movement of the imaging region according to a modification of the seventh embodiment. 図25は、実施の形態7の変形例に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 25 is a flowchart illustrating an example of the flow of a movement amount calculation process according to a modification of the seventh embodiment. 図26は、実施の形態8に係る装置構成例を示す機能ブロック図である。FIG. 26 is a functional block diagram showing a device configuration example according to the eighth embodiment. 図27は、実施の形態8に係る移動量算出処理の流れの例を示すフローチャートである。FIG. 27 is a flowchart illustrating an example of the flow of movement amount calculation processing according to the eighth embodiment. 図28は、撮像領域のフィードバックの例を示す図である。FIG. 28 is a diagram illustrating an example of feedback of the imaging region. 図29は、オブジェクトのフィードバックの例を示す図である。FIG. 29 is a diagram illustrating an example of object feedback.

以下に添付図面を参照して、本発明に係る投影システム、制御プログラム、制御装置及び制御方法の実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることができる。   Embodiments of a projection system, a control program, a control apparatus, and a control method according to the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Moreover, each embodiment can be combined suitably as long as the content is not contradicted.

(実施の形態1)
[システム構成]
図1を用いて、本実施の形態に係る投影システムの構成を説明する。図1は、本実施の形態に係る投影システムの構成例を示す図である。
(Embodiment 1)
[System configuration]
The configuration of the projection system according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a projection system according to the present embodiment.

図1に示すように、投影システム10は、撮像装置20と、投影装置30と、制御装置100とを有する。これらのうち、撮像装置20は、投影面に投影される投影画像を撮像し、撮像画像を生成するカメラ等である。かかる撮像装置20は、制御装置100に接続される。以下では、撮像装置20が撮像可能な領域を「撮像領域」と呼ぶ場合がある。撮像領域は、撮像装置20と投影面との距離に応じて大きさが変化する。投影装置30は、投影面に投影画像を投影するプロジェクタ等である。かかる投影装置30は、制御装置100に接続される。   As shown in FIG. 1, the projection system 10 includes an imaging device 20, a projection device 30, and a control device 100. Among these, the imaging device 20 is a camera or the like that captures a projection image projected on a projection plane and generates a captured image. The imaging device 20 is connected to the control device 100. Hereinafter, an area that can be imaged by the imaging apparatus 20 may be referred to as an “imaging area”. The size of the imaging region changes according to the distance between the imaging device 20 and the projection plane. The projection device 30 is a projector or the like that projects a projection image on a projection surface. The projection device 30 is connected to the control device 100.

制御装置100は、撮像装置20によって生成された撮像画像から、投影画像でのユーザ操作を検出し、検出したユーザ操作に応じて新たな投影画像を生成し、投影装置30による投影画像の投影を制御する。また、制御装置100は、撮像装置20によって生成された撮像画像をもとに、撮像領域を移動させるための移動情報を算出して、撮像装置20による撮像を制御する。上述したように、撮像領域は、撮像装置20と投影面との距離に応じて大きさが変化する。このため、制御装置100は、投影画像でのユーザ操作を実現するために、撮像領域を移動させるための移動情報を算出する。なお、各装置の接続は、有線及び無線の何れであっても良い。   The control device 100 detects a user operation on the projection image from the captured image generated by the imaging device 20, generates a new projection image according to the detected user operation, and projects the projection image by the projection device 30. Control. In addition, the control device 100 calculates movement information for moving the imaging region based on the captured image generated by the imaging device 20 and controls imaging by the imaging device 20. As described above, the size of the imaging region changes according to the distance between the imaging device 20 and the projection plane. For this reason, the control device 100 calculates movement information for moving the imaging region in order to realize a user operation on the projection image. Note that the connection of each device may be either wired or wireless.

例えば、投影システム10は、会議等のプレゼンテーションや、店舗においてコンテンツをユーザに表示する用途で利用される。すなわち、ユーザは、投影画像に配置されたボタン画像等のオブジェクトに、手を近づけたり触れたりするユーザ操作を行なう。このようなユーザ操作が行なわれることにより、オブジェクトに対する操作が行なわれたこととして、操作に応じた投影画像の切り替え等が実現する。また、ユーザ操作を実現するためには、撮像領域にオブジェクトが含まれていなければならない。投影システム10の用途によっては、投影面と撮像装置20との距離を十分に確保できない可能性もあり、撮像領域が投影画像を包含できないケースが発生する。このため、制御装置100は、撮像画像をもとに、撮像領域を移動させるための移動情報を算出している。   For example, the projection system 10 is used for a presentation such as a meeting or for displaying contents to a user in a store. That is, the user performs a user operation of bringing a hand close to or touching an object such as a button image arranged in the projection image. By performing such a user operation, it is possible to switch the projection image according to the operation as an operation on the object. Further, in order to realize a user operation, an object must be included in the imaging area. Depending on the application of the projection system 10, there is a possibility that a sufficient distance between the projection surface and the imaging device 20 cannot be secured, and a case where the imaging region cannot include the projection image occurs. For this reason, the control apparatus 100 calculates movement information for moving the imaging region based on the captured image.

[実施の形態1に係る装置構成]
図2を用いて、実施の形態1に係る装置構成を説明する。図2は、実施の形態1に係る装置構成例を示す機能ブロック図である。
[Apparatus Configuration According to Embodiment 1]
The apparatus configuration according to the first embodiment will be described with reference to FIG. FIG. 2 is a functional block diagram illustrating a device configuration example according to the first embodiment.

図2に示すように、撮像装置20は、撮像部21を有する。撮像部21は、制御装置100による制御により、撮像可能な領域を表す撮像領域を撮像し、撮像画像を生成する。そして、撮像装置20は、生成した撮像画像を制御装置100に対して送信する。撮像画像は、撮像領域を撮像した画像であるため、投影面と撮像装置20との距離によっては投影画像全てを含む画像ではない場合がある。投影装置30は、投影部31を有する。投影部31は、制御装置100による制御により、投影面に投影画像を投影する。   As illustrated in FIG. 2, the imaging device 20 includes an imaging unit 21. Under the control of the control device 100, the imaging unit 21 captures an imaging region that represents an imageable region, and generates a captured image. Then, the imaging device 20 transmits the generated captured image to the control device 100. Since the captured image is an image obtained by capturing the imaging region, depending on the distance between the projection plane and the imaging device 20, the captured image may not be an image including all the projected images. The projection device 30 includes a projection unit 31. The projection unit 31 projects a projection image on the projection surface under the control of the control device 100.

制御装置100は、記憶部110と、制御部120とを有する。これらのうち、記憶部110は、制御部120による各種処理で利用されるデータや、制御部120による各種処理結果を記憶し、撮像画像記憶部111を有する。撮像画像記憶部111は、撮像装置20によって撮像された撮像画像を記憶する。また、記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置である。   The control device 100 includes a storage unit 110 and a control unit 120. Among these, the memory | storage part 110 memorize | stores the data utilized by the various processes by the control part 120, and the various process results by the control part 120, and has the captured image memory | storage part 111. FIG. The captured image storage unit 111 stores a captured image captured by the imaging device 20. The storage unit 110 is, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, or a storage device such as a hard disk or an optical disk.

制御部120は、制御プログラム、各種の処理手順等を規定したプログラム及び所要データを格納するための内部メモリを有する。かかる制御部120は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部121eと、撮像制御部121fとを有する。これらの機能ブロックによる処理は、主に撮像装置20を制御するために実行される。また、制御部120は、操作検出部122aと、投影制御部122bとを有する。これらの機能ブロックによる処理は、主に投影装置30を制御するために実行される。また、制御部120は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路、又は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路である。   The control unit 120 has an internal memory for storing a control program, a program defining various processing procedures, and required data. The control unit 120 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 121e, and an imaging control unit 121f. The processing by these functional blocks is mainly executed to control the imaging device 20. The control unit 120 includes an operation detection unit 122a and a projection control unit 122b. The processing by these functional blocks is mainly executed for controlling the projection device 30. The control unit 120 is, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), or an electronic circuit such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). .

画像検出部121aは、投影画像内に配置されたユーザ操作のためのオブジェクトを検出する。より具体的には、画像検出部121aは、ユーザの操作対象となる画像を表す操作対象画像を取得する。操作対象画像は、記憶部110に記憶されていても良いし、外部の記憶装置やサーバ装置等から取得されても良い。また、画像検出部121aは、撮像画像を撮像画像記憶部111から取得する。そして、画像検出部121aは、取得した操作対象画像と撮像画像とから、操作対象画像に一致する投影画像内の画像を表す一致画像を検出する。一致画像は、投影画像内に配置されたユーザ操作のためのオブジェクトに対応する。ここで、画像検出部121aによる一致画像の検出処理のために、撮像制御部121fは、撮像装置20のカメラレンズの方向を制御することにより、撮像領域を移動させる。これにより、撮像部21は、撮像領域を移動しながら撮像することにより、複数の撮像画像を生成する。   The image detection unit 121a detects an object for a user operation arranged in the projection image. More specifically, the image detection unit 121a acquires an operation target image that represents an image to be operated by the user. The operation target image may be stored in the storage unit 110 or may be acquired from an external storage device, a server device, or the like. In addition, the image detection unit 121a acquires a captured image from the captured image storage unit 111. Then, the image detection unit 121a detects a matching image representing an image in the projection image that matches the operation target image from the acquired operation target image and the captured image. The coincidence image corresponds to an object for a user operation arranged in the projection image. Here, for the matching image detection process by the image detection unit 121a, the imaging control unit 121f moves the imaging region by controlling the direction of the camera lens of the imaging device 20. Thereby, the imaging part 21 produces | generates a some captured image by imaging, moving an imaging region.

図3は、実施の形態1に係る一致画像の検出処理を説明する図である。図3上段の左方は、デフォルトの状態を表している。図3上段の左方に示すように、撮像領域3は、ボタン画像2が配置された投影画像1よりも小さい。また、投影画像1、ボタン画像2及び撮像領域3は、方形である。このような状態において、制御装置100は、投影装置30の電源が投入されたときや、投影される投影画像1が切り替わったとき等に、以下の処理を開始する。   FIG. 3 is a diagram for explaining the matching image detection process according to the first embodiment. The left side of the upper part of FIG. 3 represents a default state. As shown on the left in the upper part of FIG. 3, the imaging region 3 is smaller than the projected image 1 on which the button image 2 is arranged. Further, the projection image 1, the button image 2, and the imaging region 3 are square. In such a state, the control device 100 starts the following processing when the power of the projection device 30 is turned on or when the projected image 1 to be projected is switched.

撮像制御部121fは、投影画像1に埋め込まれた各頂点の座標情報を探索させるために、撮像領域3を投影画像1の左上方向に移動させるように撮像装置20に対して指示する。指示を受けた撮像部21は、投影画像1の左上の頂点の座標情報を検出する。そして、撮像制御部121fは、検出された投影画像1の左上の頂点座標に、撮像領域3の左上の頂点が重なるように、撮像装置20に対して指示する。指示を受けた撮像部21は、図3上段の右方に示すように、投影画像1の左上の頂点座標に、撮像領域3の左上の頂点が重なるように撮像領域3を移動し、このときの撮像領域3を撮像して撮像画像を生成する。生成された撮像画像は、撮像制御部121fを介して、撮像画像記憶部111に格納される。   The imaging control unit 121 f instructs the imaging device 20 to move the imaging region 3 in the upper left direction of the projection image 1 in order to search for coordinate information of each vertex embedded in the projection image 1. Upon receiving the instruction, the imaging unit 21 detects the coordinate information of the upper left vertex of the projection image 1. Then, the imaging control unit 121f instructs the imaging device 20 so that the upper left vertex of the imaging region 3 overlaps the upper left vertex coordinate of the detected projection image 1. The imaging unit 21 that has received the instruction moves the imaging region 3 so that the upper left vertex of the imaging region 3 overlaps with the upper left vertex coordinate of the projection image 1, as shown on the right side of FIG. The captured area 3 is captured to generate a captured image. The generated captured image is stored in the captured image storage unit 111 via the imaging control unit 121f.

その後、撮像制御部121fは、図3中段の右方、図3中段の左方及び図3下段の左方に示すように、投影画像1の各頂点座標と、撮像領域3の対応する各頂点とが重なるように、撮像領域を順次移動させる指示を撮像装置20に対して行なう。これらにより、撮像画像記憶部111には、撮像部21によって生成された複数の撮像画像が記憶される。図3に示した例では、投影画像1の左上の頂点の座標情報が検出されたときに撮像された撮像画像に、ボタン画像2が含まれている。そして、図3下段の右方に示すように、撮像制御部121fは、投影画像1全体の検出が終了すると、撮像領域3の位置をデフォルトの状態へ戻すように撮像部21を制御する。また、撮像制御部121fは、デフォルトの状態における撮像領域3についても撮像するように撮像装置20に指示する。これにより、撮像画像記憶部111には、デフォルトの状態で撮像された撮像画像も含まれる。   Thereafter, the imaging control unit 121f displays the vertex coordinates of the projection image 1 and the corresponding vertices of the imaging region 3 as shown on the right side in the middle of FIG. 3, the left side in the middle of FIG. The imaging device 20 is instructed to sequentially move the imaging area so that the two overlap each other. Thus, the captured image storage unit 111 stores a plurality of captured images generated by the imaging unit 21. In the example illustrated in FIG. 3, the button image 2 is included in the captured image captured when the coordinate information of the upper left vertex of the projection image 1 is detected. 3, when the detection of the entire projection image 1 is completed, the imaging control unit 121f controls the imaging unit 21 to return the position of the imaging region 3 to the default state. In addition, the imaging control unit 121f instructs the imaging device 20 to capture an image of the imaging region 3 in the default state. Thereby, the captured image storage unit 111 includes captured images captured in a default state.

投影画像1全体の検出処理終了後、画像検出部121aは、操作対象画像を取得するとともに、撮像画像記憶部111から複数の撮像画像を取得する。そして、画像検出部121aは、複数の撮像画像内において、操作対象画像と一致する一致画像を検出することにより、投影画像内に配置されたボタン画像2を検出する。   After the detection processing of the entire projection image 1 is completed, the image detection unit 121a acquires an operation target image and acquires a plurality of captured images from the captured image storage unit 111. Then, the image detection unit 121a detects the button image 2 arranged in the projection image by detecting a matching image that matches the operation target image in the plurality of captured images.

第1座標算出部121bは、投影画像に対する撮像領域の位置を特定するための座標を表す第1座標を算出する。より具体的には、第1座標算出部121bは、投影画像の左下の頂点座標を(0,0)としたときの投影画像に対する、現在の撮像領域の頂点座標全てを算出する。現在の撮像領域の頂点座標は、撮像画像記憶部111に記憶された複数の撮像画像から求められる。算出される現在の撮像領域の頂点座標は、デフォルトの状態における撮像領域の頂点座標となる(図3上段の左方参照)。   The first coordinate calculation unit 121b calculates first coordinates representing coordinates for specifying the position of the imaging region with respect to the projection image. More specifically, the first coordinate calculation unit 121b calculates all the vertex coordinates of the current imaging region with respect to the projection image when the lower left vertex coordinate of the projection image is (0, 0). The vertex coordinates of the current imaging area are obtained from a plurality of captured images stored in the captured image storage unit 111. The calculated vertex coordinates of the current imaging region are the vertex coordinates of the imaging region in the default state (see the left side in the upper part of FIG. 3).

第2座標算出部121cは、投影画像に対する一致画像の位置を特定するための座標を表す第2座標を算出する。より具体的には、第2座標算出部121cは、投影画像の左下の頂点座標を(0,0)としたときの投影画像に対する、ボタン画像の頂点座標全てを算出する。ボタン画像の頂点座標は、撮像画像記憶部111に記憶された複数の撮像画像から求められる。   The second coordinate calculation unit 121c calculates second coordinates representing coordinates for specifying the position of the coincidence image with respect to the projection image. More specifically, the second coordinate calculation unit 121c calculates all the vertex coordinates of the button image with respect to the projection image when the lower left vertex coordinate of the projection image is (0, 0). The vertex coordinates of the button image are obtained from a plurality of captured images stored in the captured image storage unit 111.

包含判定部121dは、撮像領域が一致画像を包含しているか否かを判定する。より具体的には、包含判定部121dは、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標と、第2座標算出部121cによって算出されたボタン画像の各頂点座標とから、現在の撮像領域がボタン画像を包含しているか否かを判定する。そして、包含判定部121dは、現在の撮像領域がボタン画像を包含しているか否かの判定結果を、移動情報算出部121eに対して通知する。   The inclusion determination unit 121d determines whether or not the imaging region includes a matching image. More specifically, the inclusion determination unit 121d determines from the vertex coordinates of the current imaging area calculated by the first coordinate calculation unit 121b and the vertex coordinates of the button image calculated by the second coordinate calculation unit 121c. Then, it is determined whether or not the current imaging area includes a button image. Then, the inclusion determination unit 121d notifies the movement information calculation unit 121e of the determination result as to whether or not the current imaging region includes a button image.

ここで、包含判定部121dによる判定処理の一例を説明する。以下のように、各頂点座標について比較すれば良い。   Here, an example of the determination process by the inclusion determination unit 121d will be described. What is necessary is just to compare about each vertex coordinate as follows.

左下の頂点座標の比較。
「ボタン画像の左下の頂点のx座標<撮像領域の左下の頂点のx座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「撮像領域の左下の頂点のx座標<=ボタン画像の左下の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「ボタン画像の左下の頂点のy座標<撮像領域の左下の頂点のy座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「撮像領域の左下の頂点のy座標<=ボタン画像の左下の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Comparison of the lower left vertex coordinates.
If “the x coordinate of the lower left vertex of the button image <the x coordinate of the lower left vertex of the imaging region”, the determination result is that the current imaging region does not include the button image.
If “x coordinate of the lower left vertex of the imaging region <= x coordinate of the lower left vertex of the button image” cannot be determined, the following comparison is performed.
If “y coordinate of the lower left vertex of the button image <y coordinate of the lower left vertex of the imaging region”, the determination result indicates that the current imaging region does not include the button image.
If “y coordinate of the lower left vertex of the imaging region <= y coordinate of the lower left vertex of the button image” cannot be determined, the following comparison is performed.

左上の頂点座標の比較。
「ボタン画像の左上の頂点のx座標<撮像領域の左上の頂点のx座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「撮像領域の左上の頂点のx座標<=ボタン画像の左上の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「撮像領域の左上の頂点のy座標<ボタン画像の左上の頂点のy座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「ボタン画像の左上の頂点のy座標<=撮像領域の左上の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Top left vertex coordinate comparison.
If “the x coordinate of the upper left vertex of the button image <the x coordinate of the upper left vertex of the imaging region”, the determination result indicates that the current imaging region does not include the button image.
If “x coordinate of the upper left vertex of the imaging region <= x coordinate of the upper left vertex of the button image” cannot be determined, the following comparison is performed.
If “y coordinate of the upper left vertex of the imaging region <y coordinate of the upper left vertex of the button image”, the determination result indicates that the current imaging region does not include the button image.
If “y coordinate of the upper left vertex of the button image <= y coordinate of the upper left vertex of the imaging region”, since it cannot be determined, the following comparison is performed.

右下の頂点座標の比較。
「撮像領域の右下の頂点のx座標<ボタン画像の右下の頂点のx座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「ボタン画像の右下の頂点のx座標<=撮像領域の右下の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「ボタン画像の右下の頂点のy座標<撮像領域の右下の頂点のy座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「撮像領域の右下の頂点のy座標<=ボタン画像の右下の頂点のy座標」であれば、判定できないため、次の比較を行なう。
Comparison of the lower right vertex coordinates.
If “the x coordinate of the lower right vertex of the imaging region <the x coordinate of the lower right vertex of the button image”, the determination result indicates that the current imaging region does not include the button image.
If “x coordinate of the lower right vertex of the button image <= x coordinate of the lower right vertex of the imaging region”, it cannot be determined, so the following comparison is performed.
If “y coordinate of the lower right vertex of the button image <y coordinate of the lower right vertex of the imaging region”, the determination result is that the current imaging region does not include the button image.
If “y coordinate of the lower right vertex of the imaging region <= y coordinate of the lower right vertex of the button image” cannot be determined, the following comparison is performed.

右上の頂点座標の比較。
「撮像領域の右上の頂点のx座標<ボタン画像の右上の頂点のx座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「ボタン画像の右上の頂点のx座標<=撮像領域の右上の頂点のx座標」であれば、判定できないため、次の比較を行なう。
「撮像領域の右上の頂点のy座標<ボタン画像の右上の頂点のy座標」であれば、現在の撮像領域がボタン画像を包含していない判定結果となる。
「ボタン画像の右上の頂点のy座標<=撮像領域の右上の頂点のy座標」であれば、現在の撮像領域がボタン画像を包含している判定結果となる。
Top right vertex coordinate comparison.
If “the x coordinate of the upper right vertex of the imaging region <the x coordinate of the upper right vertex of the button image”, the determination result indicates that the current imaging region does not include the button image.
If “x coordinate of upper right vertex of button image <= x coordinate of upper right vertex of imaging region” cannot be determined, the following comparison is performed.
If “y coordinate of the upper right vertex of the imaging region <y coordinate of the upper right vertex of the button image”, the determination result is that the current imaging region does not include the button image.
If “y coordinate of the upper right vertex of the button image <= y coordinate of the upper right vertex of the imaging region”, the determination result indicates that the current imaging region includes the button image.

移動情報算出部121eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部121eは、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部121eは、現在の撮像領域がボタン画像を包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。また、移動情報算出部121eは、現在の撮像領域がボタン画像を包含していないと判定された場合に、第2座標算出部121cによって算出されたボタン画像の各頂点座標から、ボタン画像の重心となる座標を算出する。   The movement information calculation unit 121e calculates movement information for moving the imaging region. More specifically, the movement information calculation unit 121e receives a determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging region does not include the button image, the movement information calculation unit 121e calculates the current information from each vertex coordinate of the current imaging region calculated by the first coordinate calculation unit 121b. The coordinates serving as the center of gravity of the imaging region are calculated. In addition, the movement information calculation unit 121e determines the center of gravity of the button image from the vertex coordinates of the button image calculated by the second coordinate calculation unit 121c when it is determined that the current imaging region does not include the button image. Calculate the coordinates.

そして、移動情報算出部121eは、現在の撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を、移動情報として算出する。なお、移動情報算出部121eは、現在の撮像領域がボタン画像を包含していると判定された場合に、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。その後、移動情報算出部121eは、算出した移動量を撮像制御部121fに対して通知する。   Then, the movement information calculation unit 121e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the button image. The movement information calculation unit 121e can accept a user operation without moving the imaging area when it is determined that the current imaging area includes a button image. The movement information set to “0” is calculated. Thereafter, the movement information calculation unit 121e notifies the imaging control unit 121f of the calculated movement amount.

ここで、移動情報算出部121eによる移動量算出処理の一例を説明する。以下のように、各頂点座標からx方向とy方向との中点座標をそれぞれ求めることにより重心となる座標を求め、求めた中点座標間を移動するための値を撮像領域の移動量とすれば良い。   Here, an example of movement amount calculation processing by the movement information calculation unit 121e will be described. As described below, the coordinates of the center of gravity are obtained by obtaining the midpoint coordinates of the x direction and the y direction from the respective vertex coordinates, and the value for moving between the obtained midpoint coordinates is set as the movement amount of the imaging region. Just do it.

現在の撮像領域の重心となる座標。
「x座標=
(撮像領域の左下の頂点のx座標+撮像領域の右上の頂点のx座標)÷2」
「y座標=
(撮像領域の左下の頂点のy座標+撮像領域の右上の頂点のy座標)÷2」
Coordinates that are the center of gravity of the current imaging area.
"X coordinate =
(X coordinate of the lower left vertex of the imaging area + x coordinate of the upper right vertex of the imaging area) / 2
"Y coordinate =
(Y coordinate of the lower left vertex of the imaging area + y coordinate of the upper right vertex of the imaging area) / 2 ”

ボタン画像の重心となる座標。
「x座標=
(ボタン画像の左下の頂点のx座標+ボタン画像の右上の頂点のx座標)÷2」
「y座標=
(ボタン画像の左下の頂点のy座標+ボタン画像の右上の頂点のy座標)÷2」
The coordinates that are the center of gravity of the button image.
"X coordinate =
(X coordinate of lower left vertex of button image + x coordinate of upper right vertex of button image) / 2
"Y coordinate =
(Y coordinate of the lower left vertex of the button image + y coordinate of the upper right vertex of the button image) / 2 ”

算出される移動量。
「x座標=
ボタン画像の重心となる座標のx座標−現在の撮像領域の重心となる座標のx座標」
「y座標=
ボタン画像の重心となる座標のy座標−現在の撮像領域の重心となる座標のy座標」
Calculated amount of movement.
"X coordinate =
X-coordinate of the coordinate serving as the center of gravity of the button image-x-coordinate of the coordinate serving as the center of gravity of the current imaging region "
"Y coordinate =
The y-coordinate of the coordinates that will be the center of gravity of the button image-the y-coordinate of the coordinates that will be the center of gravity of the current imaging area "

撮像制御部121fは、撮像部21による撮像を制御する。より具体的には、撮像制御部121fは、移動情報算出部121eから撮像領域の移動量を受け付けて、受け付けた移動量にしたがって、撮像領域を移動させるように撮像部21による撮像を制御する。なお、撮像制御部121fは、移動情報算出部121eによって通知された移動量が「0」である場合には、撮像部21に対する制御を行なわない。   The imaging control unit 121f controls imaging by the imaging unit 21. More specifically, the imaging control unit 121f receives the movement amount of the imaging region from the movement information calculation unit 121e, and controls imaging by the imaging unit 21 so as to move the imaging region according to the received movement amount. Note that the imaging control unit 121f does not control the imaging unit 21 when the movement amount notified by the movement information calculation unit 121e is “0”.

図4は、実施の形態1に係る撮像領域の移動を説明する図である。図4上段に示した例において、ボタン画像2の各頂点座標は、(1,9)、(1,11)、(5,9)、(5,11)である。同様に、撮像領域3の各頂点座標は、(6,4)、(6,8)、(12,4)、(12,8)である。投影画像1は、上記の各頂点座標を有するボタン画像2と撮像領域3とを含んでいる。   FIG. 4 is a diagram for explaining the movement of the imaging region according to the first embodiment. In the example shown in the upper part of FIG. 4, the vertex coordinates of the button image 2 are (1, 9), (1, 11), (5, 9), and (5, 11). Similarly, the vertex coordinates of the imaging region 3 are (6, 4), (6, 8), (12, 4), and (12, 8). The projection image 1 includes a button image 2 having the above vertex coordinates and an imaging region 3.

上述した状態において、移動情報算出部121eは、撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標(9,6)を算出する。図4において、撮像領域3の重心となる座標は、黒四角で表している。また、移動情報算出部121eは、ボタン画像2の各頂点座標から、ボタン画像2の重心となる座標(3,10)を算出する。図4において、ボタン画像2の重心となる座標は、黒丸で表している。   In the state described above, the movement information calculation unit 121e calculates coordinates (9, 6) that are the center of gravity of the current imaging region 3 from the vertex coordinates of the imaging region 3. In FIG. 4, the coordinates serving as the center of gravity of the imaging region 3 are represented by black squares. Further, the movement information calculation unit 121e calculates coordinates (3, 10) that are the center of gravity of the button image 2 from the vertex coordinates of the button image 2. In FIG. 4, the coordinates serving as the center of gravity of the button image 2 are represented by black circles.

そして、移動情報算出部121eは、現在の撮像領域3の重心となる座標(9,6)から、ボタン画像2の重心となる座標(3,10)への移動量を算出する。かかる移動量の算出では、「x方向=3−9=−6」、「y方向=10−6=+4」となるので、現在の撮像領域3を、x方向に「−6」移動させ、y方向に「+4」移動させる移動量「(−6,+4)」が得られる。その後、撮像制御部121fは、現在の撮像領域3をx方向に「−6」移動させ、y方向に「+4」移動させるための移動量「(−6,+4)」を撮像装置20に対して送信する。これらにより、図4下段に示すように、ボタン画像2の重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   Then, the movement information calculation unit 121e calculates the movement amount from the coordinates (9, 6) serving as the center of gravity of the current imaging region 3 to the coordinates (3, 10) serving as the center of gravity of the button image 2. In the calculation of the movement amount, since “x direction = 3-9 = −6” and “y direction = 10−6 = + 4”, the current imaging region 3 is moved “−6” in the x direction, A movement amount “(−6, +4)” to be moved “+4” in the y direction is obtained. Thereafter, the imaging control unit 121f moves the current imaging region 3 by “−6” in the x direction and “(−6, +4)” for moving “+4” in the y direction to the imaging device 20. To send. As a result, as shown in the lower part of FIG. 4, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2.

操作検出部122aは、投影画像内のオブジェクトに対するユーザ操作を検出する。より具体的には、操作検出部122aは、撮像画像記憶部111から撮像画像を取得し、取得した撮像画像からボタン画像に対するユーザ操作を検出する。操作検出部122aによるユーザ操作の検出は、撮像部21による撮像領域の移動処理後に行なわれる。   The operation detection unit 122a detects a user operation on an object in the projection image. More specifically, the operation detection unit 122a acquires a captured image from the captured image storage unit 111, and detects a user operation on the button image from the acquired captured image. Detection of a user operation by the operation detection unit 122a is performed after the imaging region moving process by the imaging unit 21.

投影制御部122bは、投影装置30による投影画像の投影を制御する。より具体的には、投影制御部122bは、操作検出部122aによって検出されたユーザ操作に応じて投影画像を生成し、生成した投影画像の投影部31による投影を制御する。   The projection control unit 122b controls the projection of the projection image by the projection device 30. More specifically, the projection control unit 122b generates a projection image according to the user operation detected by the operation detection unit 122a, and controls the projection of the generated projection image by the projection unit 31.

[実施の形態1に係る移動量算出処理フロー]
次に、図5を用いて、実施の形態1に係る移動量算出処理の流れについて説明する。図5は、実施の形態1に係る移動量算出処理の流れの例を示すフローチャートである。
[Movement amount calculation processing flow according to Embodiment 1]
Next, the flow of the movement amount calculation process according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the flow of movement amount calculation processing according to the first embodiment.

図5に示すように、第1座標算出部121bは、現在の撮像領域の頂点座標を算出する(ステップS101)。また、第2座標算出部121cは、ボタン画像の頂点座標を算出する(ステップS102)。そして、包含判定部121dは、現在の撮像領域にボタン画像が包含されているか否かを判定する(ステップS103)。   As shown in FIG. 5, the first coordinate calculation unit 121b calculates the vertex coordinates of the current imaging region (step S101). Further, the second coordinate calculation unit 121c calculates the vertex coordinates of the button image (step S102). Then, the inclusion determination unit 121d determines whether or not the button image is included in the current imaging region (step S103).

このとき、包含判定部121dによって包含されていないと判定された場合に(ステップS103:No)、移動情報算出部121eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS104)。また、移動情報算出部121eは、第2座標算出部121cによって算出された頂点座標から、ボタン画像の重心となる座標を算出する(ステップS105)。   At this time, when it is determined by the inclusion determination unit 121d that it is not included (step S103: No), the movement information calculation unit 121e determines the current imaging region from the vertex coordinates calculated by the first coordinate calculation unit 121b. The coordinates serving as the center of gravity are calculated (step S104). In addition, the movement information calculation unit 121e calculates a coordinate serving as the center of gravity of the button image from the vertex coordinates calculated by the second coordinate calculation unit 121c (step S105).

そして、移動情報算出部121eは、現在の撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を算出する(ステップS106)。なお、包含判定部121dによって包含されていると判定された場合に(ステップS103:Yes)、移動情報算出部121eは、現在の撮像領域を移動させなくても良いため、移動量を「0」とする(ステップS107)。   Then, the movement information calculation unit 121e calculates the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the button image (step S106). If it is determined by the inclusion determination unit 121d that the movement is calculated (step S103: Yes), the movement information calculation unit 121e does not have to move the current imaging region, and thus the movement amount is “0”. (Step S107).

[実施の形態1による効果]
本実施の形態は、撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を算出し、算出した移動量により撮像領域がボタン画像に重なるように移動させる制御を撮像装置に対して行なう。この結果、本実施の形態によれば、投影面と撮像装置との距離を十分に確保できない場合であっても、投影装置に対するユーザ操作の検出精度を向上させることができる。
[Effects of Embodiment 1]
In the present embodiment, the imaging apparatus calculates a movement amount from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of the button image, and moves the imaging region so as to overlap the button image based on the calculated movement amount. To. As a result, according to the present embodiment, it is possible to improve the detection accuracy of the user operation on the projection device even when the distance between the projection surface and the imaging device cannot be sufficiently secured.

(実施の形態2)
上記実施の形態1では、ユーザ操作のためのオブジェクトの重心に、撮像領域の重心を重ねるための撮像領域の移動量を算出する場合を説明した。実施の形態2では、撮像領域のより小さい移動量を算出する場合を説明する。
(Embodiment 2)
In the first embodiment, the case has been described in which the movement amount of the imaging region for superimposing the centroid of the imaging region on the centroid of the object for user operation is calculated. In the second embodiment, a case where a smaller movement amount of the imaging area is calculated will be described.

[実施の形態2に係る装置構成]
図6を用いて、実施の形態2に係る装置構成を説明する。図6は、実施の形態2に係る装置構成例を示す機能ブロック図である。実施の形態2では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動情報算出部221e以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus configuration according to Embodiment 2]
The apparatus configuration according to the second embodiment will be described with reference to FIG. FIG. 6 is a functional block diagram illustrating a device configuration example according to the second embodiment. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement information calculation unit 221e described below are the same as those in the first embodiment.

図6に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置200は、記憶部110と、制御部220とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部220は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部221eと、撮像制御部121fとを有する。また、制御部220は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 6, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 200 includes a storage unit 110 and a control unit 220. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 220 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 221e, and an imaging control unit 121f. The control unit 220 includes an operation detection unit 122a and a projection control unit 122b.

移動情報算出部221eは、撮像領域の移動量が最小となる移動情報を算出する。より具体的には、移動情報算出部221eは、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部221eは、現在の撮像領域がボタン画像を包含していないと判定された場合に、撮像領域の各頂点座標とボタン画像の各頂点座標との対応する座標間で、距離が最小となる移動量を算出する。   The movement information calculation unit 221e calculates movement information that minimizes the movement amount of the imaging region. More specifically, the movement information calculation unit 221e receives the determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging region does not include the button image, the movement information calculation unit 221e, between the corresponding coordinates of each vertex coordinate of the imaging region and each vertex coordinate of the button image, The movement amount that minimizes the distance is calculated.

ここで、移動情報算出部221eによる移動量算出処理の一例を説明する。以下のように、対応する各頂点座標間での移動量を求め、求めた移動量が最小となる値を撮像領域の移動量とすれば良い。   Here, an example of movement amount calculation processing by the movement information calculation unit 221e will be described. As described below, the movement amount between the corresponding vertex coordinates is obtained, and the value that minimizes the obtained movement amount may be set as the movement amount of the imaging region.

左下の頂点の座標間の移動量。
「x方向の移動量=ボタン画像の左下の頂点のx座標−撮像領域の左下の頂点のx座標」
「y方向の移動量=ボタン画像の左下の頂点のy座標−撮像領域の左下の頂点のy座標」
The amount of movement between the coordinates of the lower left vertex.
“Movement amount in x direction = x coordinate of lower left vertex of button image−x coordinate of lower left vertex of imaging region”
“Y-direction movement amount = y coordinate of the lower left vertex of the button image−y coordinate of the lower left vertex of the imaging area”

左上の頂点の座標間の移動量。
「x方向の移動量=ボタン画像の左上の頂点のx座標−撮像領域の左上の頂点のx座標」
「y方向の移動量=ボタン画像の左上の頂点のy座標−撮像領域の左上の頂点のy座標」
The amount of movement between the coordinates of the top left vertex.
“Movement amount in x direction = x coordinate of upper left vertex of button image−x coordinate of upper left vertex of imaging region”
“Y-direction movement amount = y coordinate of the upper left vertex of the button image−y coordinate of the upper left vertex of the imaging region”

右下の頂点の座標間の移動量。
「x方向の移動量=ボタン画像の右下の頂点のx座標−撮像領域の右下の頂点のx座標」
「y方向の移動量=ボタン画像の右下の頂点のy座標−撮像領域の右下の頂点のy座標」
The amount of movement between the coordinates of the lower right vertex.
“Movement amount in x direction = x coordinate of lower right vertex of button image−x coordinate of lower right vertex of imaging region”
“Y-direction movement amount = y coordinate of the lower right vertex of the button image−y coordinate of the lower right vertex of the imaging region”

右上の頂点の座標間の移動量。
「x方向の移動量=ボタン画像の右上の頂点のx座標−撮像領域の右上の頂点のx座標」
「y方向の移動量=ボタン画像の右上の頂点のy座標−撮像領域の右上の頂点のy座標」
The amount of movement between the coordinates of the upper right vertex.
“Movement amount in x direction = x coordinate of upper right vertex of button image−x coordinate of upper right vertex of imaging region”
“Y-direction movement amount = y coordinate of the upper right vertex of the button image−y coordinate of the upper right vertex of the imaging area”

図7は、実施の形態2に係る撮像領域の移動を説明する図である。図7上段に示した例において、ボタン画像2の各頂点座標は、(1,9)、(1,11)、(5,9)、(5,11)である。同様に、撮像領域3の各頂点座標は、(6,4)、(6,8)、(12,4)、(12,8)である。投影画像1は、上記の各頂点座標を有するボタン画像2と撮像領域3とを含んでいる。   FIG. 7 is a diagram for explaining movement of the imaging region according to the second embodiment. In the example shown in the upper part of FIG. 7, the vertex coordinates of the button image 2 are (1, 9), (1, 11), (5, 9), and (5, 11). Similarly, the vertex coordinates of the imaging region 3 are (6, 4), (6, 8), (12, 4), and (12, 8). The projection image 1 includes a button image 2 having the above vertex coordinates and an imaging region 3.

上述した状態において、移動情報算出部221eは、左下の頂点の座標間の移動量「x方向=1−6=−5」、「y方向=9−4=+5」を算出する。これにより、現在の撮像領域3をx方向に「−5」移動させ、y方向に「+5」移動させる移動量「(−5,+5)」が得られる。移動量「(−5,+5)」の距離は、「10」となる。   In the state described above, the movement information calculation unit 221e calculates the movement amounts “x direction = 1-6 = −5” and “y direction = 9-4 = + 5” between the coordinates of the lower left vertex. As a result, the movement amount “(−5, +5)” for moving the current imaging region 3 by “−5” in the x direction and “+5” in the y direction is obtained. The distance of the movement amount “(−5, +5)” is “10”.

また、移動情報算出部221eは、左上の頂点の座標間の移動量「x方向=1−6=−5」、「y方向=11−8=+3」を算出する。これにより、現在の撮像領域3をx方向に「−5」移動させ、y方向に「+3」移動させる移動量「(−5,+3)」が得られる。移動量「(−5,+3)」の距離は、「8」となる。   Further, the movement information calculation unit 221e calculates the movement amounts “x direction = 1-6 = −5” and “y direction = 11−8 = + 3” between the coordinates of the upper left vertex. As a result, a movement amount “(−5, +3)” for moving the current imaging region 3 by “−5” in the x direction and “+3” in the y direction is obtained. The distance of the movement amount “(−5, +3)” is “8”.

また、移動情報算出部221eは、右下の頂点の座標間の移動量「x方向=5−12=−7」、「y方向=9−4=+5」を算出する。これにより、現在の撮像領域3をx方向に「−7」移動させ、y方向に「+5」移動させる移動量「(−7,+5)」が得られる。移動量「(−7,+5)」の距離は、「12」となる。   Further, the movement information calculation unit 221e calculates the movement amounts “x direction = 5-12 = −7” and “y direction = 9-4 = + 5” between the coordinates of the lower right vertex. As a result, a movement amount “(−7, +5)” for moving the current imaging region 3 “−7” in the x direction and “+5” in the y direction is obtained. The distance of the movement amount “(−7, +5)” is “12”.

また、移動情報算出部221eは、右上の頂点の座標間の移動量「x方向=5−12=−7」、「y方向=11−8=+3」を算出する。これにより、現在の撮像領域3をx方向に「−7」移動させ、y方向に「+3」移動させる移動量「(−7,+3)」が得られる。移動量「(−7,+3)」の距離は、「10」となる。   Further, the movement information calculation unit 221e calculates the movement amounts “x direction = 5-12 = −7” and “y direction = 11−8 = + 3” between the coordinates of the upper right vertex. As a result, a movement amount “(−7, +3)” for moving the current imaging region 3 by “−7” in the x direction and “+3” in the y direction is obtained. The distance of the movement amount “(−7, +3)” is “10”.

そして、移動情報算出部221eは、座標間の距離が最小となる移動量「(−5,+3)」を移動情報として算出する。算出された移動量「(−5,+3)」は、撮像制御部121fを介して撮像装置20に送信され、撮像装置20によって撮像領域3の移動が行なわれる。これらにより、図7下段に示すように、ボタン画像2の左上の頂点座標に、撮像領域3の左上の頂点座標が重なった移動結果が得られる。   Then, the movement information calculation unit 221e calculates the movement amount “(−5, +3)” that minimizes the distance between the coordinates as the movement information. The calculated movement amount “(−5, +3)” is transmitted to the imaging device 20 via the imaging control unit 121f, and the imaging region 3 is moved by the imaging device 20. As a result, as shown in the lower part of FIG. 7, a movement result is obtained in which the upper left vertex coordinates of the imaging region 3 overlap the upper left vertex coordinates of the button image 2.

[実施の形態2に係る移動量算出処理フロー]
次に、図8を用いて、実施の形態2に係る移動量算出処理の流れについて説明する。図8は、実施の形態2に係る移動量算出処理の流れの例を示すフローチャートである。なお、図8は、図5に示した「ステップS103:No」の後の処理を表している。すなわち、図8は、撮像領域にボタン画像が包含されていない場合における移動量算出処理の流れを表している。
[Moving amount calculation processing flow according to Embodiment 2]
Next, the flow of the movement amount calculation process according to the second embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the flow of movement amount calculation processing according to the second embodiment. FIG. 8 shows the processing after “Step S103: No” shown in FIG. That is, FIG. 8 shows the flow of the movement amount calculation process when the button image is not included in the imaging region.

図8に示すように、移動情報算出部221eは、第1座標算出部121bによって算出された頂点座標と、第2座標算出部121cによって算出された頂点座標との、対応する座標間それぞれの距離を算出する(ステップS201)。そして、移動情報算出部221eは、撮像領域とボタン画像とで、左下の頂点の座標間の距離が最小であるか否かを判定する(ステップS202)。   As illustrated in FIG. 8, the movement information calculation unit 221e includes distances between corresponding coordinates between the vertex coordinates calculated by the first coordinate calculation unit 121b and the vertex coordinates calculated by the second coordinate calculation unit 121c. Is calculated (step S201). Then, the movement information calculation unit 221e determines whether or not the distance between the coordinates of the lower left vertex is the minimum in the imaging region and the button image (step S202).

このとき、移動情報算出部221eは、左下の頂点の座標間の距離が最小であると判定した場合に(ステップS202:Yes)、左下の頂点の座標間の移動量を移動情報とする(ステップS203)。一方、移動情報算出部221eは、左下の頂点の座標間の距離が最小でないと判定した場合に(ステップS202:No)、撮像領域とボタン画像とで、左上の頂点の座標間の距離が最小であるか否かを判定する(ステップS204)。   At this time, if the movement information calculation unit 221e determines that the distance between the coordinates of the lower left vertex is the minimum (step S202: Yes), the movement amount between the coordinates of the lower left vertex is used as the movement information (step S202). S203). On the other hand, when the movement information calculation unit 221e determines that the distance between the coordinates of the lower left vertex is not the minimum (step S202: No), the distance between the coordinates of the upper left vertex is the minimum in the imaging region and the button image. It is determined whether or not (step S204).

このとき、移動情報算出部221eは、左上の頂点の座標間の距離が最小であると判定した場合に(ステップS204:Yes)、左上の頂点の座標間の移動量を移動情報とする(ステップS205)。一方、移動情報算出部221eは、左上の頂点の座標間の距離が最小でないと判定した場合に(ステップS204:No)、撮像領域とボタン画像とで、右下の頂点の座標間の距離が最小であるか否かを判定する(ステップS206)。   At this time, if the movement information calculation unit 221e determines that the distance between the coordinates of the upper left vertex is the minimum (step S204: Yes), the movement amount between the coordinates of the upper left vertex is used as the movement information (step S204). S205). On the other hand, when the movement information calculation unit 221e determines that the distance between the coordinates of the upper left vertex is not the minimum (step S204: No), the distance between the coordinates of the lower right vertex is the imaging region and the button image. It is determined whether or not it is minimum (step S206).

このとき、移動情報算出部221eは、右下の頂点の座標間の距離が最小であると判定した場合に(ステップS206:Yes)、右下の頂点の座標間の移動量を移動情報とする(ステップS207)。一方、移動情報算出部221eは、右下の頂点の座標間の距離が最小でないと判定した場合に(ステップS206:No)、右上の頂点の座標間の移動量を移動情報とする(ステップS208)。   At this time, when the movement information calculation unit 221e determines that the distance between the coordinates of the lower right vertex is the minimum (step S206: Yes), the movement amount between the coordinates of the lower right vertex is used as the movement information. (Step S207). On the other hand, if the movement information calculation unit 221e determines that the distance between the coordinates of the lower right vertex is not the minimum (step S206: No), the movement amount between the coordinates of the upper right vertex is used as the movement information (step S208). ).

[実施の形態2による効果]
本実施の形態は、撮像領域の頂点座標とボタン画像の頂点座標との、対応する頂点の座標間の距離を求め、求めた距離が最小となる座標間の移動量を、撮像領域の移動量として算出する。この結果、本実施の形態によれば、撮像領域の移動に要する処理負荷や処理時間を抑制しつつ、投影装置に対するユーザ操作の検出精度を向上させることができる。
[Effects of Embodiment 2]
In the present embodiment, the distance between the coordinates of corresponding vertices between the vertex coordinates of the imaging region and the vertex coordinates of the button image is obtained, and the movement amount between the coordinates at which the obtained distance is the minimum is determined as the movement amount of the imaging region. Calculate as As a result, according to the present embodiment, it is possible to improve the detection accuracy of the user operation on the projection apparatus while suppressing the processing load and processing time required for moving the imaging region.

(実施の形態3)
上記実施の形態1では、ユーザ操作のためのオブジェクトの重心に、撮像領域の重心を重ねるための撮像領域の移動量を算出する場合を説明した。実施の形態3では、オブジェクトの面積と、撮像領域の面積とに応じて、撮像領域の移動量を算出する場合を説明する。
(Embodiment 3)
In the first embodiment, the case has been described in which the movement amount of the imaging region for superimposing the centroid of the imaging region on the centroid of the object for user operation is calculated. In the third embodiment, a case will be described in which the movement amount of the imaging region is calculated according to the area of the object and the area of the imaging region.

[実施の形態3に係る装置構成]
図9を用いて、実施の形態3に係る装置構成を説明する。図9は、実施の形態3に係る装置構成例を示す機能ブロック図である。実施の形態3では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す包含判定部321d、移動情報算出部321e、面積判定部321g以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus configuration according to Embodiment 3]
The apparatus configuration according to the third embodiment will be described with reference to FIG. FIG. 9 is a functional block diagram showing a device configuration example according to the third embodiment. In the third embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the inclusion determination unit 321d, the movement information calculation unit 321e, and the area determination unit 321g described below are the same as those in the first embodiment.

図9に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置300は、記憶部110と、制御部320とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部320は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部321dと、移動情報算出部321eと、撮像制御部121fと、面積判定部321gとを有する。また、制御部320は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 9, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 300 includes a storage unit 110 and a control unit 320. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 320 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 321d, a movement information calculation unit 321e, an imaging control unit 121f, and an area determination unit 321g. And have. The control unit 320 includes an operation detection unit 122a and a projection control unit 122b.

包含判定部321dは、撮像領域が一致画像を包含しているか否かを判定する。より具体的には、包含判定部321dは、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標と、第2座標算出部121cによって算出されたボタン画像の各頂点座標とから、現在の撮像領域がボタン画像を包含しているか否かを判定する。そして、包含判定部321dは、現在の撮像領域がボタン画像を包含しているか否かの判定結果を、面積判定部321gに対して通知する。   The inclusion determination unit 321d determines whether or not the imaging region includes a matching image. More specifically, the inclusion determination unit 321d determines from the vertex coordinates of the current imaging area calculated by the first coordinate calculation unit 121b and the vertex coordinates of the button image calculated by the second coordinate calculation unit 121c. Then, it is determined whether or not the current imaging area includes a button image. Then, the inclusion determination unit 321d notifies the area determination unit 321g of the determination result of whether or not the current imaging region includes a button image.

面積判定部321gは、撮像領域の面積が一致画像の面積よりも小さいか否かを判定する。より具体的には、面積判定部321gは、包含判定部321dから判定結果を受け付ける。このとき、面積判定部321gは、現在の撮像領域がボタン画像を包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の面積を算出する。また、面積判定部321gは、現在の撮像領域がボタン画像を包含していないと判定された場合に、第2座標算出部121bによって算出されたボタン画像の各頂点座標から、ボタン画像の面積を算出する。そして、面積判定部321gは、現在の撮像領域の面積とボタン画像の面積との大きさを比較し、比較結果を移動情報算出部321eに対して通知する。   The area determination unit 321g determines whether or not the area of the imaging region is smaller than the area of the coincidence image. More specifically, the area determination unit 321g receives the determination result from the inclusion determination unit 321d. At this time, when it is determined that the current imaging region does not include the button image, the area determination unit 321g calculates the current coordinate from the vertex coordinates of the current imaging region calculated by the first coordinate calculation unit 121b. The area of the imaging region is calculated. The area determination unit 321g determines the area of the button image from the vertex coordinates of the button image calculated by the second coordinate calculation unit 121b when it is determined that the current imaging region does not include the button image. calculate. Then, the area determination unit 321g compares the size of the current imaging area with the area of the button image, and notifies the movement information calculation unit 321e of the comparison result.

移動情報算出部321eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部321eは、面積判定部321gから判定結果を受け付ける。このとき、移動情報算出部321eは、現在の撮像領域の面積がボタン画像の面積よりも小さいと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。また、移動情報算出部321eは、現在の撮像領域の面積がボタン画像の面積よりも小さいと判定された場合に、第2座標算出部121cによって算出されたボタン画像の各頂点座標から、ボタン画像の重心となる座標を算出する。   The movement information calculation unit 321e calculates movement information for moving the imaging region. More specifically, the movement information calculation unit 321e receives a determination result from the area determination unit 321g. At this time, when it is determined that the area of the current imaging region is smaller than the area of the button image, the movement information calculation unit 321e uses the vertex coordinates of the current imaging region calculated by the first coordinate calculation unit 121b. Then, the coordinates serving as the center of gravity of the current imaging region are calculated. Further, the movement information calculation unit 321e determines the button image from the vertex coordinates of the button image calculated by the second coordinate calculation unit 121c when it is determined that the area of the current imaging region is smaller than the area of the button image. Calculate the coordinates of the center of gravity.

そして、移動情報算出部321eは、現在の撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を、移動情報として算出する。なお、移動情報算出部321eは、現在の撮像領域がボタン画像を包含していると判定されていれば、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。   Then, the movement information calculation unit 321e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the button image. Note that the movement information calculation unit 321e can accept a user operation without moving the imaging area if it is determined that the current imaging area includes a button image. The movement information set to “0” is calculated.

また、移動情報算出部321eは、現在の撮像領域の面積がボタン画像の面積よりも大きいと判定された場合に、撮像領域の各頂点座標とボタン画像の各頂点座標との対応する座標間で、距離が最小となる移動量を算出する。すなわち、移動情報算出部321eは、実施の形態2で説明したように、撮像領域の移動量が最小となる移動情報を算出する。その後、移動情報算出部321eは、算出した移動量を撮像制御部121fに対して通知する。なお、現在の撮像領域の面積がボタン画像の面積よりも大きいと判定された場合であっても、ボタン画像の重心となる座標に、現在の撮像領域の重心となる座標を重ねるための移動量を算出しても良い。   In addition, when it is determined that the area of the current imaging region is larger than the area of the button image, the movement information calculation unit 321e determines whether the coordinates of the vertex coordinates of the imaging region and the vertex coordinates of the button image are corresponding. The amount of movement that minimizes the distance is calculated. That is, the movement information calculation unit 321e calculates movement information that minimizes the movement amount of the imaging region, as described in the second embodiment. Thereafter, the movement information calculation unit 321e notifies the imaging control unit 121f of the calculated movement amount. Even when it is determined that the area of the current imaging region is larger than the area of the button image, the amount of movement for superimposing the coordinates that become the center of gravity of the button image on the coordinates that become the center of gravity of the button image May be calculated.

図10は、実施の形態3に係る撮像領域の移動を説明する図である。なお、図10では、撮像領域の面積がボタン画像の面積よりも小さい場合を例に挙げて説明する。図10上段に示した例において、ボタン画像2の各頂点座標は、(1,9)、(1,11)、(5,9)、(5,11)である。同様に、撮像領域3の各頂点座標は、(8,5)、(8,7)、(10,5)、(10,7)である。投影画像1は、上記の各頂点座標を有するボタン画像2と撮像領域3とを含んでいる。   FIG. 10 is a diagram for explaining the movement of the imaging region according to the third embodiment. In FIG. 10, a case where the area of the imaging region is smaller than the area of the button image will be described as an example. In the example shown in the upper part of FIG. 10, the vertex coordinates of the button image 2 are (1, 9), (1, 11), (5, 9), and (5, 11). Similarly, the vertex coordinates of the imaging region 3 are (8, 5), (8, 7), (10, 5), and (10, 7). The projection image 1 includes a button image 2 having the above vertex coordinates and an imaging region 3.

上述した状態において、移動情報算出部321eは、撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標(9,6)を算出する。図10において、撮像領域3の重心となる座標は、黒四角で表している。また、移動情報算出部321eは、ボタン画像2の各頂点座標から、ボタン画像2の重心となる座標(3,10)を算出する。図10において、ボタン画像2の重心となる座標は、黒丸で表している。   In the state described above, the movement information calculation unit 321e calculates the coordinates (9, 6) that are the center of gravity of the current imaging region 3 from the vertex coordinates of the imaging region 3. In FIG. 10, the coordinates serving as the center of gravity of the imaging region 3 are represented by black squares. In addition, the movement information calculation unit 321e calculates coordinates (3, 10) serving as the center of gravity of the button image 2 from each vertex coordinate of the button image 2. In FIG. 10, the coordinates serving as the center of gravity of the button image 2 are represented by black circles.

そして、移動情報算出部321eは、現在の撮像領域3の重心となる座標(9,6)から、ボタン画像2の重心となる座標(3,10)への移動量を算出する。かかる移動量の算出では、「x方向=3−9=−6」、「y方向=10−6=+4」となるので、現在の撮像領域3を、x方向に「−6」移動させ、y方向に「+4」移動させる移動量「(−6,+4)」が得られる。その後、撮像制御部121fは、現在の撮像領域3をx方向に「−6」移動させ、y方向に「+4」移動させるための移動量「(−6,+4)」を撮像装置20に対して送信する。これらにより、図10下段に示すように、ボタン画像2の重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   Then, the movement information calculation unit 321e calculates the movement amount from the coordinates (9, 6) serving as the center of gravity of the current imaging region 3 to the coordinates (3, 10) serving as the center of gravity of the button image 2. In the calculation of the movement amount, since “x direction = 3-9 = −6” and “y direction = 10−6 = + 4”, the current imaging region 3 is moved “−6” in the x direction, A movement amount “(−6, +4)” to be moved “+4” in the y direction is obtained. Thereafter, the imaging control unit 121f moves the current imaging region 3 by “−6” in the x direction and “(−6, +4)” for moving “+4” in the y direction to the imaging device 20. To send. As a result, as shown in the lower part of FIG. 10, a movement result is obtained in which the coordinates serving as the center of gravity of the image area 3 overlap the coordinates serving as the center of gravity of the button image 2.

[実施の形態3に係る移動量算出処理フロー]
次に、図11を用いて、実施の形態3に係る移動量算出処理の流れについて説明する。図11は、実施の形態3に係る移動量算出処理の流れの例を示すフローチャートである。なお、図11は、図5に示した「ステップS103:No」の後の処理を表している。すなわち、図11は、撮像領域にボタン画像が包含されていない場合における移動量算出処理の流れを表している。
[Moving amount calculation processing flow according to Embodiment 3]
Next, the flow of the movement amount calculation process according to the third embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a flow of a movement amount calculation process according to the third embodiment. FIG. 11 shows the processing after “Step S103: No” shown in FIG. That is, FIG. 11 shows the flow of the movement amount calculation process when the button image is not included in the imaging region.

図11に示すように、面積判定部321gは、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の面積を算出するとともに、第2座標算出部121cによって算出されたボタン画像の各頂点座標から、ボタン画像の面積を算出する(ステップS301)。そして、面積判定部321gは、現在の撮像領域の面積がボタン画像の面積よりも大きいか否かを判定する(ステップS302)。   As illustrated in FIG. 11, the area determination unit 321g calculates the area of the current imaging region from each vertex coordinate of the current imaging region calculated by the first coordinate calculation unit 121b, and also uses the second coordinate calculation unit 121c. The area of the button image is calculated from the vertex coordinates of the button image calculated by (Step S301). Then, the area determination unit 321g determines whether or not the current area of the imaging region is larger than the area of the button image (step S302).

このとき、面積判定部321gによって撮像領域の面積がボタン画像の面積よりも小さいと判定された場合に(ステップS302:No)、移動情報算出部321eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS303)。また、移動情報算出部321eは、第2座標算出部121cによって算出された頂点座標から、ボタン画像の重心となる座標を算出する(ステップS304)。   At this time, when the area determination unit 321g determines that the area of the imaging region is smaller than the area of the button image (step S302: No), the movement information calculation unit 321e is calculated by the first coordinate calculation unit 121b. From the vertex coordinates, the coordinates serving as the center of gravity of the current imaging region are calculated (step S303). In addition, the movement information calculation unit 321e calculates the coordinates serving as the center of gravity of the button image from the vertex coordinates calculated by the second coordinate calculation unit 121c (step S304).

そして、移動情報算出部321eは、現在の撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を算出する(ステップS305)。なお、面積判定部321gによって撮像領域の面積がボタン画像の面積よりも大きいと判定された場合に(ステップS302:Yes)、移動情報算出部321eは、実施の形態2と同様に、撮像領域とボタン画像との対応する頂点の座標間の距離が最小となる移動量を、移動情報として算出する(ステップS306)。   Then, the movement information calculation unit 321e calculates the movement amount from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the button image (step S305). When the area determination unit 321g determines that the area of the imaging region is larger than the area of the button image (step S302: Yes), the movement information calculation unit 321e The movement amount that minimizes the distance between the coordinates of the corresponding vertices with the button image is calculated as movement information (step S306).

[実施の形態3による効果]
本実施の形態は、撮像領域の面積がボタン画像の面積よりも小さい場合に、撮像領域の重心となる座標から、ボタン画像の重心となる座標への移動量を、撮像領域の移動量として算出する。この結果、本実施の形態によれば、撮像領域の面積がボタン画像の面積よりも小さい場合であっても、ボタン画像の重心に撮像領域の重心を重ねることで、ユーザ操作の操作性を向上させることができる。
[Effects of Embodiment 3]
In the present embodiment, when the area of the imaging region is smaller than the area of the button image, the movement amount from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of the button image is calculated as the movement amount of the imaging region. To do. As a result, according to the present embodiment, even when the area of the imaging region is smaller than the area of the button image, the operability of the user operation is improved by overlaying the center of gravity of the imaging region on the center of gravity of the button image. Can be made.

(実施の形態4)
上記実施の形態1では、投影画像にユーザ操作のためのオブジェクトが単数存在する場合の、撮像領域の移動量の算出について説明した。実施の形態4では、投影画像にユーザ操作のためのオブジェクトが複数存在する場合の、撮像領域の移動量の算出について説明する。
(Embodiment 4)
In the first embodiment, the calculation of the movement amount of the imaging region when there is a single object for user operation in the projection image has been described. In the fourth embodiment, calculation of the moving amount of the imaging region when there are a plurality of objects for user operation in the projection image will be described.

[実施の形態4に係る装置構成]
図12を用いて、実施の形態4に係る装置構成を説明する。図12は、実施の形態4に係る装置構成例を示す機能ブロック図である。実施の形態4では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動情報算出部421e以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus Configuration According to Embodiment 4]
The apparatus configuration according to the fourth embodiment will be described with reference to FIG. FIG. 12 is a functional block diagram illustrating a device configuration example according to the fourth embodiment. In the fourth embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement information calculation unit 421e described below are the same as those in the first embodiment.

本実施の形態に係る画像検出部121aによる処理では、複数の撮像画像内において、操作対象画像と一致する一致画像を複数検出することにより、投影画像内に配置されたボタン画像を複数検出するものとする。また、本実施の形態に係る包含判定部121dによる処理では、現在の撮像領域がボタン画像全てを包含しているか否かが判定される。また、本実施の形態に係る第2座標算出部121cによる処理では、ボタン画像全ての頂点座標全てが算出される。   In the processing by the image detection unit 121a according to the present embodiment, a plurality of button images arranged in the projection image are detected by detecting a plurality of matching images that match the operation target image in the plurality of captured images. And Further, in the process by the inclusion determination unit 121d according to the present embodiment, it is determined whether or not the current imaging region includes all the button images. Further, in the processing by the second coordinate calculation unit 121c according to the present embodiment, all vertex coordinates of all button images are calculated.

図12に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置400は、記憶部110と、制御部420とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部420は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部421eと、撮像制御部121fとを有する。また、制御部420は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 12, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 400 includes a storage unit 110 and a control unit 420. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 420 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 421e, and an imaging control unit 121f. The control unit 420 includes an operation detection unit 122a and a projection control unit 122b.

移動情報算出部421eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部421eは、画像検出部121aによって複数のボタン画像が検出された旨を受け付けるとともに、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部421eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。   The movement information calculation unit 421e calculates movement information for moving the imaging region. More specifically, the movement information calculation unit 421e accepts that a plurality of button images have been detected by the image detection unit 121a, and accepts a determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging region does not include all the button images, the movement information calculation unit 421e uses the vertex coordinates of the current imaging region calculated by the first coordinate calculation unit 121b, A coordinate serving as the center of gravity of the current imaging region is calculated.

また、移動情報算出部421eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、複数のボタン画像から任意のボタン画像を選択する。そして、移動情報算出部421eは、第2座標算出部121cによって算出されたボタン画像全ての各頂点座標から、選択した任意のボタン画像の重心となる座標を算出する。   In addition, the movement information calculation unit 421e selects an arbitrary button image from a plurality of button images when it is determined that the current imaging region does not include all the button images. Then, the movement information calculation unit 421e calculates coordinates serving as the center of gravity of the selected arbitrary button image from the vertex coordinates of all the button images calculated by the second coordinate calculation unit 121c.

続いて、移動情報算出部421eは、現在の撮像領域の重心となる座標から、選択した任意のボタン画像の重心となる座標への移動量を、移動情報として算出する。なお、移動情報算出部421eは、現在の撮像領域がボタン画像全てを包含していると判定された場合に、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。その後、移動情報算出部421eは、算出した移動量を撮像制御部121fに対して通知する。   Subsequently, the movement information calculation unit 421e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected arbitrary button image. Note that the movement information calculation unit 421e can accept a user operation without moving the imaging area when it is determined that the current imaging area includes all the button images. Is calculated as “0”. Thereafter, the movement information calculation unit 421e notifies the imaging control unit 121f of the calculated movement amount.

図13は、実施の形態4に係る撮像領域の移動を示す図である。図13上段に示した例において、投影画像1は、ボタン画像2a、ボタン画像2b、ボタン画像2c及び撮像領域3を含んでいる。また、撮像領域3は、何れのボタン画像も包含していない。   FIG. 13 is a diagram illustrating movement of the imaging region according to the fourth embodiment. In the example shown in the upper part of FIG. 13, the projection image 1 includes a button image 2 a, a button image 2 b, a button image 2 c, and an imaging region 3. Further, the imaging area 3 does not include any button image.

上述した状態において、移動情報算出部421eは、第1座標算出部121bによって算出された現在の撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標を算出する。そして、移動情報算出部421eは、複数のボタン画像のうち、ボタン画像2cを選択する。そして、移動情報算出部421eは、第2座標算出部121cによって算出されたボタン画像2cの頂点座標から、ボタン画像2cの重心となる座標を算出する。続いて、移動情報算出部421eは、現在の撮像領域3の重心となる座標から、ボタン画像2cの重心となる座標への移動量を、移動情報として算出する。これらにより、図13下段に示すように、ボタン画像2cの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   In the state described above, the movement information calculation unit 421e calculates a coordinate that is the center of gravity of the current imaging region 3 from each vertex coordinate of the current imaging region 3 calculated by the first coordinate calculation unit 121b. Then, the movement information calculation unit 421e selects the button image 2c from among the plurality of button images. Then, the movement information calculation unit 421e calculates a coordinate serving as the center of gravity of the button image 2c from the vertex coordinates of the button image 2c calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 421e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region 3 to the coordinates serving as the center of gravity of the button image 2c. As a result, as shown in the lower part of FIG. 13, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2 c.

[実施の形態4に係る移動量算出処理フロー]
次に、図14を用いて、実施の形態4に係る移動量算出処理の流れについて説明する。図14は、実施の形態4に係る移動量算出処理の流れの例を示すフローチャートである。
[Moving amount calculation processing flow according to Embodiment 4]
Next, the flow of the movement amount calculation process according to the fourth embodiment will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the fourth embodiment.

図14に示すように、第1座標算出部121bは、現在の撮像領域の頂点座標を算出する(ステップS401)。また、第2座標算出部121cは、ボタン画像全ての頂点座標を算出する(ステップS402)。そして、包含判定部121dは、現在の撮像領域にボタン画像全てが包含されているか否かを判定する(ステップS403)。   As shown in FIG. 14, the first coordinate calculation unit 121b calculates the vertex coordinates of the current imaging region (step S401). Further, the second coordinate calculation unit 121c calculates the vertex coordinates of all the button images (step S402). Then, the inclusion determination unit 121d determines whether or not all button images are included in the current imaging region (step S403).

このとき、包含判定部121dによって全てが包含されていないと判定された場合に(ステップS403:No)、移動情報算出部421eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS404)。また、移動情報算出部421eは、複数のボタン画像から任意のボタン画像を選択し、第2座標算出部121cによって算出された頂点座標から、選択したボタン画像の重心となる座標を算出する(ステップS405)。   At this time, when it is determined by the inclusion determination unit 121d that all are not included (step S403: No), the movement information calculation unit 421e determines the current coordinates from the vertex coordinates calculated by the first coordinate calculation unit 121b. The coordinates serving as the center of gravity of the imaging region are calculated (step S404). In addition, the movement information calculation unit 421e selects an arbitrary button image from the plurality of button images, and calculates coordinates serving as the center of gravity of the selected button image from the vertex coordinates calculated by the second coordinate calculation unit 121c (step) S405).

そして、移動情報算出部421eは、現在の撮像領域の重心となる座標から、選択したボタン画像の重心となる座標への移動量を算出する(ステップS406)。なお、包含判定部121dによって全てが包含されていると判定された場合に(ステップS403:Yes)、移動情報算出部421eは、現在の撮像領域を移動させなくても良いため、移動量を「0」とする(ステップS407)。   Then, the movement information calculation unit 421e calculates a movement amount from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected button image (step S406). Note that if the inclusion determination unit 121d determines that all are included (step S403: Yes), the movement information calculation unit 421e does not have to move the current imaging region, so the movement amount is set to “ 0 ”(step S407).

[実施の形態4による効果]
本実施の形態は、撮像領域の重心となる座標から、複数のボタン画像のうち、選択した任意のボタン画像の重心となる座標への移動量を算出し、算出した移動量により撮像領域が選択したボタン画像に重なるように移動させる制御を撮像装置に対して行なう。この結果、本実施の形態によれば、投影装置に対するユーザ操作の検出精度を向上させることができる。
[Effects of Embodiment 4]
In the present embodiment, the movement amount from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of any selected button image among a plurality of button images is calculated, and the imaging region is selected based on the calculated movement amount. The image pickup apparatus is controlled to move so as to overlap the button image. As a result, according to the present embodiment, it is possible to improve the detection accuracy of user operations on the projection apparatus.

(実施の形態5)
上記実施の形態4では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、任意のオブジェクトを選択し、選択した任意のオブジェクトの重心となる座標に、撮像領域の重心となる座標を重ねるための移動量を算出する場合を説明した。実施の形態5では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、撮像領域のより小さい移動量を算出する場合を説明する。
(Embodiment 5)
In the fourth embodiment, when there are a plurality of objects for user operation in the projected image, an arbitrary object is selected, and the coordinates that are the center of gravity of the selected arbitrary object are set to the coordinates that are the center of gravity of the imaging area. The case where the movement amount for overlapping is calculated has been described. In the fifth embodiment, a case will be described in which a smaller movement amount of the imaging region is calculated when there are a plurality of objects for user operation in the projection image.

[実施の形態5に係る装置構成]
図15を用いて、実施の形態5に係る装置構成を説明する。図15は、実施の形態5に係る装置構成例を示す機能ブロック図である。実施の形態5では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動情報算出部521e以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus Configuration According to Embodiment 5]
The apparatus configuration according to the fifth embodiment will be described with reference to FIG. FIG. 15 is a functional block diagram showing a device configuration example according to the fifth embodiment. In the fifth embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement information calculation unit 521e described below are the same as those in the first embodiment.

本実施の形態に係る画像検出部121aによる処理では、複数の撮像画像内において、操作対象画像と一致する一致画像を複数検出することにより、投影画像内に配置されたボタン画像を複数検出するものとする。また、本実施の形態に係る包含判定部121dによる処理では、現在の撮像領域がボタン画像全てを包含しているか否かが判定される。また、本実施の形態に係る第2座標算出部121cによる処理では、ボタン画像全ての頂点座標全てが算出される。   In the processing by the image detection unit 121a according to the present embodiment, a plurality of button images arranged in the projection image are detected by detecting a plurality of matching images that match the operation target image in the plurality of captured images. And Further, in the process by the inclusion determination unit 121d according to the present embodiment, it is determined whether or not the current imaging region includes all the button images. Further, in the processing by the second coordinate calculation unit 121c according to the present embodiment, all vertex coordinates of all button images are calculated.

図15に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置500は、記憶部110と、制御部520とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部520は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部521eと、撮像制御部121fとを有する。また、制御部520は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 15, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 500 includes a storage unit 110 and a control unit 520. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 520 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 521e, and an imaging control unit 121f. In addition, the control unit 520 includes an operation detection unit 122a and a projection control unit 122b.

移動情報算出部521eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部521eは、画像検出部121aによって複数のボタン画像が検出された旨を受け付けるとともに、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部521eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。また、移動情報算出部521eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第2座標算出部121cによって算出されたボタン画像全ての各頂点座標から、ボタン画像全てについて重心となる座標を算出する。   The movement information calculation unit 521e calculates movement information for moving the imaging area. More specifically, the movement information calculation unit 521e accepts that a plurality of button images are detected by the image detection unit 121a and accepts a determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging region does not include all the button images, the movement information calculation unit 521e uses the vertex coordinates of the current imaging region calculated by the first coordinate calculation unit 121b. A coordinate serving as the center of gravity of the current imaging region is calculated. Further, the movement information calculation unit 521e determines the button image from the vertex coordinates of all the button images calculated by the second coordinate calculation unit 121c when it is determined that the current imaging region does not include all the button images. Coordinates that are the center of gravity are calculated for all.

そして、移動情報算出部521eは、現在の撮像領域の重心となる座標と、ボタン画像それぞれの重心となる座標との距離を算出する。続いて、移動情報算出部521eは、算出した距離のうち最小となる距離に対応する移動量を、移動情報として算出する。なお、移動情報算出部521eは、現在の撮像領域がボタン画像全てを包含していると判定された場合に、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。その後、移動情報算出部521eは、算出した移動量を撮像制御部121fに対して通知する。   Then, the movement information calculation unit 521e calculates the distance between the coordinates serving as the center of gravity of the current imaging region and the coordinates serving as the center of gravity of each button image. Subsequently, the movement information calculation unit 521e calculates a movement amount corresponding to the minimum distance among the calculated distances as movement information. Note that the movement information calculation unit 521e can accept a user operation without moving the imaging area when it is determined that the current imaging area includes all the button images. Is calculated as “0”. Thereafter, the movement information calculation unit 521e notifies the imaging control unit 121f of the calculated movement amount.

図16は、実施の形態5に係る撮像領域の移動を示す図である。図16上段に示した例において、投影画像1は、ボタン画像2a、ボタン画像2b、ボタン画像2c及び撮像領域3を含んでいる。また、撮像領域3は、何れのボタン画像も包含していない。   FIG. 16 is a diagram illustrating movement of the imaging region according to the fifth embodiment. In the example shown in the upper part of FIG. 16, the projected image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. Further, the imaging area 3 does not include any button image.

上述した状態において、移動情報算出部521eは、第1座標算出部121bによって算出された現在の撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標を算出する。また、移動情報算出部521eは、第2座標算出部121cによって算出されたボタン画像2a、ボタン画像2b及びボタン画像2cそれぞれの各頂点座標から、ボタン画像2a、ボタン画像2b及びボタン画像2cそれぞれの重心となる座標を算出する。   In the state described above, the movement information calculation unit 521e calculates a coordinate that is the center of gravity of the current imaging region 3 from each vertex coordinate of the current imaging region 3 calculated by the first coordinate calculation unit 121b. In addition, the movement information calculation unit 521e calculates each of the button image 2a, the button image 2b, and the button image 2c from the respective vertex coordinates of the button image 2a, the button image 2b, and the button image 2c calculated by the second coordinate calculation unit 121c. Calculate the coordinates of the center of gravity.

そして、移動情報算出部521eは、現在の撮像領域3の重心となる座標と、ボタン画像2a、ボタン画像2b及びボタン画像2cそれぞれの重心となる座標との距離を算出する。続いて、移動情報算出部521eは、算出した距離を比較し、最小となる距離に対応する移動量を移動情報として算出する。これらにより、図16下段に示すように、ボタン画像2bの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   Then, the movement information calculation unit 521e calculates the distance between the coordinates that are the center of gravity of the current imaging region 3 and the coordinates that are the centers of gravity of the button image 2a, the button image 2b, and the button image 2c. Subsequently, the movement information calculation unit 521e compares the calculated distances and calculates a movement amount corresponding to the minimum distance as movement information. As a result, as shown in the lower part of FIG. 16, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2b.

[実施の形態5に係る移動量算出処理フロー]
次に、図17を用いて、実施の形態5に係る移動量算出処理の流れについて説明する。図17は、実施の形態5に係る移動量算出処理の流れの例を示すフローチャートである。なお、図17は、図14に示した「ステップS403:No」の後の処理を表している。すなわち、図17は、撮像領域にボタン画像全てが包含されていない場合における移動量算出処理の流れを表している。
[Moving Amount Calculation Processing Flow According to Embodiment 5]
Next, the flow of the movement amount calculation process according to the fifth embodiment will be described with reference to FIG. FIG. 17 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the fifth embodiment. Note that FIG. 17 illustrates processing subsequent to “Step S403: No” illustrated in FIG. That is, FIG. 17 shows the flow of the movement amount calculation process when all the button images are not included in the imaging region.

図17に示すように、移動情報算出部521eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS501)。また、移動情報算出部521eは、第2座標算出部121cによって算出された各頂点座標から、ボタン画像それぞれの重心となる座標を算出する(ステップS502)。   As illustrated in FIG. 17, the movement information calculation unit 521e calculates coordinates serving as the center of gravity of the current imaging region from the vertex coordinates calculated by the first coordinate calculation unit 121b (step S501). Further, the movement information calculation unit 521e calculates the coordinates that are the center of gravity of each button image from the vertex coordinates calculated by the second coordinate calculation unit 121c (step S502).

そして、移動情報算出部521eは、現在の撮像領域の重心となる座標と、ボタン画像それぞれの重心となる座標との距離を算出する(ステップS503)。続いて、移動情報算出部521eは、算出した距離を比較し、最小となる距離に対応する移動量を移動情報として算出する(ステップS504)。   Then, the movement information calculation unit 521e calculates the distance between the coordinates serving as the center of gravity of the current imaging region and the coordinates serving as the center of gravity of each button image (step S503). Subsequently, the movement information calculation unit 521e compares the calculated distances, and calculates a movement amount corresponding to the minimum distance as movement information (step S504).

[実施の形態5による効果]
本実施の形態は、撮像領域の重心となる座標と、複数のボタン画像それぞれの重心となる座標との距離を求め、最小となる距離に対応する移動量を移動情報として算出する。この結果、本実施の形態によれば、撮像領域の移動に要する処理負荷や処理時間を抑制しつつ、投影装置に対するユーザ操作の検出精度を向上させることができる。
[Effects of Embodiment 5]
In the present embodiment, the distance between the coordinates serving as the center of gravity of the imaging region and the coordinates serving as the center of gravity of each of the plurality of button images is obtained, and the movement amount corresponding to the minimum distance is calculated as movement information. As a result, according to the present embodiment, it is possible to improve the detection accuracy of the user operation on the projection apparatus while suppressing the processing load and processing time required for moving the imaging region.

(実施の形態6)
上記実施の形態4では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、任意のオブジェクトを選択し、選択した任意のオブジェクトの重心となる座標に、撮像領域の重心となる座標を重ねるための移動量を算出する場合を説明した。実施の形態6では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、オブジェクトの面積に応じて撮像領域の移動量を算出する場合を説明する。
(Embodiment 6)
In the fourth embodiment, when there are a plurality of objects for user operation in the projected image, an arbitrary object is selected, and the coordinates that are the center of gravity of the selected arbitrary object are set to the coordinates that are the center of gravity of the imaging area. The case where the movement amount for overlapping is calculated has been described. In the sixth embodiment, a case where the movement amount of the imaging region is calculated according to the area of the object when there are a plurality of objects for user operation in the projection image will be described.

[実施の形態6に係る装置構成]
図18を用いて、実施の形態6に係る装置構成を説明する。図18は、実施の形態6に係る装置構成例を示す機能ブロック図である。実施の形態6では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動情報算出部621e以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus configuration according to Embodiment 6]
The apparatus configuration according to the sixth embodiment will be described with reference to FIG. FIG. 18 is a functional block diagram showing a device configuration example according to the sixth embodiment. In the sixth embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement information calculation unit 621e described below are the same as those in the first embodiment.

本実施の形態に係る画像検出部121aによる処理では、複数の撮像画像内において、操作対象画像と一致する一致画像を複数検出することにより、投影画像内に配置されたボタン画像を複数検出するものとする。また、本実施の形態に係る包含判定部121dによる処理では、現在の撮像領域がボタン画像全てを包含しているか否かが判定される。また、本実施の形態に係る第2座標算出部121cによる処理では、ボタン画像全ての頂点座標全てが算出される。   In the processing by the image detection unit 121a according to the present embodiment, a plurality of button images arranged in the projection image are detected by detecting a plurality of matching images that match the operation target image in the plurality of captured images. And Further, in the process by the inclusion determination unit 121d according to the present embodiment, it is determined whether or not the current imaging region includes all the button images. Further, in the processing by the second coordinate calculation unit 121c according to the present embodiment, all vertex coordinates of all button images are calculated.

図18に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置600は、記憶部110と、制御部620とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部620は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部621eと、撮像制御部121fとを有する。また、制御部620は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 18, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 600 includes a storage unit 110 and a control unit 620. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 620 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 621e, and an imaging control unit 121f. The control unit 620 includes an operation detection unit 122a and a projection control unit 122b.

移動情報算出部621eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部621eは、画像検出部121aによって複数のボタン画像が検出された旨を受け付けるとともに、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部621eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。また、移動情報算出部621eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第2座標算出部121cによって算出されたボタン画像全ての各頂点座標から、ボタン画像全ての面積を算出する。   The movement information calculation unit 621e calculates movement information for moving the imaging region. More specifically, the movement information calculation unit 621e accepts that a plurality of button images are detected by the image detection unit 121a and accepts a determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging area does not include all the button images, the movement information calculation unit 621e uses the respective vertex coordinates of the current imaging area calculated by the first coordinate calculation unit 121b. A coordinate serving as the center of gravity of the current imaging region is calculated. In addition, the movement information calculation unit 621e determines the button image from the vertex coordinates of all the button images calculated by the second coordinate calculation unit 121c when it is determined that the current imaging region does not include all the button images. Calculate all areas.

そして、移動情報算出部621eは、算出したボタン画像全ての面積を比較し、面積が最大となるボタン画像を選択する。続いて、移動情報算出部621eは、選択したボタン画像の重心となる座標を算出する。その後、移動情報算出部621eは、現在の撮像領域の重心となる座標から、選択したボタン画像の重心となる座標への移動量を、移動情報として算出する。なお、移動情報算出部621eは、現在の撮像領域がボタン画像全てを包含していると判定された場合に、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。そして、移動情報算出部621eは、算出した移動量を撮像制御部121fに対して通知する。   Then, the movement information calculation unit 621e compares the areas of all the calculated button images, and selects the button image having the maximum area. Subsequently, the movement information calculation unit 621e calculates coordinates that are the center of gravity of the selected button image. Thereafter, the movement information calculation unit 621e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected button image. Note that the movement information calculation unit 621e can accept a user operation without moving the imaging area when it is determined that the current imaging area includes all the button images. Is calculated as “0”. Then, the movement information calculation unit 621e notifies the imaging control unit 121f of the calculated movement amount.

図19は、実施の形態6に係る撮像領域の移動を示す図である。図19上段に示した例において、投影画像1は、ボタン画像2a、ボタン画像2b、ボタン画像2c及び撮像領域3を含んでいる。また、撮像領域3は、何れのボタン画像も包含していない。   FIG. 19 is a diagram illustrating movement of the imaging region according to the sixth embodiment. In the example shown in the upper part of FIG. 19, the projection image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. Further, the imaging area 3 does not include any button image.

上述した状態において、移動情報算出部621eは、第1座標算出部121bによって算出された現在の撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標を算出する。また、移動情報算出部621eは、第2座標算出部121cによって算出されたボタン画像2a、ボタン画像2b及びボタン画像2cそれぞれの各頂点座標から、ボタン画像2a、ボタン画像2b及びボタン画像2cそれぞれの面積を算出する。   In the state described above, the movement information calculation unit 621e calculates a coordinate that is the center of gravity of the current imaging region 3 from each vertex coordinate of the current imaging region 3 calculated by the first coordinate calculation unit 121b. In addition, the movement information calculation unit 621e calculates each of the button image 2a, the button image 2b, and the button image 2c from each vertex coordinate of the button image 2a, the button image 2b, and the button image 2c calculated by the second coordinate calculation unit 121c. Calculate the area.

そして、移動情報算出部621eは、算出した面積が最大となるボタン画像2cを選択する。続いて、移動情報算出部621eは、選択したボタン画像2cの重心となる座標を算出する。その後、移動情報算出部621eは、現在の撮像領域3の重心となる座標から、ボタン画像2cの重心となる座標への移動量を、移動情報として算出する。これらにより、図19下段に示すように、ボタン画像2cの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   Then, the movement information calculation unit 621e selects the button image 2c having the maximum calculated area. Subsequently, the movement information calculation unit 621e calculates coordinates that are the center of gravity of the selected button image 2c. Thereafter, the movement information calculation unit 621e calculates the movement amount from the coordinates that are the center of gravity of the current imaging region 3 to the coordinates that are the center of gravity of the button image 2c as movement information. As a result, as shown in the lower part of FIG. 19, a moving result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2 c.

なお、複数のボタン画像のうち、面積が最大となるボタン画像に移動させなくても良く、何れのボタン画像に移動させるかは、任意に変更可能である。   Of the plurality of button images, the button image having the largest area may not be moved, and which button image is moved can be arbitrarily changed.

[実施の形態6に係る移動量算出処理フロー]
次に、図20を用いて、実施の形態6に係る移動量算出処理の流れについて説明する。図20は、実施の形態6に係る移動量算出処理の流れの例を示すフローチャートである。なお、図20は、図14に示した「ステップS403:No」の後の処理を表している。すなわち、図20は、撮像領域にボタン画像全てが包含されていない場合における移動量算出処理の流れを表している。
[Moving amount calculation processing flow according to Embodiment 6]
Next, the flow of the movement amount calculation process according to the sixth embodiment will be described with reference to FIG. FIG. 20 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the sixth embodiment. Note that FIG. 20 illustrates processing subsequent to “Step S403: No” illustrated in FIG. That is, FIG. 20 shows the flow of the movement amount calculation process when all the button images are not included in the imaging region.

図20に示すように、移動情報算出部621eは、第2座標算出部121cによって算出された各頂点座標から、ボタン画像全ての面積を算出し、算出した面積が最大となるボタン画像を選択する(ステップS601)。そして、移動情報算出部621eは、第1座標算出部121bによって算出された各頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS602)。続いて、移動情報算出部621eは、選択したボタン画像の重心となる座標を算出する(ステップS603)。その後、移動情報算出部621eは、現在の撮像領域の重心となる座標から、選択したボタン画像の重心となる座標への移動量を算出する(ステップS604)。   As illustrated in FIG. 20, the movement information calculation unit 621e calculates the area of all button images from the vertex coordinates calculated by the second coordinate calculation unit 121c, and selects the button image having the maximum calculated area. (Step S601). Then, the movement information calculation unit 621e calculates a coordinate serving as the center of gravity of the current imaging region from each vertex coordinate calculated by the first coordinate calculation unit 121b (step S602). Subsequently, the movement information calculation unit 621e calculates coordinates serving as the center of gravity of the selected button image (step S603). Thereafter, the movement information calculation unit 621e calculates the movement amount from the coordinates that are the center of gravity of the current imaging region to the coordinates that are the center of gravity of the selected button image (step S604).

[実施の形態6による効果]
本実施の形態は、撮像領域の重心となる座標から、複数のボタン画像のうち、面積の大きさに応じて選択したボタン画像の重心となる座標への移動量を算出する。この結果、本実施の形態によれば、投影装置に対するユーザ操作の操作性及び検出精度を向上させることができる。換言すると、面積が最大となるボタン画像は投影画像内で頻繁に操作され得るものであることから、面積が最大となるボタン画像に撮像領域を重ねることで、ユーザ操作の操作性及び検出精度を向上させることができる。
[Effects of Embodiment 6]
In the present embodiment, the amount of movement from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of the button image selected according to the size of the area among the plurality of button images is calculated. As a result, according to the present embodiment, it is possible to improve the operability and detection accuracy of user operations on the projection apparatus. In other words, since the button image having the maximum area can be frequently operated in the projection image, the operability and detection accuracy of the user operation can be improved by overlapping the imaging region on the button image having the maximum area. Can be improved.

(実施の形態7)
上記実施の形態4では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、任意のオブジェクトを選択し、選択した任意のオブジェクトの重心となる座標に、撮像領域の重心となる座標を重ねるための移動量を算出する場合を説明した。実施の形態7では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、オブジェクトそれぞれに撮像領域を順次移動させるための移動量を算出する場合を説明する。
(Embodiment 7)
In the fourth embodiment, when there are a plurality of objects for user operation in the projected image, an arbitrary object is selected, and the coordinates that are the center of gravity of the selected arbitrary object are set to the coordinates that are the center of gravity of the imaging area. The case where the movement amount for overlapping is calculated has been described. In the seventh embodiment, a case will be described in which the amount of movement for sequentially moving the imaging region for each object is calculated when there are a plurality of objects for user operation in the projected image.

[実施の形態7に係る装置構成]
図21を用いて、実施の形態7に係る装置構成を説明する。図21は、実施の形態7に係る装置構成例を示す機能ブロック図である。実施の形態7では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動情報算出部721e以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus Configuration According to Embodiment 7]
The apparatus configuration according to the seventh embodiment will be described with reference to FIG. FIG. 21 is a functional block diagram illustrating an example of a device configuration according to the seventh embodiment. In the seventh embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement information calculation unit 721e described below are the same as those in the first embodiment.

本実施の形態に係る画像検出部121aによる処理では、複数の撮像画像内において、操作対象画像と一致する一致画像を複数検出することにより、投影画像内に配置されたボタン画像を複数検出するものとする。また、本実施の形態に係る包含判定部121dによる処理では、現在の撮像領域がボタン画像全てを包含しているか否かが判定される。また、本実施の形態に係る第2座標算出部121cによる処理では、ボタン画像全ての頂点座標全てが算出される。   In the processing by the image detection unit 121a according to the present embodiment, a plurality of button images arranged in the projection image are detected by detecting a plurality of matching images that match the operation target image in the plurality of captured images. And Further, in the process by the inclusion determination unit 121d according to the present embodiment, it is determined whether or not the current imaging region includes all the button images. Further, in the processing by the second coordinate calculation unit 121c according to the present embodiment, all vertex coordinates of all button images are calculated.

図21に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置700は、記憶部110と、制御部720とを有する。これらのうち、記憶部110は、撮像画像記憶部111を有する。制御部720は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部721eと、撮像制御部121fとを有する。また、制御部720は、操作検出部122aと、投影制御部122bとを有する。   As illustrated in FIG. 21, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 700 includes a storage unit 110 and a control unit 720. Among these, the storage unit 110 includes a captured image storage unit 111. The control unit 720 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 721e, and an imaging control unit 121f. The control unit 720 includes an operation detection unit 122a and a projection control unit 122b.

移動情報算出部721eは、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部721eは、画像検出部121aによって複数のボタン画像が検出された旨を受け付けるとともに、包含判定部121dから判定結果を受け付ける。このとき、移動情報算出部721eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、第1座標算出部121bによって算出された現在の撮像領域の各頂点座標から、現在の撮像領域の重心となる座標を算出する。   The movement information calculation unit 721e calculates movement information for moving the imaging area. More specifically, the movement information calculation unit 721e accepts that a plurality of button images have been detected by the image detection unit 121a, and accepts a determination result from the inclusion determination unit 121d. At this time, when it is determined that the current imaging area does not include all the button images, the movement information calculation unit 721e uses the vertex coordinates of the current imaging area calculated by the first coordinate calculation unit 121b. A coordinate serving as the center of gravity of the current imaging region is calculated.

また、移動情報算出部721eは、現在の撮像領域がボタン画像全てを包含していないと判定された場合に、複数のボタン画像から任意のボタン画像を選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像全ての各頂点座標から、選択した任意のボタン画像の重心となる座標を算出する。   The movement information calculation unit 721e selects an arbitrary button image from the plurality of button images when it is determined that the current imaging region does not include all the button images. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the selected arbitrary button image from the vertex coordinates of all the button images calculated by the second coordinate calculation unit 121c.

続いて、移動情報算出部721eは、現在の撮像領域の重心となる座標から、選択した任意のボタン画像の重心となる座標への移動量を、移動情報として算出する。なお、移動情報算出部721eは、現在の撮像領域がボタン画像全てを包含していると判定された場合に、撮像領域を移動させなくてもユーザ操作を受け付けることが可能であるため、移動量を「0」とする移動情報を算出する。その後、移動情報算出部721eは、算出した移動量を撮像制御部121fに対して通知する。   Subsequently, the movement information calculation unit 721e calculates, as movement information, the movement amount from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected arbitrary button image. The movement information calculation unit 721e can accept a user operation without moving the imaging area when it is determined that the current imaging area includes all the button images. Is calculated as “0”. Thereafter, the movement information calculation unit 721e notifies the imaging control unit 121f of the calculated movement amount.

また、移動情報算出部721eは、移動量の通知後、ユーザ操作が行なわれずに所定時間が経過した場合に、他のボタン画像を選択する。ユーザ操作が行なわれたか否かについては、操作検出部122aによってユーザ操作が検出されたか否かを判定すれば良い。つまり、ユーザ操作が行なわれた場合には、次の投影画像に切り替えられているため、次の投影画像に対する処理が開始されることになる。   In addition, the movement information calculation unit 721e selects another button image when a predetermined time elapses without any user operation after notification of the movement amount. Whether or not a user operation has been performed may be determined by determining whether or not a user operation has been detected by the operation detection unit 122a. That is, when a user operation is performed, since the next projection image has been switched, processing for the next projection image is started.

そして、移動情報算出部721eは、選択した他のボタン画像の重心となる座標を算出する。続いて、移動情報算出部721eは、現在の撮像領域の重心となる座標から、選択した他のボタン画像の重心となる座標への移動量を、移動情報として算出する。ここで、現在の撮像領域の重心となる座標は、任意のボタン画像の重心となる座標と同一の状態であるため、既に算出している任意のボタン画像の重心となる座標を、現在の撮像領域の重心となる座標として利用すれば良い。その後、移動情報算出部721eは、算出した移動量を撮像制御部121fに対して通知する。このように、移動情報算出部721eは、ユーザ操作が行なわれるまでの間、所定時間ごとに、ボタン画像を順次選択していき、順次選択したボタン画像に撮像領域を重ねるための移動量を算出していく。また、選択するボタン画像が一巡した場合には、任意のボタン画像を新たに選択しても良いが、一巡目で選択した順序で撮像領域を移動させるようにすれば、移動量を再度算出しなくても良いため、処理負荷を抑制することができる。   Then, the movement information calculation unit 721e calculates coordinates that are the center of gravity of the other selected button images. Subsequently, the movement information calculation unit 721e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the other selected button image. Here, since the coordinates that are the center of gravity of the current imaging region are in the same state as the coordinates that are the center of gravity of any button image, the coordinates that are the center of gravity of any button image that has already been calculated are What is necessary is just to utilize as a coordinate used as the gravity center of an area | region. Thereafter, the movement information calculation unit 721e notifies the imaging control unit 121f of the calculated movement amount. As described above, the movement information calculation unit 721e sequentially selects button images at predetermined time intervals until a user operation is performed, and calculates a movement amount for overlaying the imaging region on the sequentially selected button images. I will do it. In addition, when the button image to be selected has made a round, an arbitrary button image may be newly selected. However, if the imaging region is moved in the order selected in the first round, the movement amount is calculated again. Since it is not necessary, the processing load can be suppressed.

図22は、実施の形態7に係る撮像領域の移動を示す図である。図22上段に示した例において、投影画像1は、ボタン画像2a、ボタン画像2b、ボタン画像2c及び撮像領域3を含んでいる。また、撮像領域3は、何れのボタン画像も包含していない。   FIG. 22 is a diagram illustrating movement of the imaging region according to the seventh embodiment. In the example shown in the upper part of FIG. 22, the projection image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. Further, the imaging area 3 does not include any button image.

上述した状態において、移動情報算出部721eは、第1座標算出部121bによって算出された現在の撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標を算出する。また、移動情報算出部721eは、複数のボタン画像のうち、ボタン画像2cを選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2cの頂点座標から、ボタン画像2cの重心となる座標を算出する。続いて、移動情報算出部721eは、現在の撮像領域3の重心となる座標から、ボタン画像2cの重心となる座標への移動量を、移動情報として算出する。これらにより、図22中段上方に示すように、ボタン画像2cの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   In the state described above, the movement information calculation unit 721e calculates coordinates that are the center of gravity of the current imaging region 3 from the respective vertex coordinates of the current imaging region 3 calculated by the first coordinate calculation unit 121b. In addition, the movement information calculation unit 721e selects the button image 2c from among the plurality of button images. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2c from the vertex coordinates of the button image 2c calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 721e calculates, as movement information, the amount of movement from the coordinates serving as the center of gravity of the current imaging region 3 to the coordinates serving as the center of gravity of the button image 2c. As a result, as shown in the upper part of the middle part of FIG. 22, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2c.

撮像領域3の移動後、移動情報算出部721eは、ユーザ操作が行なわれずに所定時間が経過した場合に、複数のボタン画像のうち、ボタン画像2aを選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2aの頂点座標から、ボタン画像2aの重心となる座標を算出する。続いて、移動情報算出部721eは、ボタン画像2cの重心となる座標と同一となっている現在の撮像領域3の重心となる座標から、ボタン画像2aの重心となる座標への移動量を、移動情報として算出する。これらにより、図22中段下方に示すように、ボタン画像2aの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   After the movement of the imaging region 3, the movement information calculation unit 721e selects the button image 2a from among the plurality of button images when a predetermined time has elapsed without any user operation. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2a from the vertex coordinates of the button image 2a calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 721e calculates the amount of movement from the coordinates serving as the center of gravity of the current imaging region 3 that are the same as the coordinates serving as the center of gravity of the button image 2c to the coordinates serving as the center of gravity of the button image 2a. Calculate as movement information. As a result, as shown in the lower part of the middle part of FIG. 22, a movement result is obtained in which the coordinates that become the center of gravity of the button image 2 a overlap the coordinates that become the center of gravity of the imaging region 3.

撮像領域3の移動後、移動情報算出部721eは、ユーザ操作が行なわれずに所定時間が経過した場合に、複数のボタン画像のうち、ボタン画像2bを選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2bの頂点座標から、ボタン画像2bの重心となる座標を算出する。続いて、移動情報算出部721eは、ボタン画像2aの重心となる座標と同一となっている現在の撮像領域3の重心となる座標から、ボタン画像2bの重心となる座標への移動量を、移動情報として算出する。これらにより、図22下段に示すように、ボタン画像2bの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   After movement of the imaging region 3, the movement information calculation unit 721e selects the button image 2b from among the plurality of button images when a predetermined time has elapsed without any user operation. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2b from the vertex coordinates of the button image 2b calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 721e calculates the amount of movement from the coordinate that is the center of gravity of the current imaging region 3 that is the same as the coordinate that is the center of gravity of the button image 2a to the coordinate that is the center of gravity of the button image 2b. Calculate as movement information. As a result, as shown in the lower part of FIG. 22, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2b.

このように、ユーザ操作が行なわれなければ、所定時間の経過ごとに、ボタン画像を順次選択していき、撮像領域を移動させる処理を実行する。また、上記のように、ボタン画像の選択が一巡するまでは、一度選択したボタン画像を選択しないようにすることが好ましい。   As described above, if no user operation is performed, a button image is sequentially selected every time a predetermined time elapses, and processing for moving the imaging region is executed. Further, as described above, it is preferable not to select the selected button image until the selection of the button image is completed.

[実施の形態7に係る移動量算出処理フロー]
次に、図23を用いて、実施の形態7に係る移動量算出処理の流れについて説明する。図23は、実施の形態7に係る移動量算出処理の流れの例を示すフローチャートである。なお、図23は、図14に示した「ステップS403:No」の後の処理を表している。すなわち、図23は、撮像領域にボタン画像全てが包含されていない場合における移動量算出処理の流れを表している。
[Moving amount calculation processing flow according to Embodiment 7]
Next, the flow of the movement amount calculation process according to the seventh embodiment will be described with reference to FIG. FIG. 23 is a flowchart illustrating an example of the flow of a movement amount calculation process according to the seventh embodiment. FIG. 23 illustrates processing subsequent to “Step S403: No” illustrated in FIG. That is, FIG. 23 shows the flow of the movement amount calculation process when all the button images are not included in the imaging region.

図23に示すように、移動情報算出部721eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS701)。また、移動情報算出部721eは、複数のボタン画像から任意のボタン画像を選択し、第2座標算出部121cによって算出された頂点座標から、選択したボタン画像の重心となる座標を算出する(ステップS702)。   As illustrated in FIG. 23, the movement information calculation unit 721e calculates a coordinate serving as the center of gravity of the current imaging region from the vertex coordinates calculated by the first coordinate calculation unit 121b (step S701). In addition, the movement information calculation unit 721e selects an arbitrary button image from the plurality of button images, and calculates a coordinate serving as the center of gravity of the selected button image from the vertex coordinates calculated by the second coordinate calculation unit 121c (step) S702).

そして、移動情報算出部721eは、現在の撮像領域の重心となる座標から、選択したボタン画像の重心となる座標への移動量を算出する(ステップS703)。その後、移動情報算出部721eは、所定時間が経過したか否かを判定する(ステップS704)。このとき、移動情報算出部721eは、所定時間が経過したと判定した場合に(ステップS704:Yes)、操作検出部122aによるユーザ操作の検出をもとに、ユーザ操作が行なわれたか否かを判定する(ステップS705)。一方、移動情報算出部721eは、所定時間が経過していないと判定した場合に(ステップS704:No)、所定時間が経過するまで待機する。   Then, the movement information calculation unit 721e calculates the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected button image (step S703). Thereafter, the movement information calculation unit 721e determines whether or not a predetermined time has elapsed (step S704). At this time, if the movement information calculation unit 721e determines that the predetermined time has elapsed (step S704: Yes), it determines whether or not a user operation has been performed based on the detection of the user operation by the operation detection unit 122a. Determination is made (step S705). On the other hand, when it is determined that the predetermined time has not elapsed (step S704: No), the movement information calculation unit 721e waits until the predetermined time has elapsed.

また、移動情報算出部721eは、ユーザ操作が行なわれていないと判定した場合に(ステップS705:No)、再度ステップS701の処理を実行する。但し、ステップS701における処理では、2回目以降に撮像領域の移動量を算出する場合、現在の撮像領域と重なっているボタン画像の重心となる座標を利用する。また、ステップS702における処理では、選択するボタン画像が一巡した場合、重心を再度算出しなくても良い。一方、移動情報算出部721eは、ユーザ操作が行なわれたと判定した場合に(ステップS705:Yes)、移動量算出処理を終了する。   If the movement information calculation unit 721e determines that no user operation has been performed (step S705: No), the movement information calculation unit 721e executes the process of step S701 again. However, in the process in step S701, when the movement amount of the imaging region is calculated from the second time onward, the coordinates serving as the center of gravity of the button image overlapping the current imaging region are used. Further, in the process in step S702, the center of gravity does not have to be calculated again when the button image to be selected has made a round. On the other hand, when the movement information calculation unit 721e determines that a user operation has been performed (step S705: Yes), the movement amount calculation process ends.

[実施の形態7による効果]
本実施の形態は、撮像領域の重心となる座標から、順次選択したボタン画像の重心となる座標への移動量を算出する。この結果、本実施の形態によれば、投影装置に対するユーザ操作の検出精度を向上させることができる。
[Effects of Embodiment 7]
In the present embodiment, the amount of movement from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of the sequentially selected button images is calculated. As a result, according to the present embodiment, it is possible to improve the detection accuracy of user operations on the projection apparatus.

(実施の形態7の変形例)
上記実施の形態7では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、オブジェクトそれぞれに撮像領域を順次移動させるための移動量を算出する場合を説明した。実施の形態7の変形例では、投影画像にユーザ操作のためのオブジェクトが複数存在するときに、オブジェクトの優先順位にしたがって、撮像領域を順次移動させるための移動量を算出する場合を説明する。なお、実施の形態7の変形例では、図21に示した実施の形態7に係る装置構成の機能ブロックを用いて説明する。
(Modification of Embodiment 7)
In the seventh embodiment, a case has been described in which when there are a plurality of objects for user operation in the projected image, the amount of movement for sequentially moving the imaging region for each object is calculated. In the modification of the seventh embodiment, a case will be described in which when a plurality of objects for user operation are present in the projection image, a movement amount for sequentially moving the imaging region is calculated according to the priority order of the objects. In addition, in the modification of Embodiment 7, it demonstrates using the functional block of the apparatus structure which concerns on Embodiment 7 shown in FIG.

図24は、実施の形態7の変形例に係る撮像領域の移動を示す図である。図24上段に示した例において、投影画像1は、ボタン画像2a、ボタン画像2b、ボタン画像2c及び撮像領域3を含んでいる。また、撮像領域3は、何れのボタン画像も包含していない。また、図24上段に示した円形で囲まれた数字は、各ボタン画像の優先順位を表している。図24の例において、優先順位は、ボタン画像2c、ボタン画像2b、ボタン画像2aの順に高い。   FIG. 24 is a diagram illustrating movement of the imaging region according to a modification of the seventh embodiment. In the example shown in the upper part of FIG. 24, the projection image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. Further, the imaging area 3 does not include any button image. Also, the numbers enclosed in a circle shown in the upper part of FIG. 24 represent the priority order of each button image. In the example of FIG. 24, the priority order is higher in the order of the button image 2c, the button image 2b, and the button image 2a.

上述した状態において、移動情報算出部721eは、第1座標算出部121bによって算出された現在の撮像領域3の各頂点座標から、現在の撮像領域3の重心となる座標を算出する。また、移動情報算出部721eは、撮像領域3を移動させる、オブジェクトの優先順位の情報を取得する。かかる優先順位の情報は、記憶部110に記憶されていても良いし、外部の記憶装置やサーバ装置等から取得されても良い。また、優先順位の情報は、操作対象画像(オブジェクトに対応)と優先順位とが対応付けられている。これにより、画像検出部121aによって検出された一致画像(オブジェクトに対応)の優先順位を認識できるため、投影画像1内に配置されたオブジェクトの優先順位も認識できる。   In the state described above, the movement information calculation unit 721e calculates coordinates that are the center of gravity of the current imaging region 3 from the respective vertex coordinates of the current imaging region 3 calculated by the first coordinate calculation unit 121b. Further, the movement information calculation unit 721e acquires information on the priority order of the objects that move the imaging region 3. Such priority order information may be stored in the storage unit 110 or may be acquired from an external storage device, a server device, or the like. In the priority order information, the operation target image (corresponding to the object) and the priority order are associated with each other. Thereby, since the priority order of the coincidence image (corresponding to the object) detected by the image detection unit 121a can be recognized, the priority order of the objects arranged in the projection image 1 can also be recognized.

そして、移動情報算出部721eは、取得した優先順位にしたがって、複数のボタン画像のうち、ボタン画像2cを選択する。続いて、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2cの頂点座標から、ボタン画像2cの重心となる座標を算出する。その後、移動情報算出部721eは、現在の撮像領域3の重心となる座標から、ボタン画像2cの重心となる座標への移動量を、移動情報として算出する。これらにより、図24中段上方示すように、ボタン画像2cの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   Then, the movement information calculation unit 721e selects the button image 2c from among the plurality of button images according to the acquired priority order. Subsequently, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2c from the vertex coordinates of the button image 2c calculated by the second coordinate calculation unit 121c. Thereafter, the movement information calculation unit 721e calculates, as movement information, the amount of movement from the coordinates that are the center of gravity of the current imaging region 3 to the coordinates that are the center of gravity of the button image 2c. As a result, as shown in the upper part of the middle part of FIG. 24, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2c.

撮像領域3の移動後、移動情報算出部721eは、ユーザ操作が行なわれずに所定時間が経過した場合に、複数のボタン画像のうち、ボタン画像2cの次に優先順位の高いボタン画像2bを選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2bの頂点座標から、ボタン画像2bの重心となる座標を算出する。続いて、移動情報算出部721eは、ボタン画像2cの重心となる座標と同一となっている現在の撮像領域3の重心となる座標から、ボタン画像2bの重心となる座標への移動量を、移動情報として算出する。これらにより、図24中段下方に示すように、ボタン画像2bの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   After the movement of the imaging region 3, the movement information calculation unit 721e selects the button image 2b having the second highest priority after the button image 2c among the plurality of button images when a predetermined time has elapsed without any user operation. To do. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2b from the vertex coordinates of the button image 2b calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 721e calculates the amount of movement from the coordinates that are the center of gravity of the current imaging region 3 that are the same as the coordinates that are the center of gravity of the button image 2c, to the coordinates that are the center of gravity of the button image 2b. Calculate as movement information. As a result, as shown in the lower part of the middle part of FIG. 24, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2b.

撮像領域3の移動後、移動情報算出部721eは、ユーザ操作が行なわれずに所定時間が経過した場合に、複数のボタン画像のうち、ボタン画像2bの次に優先順位の高いボタン画像2aを選択する。そして、移動情報算出部721eは、第2座標算出部121cによって算出されたボタン画像2aの頂点座標から、ボタン画像2aの重心となる座標を算出する。続いて、移動情報算出部721eは、ボタン画像2bの重心となる座標と同一となっている現在の撮像領域3の重心となる座標から、ボタン画像2aの重心となる座標への移動量を、移動情報として算出する。これらにより、図24下段に示すように、ボタン画像2aの重心となる座標に、撮像領域3の重心となる座標が重なった移動結果が得られる。   After the movement of the imaging region 3, the movement information calculation unit 721e selects the button image 2a having the next highest priority after the button image 2b among the plurality of button images when a predetermined time has elapsed without any user operation. To do. Then, the movement information calculation unit 721e calculates coordinates serving as the center of gravity of the button image 2a from the vertex coordinates of the button image 2a calculated by the second coordinate calculation unit 121c. Subsequently, the movement information calculation unit 721e calculates the amount of movement from the coordinates serving as the center of gravity of the current imaging region 3 that is the same as the coordinates serving as the center of gravity of the button image 2b to the coordinates serving as the center of gravity of the button image 2a. Calculate as movement information. As a result, as shown in the lower part of FIG. 24, a movement result is obtained in which the coordinates serving as the center of gravity of the imaging region 3 overlap the coordinates serving as the center of gravity of the button image 2a.

このように、ユーザ操作が行なわれなければ、所定時間の経過ごとに、優先順位にしたがってボタン画像を選択していき、撮像領域を移動させる処理を実行する。優先順位は、ユーザ操作が行なわれる頻度の高いオブジェクトに対して高く設定すれば良い。これにより、ユーザ操作が行なわれる頻度の高いオブジェクトが、撮像領域の最初の移動対象となるので、投影画像の切り替えも迅速に行なわれることになる。   As described above, if no user operation is performed, a button image is selected according to the priority order every time a predetermined time elapses, and processing for moving the imaging region is executed. What is necessary is just to set a high priority with respect to the object with high frequency with which user operation is performed. As a result, an object that is frequently operated by a user is an object to be moved first in the imaging region, so that the projection image can be switched quickly.

[実施の形態7の変形例に係る移動量算出処理フロー]
次に、図25を用いて、実施の形態7の変形例に係る移動量算出処理の流れについて説明する。図25は、実施の形態7の変形例に係る移動量算出処理の流れの例を示すフローチャートである。なお、図25は、図14に示した「ステップS403:No」の後の処理を表している。すなわち、図25は、撮像領域にボタン画像全てが包含されていない場合における移動量算出処理の流れを表している。
[Moving Amount Calculation Processing Flow According to Modification of Embodiment 7]
Next, the flow of movement amount calculation processing according to a modification of the seventh embodiment will be described with reference to FIG. FIG. 25 is a flowchart illustrating an example of the flow of a movement amount calculation process according to a modification of the seventh embodiment. Note that FIG. 25 illustrates processing subsequent to “Step S403: No” illustrated in FIG. In other words, FIG. 25 shows the flow of the movement amount calculation process when all the button images are not included in the imaging region.

図25に示すように、移動情報算出部721eは、第1座標算出部121bによって算出された頂点座標から、現在の撮像領域の重心となる座標を算出する(ステップS801)。また、移動情報算出部721eは、オブジェクトの優先順位を取得し、取得した優先順位にしたがってボタン画像を選択して、第2座標算出部121cによって算出された頂点座標から、選択したボタン画像の重心となる座標を算出する(ステップS802)。   As illustrated in FIG. 25, the movement information calculation unit 721e calculates coordinates that are the center of gravity of the current imaging region from the vertex coordinates calculated by the first coordinate calculation unit 121b (step S801). Further, the movement information calculation unit 721e acquires the priority order of the objects, selects a button image according to the acquired priority order, and calculates the center of gravity of the selected button image from the vertex coordinates calculated by the second coordinate calculation unit 121c. Is calculated (step S802).

そして、移動情報算出部721eは、現在の撮像領域の重心となる座標から、選択したボタン画像の重心となる座標への移動量を算出する(ステップS803)。その後、移動情報算出部721eは、所定時間が経過したか否かを判定する(ステップS804)。このとき、移動情報算出部721eは、所定時間が経過したと判定した場合に(ステップS804:Yes)、操作検出部122aによるユーザ操作の検出をもとに、ユーザ操作が行なわれたか否かを判定する(ステップS805)。一方、移動情報算出部721eは、所定時間が経過していないと判定した場合に(ステップS804:No)、所定時間が経過するまで待機する。   Then, the movement information calculation unit 721e calculates the amount of movement from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the selected button image (step S803). Thereafter, the movement information calculation unit 721e determines whether a predetermined time has elapsed (step S804). At this time, when the movement information calculation unit 721e determines that the predetermined time has elapsed (step S804: Yes), it determines whether or not a user operation has been performed based on the detection of the user operation by the operation detection unit 122a. Determination is made (step S805). On the other hand, when it is determined that the predetermined time has not elapsed (step S804: No), the movement information calculation unit 721e waits until the predetermined time has elapsed.

また、移動情報算出部721eは、ユーザ操作が行なわれていないと判定した場合に(ステップS805:No)、再度ステップS801の処理を実行する。但し、ステップS801における処理では、2回目以降に撮像領域の移動量を算出する場合、現在の撮像領域と重なっているボタン画像の重心となる座標を利用する。また、ステップS802における処理では、選択するボタン画像が一巡した場合、重心を再度算出しなくても良い。一方、移動情報算出部721eは、ユーザ操作が行なわれたと判定した場合に(ステップS805:Yes)、移動量算出処理を終了する。   Further, when the movement information calculation unit 721e determines that no user operation is performed (step S805: No), the movement information calculation unit 721e executes the process of step S801 again. However, in the process in step S801, when the movement amount of the imaging region is calculated for the second time and thereafter, the coordinates serving as the center of gravity of the button image overlapping the current imaging region are used. In the processing in step S802, the center of gravity does not have to be calculated again when the button image to be selected has made a round. On the other hand, when the movement information calculation unit 721e determines that a user operation has been performed (step S805: Yes), the movement amount calculation process ends.

[実施の形態7の変形例による効果]
本実施の形態は、撮像領域の重心となる座標から、優先順位にしたがって順次選択したボタン画像の重心となる座標への移動量を算出する。この結果、本実施の形態によれば、ユーザニーズのより高いオブジェクトを優先して操作可能にすることができるので、投影装置に対するユーザ操作の操作性を向上させることができる。
[Effects of Modification of Embodiment 7]
In the present embodiment, the amount of movement from the coordinates serving as the center of gravity of the imaging region to the coordinates serving as the center of gravity of the button images sequentially selected according to the priority order is calculated. As a result, according to the present embodiment, it is possible to preferentially operate objects with higher user needs, so that the operability of user operations with respect to the projection apparatus can be improved.

(実施の形態8)
上記実施の形態4〜7では、投影画像にユーザ操作のためのオブジェクトが複数存在する場合の、撮像領域の移動量の算出について種々説明した。実施の形態8では、撮像領域の移動量の算出を、種々の中から設定する場合を説明する。
(Embodiment 8)
In the above fourth to seventh embodiments, various calculation of the movement amount of the imaging region when there are a plurality of objects for user operation in the projection image has been described. In the eighth embodiment, a case will be described in which the calculation of the movement amount of the imaging region is set from various types.

[実施の形態8に係る装置構成]
図26を用いて、実施の形態8に係る装置構成を説明する。図26は、実施の形態8に係る装置構成例を示す機能ブロック図である。実施の形態8では、実施の形態1と同様の構成については同一の符号を付し、同様の構成については詳細な説明を省略する場合がある。具体的には、以下に示す移動設定情報記憶部812、移動情報算出部821e、移動設定部821h以外の機能及び構成、処理は実施の形態1と同様である。
[Apparatus Configuration according to Embodiment 8]
The apparatus configuration according to the eighth embodiment will be described with reference to FIG. FIG. 26 is a functional block diagram showing a device configuration example according to the eighth embodiment. In the eighth embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted. Specifically, functions, configurations, and processes other than the movement setting information storage unit 812, movement information calculation unit 821e, and movement setting unit 821h described below are the same as those in the first embodiment.

本実施の形態に係る画像検出部121aによる処理では、複数の撮像画像内において、操作対象画像と一致する一致画像を複数検出することにより、投影画像内に配置されたボタン画像を複数検出するものとする。また、本実施の形態に係る包含判定部121dによる処理では、現在の撮像領域がボタン画像全てを包含しているか否かが判定される。また、本実施の形態に係る第2座標算出部121cによる処理では、ボタン画像全ての頂点座標全てが算出される。   In the processing by the image detection unit 121a according to the present embodiment, a plurality of button images arranged in the projection image are detected by detecting a plurality of matching images that match the operation target image in the plurality of captured images. And Further, in the process by the inclusion determination unit 121d according to the present embodiment, it is determined whether or not the current imaging region includes all the button images. Further, in the processing by the second coordinate calculation unit 121c according to the present embodiment, all vertex coordinates of all button images are calculated.

図26に示すように、撮像装置20は、撮像部21を有する。また、投影装置30は、投影部31を有する。制御装置800は、記憶部810と、制御部820とを有する。これらのうち、記憶部810は、撮像画像記憶部111と、移動設定情報記憶部812とを有する。   As illustrated in FIG. 26, the imaging device 20 includes an imaging unit 21. In addition, the projection device 30 includes a projection unit 31. The control device 800 includes a storage unit 810 and a control unit 820. Among these, the storage unit 810 includes a captured image storage unit 111 and a movement setting information storage unit 812.

移動設定情報記憶部812は、撮像領域の移動に関する設定事項を表す移動設定情報を記憶する。より具体的には、移動設定情報記憶部812は、撮像領域に最も近いボタン画像に撮像領域を移動させる移動設定情報、最も大きいボタン画像に撮像領域を移動させる移動設定情報、撮像領域を任意のボタン画像に順次移動させる移動設定情報、又は、優先順位にしたがって選択されたボタン画像に撮像領域を移動させる移動設定情報を記憶する。すなわち、本実施の形態では、上記何れかの移動設定情報が移動設定情報記憶部812に記憶されており、移動設定情報に対応する移動量算出処理を実行する。また、移動設定情報が移動設定情報記憶部812に記憶されていなければ、任意のボタン画像に撮像領域を移動させるための移動量算出処理が実行される。各移動設定情報に対応する移動量算出処理は、上記実施の形態5〜7で説明したものである。また、任意のボタン画像に撮像領域を移動させるための移動量算出処理は、上記実施の形態4で説明したものである。   The movement setting information storage unit 812 stores movement setting information representing setting items related to movement of the imaging region. More specifically, the movement setting information storage unit 812 arbitrarily sets movement setting information for moving the imaging area to the button image closest to the imaging area, movement setting information for moving the imaging area to the largest button image, and an imaging area. Movement setting information for sequentially moving to the button image or movement setting information for moving the imaging region to the button image selected according to the priority order is stored. That is, in this embodiment, any one of the above movement setting information is stored in the movement setting information storage unit 812, and a movement amount calculation process corresponding to the movement setting information is executed. If the movement setting information is not stored in the movement setting information storage unit 812, a movement amount calculation process for moving the imaging region to an arbitrary button image is executed. The movement amount calculation process corresponding to each movement setting information has been described in the above fifth to seventh embodiments. Further, the movement amount calculation process for moving the imaging region to an arbitrary button image has been described in the fourth embodiment.

制御部820は、画像検出部121aと、第1座標算出部121bと、第2座標算出部121cと、包含判定部121dと、移動情報算出部821eと、撮像制御部121fと、移動設定部821hとを有する。また、制御部820は、操作検出部122aと、投影制御部122bとを有する。   The control unit 820 includes an image detection unit 121a, a first coordinate calculation unit 121b, a second coordinate calculation unit 121c, an inclusion determination unit 121d, a movement information calculation unit 821e, an imaging control unit 121f, and a movement setting unit 821h. And have. The control unit 820 includes an operation detection unit 122a and a projection control unit 122b.

移動設定部821hは、撮像領域の移動に関する設定事項を設定する。より具体的には、移動設定部821hは、撮像領域の移動について、撮像領域に最も近いボタン画像に撮像領域を移動させる、最も大きいボタン画像に撮像領域を移動させる、撮像領域を任意のボタン画像に順次移動させる、又は、優先順位にしたがって選択されたボタン画像に撮像領域を移動させる、等の移動設定情報を受け付ける。ユーザは、制御装置800にネットワークを介して接続された端末等から、事前に設定を行なう。そして、移動設定部821hは、受け付けた移動設定情報を移動設定情報記憶部812に格納する。   The movement setting unit 821h sets setting items related to movement of the imaging region. More specifically, the movement setting unit 821h moves the imaging area to the button image closest to the imaging area, moves the imaging area to the largest button image, and moves the imaging area to any button image. Move setting information such as sequentially moving the image area or moving the imaging area to the button image selected in accordance with the priority order. The user makes settings in advance from a terminal or the like connected to the control device 800 via a network. Then, the movement setting unit 821h stores the received movement setting information in the movement setting information storage unit 812.

移動情報算出部821eは、移動設定情報に応じて、撮像領域を移動させるための移動情報を算出する。より具体的には、移動情報算出部821eは、移動設定情報記憶部812から移動設定情報を取得する。そして、移動情報算出部821eは、取得した移動設定情報に応じて、撮像領域に最も近いボタン画像に撮像領域を移動させるための移動量、最も大きいボタン画像に撮像領域を移動させるための移動量、撮像領域を任意のボタン画像に順次移動させるための移動量、又は、優先順位にしたがって選択されたボタン画像に撮像領域を移動させるための移動量を、適宜算出する。各移動量の算出については、実施の形態5〜7と同様である。また、移動設定情報が移動設定情報記憶部812に存在しない場合には、実施の形態4と同様に、任意のボタン画像に撮像領域を移動させるための移動量が算出される。   The movement information calculation unit 821e calculates movement information for moving the imaging region according to the movement setting information. More specifically, the movement information calculation unit 821e acquires movement setting information from the movement setting information storage unit 812. Then, the movement information calculation unit 821e moves according to the acquired movement setting information, a movement amount for moving the imaging region to the button image closest to the imaging region, and a movement amount for moving the imaging region to the largest button image. Then, a movement amount for sequentially moving the imaging region to an arbitrary button image or a movement amount for moving the imaging region to the button image selected according to the priority order is appropriately calculated. The calculation of each movement amount is the same as in the fifth to seventh embodiments. When the movement setting information does not exist in the movement setting information storage unit 812, a movement amount for moving the imaging region to an arbitrary button image is calculated as in the fourth embodiment.

[実施の形態8に係る移動量算出処理フロー]
次に、図27を用いて、実施の形態8に係る移動量算出処理の流れについて説明する。図27は、実施の形態8に係る移動量算出処理の流れの例を示すフローチャートである。なお、図27は、図14に示した「ステップS403:No」の後の処理を表している。すなわち、図27は、撮像領域にボタン画像全てが包含されていない場合における移動量の算出処理の流れを表している。
[Movement amount calculation processing flow according to Embodiment 8]
Next, the flow of the movement amount calculation process according to the eighth embodiment will be described with reference to FIG. FIG. 27 is a flowchart illustrating an example of the flow of movement amount calculation processing according to the eighth embodiment. FIG. 27 illustrates a process after “Step S403: No” illustrated in FIG. In other words, FIG. 27 shows the flow of the movement amount calculation process when all the button images are not included in the imaging region.

図27に示すように、移動情報算出部821eは、移動設定情報記憶部812に移動設定情報が存在するか否かを判定する(ステップS901)。このとき、移動情報算出部821eは、移動設定情報が存在しないと判定した場合に(ステップS901:No)、任意のボタン画像を選択し、現在の撮像領域の重心となる座標から、選択した任意のボタン画像の重心となる座標への移動量を算出する(ステップS902)。   As illustrated in FIG. 27, the movement information calculation unit 821e determines whether movement setting information exists in the movement setting information storage unit 812 (step S901). At this time, when it is determined that the movement setting information does not exist (step S901: No), the movement information calculation unit 821e selects an arbitrary button image, and selects the selected arbitrary image from the coordinates serving as the center of gravity of the current imaging region. The amount of movement to the coordinates serving as the center of gravity of the button image is calculated (step S902).

一方、移動情報算出部821eは、移動設定情報が存在すると判定した場合に(ステップS901:Yes)、撮像領域に最も近いボタン画像に撮像領域を移動させる移動設定情報であるか否かを判定する(ステップS903)。このとき、移動情報算出部821eは、撮像領域に最も近いボタン画像に撮像領域を移動させる移動設定情報であると判定した場合に(ステップS903:Yes)、該移動設定情報に応じた移動量算出処理を実行し、移動量を算出する(ステップS904)。   On the other hand, when the movement information calculation unit 821e determines that movement setting information exists (step S901: Yes), the movement information calculation unit 821e determines whether the movement setting information is to move the imaging area to the button image closest to the imaging area. (Step S903). At this time, when the movement information calculation unit 821e determines that the movement setting information is to move the imaging region to the button image closest to the imaging region (step S903: Yes), the movement amount calculation according to the movement setting information is performed. The process is executed to calculate the movement amount (step S904).

一方、移動情報算出部821eは、撮像領域に最も近いボタン画像に撮像領域を移動させる移動設定情報でないと判定した場合に(ステップS903:No)、最も大きいボタン画像に撮像領域を移動させる移動設定情報であるか否かを判定する(ステップS905)。このとき、移動情報算出部821eは、最も大きいボタン画像に撮像領域を移動させる移動設定情報であると判定した場合に(ステップS905:Yes)、該移動設定情報に応じた移動量算出処理を実行し、移動量を算出する(ステップS906)。   On the other hand, when the movement information calculation unit 821e determines that the movement information is not movement setting information for moving the imaging area to the button image closest to the imaging area (step S903: No), the movement setting for moving the imaging area to the largest button image. It is determined whether the information is information (step S905). At this time, when it is determined that the movement information calculation unit 821e is movement setting information for moving the imaging region to the largest button image (step S905: Yes), a movement amount calculation process corresponding to the movement setting information is executed. Then, the movement amount is calculated (step S906).

一方、移動情報算出部821eは、最も大きいボタン画像に撮像領域を移動させる移動設定情報でないと判定した場合に(ステップS905:No)、撮像領域を任意のボタン画像に順次移動させる移動設定情報であるか否かを判定する(ステップS907)。このとき、移動情報算出部821eは、撮像領域を任意のボタン画像に順次移動させる移動設定情報であると判定した場合に(ステップS907:Yes)、該移動設定情報に応じた移動量算出処理を実行し、移動量を算出する(ステップS908)。   On the other hand, when it is determined that the movement information calculation unit 821e is not movement setting information for moving the imaging region to the largest button image (step S905: No), the movement information calculation unit 821e uses movement setting information for sequentially moving the imaging region to an arbitrary button image. It is determined whether or not there is (step S907). At this time, if it is determined that the movement information calculation unit 821e is movement setting information for sequentially moving the imaging region to an arbitrary button image (step S907: Yes), a movement amount calculation process corresponding to the movement setting information is performed. This is executed and the movement amount is calculated (step S908).

一方、移動情報算出部821eは、撮像領域を任意のボタン画像に順次移動させる移動設定情報でないと判定した場合に(ステップS907:No)、優先順位にしたがって選択されたボタン画像に撮像領域を移動させる移動設定情報であるから、該移動設定情報に応じた移動量算出処理を実行し、移動量を算出する(ステップS909)。   On the other hand, if the movement information calculation unit 821e determines that it is not movement setting information for sequentially moving the imaging area to an arbitrary button image (step S907: No), the imaging area is moved to the button image selected according to the priority order. Since the movement setting information is to be moved, a movement amount calculation process corresponding to the movement setting information is executed to calculate the movement amount (step S909).

[実施の形態8による効果]
本実施の形態は、撮像領域の移動量算出処理を、何れの処理で実行すれば良いかがわかる移動設定情報にしたがって実行する。この結果、本実施の形態によれば、ユーザの所望する移動量算出処理が実行されるので、投影装置に対するユーザ操作の操作性を向上させることができる。
[Effects of Embodiment 8]
In the present embodiment, the movement amount calculation process of the imaging region is executed according to movement setting information that indicates which process should be executed. As a result, according to the present embodiment, since the movement amount calculation process desired by the user is executed, the operability of the user operation on the projection apparatus can be improved.

(実施の形態9)
さて、これまで本発明に係る投影システム10の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)撮像領域のフィードバック、(2)オブジェクトのフィードバック、(3)撮像領域やオブジェクトの形、(4)構成、(5)プログラム、について異なる実施の形態を説明する。
(Embodiment 9)
Although the embodiment of the projection system 10 according to the present invention has been described so far, the present invention may be implemented in various different forms other than the above-described embodiment. Therefore, different embodiments of (1) imaging area feedback, (2) object feedback, (3) imaging area and object shape, (4) configuration, and (5) program will be described.

(1)撮像領域のフィードバック
上記実施の形態では、撮像領域の面積がボタン画像の面積よりも小さい場合に、ユーザ操作を容易にするために、ボタン画像の重心となる座標に、撮像領域の重心となる座標を重ねるための移動量を算出する場合を説明した。本実施の形態では、ユーザ操作を容易にするために、撮像領域をフィードバックしても良い。
(1) Feedback of imaging region In the above embodiment, when the area of the imaging region is smaller than the area of the button image, the center of gravity of the imaging region is set to the coordinates that are the center of gravity of the button image in order to facilitate user operation. A case has been described in which the amount of movement for overlapping the coordinates to be calculated is calculated. In the present embodiment, the imaging area may be fed back in order to facilitate user operation.

図28は、撮像領域のフィードバックの例を示す図である。図28に示した例において、投影画像1は、ボタン画像2と、撮像領域3とを含んでいる。また、図28に示した例は、撮像領域3を移動させたときの状態を表している。図28に示すように、撮像領域3を移動させたときに、該撮像領域3は、ユーザ操作の検出が可能な範囲をユーザに認識させるために、太枠等で表示される。このような投影画像1は、投影制御部122bによって生成される。   FIG. 28 is a diagram illustrating an example of feedback of the imaging region. In the example shown in FIG. 28, the projected image 1 includes a button image 2 and an imaging region 3. In addition, the example illustrated in FIG. 28 represents a state when the imaging region 3 is moved. As shown in FIG. 28, when the imaging region 3 is moved, the imaging region 3 is displayed with a thick frame or the like so that the user can recognize the range in which the user operation can be detected. Such a projection image 1 is generated by the projection control unit 122b.

上述してきた実施の形態では、撮像領域をユーザに意識させずにユーザ操作の検出精度を向上させていた。但し、撮像領域の面積がボタン画像の面積よりも小さい場合には、ボタン画像の領域全てでユーザ操作を検出することができない。このため、本実施の形態では、撮像領域を表示させた投影画像を生成することで、撮像領域をユーザに意識させユーザ操作の検出精度を向上させる。なお、撮像領域の表示は、枠を表示させるだけでなく、撮像領域を点滅させる等、現在の撮像領域をユーザに認識させることが可能であれば、どのような手法を採用しても良い。   In the embodiment described above, the detection accuracy of the user operation is improved without making the user aware of the imaging region. However, when the area of the imaging area is smaller than the area of the button image, the user operation cannot be detected in the entire area of the button image. For this reason, in the present embodiment, by generating a projection image in which the imaging region is displayed, the user is made aware of the imaging region and the detection accuracy of the user operation is improved. Note that any method may be used for displaying the imaging region as long as the current imaging region can be recognized by the user, such as blinking the imaging region, as well as displaying a frame.

(2)オブジェクトのフィードバック
上記実施の形態では、投影画像にユーザ操作のためのオブジェクトが複数存在する場合の、撮像領域の移動量の算出について説明した。本実施の形態では、ユーザ操作を容易にするために、オブジェクトをフィードバックしても良い。
(2) Object Feedback In the above embodiment, calculation of the movement amount of the imaging region when there are a plurality of objects for user operation in the projection image has been described. In the present embodiment, the object may be fed back in order to facilitate the user operation.

図29は、オブジェクトのフィードバックの例を示す図である。図29に示した例において、投影画像1は、ボタン画像2aと、ボタン画像2bと、ボタン画像2cと、撮像領域3とを含んでいる。また、図29に示した例は、撮像領域3を移動させたときの状態を表している。図29に示すように、撮像領域3を移動させたときに、該撮像領域3に含まれるボタン画像2cは、他のボタン画像とは異なる色に変化させる等、所定の表示に変化させる。このような投影画像1は、投影制御部122bによって生成される。   FIG. 29 is a diagram illustrating an example of object feedback. In the example shown in FIG. 29, the projection image 1 includes a button image 2a, a button image 2b, a button image 2c, and an imaging region 3. In addition, the example illustrated in FIG. 29 represents a state when the imaging region 3 is moved. As shown in FIG. 29, when the imaging area 3 is moved, the button image 2c included in the imaging area 3 is changed to a predetermined display such as a color different from that of the other button images. Such a projection image 1 is generated by the projection control unit 122b.

上述してきた実施の形態では、現在の撮像領域をユーザに意識させずにユーザ操作の操作性を向上させていた。但し、投影画像内に複数のオブジェクトが存在する場合には、何れのオブジェクトが操作可能なオブジェクトであるかをユーザが認識することが困難である。このため、本実施の形態では、現在の撮像領域に含まれるオブジェクトの色を変化させた投影画像を生成することで、操作可能なオブジェクトをユーザに認識させユーザ操作の操作性を向上させる。なお、オブジェクトの表示の変化は、色を変化させるだけでなく、オブジェクトを点滅させたり透過させたりする等、現在の操作可能なオブジェクトをユーザに認識させることが可能であれば、どのような手法を採用しても良い。また、現在の撮像領域に含まれるオブジェクトとは、オブジェクトの配置や撮像領域の大きさによっては複数のオブジェクトが含まれる可能性もあるため、詳細には、撮像領域の移動先となっているオブジェクトである。   In the embodiment described above, the operability of the user operation is improved without making the user aware of the current imaging area. However, when there are a plurality of objects in the projection image, it is difficult for the user to recognize which object is an operable object. For this reason, in the present embodiment, by generating a projection image in which the color of an object included in the current imaging region is changed, the user can recognize an operable object and improve the operability of the user operation. In addition to changing the color, any change in the display of the object can be done by any method as long as the user can recognize the current operable object, such as blinking or transmitting the object. May be adopted. In addition, the object included in the current imaging area may include a plurality of objects depending on the arrangement of the object and the size of the imaging area. It is.

(3)撮像領域やオブジェクトの形
上記実施の形態では、投影画像や撮像領域、オブジェクト等の形を方形であることとして説明した。本実施の形態では、これらが方形でなくても良い。例えば、投影画像や撮像領域、オブジェクト等が円形であれば、該円形を含む最小の方形を採用する。つまり、投影画像や撮像領域、オブジェクト等を含む最小の方形を利用して、上述してきた移動量算出処理を実行すれば良い。但し、撮像領域については、方形ではない撮像領域を含む最小の方形を採用すると、撮像領域自体が大きくなりすぎる可能性もあり、実際にはユーザ操作を検出できない領域まで含むことになるため、撮像領域に含まれる最大の方形を採用しても良い。また、オブジェクトは、ボタン画像だけでなく、コンボボックスやグループボックス等、他のオブジェクトであっても良い。
(3) Shape of Imaging Area and Object In the above embodiment, the shape of the projected image, the imaging area, the object, and the like has been described as being a square. In the present embodiment, these do not have to be square. For example, if a projected image, an imaging region, an object, or the like is a circle, the smallest square including the circle is adopted. That is, the above-described movement amount calculation process may be executed using a minimum square including a projection image, an imaging region, an object, and the like. However, as for the imaging area, if the smallest square including an imaging area that is not a square is adopted, the imaging area itself may become too large. The maximum square included in the region may be adopted. The object may be not only a button image but also other objects such as a combo box and a group box.

(4)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。また、図示した各装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に、分散又は統合することができる。
(4) Configuration In addition, information including processing procedures, control procedures, specific names, various data, parameters, and the like shown in the document and drawings can be arbitrarily changed unless otherwise specified. Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution or integration of each device is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in arbitrary units according to various burdens or usage conditions. Or they can be integrated.

上記実施の形態では、撮像装置20、投影装置30及び制御装置100を有する投影システム10として説明したが、これらの装置は、任意の単位で機能的又は物理的に、分散又は統合することができる。例えば、撮像装置20、投影装置30及び制御装置100を一体型の装置として実現しても良いし、制御装置100及び投影装置30のみを一体型の装置として実現しても良く、これらの組み合わせは変更可能である。また、制御装置100は、ネットワークに接続されたサーバ装置上に配置しても良い。   In the above embodiment, the projection system 10 including the imaging device 20, the projection device 30, and the control device 100 has been described. However, these devices can be functionally or physically distributed or integrated in arbitrary units. . For example, the imaging device 20, the projection device 30, and the control device 100 may be realized as an integrated device, or only the control device 100 and the projection device 30 may be realized as an integrated device. It can be changed. The control device 100 may be arranged on a server device connected to a network.

また、上記実施の形態では、複数のオブジェクトが存在する場合に、現在の撮像領域にボタン画像全てが包含されているか否かを判定し、ボタン画像全てが包含されていなければ、撮像領域の移動量を算出することとして説明した。本実施の形態では、ボタン画像全てが包含されていなくても、撮像領域の移動量を「0」としても良い。例えば、撮像領域に含まれるボタン画像の数や、ボタン画像全ての数に対する撮像領域に含まれるボタン画像の数の割合等が一定以上であれば、撮像領域の移動量を「0」としても良い。また、上述したように、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。   In the above embodiment, when there are a plurality of objects, it is determined whether or not all the button images are included in the current imaging region. If all the button images are not included, the imaging region is moved. It was described as calculating the amount. In the present embodiment, the movement amount of the imaging region may be set to “0” even if all the button images are not included. For example, if the number of button images included in the imaging region, the ratio of the number of button images included in the imaging region to the total number of button images, or the like is greater than or equal to a certain value, the movement amount of the imaging region may be set to “0”. . Further, as described above, the embodiments can be appropriately combined within a range in which the contents are not contradictory.

(5)プログラム
また、制御装置100で実行される制御プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、制御装置100で実行される制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、制御装置100で実行される制御プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、制御プログラムを、ROM等に予め組み込んで提供するように構成しても良い。
(5) Program The control program executed by the control device 100 may be a file in an installable format or an executable format as a form of CD-ROM, flexible disk (FD), CD-R, DVD ( And recorded on a computer-readable recording medium such as a digital versatile disk. Further, the control program executed by the control device 100 may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The control program executed by the control device 100 may be provided or distributed via a network such as the Internet. The control program may be provided by being incorporated in advance in a ROM or the like.

制御装置100で実行される制御プログラムは、上述した各部(画像検出部121a、第1座標算出部121b、第2座標算出部121c、包含判定部121d、移動情報算出部121e、撮像制御部121f、操作検出部122a、投影制御部122b)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から制御プログラムを読み出して実行することにより、上記各部が主記憶装置上にロードされ、画像検出部121a、第1座標算出部121b、第2座標算出部121c、包含判定部121d、移動情報算出部121e、撮像制御部121f、操作検出部122a、投影制御部122bが主記憶装置上に生成されるようになっている。   The control program executed by the control device 100 includes the above-described units (the image detection unit 121a, the first coordinate calculation unit 121b, the second coordinate calculation unit 121c, the inclusion determination unit 121d, the movement information calculation unit 121e, the imaging control unit 121f, The module configuration includes an operation detection unit 122a and a projection control unit 122b). As actual hardware, a CPU (processor) reads out and executes a control program from a storage medium, so that the above-described units are on the main storage device. The image detection unit 121a, the first coordinate calculation unit 121b, the second coordinate calculation unit 121c, the inclusion determination unit 121d, the movement information calculation unit 121e, the imaging control unit 121f, the operation detection unit 122a, and the projection control unit 122b are mainly used. It is generated on a storage device.

10 投影システム
20 撮像装置
21 撮像部
30 投影装置
31 投影部
100 制御装置
110 記憶部
111 撮像画像記憶部
120 制御部
121a 画像検出部
121b 第1座標算出部
121c 第2座標算出部
121d 包含判定部
121e 移動情報算出部
121f 撮像制御部
122a 操作検出部
122b 投影制御部
DESCRIPTION OF SYMBOLS 10 Projection system 20 Imaging apparatus 21 Imaging part 30 Projection apparatus 31 Projection part 100 Control apparatus 110 Storage part 111 Captured image storage part 120 Control part 121a Image detection part 121b 1st coordinate calculation part 121c 2nd coordinate calculation part 121d Inclusion determination part 121e Movement information calculation unit 121f Imaging control unit 122a Operation detection unit 122b Projection control unit

特許第4710734号公報Japanese Patent No. 4710734 特開2005−339269号公報JP 2005-339269 A

Claims (20)

投影面に投影画像を投影する投影部と、
撮像可能な領域を表す撮像領域を撮像し、撮像画像を生成する撮像部と、
ユーザの操作対象となる画像を表す操作対象画像に一致する前記投影画像内の画像を表す一致画像を検出する画像検出部と、
前記投影画像に対する前記撮像領域の位置を特定する第1座標を算出する第1座標算出部と、
前記投影画像に対する前記一致画像の位置を特定する第2座標を算出する第2座標算出部と、
前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出部と、
前記移動情報にしたがって、前記撮像領域を移動させるように、前記撮像部による撮像を制御する撮像制御部と、
前記撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出部と、
検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の前記投影部による投影を制御する投影制御部と
を有することを特徴とする投影システム。
A projection unit that projects a projection image on a projection surface;
An imaging unit that captures an imaging region representing an imageable region and generates a captured image;
An image detection unit for detecting a coincidence image representing an image in the projection image that coincides with an operation target image representing an image to be operated by a user;
A first coordinate calculation unit that calculates first coordinates for specifying the position of the imaging region with respect to the projection image;
A second coordinate calculation unit for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image;
A movement information calculation unit that calculates movement information for moving the imaging region from the first coordinates and the second coordinates;
An imaging control unit that controls imaging by the imaging unit so as to move the imaging region according to the movement information;
An operation detection unit that detects a user operation on the matching image using the captured image;
A projection system, comprising: a projection control unit configured to generate a projection image in accordance with the detected user operation and to control projection of the generated projection image by the projection unit.
前記移動情報算出部は、現在の前記撮像領域の重心となる座標から、前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit calculates a movement amount from a coordinate serving as a centroid of the current imaging region to a coordinate serving as a centroid of the coincidence image as the movement information. Projection system. 前記移動情報算出部は、前記第1座標から前記第2座標への移動量であって、現在の前記第1座標と前記第2座標との対応する座標間で距離が最小となる移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit is a movement amount from the first coordinate to the second coordinate, and a movement amount that minimizes a distance between the corresponding coordinates of the current first coordinate and the second coordinate. The projection system according to claim 1, wherein the projection information is calculated as the movement information. 前記第1座標と前記第2座標とから、前記撮像領域が前記一致画像を包含しているか否かを判定する包含判定部をさらに有し、
前記移動情報算出部は、前記撮像領域が前記一致画像を包含していると判定された場合に、前記移動情報を算出することを特徴とする請求項1〜3の何れか一つに記載の投影システム。
An inclusion determination unit that determines whether or not the imaging region includes the coincidence image from the first coordinates and the second coordinates;
The said movement information calculation part calculates the said movement information, when it determines with the said imaging region including the said coincidence image, The movement information calculation part as described in any one of Claims 1-3 characterized by the above-mentioned. Projection system.
前記第1座標と前記第2座標とから、前記撮像領域が前記一致画像を包含しているか否かを判定する包含判定部と、
前記撮像領域が前記一致画像を包含していないと判定された場合に、前記第1座標と前記第2座標とから、前記撮像領域の面積が前記一致画像の面積よりも小さいか否かを判定する面積判定部と、をさらに有し、
前記移動情報算出部は、前記撮像領域の面積が前記一致画像の面積よりも小さいと判定された場合に、前記移動情報を算出することを特徴とする請求項1又は2に記載の投影システム。
An inclusion determination unit that determines whether the imaging region includes the coincidence image from the first coordinate and the second coordinate;
When it is determined that the imaging region does not include the coincidence image, it is determined from the first coordinate and the second coordinate whether the area of the imaging region is smaller than the area of the coincidence image. And an area determination unit to
The projection system according to claim 1, wherein the movement information calculation unit calculates the movement information when it is determined that an area of the imaging region is smaller than an area of the coincidence image.
前記投影制御部は、現在の前記第1座標から、前記撮像領域を表示させた投影画像を生成することを特徴とする請求項5に記載の投影システム。   The projection system according to claim 5, wherein the projection control unit generates a projection image in which the imaging region is displayed from the current first coordinate. 前記移動情報算出部は、複数の前記一致画像が検出された場合に、複数の前記一致画像から任意の一致画像を選択し、現在の前記撮像領域の重心となる座標から、選択した任意の前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit selects an arbitrary matching image from the plurality of matching images when a plurality of the matching images are detected, and selects the selected arbitrary image from the coordinates serving as the center of gravity of the current imaging region. The projection system according to claim 1, wherein a movement amount to a coordinate serving as a center of gravity of the coincidence image is calculated as the movement information. 前記移動情報算出部は、複数の前記一致画像が検出された場合に、現在の前記撮像領域の重心となる座標から、複数の前記一致画像の重心となる座標それぞれへの移動量を算出し、最小となる移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit calculates, when a plurality of the coincidence images are detected, a movement amount from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the centers of gravity of the plurality of coincidence images, The projection system according to claim 1, wherein a minimum movement amount is calculated as the movement information. 前記移動情報算出部は、複数の前記一致画像が検出された場合に、複数の前記一致画像の面積を算出し、算出した面積に応じて一致画像を選択し、現在の前記撮像領域の重心となる座標から、選択した前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit calculates the areas of the plurality of matching images when a plurality of the matching images are detected, selects the matching images according to the calculated areas, and calculates the center of gravity of the current imaging region. 2. The projection system according to claim 1, wherein a movement amount from the coordinates to the coordinates serving as the center of gravity of the selected matching image is calculated as the movement information. 前記移動情報算出部は、複数の前記一致画像が検出された場合に、複数の前記一致画像から任意の一致画像を順次選択し、現在の前記撮像領域の重心となる座標から、順次選択した任意の前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit sequentially selects arbitrary matching images from the plurality of matching images when a plurality of the matching images are detected, and sequentially selects the arbitrary matching images from the coordinates that are the center of gravity of the current imaging region. The projection system according to claim 1, wherein a movement amount to a coordinate serving as a center of gravity of the coincidence image is calculated as the movement information. 前記移動情報算出部は、複数の前記一致画像が検出された場合に、予め決定された複数の前記一致画像の優先順位にしたがって一致画像を順次選択し、現在の前記撮像領域の重心となる座標から、順次選択した前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項1に記載の投影システム。   The movement information calculation unit sequentially selects matching images according to the priority order of the plurality of matching images determined in advance when a plurality of matching images are detected, and coordinates serving as the center of gravity of the current imaging region 2. The projection system according to claim 1, wherein a movement amount to a coordinate that is a center of gravity of the sequentially selected matching images is calculated as the movement information. 撮像領域の移動に関する設定事項を表す移動設定を行なう移動設定部をさらに有し、
前記移動情報算出部は、前記移動設定に応じて前記移動情報を算出することを特徴とする請求項7〜11の何れか一つに記載の投影システム。
It further has a movement setting unit for performing movement settings representing setting items related to movement of the imaging region,
The projection system according to claim 7, wherein the movement information calculation unit calculates the movement information according to the movement setting.
前記投影制御部は、現在の前記第1座標と前記第2座標とから、現在の前記撮像領域に含まれる前記一致画像の表示を、所定の表示に変化させた投影画像を生成することを特徴とする請求項7〜11の何れか一つに記載の投影システム。   The projection control unit generates a projection image in which the display of the coincidence image included in the current imaging region is changed to a predetermined display from the current first coordinate and the second coordinate. The projection system according to any one of claims 7 to 11. ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出ステップと、
前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出ステップと、
前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出ステップと、
前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出ステップと、
前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御ステップと、
前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出ステップと、
検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御ステップと
をコンピュータに実行させるための制御プログラム。
An image detection step for detecting a coincidence image representing an image in a projection image that coincides with an operation target image representing an image to be operated by a user;
A first coordinate calculating step for calculating a first coordinate for specifying a position of an imaging region representing an imageable region with respect to the projection image;
A second coordinate calculating step for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image;
A movement information calculation step of calculating movement information for moving the imaging region from the first coordinates and the second coordinates;
An imaging control step of controlling imaging by an imaging device so as to move the imaging area according to the movement information;
An operation detection step of detecting a user operation on the matching image using a captured image captured by the imaging device;
A control program for causing a computer to execute a projection control step of generating a projection image in accordance with the detected user operation and controlling projection of the generated projection image by a projection device.
前記移動情報算出ステップは、現在の前記撮像領域の重心となる座標から、前記一致画像の重心となる座標への移動量を、前記移動情報として算出することを特徴とする請求項14に記載の制御プログラム。   The movement information calculation step calculates a movement amount from the coordinates serving as the center of gravity of the current imaging region to the coordinates serving as the center of gravity of the coincidence image as the movement information. Control program. 前記移動情報算出ステップは、前記第1座標から前記第2座標への移動量であって、現在の前記第1座標と前記第2座標との対応する座標間で距離が最小となる移動量を、前記移動情報として算出することを特徴とする請求項14に記載の制御プログラム。   The movement information calculation step is a movement amount from the first coordinate to the second coordinate, and a movement amount that minimizes the distance between the corresponding coordinates of the current first coordinate and the second coordinate. The control program according to claim 14, wherein the control information is calculated as the movement information. 前記第1座標と前記第2座標とから、前記撮像領域が前記一致画像を包含しているか否かを判定する包含判定ステップをさらに実行させ、
前記移動情報算出ステップは、前記撮像領域が前記一致画像を包含していると判定された場合に、前記移動情報を算出することを特徴とする請求項14〜16の何れか一つに記載の制御プログラム。
An inclusion determination step for determining whether or not the imaging region includes the coincidence image from the first coordinates and the second coordinates;
The movement information calculation step calculates the movement information when it is determined that the imaging area includes the coincidence image. Control program.
前記第1座標と前記第2座標とから、前記撮像領域が前記一致画像を包含しているか否かを判定する包含判定ステップと、
前記撮像領域が前記一致画像を包含していないと判定された場合に、前記第1座標と前記第2座標とから、前記撮像領域の面積が前記一致画像の面積よりも小さいか否かを判定する面積判定ステップと、をさらに実行させ、
前記移動情報算出ステップは、前記撮像領域の面積が前記一致画像の面積よりも小さいと判定された場合に、前記移動情報を算出することを特徴とする請求項14又は15に記載の制御プログラム。
An inclusion determination step of determining whether or not the imaging region includes the coincidence image from the first coordinates and the second coordinates;
When it is determined that the imaging region does not include the coincidence image, it is determined from the first coordinate and the second coordinate whether the area of the imaging region is smaller than the area of the coincidence image. And further performing an area determination step to perform,
The control program according to claim 14 or 15, wherein the movement information calculation step calculates the movement information when it is determined that an area of the imaging region is smaller than an area of the coincidence image.
ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出部と、
前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出部と、
前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出部と、
前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出部と、
前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御部と、
前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出部と、
検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御部と
を有することを特徴とする制御装置。
An image detection unit for detecting a coincidence image representing an image in a projection image that coincides with an operation target image representing an image to be operated by a user;
A first coordinate calculation unit that calculates a first coordinate for specifying a position of an imaging region representing an imageable region with respect to the projection image;
A second coordinate calculation unit for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image;
A movement information calculation unit that calculates movement information for moving the imaging region from the first coordinates and the second coordinates;
An imaging control unit that controls imaging by the imaging device so as to move the imaging region according to the movement information;
An operation detection unit that detects a user operation on the matching image using a captured image captured by the imaging device;
And a projection control unit configured to generate a projection image according to the detected user operation and control projection of the generated projection image by the projection apparatus.
ユーザの操作対象となる画像を表す操作対象画像に一致する投影画像内の画像を表す一致画像を検出する画像検出ステップと、
前記投影画像に対する、撮像可能な領域を表す撮像領域の位置を特定する第1座標を算出する第1座標算出ステップと、
前記投影画像に対する、前記一致画像の位置を特定する第2座標を算出する第2座標算出ステップと、
前記第1座標と前記第2座標とから、前記撮像領域を移動させるための移動情報を算出する移動情報算出ステップと、
前記移動情報にしたがって、前記撮像領域を移動させるように、撮像装置による撮像を制御する撮像制御ステップと、
前記撮像装置によって撮像された撮像画像を用いて、前記一致画像に対するユーザ操作を検出する操作検出ステップと、
検出された前記ユーザ操作に応じて投影画像を生成し、生成した投影画像の投影装置による投影を制御する投影制御ステップと
を含むことを特徴とする制御方法。
An image detection step for detecting a coincidence image representing an image in a projection image that coincides with an operation target image representing an image to be operated by a user;
A first coordinate calculating step for calculating a first coordinate for specifying a position of an imaging region representing an imageable region with respect to the projection image;
A second coordinate calculating step for calculating a second coordinate for specifying the position of the coincidence image with respect to the projection image;
A movement information calculation step of calculating movement information for moving the imaging region from the first coordinates and the second coordinates;
An imaging control step of controlling imaging by an imaging device so as to move the imaging area according to the movement information;
An operation detection step of detecting a user operation on the matching image using a captured image captured by the imaging device;
A projection control step of generating a projection image in response to the detected user operation and controlling projection of the generated projection image by a projection apparatus.
JP2013020700A 2013-02-05 2013-02-05 Projection system, control program, control device, and control method Pending JP2014153769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013020700A JP2014153769A (en) 2013-02-05 2013-02-05 Projection system, control program, control device, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013020700A JP2014153769A (en) 2013-02-05 2013-02-05 Projection system, control program, control device, and control method

Publications (1)

Publication Number Publication Date
JP2014153769A true JP2014153769A (en) 2014-08-25

Family

ID=51575626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013020700A Pending JP2014153769A (en) 2013-02-05 2013-02-05 Projection system, control program, control device, and control method

Country Status (1)

Country Link
JP (1) JP2014153769A (en)

Similar Documents

Publication Publication Date Title
JP6040564B2 (en) Image processing apparatus, projection control method, and program
JP5087532B2 (en) Terminal device, display control method, and display control program
US10649313B2 (en) Electronic apparatus and method for controlling same
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP2015018296A (en) Display controller, program, and recording medium
JP6079695B2 (en) Image display photographing system, photographing device, display device, image display and photographing method, and computer program
US9229585B2 (en) Projection system, image generating method, and computer-readable storage medium
JP6307626B2 (en) Operation device, information processing device including operation device, and operation reception method for information processing device
JP2013235374A (en) Image processing apparatus, and projection control method and program
JPWO2012147959A1 (en) Input device, input method, and program
JP6765884B2 (en) Information processing equipment, information processing methods and programs
US11099728B2 (en) Electronic apparatus, control method, and non-transitory computer readable medium for displaying a display target
JP2011081557A (en) Information processor, method of processing information, and program
US20220264062A1 (en) Display method, information processing device, and non-transitory computer-readable storage medium storing program
JP2014178791A (en) Projector, projection system, image generation program, and image generation method
JP2014153769A (en) Projection system, control program, control device, and control method
US20200257396A1 (en) Electronic device and control method therefor
JP5929376B2 (en) Information processing apparatus, operator determination program, and projection system
US20130127841A1 (en) Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation
JP2014160410A (en) Projection system, image generation program, information processor and image generation method
JP2013037420A (en) Content display system, content display control method, content display control device, and program
JP7276097B2 (en) Information processing device operating method, program, and information processing device
US11036287B2 (en) Electronic device, control method for electronic device, and non-transitory computer readable medium
JP2017182843A (en) Program, display control device, and display control method
JP2018006803A (en) Imaging apparatus, control method for imaging apparatus, and program