JP2013196329A - Information processor, operator determination program and projection system - Google Patents

Information processor, operator determination program and projection system Download PDF

Info

Publication number
JP2013196329A
JP2013196329A JP2012062308A JP2012062308A JP2013196329A JP 2013196329 A JP2013196329 A JP 2013196329A JP 2012062308 A JP2012062308 A JP 2012062308A JP 2012062308 A JP2012062308 A JP 2012062308A JP 2013196329 A JP2013196329 A JP 2013196329A
Authority
JP
Japan
Prior art keywords
operator
gesture
user
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012062308A
Other languages
Japanese (ja)
Other versions
JP5929376B2 (en
Inventor
Kenichi Hatakeyama
健一 畠山
Tomohiro Suzuki
智裕 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012062308A priority Critical patent/JP5929376B2/en
Publication of JP2013196329A publication Critical patent/JP2013196329A/en
Application granted granted Critical
Publication of JP5929376B2 publication Critical patent/JP5929376B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To smoothly achieve the progress of presentation using a projection device.SOLUTION: An information processor determines an operator who has an operation right as the authority of a user who is able to operate a projection device which projects an image to a projection surface from among users in accordance with a distance from a predetermined position to each user. Also, the information processor detects a gesture as an operation by each user to be performed in order to operate the projection device from a video picked up by an image pickup device. Also, the information processor determines whether or not the detected gesture is a gesture by the determined operator, and when determining that the detected gesture is the gesture by the operator, generates an image corresponding to the gesture. Also, the information processor outputs the generated image to the projection device.

Description

本発明は、情報処理装置、操作者決定プログラム及び投影システムに関する。   The present invention relates to an information processing apparatus, an operator determination program, and a projection system.

従来、スクリーンに画像を投影するプロジェクタ等の投影装置に触れることなく、離れた場所から操作可能な技術がある。例えば、リモコンやレーザポインタ等の操作媒体からの指示により各種操作を受け付ける投影装置が知られている。但し、操作媒体により操作可能な投影装置を利用する場合に、ユーザは、操作媒体を常に手元に用意しておかなければならず、さらに複数ユーザによる操作を実現するためには操作媒体を複数用意しなければならない。また、操作媒体による投影装置の各種操作は煩雑になりがちであり、操作媒体を紛失してしまうと、投影装置を操作することもできなくなる。   Conventionally, there is a technique that can be operated from a remote location without touching a projection device such as a projector that projects an image on a screen. For example, there is known a projection apparatus that accepts various operations according to instructions from an operation medium such as a remote controller or a laser pointer. However, when using a projection device that can be operated with an operation medium, the user must always have the operation medium at hand, and more than one operation medium must be prepared in order to realize operations by multiple users. Must. Further, various operations of the projection apparatus using the operation medium tend to be complicated, and if the operation medium is lost, the projection apparatus cannot be operated.

そこで、最近では、投影装置を操作するために行なわれるユーザによる動作であるジェスチャを検出し、検出したジェスチャに応じた各種操作を実現する投影装置が知られている。例えば、特許文献1(特開2010−277176号公報)では、特定のジェスチャを行なったユーザに投影装置の操作権を与える技術が開示されている。   Therefore, recently, there has been known a projection apparatus that detects a gesture that is a user's operation performed to operate the projection apparatus and performs various operations according to the detected gesture. For example, Patent Document 1 (Japanese Patent Laid-Open No. 2010-277176) discloses a technology that gives a user who performs a specific gesture the right to operate the projection apparatus.

しかしながら、従来技術では、投影装置を利用したプレゼンテーションの進行を妨げてしまう可能性があるという問題がある。従来技術では、特定のジェスチャを行なった複数ユーザに操作権を与えることにより、プレゼンテーションを行なっていない操作権を有するユーザのジェスチャに応じた操作も実行される。但し、プレゼンテーションを行なっていない操作権を有するユーザも動くことがあるため、該ユーザが意図せずにジェスチャを行なってしまったとしても、意図しないジェスチャに応じた操作が実行されることになる。これらの結果、従来技術では、プレゼンテーションを行なっていない操作権を有するユーザのジェスチャにより、プレゼンテーションの進行を妨げてしまう可能性がある。   However, the conventional technology has a problem that it may interfere with the progress of the presentation using the projection apparatus. In the prior art, by giving an operation right to a plurality of users who performed a specific gesture, an operation corresponding to a gesture of a user who has an operation right not performing a presentation is also executed. However, since a user who has an operation right not performing a presentation may move, even if the user performs a gesture unintentionally, an operation corresponding to an unintended gesture is executed. As a result, in the related art, there is a possibility that the progress of the presentation may be hindered by a gesture of a user who has an operation right not performing the presentation.

本発明は、上記に鑑みてなされたものであって、投影装置を利用したプレゼンテーションの進行を円滑にすることが可能である情報処理装置、操作者決定プログラム及び投影システムを提供することを目的とする。   The present invention has been made in view of the above, and it is an object of the present invention to provide an information processing apparatus, an operator determination program, and a projection system that can facilitate the progress of a presentation using a projection apparatus. To do.

上述した課題を解決し、目的を達成するため、本発明に係る情報処理装置は、投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定する決定部と、撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出する検出部と、検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定する判定部と、前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成する生成部と、生成された前記画像を前記投影装置に出力する出力部とを有する。   In order to solve the above-described problems and achieve the object, an information processing apparatus according to the present invention provides an operator who has an operation right, which is a user's authority to operate a projection apparatus that projects an image on a projection plane, to a predetermined A gesture that is an operation performed by each user to operate the projection device from an image captured by the imaging device and a determination unit that determines the user from the position according to a distance from the position to each user. A detection unit that detects the gesture, a determination unit that determines whether or not the detected gesture is a gesture by the operator, and a gesture that is determined to be a gesture by the operator. A generation unit configured to generate the corresponding image; and an output unit configured to output the generated image to the projection device.

また、本発明に係る操作者決定プログラムは、投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定するステップと、撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出するステップと、検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定するステップと、前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成するステップと、生成された前記画像を前記投影装置に出力するステップとをコンピュータに実行させる。   Further, the operator determination program according to the present invention selects an operator having an operation right, which is a user's right to operate a projection apparatus that projects an image on a projection surface, according to a distance from a predetermined position to each user. Determining from among the users, detecting a gesture that is an operation by each user performed to operate the projection device from an image captured by the imaging device, and detecting the detected gesture Determining whether or not the gesture is determined by the operator, and generating the image corresponding to the gesture when it is determined that the gesture is determined by the operator, Causing the computer to execute the step of outputting the image to the projection device.

また、本発明に係る投影システムは、スクリーンに画像を投影する投影装置と、情報処理装置とを有する投影システムであって、前記情報処理装置は、投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定する決定部と、撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出する検出部と、検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定する判定部と、前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成する生成部と、生成された前記画像を前記投影装置に出力する出力部とを有し、前記投影装置は、前記情報処理装置によって出力された前記画像を前記投影面に投影する投影部と、前記投影面に投影した前記画像に対するフォーカス状態を検出するフォーカス状態検出部とを有する。   The projection system according to the present invention includes a projection device that projects an image on a screen and an information processing device, and the information processing device can operate the projection device that projects an image on a projection surface. An operator having an operation right that is a right of the user is determined from among the users according to the distance from the predetermined position to each user, and the projection is performed from the video imaged by the imaging device. A detection unit that detects a gesture that is an operation by each user performed to operate an apparatus, a determination unit that determines whether or not the detected gesture is a gesture by the operator, and When it is determined that the gesture is made by an operator, a generation unit that generates the image corresponding to the gesture, and outputs the generated image to the projection device A projection unit that projects the image output by the information processing apparatus onto the projection plane; and a focus state that detects a focus state with respect to the image projected onto the projection plane And a detection unit.

本発明の一つの様態によれば、投影装置を利用したプレゼンテーションの進行を円滑にすることができるという効果を奏する。   According to one aspect of the present invention, there is an effect that the progress of the presentation using the projection device can be made smooth.

図1は、実施の形態1に係る情報処理装置の構成例を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating a configuration example of the information processing apparatus according to the first embodiment. 図2は、実施の形態1に係る操作者決定処理を説明する図である。FIG. 2 is a diagram for explaining the operator determination process according to the first embodiment. 図3は、実施の形態1に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of the flow of the operator determination process according to the first embodiment. 図4は、実施の形態2に係る操作者決定処理を説明する図である。FIG. 4 is a diagram for explaining an operator determination process according to the second embodiment. 図5は、実施の形態2に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the flow of operator determination processing according to the second embodiment. 図6は、実施の形態3に係る操作者決定処理を説明する図である。FIG. 6 is a diagram for explaining an operator determination process according to the third embodiment. 図7は、実施の形態3に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the flow of operator determination processing according to the third embodiment. 図8は、実施の形態4に係る操作者決定処理を説明する図である。FIG. 8 is a diagram for explaining the operator determination process according to the fourth embodiment. 図9は、実施の形態4に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the flow of operator determination processing according to the fourth embodiment. 図10は、割り込みテーブルの例を示す図である。FIG. 10 is a diagram illustrating an example of an interrupt table. 図11は、実施の形態5に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the flow of operator determination processing according to the fifth embodiment. 図12は、実施の形態5に係る操作者決定処理の流れの例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the flow of operator determination processing according to the fifth embodiment. 図13は、時間経過によって操作者を変化させる場合の操作者決定処理の流れの例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the flow of the operator determination process when the operator is changed over time. 図14は、時間経過によって操作者を変化させる場合の操作者決定処理の流れの例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of the flow of operator determination processing when the operator is changed over time. 図15は、記録した画面を再度出力する機能を有する情報処理装置の構成例を示す機能ブロック図である。FIG. 15 is a functional block diagram illustrating a configuration example of an information processing apparatus having a function of outputting a recorded screen again. 図16は、記録画像再出力処理の流れの例を示すフローチャートである。FIG. 16 is a flowchart illustrating an example of the flow of a recorded image re-output process. 図17は、操作者決定プログラムがコンピュータを用いて実現されることを示す図である。FIG. 17 is a diagram illustrating that the operator determination program is realized using a computer.

以下に添付図面を参照して、本発明に係る情報処理装置、操作者決定プログラム及び投影システムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。   Embodiments of an information processing apparatus, an operator determination program, and a projection system according to the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Further, the embodiments can be appropriately combined within a range in which the contents are not contradictory.

(実施の形態1)
[実施の形態1に係る情報処理装置の構成]
図1を用いて、実施の形態1に係る情報処理装置の構成を説明する。図1は、実施の形態1に係る情報処理装置の構成例を示す機能ブロック図である。なお、図1の説明では、図2を適宜用いて説明する。図2は、実施の形態1に係る操作者決定処理を説明する図である。
(Embodiment 1)
[Configuration of Information Processing Device According to Embodiment 1]
The configuration of the information processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a functional block diagram illustrating a configuration example of the information processing apparatus according to the first embodiment. 1 will be described using FIG. 2 as appropriate. FIG. 2 is a diagram for explaining the operator determination process according to the first embodiment.

図1に示すように、情報処理装置100は、プロジェクタ等の投影装置10と、カメラ等の撮像装置20と、決定部110と、検出部120と、記憶部130と、判定部135と、生成部140と、出力部150とを有し、プレゼンテーション等の場面で利用される。また、プレゼンテーションに参加するユーザは、投影装置10を操作するために行なう動作であるジェスチャを行なうことにより、操作対象の機器となる投影装置10の操作が可能である。また、情報処理装置100による処理のトリガは、投影装置10の電源投入や、情報処理装置100の機能を利用する設定が行なわれた場合等である。   As illustrated in FIG. 1, the information processing device 100 includes a projection device 10 such as a projector, an imaging device 20 such as a camera, a determination unit 110, a detection unit 120, a storage unit 130, a determination unit 135, and a generation The unit 140 and the output unit 150 are used in scenes such as presentations. In addition, a user who participates in the presentation can operate the projection apparatus 10 as an operation target device by performing a gesture which is an operation performed to operate the projection apparatus 10. Further, the trigger of processing by the information processing apparatus 100 is when the projector 10 is turned on or a setting for using the function of the information processing apparatus 100 is performed.

投影装置10は、出力部150によって出力された画像をスクリーン等の投影面に投影する投影部11と、スクリーンに投影した画像に対するフォーカス状態を検出するフォーカス状態検出部12とを有し、ジェスチャの操作対象となる機器である。また、フォーカス状態検出部12は、フォーカス状態の検出において、情報処理装置100からスクリーンまでの距離(図2参照)を求め、決定部110に出力する。撮像装置20は、カメラにより情報処理装置100の周辺を撮像し、撮像した映像を検出部120に出力する。検出部120では、撮像装置20によって撮像された映像の各ユーザの位置を検出し、検出した各ユーザの位置を決定部110に出力する。   The projection device 10 includes a projection unit 11 that projects the image output by the output unit 150 onto a projection surface such as a screen, and a focus state detection unit 12 that detects a focus state with respect to the image projected on the screen. It is a device to be operated. Further, the focus state detection unit 12 obtains the distance from the information processing apparatus 100 to the screen (see FIG. 2) and outputs the distance to the determination unit 110 in the detection of the focus state. The imaging device 20 captures the periphery of the information processing device 100 with a camera and outputs the captured image to the detection unit 120. The detection unit 120 detects the position of each user in the video imaged by the imaging device 20, and outputs the detected position of each user to the determination unit 110.

決定部110は、投影装置10を操作可能なユーザの権限である操作権を有する操作者を決定する。より具体的には、決定部110は、検出部120によって出力された、情報処理装置100から各ユーザまでの位置を取得するとともに、フォーカス状態検出部12によって出力された、情報処理装置100からスクリーンまでの距離を取得する。そして、決定部110は、情報処理装置100から各ユーザまでの位置と、情報処理装置100からスクリーンまでの距離と、情報処理装置100から各ユーザの位置及び情報処理装置100からスクリーンまでの位置とのなす角度とから、スクリーンから各ユーザまでの距離(図2参照)を求める。なお、図2では、説明の便宜上、スクリーンに最も近いユーザまでの距離を求めるための実線或いは破線を図示しているが、他のユーザそれぞれまでの距離も同様に求められる。続いて、決定部110は、スクリーンに最も近いユーザを、操作権を有する操作者として決定する。操作者を決定した決定部110は、決定した操作者に関する位置等の情報を記憶部130に格納する。   The determination unit 110 determines an operator who has an operation right that is a user's right to operate the projection apparatus 10. More specifically, the determination unit 110 acquires the position from the information processing device 100 to each user, which is output by the detection unit 120, and the screen from the information processing device 100 that is output by the focus state detection unit 12. Get the distance to. Then, the determination unit 110 includes a position from the information processing apparatus 100 to each user, a distance from the information processing apparatus 100 to the screen, a position of each user from the information processing apparatus 100 and a position from the information processing apparatus 100 to the screen. And the distance from the screen to each user (see FIG. 2). In FIG. 2, for convenience of explanation, a solid line or a broken line for obtaining the distance to the user closest to the screen is illustrated, but the distance to each of the other users is also obtained in the same manner. Subsequently, the determination unit 110 determines the user closest to the screen as the operator having the operation right. The determination unit 110 that has determined the operator stores information such as the position related to the determined operator in the storage unit 130.

検出部120は、撮像装置20によって撮像された映像から、各ユーザによる動作のうち、投影装置10を操作するために行なわれる動作であるジェスチャを検出する。各ユーザによって行なわれるジェスチャの検出では、撮像装置20によって撮像された所定フレームごとのユーザの特徴の差分から、ジェスチャを行なう部位である手や指等の動きを検出し、この動きがジェスチャにマッチしたものをジェスチャとして検出する手法等、任意の技術が利用される。また、検出部120によるジェスチャの検出は、操作者によるジェスチャだけでなく、図2に示した全てのユーザによるジェスチャを検出する。   The detection unit 120 detects a gesture that is an operation performed to operate the projection device 10 among the operations performed by each user, from the video imaged by the imaging device 20. In detection of a gesture performed by each user, the movement of a hand or a finger, which is a part where the gesture is performed, is detected from the difference in user characteristics for each predetermined frame imaged by the imaging device 20, and the movement matches the gesture. Arbitrary techniques, such as a method of detecting a gesture as a gesture, are used. In addition, the detection of the gesture by the detection unit 120 detects not only the gesture by the operator but also the gestures by all users shown in FIG.

記憶部130は、各ジェスチャと、該各ジェスチャに応じた投影装置10に対する操作とを対応付けて記憶する。より具体的には、記憶部130は、ユーザによるジェスチャに対して、投影装置10による画像の投影を次ページ、前ページ又は特定のページに移行させたり、アニメーション効果を実行させたりする等の各種操作を記憶する。また、記憶部130は、決定部110によって決定された操作者に関する位置等の情報も記憶する。   The storage unit 130 stores each gesture and an operation on the projection apparatus 10 corresponding to each gesture in association with each other. More specifically, the storage unit 130 shifts the projection of the image by the projection apparatus 10 to the next page, the previous page, or a specific page, or executes an animation effect in response to a user gesture. Memorize the operation. The storage unit 130 also stores information such as the position related to the operator determined by the determination unit 110.

判定部135は、検出部120によって検出されたジェスチャが決定部110によって決定された操作者によるジェスチャであるか否かを判定する。操作者によるジェスチャであるか否かの判定では、記憶部130に記憶された操作者に関する位置等の情報と、検出部120によって検出されたジェスチャを行なったユーザの位置とが所定距離範囲内である(ほぼ一致する)か否かにより判定される。   The determination unit 135 determines whether or not the gesture detected by the detection unit 120 is a gesture made by the operator determined by the determination unit 110. In determining whether or not the gesture is made by the operator, the information on the position or the like related to the operator stored in the storage unit 130 and the position of the user who performed the gesture detected by the detection unit 120 are within a predetermined distance range. It is determined by whether or not there is (substantially coincides).

生成部140は、判定部135によって操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する操作を記憶部130から取得する。そして、生成部140は、取得した操作に応じて投影装置10に投影させる画像を生成し、出力部150に出力する。出力部150は、生成部140によって出力された画像を投影装置10に出力する。これに応じて、投影装置10の投影部11は、出力部150によって出力された画像をスクリーンに投影する。   When the determination unit 135 determines that the gesture is a gesture by the operator, the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130. Then, the generation unit 140 generates an image to be projected on the projection device 10 according to the acquired operation, and outputs the generated image to the output unit 150. The output unit 150 outputs the image output by the generation unit 140 to the projection device 10. In response to this, the projection unit 11 of the projection apparatus 10 projects the image output by the output unit 150 onto the screen.

[実施の形態1に係る操作者決定処理の流れ]
次に、図3を用いて、実施の形態1に係る操作者決定処理の流れについて説明する。図3は、実施の形態1に係る操作者決定処理の流れの例を示すフローチャートである。
[Flow of operator determination processing according to Embodiment 1]
Next, the flow of the operator determination process according to Embodiment 1 will be described using FIG. FIG. 3 is a flowchart illustrating an example of the flow of the operator determination process according to the first embodiment.

図3に示すように、決定部110は、処理を開始する場合に(ステップS101肯定)、情報処理装置100からスクリーンまでの距離と、情報処理装置100から各ユーザまでの距離と、情報処理装置100から各ユーザの位置及び情報処理装置100からスクリーンまでの位置とのなす角度とから、スクリーンから各ユーザまでの距離を算出する(ステップS102)。ここで、処理開始のトリガは、投影装置10の電源投入や、情報処理装置100の機能を利用する設定が行なわれた場合等である。なお、情報処理装置100からスクリーンまでの距離は投影装置10から取得され、情報処理装置100から各ユーザまでの距離は撮像装置20から得られる情報から求められる。   As illustrated in FIG. 3, the determination unit 110, when starting the process (Yes in step S101), determines the distance from the information processing apparatus 100 to the screen, the distance from the information processing apparatus 100 to each user, and the information processing apparatus. The distance from the screen to each user is calculated from the angle between the position of each user from 100 and the position from the information processing apparatus 100 to the screen (step S102). Here, the trigger for starting the process is when the projector 10 is turned on, or the setting for using the function of the information processing apparatus 100 is performed. Note that the distance from the information processing apparatus 100 to the screen is acquired from the projection apparatus 10, and the distance from the information processing apparatus 100 to each user is obtained from information obtained from the imaging apparatus 20.

一方、決定部110は、処理が開始されない場合に(ステップS101否定)、投影装置10の電源投入や、情報処理装置100の機能を利用する設定が行なわれるのを待つ状態となる。そして、決定部110は、スクリーンに最も近いユーザを、投影装置10の操作権を有する操作者として決定する(ステップS103)。   On the other hand, when the process is not started (No at Step S101), the determination unit 110 waits for power-on of the projection apparatus 10 or setting for using the function of the information processing apparatus 100. Then, the determination unit 110 determines the user closest to the screen as an operator who has the operation right of the projection apparatus 10 (step S103).

また、検出部120は、撮像装置20によって出力された映像から、ジェスチャが検出されたか否かを判定する(ステップS104)。このとき、検出部120によってジェスチャが検出されたと判定された場合に(ステップS104肯定)、判定部135は、決定部110によって決定された操作者によるジェスチャであるか否かを判定する(ステップS105)。一方、検出部120によってジェスチャが検出されていないと判定された場合に(ステップS104否定)、決定部110は、ステップS102の処理を再度実行する。   Further, the detection unit 120 determines whether a gesture is detected from the video output by the imaging device 20 (step S104). At this time, when it is determined that the gesture is detected by the detection unit 120 (Yes in Step S104), the determination unit 135 determines whether the gesture is determined by the operator determined by the determination unit 110 (Step S105). ). On the other hand, when it is determined by the detection unit 120 that no gesture is detected (No at Step S104), the determination unit 110 executes the process at Step S102 again.

また、判定部135によって操作者によるジェスチャであると判定された場合に(ステップS105肯定)、生成部140は、該ジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS106)。その後、出力部150は、生成部140によって生成された画像を投影装置10に出力する(ステップS107)。   Further, when the determination unit 135 determines that the gesture is made by the operator (Yes in step S105), the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130, and performs projection according to the acquired operation. An image to be projected on the apparatus 10 is generated (step S106). Thereafter, the output unit 150 outputs the image generated by the generation unit 140 to the projection device 10 (step S107).

[実施の形態1による効果]
上述したように、情報処理装置100は、スクリーンから各ユーザまでの距離を適宜求め、スクリーンに最も近い位置に居るユーザ一人を操作者とし、操作者によるジェスチャだけに応じた画像を生成及び出力する。これに応じて、投影装置10は、操作者のジェスチャに応じた操作のみに対応した画像をスクリーンに投影する。つまり、情報処理装置100は、スクリーンに最も近い位置に居るユーザのみに投影装置10の操作権を与える。これらの結果、情報処理装置100は、プレゼンテーションを行なっていないユーザに操作権を与えることでプレゼンテーションの進行を妨げてしまう可能性がある従来技術と比較して、投影装置10を利用したプレゼンテーションの進行を円滑にすることができる。
[Effects of Embodiment 1]
As described above, the information processing apparatus 100 appropriately obtains the distance from the screen to each user, uses one user who is closest to the screen as an operator, and generates and outputs an image corresponding only to the gesture by the operator. . In response to this, the projection device 10 projects an image corresponding to only the operation according to the gesture of the operator onto the screen. That is, the information processing apparatus 100 gives the operation right of the projection apparatus 10 only to the user who is closest to the screen. As a result, the information processing apparatus 100 progresses the presentation using the projection apparatus 10 as compared with the conventional technique that may impede the progress of the presentation by giving an operation right to a user who is not giving a presentation. Can be made smooth.

(実施の形態2)
上記実施の形態1では、スクリーンに最も近いユーザを操作者とする場合を説明したが、所定範囲内に存在するユーザを操作者とすることもできる。そこで、実施の形態2では、所定範囲に居るユーザを操作者とする場合を説明する。なお、実施の形態2では、以下に示す決定部110以外の各部の機能及び構成、処理については実施の形態1と同様である。
(Embodiment 2)
In the first embodiment, the case where the user who is closest to the screen is the operator has been described. However, a user who exists within a predetermined range may be the operator. Therefore, in the second embodiment, a case will be described in which a user in a predetermined range is an operator. In the second embodiment, the function, configuration, and processing of each unit other than the determination unit 110 described below are the same as those in the first embodiment.

[実施の形態2に係る操作者決定処理]
図4を適宜用いて、実施の形態2に係る操作者決定処理を説明する。図4は、実施の形態2に係る操作者決定処理を説明する図である。
[Operator determination processing according to Embodiment 2]
The operator determination process according to the second embodiment will be described using FIG. 4 as appropriate. FIG. 4 is a diagram for explaining an operator determination process according to the second embodiment.

実施の形態2に係る決定部110は、スクリーンからの距離に応じた所定範囲内に存在するユーザを操作者として決定する。より具体的には、決定部110は、検出部120によって出力された、情報処理装置100から各ユーザまでの位置を取得するとともに、フォーカス状態検出部12によって出力された、情報処理装置100からスクリーンまでの距離を取得する。そして、決定部110は、情報処理装置100から各ユーザまでの位置と、情報処理装置100からスクリーンまでの距離と、情報処理装置100から各ユーザの位置及び情報処理装置100からスクリーンまでの位置とのなす角度とから、スクリーンから各ユーザまでの距離(図4参照)を求める。なお、図4では、説明の便宜上、スクリーンからの距離に応じた所定範囲内に存在するユーザまでの距離を求めるための実線を図示しているが、他のユーザそれぞれまでの距離も同様に求められる。   The determination unit 110 according to Embodiment 2 determines a user who exists within a predetermined range according to the distance from the screen as an operator. More specifically, the determination unit 110 acquires the position from the information processing device 100 to each user, which is output by the detection unit 120, and the screen from the information processing device 100 that is output by the focus state detection unit 12. Get the distance to. Then, the determination unit 110 includes a position from the information processing apparatus 100 to each user, a distance from the information processing apparatus 100 to the screen, a position of each user from the information processing apparatus 100 and a position from the information processing apparatus 100 to the screen. And the distance from the screen to each user (see FIG. 4). In FIG. 4, for convenience of explanation, a solid line for obtaining the distance to the user existing within a predetermined range corresponding to the distance from the screen is shown, but the distance to each of the other users is obtained in the same manner. It is done.

続いて、決定部110は、スクリーンからの距離に応じて決められた所定範囲(図4に示した破線の楕円)内に存在するユーザを、操作権を有する操作者として決定する。かかる所定範囲は、例えば、スクリーンから所定方向に1メートル離れた位置を中心とする半径70センチメートルに円とする。また、図4に示すように、所定範囲は、あらゆる位置に複数存在していても良く、好適な大きさであれば楕円や矩形等、どのような形状であっても良い。また、所定範囲内に存在するユーザである操作者は、スクリーンから各ユーザまでの距離(方向)等から決定される。図4の例では、所定範囲それぞれに一つずつユーザが存在するので、この二人が操作者となる。但し、所定範囲内にユーザが存在しないときには、操作者となるユーザが一人も居ない状態となる。   Subsequently, the determination unit 110 determines a user who exists within a predetermined range (a dashed ellipse shown in FIG. 4) determined according to the distance from the screen as an operator having the operation right. The predetermined range is, for example, a circle with a radius of 70 centimeters centered at a position 1 meter away from the screen in a predetermined direction. Also, as shown in FIG. 4, a plurality of predetermined ranges may exist at any position, and any shape such as an ellipse or a rectangle may be used as long as it has a suitable size. Further, the operator who is a user existing within a predetermined range is determined from the distance (direction) from the screen to each user. In the example of FIG. 4, there is one user for each predetermined range, so these two are operators. However, when there is no user within the predetermined range, there is no user as an operator.

[実施の形態2に係る操作者決定処理の流れ]
次に、図5を用いて、実施の形態2に係る操作者決定処理の流れについて説明する。図5は、実施の形態2に係る操作者決定処理の流れの例を示すフローチャートである。なお、実施の形態1に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS201とステップS202とは、ステップS101とステップS102とにおける処理と同様である。また、ステップS205〜ステップS208は、ステップS104〜ステップS107における処理と同様である。
[Flow of operator determination processing according to Embodiment 2]
Next, the flow of the operator determination process according to the second embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of operator determination processing according to the second embodiment. Note that description of processing similar to the operator determination processing according to Embodiment 1 may be omitted. Specifically, step S201 and step S202 are the same as the processing in step S101 and step S102. Steps S205 to S208 are the same as the processes in steps S104 to S107.

図5に示すように、決定部110は、スクリーンからの距離に応じて決められた所定範囲内にユーザが存在するか否かを判定する(ステップS203)。所定範囲内にユーザが存在するか否かは、スクリーンから各ユーザまでの距離や情報処理装置100からユーザまでの距離(方向)等を利用して判定される。このとき、決定部110は、所定範囲内にユーザが存在すると判定した場合に(ステップS203肯定)、所定範囲内に存在するユーザを、投影装置10を操作可能な権限である操作権を有する操作者として決定する(ステップS204)。一方、決定部110は、所定範囲内にユーザが存在しないと判定した場合に(ステップS203否定)、ステップS202の処理を再度実行する。実施の形態2では、操作者は一人だけでなく複数人となる場合もある。これらの後、一人又は複数人の操作者によるジェスチャが検出されると、該ジェスチャに対応した画像が生成され、生成された画像が投影装置10に出力されることになる。   As shown in FIG. 5, the determination unit 110 determines whether or not the user exists within a predetermined range determined according to the distance from the screen (step S203). Whether or not the user exists within the predetermined range is determined using a distance from the screen to each user, a distance (direction) from the information processing apparatus 100 to the user, or the like. At this time, when the determination unit 110 determines that the user exists within the predetermined range (Yes in step S203), the determination unit 110 performs an operation having an operation right that is an authority to operate the projection apparatus 10 on the user existing within the predetermined range. (Step S204). On the other hand, when determining that the user does not exist within the predetermined range (No at Step S203), the determination unit 110 executes the process at Step S202 again. In the second embodiment, there are cases where the number of operators is not only one but also a plurality of persons. Thereafter, when a gesture by one or a plurality of operators is detected, an image corresponding to the gesture is generated, and the generated image is output to the projection apparatus 10.

[実施の形態2による効果]
上述したように、情報処理装置100は、スクリーンからの距離に応じて決められた所定範囲内に存在するユーザを操作者とするので、投影装置10を利用した複数ユーザによるプレゼンテーションが行なわれる場合に、プレゼンテーションの進行を円滑にすることができる。換言すると、情報処理装置100は、プレゼンテーションを進行するユーザが居ることの多いであろうスクリーンの近傍に所定範囲を設定し、該所定範囲に存在する全てのユーザを操作者とするので、投影装置10を利用したプレゼンテーションの進行を円滑にすることができる。
[Effects of Embodiment 2]
As described above, since the information processing apparatus 100 uses a user who exists within a predetermined range determined according to the distance from the screen as an operator, when a presentation by a plurality of users using the projection apparatus 10 is performed. , Can make the presentation progress smoothly. In other words, the information processing apparatus 100 sets a predetermined range in the vicinity of a screen in which there are many users who make presentations, and sets all users in the predetermined range as operators. It is possible to facilitate the progress of the presentation using.

(実施の形態3)
上記実施の形態1では、スクリーンに最も近いユーザを操作者とする場合を説明したが、操作者がスクリーンから所定距離以上離れたときに該操作者によるジェスチャを無効にすることもできる。そこで、実施の形態3では、操作者がスクリーンから所定距離以上離れたときに該操作者によるジェスチャを無効にする場合を説明する。なお、実施の形態3では、以下に示す決定部110、判定部135、生成部140及び設定部以外の各部の機能及び構成、処理については実施の形態1と同様である。
(Embodiment 3)
In the first embodiment, the case where the user who is closest to the screen is the operator has been described. However, when the operator is away from the screen by a predetermined distance or more, the gesture by the operator can be invalidated. Therefore, in the third embodiment, a case will be described in which a gesture made by the operator is invalidated when the operator is away from the screen by a predetermined distance or more. In the third embodiment, the functions, configurations, and processes of the units other than the determination unit 110, the determination unit 135, the generation unit 140, and the setting unit described below are the same as those in the first embodiment.

[実施の形態3に係る操作者決定処理]
図6を適宜用いて、実施の形態3に係る操作者決定処理を説明する。図6は、実施の形態3に係る操作者決定処理を説明する図である。また、実施の形態3に係る情報処理装置100は、操作者の操作権が無効にされたときなどに、ユーザ或いはシステム管理者によって行なわれた、各ユーザに対して投影装置10の操作を有効にするか否かの設定を受け付ける設定部(不図示)を備えている。
[Operator determination processing according to Embodiment 3]
The operator determination process according to Embodiment 3 will be described using FIG. 6 as appropriate. FIG. 6 is a diagram for explaining an operator determination process according to the third embodiment. In addition, the information processing apparatus 100 according to Embodiment 3 enables the operation of the projection apparatus 10 for each user, which is performed by the user or the system administrator when the operator's operation right is invalidated. A setting unit (not shown) for receiving a setting as to whether or not to set.

実施の形態3に係る決定部110は、操作者がスクリーンから所定距離以上離れた場合に、該操作者の操作権(該操作者によるジェスチャ)を無効にする。そして、決定部110は、操作者の操作権が無効にされたときに各ユーザに対して投影装置10の操作を有効にする設定がなされている場合に、各ユーザを、操作権とは異なる権限であるサブ操作権を有するサブ操作者として決定する。   The determination unit 110 according to Embodiment 3 invalidates the operator's operation right (the gesture by the operator) when the operator is away from the screen by a predetermined distance or more. Then, the determination unit 110 sets each user to be different from the operation right when the setting is made to enable the operation of the projection apparatus 10 for each user when the operation right of the operator is invalidated. It is determined as a sub-operator having the sub-operation right that is an authority.

図6に示すように、決定部110は、スクリーンに最も近いユーザであることから操作者となっていたユーザがスクリーンから所定距離(例えば、2メートル等)以上離れた場合に、該操作者が有する操作権を無効にする。これにより、操作者が存在しない状態となる。ここで、操作者がスクリーンから所定距離以上離れたか否かは、撮像装置20から取得される情報処理装置100から各ユーザまでの位置と、投影装置10から取得される情報処理装置100からスクリーンまでの距離とから求められたスクリーンから各ユーザまでの距離を利用して判定される。   As illustrated in FIG. 6, when the user who is an operator because the user is the closest user to the screen is separated from the screen by a predetermined distance (for example, 2 meters) or more, the determining unit 110 Disable the operation right you have. As a result, there is no operator. Here, whether or not the operator is away from the screen by a predetermined distance or more depends on the position from the information processing apparatus 100 acquired from the imaging apparatus 20 to each user and the information processing apparatus 100 acquired from the projection apparatus 10 to the screen. It is determined using the distance from the screen to each user obtained from the distance.

そして、決定部110は、操作者が存在しない状態において、各ユーザに対して操作権とは異なる権限であるサブ操作権を有効にする設定がなされている場合に、全てのユーザに対するサブ操作権を有効にして、各ユーザをサブ操作者として決定する。但し、各ユーザに対してサブ操作権を有効にする設定がなされていない場合には、いずれのユーザにも操作権及びサブ操作権がないことになる。なお、各ユーザに対してサブ操作権を有効にするか否かの設定は、事前に設定されるものである。また、サブ操作権は、操作権の権限よりも制限があるものとしても良いし、操作者と同様の操作が可能であっても良い。つまり、説明の便宜上、「操作者」と「サブ操作者」との呼称を使い分けているが、サブ操作者であっても、操作者と同様の操作が可能である場合もある。これらにより、操作者がスクリーンから所定距離以上離れたときに、各ユーザのサブ操作権を有効にする設定がなされている場合には、それまで操作者であったユーザを含めた全てのユーザがサブ操作者として決定されることになる。   Then, the determination unit 110 determines that the sub operation right for all users is set when the sub operation right that is different from the operation right is set for each user in a state where no operator exists. And each user is determined as a sub-operator. However, if the sub-operation right is not set to be valid for each user, none of the users has the operation right and sub-operation right. Note that the setting as to whether to enable the sub-operation right for each user is set in advance. Further, the sub operation authority may be more limited than the operation authority, and the same operation as the operator may be possible. That is, for convenience of explanation, the names “operator” and “sub-operator” are used differently, but even a sub-operator may be able to perform the same operation as the operator. As a result, when the operator is set to enable the sub-operation right of each user when the operator is away from the screen by a predetermined distance or more, all users including the user who has been the operator until then are It will be decided as a sub operator.

判定部135は、各ユーザに対してサブ操作権を有効にする設定がなされている状態において、検出部120によって検出されたジェスチャが決定部110によって決定されたサブ操作者によるジェスチャであるか否かを判定する。サブ操作者によるジェスチャであるか否かの判定では、記憶部130に記憶された各ユーザに関する位置等の情報と、検出部120によって検出されたジェスチャを行なったユーザの位置とが所定距離内である(ほぼ一致する)か否かにより判定される。   The determination unit 135 determines whether or not the gesture detected by the detection unit 120 is a gesture made by the sub operator determined by the determination unit 110 in a state in which the sub operation right is set to be valid for each user. Determine whether. In determining whether or not the gesture is made by the sub-operator, the information on the position related to each user stored in the storage unit 130 and the position of the user who performed the gesture detected by the detection unit 120 are within a predetermined distance. It is determined by whether or not there is (substantially coincides).

生成部140は、判定部135によってサブ操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する操作を記憶部130から取得する。そして、生成部140は、取得した操作に応じて投影装置10に投影させる画像を生成し、出力部150に出力する。   When the determination unit 135 determines that the gesture is a gesture by the sub operator, the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130. Then, the generation unit 140 generates an image to be projected on the projection device 10 according to the acquired operation, and outputs the generated image to the output unit 150.

[実施の形態3に係る操作者決定処理の流れ]
次に、図7を用いて、実施の形態3に係る操作者決定処理の流れについて説明する。図7は、実施の形態3に係る操作者決定処理の流れの例を示すフローチャートである。なお、実施の形態1に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS301〜ステップS303は、ステップS101〜ステップS103における処理と同様である。
[Flow of operator determination processing according to Embodiment 3]
Next, the flow of the operator determination process according to Embodiment 3 will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the flow of operator determination processing according to the third embodiment. Note that description of processing similar to the operator determination processing according to Embodiment 1 may be omitted. Specifically, steps S301 to S303 are the same as the processes in steps S101 to S103.

図7に示すように、決定部110は、ステップS303における操作者の決定後、操作者が移動したか否かを判定する(ステップS304)。このとき、決定部110は、操作者が移動したと判定した場合に(ステップS304肯定)、スクリーンから所定距離以上離れたか否かを判定する(ステップS305)。なお、操作者が移動したか否か、又は、スクリーンから所定距離以上離れたか否かは、撮像装置20又は投影装置10から適宜取得される、情報処理装置100から各ユーザまでの位置と、情報処理装置100からスクリーンまでの距離とから求められた、スクリーンから各ユーザまでの距離を利用して判定される。   As illustrated in FIG. 7, the determination unit 110 determines whether or not the operator has moved after the operator is determined in Step S303 (Step S304). At this time, when determining that the operator has moved (Yes at Step S304), the determining unit 110 determines whether or not the operator has moved away from the screen by a predetermined distance or more (Step S305). Whether or not the operator has moved or whether or not the operator has moved away from the screen by a predetermined distance or more is obtained from the imaging device 20 or the projection device 10 as appropriate, from the information processing device 100 to each user, and information The determination is made using the distance from the screen to each user obtained from the distance from the processing apparatus 100 to the screen.

そして、決定部110は、スクリーンから所定距離以上離れたと判定した場合に(ステップS305肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対してサブ操作権を有効にする設定がなされているか否かを判定する(ステップS306)。一方、決定部110によって操作者が移動していないと判定された場合(ステップS304否定)、スクリーンから所定距離以上離れていないと判定された場合には(ステップS305否定)、ステップS308の処理が実行される。   If the determination unit 110 determines that the screen is separated from the screen by a predetermined distance or more (Yes in step S305), is a gesture made by a user other than the operator, that is, a setting for enabling the sub operation right for each user? It is determined whether or not (step S306). On the other hand, when the determining unit 110 determines that the operator is not moving (No at Step S304), when it is determined that the operator is not separated from the screen by a predetermined distance or more (No at Step S305), the process of Step S308 is performed. Executed.

このとき、決定部110は、各ユーザに対してサブ操作権を有効にする設定がなされている場合に(ステップS306肯定)、各ユーザをサブ操作権を有するサブ操作者とすることにより、全てのユーザによるジェスチャを有効にする(ステップS307)。一方、決定部110は、各ユーザに対するサブ操作権を有効にする設定がなされていない場合に(ステップS306否定)、ステップS302の処理を再度実行する。   At this time, when the setting unit 110 is set to enable the sub operation right for each user (Yes in step S306), the determining unit 110 sets all the users as sub operators having the sub operation right. The user's gesture is validated (step S307). On the other hand, when the setting to enable the sub-operation right for each user is not made (No at Step S306), the determination unit 110 executes the process at Step S302 again.

また、検出部120は、撮像装置20から得られた映像から、ユーザによるジェスチャを取得したか否かを判定することにより、ジェスチャが検出されたか否かを判定する(ステップS308)。このとき、検出部120によってジェスチャが検出されたと判定された場合に(ステップS308肯定)、判定部135は、決定部110によって決定された操作者によるジェスチャであるか否かを判定する(ステップS309)。一方、検出部120によってジェスチャが検出されていないと判定された場合に(ステップS308否定)、決定部110は、ステップS302の処理を再度実行する。   In addition, the detection unit 120 determines whether or not a gesture has been detected by determining whether or not a user gesture has been acquired from the video obtained from the imaging device 20 (step S308). At this time, when it is determined that the gesture is detected by the detection unit 120 (Yes in step S308), the determination unit 135 determines whether the gesture is determined by the operator determined by the determination unit 110 (step S309). ). On the other hand, when the detection unit 120 determines that a gesture has not been detected (No at Step S308), the determination unit 110 executes the process at Step S302 again.

また、生成部140は、判定部135によって操作者によるジェスチャであると判定された場合に(ステップS309肯定)、該ジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS311)。一方、生成部140は、判定部135によって操作者によるジェスチャでないと判定された場合に(ステップS309否定)、操作者以外のジェスチャが有効であるか、すなわちサブ操作者によるジェスチャが有効であるか否かを判定する(ステップS310)。   In addition, when the determination unit 135 determines that the gesture is made by the operator (Yes in step S309), the generation unit 140 acquires the operation corresponding to the gesture from the storage unit 130, and projects according to the acquired operation. An image to be projected on the apparatus 10 is generated (step S311). On the other hand, when the determination unit 135 determines that the gesture is not an operator gesture (No at step S309), the generation unit 140 determines whether the gesture other than the operator is valid, that is, whether the gesture by the sub-operator is valid. It is determined whether or not (step S310).

このとき、生成部140は、サブ操作者によるジェスチャが有効であると判定した場合に(ステップS310肯定)、サブ操作者によるジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS311)。一方、生成部140によってサブ操作者によるジェスチャが有効でないと判定された場合に(ステップS310否定)、決定部110は、ステップS302の処理を再度実行する。これらの後、出力部150は、生成部140によって生成された画像を投影装置10に出力する(ステップS312)。   At this time, when the generation unit 140 determines that the gesture by the sub operator is valid (Yes in step S310), the generation unit 140 acquires an operation corresponding to the gesture by the sub operator from the storage unit 130, and responds to the acquired operation. Then, an image to be projected on the projection apparatus 10 is generated (step S311). On the other hand, when the generation unit 140 determines that the gesture by the sub-operator is not valid (No at Step S310), the determination unit 110 executes the process at Step S302 again. After these, the output unit 150 outputs the image generated by the generation unit 140 to the projection device 10 (step S312).

[実施の形態3による効果]
上述したように、情報処理装置100は、スクリーンから所定距離以上離れた操作者によるジェスチャを無効にし、このとき、サブ操作者によるジェスチャを有効にする設定がなされている場合に、全てのユーザにサブ操作権を与え、各ユーザによるジェスチャに応じた画像を生成及び出力する。換言すると、情報処理装置100は、操作者がスクリーンから所定距離以上離れることで、操作者によるプレゼンテーションが終了又は一時中断したこととして、全てのユーザにも操作権(サブ操作権)を付与する。これらの結果、情報処理装置100は、プレゼンテーションの状況に応じて、各ユーザの操作権を好適に変化させるので、投影装置10を利用したプレゼンテーションの進行をより円滑にすることができる。
[Effects of Embodiment 3]
As described above, the information processing apparatus 100 invalidates gestures by an operator away from the screen by a predetermined distance or more, and at this time, when the setting by the sub-operator to be valid is made, all users are notified. A sub operation right is given, and an image corresponding to a gesture by each user is generated and output. In other words, the information processing apparatus 100 gives the operation right (sub-operation right) to all users as the presentation by the operator is ended or temporarily interrupted when the operator is away from the screen by a predetermined distance or more. As a result, the information processing apparatus 100 suitably changes the operation right of each user according to the presentation status, and therefore the progress of the presentation using the projection apparatus 10 can be made smoother.

(実施の形態4)
上記実施の形態2では、所定範囲内に存在するユーザを操作者とする場合を説明したが、操作者が所定範囲から外れたときに該操作者によるジェスチャを無効にすることもできる。そこで、実施の形態4では、操作者が所定範囲から外れたときに該操作者によるジェスチャを無効にする場合を説明する。なお、実施の形態4では、以下に示す決定部110、判定部135、生成部140及び設定部以外の各部の機能及び構成、処理については実施の形態2と同様である。
(Embodiment 4)
In the second embodiment, the case where the user who is within the predetermined range is the operator has been described. However, when the operator deviates from the predetermined range, the gesture by the operator can be invalidated. Therefore, in the fourth embodiment, a case will be described in which a gesture made by an operator is invalidated when the operator is out of a predetermined range. In the fourth embodiment, the function, configuration, and processing of each unit other than the determination unit 110, the determination unit 135, the generation unit 140, and the setting unit described below are the same as those in the second embodiment.

[実施の形態4に係る操作者決定処理]
図8を適宜用いて、実施の形態4に係る操作者決定処理を説明する。図8は、実施の形態4に係る操作者決定処理を説明する図である。また、実施の形態4に係る情報処理装置100は、操作者の操作権が無効にされたときなどに、ユーザ或いはシステム管理者によって行なわれた、各ユーザに対して投影装置10の操作を有効にするか否かの設定を受け付ける設定部(不図示)を備えている。
[Operator determination processing according to Embodiment 4]
The operator determination process according to the fourth embodiment will be described using FIG. 8 as appropriate. FIG. 8 is a diagram for explaining the operator determination process according to the fourth embodiment. Further, the information processing apparatus 100 according to the fourth embodiment enables the operation of the projection apparatus 10 for each user performed by the user or the system administrator when the operator's operation right is invalidated. A setting unit (not shown) for receiving a setting as to whether or not to set.

実施の形態4に係る決定部110は、操作者が所定範囲から外れた場合に、該操作者の操作権(該操作者によるジェスチャ)を無効にする。そして、決定部110は、操作者の操作権が無効になされたときに、各ユーザに対して投影装置10の操作を有効にする設定がなされている場合に、各ユーザを、操作権とは異なる権限であるサブ操作権を有するサブ操作者として決定する。   The determination unit 110 according to the fourth embodiment invalidates the operator's operation right (the gesture by the operator) when the operator is out of the predetermined range. Then, when the operation right of the operator is invalidated, the determination unit 110 sets each user as an operation right when the setting of enabling the operation of the projection apparatus 10 is made for each user. It is determined as a sub operator having a sub operation right which is a different authority.

図8に示すように、決定部110は、所定範囲内に存在することから操作者となっていたユーザが所定範囲から外れた場合に、該操作者が有する操作権を無効にする。ここで、操作者が所定範囲から外れたか否かは、スクリーンから各ユーザまでの距離や情報処理装置100から各ユーザまでの距離(方向)等をもとに判定される。   As shown in FIG. 8, when the user who has been an operator deviates from the predetermined range because it exists within the predetermined range, the determination unit 110 invalidates the operation right possessed by the operator. Here, whether or not the operator is out of the predetermined range is determined based on the distance from the screen to each user, the distance (direction) from the information processing apparatus 100 to each user, or the like.

そして、決定部110は、全ての操作者が所定範囲から外れた、すなわち操作者が存在しない状態において、各ユーザに対して操作権とは異なる権限であるサブ操作権を有効にする設定がなされている場合に、全てのユーザに対するサブ操作権を有効にして、各ユーザをサブ操作者として決定する。但し、各ユーザに対してサブ操作権を有効にする設定がなされていない場合には、いずれのユーザにも操作権及びサブ操作権がないことになる。なお、各ユーザに対してサブ操作権を有効にするか否かの設定は、事前に設定されるものである。また、サブ操作権は、操作権の権限よりも制限があるものとしても良いし、操作者と同様の操作が可能であっても良い。つまり、説明の便宜上、「操作者」と「サブ操作者」との呼称を使い分けているが、サブ操作者であっても、操作者と同様の操作が可能である場合もある。これらにより、全ての操作者が所定範囲から外れたときに、各ユーザのサブ操作権を有効にする設定がなされている場合には、それまで操作者であったユーザを含めた全てのユーザがサブ操作者として決定されることになる。   Then, the determination unit 110 is set to enable the sub-operation right, which is an authority different from the operation right, for each user in a state where all the operators are out of the predetermined range, that is, there is no operator. In such a case, the sub-operation right for all users is enabled and each user is determined as a sub-operator. However, if the sub-operation right is not set to be valid for each user, none of the users has the operation right and sub-operation right. Note that the setting as to whether to enable the sub-operation right for each user is set in advance. Further, the sub operation authority may be more limited than the operation authority, and the same operation as the operator may be possible. That is, for convenience of explanation, the names “operator” and “sub-operator” are used differently, but even a sub-operator may be able to perform the same operation as the operator. As a result, when all the operators are out of the predetermined range, if the setting for enabling the sub-operation right of each user is made, all the users including the users who have been operators until then are It will be decided as a sub operator.

判定部135は、各ユーザに対してサブ操作権を有効にする設定がなされている状態において、検出部120によって検出されたジェスチャが決定部110によって決定されたサブ操作者によるジェスチャであるか否かを判定する。サブ操作者によるジェスチャであるか否かの判定では、記憶部130に記憶された各ユーザに関する位置等の情報と、検出部120によって検出されたジェスチャを行なったユーザの位置とが所定距離内である(ほぼ一致する)か否かにより判定される。   The determination unit 135 determines whether or not the gesture detected by the detection unit 120 is a gesture made by the sub operator determined by the determination unit 110 in a state in which the sub operation right is set to be valid for each user. Determine whether. In determining whether or not the gesture is made by the sub-operator, the information on the position related to each user stored in the storage unit 130 and the position of the user who performed the gesture detected by the detection unit 120 are within a predetermined distance. It is determined by whether or not there is (substantially coincides).

生成部140は、判定部135によってサブ操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する操作を記憶部130から取得する。そして、生成部140は、取得した操作に応じて投影装置10に投影させる画像を生成し、出力部150に出力する。   When the determination unit 135 determines that the gesture is a gesture by the sub operator, the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130. Then, the generation unit 140 generates an image to be projected on the projection device 10 according to the acquired operation, and outputs the generated image to the output unit 150.

[実施の形態4に係る操作者決定処理の流れ]
次に、図9を用いて、実施の形態4に係る操作者決定処理の流れについて説明する。図9は、実施の形態4に係る操作者決定処理の流れの例を示すフローチャートである。なお、実施の形態2に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS401〜ステップS404は、ステップS201〜ステップS204における処理と同様である。
[Flow of operator determination processing according to Embodiment 4]
Next, the flow of the operator determination process according to Embodiment 4 will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the flow of operator determination processing according to the fourth embodiment. Note that description of the same processing as the operator determination processing according to Embodiment 2 may be omitted. Specifically, steps S401 to S404 are the same as the processes in steps S201 to S204.

図9に示すように、決定部110は、ステップS404における操作者の決定後、操作者が移動したか否かを判定する(ステップS405)。このとき、決定部110は、操作者が移動したと判定した場合に(ステップS405肯定)、操作者全てが所定範囲から外れたか否かを判定する(ステップS406)。なお、操作者が移動したか否か、又は、所定範囲から外れたか否かは、スクリーンから各ユーザまでの距離や情報処理装置100からユーザまでの距離(方向)等を利用して判定される。   As illustrated in FIG. 9, the determination unit 110 determines whether or not the operator has moved after the operator is determined in Step S <b> 404 (Step S <b> 405). At this time, when the determination unit 110 determines that the operator has moved (Yes at Step S405), the determination unit 110 determines whether all the operators are out of the predetermined range (Step S406). Whether the operator has moved or whether the operator has moved out of the predetermined range is determined using a distance from the screen to each user, a distance (direction) from the information processing apparatus 100 to the user, or the like. .

そして、決定部110は、操作者全てが所定範囲から外れたと判定した場合に(ステップS406肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対してサブ操作権を有効にする設定がなされているか否かを判定する(ステップS407)。一方、決定部110によって操作者が移動していないと判定された場合(ステップS405否定)、全ての操作者が所定範囲から外れていないと判定された場合には(ステップS406否定)、ステップS409の処理が実行される。   When the determination unit 110 determines that all the operators are out of the predetermined range (Yes in step S406), the determination by the user other than the operator, that is, the setting for enabling the sub operation right for each user is made. It is determined whether or not (step S407). On the other hand, when it is determined by the determining unit 110 that the operator has not moved (No at Step S405), when it is determined that all the operators are not out of the predetermined range (No at Step S406), Step S409 is performed. The process is executed.

このとき、決定部110は、各ユーザに対してサブ操作権を有効にする設定がなされている場合に(ステップS407肯定)、各ユーザをサブ操作権を有するサブ操作者とすることにより、全てのユーザによるジェスチャを有効にする(ステップS408)。一方、決定部110は、各ユーザに対するサブ操作権を有効にする設定がなされていない場合に(ステップS407否定)、ステップS402の処理を再度実行する。   At this time, when the setting unit 110 is set to enable the sub-operation right for each user (Yes in step S407), the determining unit 110 sets all the users as sub-operators having the sub-operation right. The user's gesture is validated (step S408). On the other hand, when the setting for enabling the sub-operation right for each user has not been made (No at Step S407), the determination unit 110 executes the process at Step S402 again.

また、検出部120は、撮像装置20から得られた映像から、ユーザによるジェスチャを取得したか否かを判定することにより、ジェスチャが検出されたか否かを判定する(ステップS409)。このとき、検出部120によってジェスチャが検出されたと判定された場合に(ステップS409肯定)、判定部135は、決定部110によって決定された操作者によるジェスチャであるか否かを判定する(ステップS410)。一方、検出部120によってジェスチャが検出されていないと判定された場合に(ステップS409否定)、決定部110は、ステップS402の処理を再度実行する。   Further, the detection unit 120 determines whether or not a gesture has been detected by determining whether or not a user gesture has been acquired from the video obtained from the imaging device 20 (step S409). At this time, when it is determined that the gesture is detected by the detection unit 120 (Yes in step S409), the determination unit 135 determines whether the gesture is determined by the operator determined by the determination unit 110 (step S410). ). On the other hand, when it is determined by the detection unit 120 that no gesture has been detected (No at Step S409), the determination unit 110 executes the process of Step S402 again.

また、判定部135によって操作者によるジェスチャであると判定された場合に(ステップS410肯定)、生成部140は、該ジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS412)。一方、生成部140は、判定部135によって操作者によるジェスチャでないと判定された場合に(ステップS410否定)、操作者以外のジェスチャが有効であるか、すなわちサブ操作者によるジェスチャが有効であるか否かを判定する(ステップS411)。   When the determination unit 135 determines that the gesture is made by the operator (Yes in step S410), the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130, and performs projection according to the acquired operation. An image to be projected on the apparatus 10 is generated (step S412). On the other hand, if the determination unit 135 determines that the gesture is not an operator gesture (No at step S410), the generation unit 140 determines whether the gesture other than the operator is valid, that is, whether the gesture by the sub-operator is valid. It is determined whether or not (step S411).

このとき、生成部140は、サブ操作者によるジェスチャが有効であると判定した場合に(ステップS411肯定)、サブ操作者によるジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS412)。一方、生成部140によってサブ操作者によるジェスチャが有効でないと判定された場合に(ステップS411否定)、決定部110は、ステップS402の処理を再度実行する。これらの後、出力部150は、生成部140によって生成された画像を投影装置10に出力する(ステップS413)。   At this time, if the generation unit 140 determines that the gesture by the sub operator is valid (Yes in step S411), the generation unit 140 acquires an operation corresponding to the gesture by the sub operator from the storage unit 130, and responds to the acquired operation. Then, an image to be projected on the projection apparatus 10 is generated (step S412). On the other hand, when the generation unit 140 determines that the gesture by the sub-operator is not valid (No at Step S411), the determination unit 110 executes the process at Step S402 again. After these, the output unit 150 outputs the image generated by the generation unit 140 to the projection device 10 (step S413).

[実施の形態4による効果]
上述したように、情報処理装置100は、所定範囲から外れた操作者によるジェスチャを無効にし、このとき、サブ操作者によるジェスチャを有効にする設定がなされている場合に、全てのユーザにサブ操作権を与え、各ユーザによるジェスチャに応じた画像を生成及び出力する。換言すると、情報処理装置100は、操作者が所定範囲から外れることで、操作者によるプレゼンテーションが終了又は一時中断したこととして、全てのユーザにも操作権(サブ操作権)を付与する。これらの結果、情報処理装置100は、プレゼンテーションの状況に応じて、各ユーザの操作権を好適に変化させるので、投影装置10を利用したプレゼンテーションの進行をより円滑にすることができる。
[Effects of Embodiment 4]
As described above, the information processing apparatus 100 invalidates a gesture made by an operator who is out of a predetermined range, and at this time, when the setting is made to validate the gesture made by the sub-operator, the sub-operation is performed for all users. A right is generated and an image corresponding to a gesture by each user is generated and output. In other words, the information processing apparatus 100 gives the operation right (sub-operation right) to all users as the presentation by the operator is ended or temporarily interrupted when the operator is out of the predetermined range. As a result, the information processing apparatus 100 suitably changes the operation right of each user according to the presentation status, and therefore the progress of the presentation using the projection apparatus 10 can be made smoother.

(実施の形態5)
上記実施の形態1又は2では、操作者以外のユーザによるジェスチャが無効である場合を説明したが、操作者以外のユーザによる特定のジェスチャを有効にすることもできる。そこで、実施の形態5では、操作者以外のユーザによる特定のジェスチャを有効にする場合を説明する。なお、実施の形態5では、以下に示す生成部140、決定部110及び判定部135以外の各部の機能及び構成、処理については実施の形態1又は2と同様である。
(Embodiment 5)
In the first or second embodiment, the case where the gesture by the user other than the operator is invalid has been described, but a specific gesture by the user other than the operator can also be validated. In the fifth embodiment, a case where a specific gesture by a user other than the operator is validated will be described. In the fifth embodiment, the function, configuration, and processing of each unit other than the generation unit 140, the determination unit 110, and the determination unit 135 described below are the same as those in the first or second embodiment.

[実施の形態5に係る操作者決定処理]
実施の形態5に係る生成部140は、検出されたジェスチャが操作者によるジェスチャでなくても、割り込み可能な特定のジェスチャである場合に、該特定のジェスチャに対応する画像を生成する。より具体的には、判定部135は、検出部120によって検出されたジェスチャが決定部110によって決定された操作者によるジェスチャであるか否かを判定する。また、判定部135は、検出部120によって検出されたジェスチャが割り込みを可能とする特定のジェスチャであるか否かを判定する。割り込みを可能とする特定のジェスチャであるか否かの判定では、ジェスチャに対応する操作が、割り込み可であるか或いは割り込み不可であるかを記憶する割り込みテーブルが利用される。
[Operator determination processing according to Embodiment 5]
The generation unit 140 according to Embodiment 5 generates an image corresponding to a specific gesture when the detected gesture is a specific gesture that can be interrupted even if the gesture is not an operator gesture. More specifically, the determination unit 135 determines whether or not the gesture detected by the detection unit 120 is a gesture made by the operator determined by the determination unit 110. Further, the determination unit 135 determines whether or not the gesture detected by the detection unit 120 is a specific gesture that can be interrupted. In determining whether or not a gesture is capable of being interrupted, an interrupt table that stores whether the operation corresponding to the gesture is interruptible or cannot be interrupted is used.

図10は、割り込みテーブルの例を示す図である。図10に示すように、割り込みテーブルは、ジェスチャに対応する各操作それぞれについて、割り込み可であるか或いは割り込み不可であるかを記憶する。例を挙げると、割り込みテーブルは、ジェスチャに対応する操作「次ページ」と、割り込み「不可」とを対応付けて記憶する。他の例を挙げると、割り込みテーブルは、ジェスチャに対応する操作「拡大」と、割り込み「可」とを対応付けて記憶する。詳細には、図10に示した割り込みテーブルの例によれば、操作者以外のユーザによるジェスチャに対応する操作が「次ページ」又は「前ページ」である場合には割り込みが「不可」となり、操作者以外のユーザによるジェスチャに対応する操作が「拡大」又は「縮小」である場合には割り込みが「可」となる。つまり、基本的には操作権を有さないユーザに対しても、プレゼンテーションの妨げにはならないと考えられる、ページの拡大又は縮小等の操作は可能となっている。   FIG. 10 is a diagram illustrating an example of an interrupt table. As illustrated in FIG. 10, the interrupt table stores whether each operation corresponding to the gesture is interruptible or interruptible. For example, the interrupt table stores an operation “next page” corresponding to a gesture and an interrupt “impossible” in association with each other. As another example, the interrupt table stores an operation “enlargement” corresponding to a gesture and an interrupt “permitted” in association with each other. Specifically, according to the example of the interrupt table shown in FIG. 10, when the operation corresponding to the gesture by the user other than the operator is “next page” or “previous page”, the interrupt becomes “impossible” When the operation corresponding to the gesture by the user other than the operator is “enlarge” or “reduced”, the interruption is “permitted”. That is, even for a user who does not have the operation right, an operation such as enlargement or reduction of a page, which is considered not to hinder the presentation, is possible.

これらにより、生成部140は、判定部135によって、操作者によるジェスチャでないと判定された場合、且つ、該ジェスチャが割り込みを可能とする特定のジェスチャであると判定された場合に、特定のジェスチャに対応する操作を記憶部130から取得する。そして、生成部140は、取得された特定のジェスチャに対応する操作に応じて投影装置10に投影させる画像を生成し、出力部150に出力する。   Thus, when the determination unit 135 determines that the gesture is not a gesture by the operator, and the determination unit 135 determines that the gesture is a specific gesture that can be interrupted, the generation unit 140 determines a specific gesture. The corresponding operation is acquired from the storage unit 130. Then, the generation unit 140 generates an image to be projected on the projection device 10 according to an operation corresponding to the acquired specific gesture, and outputs the generated image to the output unit 150.

[実施の形態5に係る操作者決定処理の流れ]
次に、図11を用いて、実施の形態5に係る操作者決定処理の流れについて説明する。図11は、実施の形態5に係る操作者決定処理の流れの例を示すフローチャートである。なお、図11では、スクリーンに最も近いユーザを操作者とする場合の操作者決定処理の流れを説明する。また、実施の形態1に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS501〜ステップS504は、ステップS101〜ステップS104における処理と同様である。
[Flow of operator determination processing according to Embodiment 5]
Next, the flow of the operator determination process according to the fifth embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of the flow of operator determination processing according to the fifth embodiment. In addition, FIG. 11 demonstrates the flow of an operator determination process in case the user nearest to a screen is made into an operator. Further, the description of the same processing as the operator determination processing according to Embodiment 1 may be omitted. Specifically, steps S501 to S504 are the same as the processes in steps S101 to S104.

図11に示すように、判定部135は、検出部120によってジェスチャが検出されたと判定された場合に(ステップS504肯定)、決定部110によって決定された操作者によるジェスチャであるか否かを判定する(ステップS505)。このとき、判定部135によって操作者によるジェスチャであると判定された場合に(ステップS505肯定)、生成部140は、該ジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS507)。   As illustrated in FIG. 11, when the determination unit 135 determines that a gesture has been detected by the detection unit 120 (Yes in step S <b> 504), the determination unit 135 determines whether the gesture is performed by the operator determined by the determination unit 110. (Step S505). At this time, when the determination unit 135 determines that the gesture is made by the operator (Yes in step S505), the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130, and according to the acquired operation An image to be projected on the projection device 10 is generated (step S507).

一方、判定部135は、操作者によるジェスチャでないと判定した場合に(ステップS505否定)、該ジェスチャに対応する操作を記憶部130から取得し、取得したジェスチャに対応する操作について、割り込みテーブルを利用して、割り込み可能な特定のジェスチャであるか否かを判定する(ステップS506)。このとき、判定部135によって割り込み可能な特定のジェスチャであると判定された場合に(ステップS506肯定)、生成部140は、該ジェスチャに対応する操作に応じて投影装置10に投影させる画像を生成する(ステップS507)。一方、判定部135によって割り込み可能な特定のジェスチャでないと判定された場合に(ステップS506否定)、決定部110は、ステップS502の処理を再度実行する。これらの後、出力部150は、生成部140によって生成された画像を投影装置10に出力する(ステップS508)。   On the other hand, when determining that the gesture is not a gesture by the operator (No at Step S505), the determination unit 135 acquires the operation corresponding to the gesture from the storage unit 130, and uses the interrupt table for the operation corresponding to the acquired gesture. Then, it is determined whether the gesture is a specific interruptable gesture (step S506). At this time, when the determination unit 135 determines that the gesture is a specific interruptable gesture (Yes in step S506), the generation unit 140 generates an image to be projected on the projection device 10 in accordance with an operation corresponding to the gesture. (Step S507). On the other hand, when the determination unit 135 determines that the gesture is not a specific interruptable gesture (No at Step S506), the determination unit 110 executes the process of Step S502 again. After these, the output unit 150 outputs the image generated by the generation unit 140 to the projection device 10 (step S508).

次に、図12を用いて、実施の形態5に係る操作者決定処理の流れについて説明する。図12は、実施の形態5に係る操作者決定処理の流れの例を示すフローチャートである。なお、図12では、所定範囲内に存在するユーザを操作者とする場合の操作者決定処理の流れを説明する。また、実施の形態2に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS601〜ステップS605は、ステップS201〜ステップS205における処理と同様である。   Next, the flow of the operator determination process according to the fifth embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of the flow of operator determination processing according to the fifth embodiment. In addition, FIG. 12 demonstrates the flow of an operator determination process in case the user who exists in a predetermined range is made into an operator. In addition, the description of the same process as the operator determination process according to the second embodiment may be omitted. Specifically, steps S601 to S605 are the same as the processes in steps S201 to S205.

図12に示すように、判定部135は、検出部120によってジェスチャが検出されたと判定された場合に(ステップS605肯定)、決定部110によって決定された操作者によるジェスチャであるか否かを判定する(ステップS607)。このとき、判定部135によって操作者によるジェスチャであると判定された場合に(ステップS606肯定)、生成部140は、該ジェスチャに対応する操作を記憶部130から取得し、取得した操作に応じて投影装置10に投影させる画像を生成する(ステップS608)。   As illustrated in FIG. 12, when the determination unit 135 determines that a gesture has been detected by the detection unit 120 (Yes in step S <b> 605), the determination unit 135 determines whether the gesture is performed by the operator determined by the determination unit 110. (Step S607). At this time, when the determination unit 135 determines that the gesture is made by the operator (Yes in step S606), the generation unit 140 acquires an operation corresponding to the gesture from the storage unit 130, and according to the acquired operation An image to be projected on the projection device 10 is generated (step S608).

一方、判定部135は、操作者によるジェスチャでないと判定した場合に(ステップS606否定)、該ジェスチャに対応する操作を記憶部130から取得し、取得したジェスチャに対応する操作について、割り込みテーブルを利用して、割り込み可能な特定のジェスチャであるか否かを判定する(ステップS607)。このとき、判定部135によって割り込み可能な特定のジェスチャであると判定された場合に(ステップS607肯定)、生成部140は、該ジェスチャに対応する操作に応じて投影装置10に投影させる画像を生成する(ステップS608)。一方、判定部135によって割り込み可能な特定のジェスチャでないと判定された場合に(ステップS607否定)、決定部110は、ステップS602の処理を再度実行する。これらの後、出力部150は、生成部140によって生成された画像を投影装置10に出力する(ステップS609)。   On the other hand, when determining that the gesture is not a gesture by the operator (No at Step S606), the determination unit 135 acquires the operation corresponding to the gesture from the storage unit 130, and uses the interrupt table for the operation corresponding to the acquired gesture. Then, it is determined whether or not the gesture can be interrupted (step S607). At this time, when the determination unit 135 determines that the gesture is a specific interruptable gesture (Yes in step S607), the generation unit 140 generates an image to be projected on the projection device 10 in accordance with an operation corresponding to the gesture. (Step S608). On the other hand, when the determination unit 135 determines that the gesture is not a specific interruptable gesture (No at Step S607), the determination unit 110 executes the process at Step S602 again. After these, the output unit 150 outputs the image generated by the generation unit 140 to the projection device 10 (step S609).

[実施の形態5による効果]
上述したように、情報処理装置100は、操作者が存在している間であっても、操作者以外の操作権を有さないユーザの特定のジェスチャによる操作の割り込みを可能とするので、投影装置10を利用したプレゼンテーションの進行をより円滑にすることができる。換言すると、情報処理装置100は、プレゼンテーションの進行の妨げにはならない特定のジェスチャによる操作の割り込みを許可するので、投影装置10を利用したプレゼンテーションの進行をより円滑にすることができる。
[Effects of Embodiment 5]
As described above, the information processing apparatus 100 can interrupt an operation by a specific gesture of a user who does not have an operation right other than the operator even while the operator exists. The progress of the presentation using the apparatus 10 can be made smoother. In other words, the information processing apparatus 100 permits an interruption of an operation by a specific gesture that does not hinder the progress of the presentation, and thus the progress of the presentation using the projection apparatus 10 can be made smoother.

(実施の形態6)
さて、これまで本発明に係る情報処理装置100の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されて良いものである。そこで、(1)時間経過によって操作者を変化、(2)操作者の再登場、(3)構成、(4)プログラム、について異なる実施の形態を説明する。
(Embodiment 6)
Although the embodiment of the information processing apparatus 100 according to the present invention has been described so far, the present invention may be implemented in various different forms other than the above-described embodiment. Accordingly, different embodiments will be described with respect to (1) changing the operator over time, (2) reappearance of the operator, (3) configuration, and (4) program.

(1)時間経過によって操作者を変化
上記実施の形態3又は4では、操作者がスクリーンから所定距離離れた、或いは、操作者が所定範囲から外れたときに操作者の操作権を無効にして、各ユーザのジェスチャによる操作を有効にする場合を説明したが、時間経過によって操作者を変化させても良い。ここで、操作者の変化とは、決定された操作者の中で操作権を変化させるのではなく、操作権を有さないユーザのジェスチャによる操作を時間経過によって有効にすることを指す。
(1) Changing the operator over time In the third or fourth embodiment, when the operator moves away from the screen by a predetermined distance or the operator moves out of the predetermined range, the operator's operation right is invalidated. In the above description, the operation by the gesture of each user is validated. However, the operator may be changed over time. Here, the change of the operator does not change the operation right among the determined operators, but means that the operation based on the gesture of the user who does not have the operation right is made effective over time.

図13を用いて、時間経過によって操作者を変化させる場合の操作者決定処理の流れについて説明する。図13は、時間経過によって操作者を変化させる場合の操作者決定処理の流れの例を示すフローチャートである。なお、図13では、スクリーンに最も近いユーザを操作者とする場合の操作者決定処理の流れを説明する。また、実施の形態3に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS701〜ステップS703は、ステップS301〜ステップS303における処理と同様である。また、ステップS707〜ステップS713は、ステップS306〜ステップS312における処理と同様である。   The flow of the operator determination process when changing the operator over time will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of the flow of the operator determination process when the operator is changed over time. FIG. 13 illustrates the flow of the operator determination process when the user closest to the screen is the operator. In addition, the description of the same processing as the operator determination processing according to Embodiment 3 may be omitted. Specifically, steps S701 to S703 are the same as the processes in steps S301 to S303. Steps S707 to S713 are the same as the processes in steps S306 to S312.

図13に示すように、決定部110は、ステップS703における操作者の決定後、操作者が移動したか否かを判定する(ステップS704)。このとき、決定部110は、操作者が移動したと判定した場合に(ステップS704肯定)、スクリーンから所定距離以上離れたか否かを判定する(ステップS705)。なお、操作者が移動したか否か、又は、スクリーンから所定距離以上離れたか否かは、撮像装置20又は投影装置10から適宜取得される、情報処理装置100から各ユーザまでの位置と、情報処理装置100からスクリーンまでの距離とから求められた、スクリーンから各ユーザまでの距離を利用して判定される。   As illustrated in FIG. 13, the determination unit 110 determines whether or not the operator has moved after the operator is determined in step S703 (step S704). At this time, when determining that the operator has moved (Yes at Step S704), the determining unit 110 determines whether or not the operator has moved away from the screen by a predetermined distance or more (Step S705). Whether or not the operator has moved or whether or not the operator has moved away from the screen by a predetermined distance or more is obtained from the imaging device 20 or the projection device 10 as appropriate, from the information processing device 100 to each user, and information The determination is made using the distance from the screen to each user obtained from the distance from the processing apparatus 100 to the screen.

そして、決定部110は、スクリーンから所定距離以上離れたと判定した場合に(ステップS705肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対するサブ操作権を有効にする設定がなされているか否かを判定する(ステップS707)。一方、決定部110は、操作者が移動していないと判定した場合(ステップS704否定)、スクリーンから所定距離以上離れていないと判定した場合に(ステップS705否定)、割り込み不可時間を過ぎたか否かを判定する(ステップS706)。割り込み不可時間とは、操作者以外のユーザのジェスチャによる操作である割り込み操作が不可である時間を指す。例えば、割り込み不可時間は、プレゼンテーションの時間が20分、質疑応答が10分等と決まっている場合に、20分として設定される。つまり、プレゼンテーションが終了した後は、各ユーザに対して操作権(サブ操作権)が付与される。そして、操作者以外のユーザのサブ操作権を有効にする設定がなされていれば、プレゼンテーションの進行を妨げることなく、その後の質疑応答の進行を円滑にすることができる。   If the determination unit 110 determines that the screen is separated from the screen by a predetermined distance or more (Yes in step S705), whether or not a gesture by a user other than the operator, that is, a setting for enabling the sub-operation right for each user is made. Is determined (step S707). On the other hand, when determining that the operator has not moved (No at Step S704), when determining that the operator has not moved away from the screen by a predetermined distance or more (No at Step S705), whether or not the interrupt disabled time has passed. Is determined (step S706). The interruption impossible time refers to a time during which an interruption operation, which is an operation based on a gesture of a user other than the operator, is impossible. For example, the interruption impossible time is set as 20 minutes when the presentation time is 20 minutes and the question and answer is 10 minutes. That is, after the presentation is finished, an operation right (sub operation right) is given to each user. And if the setting which validates the sub operation right of users other than an operator is made, the progress of subsequent question and answer can be made smooth, without preventing the progress of presentation.

このとき、決定部110は、割り込み不可時間を過ぎたと判定した場合に(ステップS706肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対するサブ操作権を有効にする設定がなされているか否かを判定する(ステップS707)。一方、決定部110によって割り込み不可時間を過ぎていないと判定された場合に(ステップS706否定)、検出部120は、撮像装置20から得られた映像から、ユーザによるジェスチャを取得したか否かを判定することにより、ジェスチャが検出されたか否かを判定する(ステップS709)。   At this time, when the determination unit 110 determines that the interrupt-disabled time has passed (Yes in step S706), whether or not a gesture by a user other than the operator, that is, a setting for enabling the sub-operation right for each user is made. Is determined (step S707). On the other hand, when it is determined by the determination unit 110 that the interruption impossible time has not passed (No in step S706), the detection unit 120 determines whether or not the user's gesture has been acquired from the video obtained from the imaging device 20. By determining, it is determined whether or not a gesture has been detected (step S709).

次に、図14を用いて、時間経過によって操作者を変化させる場合の操作者決定処理の流れについて説明する。図14は、時間経過によって操作者を変化させる場合の操作者決定処理の流れの例を示すフローチャートである。なお、図14では、所定範囲内に存在するユーザを操作者とする場合の操作者決定処理の流れを説明する。また、実施の形態4に係る操作者決定処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS801〜ステップS804は、ステップS401〜ステップS404における処理と同様である。また、ステップS808〜ステップS814は、ステップS407〜ステップS413における処理と同様である。   Next, the flow of the operator determination process when the operator is changed over time will be described with reference to FIG. FIG. 14 is a flowchart illustrating an example of the flow of operator determination processing when the operator is changed over time. Note that FIG. 14 describes the flow of operator determination processing when a user existing within a predetermined range is an operator. In addition, the description of the same process as the operator determination process according to Embodiment 4 may be omitted. Specifically, steps S801 to S804 are the same as the processes in steps S401 to S404. Steps S808 to S814 are the same as the processes in steps S407 to S413.

図14に示すように、決定部110は、ステップS804における操作者の決定後、操作者が移動したか否かを判定する(ステップS805)。このとき、決定部110は、操作者が移動したと判定した場合に(ステップS805肯定)、操作者全てが所定範囲から外れたか否かを判定する(ステップS806)。なお、操作者が移動したか否か、又は、所定範囲から外れたか否かは、スクリーンから各ユーザまでの距離や情報処理装置100から各ユーザまでの距離(方向)等を利用して判定される。   As illustrated in FIG. 14, the determination unit 110 determines whether or not the operator has moved after the operator is determined in Step S804 (Step S805). At this time, when the determination unit 110 determines that the operator has moved (Yes at Step S805), the determination unit 110 determines whether all the operators are out of the predetermined range (Step S806). Whether the operator has moved or whether the operator has moved out of the predetermined range is determined using a distance from the screen to each user, a distance (direction) from the information processing apparatus 100 to each user, or the like. The

そして、決定部110は、操作者全てが所定範囲から外れたと判定した場合に(ステップS806肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対するサブ操作権を有効にする設定がなされているか否かを判定する(ステップS808)。一方、決定部110は、操作者が移動していないと判定した場合(ステップS805否定)、全ての操作者が所定範囲から外れていないと判定した場合に(ステップS806否定)、割り込み不可時間を過ぎたか否かを判定する(ステップS807)。   If the determination unit 110 determines that all the operators are out of the predetermined range (Yes in step S806), is a setting made to enable a gesture by a user other than the operator, that is, a sub operation right for each user? It is determined whether or not (step S808). On the other hand, when determining that the operator is not moving (No at Step S805), when the determining unit 110 determines that all the operators are not out of the predetermined range (No at Step S806), the determination unit 110 sets the interruption impossible time. It is determined whether or not it has passed (step S807).

このとき、決定部110は、割り込み不可時間を過ぎたと判定した場合に(ステップS807肯定)、操作者以外のユーザによるジェスチャ、すなわち各ユーザに対するサブ操作権を有効にする設定がなされているか否かを判定する(ステップS808)。一方、決定部110によって割り込み不可時間を過ぎていないと判定された場合に(ステップS807否定)、検出部120は、撮像装置20から得られた映像から、ユーザによるジェスチャを取得したか否かを判定することにより、ジェスチャが検出されたか否かを判定する(ステップS810)。   At this time, if the determination unit 110 determines that the interruption disabled time has passed (Yes in step S807), whether or not a gesture by a user other than the operator, that is, a setting for enabling the sub-operation right for each user is made. Is determined (step S808). On the other hand, when it is determined by the determination unit 110 that the interruption disabled time has not passed (No in step S807), the detection unit 120 determines whether or not a user's gesture has been acquired from the video obtained from the imaging device 20. By determining, it is determined whether or not a gesture has been detected (step S810).

上述したように、情報処理装置100は、プレゼンテーションが始まってから所定時間の経過に伴い、操作者以外のユーザに対して操作権(サブ操作権)を付与するので、プレゼンテーションの後に質疑応答を設けるような時間を設定している場合に、プレゼンテーションの進行を妨げることなく、その後の質疑応答の進行を円滑にすることができる。   As described above, the information processing apparatus 100 provides an operation right (sub-operation right) to a user other than the operator as a predetermined time elapses after the presentation starts, and thus provides a question and answer session after the presentation. When such a time is set, it is possible to facilitate the subsequent progress of questions and answers without hindering the progress of the presentation.

(2)操作者の再登場
また、上記実施の形態1又は2では、スクリーンに最も近いユーザを操作者としたり、所定範囲内に存在するユーザを操作者としたりする場合を説明したが、操作者がスクリーンから所定距離以上離れたり、所定範囲から外れたりして操作者が居なくなったときに、そのときの画面を記録しておき、操作者が現れたときに記録している画面を再度出力しても良い。ここで、再登場する操作者は、画面を記録するときに居なくなった操作者とは異なるユーザである場合もある。
(2) Reappearance of operator In the first or second embodiment, the case where the user who is closest to the screen is the operator or the user who is within the predetermined range is the operator has been described. When the operator is away from the screen by more than a predetermined distance or is out of the predetermined range, the screen at that time is recorded, and the screen that is recorded when the operator appears is displayed again. It may be output. Here, the operator who reappears may be a different user from the operator who disappeared when recording a screen.

図15を用いて、記録した画面を再度出力する機能を有する情報処理装置の構成を説明する。図15は、記録した画面を再度出力する機能を有する情報処理装置の構成例を示す機能ブロック図である。なお、図15では、実施の形態1と同様の構成については同一の符号を付し、同様の構成についての詳細な説明を省略する場合がある。   A configuration of an information processing apparatus having a function of outputting a recorded screen again will be described with reference to FIG. FIG. 15 is a functional block diagram illustrating a configuration example of an information processing apparatus having a function of outputting a recorded screen again. In FIG. 15, the same components as those in the first embodiment are denoted by the same reference numerals, and detailed description of the same components may be omitted.

図15に示すように、情報処理装置200は、プロジェクタ等の投影装置10と、カメラ等の撮像装置20と、決定部110と、検出部120と、記憶部130と、生成部140と、出力部250と、画像情報記録部260と、再生成部270とを有する。   As illustrated in FIG. 15, the information processing device 200 includes a projection device 10 such as a projector, an imaging device 20 such as a camera, a determination unit 110, a detection unit 120, a storage unit 130, a generation unit 140, and an output. Unit 250, image information recording unit 260, and regeneration unit 270.

画像情報記録部260は、投影中の画像に関する画像情報を記憶部130に記録する。より具体的には、画像情報記録部260は、決定部110によって全ての操作権が無効にされた場合に、投影装置10によって投影されている画像に関する画像情報を記憶部130に記録する。全ての操作権が無効にされた場合とは、例えば、操作者がスクリーンから所定距離以上離れたり、全ての操作者が所定範囲から外れたりした場合である。また、画像情報は、例えば、投影中の画像のページ番号や、拡大率又は縮小率等の表示状態であり、投影装置10から取得される。   The image information recording unit 260 records image information regarding the image being projected in the storage unit 130. More specifically, the image information recording unit 260 records image information related to the image projected by the projection device 10 in the storage unit 130 when all the operation rights are invalidated by the determination unit 110. The case where all the operation rights are invalidated is, for example, a case where the operator is away from the screen by a predetermined distance or all operators are out of the predetermined range. The image information is, for example, a display state such as a page number of an image being projected, an enlargement ratio, or a reduction ratio, and is acquired from the projection apparatus 10.

再生成部270は、記憶部130から画像情報を取得し、取得した画像情報をもとに画像を再生成する。より具体的には、再生成部270は、決定部110によって操作権が無効にされた後、操作者が再度決定された場合に、記憶部130からページ番号や表示状態等である画像情報を取得する。そして、再生成部270は、取得した画像情報をもとに画像を再生成する。ここで、再登場する(再度決定される)操作者は、画像情報記録部260によって画像情報が記録されたときの操作者と同一人物でなくても良い。その後、出力部250は、再生成部270によって再生成された画像を投影装置10に出力する。これに応じて、投影装置10の投影部11は、出力部250によって出力された画像をスクリーンに投影する。   The regeneration unit 270 acquires image information from the storage unit 130, and regenerates an image based on the acquired image information. More specifically, the regeneration unit 270 displays image information such as a page number and display state from the storage unit 130 when the operator is determined again after the operation right is invalidated by the determination unit 110. get. Then, the regeneration unit 270 regenerates an image based on the acquired image information. Here, the operator who appears again (determined again) may not be the same person as the operator when the image information recording unit 260 records the image information. Thereafter, the output unit 250 outputs the image regenerated by the regenerating unit 270 to the projection device 10. In response to this, the projection unit 11 of the projection apparatus 10 projects the image output by the output unit 250 on the screen.

次に、図16を用いて、記録した画像を再度出力する記録画像再出力処理の流れについて説明する。図16は、記録画像再出力処理の流れの例を示すフローチャートである。なお、記録画像再出力処理は、上述してきた各実施の形態の処理フローと並行して実行される。   Next, the flow of a recorded image re-output process for outputting a recorded image again will be described with reference to FIG. FIG. 16 is a flowchart illustrating an example of the flow of a recorded image re-output process. The recorded image re-output process is executed in parallel with the process flow of each embodiment described above.

図16に示すように、画像情報記録部260は、決定部110によって決定された操作者がスクリーンから所定距離以上離れたり所定範囲から外れたりして、操作者が居なくなった場合に(ステップS901肯定)、投影中の画像に関する画像情報を投影装置10から取得し、取得した画像情報を記憶部130に記録する(ステップS902)。一方、画像情報記録部260は、操作者が存在する間は(ステップS901否定)、ステップS901の処理を再度実行する。なお、操作者が存在しない間は、上記実施の形態に記載のように、操作者以外のユーザのジェスチャによって各種操作が行なわれる場合がある。   As illustrated in FIG. 16, the image information recording unit 260 determines that the operator determined by the determination unit 110 has moved away from the screen by a predetermined distance or deviated from the predetermined range, and has no operator (Step S <b> 901). (Yes), the image information related to the image being projected is acquired from the projection device 10, and the acquired image information is recorded in the storage unit 130 (step S902). On the other hand, the image information recording unit 260 executes the process of step S901 again while the operator exists (No in step S901). As long as there is no operator, various operations may be performed by gestures of users other than the operator as described in the above embodiment.

また、再生成部270は、操作者が居なくなった後、決定部110によって操作者が再度決定される、すなわち操作者が現れたか否かを判定する(ステップS903)。このとき、再生成部270は、操作者が現れたと判定した場合に(ステップS903肯定)、記憶部130から画像情報を取得し、取得した画像情報をもとに画像を再生成する(ステップS904)。一方、再生成部270は、操作者が現れない間は(ステップS903否定)、ステップS903の処理を再度実行する。また、出力部250は、再生成部270によって再生成された画像を投影装置10に出力する(ステップS905)。   Further, after the operator disappears, the regeneration unit 270 determines whether the operator is determined again by the determination unit 110, that is, whether the operator has appeared (step S903). At this time, when it is determined that an operator has appeared (Yes at Step S903), the regeneration unit 270 acquires image information from the storage unit 130, and regenerates an image based on the acquired image information (Step S904). ). On the other hand, the regeneration unit 270 performs the process of step S903 again while the operator does not appear (No in step S903). The output unit 250 outputs the image regenerated by the regenerating unit 270 to the projection device 10 (step S905).

上述したように、情報処理装置200は、プレゼンテーションの中断や操作者の休憩等により操作者が居なくなったり、操作者が交代したりする場合に、そのときの画像情報を記録しておき、操作者が再登場したときに記録している画像情報をもとに画像を再生成及び出力する。この結果、情報処理装置200は、投影装置10を利用したプレゼンテーションの進行をより円滑にすることができる。   As described above, the information processing apparatus 200 records the image information at that time when the operator disappears or the operator changes due to the interruption of the presentation or the operator's break, etc. An image is regenerated and output based on the image information recorded when the person reappears. As a result, the information processing apparatus 200 can make the progress of the presentation using the projection apparatus 10 smoother.

(3)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、割り込みテーブルに記憶される情報は、図示のものに限られるわけではなく、用途に応じて適宜変更することができる。
(3) Configuration In addition, information including processing procedures, control procedures, specific names, various data, parameters, and the like shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the information stored in the interrupt table is not limited to that shown in the figure, and can be changed as appropriate according to the application.

また、図示した情報処理装置100又は情報処理装置200の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合することができる。例えば、情報処理装置100又は情報処理装置200は、投影装置10と撮像装置20とを含まない構成であっても良い。投影装置10と撮像装置20とは、ネットワークやケーブル等を介して情報処理装置100又は情報処理装置200に接続され、これらを含む投影システムとして実現することもできる。   The constituent elements of the information processing apparatus 100 or the information processing apparatus 200 illustrated in the drawings are functionally conceptual, and need not be physically configured as illustrated. In other words, the specific form of distribution or integration of each device is not limited to the illustrated one, and all or a part thereof is functionally or physically distributed or arbitrarily distributed in arbitrary units according to various burdens or usage conditions. Can be integrated. For example, the information processing apparatus 100 or the information processing apparatus 200 may have a configuration that does not include the projection apparatus 10 and the imaging apparatus 20. The projection apparatus 10 and the imaging apparatus 20 are connected to the information processing apparatus 100 or the information processing apparatus 200 via a network, a cable, or the like, and can also be realized as a projection system including these.

また、上記実施の形態1等では、スクリーンから最も近いユーザを操作者とする例を説明したが、スクリーンから最も近く且つスクリーンから所定距離内に居るユーザを操作者とするようにしても良い。つまり、スクリーンから最も近い位置に居たとしても、座席に座っている等、プレゼンテーションを行なっていない場合もあるため、スクリーンから最も近い位置に居て且つスクリーンから所定距離内に居るユーザを操作者とする。   In the first embodiment and the like, an example has been described in which the user who is closest to the screen is the operator, but the user who is closest to the screen and within a predetermined distance from the screen may be the operator. In other words, even if you are in the closest position from the screen, you may not be giving a presentation, such as sitting in a seat, so the user who is closest to the screen and within a predetermined distance from the screen And

また、上記実施の形態では、スクリーンから各ユーザまでの距離に応じて操作者を決定する場合を説明したが、所定の位置から各ユーザまでの距離に応じて操作者を決定しても良い。つまり、スクリーンではない所定の位置から最も近いユーザや、所定の位置からの距離に応じた所定範囲内に存在するユーザ等を操作者として決定する。   Moreover, although the case where an operator was determined according to the distance from a screen to each user was demonstrated in the said embodiment, you may determine an operator according to the distance from a predetermined position to each user. That is, a user who is closest to a predetermined position that is not a screen, a user who is within a predetermined range corresponding to a distance from the predetermined position, or the like is determined as an operator.

(4)プログラム
図17は、操作者決定プログラムがコンピュータを用いて実現されることを示す図である。図17に示すように、情報処理装置100としてのコンピュータ1000は、バス1009で接続された、CPU(Central Processing Unit)1001等の制御装置と、ROM(Read Only Memory)1002やRAM(Random Access Memory)1003等の記憶装置と、HDD(Hard Disk Drive)1004、ディスクドライブ1005等の外部記憶装置と、ディスプレイ1006等の表示装置と、キーボード1007やマウス1008等の入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
(4) Program FIG. 17 is a diagram illustrating that the operator determination program is realized using a computer. As shown in FIG. 17, a computer 1000 as an information processing apparatus 100 includes a control device such as a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, and a RAM (Random Access Memory) connected by a bus 1009. A storage device such as 1003, an external storage device such as a hard disk drive (HDD) 1004 and disk drive 1005, a display device such as a display 1006, and an input device such as a keyboard 1007 and a mouse 1008. It has a hardware configuration using a computer.

情報処理装置100で実行される操作者決定プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式ファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、情報処理装置100で実行される操作者決定プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、情報処理装置100で実行される操作者決定プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、操作者決定プログラムを、ROM等に組み込んで提供するように構成しても良い。   The operator determination program executed by the information processing apparatus 100 is, as one form, a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk) in an installable format or an executable format file. Or the like recorded on a computer-readable recording medium. The operator determination program executed by the information processing apparatus 100 may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The operator determination program executed by the information processing apparatus 100 may be provided or distributed via a network such as the Internet. Further, the operator determination program may be provided by being incorporated in a ROM or the like.

情報処理装置100で実行される操作者決定プログラムは、上述した各機能部(決定部110、検出部120、生成部140、出力部150)を含むモジュール構成となっており、実際のハードウェアとしてCPU(プロセッサ)が記憶媒体から操作者決定プログラムを読み出して実行することにより、上記各機能部が主記憶装置上にロードされ、決定部110、検出部120、生成部140、出力部150が主記憶装置上に生成されるようになっている。   The operator determination program executed by the information processing apparatus 100 has a module configuration including the above-described functional units (the determination unit 110, the detection unit 120, the generation unit 140, and the output unit 150). When the CPU (processor) reads out and executes the operator determination program from the storage medium, each of the above functional units is loaded on the main storage device, and the determination unit 110, the detection unit 120, the generation unit 140, and the output unit 150 are the main units. It is generated on a storage device.

10 投影装置
20 撮像装置
100 情報処理装置
110 決定部
120 検出部
130 記憶部
135 判定部
140 生成部
150 出力部
DESCRIPTION OF SYMBOLS 10 Projection apparatus 20 Imaging apparatus 100 Information processing apparatus 110 Determination part 120 Detection part 130 Storage part 135 Determination part 140 Generation part 150 Output part

特開2010−277176号公報JP 2010-277176 A

Claims (10)

投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定する決定部と、
撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出する検出部と、
検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定する判定部と、
前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成する生成部と、
生成された前記画像を前記投影装置に出力する出力部と
を有することを特徴とする情報処理装置。
A determination unit that determines an operator having an operation right, which is a user's right to operate a projection apparatus that projects an image on a projection surface, from among the users according to a distance from the predetermined position to each user; ,
A detection unit that detects a gesture that is an operation by each user performed to operate the projection device from an image captured by the imaging device;
A determination unit that determines whether or not the detected gesture is a gesture by the determined operator;
A generator that generates the image corresponding to the gesture when it is determined that the gesture is made by the operator;
An information processing apparatus comprising: an output unit that outputs the generated image to the projection apparatus.
前記決定部は、前記投影面に最も近い前記ユーザを前記操作者として決定することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determination unit determines the user closest to the projection plane as the operator. 前記決定部は、前記投影面からの距離に応じた所定範囲内に存在する前記ユーザを前記操作者として決定することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the determining unit determines, as the operator, the user who exists within a predetermined range corresponding to a distance from the projection plane. ユーザに対し前記投影装置の操作を有効にするか否かの設定を受け付ける設定部をさらに有し、
前記決定部は、前記操作者が前記投影面から所定距離以上離れた場合に該操作者が有する前記操作権を無効にし、前記操作権が無効にされたときに前記各ユーザに対して前記投影装置の操作を有効にする設定がなされている場合に、前記各ユーザを、前記操作権とは異なる前記権限であるサブ操作権を有するサブ操作者として決定し、
前記判定部は、検出された前記ジェスチャが決定された前記サブ操作者によるジェスチャであるか否かを判定し、
前記生成部は、前記サブ操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成することを特徴とする請求項2に記載の情報処理装置。
A setting unit that receives a setting as to whether or not to enable the operation of the projection apparatus for the user;
The determination unit invalidates the operation right of the operator when the operator is away from the projection plane by a predetermined distance or more, and projects the projection to each user when the operation right is invalidated. When the setting for enabling the operation of the device is made, each user is determined as a sub operator having a sub operation right that is the right different from the operation right;
The determination unit determines whether or not the detected gesture is a gesture by the determined sub-operator,
The information processing apparatus according to claim 2, wherein the generation unit generates the image corresponding to the gesture when it is determined that the gesture is a gesture by the sub-operator.
ユーザに対し前記投影装置の操作を有効にするか否かの設定を受け付ける設定部をさらに有し、
前記決定部は、前記操作者が前記所定範囲から外れた場合に該操作者が有する前記操作権を無効にし、全ての前記操作権が無効にされたときに前記各ユーザに対して前記投影装置の操作を有効にする設定がなされている場合に、前記各ユーザを、前記操作権とは異なる前記権限であるサブ操作権を有するサブ操作者として決定し、
前記判定部は、検出された前記ジェスチャが決定された前記サブ操作者によるジェスチャであるか否かを判定し、
前記生成部は、前記サブ操作者によるジェスチャであると判定した場合に、該ジェスチャに対応する前記画像を生成することを特徴とする請求項3に記載の情報処理装置。
A setting unit that receives a setting as to whether or not to enable the operation of the projection apparatus for the user;
The determination unit invalidates the operation right of the operator when the operator is out of the predetermined range, and the projection apparatus for each user when all the operation right is invalidated. Each user is determined as a sub-operator having a sub-operation right that is different from the operation right.
The determination unit determines whether or not the detected gesture is a gesture by the determined sub-operator,
The information processing apparatus according to claim 3, wherein the generation unit generates the image corresponding to the gesture when it is determined that the gesture is a gesture by the sub operator.
前記判定部は、検出された前記ジェスチャが割り込み可能なジェスチャであるか否かをさらに判定し、
前記生成部は、前記操作者によるジェスチャでないと判定された場合、且つ、検出された前記ジェスチャが割り込み可能なジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成することを特徴とする請求項2又は3に記載の情報処理装置。
The determination unit further determines whether or not the detected gesture is an interruptible gesture,
The generation unit generates the image corresponding to the gesture when it is determined that the gesture is not a gesture by the operator and when the detected gesture is determined to be an interruptable gesture. The information processing apparatus according to claim 2 or 3, characterized in that
前記決定部は、処理開始から所定時間が経過した場合、且つ、前記各ユーザに対して前記投影装置の操作を有効にする設定がなされている場合に、前記各ユーザを前記サブ操作者として決定することを特徴とする請求項4又は5に記載の情報処理装置。   The determining unit determines each user as the sub-operator when a predetermined time has elapsed from the start of processing and when the setting for enabling the operation of the projection apparatus is made for each user. The information processing apparatus according to claim 4, wherein the information processing apparatus is an information processing apparatus. 前記決定部によって全ての前記操作権が無効にされた場合に、投影中の前記画像に関する画像情報を記憶部に記録する画像情報記録部と、
前記操作権が無効にされた後、前記決定部によって前記操作者が再度決定された場合に、前記記憶部から前記画像情報を取得し、取得した前記画像情報をもとに前記画像を再生成する再生成部と
をさらに有し、
前記出力部は、再生成された前記画像を前記投影装置に出力することを特徴とする請求項4又は5に記載の情報処理装置。
An image information recording unit that records, in a storage unit, image information relating to the image being projected when all the operation rights are invalidated by the determination unit;
When the operator is determined again by the determining unit after the operation right is invalidated, the image information is acquired from the storage unit, and the image is regenerated based on the acquired image information. And a regeneration unit to
The information processing apparatus according to claim 4, wherein the output unit outputs the regenerated image to the projection apparatus.
投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定するステップと、
撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出するステップと、
検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定するステップと、
前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成するステップと、
生成された前記画像を前記投影装置に出力するステップと
をコンピュータに実行させるための操作者決定プログラム。
Determining an operator having an operation right, which is an authority of a user who can operate a projection apparatus that projects an image on a projection surface, from among the users according to a distance from a predetermined position to each user;
Detecting a gesture that is an operation by each user performed to operate the projection device from an image captured by the imaging device;
Determining whether the detected gesture is a gesture by the determined operator;
Generating the image corresponding to the gesture when it is determined that the gesture is made by the operator;
An operator determination program for causing a computer to execute the step of outputting the generated image to the projection device.
スクリーンに画像を投影する投影装置と、情報処理装置とを有する投影システムであって、
前記情報処理装置は、
投影面に画像を投影する投影装置を操作可能なユーザの権限である操作権を有する操作者を、所定の位置から各ユーザまでの距離に応じて、前記各ユーザの中から決定する決定部と、
撮像装置によって撮像された映像から、前記投影装置を操作するために行なわれる前記各ユーザによる動作であるジェスチャを検出する検出部と、
検出された前記ジェスチャが決定された前記操作者によるジェスチャであるか否かを判定する判定部と、
前記操作者によるジェスチャであると判定された場合に、該ジェスチャに対応する前記画像を生成する生成部と、
生成された前記画像を前記投影装置に出力する出力部と
を有し、
前記投影装置は、
前記情報処理装置によって出力された前記画像を前記投影面に投影する投影部と、
前記投影面に投影した前記画像に対するフォーカス状態を検出するフォーカス状態検出部と
を有することを特徴とする投影システム。
A projection system having a projection device for projecting an image on a screen and an information processing device,
The information processing apparatus includes:
A determination unit that determines an operator having an operation right, which is a user's right to operate a projection apparatus that projects an image on a projection surface, from among the users according to a distance from the predetermined position to each user; ,
A detection unit that detects a gesture that is an operation by each user performed to operate the projection device from an image captured by the imaging device;
A determination unit that determines whether or not the detected gesture is a gesture by the determined operator;
A generator that generates the image corresponding to the gesture when it is determined that the gesture is made by the operator;
An output unit for outputting the generated image to the projection device;
The projector is
A projection unit that projects the image output by the information processing apparatus onto the projection plane;
A projection system, comprising: a focus state detection unit configured to detect a focus state with respect to the image projected onto the projection plane.
JP2012062308A 2012-03-19 2012-03-19 Information processing apparatus, operator determination program, and projection system Expired - Fee Related JP5929376B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062308A JP5929376B2 (en) 2012-03-19 2012-03-19 Information processing apparatus, operator determination program, and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062308A JP5929376B2 (en) 2012-03-19 2012-03-19 Information processing apparatus, operator determination program, and projection system

Publications (2)

Publication Number Publication Date
JP2013196329A true JP2013196329A (en) 2013-09-30
JP5929376B2 JP5929376B2 (en) 2016-06-08

Family

ID=49395205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062308A Expired - Fee Related JP5929376B2 (en) 2012-03-19 2012-03-19 Information processing apparatus, operator determination program, and projection system

Country Status (1)

Country Link
JP (1) JP5929376B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
WO2016068015A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Coordinate acquisition device and display device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture
JP2004303251A (en) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd Control method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (en) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd Control method
JP2004258714A (en) * 2003-02-24 2004-09-16 Toshiba Corp Device for displaying picture

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
WO2016068015A1 (en) * 2014-10-28 2016-05-06 シャープ株式会社 Coordinate acquisition device and display device

Also Published As

Publication number Publication date
JP5929376B2 (en) 2016-06-08

Similar Documents

Publication Publication Date Title
JP5966596B2 (en) Information processing apparatus, projection system, and information processing program
WO2015025345A1 (en) Information display device, information display method, and information display program
JP2017527908A (en) Parametric inertia and API
US20100045822A1 (en) Digital image processing apparatus and method for displaying a plurality of images
JP5982917B2 (en) Information processing apparatus, operation authority grant program, and projection system
US20200053336A1 (en) Information processing apparatus, information processing method, and storage medium
JP2014216929A (en) Information processing device, control method therefor, and program
CN103608761A (en) Input device, input method and recording medium
JP2013196596A (en) Information processing apparatus, history data generation program and projection system
JP6048189B2 (en) Projection system, image generation program, information processing apparatus, and image generation method
JP2012217101A (en) Information processor, control method of the same, program, and storage medium
JP5929376B2 (en) Information processing apparatus, operator determination program, and projection system
JP6354385B2 (en) Display device, display method, and program
JP6494358B2 (en) Playback control device and playback control method
JP2017091117A (en) Electronic apparatus and display control program
JP2016076853A (en) Image processing apparatus, image processing method, and imaging apparatus
JP2014170367A (en) Object detection device, object detection method, object detection system and program
JP2014178791A (en) Projector, projection system, image generation program, and image generation method
JP5715977B2 (en) Operation support display device and program
JP6214365B2 (en) Image reproduction apparatus, control method thereof, and control program
JP6401160B2 (en) Information processing apparatus, information processing method, and computer program
JP7271276B2 (en) Display control device, display control method, and program
JP2017073717A (en) Information processing unit, information processing method, computer program and recording medium
JP2016144069A (en) Moving image display method, apparatus and program
JP2014160410A (en) Projection system, image generation program, information processor and image generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160418

R151 Written notification of patent or utility model registration

Ref document number: 5929376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees