JP2016012850A - Video projection device, video projection system, remote controller selecting method of video projection device and program - Google Patents

Video projection device, video projection system, remote controller selecting method of video projection device and program Download PDF

Info

Publication number
JP2016012850A
JP2016012850A JP2014134056A JP2014134056A JP2016012850A JP 2016012850 A JP2016012850 A JP 2016012850A JP 2014134056 A JP2014134056 A JP 2014134056A JP 2014134056 A JP2014134056 A JP 2014134056A JP 2016012850 A JP2016012850 A JP 2016012850A
Authority
JP
Japan
Prior art keywords
remote control
image
video
unit
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014134056A
Other languages
Japanese (ja)
Inventor
小圷 俊信
Toshinobu Koakutsu
俊信 小圷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014134056A priority Critical patent/JP2016012850A/en
Publication of JP2016012850A publication Critical patent/JP2016012850A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To prevent reaction to unintended remote control operation without special setting work.SOLUTION: A video projection device which generates a projected image in response to inputted video data to project it includes: a main control section 71 for controlling individual portions; an operation control section 81 for outputting an instruction signal received from a remote controller 111 to the main control section 71; a video imaging section 105 for imaging a peripheral image of a self-machine; a main control section 71 for analyzing an image in a remote control operation range peculiar to the device among the peripheral images which the video imaging section 105 images, and determining presence or absence of operation to the device using the remote controller; and a main control section 71 for permitting control in the main control section 71, which corresponds to the instruction signal received from the remote controller 111, when the operation is determined to be that to the device using the remote controller 111.

Description

本発明は、スクリーンなどに映像を投影する映像投影装置に係り、特にリモコンによって操作指示をすることができる映像投影装置、映像投影システム、映像投影装置のリモコン選別方法、及びプログラムに関する。   The present invention relates to a video projection apparatus that projects an image on a screen or the like, and more particularly to a video projection apparatus, a video projection system, a remote control selection method for a video projection apparatus, and a program that can be instructed by a remote controller.

プロジェクタを動作方式から分類すると、CRTを利用したCRT方式と、ライトバルブを利用したライトバルブ方式の二種類に大別することができる。ライトバルブ方式は光源からの光をライトバルブで変調して画像形成素子に形成した投影画像を投影する方式であり、近年主流を占めつつある。液晶プロジェクタ、DLPプロジェクタ、LCOSプロジェクタ、GLVプロジェクタはライトバルブ方式である。   When the projectors are classified according to the operation method, they can be roughly classified into two types: a CRT method using a CRT and a light valve method using a light valve. The light valve method is a method of projecting a projection image formed on an image forming element by modulating light from a light source with a light valve, and has recently become mainstream. Liquid crystal projectors, DLP projectors, LCOS projectors, and GLV projectors are light valve systems.

ところで近年、画像データを可視化して投影するプロジェクタの普及に伴い、複数個のプロジェクタが同じ空間の中で同時に使われるようなことも多くなってきている。
このような場合、個々のプロジェクタをリモコンで操作しようとすると不都合が発生する。すなわち、一つのリモコンから発せられた指示信号に複数個のプロジェクタが反応してしまい、リモコンの操作者が意図していないプロジェクタまで動作してしまうという問題である。
In recent years, with the spread of projectors that visualize and project image data, a plurality of projectors are often used simultaneously in the same space.
In such a case, inconvenience occurs when trying to operate each projector with the remote control. That is, there is a problem that a plurality of projectors react to an instruction signal issued from one remote controller, and even a projector not intended by the operator of the remote controller operates.

このような問題の解決策としては、従来から、リモコン毎にIDを設定しておき、プロジェクタには通信を受け付けるリモコンのIDを設定登録することで、同じIDを持つリモコンからしか指示信号を受け付けないようにする技術が知られている。   As a solution to such a problem, conventionally, an ID is set for each remote controller, and the ID of a remote controller that accepts communication is set and registered in the projector, so that an instruction signal can be received only from a remote controller having the same ID. Technology to prevent it is known.

また特許文献1には、二種類のフォーマット(通信方式)で定義されたリモコンからの信号をリモコン信号受信部で択一的に受信するようにしたプロジェクタが開示されている(段落0029〜0031参照)。つまりリモコン信号受信部は双方のフォーマットを同時に有効(受信可能な状態)にすることはできず、いずれか一方のフォーマットのみを有効に設定する。フォーマットの設定は、フォーマット選択メニューをスクリーンに投影し、操作パネルやリモコンからの指示で有効にするフォーマットを切り替えるというものである(段落0038〜0041、図3〜図4参照)。
このため、特許文献1に記載の発明によれば、フォーマット選択メニューから選択されたフォーマットの信号を出力するリモコンのみを有効にするので、選択されないフォーマットの信号を出力するリモコンからの指示で意図しない動作をしてしまうことを防止することができる。
Patent Document 1 discloses a projector in which signals from a remote controller defined in two types of formats (communication methods) are selectively received by a remote control signal receiver (see paragraphs 0029 to 0031). ). That is, the remote control signal receiving unit cannot make both formats valid (receivable state) at the same time, and sets only one of the formats to valid. The format is set by projecting a format selection menu onto the screen and switching the format to be activated by an instruction from the operation panel or remote control (see paragraphs 0038 to 0041 and FIGS. 3 to 4).
For this reason, according to the invention described in Patent Document 1, only the remote controller that outputs the signal of the format selected from the format selection menu is enabled, so that it is not intended by the instruction from the remote controller that outputs the signal of the format that is not selected. It is possible to prevent the operation.

IDの一致不一致に基づいて、指示信号を受信できるリモコンを選別するようにした技術を採用する場合、通信を可能にするリモコンのIDをプロジェクタに設定登録しなければならず、そのための作業が煩雑であるという問題がある。
特許文献1に記載された発明も同様の問題があり、フォーマット選択メニューをスクリーンに投影してフォーマットの切り替え作業を行った場合でも、作業が煩雑である。
一方、プロジェクタとリモコンとを対応付けた設定を維持したままにした場合、両者を使用するたびに対応付けを設定しなければならないという煩雑さからは開放されるが、個々のプロジェクタ毎にリモコンが専用機として扱われることになる。このため、自由かつ柔軟なリモコンの使い方ができなくなるといった問題があった。
When adopting a technology that selects remote controllers that can receive instruction signals based on the coincidence of IDs, the ID of the remote controller that enables communication must be set and registered in the projector, and the work for that is complicated There is a problem that.
The invention described in Patent Document 1 has the same problem, and even when the format selection menu is projected onto the screen and the format switching operation is performed, the operation is complicated.
On the other hand, if the setting for associating the projector with the remote control is maintained, the complexity of having to set the association every time both are used is released. It will be treated as a dedicated machine. For this reason, there has been a problem that a free and flexible remote controller cannot be used.

本発明は、上記に鑑みてなされたもので、その目的としては、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる映像投影装置、映像投影システム、映像投影装置のリモコン選別方法、及びプログラムを提供することにある。   The present invention has been made in view of the above, and as an object thereof is a video projection device, a video projection system, and a video projection that can prevent reaction to an unintended remote control operation without requiring a special setting operation. An object of the present invention is to provide a remote control selection method and program for an apparatus.

請求項1記載の発明は、上記課題を解決するため、入力した映像データに基づいて投影画像を生成して投影する映像投影装置であって、各部を制御する主制御部と、リモコンから受信した指示信号を前記主制御部に出力する操作制御部と、自機の周辺画像を撮像する映像撮像部と、前記映像撮像部が撮像した前記周辺画像のうち、当該装置に固有のリモコン操作範囲内の画像を解析し、前記リモコンを用いた当該装置への操作の有無を判定する第1の遠隔制御部と、前記リモコンを用いた当該装置への操作であると判定された場合に、前記リモコンから受信した指示信号に応じた前記主制御部での制御を許可する第2の遠隔制御部と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is a video projection device that generates and projects a projection image based on input video data, and is received from a main control unit that controls each unit and a remote controller An operation control unit that outputs an instruction signal to the main control unit, a video imaging unit that captures a peripheral image of the own device, and a remote control operation range unique to the device among the peripheral images captured by the video imaging unit A first remote control unit that determines whether or not there is an operation on the device using the remote control, and the remote control when it is determined that the operation is performed on the device using the remote control. And a second remote control unit that permits control by the main control unit in accordance with the instruction signal received from the first control unit.

本発明によれば、映像撮像部が撮像した周辺画像に基づいて自機の操作を意図するリモコンの有無を推定し、そのようなリモコンがあると判定した場合にのみリモコンから無線出力された指示信号に応じた各部の制御を実行可能にしたので、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる。   According to the present invention, the presence / absence of a remote control intended for the operation of the own device is estimated based on the peripheral image captured by the video imaging unit, and the instruction wirelessly output from the remote control only when it is determined that such a remote control exists Since each part can be controlled according to the signal, it is possible to prevent a response to an unintended remote control operation without requiring a special setting operation.

本発明の一実施形態に係る映像投影装置の斜視図である。1 is a perspective view of a video projector according to an embodiment of the present invention. 外装カバーを取り外し、内部の構成部品を露出させた状態を示す斜視図である。It is a perspective view which shows the state which removed the exterior cover and exposed the internal component. ランプユニットと光学ユニットとを示す斜視図である。It is a perspective view which shows a lamp unit and an optical unit. ランプユニットと光学ユニットとを示す水平断面図である。It is a horizontal sectional view showing a lamp unit and an optical unit. 各部の電気的接続を示すブロック図である。It is a block diagram which shows the electrical connection of each part. リモコン選別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a remote control selection process. (a)は映像投影装置が正面の方向からスクリーンに投影画像を投影している状態を上方から見た模式図、(b)はスクリーンに投影された投影画像をスクリーン撮像部が撮像している状態を正面側から見た模式図、(c)はスクリーン撮像部が撮像した投射画像を示す模式図、(d)は映像投影装置が端の方向からスクリーンに投影画像を投影している状態を上方から見た模式図、(e)は投射画像をスクリーン撮像部が撮像している状態を正面側から見た模式図、(f)はスクリーン撮像部が撮像した投射画像を示す模式図である。(A) is a schematic view of a state in which the image projection apparatus projects a projection image onto the screen from the front direction, and (b) is a screen imaging unit that captures the projection image projected on the screen. FIG. 4C is a schematic diagram showing a state viewed from the front side, FIG. 4C is a schematic diagram showing a projected image captured by the screen imaging unit, and FIG. Schematic view seen from above, (e) is a schematic diagram showing the state in which the screen imaging unit is imaging the projection image from the front side, and (f) is a schematic diagram showing the projection image captured by the screen imaging unit. . スクリーン撮像部が撮像した投射画像に基づいて、自機をリモコンで操作すると推定される範囲を求める際に利用するデータテーブル図である。It is a data table figure utilized when calculating | requiring the range estimated to operate an own machine with a remote control based on the projection image which the screen imaging part imaged. (a)はスクリーン撮像部が撮像した投射画像に基づいて求めた操作推定範囲の一例を示す模式図、(b)は操作推定範囲の別の一例を示す模式図である。(A) is a schematic diagram which shows an example of the operation estimation range calculated | required based on the projection image which the screen imaging part imaged, (b) is a schematic diagram which shows another example of the operation estimation range. 操作推定範囲内でのリモコンの操作可能性の有無を判定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which determines the presence or absence of the operation possibility of a remote control within the operation estimation range.

本発明の一実施形態について図面を参照して説明する。
本実施の形態は、入力した映像データに基づいて投影画像を画像形成素子(DMD素子56)に生成し、これを被照射面であるスクリーンS(図7(a)(b)(d)(e)、図9(a)(b)参照)に投影する映像投影装置1の一例を示す。本実施の形態の映像投影装置1は、リモコン111(図5、図10参照)から無線出力される指示信号を受け付け、遠隔操作が可能である。
An embodiment of the present invention will be described with reference to the drawings.
In the present embodiment, a projection image is generated on the image forming element (DMD element 56) based on the input video data, and this is generated on the screen S (FIGS. 7A, 7B, 7D) (FIG. 7A, 7B, 7D). e) and FIG. 9 (a) and FIG. 9 (b) show an example of the image projection apparatus 1 for projection. The video projection apparatus 1 according to the present embodiment receives an instruction signal that is wirelessly output from the remote control 111 (see FIGS. 5 and 10) and can be operated remotely.

<装置の基本構成>
図1は、本発明の一実施形態に係る画像投影装置の斜視図である。
図1に示すように、映像投影装置1は扁平な直方体状のハウジング11の正面に光学装置42(図2〜図4参照)が備える投射ユニット40の一部を露出させ、上面に操作部21、正面に各種の端子群31を配列している。ハウジング11はベース12に外装カバー13を着脱自在に取り付けた構造である。
操作部21は、電源スイッチ15、中心に「決定ボタン」を備える四接点スイッチ16、「メニュー」「フォーカス」「入力」「AVミュート」からなるプッシュスイッチ17、及びインジケータ18を備えている。
端子群31としては、コンピュータ入力端子32、ビデオ入力端子33、HDMI(登録商標)端子34、音声入力端子35、音声出力端子36、有線LAN端子37、及びUSB端子38が設けられている。
<Basic configuration of the device>
FIG. 1 is a perspective view of an image projection apparatus according to an embodiment of the present invention.
As shown in FIG. 1, the image projection apparatus 1 exposes a part of the projection unit 40 included in the optical device 42 (see FIGS. 2 to 4) on the front surface of a flat rectangular housing 11, and the operation unit 21 on the upper surface. Various terminal groups 31 are arranged on the front. The housing 11 has a structure in which an exterior cover 13 is detachably attached to a base 12.
The operation unit 21 includes a power switch 15, a four-contact switch 16 having a “decision button” at the center, a push switch 17 including “menu”, “focus”, “input”, and “AV mute”, and an indicator 18.
As the terminal group 31, a computer input terminal 32, a video input terminal 33, an HDMI (registered trademark) terminal 34, an audio input terminal 35, an audio output terminal 36, a wired LAN terminal 37, and a USB terminal 38 are provided.

図2は、外装カバーを取り外し、内部の構成部品を露出させた状態を示す斜視図である。
図2に示すように、映像投影装置1の構成部品の多くはハウジング11のベース12に搭載されている。
このような構成部品としては、光源装置41、前述した光学装置42、電源装置43、各種のファン類44などを備えている。いうまでもなく制御回路70も構成部品としてベース12に搭載されている。
FIG. 2 is a perspective view showing a state in which the exterior cover is removed and internal components are exposed.
As shown in FIG. 2, many of the components of the video projector 1 are mounted on the base 12 of the housing 11.
Such components include a light source device 41, the optical device 42 described above, a power supply device 43, various fans 44, and the like. Needless to say, the control circuit 70 is also mounted on the base 12 as a component.

図3は、ランプユニットと光学ユニットとを示す斜視図である。図4は、ランプユニットと光学ユニットとを示す水平断面図である。
図3及び図4に示すように、光源装置41は、光源としてランプ45を備えている。このランプ45は、高圧水銀ランプであり、光学装置42にむけて白色光を照射する。
FIG. 3 is a perspective view showing the lamp unit and the optical unit. FIG. 4 is a horizontal sectional view showing the lamp unit and the optical unit.
As shown in FIGS. 3 and 4, the light source device 41 includes a lamp 45 as a light source. The lamp 45 is a high-pressure mercury lamp and irradiates white light toward the optical device 42.

図4に示すように、光学装置42は照明ユニット50と前述の投射ユニット40とを備え、画像形成素子としてDMD(Digital Mirror Device)素子56を使用している。
このDMD素子56は、矩形形状をした極小のマイクロミラーを多数マトリクス配列した反射型の表示素子であり、オン・オフ信号に応じて個々のマイクロミラーの向きを切り替える。
As shown in FIG. 4, the optical device 42 includes an illumination unit 50 and the projection unit 40 described above, and uses a DMD (Digital Mirror Device) element 56 as an image forming element.
The DMD element 56 is a reflective display element in which a large number of rectangular micromirrors are arranged in a matrix, and switches the direction of each micromirror according to an on / off signal.

照明ユニット50は、カラーホイール51、ライトトンネル52、リレーレンズ53、平面ミラー54、及び凹面ミラー55を備えている。
カラーホイール51は、光源装置41のランプ45が照射する白色光を単位時間ごとにRGBの各色が繰り返す光に変換し、ライトトンネル52に向けて出射する。
ライトトンネル52は、板ガラスを張り合わせて筒状に形成したもので、カラーホイール51から出射された光をリレーレンズ53に導く。
リレーレンズ53は、二枚のレンズを組み合わせたもので、ライトトンネル52から出射される光の軸上色収差を補正しつつ集光する。
そして平面ミラー54及び凹面ミラー55は、リレーレンズ53が出射した光を反射してDMD素子56へと集光する。
The illumination unit 50 includes a color wheel 51, a light tunnel 52, a relay lens 53, a plane mirror 54, and a concave mirror 55.
The color wheel 51 converts white light emitted from the lamp 45 of the light source device 41 into light that repeats each color of RGB every unit time, and emits the light toward the light tunnel 52.
The light tunnel 52 is formed by sticking plate glasses into a cylindrical shape, and guides light emitted from the color wheel 51 to the relay lens 53.
The relay lens 53 is a combination of two lenses and collects light while correcting axial chromatic aberration of light emitted from the light tunnel 52.
The plane mirror 54 and the concave mirror 55 reflect the light emitted from the relay lens 53 and condense it on the DMD element 56.

DMD素子56は、映像投影装置1が端子群31に接続された機器、例えばパソコンから取り込んだ映像データに基づいて個々のマイクロミラーが時分割駆動される。
つまり、DMD素子56には、カラーホイール51が変換する各色のフレーム毎に時分割されたオン・オフ信号が与えられ、これに応じてDMD素子56は個々のマイクロミラーの向きをフレーム毎に切り替える。
このような時分割駆動によってDMD素子56は、投射ユニット40に入射する光(使う光)と、入射しない光(捨てる光)とを各色のフレーム毎に切り替え、スクリーンSに投影する投影画像を生成する。
In the DMD element 56, each micromirror is driven in a time-sharing manner based on video data captured from a device connected to the terminal group 31, for example, a personal computer.
That is, the DMD element 56 is provided with an on / off signal time-divided for each color frame to be converted by the color wheel 51, and the DMD element 56 switches the direction of each micromirror for each frame accordingly. .
By such time-division driving, the DMD element 56 switches between light incident on the projection unit 40 (light to be used) and light that is not incident (light to be discarded) for each color frame, and generates a projection image to be projected on the screen S. To do.

投射ユニット40は、複数枚のレンズ群58からなり、DMD素子56により反射された当該投射ユニットに向かう光を拡大してスクリーンに投影する。
なお、投射ユニット40のレンズ群58に入射されるのは、DMD素子56のマイクロミラーを反射した「使う光」であり、「捨てる光」は投射ユニット40が備えるOFF光板(図示せず)に導かれる。
このような投射ユニット40は、レンズ群の相対的な位置関係を変更することで、スクリーンS上に投影する投射画像PI(図7(b)(c)(e)(f)参照)の拡大倍率を変更することができる。
The projection unit 40 is composed of a plurality of lens groups 58, and magnifies and projects light directed to the projection unit reflected by the DMD element 56 onto the screen.
The light incident on the lens group 58 of the projection unit 40 is “use light” reflected by the micromirrors of the DMD element 56, and the “light to be discarded” is applied to an OFF light plate (not shown) provided in the projection unit 40. Led.
Such a projection unit 40 changes the relative positional relationship between the lens groups, thereby enlarging the projection image PI projected on the screen S (see FIGS. 7B, 7C, 7E, and 7F). The magnification can be changed.

図5は、各部の電気的構成を示すブロック図である。
映像投影装置1の制御回路70は、主制御部71を主体に構成されている。
主制御部71は、各種演算処理を実行するCPU73に、ROM75とSDRAM77とNVRAM79とを接続して構成されている。
データを固定的に記憶するROM75には、BIOSや制御プログラムなどが格納されている。CPU73は、データを書き換え自在に記憶するSDRAM77をワークエリアとして利用し、ROM75が格納する制御プログラムに従い各部を制御する。
NVRAM79は、映像投影装置1の電源オフ時にも各種の設定情報などを記録しておくデータ保持メモリデバイスである。NVRAM79には、映像投影装置1が自機をリモコン111で操作すると推定(想定、みなす)されるリモコン操作範囲、つまり操作推定範囲PA(図9(a)(b)、図10参照)を求める際に利用するデータテーブルTも記録されている。このデータテーブルTは、後述するリモコン選別処理(図6参照)の実行時に利用される。
FIG. 5 is a block diagram showing an electrical configuration of each part.
The control circuit 70 of the video projection device 1 is mainly configured by a main control unit 71.
The main control unit 71 is configured by connecting a ROM 75, an SDRAM 77, and an NVRAM 79 to a CPU 73 that executes various arithmetic processes.
A ROM 75 that stores data in a fixed manner stores a BIOS, a control program, and the like. The CPU 73 uses an SDRAM 77 that stores data in a rewritable manner as a work area, and controls each unit according to a control program stored in the ROM 75.
The NVRAM 79 is a data holding memory device that records various setting information and the like even when the video projector 1 is powered off. The NVRAM 79 obtains a remote control operation range that is estimated (assumed or assumed) that the video projection apparatus 1 operates the remote control 111, that is, an operation estimation range PA (see FIGS. 9A, 9B, and 10). A data table T used at this time is also recorded. This data table T is used when a remote control sorting process (see FIG. 6) described later is executed.

このような主制御部71には、操作制御部81、映像音声処理部83、ランプ駆動部85、光学制御部91、スクリーン撮像部101、距離測定部103、映像撮像部105、及び比較判断部107が接続されている。これらの各部は主制御部71から与えられた制御信号に従い所定の動作や処理を実行する。
操作制御部81は、前述した操作部21からの信号を取り込んで主制御部71に入力する入力回路である。
操作制御部81は、無線通信機能も備えており、リモコン111との間でのデータの無線通信処理を実行する。リモコン111は、映像投影装置1の操作部21と同等の各種操作ボタン類(図示せず)を備え、無線通信による信号送受信処理を実行する。このようなリモコン111と操作制御部81との間の無線通信の方式は、一例として赤外線通信によるが、他の方式の無線通信を実行するものであってもよいことは言うまでもない。
主制御部71のCPU73は、操作制御部81から入力した信号に応じた処理を実行する。
The main control unit 71 includes an operation control unit 81, a video / audio processing unit 83, a lamp driving unit 85, an optical control unit 91, a screen imaging unit 101, a distance measurement unit 103, a video imaging unit 105, and a comparison determination unit. 107 is connected. Each of these units executes a predetermined operation or process in accordance with a control signal given from the main control unit 71.
The operation control unit 81 is an input circuit that takes in the signal from the operation unit 21 and inputs the signal to the main control unit 71.
The operation control unit 81 also has a wireless communication function, and executes data wireless communication processing with the remote controller 111. The remote control 111 includes various operation buttons (not shown) equivalent to the operation unit 21 of the video projection device 1 and executes signal transmission / reception processing by wireless communication. The wireless communication method between the remote controller 111 and the operation control unit 81 is based on infrared communication as an example, but it goes without saying that wireless communication of another method may be executed.
The CPU 73 of the main control unit 71 executes processing according to the signal input from the operation control unit 81.

映像音声処理部83は、前述した端子群31のインターフェースである映像入力端子部89から映像データ及び音声データを取り込む集積回路である。
取り込んだ映像データについては、主制御部71が処理可能なRGBの映像データの形式に調整し、主制御部71に出力する。
取り込んだ音声データについては、音声出力ユニット87に送信する。音声出力ユニット87は音声データをD/A変換したアナログ音声信号をアンプ(図示せず)で増幅してスピーカ(図示せず)から出力する。
ランプ駆動部85は、ランプ45を始動して点灯させる放電灯点灯回路であり、CPU211aからの命令に従ってランプ45を始動又は消灯させる。
光学制御部91は、光学ユニット95、つまり光学装置42とDMD素子56とを駆動制御する集積回路である。
The video / audio processing unit 83 is an integrated circuit that captures video data and audio data from the video input terminal unit 89 that is an interface of the terminal group 31 described above.
The captured video data is adjusted to the RGB video data format that can be processed by the main control unit 71 and output to the main control unit 71.
The captured audio data is transmitted to the audio output unit 87. The audio output unit 87 amplifies an analog audio signal obtained by D / A converting audio data with an amplifier (not shown) and outputs the amplified signal from a speaker (not shown).
The lamp driving unit 85 is a discharge lamp lighting circuit that starts and lights the lamp 45, and starts or turns off the lamp 45 in accordance with a command from the CPU 211a.
The optical control unit 91 is an integrated circuit that drives and controls the optical unit 95, that is, the optical device 42 and the DMD element 56.

スクリーン撮像部(被投影面撮像部)101は、自動焦点カメラ、ステレオカメラ、あるいは全天球タイプのカメラなどのデジタル画像撮像装置であり、このデジタル画像撮像装置がハウジング11に埋設されており、映像投影装置1(自機)がスクリーンSに投影した投影画像、つまり投射画像PIを撮像する。
このようなスクリーン撮像部101は、一例としてハウジング11のルーバー部分、投射ユニット40のレンズに隣接した箇所などに埋設され(図1参照)、外部からはその姿がわからないようになっている。
The screen imaging unit (projection plane imaging unit) 101 is a digital image imaging device such as an autofocus camera, a stereo camera, or an omnidirectional camera, and the digital image imaging device is embedded in the housing 11. The projected image projected on the screen S by the video projector 1 (own device), that is, the projected image PI is captured.
As an example, the screen imaging unit 101 is embedded in a louver portion of the housing 11 and a portion adjacent to the lens of the projection unit 40 (see FIG. 1), and the appearance is not known from the outside.

距離測定部103は、スクリーン撮像部101が撮像した投射画像PI(図7(c)(f)参照)の縦横四辺の長さ寸法を測定する。つまりスクリーン撮像部101が撮像した画像をメモリに記憶しておき、このメモリ上に記憶した投射画像PIの部分を抽出し、抽出した画像について縦横四辺の長さ寸法を測定する。そして測定結果を主制御部71に出力する。
一例として距離測定部103は、画像データから距離を測定すると言う単一の処理に特化した集積回路として構成されていてもよく、別の一例として、主制御部211のCPU211aがROM211bに格納された制御プログラムに従い実行する処理として構成されていてもよい。
The distance measuring unit 103 measures the length dimensions of the four sides of the projection image PI (see FIGS. 7C and 7F) captured by the screen imaging unit 101. That is, the image captured by the screen imaging unit 101 is stored in a memory, the portion of the projection image PI stored in the memory is extracted, and the length dimensions of the four sides in the vertical and horizontal directions are measured for the extracted image. Then, the measurement result is output to the main control unit 71.
As an example, the distance measurement unit 103 may be configured as an integrated circuit specialized for a single process of measuring distance from image data. As another example, the CPU 211a of the main control unit 211 is stored in the ROM 211b. Alternatively, the process may be configured to be executed according to the control program.

映像撮像部105は、自動焦点カメラ、ステレオカメラ、あるいは全天球タイプのカメラなどのデジタル画像撮像装置であり、このデジタル画像撮像装置がハウジング11に埋設されており、映像投影装置1(自機)が周辺を撮像し、周辺画像SI(図10参照)を得る。
このような映像撮像部105は、例えば映像投影装置1の背面側、つまり投射ユニット102のレンズを露出させている側と反対側に設置されている(図1参照)。
The image capturing unit 105 is a digital image capturing device such as an autofocus camera, a stereo camera, or an omnidirectional camera, and the digital image capturing device is embedded in the housing 11. ) Captures the periphery and obtains a peripheral image SI (see FIG. 10).
For example, the video imaging unit 105 is installed on the back side of the video projector 1, that is, on the side opposite to the side where the lens of the projection unit 102 is exposed (see FIG. 1).

比較判断部107は、映像撮像部105が撮像した映像投影装置1の自機の周辺画像SIを解析し、自機をリモコン111で操作すると推定される操作推定範囲PA内でのリモコン111の操作可能性の有無を判定するという画像認識処理を実行する。そしてその認識結果を主制御部71に送信する。
比較判断部107は、画像認識処理の実行に際して、映像撮像部105が撮像した周辺画像SIから「リモコンの形状画像A」と「人の手の形状画像B(リモコンを把持しようとする人の手の画像)」とを抽出し、リモコンの形状画像Aに人の手の形状画像Bが重なり合った場合に、リモコン111の操作可能性ありと判定する(図10参照)。このため判定処理に際しては、リモコンの形状画像Aと人の手の形状画像Bの見本となる画像データが必要になる。そこで比較判断部107は、この見本となる画像データを記憶部109に保存しておき、保存された画像データと周辺画像SIから抽出した画像データとを比較し、操作推定範囲PA内でのリモコン111の操作可能性の有無を判定する。
一例として比較判断部107は、画像認識処理という単一の処理に特化した集積回路として構成されていてもよく、別の一例として、主制御部211のCPU211aがROM211bに格納された制御プログラムに従い実行する処理として構成されていてもよい。
The comparison determination unit 107 analyzes the peripheral image SI of the image projection apparatus 1 captured by the image capturing unit 105 and operates the remote control 111 within the operation estimation range PA that is estimated to be operated by the remote control 111. An image recognition process of determining whether or not there is a possibility is executed. Then, the recognition result is transmitted to the main control unit 71.
When the image recognition process is executed, the comparison / determination unit 107 determines that the “remote controller shape image A” and the “human hand shape image B” When the shape image B of the human hand overlaps the shape image A of the remote control, it is determined that the remote control 111 can be operated (see FIG. 10). Therefore, in the determination process, image data serving as a sample of the shape image A of the remote controller and the shape image B of the human hand is required. Accordingly, the comparison / determination unit 107 stores the sample image data in the storage unit 109, compares the stored image data with the image data extracted from the peripheral image SI, and controls the remote controller within the operation estimation range PA. The presence / absence of the operation possibility 111 is determined.
As an example, the comparison determination unit 107 may be configured as an integrated circuit specialized for a single process called image recognition processing. As another example, the CPU 211a of the main control unit 211 follows a control program stored in the ROM 211b. It may be configured as a process to be executed.

<装置の基本作用>
このような構成において、映像投影装置1は、端子群31に接続された機器、例えばパソコンなどから映像入力端子部89を介して映像データを取り込む。取り込んだ映像データについては映像音声処理部83がRGBの映像データの形式に調整して主制御部71に転送し、音声データについては映像音声処理部83が音声出力ユニット87を制御し、音声出力がなされる。
<Basic action of the device>
In such a configuration, the video projection device 1 captures video data from a device connected to the terminal group 31, such as a personal computer, via the video input terminal unit 89. The captured video data is adjusted to the RGB video data format by the video / audio processing unit 83 and transferred to the main control unit 71, and the audio / video processing unit 83 controls the audio output unit 87 to output the audio data. Is made.

主制御部71は、映像音声処理部83からRGBの映像データが転送されてくると、これスクリーンS上に投影するために、SDRAM77の一部に設けた画像メモリに映像データを展開し、光学制御部91に制御信号を与える。
制御信号を受信した光学制御部91は、カラーホイール51とDMD素子56とを駆動制御して、画像メモリに展開された映像データに従った投影画像をDMD素子56に生成する。
つまり投影しようとする映像データに基づいてDMD素子56が備える個々のマイクロミラーを時分割駆動する。
より詳細には、カラーホイール51の回転に同期させて、このカラーホイール51によって選択されているRGBのうちの一色に対応する画素(DMD素子56のマイクロミラー)に対応するオン・オフ信号を映像データに基づいて生成し、個々のマイクロミラーの向きを切り替える。
この動作をRGBの順に繰り返すことで、DMD素子56には映像データに基づく時分割された投影画像が生成される。
光学装置42では、カラーホイール51の回転によって繰り返し生成される個々のRGBの光は、ライトトンネル52からリレーレンズ53に入射されてDMD素子56に集光される。そして映像データに従った色の画素(DMD素子56のマイクロミラー)の反射光のみが投射ユニット40に入射され、レンズ群58によってスクリーン上に拡大投影される。これがRGBの色ごとに繰り返されることで、映像データに基づく完全な投影画像が投射画像PIとしてスクリーンに投影される。
When the RGB video data is transferred from the video / audio processing unit 83, the main control unit 71 develops the video data in an image memory provided in a part of the SDRAM 77 for projection onto the screen S, and A control signal is given to the controller 91.
The optical control unit 91 that has received the control signal drives and controls the color wheel 51 and the DMD element 56, and generates a projection image on the DMD element 56 in accordance with the video data developed in the image memory.
That is, the individual micromirrors included in the DMD element 56 are time-division driven based on the video data to be projected.
More specifically, in synchronization with the rotation of the color wheel 51, an on / off signal corresponding to a pixel (micromirror of the DMD element 56) corresponding to one of RGB selected by the color wheel 51 is displayed as an image. Generate based on data and switch the orientation of individual micromirrors.
By repeating this operation in the order of RGB, the DMD element 56 generates a time-divided projection image based on the video data.
In the optical device 42, individual RGB light repeatedly generated by the rotation of the color wheel 51 is incident on the relay lens 53 from the light tunnel 52 and is condensed on the DMD element 56. Then, only the reflected light of the color pixel (DMD element 56 micromirror) according to the video data is incident on the projection unit 40 and enlarged and projected on the screen by the lens group 58. By repeating this for each RGB color, a complete projection image based on the video data is projected on the screen as a projection image PI.

<リモコン選別処理>
リモコン選別処理では、操作推定範囲PA内での自機の操作を意図するリモコン111の操作可能性の有無を判定する第1の処理、リモコン111から受信した指示信号に応じて各部の制御を実行可能とする第2の処理の二段構えで実行される(図7〜図10参照)。
第1の処理は、スクリーン撮像部101が撮像した投射画像PI(テストパターン)から操作推定範囲PAを設定し、映像撮像部105が撮像した周辺画像SIを解析して操作推定範囲PA内で自機の操作を意図するリモコン111の有無を推定する処理(工程、機能、手段)である。
第2の処理は、該当するリモコン111があると判定した場合にのみ、リモコン111から無線出力された指示信号に応じた各部の制御を実行可能とする処理(工程、機能、手段)である。
このようなリモコン選別処理を実行するのは、主制御部71である。つまり距離測定部103や比較判断部107などと協力し合い、CPU73がROM211bに格納された制御プログラムに従い実行する。
ここでは便宜上、主制御部71において行われる第1の処理を実行するのを第1の遠隔制御部、第2の処理を実行するのを第2の遠隔制御部とする。
<Remote control sorting process>
In the remote control selection process, a first process for determining whether or not the remote control 111 intended for the operation of the own device within the operation estimation range PA is possible. Control of each part is executed in accordance with an instruction signal received from the remote control 111. It is executed in a two-stage manner of the second processing that can be performed (see FIGS. 7 to 10).
In the first process, an operation estimation range PA is set from a projection image PI (test pattern) captured by the screen imaging unit 101, the peripheral image SI captured by the video imaging unit 105 is analyzed, and the operation estimation range PA is automatically detected. This is a process (process, function, means) for estimating the presence / absence of the remote control 111 intended to operate the machine.
The second process is a process (step, function, means) that enables control of each unit according to an instruction signal wirelessly output from the remote controller 111 only when it is determined that there is a corresponding remote controller 111.
It is the main control unit 71 that executes such remote control selection processing. That is, in cooperation with the distance measuring unit 103 and the comparison / determination unit 107, the CPU 73 executes the program according to the control program stored in the ROM 211b.
Here, for convenience, it is assumed that the first process performed in the main control unit 71 is the first remote control unit and the second process is the second remote control unit.

以下、リモコン選別処理の流れを図6に示すフローチャートに基づいて説明する。
(1)第1の遠隔制御部が実行する第1の処理について説明する。
まずCPU211aは、スクリーン撮像部101に起動命令を発行し、スクリーンSを撮像させる(ステップS5)。
これに応じてスクリーン撮像部101は、スクリーンSを撮像する。
図7(a)に例示するように、映像投影装置1がスクリーンSの中央部に対面するように設置されている場合、スクリーン撮像部101の光軸はスクリーンSに垂直となるので、スクリーン撮像部101は図7(b)に例示するような画像を撮像する。
図7(d)に例示するように、映像投影装置1がスクリーンSに端から対面するように設置されている場合、スクリーン撮像部101の光軸はスクリーンS面に鋭角に交叉するので、スクリーン撮像部101は図7(e)に例示するような画像を撮像する。
Hereinafter, the flow of remote control selection processing will be described based on the flowchart shown in FIG.
(1) The first process executed by the first remote control unit will be described.
First, the CPU 211a issues a start command to the screen imaging unit 101 to image the screen S (step S5).
In response to this, the screen imaging unit 101 images the screen S.
As illustrated in FIG. 7A, when the video projection device 1 is installed so as to face the center portion of the screen S, the optical axis of the screen imaging unit 101 is perpendicular to the screen S. The unit 101 captures an image as illustrated in FIG.
As illustrated in FIG. 7D, when the video projector 1 is installed so as to face the screen S from the end, the optical axis of the screen imaging unit 101 crosses the screen S surface at an acute angle. The imaging unit 101 captures an image as illustrated in FIG.

次いで、CPU211aは、距離測定部103に動作指示信号を与える(ステップS10)。
これに応じて距離測定部103は、スクリーン撮像部101が撮像したスクリーンSの画像データから投射画像PIの部分を抽出する(図7(c)(f)参照)。こうして抽出された投射画像PIがテストパターンである。
そこで距離測定部103は、テストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2を測定し、その測定結果を主制御部211に送信する。
Next, the CPU 211a gives an operation instruction signal to the distance measuring unit 103 (step S10).
In response to this, the distance measuring unit 103 extracts a portion of the projection image PI from the image data of the screen S imaged by the screen imaging unit 101 (see FIGS. 7C and 7F). The projection image PI thus extracted is a test pattern.
Therefore, the distance measuring unit 103 measures the length dimensions X1, X2, Y1, and Y2 of the vertical and horizontal four sides of the test pattern, and transmits the measurement results to the main control unit 211.

主制御部211がテストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2を受信したならば、CPU211aはNVRAM211dからデータテーブルTを呼び出す(ステップS15)。
図8に示すように、データテーブルTは、複数設定されたテストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2のサンプル毎に、スクリーンSとスクリーン撮像部101の光軸とのなす角度θを定義し、さらに映像撮像部105が撮像した周辺画像SIから切り取るべき操作推定範囲PAを規定する映像撮影範囲θL、θRを定義している。
When the main control unit 211 receives the length dimensions X1, X2, Y1, and Y2 of the vertical and horizontal sides of the test pattern, the CPU 211a calls the data table T from the NVRAM 211d (step S15).
As shown in FIG. 8, the data table T includes a screen S and an optical axis of the screen imaging unit 101 for each sample of length dimensions X1, X2, Y1, and Y2 of a plurality of test patterns. An angle θ is defined, and video shooting ranges θL and θR that define an operation estimation range PA to be cut from the peripheral image SI captured by the video imaging unit 105 are defined.

なお、図7及び図9も併せて参照することが望ましい。
スクリーン撮像部101がスクリーンSを真正面から撮像した場合(図9(a)(b)参照)、距離測定部103が抽出する投射画像PI、つまり図9(c)に例示するテストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2は、一例としてそれぞれ100cm、100cm、70cm、70cmとなる。横の上下辺の長さが互いに一致し、縦の左右辺の長さも互いに一致する。
これをデータテーブルTで参照すると、角度θは90度となり、図9(a)に示す状態と符合する。
さらにデータテーブルTを参照して映像投影範囲を見ると、θL=35度でθR=35度であることがわかる。
したがって図9(a)に示すように、映像撮像部105が撮像した周辺画像SIから切り取るべき操作推定範囲PAは、θLが35度でθRが35度にすればよいことになる。
7 and 9 should also be referred to.
When the screen imaging unit 101 images the screen S from the front (see FIGS. 9A and 9B), the projection image PI extracted by the distance measuring unit 103, that is, the vertical and horizontal sides of the test pattern illustrated in FIG. The length dimensions X1, X2, Y1, and Y2 are, for example, 100 cm, 100 cm, 70 cm, and 70 cm, respectively. The lengths of the horizontal upper and lower sides match each other, and the lengths of the vertical left and right sides also match each other.
When this is referred to in the data table T, the angle θ is 90 degrees, which matches the state shown in FIG.
Further, when the image projection range is viewed with reference to the data table T, it can be seen that θL = 35 degrees and θR = 35 degrees.
Therefore, as shown in FIG. 9A, the operation estimation range PA to be cut from the peripheral image SI captured by the video imaging unit 105 may be set such that θL is 35 degrees and θR is 35 degrees.

これに対してスクリーン撮像部101がスクリーンSを端の方向から撮像した場合(図7(d)(e)参照)、距離測定部103が抽出する投射画像PI、つまり図7(f)に例示するテストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2は、一例としてそれぞれ150cm、150cm、90cm、100cmとなる。横の上下辺の長さは互いに一致するのに対して、縦の左右辺は左側のY1よりも右側のY2の方が大きくなる。手前側の画像の方が大きく撮像されるからである。
これをデータテーブルTで参照すると、角度θは120度となり、図9(b)に示す状態と符合する。
さらにデータテーブルTを参照して映像投影範囲を見ると、θL=120度でθR=−35度であることがわかる。
したがって図9(b)に示すように、映像撮像部105が撮像した周辺画像SIから切り取るべき操作推定範囲PAは、θLが120度でθRが−35度にすればよいことになる。
On the other hand, when the screen imaging unit 101 images the screen S from the end direction (see FIGS. 7D and 7E), the projection image PI extracted by the distance measuring unit 103, that is, illustrated in FIG. For example, the length dimensions X1, X2, Y1, and Y2 of the vertical and horizontal sides of the test pattern are 150 cm, 150 cm, 90 cm, and 100 cm, respectively. The lengths of the horizontal upper and lower sides coincide with each other, whereas the vertical left and right sides are larger in Y2 on the right side than Y1 on the left side. This is because the front side image is captured larger.
When this is referred to in the data table T, the angle θ is 120 degrees, which matches the state shown in FIG.
Further, when the image projection range is viewed with reference to the data table T, it can be seen that θL = 120 degrees and θR = −35 degrees.
Therefore, as shown in FIG. 9B, the operation estimation range PA to be cut from the peripheral image SI captured by the video image capturing unit 105 may be set such that θL is 120 degrees and θR is −35 degrees.

次いで、図6に戻り、CPU211aは、ステップS15でNVRAM211dからデータテーブルTを呼び出すと、距離測定部103が測定したテストパターンの縦横四辺の長さ寸法X1、X2、Y1、Y2と一致するデータがあるかどうかを判定する(ステップS20)。   Next, returning to FIG. 6, when the CPU 211a calls the data table T from the NVRAM 211d in step S15, data matching the length dimensions X1, X2, Y1, Y2 of the vertical and horizontal four sides of the test pattern measured by the distance measuring unit 103 is obtained. It is determined whether or not there is (step S20).

判定の結果、長さ寸法X1、X2、Y1、Y2と一致するデータがデータテーブルTに定義されていると判定したならば(ステップS20のYES)、CPU211aは対応する映像撮影範囲の値をデータテーブルTから呼び出して取得する(ステップS25)。
これによって、映像撮像部105が撮像した周辺画像SIから切り取るべき操作推定範囲PAが確定する。
As a result of the determination, if it is determined that data that matches the length dimensions X1, X2, Y1, and Y2 is defined in the data table T (YES in step S20), the CPU 211a sets the corresponding video shooting range value as data. Called and acquired from the table T (step S25).
As a result, the operation estimation range PA to be cut out from the peripheral image SI captured by the video imaging unit 105 is determined.

続いてCPU211aは、映像撮像部105に起動命令を発行し、周辺の画像を撮像させる。これに応じて映像撮像部105が撮像を開始することで、画像データとしての周辺画像SIが得られる。
図10に例示する映像撮像部105が撮像した周辺画像SIの一例では、会議テーブルMTに用意された四つの椅子Cに座って四人の人HBが席に着いている様子が示されている。そして図中左手前に座るその中の一人の人HBは、リモコン111を手に取ろうとしている。
Subsequently, the CPU 211a issues a start command to the video image capturing unit 105 to capture peripheral images. In response to this, the video imaging unit 105 starts imaging, whereby a peripheral image SI as image data is obtained.
In the example of the peripheral image SI captured by the video imaging unit 105 illustrated in FIG. 10, a state where four people HB are sitting on the four chairs C prepared on the conference table MT is shown. . One person HB sitting in front of the left in the figure is trying to pick up the remote control 111.

こうして周辺画像SIが得られたならば、つぎに必要なことは、このような周辺画像SIから切り取るべき操作推定範囲PAを確定し、この範囲でのリモコン111の操作可能性の有無を判定することである。
そこでCPU211aは、比較判断部107に比較判断処理の実行を命令する(ステップS35)。この際、ステップS25でデータテーブルTから呼び出し取得した映像撮影範囲の値(θL、θR)を比較判断部107に送信する。
If the peripheral image SI is obtained in this way, the next necessary thing is to determine an operation estimation range PA to be cut out from the peripheral image SI, and determine whether or not the remote controller 111 can be operated in this range. That is.
Therefore, the CPU 211a instructs the comparison / determination unit 107 to execute the comparison / determination process (step S35). At this time, the values (θL, θR) of the video shooting range obtained by calling from the data table T in step S25 are transmitted to the comparison determination unit 107.

CPU211aから指令を受けた比較判断部107は、まず、受信した映像撮影範囲の値(θL、θR)に基づいて、自機をリモコン111で操作すると推定される操作推定範囲PAを確定する。
次いで、比較判断部107は周辺画像SIを解析し、操作推定範囲PAからリモコンの形状画像Aを抽出する。この処理は、記憶部109に格納されているリモコンの形状画像Aとの類似性を判定する画像認識処理によって実行可能である。
比較判断部107は、リモコンの形状画像Aの抽出の有無を問わず、画像認識処理の結果を定期的にCPU211aに送信する。
The comparison / determination unit 107 that has received a command from the CPU 211a first determines an operation estimation range PA that is estimated to be operated by the remote controller 111 based on the received video shooting range values (θL, θR).
Next, the comparison / determination unit 107 analyzes the peripheral image SI and extracts the shape image A of the remote control from the operation estimation range PA. This process can be executed by an image recognition process for determining similarity to the remote controller shape image A stored in the storage unit 109.
The comparison determination unit 107 periodically transmits the result of the image recognition process to the CPU 211a regardless of whether or not the remote controller shape image A is extracted.

図6に示すように、CPU211aは比較判断部107からの判定結果の受信に待機しており(ステップS40)、リモコンの形状画像Aを抽出していないという判定結果を受信した場合には(ステップS40のNO)、リモコン111を無効にした状態を維持し(ステップS45)、ステップS5の処理に戻る。
これに対してCPU211aは、リモコンの形状画像Aを抽出したという判定結果を比較判断部107から受信した場合には(ステップS40のYES)、映像を計時撮像する指示を比較判断部107に与える(ステップS50)。
As shown in FIG. 6, the CPU 211a waits for reception of the determination result from the comparison determination unit 107 (step S40), and when receiving the determination result that the shape image A of the remote control is not extracted (step S40). (NO in S40), the state where the remote controller 111 is invalidated is maintained (step S45), and the process returns to step S5.
On the other hand, when the CPU 211a receives a determination result that the shape image A of the remote controller has been extracted from the comparison determination unit 107 (YES in step S40), the CPU 211a gives an instruction to time-capture an image to the comparison determination unit 107 ( Step S50).

比較判断部107は、映像を計時撮像する指示に従い、連続的に撮像した周辺画像SIの画像データを得る。あるいは動画撮影を実行する。
そして図10に例示するように、リモコンの形状画像Aに人の手の形状画像Bが近づき、いずれ重なり合ったかどうかを判定する。リモコンの形状画像Aに人の手の形状画像Bが近づき重なり合えば、リモコン111が操作される可能性があるとの推定が成り立つ。そこで比較判断部107は画像認識処理を実行し、連続撮像している周辺画像SIの中で、操作推定範囲PAにおいてこのような計時変化が生じたかどうかを判定する。
比較判断部107はその判定結果を定期的に主制御部211に送信する。
The comparison / determination unit 107 obtains image data of the continuously captured peripheral image SI in accordance with an instruction to time-capture video. Alternatively, video shooting is executed.
Then, as illustrated in FIG. 10, the shape image B of the human hand approaches the shape image A of the remote controller, and it is determined whether it overlapped. If the shape image B of the human hand approaches and overlaps the shape image A of the remote control, it is estimated that the remote control 111 may be operated. Therefore, the comparison / determination unit 107 executes image recognition processing to determine whether or not such a time change has occurred in the operation estimation range PA in the continuously captured peripheral image SI.
The comparison determination unit 107 periodically transmits the determination result to the main control unit 211.

図6に示すように、CPU211aは比較判断部107からの判定結果の受信に待機している(ステップS55)。
比較判断部107から得た判定結果がリモコン111の操作可能性なしである場合(ステップS55のNO)、CPU211aはステップS5の処理に戻る。
As illustrated in FIG. 6, the CPU 211a waits for reception of a determination result from the comparison determination unit 107 (step S55).
When the determination result obtained from the comparison determination unit 107 indicates that the remote controller 111 is not operable (NO in step S55), the CPU 211a returns to the process in step S5.

(2)第2の遠隔制御部が実行する第2の処理について説明する。
これに対して比較判断部107から得た判定結果がリモコン111の操作可能性ありである場合(ステップS55のYES)、CPU211aはリモコンを有効にする処理を実行する(ステップS60)。自機の操作を意図するリモコン111の使用が予想されるからである。
このステップS55の判定処理とステップS112のリモコン111を有効にする処理とが、第2の遠隔制御部が実行する第2の処理(工程、機能、手段)である。
(2) The second process executed by the second remote control unit will be described.
On the other hand, when the determination result obtained from the comparison determination unit 107 indicates that the remote controller 111 can be operated (YES in step S55), the CPU 211a executes a process of enabling the remote controller (step S60). This is because the use of the remote controller 111 intended to operate the own device is expected.
The determination process of step S55 and the process of enabling the remote control 111 of step S112 are the second process (process, function, means) executed by the second remote control unit.

ここで、リモコン111を有効にする処理の具体的な内容について説明する。
この処理には三種類の手法がある。
一つ目は、操作制御部81に、リモコン111から無線出力された指示信号の受信を許可する処理である。つまり主制御部211は、通常は操作制御部81の無線通信機能を停止した状態に維持する。このような前提のもと、操作制御部81の無線通信機能を有効にする処理が、リモコン111を有効にする処理(ステップS60)となる。
Here, the specific contents of the processing for enabling the remote controller 111 will be described.
There are three types of processing.
The first is processing for allowing the operation control unit 81 to receive an instruction signal that is wirelessly output from the remote control 111. That is, the main control unit 211 normally maintains the wireless communication function of the operation control unit 81 in a stopped state. Under such a premise, the process of enabling the wireless communication function of the operation control unit 81 is the process of enabling the remote controller 111 (step S60).

二つ目は、操作制御部81から主制御部211への指示信号の入力を許可する処理である。つまり主制御部211は、リモコン111から無線出力された指示信号を操作制御部81が受信した場合、受信した指示信号を通常は受け付けない。このような前提のもと、リモコン111から無線出力された指示信号を操作制御部81から主制御部211が受信する処理が、リモコン111を有効にする処理(ステップS60)となる。   The second is processing for permitting input of an instruction signal from the operation control unit 81 to the main control unit 211. That is, when the operation control unit 81 receives an instruction signal wirelessly output from the remote controller 111, the main control unit 211 does not normally accept the received instruction signal. Under such a premise, the process in which the main control unit 211 receives the instruction signal wirelessly output from the remote control 111 from the operation control unit 81 is the process of enabling the remote control 111 (step S60).

そして三つ目は、入力した指示信号に応じた各部の制御を主制御部211に実行させる処理である。つまり主制御部211は、リモコン111から無線出力された指示信号を操作制御部81から受信しても、通常はこれを無視する。このような前提のもと、操作制御部81から受信したリモコン111からの指示信号に応じて各部を制御する処理が、リモコン111を有効にする処理(ステップS60)となる。   The third is processing for causing the main control unit 211 to execute control of each unit according to the input instruction signal. That is, even if the main control unit 211 receives an instruction signal wirelessly output from the remote control 111 from the operation control unit 81, it is normally ignored. Under such a premise, the process of controlling each unit in accordance with the instruction signal from the remote control 111 received from the operation control unit 81 is the process of enabling the remote control 111 (step S60).

ここで、上述した本実施形態による作用及び効果について説明する。
以上説明したように本実施の形態によれば、映像撮像部105が撮像した周辺画像SIに基づいて自機の操作を意図するリモコン111の有無を推定し、そのようなリモコン111があると判定した場合にのみリモコン111から無線出力された指示信号に応じた各部の制御を実行可能にしたので、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる。
Here, the operation and effect of the above-described embodiment will be described.
As described above, according to the present embodiment, the presence / absence of the remote controller 111 intended to operate the own device is estimated based on the peripheral image SI captured by the video imaging unit 105, and it is determined that there is such a remote controller 111. Only in this case, the control of each unit according to the instruction signal wirelessly output from the remote controller 111 can be executed, so that a response to an unintended remote control operation can be prevented without requiring a special setting operation.

本実施の形態によれば、第1の遠隔操作部は、スクリーン撮像部101が撮像した投影画像の縦横左右比から操作推定範囲を判定するので、比較的簡単な手法を用いて精度よく操作推定範囲を判定することができる。   According to the present embodiment, the first remote control unit determines the operation estimation range from the aspect ratio of the projection image captured by the screen imaging unit 101. Therefore, the first remote control unit accurately estimates the operation using a relatively simple method. A range can be determined.

本実施の形態によれば、第1の遠隔操作部は、映像撮像部105が撮像した操作推定範囲PA内での周辺画像SI中からリモコンの形状画像Aと人の手の形状画像Bとを抽出し、リモコンの形状画像Aに人の手の形状画像Bが重なり合ったことをもって、リモコン111の操作可能性ありと判定するので、比較的簡単な手法を用いて精度よくリモコンの操作可能性の有無を判定することができる。   According to the present embodiment, the first remote control unit obtains the remote controller shape image A and the human hand shape image B from the peripheral image SI within the operation estimation range PA imaged by the video imaging unit 105. When the extracted shape image A of the remote control overlaps the shape image B of the human hand, it is determined that the remote control 111 can be operated. Therefore, it is possible to accurately operate the remote control using a relatively simple method. Presence / absence can be determined.

本実施の形態によれば、リモコンの形状画像Aを把持しようとする形状をもって人の手の形状画像Bと判定するので、リモコン111の操作可能性の有無をより高い確実性を持って見極めることができる。   According to the present embodiment, since the shape of the hand of the remote controller is determined as the shape image B of the human hand, the presence or absence of the operation possibility of the remote controller 111 can be determined with higher certainty. Can do.

本実施の形態によれば、第2の遠隔操作部は、リモコン111の操作可能性ありの判定があった場合にのみ、操作制御部81によるリモコン111から無線出力された指示信号の受信を許可するので、操作制御部81の無線通信機能を有効にするだけで、簡単に、リモコン111からの指示信号に応じた各部の制御の禁止状態を解除することができる。   According to the present embodiment, the second remote control unit permits the operation control unit 81 to receive the instruction signal wirelessly output from the remote control 111 only when it is determined that the remote control 111 can be operated. Therefore, the control prohibition state of each unit according to the instruction signal from the remote controller 111 can be easily canceled simply by enabling the wireless communication function of the operation control unit 81.

本実施の形態によれば、第2の遠隔操作部は、リモコン111の操作可能性ありの判定があった場合にのみ、操作制御部81による主制御部211への指示信号の入力を許可するので、操作制御部81の信号出力機能を有効にするだけで、簡単に、リモコン111からの指示信号に応じた各部の制御の禁止状態を解除することができる。   According to the present embodiment, the second remote control unit permits the operation control unit 81 to input an instruction signal to the main control unit 211 only when it is determined that the remote control 111 can be operated. Therefore, the control prohibition state of each unit according to the instruction signal from the remote controller 111 can be easily canceled simply by enabling the signal output function of the operation control unit 81.

本実施の形態によれば、第2の遠隔操作部は、リモコン111の操作可能性ありの判定があった場合にのみ、入力した指示信号に応じた各部の制御を主制御部211に実行させるので、操作制御部81の機能に変更を加えることなく、主制御部211側の制御だけで、リモコン111からの指示信号に応じた各部の制御の禁止状態を解除することができる。   According to the present embodiment, the second remote control unit causes the main control unit 211 to execute control of each unit according to the input instruction signal only when it is determined that the remote control 111 is likely to be operated. Therefore, it is possible to cancel the prohibited state of the control of each unit according to the instruction signal from the remote controller 111 only by the control on the main control unit 211 side without changing the function of the operation control unit 81.

本実施の形態によれば、主制御部211は、第1の遠隔制御部を含んでいるので、主制御部211と第1の遠隔制御部とを兼用することができ、ハードウェア資源の単純化と部品点数の減少とを図ることができる。   According to the present embodiment, since the main control unit 211 includes the first remote control unit, the main control unit 211 and the first remote control unit can be used together, and hardware resources can be simplified. And reducing the number of parts.

本実施の形態によれば、主制御部211は、第2の遠隔制御部を含んでいるので、主制御部211と第2の遠隔制御部とを兼用することができ、ハードウェア資源の単純化と部品点数の減少とを図ることができる。   According to the present embodiment, since the main control unit 211 includes the second remote control unit, the main control unit 211 and the second remote control unit can be used together, and hardware resources can be simplified. And reducing the number of parts.

<変形例>
実施に際しては、以下に例示する各種の変更や変形が可能である。
(1)変形例1
本実施の形態は、画像表示素子にDMD素子56を用いたDLPプロジェクタに適用した一例を示した。
これに対して、他の種類のライトバルブ方式のプロジェクタ、例えば液晶プロジェクタ、LCOSプロジェクタ、GLVプロジェクタなどに本実施の形態の設置処理を適用するようにしても良い。あるいはライトバルブ方式に限らず、CRT方式のプロジェクタへの適用も可能である。
<Modification>
In implementation, various changes and modifications exemplified below are possible.
(1) Modification 1
In the present embodiment, an example in which the present invention is applied to a DLP projector using a DMD element 56 as an image display element is shown.
On the other hand, the installation process according to the present embodiment may be applied to other types of light valve projectors, such as a liquid crystal projector, an LCOS projector, and a GLV projector. Alternatively, the present invention is not limited to the light valve method, and can be applied to a CRT projector.

(2)変形例2
本実施の形態では、リモコン選別処理を実行するハードウェア資源を複数のプロセッサなどに分散させた。つまり主制御部211のCPU211a、距離測定部103、及び比較判断部107が協力し合ってリモコン選別処理を実行する一例を示した。
これに対して実施に際してはこのようなハードウェア資源の分散構造をとらず、単一のプロセッサによってリモコン選別処理を実行するようにしてもよい。
あるいは逆に、さらに別のハードウェア資源を利用しながらリモコン選別処理を実行するようにしてもよい。
(2) Modification 2
In the present embodiment, hardware resources for executing remote control selection processing are distributed to a plurality of processors and the like. That is, an example is shown in which the CPU 211a of the main control unit 211, the distance measurement unit 103, and the comparison determination unit 107 cooperate to execute remote control selection processing.
On the other hand, at the time of implementation, the remote control selection process may be executed by a single processor without adopting such a hardware resource distribution structure.
Or, conversely, the remote control selection process may be executed while using another hardware resource.

(3)変形例3
本実施の形態では、CPU211aにリモコン選別処理を実行させる制御プログラムをROM211bに固定的に記録した一例を示した。
これに対して制御プログラムは、ROM211bのようなデータを固定的に記憶する素子に限らず、データ保存可能でありながらデータ書き換え型のメモリに記録し保存するようにしてもよい。こうすることで、制御プログラムのバージョンアップへの対応が容易になる。
(3) Modification 3
In the present embodiment, an example is shown in which a control program that causes the CPU 211a to execute remote control selection processing is fixedly recorded in the ROM 211b.
On the other hand, the control program is not limited to an element that stores data fixedly, such as the ROM 211b, but may be recorded and stored in a data rewritable memory while data can be stored. By doing so, it becomes easy to cope with the version upgrade of the control program.

(4)その他
上記(1)〜(3)以外にも、あらゆる変形や変更が許容されることは言うまでもない。
(4) Others It goes without saying that all modifications and changes other than the above (1) to (3) are allowed.

<本発明の実施態様例と効果>
<第1態様>
本態様の映像投影装置1は、入力した映像データに基づいて投影画像を生成して投影する映像投影装置であって、各部を制御する主制御部71と、リモコン111から受信した指示信号を主制御部71に出力する操作制御部81と、自機の周辺画像を撮像する映像撮像部105と、映像撮像部105が撮像した周辺画像のうち、当該装置に固有のリモコン操作範囲内の画像を解析し、リモコンを用いた当該装置への操作の有無を判定する主制御部71と、リモコン111を用いた当該装置への操作であると判定された場合に、リモコン111から受信した指示信号に応じた主制御部71での制御を許可する主制御部71と、を備えることを特徴とする。
本態様によれば、映像撮像部105が撮像した周辺画像に基づいて自機への操作を意図するリモコンの有無を判定し、そのようなリモコンがあると判定した場合に、リモコンから受信した指示信号に応じた各部の制御を許可するので、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる。
<Examples of Embodiments and Effects of the Present Invention>
<First aspect>
The video projection apparatus 1 according to this aspect is a video projection apparatus that generates and projects a projection image based on input video data. The video projection apparatus 1 mainly receives a main control unit 71 that controls each unit and an instruction signal received from a remote controller 111. An operation control unit 81 that outputs to the control unit 71, a video imaging unit 105 that captures a peripheral image of the own device, and an image within a remote control operation range that is unique to the device among peripheral images captured by the video imaging unit 105. The main control unit 71 that analyzes and determines whether or not there is an operation on the apparatus using the remote control, and the instruction signal received from the remote control 111 when it is determined that the operation is performed on the apparatus using the remote control 111 And a main control unit 71 that permits control by the corresponding main control unit 71.
According to this aspect, the presence / absence of a remote control intended to operate the own device is determined based on the peripheral image captured by the video imaging unit 105, and the instruction received from the remote control when it is determined that there is such a remote control Since control of each part according to a signal is permitted, reaction to unintended remote control operation can be prevented without requiring special setting work.

<第2態様>
本態様の映像投影装置1は、被投影面に投影された投影画像を撮像するスクリーン撮像部101を備え、主制御部71は、スクリーン撮像部101が撮像した投影画像の縦横左右比に基づいてリモコン操作範囲を設定することを特徴とする。
本態様によれば、スクリーン撮像部101が撮像した投影画像の縦横左右比からリモコン操作範囲を設定するので、比較的簡単な手法を用いて精度よく操作推定範囲を設定することができる。
<Second aspect>
The video projection apparatus 1 according to this aspect includes a screen imaging unit 101 that captures a projection image projected on a projection surface, and the main control unit 71 is based on the aspect ratio of the projection image captured by the screen imaging unit 101. A remote control operation range is set.
According to this aspect, since the remote control operation range is set from the aspect ratio of the projection image captured by the screen imaging unit 101, the operation estimation range can be set with high accuracy using a relatively simple method.

<第3態様>
本態様の主制御部71は、映像撮像部105が撮像したリモコン操作範囲内の画像からリモコンの形状画像と人の手の形状画像とを抽出し、リモコンの形状画像に人の手の形状画像が重なり合ったかどうか判定することを特徴とする。
本態様によれば、映像撮像部105が撮像したリモコン操作範囲内の画像からリモコンの形状画像と人の手の形状画像とを抽出し、リモコンの形状画像に人の手の形状画像が重なり合ったかどうか判定するので、比較的簡単な手法を用いて精度よくリモコンの操作可能性の有無を判定することができる。
<Third aspect>
The main control unit 71 of this aspect extracts the shape image of the remote control and the shape image of the human hand from the image within the remote control operation range captured by the video image capturing unit 105, and the shape image of the human hand is extracted as the shape image of the remote control. It is characterized by determining whether or not.
According to this aspect, the remote controller shape image and the human hand shape image are extracted from the image within the remote control operation range imaged by the video imaging unit 105, and whether the human hand shape image overlaps the remote controller shape image. Therefore, it is possible to accurately determine whether or not the remote controller can be operated using a relatively simple method.

<第4態様>
本態様の主制御部71は、リモコンを把持しようとする形状画像を人の手の形状画像として用いることを特徴とする。
本態様によれば、リモコンを把持しようとする形状画像を人の手の形状画像として用いて人の手の形状画像と判定するので、リモコンの操作可能性の有無をより高い確実性を持って見極めることができる。
<4th aspect>
The main control unit 71 according to this aspect is characterized in that a shape image for gripping the remote control is used as a shape image of a human hand.
According to this aspect, since the shape image to be gripped of the remote control is used as the shape image of the human hand and is determined as the shape image of the human hand, the presence or absence of the operability of the remote control is more reliably determined. Can be determined.

<第5態様>
本態様の映像投影システムは、第1〜第4態様のいずれか一の映像投影装置を複数備え、1つのリモコンを使用して各映像投影装置を操作することを特徴とする。
本態様によれば、1つのリモコンを使用して各映像投影装置を操作するので、特別な設定作業を要することなく、意図せぬリモコン操作に対して各映像投影装置の反応を防止することができる。
<5th aspect>
The video projection system according to this aspect includes a plurality of the video projection apparatuses according to any one of the first to fourth aspects, and operates each video projection apparatus using one remote controller.
According to this aspect, since each video projector is operated using one remote controller, it is possible to prevent each video projector from reacting to an unintended remote controller operation without requiring a special setting operation. it can.

<第6態様>
本態様の各映像投影装置に固有のリモコン操作範囲は、夫々異なることを特徴とする。
本態様によれば、各映像投影装置に固有のリモコン操作範囲は、夫々異なることで、意図せぬリモコン操作に対して各映像投影装置の反応を防止することができる。
<Sixth aspect>
The remote control operation ranges unique to each video projection apparatus of this aspect are different from each other.
According to this aspect, the remote control operation ranges unique to the respective video projection apparatuses are different, so that the reaction of each video projection apparatus with respect to an unintended remote control operation can be prevented.

<第7態様>
本態様の映像投影装置1のリモコン選別方法は、リモコン111から受信した指示信号に応じて各部を制御する主制御部71と、自機の周辺画像を撮像する映像撮像部105と、を備え、入力した映像データに基づいて投影画像を生成して投影する映像投影装置1のリモコン選別方法であって、
映像撮像部105が撮像した周辺画像のうち、当該装置に固有のリモコン操作範囲内の画像を解析し、リモコンを用いた当該装置への操作の有無を判定し(ステップS40)、リモコン111を用いた当該装置への操作であると判定された場合に、リモコン111から受信した指示信号に応じた主制御部71での制御を許可する(ステップS60)と、を備えることを特徴とする。
本態様によれば、映像撮像部105が撮像した周辺画像に基づいて自機への操作を意図するリモコンの有無を判定し、そのようなリモコンがあると判定した場合に、リモコンから受信した指示信号に応じた各部の制御を許可するので、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる。
<Seventh aspect>
The remote control selection method of the video projection device 1 of this aspect includes a main control unit 71 that controls each unit in accordance with an instruction signal received from the remote control 111, and a video imaging unit 105 that captures a peripheral image of the own device. A method for selecting a remote control of a video projection apparatus 1 for generating and projecting a projection image based on input video data,
Of the peripheral images captured by the video image capturing unit 105, an image within the remote control operation range unique to the device is analyzed to determine whether or not the device is operated using the remote control (step S40). When the operation is determined to be performed on the apparatus, the control by the main control unit 71 according to the instruction signal received from the remote controller 111 is permitted (step S60).
According to this aspect, the presence / absence of a remote control intended to operate the own device is determined based on the peripheral image captured by the video imaging unit 105, and the instruction received from the remote control when it is determined that there is such a remote control Since control of each part according to a signal is permitted, reaction to unintended remote control operation can be prevented without requiring special setting work.

<第8態様>
本態様のプログラムは、第7態様の各ステップをプロセッサに実行させることを特徴とする。
本態様によれば、各ステップをCPUに実行させることができるので、特別な設定作業を要することなく、意図せぬリモコン操作に対する反応を防止することができる。
<Eighth aspect>
The program according to this aspect causes a processor to execute each step according to the seventh aspect.
According to this aspect, since each step can be executed by the CPU, reaction to an unintended remote control operation can be prevented without requiring a special setting operation.

1…映像投影装置、11…ハウジング、71…主制御部、81…操作制御部、101…スクリーン撮像部、105…映像撮像部、111…リモコン、A…リモコンの形状画像、B…人の手の形状画像、PA…操作推定範囲、S…スクリーン(被投影面)、SI…周辺画像   DESCRIPTION OF SYMBOLS 1 ... Video projection apparatus, 11 ... Housing, 71 ... Main control part, 81 ... Operation control part, 101 ... Screen imaging part, 105 ... Video imaging part, 111 ... Remote control, A ... Shape image of remote control, B ... Human hand Shape image, PA ... operation estimation range, S ... screen (projection surface), SI ... peripheral image

特開2010−186036公報JP 2010-186036 A

Claims (8)

入力した映像データに基づいて投影画像を生成して投影する映像投影装置であって、
各部を制御する主制御部と、
リモコンから受信した指示信号を前記主制御部に出力する操作制御部と、
自機の周辺画像を撮像する映像撮像部と、
前記映像撮像部が撮像した前記周辺画像のうち、当該装置に固有のリモコン操作範囲内の画像を解析し、前記リモコンを用いた当該装置への操作の有無を判定する第1の遠隔制御部と、
前記リモコンを用いた当該装置への操作であると判定された場合に、前記リモコンから受信した指示信号に応じた前記主制御部での制御を許可する第2の遠隔制御部と、
を備えることを特徴とする映像投影装置。
A video projection apparatus that generates and projects a projection image based on input video data,
A main control unit for controlling each unit;
An operation control unit for outputting an instruction signal received from a remote control to the main control unit;
A video imaging unit that captures a peripheral image of the own machine;
A first remote control unit that analyzes an image within a remote control operation range unique to the device among the peripheral images captured by the video imaging unit, and determines whether there is an operation on the device using the remote control; ,
A second remote control unit that permits control in the main control unit in response to an instruction signal received from the remote control when it is determined that the operation is performed on the device using the remote control;
A video projection apparatus comprising:
被投影面に投影された前記投影画像を撮像する被投影面撮像部を備え、
前記第1の遠隔操作部は、前記被投影面撮像部が撮像した前記投影画像の縦横左右比に基づいて前記リモコン操作範囲を設定する、
ことを特徴とする請求項1記載の映像投影装置。
A projection surface imaging unit that images the projection image projected on the projection surface;
The first remote control unit sets the remote control operation range based on the aspect ratio of the projection image captured by the projection surface imaging unit.
The video projection apparatus according to claim 1, wherein:
前記第1の遠隔制御部は、前記映像撮像部が撮像した前記リモコン操作範囲内の画像から前記リモコンの形状画像と人の手の形状画像とを抽出し、前記リモコンの形状画像に前記人の手の形状画像が重なり合ったかどうか判定する、
ことを特徴とする請求項1又は2記載の映像投影装置。
The first remote control unit extracts a shape image of the remote control and a shape image of a person's hand from an image within the remote control operation range captured by the video imaging unit, and the person's hand shape image is extracted to the shape image of the remote control. Determine if hand shape images overlap,
The video projection apparatus according to claim 1 or 2, wherein
前記第1の遠隔制御部は、前記リモコンを把持しようとする形状画像を前記人の手の形状画像として用いる、
ことを特徴とする請求項3記載の映像投影装置。
The first remote control unit uses a shape image for gripping the remote control as a shape image of the human hand,
The video projection device according to claim 3.
請求項1乃至4のいずれか一項記載の映像投影装置を複数備え、
1つの前記リモコンを使用して前記各映像投影装置を操作することを特徴とする映像投影システム。
A plurality of the video projectors according to any one of claims 1 to 4,
A video projection system, wherein each video projection device is operated using one remote controller.
前記各映像投影装置に固有の前記リモコン操作範囲は、夫々異なることを特徴とする請求項5記載の映像投影システム。   The video projection system according to claim 5, wherein the remote control operation ranges unique to the video projection apparatuses are different from each other. リモコンから受信した指示信号に応じて各部を制御する主制御部と、
自機の周辺画像を撮像する映像撮像部と、を備え、入力した映像データに基づいて投影画像を生成して投影する映像投影装置のリモコン選別方法であって、
前記映像撮像部が撮像した前記周辺画像のうち、当該装置に固有のリモコン操作範囲内の画像を解析し、前記リモコンを用いた当該装置への操作の有無を判定する第1のステップと、
前記リモコンを用いた当該装置への操作であると判定された場合に、前記リモコンから受信した指示信号に応じた前記主制御部での制御を許可する第2のステップと、
を備えることを特徴とする映像投影装置のリモコン選別方法。
A main control unit that controls each unit in accordance with an instruction signal received from the remote control;
A video image pick-up unit that picks up a peripheral image of the own device, and a remote control selection method for a video projection device that generates and projects a projection image based on input video data,
A first step of analyzing an image within a remote control operation range unique to the device among the peripheral images captured by the video imaging unit, and determining whether or not there is an operation on the device using the remote control;
A second step of permitting control in the main control unit in response to an instruction signal received from the remote control when it is determined that the operation is performed on the device using the remote control;
A remote control selection method for a video projection apparatus, comprising:
請求項7記載の各ステップをプロセッサに実行させることを特徴とするプログラム。   A program for causing a processor to execute each step according to claim 7.
JP2014134056A 2014-06-30 2014-06-30 Video projection device, video projection system, remote controller selecting method of video projection device and program Pending JP2016012850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014134056A JP2016012850A (en) 2014-06-30 2014-06-30 Video projection device, video projection system, remote controller selecting method of video projection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014134056A JP2016012850A (en) 2014-06-30 2014-06-30 Video projection device, video projection system, remote controller selecting method of video projection device and program

Publications (1)

Publication Number Publication Date
JP2016012850A true JP2016012850A (en) 2016-01-21

Family

ID=55229298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014134056A Pending JP2016012850A (en) 2014-06-30 2014-06-30 Video projection device, video projection system, remote controller selecting method of video projection device and program

Country Status (1)

Country Link
JP (1) JP2016012850A (en)

Similar Documents

Publication Publication Date Title
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP6417690B2 (en) Projector, display device, and projector control method
JP6398248B2 (en) Position detection system and method for controlling position detection system
US10228611B2 (en) Projector, projection system, and control method of projector
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP6340958B2 (en) Projector apparatus, interactive system, and interactive control method
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2015158890A (en) Position detection device, position detection system, and position detection method
US20120113399A1 (en) System for adjusting image of beam projector using camera attached remote controller and method thereof
JP6562124B2 (en) Position detection system and method for controlling position detection system
US20120218294A1 (en) Projection-type image display apparatus
JP6492588B2 (en) Projector and projector control method
JP2012181721A (en) Position input device, projector, control method for projector, and display system
JP2017010314A (en) Image projection system, image projection device, pointing device, and video supply device
JP2016212291A (en) Image projection system, image processing device and program
JP2015159460A (en) Projection system, projection device, photographing device, method for generating guide frame, and program
JP2016012850A (en) Video projection device, video projection system, remote controller selecting method of video projection device and program
JP2013083985A (en) Projection device, projection method, and program
WO2019171907A1 (en) Information processing device, information processing method, information processing system, and program
JP2016010025A (en) Video projector, video projection method, and program
JP2009115984A (en) Projection device, projection method and program
JP2007322704A (en) Image display system and its control method
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2008216351A (en) Projection apparatus, and method, and program
JP2017152765A (en) Projector and projector control method