JP2015146611A - Interactive system and control method of interactive system - Google Patents

Interactive system and control method of interactive system Download PDF

Info

Publication number
JP2015146611A
JP2015146611A JP2015053022A JP2015053022A JP2015146611A JP 2015146611 A JP2015146611 A JP 2015146611A JP 2015053022 A JP2015053022 A JP 2015053022A JP 2015053022 A JP2015053022 A JP 2015053022A JP 2015146611 A JP2015146611 A JP 2015146611A
Authority
JP
Japan
Prior art keywords
optical signal
image
projector
signal information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2015053022A
Other languages
Japanese (ja)
Inventor
宮澤 康永
Yasunaga Miyazawa
康永 宮澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015053022A priority Critical patent/JP2015146611A/en
Publication of JP2015146611A publication Critical patent/JP2015146611A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an interactive system which reduces situations in which information from a transmitter cannot be detected.SOLUTION: An interactive system 1 includes a plurality of projectors 100 and 200, a computer 300, and a transmitter (light-emitting pen 400) which transmits an optical signal. The plurality of projectors are installed so that projected images projected by respective projectors are displayed one over the other in one projection area. Each projector includes an imaging unit 50 or 250 which images a range including the projected image and forms first optical signal information based on an optical signal, and an optical signal output unit for outputting the optical signal to the computer 300. The computer 300 includes: an optical signal input unit which receives a plurality of pieces of first optical signal information; an optical signal information processing unit which forms second optical signal information on the basis of the plurality of pieces of first optical signal information; and an object operation unit which operates an object included in an image represented by an image signal, on the basis of the second optical signal information.

Description

本発明は、インタラクティブシステム、およびインタラクティブシステムの制御方法に関する。   The present invention relates to an interactive system and a method for controlling the interactive system.

従来、パーソナルコンピューターの画像をプロジェクターによってホワイトボードに投写し、赤外線等の発信機能を備えるマーカーで板書すると、その位置をホワイトボードに装備された座標読取装置で検知し、その位置および操作をパーソナルコンピューターに取り込ませることができるインタラクティブシステムが知られている。また、このようなインタラクティブシステムでは、マーカーで投写画面上をクリックすると、パーソナルコンピューターに所定の操作を実行させることが可能になっている(例えば特許文献1)。   Conventionally, when an image of a personal computer is projected onto a whiteboard by a projector and written with a marker having a transmission function such as infrared rays, the position is detected by a coordinate reading device equipped on the whiteboard, and the position and operation are detected by the personal computer. Interactive systems that can be incorporated into are known. Further, in such an interactive system, it is possible to cause a personal computer to execute a predetermined operation by clicking on the projection screen with a marker (for example, Patent Document 1).

しかし、このようなインタラクティブシステムでは、座標読取装置をホワイトボードに装備する必要があり、大掛かりなシステムとなってしまうという問題があった。そこで、プロジェクターにカメラ等の撮像装置を備え、赤外線を発信するマーカーの位置を撮像して検知し、パーソナルコンピューターに通知するインタラクティブシステムが知られている。   However, in such an interactive system, it is necessary to equip the whiteboard with a coordinate reading device, and there is a problem that it becomes a large-scale system. Therefore, an interactive system is known that includes an imaging device such as a camera in a projector, images and detects the position of a marker that emits infrared rays, and notifies a personal computer.

特開2007−233999号公報JP 2007-233999 A

しかしながら、プロジェクターに撮像装置を備えたインタラクティブシステムでは、ユーザーが、プロジェクターの投写画面の前でマーカーを用いて文字や図形の情報を入力する際に、ユーザーに遮られてマーカーから発信される情報を撮像装置(カメラ)で撮像できない場合があった。このような場合には、パーソナルコンピューターに、マーカーの位置や軌跡、操作情報等を通知することができないという問題があった。   However, in an interactive system equipped with an imaging device in a projector, when a user inputs character or graphic information using a marker in front of the projection screen of the projector, the information transmitted from the marker is blocked by the user. In some cases, the imaging device (camera) cannot capture images. In such a case, there has been a problem that it is impossible to notify the personal computer of the marker position, locus, operation information, and the like.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]本適用例に係るインタラクティブシステムは、複数のプロジェクターと、前記複数のプロジェクターに画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、を備えたインタラクティブシステムであって、前記複数のプロジェクターは、それぞれが投写する投写画像を同一の投写領域に重畳させて表示させるように設置され、前記複数のプロジェクターのそれぞれは、光源から射出された光を前記画像信号に応じて変調して、前記投写画像として投写面に投写する画像投写部と、前記投写画像を含む範囲を撮像して前記光信号に基づく第1の光信号情報を形成する撮像部と、前記第1の光信号情報を前記コンピューターに出力する光信号出力部と、を有し、前記コンピューターは、前記複数のプロジェクターから前記第1の光信号情報を入力する光信号入力部と、前記光信号入力部が入力した複数の前記第1の光信号情報に基づいて、第2の光信号情報を形成する光信号情報処理部と、前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作部と、を有することを特徴とする。   Application Example 1 An interactive system according to this application example includes an interactive system including a plurality of projectors, a computer that supplies image signals to the plurality of projectors, and a transmitter that transmits an optical signal based on a predetermined operation. In the system, the plurality of projectors are installed so that projected images projected by each of the plurality of projectors are superimposed on the same projection area, and each of the plurality of projectors transmits light emitted from a light source to the image. An image projecting unit that modulates in accordance with a signal and projects the projected image on a projection surface; an image capturing unit that captures a range including the projected image and forms first optical signal information based on the optical signal; An optical signal output unit that outputs the first optical signal information to the computer. An optical signal input unit that inputs the first optical signal information from a projector, and an optical signal that forms second optical signal information based on the plurality of first optical signal information input by the optical signal input unit An information processing unit and an object operation unit that operates an object included in an image represented by the image signal based on the second optical signal information.

このようなインタラクティブシステムによれば、複数のプロジェクターとコンピューターと発信器とを備えている。複数のプロジェクターは、投写画像を同一の投写領域に重畳させて表示する。複数のプロジェクターはそれぞれ、画像投写部と撮像部と光信号出力部とを有している。撮像部は、投写画像を含む範囲を撮像して光信号に基づく第1の光信号情報を形成する。光信号出力部は、第1の光信号情報をコンピューターに出力する。コンピューターは、光信号入力部と光信号情報処理部とオブジェクト操作部とを有している。光信号情報処理部は、複数のプロジェクターから光信号入力部に入力された複数の第1の光信号情報に基づいて、第2の光信号情報を形成する。オブジェクト操作部は、第2の光信号情報に基づき、画像信号が表す画像に含まれるオブジェクトを操作する。これにより、プロジェクターの撮像部は、異なる方向から投写画像を含む範囲を撮像することができるため、ユーザーがプロジェクターの投写領域の前で発信器を用いる際に、ユーザーに遮られて発信器から発信される光信号を撮像部で検知できない状態となることを低減できる。そして、コンピューターは、光信号に基づいてオブジェクトを操作することが可能になる。   Such an interactive system includes a plurality of projectors, a computer, and a transmitter. The plurality of projectors display the projected image superimposed on the same projection area. Each of the plurality of projectors includes an image projection unit, an imaging unit, and an optical signal output unit. An imaging part images the range containing a projection image, and forms the 1st optical signal information based on an optical signal. The optical signal output unit outputs the first optical signal information to the computer. The computer has an optical signal input unit, an optical signal information processing unit, and an object operation unit. The optical signal information processing unit forms second optical signal information based on the plurality of first optical signal information input to the optical signal input unit from the plurality of projectors. The object operation unit operates an object included in the image represented by the image signal based on the second optical signal information. As a result, the imaging unit of the projector can capture the range including the projected image from different directions, so when the user uses the transmitter in front of the projection area of the projector, the user is blocked by the user and transmits from the transmitter. It is possible to reduce the situation where the optical signal to be detected cannot be detected by the imaging unit. Then, the computer can operate the object based on the optical signal.

[適用例2]上記適用例に係るインタラクティブシステムにおいて、前記光信号情報処理部は、複数の前記第1の光信号情報を合成することによって、前記第2の光信号情報を形成することを特徴とする。   Application Example 2 In the interactive system according to the application example, the optical signal information processing unit forms the second optical signal information by combining a plurality of the first optical signal information. And

このようなインタラクティブシステムによれば、複数のプロジェクターのうち、光信号を検知できないプロジェクターがあっても、少なくとも1つのプロジェクターが検知できていれば、第2の光信号情報を形成することができるため、有益である。   According to such an interactive system, even if there is a projector that cannot detect an optical signal among a plurality of projectors, the second optical signal information can be formed as long as at least one projector can be detected. Be beneficial.

[適用例3]本適用例に係るインタラクティブシステムの制御方法は、光源から射出された光を画像信号に応じて変調して、投写画像として投写面に投写する画像投写部と、前記投写画像を含む範囲を撮像する撮像部とを有する複数のプロジェクターと、前記複数のプロジェクターに前記画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、を備え、前記複数のプロジェクターは、それぞれが投写する前記投写画像を同一の投写領域に重畳させて表示させるように設置されたインタラクティブシステムの制御方法であって、前記複数のプロジェクターのそれぞれは、前記撮像部が撮像した前記光信号に基づく第1の光信号情報を形成する撮像ステップと、前記第1の光信号情報を前記コンピューターに出力する光信号出力ステップと、を有し、前記コンピューターは、前記複数のプロジェクターから前記第1の光信号情報を入力する光信号入力ステップと、前記光信号入力ステップによって入力された複数の前記第1の光信号情報に基づいて、第2の光信号情報を形成する光信号情報処理ステップと、前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作ステップと、を有することを特徴とする。   Application Example 3 An interactive system control method according to this application example includes: an image projection unit that modulates light emitted from a light source according to an image signal and projects the light onto a projection surface as a projection image; A plurality of projectors having an imaging unit that captures a range to include, a computer that supplies the image signals to the plurality of projectors, and a transmitter that transmits an optical signal based on a predetermined operation. Is a control method of an interactive system installed so that the projected images projected by each are superimposed on the same projection area, and each of the plurality of projectors includes the light captured by the imaging unit. An imaging step for forming first optical signal information based on the signal, and outputting the first optical signal information to the computer An optical signal output step, wherein the computer inputs the first optical signal information from the plurality of projectors, and the plurality of first signals input by the optical signal input step. An optical signal information processing step for forming second optical signal information based on the optical signal information of the object, and an object operation step for operating an object included in the image represented by the image signal based on the second optical signal information It is characterized by having.

このようなインタラクティブシステムの制御方法によれば、プロジェクターの撮像部は、異なる方向から投写画像を含む範囲を撮像することができるため、ユーザーがプロジェクターの投写領域の前で発信器を用いる際に、ユーザーに遮られて発信器から発信される光信号を撮像部で検知できない状態となることを低減できる。そして、コンピューターは、光信号に基づいてオブジェクトを操作することが可能になる。   According to such an interactive system control method, since the imaging unit of the projector can capture a range including a projected image from different directions, when the user uses the transmitter in front of the projection area of the projector, It is possible to reduce the situation in which the imaging unit cannot detect an optical signal transmitted from the transmitter by being blocked by the user. Then, the computer can operate the object based on the optical signal.

実施形態に係るインタラクティブシステムの機器の配置を示す説明図。Explanatory drawing which shows arrangement | positioning of the apparatus of the interactive system which concerns on embodiment. スタック投写を行った場合の投写画像を簡略的に表す図。The figure which represents the projection image at the time of performing stack projection simply. インタラクティブシステムの構成を示すブロック図。The block diagram which shows the structure of an interactive system. PCの操作検出処理のフローチャート。The flowchart of the operation detection process of PC.

以下、実施形態について説明する。   Hereinafter, embodiments will be described.

(実施形態)
本実施形態では、撮像部を有する複数のプロジェクターを備えたインタラクティブシステムについて説明する。
(Embodiment)
In the present embodiment, an interactive system including a plurality of projectors having an imaging unit will be described.

図1は、本実施形態に係るインタラクティブシステムの機器の配置を示す説明図である。
図1では、発表者Hがプレゼンテーションを行っている態様を表している。図1に示すように、本実施形態のインタラクティブシステム1は、プロジェクター100と、プロジェクター200と、コンピューターとしてのパーソナルコンピューター(PC)300と、光信号を発信する発信器としての発光ペン400と、発光ペン400を保持した発表者Hと、ホワイトボード等の投写面Sとが表されている。
FIG. 1 is an explanatory diagram showing an arrangement of devices of the interactive system according to the present embodiment.
FIG. 1 shows a mode in which the presenter H is giving a presentation. As shown in FIG. 1, the interactive system 1 of this embodiment includes a projector 100, a projector 200, a personal computer (PC) 300 as a computer, a light-emitting pen 400 as a transmitter that transmits an optical signal, and light emission. A presenter H holding the pen 400 and a projection surface S such as a whiteboard are shown.

プロジェクター100は、投写レンズ13とCCD(Charge Coupled Device)カメラ等からなる撮像部50とを有している。投写レンズ13から投写された投写画像は、投写面Sに投写される。撮像部50は、投写画像を含む範囲を撮像する。ここで、投写画像光は破線で表しており、撮像範囲は一点鎖線で表している。同様に、プロジェクター200は、投写レンズ213と撮像部250とを有している。投写レンズ213から投写された投写画像は、投写面Sに投写される。撮像部250は、投写画像を含む範囲を撮像する。ここで、プロジェクター100およびプロジェクター200は、異なる方向から投写面S上の同一の投写領域に重畳させて投写画像を表示、即ちスタック投写させるように設置されている。そして、プロジェクター100およびプロジェクター200は、スタック投写された投写画像を含む範囲を、それぞれ撮像する。   The projector 100 includes a projection lens 13 and an imaging unit 50 including a CCD (Charge Coupled Device) camera or the like. The projected image projected from the projection lens 13 is projected onto the projection plane S. The imaging unit 50 captures a range including a projected image. Here, the projected image light is represented by a broken line, and the imaging range is represented by an alternate long and short dash line. Similarly, the projector 200 includes a projection lens 213 and an imaging unit 250. The projected image projected from the projection lens 213 is projected on the projection plane S. The imaging unit 250 captures a range including a projected image. Here, the projector 100 and the projector 200 are installed so as to superimpose on the same projection area on the projection surface S from different directions and display a projected image, that is, stack projection. Then, the projector 100 and the projector 200 respectively capture the range including the projected images that are stacked.

PC300は、画像ケーブルC1および通信ケーブルC3を介してプロジェクター100と接続されている。また、PC300は、画像ケーブルC2および通信ケーブルC4を介してプロジェクター200と接続されている。PC300は、画像ケーブルC1を介してプロジェクター100に画像信号を出力し、画像ケーブルC2を介してプロジェクター200に同一の画像信号を出力する。また、PC300は、通信ケーブルC3を介してプロジェクター100から撮像画像の情報を受信し、通信ケーブルC4を介してプロジェクター200から撮像画像の情報を受信する。本実施形態では、画像ケーブルC1,C2は、アナログRGBのケーブルとし、通信ケーブルC3,C4は、USB(Universal Serial Bus)ケーブルとする。なお、画像ケーブルおよび通信ケーブルの種類は他の種別のケーブルとしてもよい。   The PC 300 is connected to the projector 100 via the image cable C1 and the communication cable C3. The PC 300 is connected to the projector 200 via the image cable C2 and the communication cable C4. The PC 300 outputs an image signal to the projector 100 via the image cable C1, and outputs the same image signal to the projector 200 via the image cable C2. Further, the PC 300 receives information about the captured image from the projector 100 via the communication cable C3, and receives information about the captured image from the projector 200 via the communication cable C4. In this embodiment, the image cables C1 and C2 are analog RGB cables, and the communication cables C3 and C4 are USB (Universal Serial Bus) cables. Note that the types of the image cable and the communication cable may be other types of cables.

ここで、スタック投写について説明する。
図2は、スタック投写を行った場合の投写画像を簡略的に表す図である。
Here, stack projection will be described.
FIG. 2 is a diagram simply showing a projected image when stack projection is performed.

図1に示したように2つのプロジェクター100,200を異なる方向から投写面S上の同一の投写領域に重畳させて投写画像を表示させた状態、即ちスタック投写させた状態について説明する。ここで、プロジェクター100とプロジェクター200は、同様の矩形状の画像を投写している。すると、投写面Sに対して斜め方向から投写するため、図2に示すように、プロジェクター100から投写された画像は、投写画像G1のように歪んだ四辺形となる。同様に、プロジェクター200から投写された画像は、投写画像G2のように、投写画像G1と逆方向に歪んだ四辺形となる。また、プロジェクター100の撮像領域P1も歪んだ四辺形となり、プロジェクター200の撮像領域P2も歪んだ四辺形となる。   A state in which two projectors 100 and 200 are superimposed on the same projection area on the projection surface S from different directions as shown in FIG. 1 to display a projection image, that is, a stack projection state will be described. Here, the projector 100 and the projector 200 project the same rectangular image. Then, since the projection is performed from the oblique direction with respect to the projection surface S, the image projected from the projector 100 becomes a distorted quadrilateral as in the projection image G1, as shown in FIG. Similarly, the image projected from the projector 200 becomes a quadrangle distorted in the opposite direction to the projected image G1, as in the projected image G2. Further, the imaging area P1 of the projector 100 is also a distorted quadrilateral, and the imaging area P2 of the projector 200 is also a distorted quadrilateral.

PC300は、投写画像G1および投写画像G2の重畳されている領域のうちの矩形部分を、重畳画像領域G3として算出する。この処理をスタック投写のキャリブレーション処理という。PC300は、プロジェクター100およびプロジェクター200に指示を出し、このスタック投写のキャリブレーション処理によって算出された重畳画像領域G3上に、入力画像に基づく画像が形成されるように、画像の補正処理を行わせる。   The PC 300 calculates a rectangular portion of the region where the projection image G1 and the projection image G2 are superimposed as a superimposed image region G3. This process is called a stack projection calibration process. The PC 300 instructs the projector 100 and the projector 200 to perform image correction processing so that an image based on the input image is formed on the superimposed image region G3 calculated by the stack projection calibration processing. .

さらに、PC300は、撮像領域P1上および撮像領域P2上における座標から重畳画像領域G3上の座標に変換する座標変換式を生成する。そして、この座標変換式を用いることでインタラクティブシステム1は、重畳画像領域G3上で操作された発光ペン400の位置情報(座標)を検出することができる。なお、座標変換式ではなく、座標変換のための変換テーブル(図示せず)を生成してもよい。   Further, the PC 300 generates a coordinate conversion formula for converting the coordinates on the imaging region P1 and the imaging region P2 to the coordinates on the superimposed image region G3. By using this coordinate conversion formula, the interactive system 1 can detect the position information (coordinates) of the light-emitting pen 400 operated on the superimposed image region G3. Instead of the coordinate conversion formula, a conversion table (not shown) for coordinate conversion may be generated.

図3は、本実施形態に係るインタラクティブシステム1の構成を示すブロック図である。
図3に示すように、インタラクティブシステム1は、プロジェクター100と、プロジェクター200と、PC300と、発光ペン400と、投写面Sとを備えて構成されている。
FIG. 3 is a block diagram showing a configuration of the interactive system 1 according to the present embodiment.
As shown in FIG. 3, the interactive system 1 includes a projector 100, a projector 200, a PC 300, a light emitting pen 400, and a projection surface S.

プロジェクター100は、画像投写部10、制御部20、操作受付部21、光源制御部22、画像信号入力部31、画像処理部32、OSD(オンスクリーンディスプレイ)処理部33、撮像部50、光信号出力部51等を備えて構成されている。   The projector 100 includes an image projection unit 10, a control unit 20, an operation reception unit 21, a light source control unit 22, an image signal input unit 31, an image processing unit 32, an OSD (on-screen display) processing unit 33, an imaging unit 50, and an optical signal. An output unit 51 and the like are provided.

画像投写部10は、光源11、光変調装置としての3つの液晶ライトバルブ12R,12G,12B、投写光学系としての投写レンズ13、ライトバルブ駆動部14等を含んでいる。画像投写部10は、光源11から射出された光を、液晶ライトバルブ12R,12G,12Bで変調して画像光を形成し、この画像光を投写レンズ13から投写して投写面S等に表示する。   The image projection unit 10 includes a light source 11, three liquid crystal light valves 12R, 12G, and 12B as light modulation devices, a projection lens 13 as a projection optical system, a light valve drive unit 14, and the like. The image projection unit 10 modulates the light emitted from the light source 11 with the liquid crystal light valves 12R, 12G, and 12B to form image light. The image light is projected from the projection lens 13 and displayed on the projection surface S or the like. To do.

光源11は、超高圧水銀ランプやメタルハライドランプ等からなる放電型の光源ランプ11aと、光源ランプ11aが放射した光を液晶ライトバルブ12R,12G,12B側に反射するリフレクター11bとを含んで構成されている。光源11から射出された光は、図示しないインテグレーター光学系によって輝度分布が略均一な光に変換され、図示しない色分離光学系によって光の3原色である赤色R、緑色G、青色Bの各色光成分に分離された後、それぞれ液晶ライトバルブ12R,12G,12Bに入射する。   The light source 11 includes a discharge-type light source lamp 11a made of an ultra-high pressure mercury lamp, a metal halide lamp, or the like, and a reflector 11b that reflects light emitted from the light source lamp 11a toward the liquid crystal light valves 12R, 12G, and 12B. ing. The light emitted from the light source 11 is converted into light having a substantially uniform luminance distribution by an integrator optical system (not shown), and each color light of red R, green G, and blue B, which are the three primary colors of light, by a color separation optical system (not shown). After being separated into components, they are incident on the liquid crystal light valves 12R, 12G, and 12B, respectively.

液晶ライトバルブ12R,12G,12Bは、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。液晶ライトバルブ12R,12G,12Bには、マトリクス状に配列された複数の画素(図示せず)が形成されており、液晶に対して画素毎に駆動電圧を印加可能になっている。ライトバルブ駆動部14が、入力される画像情報に応じた駆動電圧を各画素に印加すると、各画素は、画像情報に応じた光透過率に設定される。このため、光源11から射出された光は、この液晶ライトバルブ12R,12G,12Bを透過することによって変調され、画像情報に応じた画像が色光毎に形成される。形成された各色の画像は、図示しない色合成光学系によって画素毎に合成されてカラー画像となった後、投写レンズ13から投写される。   The liquid crystal light valves 12R, 12G, and 12B are configured by a liquid crystal panel in which liquid crystal is sealed between a pair of transparent substrates. In the liquid crystal light valves 12R, 12G, and 12B, a plurality of pixels (not shown) arranged in a matrix are formed, and a driving voltage can be applied to the liquid crystal for each pixel. When the light valve driving unit 14 applies a driving voltage corresponding to the input image information to each pixel, each pixel is set to a light transmittance corresponding to the image information. For this reason, the light emitted from the light source 11 is modulated by transmitting through the liquid crystal light valves 12R, 12G, and 12B, and an image corresponding to the image information is formed for each color light. The formed color images are synthesized for each pixel by a color synthesis optical system (not shown) to form a color image, and then projected from the projection lens 13.

制御部20は、CPU(Central Processing Unit)、各種データの一時記憶等に用いられるRAM、および、マスクROMやフラッシュメモリー、FeRAM(Ferroelectric RAM:強誘電体メモリー)等の不揮発性のメモリー等(いずれも図示せず)を備え、コンピューターとして機能するものである。制御部20は、CPUが不揮発性のメモリーに記憶されている制御プログラムに従って動作することにより、プロジェクター100の動作を統括制御する。   The control unit 20 includes a CPU (Central Processing Unit), a RAM used for temporary storage of various data, and a non-volatile memory such as a mask ROM, flash memory, FeRAM (Ferroelectric RAM), etc. (Not shown) and functions as a computer. The control unit 20 performs overall control of the operation of the projector 100 by the CPU operating according to a control program stored in a nonvolatile memory.

操作受付部21は、ユーザーからの入力操作を受け付けるものであり、ユーザーがプロジェクター100に対して各種指示を行うための複数の操作キーを備えている。操作受付部21が備える操作キーとしては、電源のオン・オフを切り替えるための電源キー、各種設定を行うためのメニュー画面の表示・非表示を切り替えるメニューキー、メニュー画面におけるカーソルの移動等に用いられるカーソルキー、各種設定を決定するための決定キー等がある。ユーザーが操作受付部21の各種操作キーを操作(押下)すると、操作受付部21は、この入力操作を受け付けて、ユーザーの操作内容に応じた操作信号を制御部20に出力する。なお、操作受付部21として、遠隔操作が可能なリモコン(図示せず)を用いた構成としてもよい。この場合、リモコンは、ユーザーの操作内容に応じた赤外線等の操作信号を発信し、図示しないリモコン信号受信部がこれを受信して制御部20に伝達する。   The operation receiving unit 21 receives an input operation from the user, and includes a plurality of operation keys for the user to give various instructions to the projector 100. The operation keys provided in the operation accepting unit 21 are a power key for switching power on / off, a menu key for switching display / non-display of a menu screen for performing various settings, and a cursor movement on the menu screen. Cursor keys to be displayed, determination keys for determining various settings, and the like. When the user operates (presses) various operation keys of the operation receiving unit 21, the operation receiving unit 21 receives this input operation and outputs an operation signal corresponding to the operation content of the user to the control unit 20. The operation receiving unit 21 may be configured using a remote control (not shown) capable of remote operation. In this case, the remote controller transmits an operation signal such as an infrared ray corresponding to the operation content of the user, and a remote control signal receiving unit (not shown) receives this and transmits it to the control unit 20.

光源制御部22は、電源回路(図示せず)で生成された直流電流を交流矩形波電流に変換するインバーター(図示せず)や、光源ランプ11aの電極間の絶縁破壊を行って、光源ランプ11aの始動を促すためのイグナイター(図示せず)等を備えており、制御部20の指示に基づいて光源11の点灯を制御する。具体的には、光源制御部22は、光源11を始動させて所定の電力を供給することにより光源11を点灯させるとともに、電力の供給を停止して光源11を消灯させることができる。また、光源制御部22は、制御部20の指示に基づいて光源11に供給する電力を制御することにより、光源11の輝度(明るさ)を調整することが可能である。   The light source control unit 22 performs an insulation breakdown between electrodes of an inverter (not shown) that converts a direct current generated by a power supply circuit (not shown) into an alternating current rectangular wave current and an electrode of the light source lamp 11a. An igniter (not shown) for urging the start of 11a is provided, and lighting of the light source 11 is controlled based on an instruction from the control unit 20. Specifically, the light source control unit 22 can turn on the light source 11 by starting the light source 11 and supplying predetermined power, and can stop the supply of power and turn off the light source 11. The light source control unit 22 can adjust the luminance (brightness) of the light source 11 by controlling the power supplied to the light source 11 based on an instruction from the control unit 20.

画像信号入力部31には、PC300と画像ケーブルC1を介した接続を行うための入力端子(図示せず)が備えられており、PC300から画像信号が入力される。画像信号入力部31は、入力される画像信号を、画像処理部32で処理可能な形式の画像情報に変換して、画像処理部32に出力する。   The image signal input unit 31 is provided with an input terminal (not shown) for connection with the PC 300 via the image cable C1, and an image signal is input from the PC 300. The image signal input unit 31 converts the input image signal into image information in a format that can be processed by the image processing unit 32, and outputs the image information to the image processing unit 32.

画像処理部32は、画像信号入力部31から入力される画像情報を、液晶ライトバルブ12R,12G,12Bの各画素の階調を表す画像データに変換する。ここで、変換された画像データは、R,G,Bの色光別になっており、各液晶ライトバルブ12R,12G,12Bのすべての画素に対応する複数の画素値によって構成されている。画素値とは、対応する画素の光透過率を定めるものであり、この画素値によって、各画素から射出する光の強弱(階調)が規定される。また、画像処理部32は、制御部20の指示に基づき、変換した画像データに対して、明るさ、コントラスト、シャープネス、色合い等を調整するための画質調整処理等を行い、処理後の画像データをOSD処理部33に出力する。   The image processing unit 32 converts the image information input from the image signal input unit 31 into image data representing the gradation of each pixel of the liquid crystal light valves 12R, 12G, and 12B. Here, the converted image data is for each color light of R, G, B, and is composed of a plurality of pixel values corresponding to all the pixels of each liquid crystal light valve 12R, 12G, 12B. The pixel value determines the light transmittance of the corresponding pixel, and the intensity (gradation) of light emitted from each pixel is defined by the pixel value. The image processing unit 32 performs image quality adjustment processing for adjusting brightness, contrast, sharpness, hue, and the like on the converted image data based on an instruction from the control unit 20, and the processed image data Is output to the OSD processing unit 33.

OSD処理部33は、制御部20の指示に基づいて、メニュー画面やメッセージ画面等のOSD画像を、画像処理部32から入力される画像データに重畳する処理を行う。OSD処理部33は、図示しないOSDメモリーを備えており、OSD画像を形成するための図形やフォント等を表すOSD画像データを記憶している。制御部20が、OSD画像の重畳を指示すると、OSD処理部33は、必要なOSD画像データをOSDメモリーから読み出し、入力画像の所定の位置にOSD画像が重畳されるように、画像処理部32から入力される画像データにこのOSD画像データを合成する。OSD画像データが合成された画像データは、ライトバルブ駆動部14に出力される。なお、制御部20からOSD画像を重畳する旨の指示がない場合には、OSD処理部33は、画像処理部32から出力される画像データを、そのままライトバルブ駆動部14に出力する。   The OSD processing unit 33 performs processing for superimposing an OSD image such as a menu screen or a message screen on image data input from the image processing unit 32 based on an instruction from the control unit 20. The OSD processing unit 33 includes an OSD memory (not shown), and stores OSD image data representing graphics, fonts, and the like for forming an OSD image. When the control unit 20 instructs to superimpose an OSD image, the OSD processing unit 33 reads necessary OSD image data from the OSD memory, and the image processing unit 32 so that the OSD image is superimposed at a predetermined position of the input image. The OSD image data is synthesized with the image data input from the. The image data combined with the OSD image data is output to the light valve driving unit 14. When there is no instruction to superimpose the OSD image from the control unit 20, the OSD processing unit 33 outputs the image data output from the image processing unit 32 to the light valve driving unit 14 as it is.

ライトバルブ駆動部14が、OSD処理部33から入力される画像データに従って液晶ライトバルブ12R,12G,12Bを駆動すると、液晶ライトバルブ12R,12G,12Bは、画像データに応じた画像を形成し、この画像が投写レンズ13から投写される。   When the light valve driving unit 14 drives the liquid crystal light valves 12R, 12G, and 12B according to the image data input from the OSD processing unit 33, the liquid crystal light valves 12R, 12G, and 12B form images according to the image data, This image is projected from the projection lens 13.

撮像部50は、CCDセンサー、或いはCMOS(Complementary Metal Oxide Semiconductor)センサー等からなる撮像素子等(図示せず)と、撮像対象から発せられた光を撮像素子上に結像させるための撮像レンズ(図示せず)を備えている。撮像部50は、プロジェクター100の投写レンズ13の近傍に配置され、投写面Sに投写された画像(投写画像)を含む範囲を所定のフレームレートで撮像する。本実施形態では、撮像部50は、赤外光を撮像可能となっている。そして、撮像部50は、撮像した赤外光の画像(撮像画像)を表す光信号画像情報を順次生成し、光信号出力部51から出力する。ここで、光信号画像情報が、第1の光信号情報に相当する。なお、スタック投写のキャリブレーション処理の際には、撮像部50は、可視光を撮像可能とする。   The imaging unit 50 includes an imaging element (not shown) including a CCD sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and an imaging lens (not shown) for imaging light emitted from an imaging target on the imaging element. (Not shown). The imaging unit 50 is disposed in the vicinity of the projection lens 13 of the projector 100 and images a range including an image (projected image) projected on the projection surface S at a predetermined frame rate. In the present embodiment, the imaging unit 50 can capture infrared light. Then, the imaging unit 50 sequentially generates optical signal image information representing the captured infrared light image (captured image) and outputs the optical signal image information from the optical signal output unit 51. Here, the optical signal image information corresponds to the first optical signal information. Note that in the stack projection calibration process, the imaging unit 50 can capture visible light.

光信号出力部51は、所定の通信手段を用い、通信ケーブルC3を介して、PC300に、撮像部50が撮像した光信号画像情報を出力する。本実施形態では、光信号出力部51が用いる通信手段は、USBを用いた通信手段とする。なお、光信号出力部51が用いる通信手段は、USBに限定するものではなく、他の通信手段を用いてもよい。   The optical signal output unit 51 outputs optical signal image information captured by the imaging unit 50 to the PC 300 via a communication cable C3 using a predetermined communication unit. In this embodiment, the communication means used by the optical signal output unit 51 is a communication means using USB. The communication means used by the optical signal output unit 51 is not limited to the USB, and other communication means may be used.

プロジェクター200は、プロジェクター100と同様な構成とする。よって、説明は省略する。   The projector 200 has the same configuration as the projector 100. Therefore, the description is omitted.

発光ペン400は、ペン状の本体の先端部(ペン先)に、押圧スイッチと、赤外光を発する発光ダイオードとを備えている。そして、ユーザーが発光ペン400のペン先を投写面Sに押し付ける操作(押圧操作)を行って、押圧スイッチを押圧すると、発光ダイオードが発光するようになっている。   The light-emitting pen 400 includes a push switch and a light-emitting diode that emits infrared light at the tip (pen tip) of a pen-shaped main body. When the user performs an operation (pressing operation) of pressing the pen tip of the light emitting pen 400 against the projection surface S and presses the pressing switch, the light emitting diode emits light.

PC300は、光信号入力部310、光信号情報変換部320、光信号情報処理部330、操作部340、CPU350、メモリー360、画像出力部370を備えている。ここで、光信号情報処理部330、操作部340、CPU350、メモリー360、画像出力部370は、バスBを介して互いに接続されている。   The PC 300 includes an optical signal input unit 310, an optical signal information conversion unit 320, an optical signal information processing unit 330, an operation unit 340, a CPU 350, a memory 360, and an image output unit 370. Here, the optical signal information processing unit 330, the operation unit 340, the CPU 350, the memory 360, and the image output unit 370 are connected to each other via the bus B.

光信号入力部310は、所定の通信手段を用い、通信ケーブルC3を介して、プロジェクター100から光信号画像情報を入力する。また、光信号入力部310は、通信ケーブルC4を介して、プロジェクター200から光信号画像情報を入力する。本実施形態では、光信号入力部310が用いる通信手段は、USBを用いた通信手段とする。なお、光信号出力部51が用いる通信手段は、USBに限定するものではなく、他の通信手段を用いてもよい。   The optical signal input unit 310 inputs optical signal image information from the projector 100 via a communication cable C3 using a predetermined communication unit. The optical signal input unit 310 inputs optical signal image information from the projector 200 via the communication cable C4. In this embodiment, the communication means used by the optical signal input unit 310 is a communication means using USB. The communication means used by the optical signal output unit 51 is not limited to the USB, and other communication means may be used.

光信号情報変換部320は、座標変換情報記憶部320aを有している。座標変換情報記憶部320aには、前述した撮像領域P1上および撮像領域P2上における座標から重畳画像領域G3上の座標に変換する座標変換式が記憶される。光信号情報変換部320は、光信号入力部310に入力された光信号画像情報を、座標変換情報記憶部320aに記憶された座標変換式に基づいて重畳画像領域G3上の位置情報(座標)に変換する。具体的には、光信号画像情報に基づいて、画像内で発光ペン400が発光したか否かを判別する。そして、発光があった場合には、発光した位置、即ち撮像画像内において押圧操作がなされた位置情報(座標)を検出する。光信号情報変換部320は、発光した位置情報(座標)を検出すると、座標変換式を用いて、撮像画像上の位置情報から重畳画像領域G3上の位置情報(座標)への変換を行う。   The optical signal information conversion unit 320 includes a coordinate conversion information storage unit 320a. The coordinate conversion information storage unit 320a stores a coordinate conversion formula for converting the coordinates on the imaging region P1 and the imaging region P2 described above to the coordinates on the superimposed image region G3. The optical signal information conversion unit 320 converts the optical signal image information input to the optical signal input unit 310 into position information (coordinates) on the superimposed image region G3 based on the coordinate conversion formula stored in the coordinate conversion information storage unit 320a. Convert to Specifically, based on the optical signal image information, it is determined whether or not the light emitting pen 400 emits light within the image. When light is emitted, the position of light emission, that is, position information (coordinates) where a pressing operation is performed in the captured image is detected. When detecting the emitted position information (coordinates), the optical signal information conversion unit 320 converts the position information on the captured image into position information (coordinates) on the superimposed image region G3 using a coordinate conversion formula.

光信号情報処理部330は、プロジェクター100から入力された光信号画像情報に基づく重畳画像領域G3上の位置情報(座標)と、プロジェクター200から入力された光信号画像情報に基づく重畳画像領域G3上の位置情報(座標)とを合成し、発光した位置を表す光位置情報として認識する。光位置情報が、第2の光信号情報に相当する。さらに、光信号情報処理部330は、プロジェクター100から入力された光信号画像情報と、プロジェクター200から入力された光信号画像情報とに基づき、発光ペン400の発信パターン(発光パターン)を、発信パターン情報として認識する。   The optical signal information processing unit 330 includes position information (coordinates) on the superimposed image region G3 based on the optical signal image information input from the projector 100, and the superimposed image region G3 based on the optical signal image information input from the projector 200. The position information (coordinates) is synthesized and recognized as light position information representing the light emission position. The optical position information corresponds to the second optical signal information. Further, the optical signal information processing unit 330 changes the transmission pattern (light emission pattern) of the light-emitting pen 400 based on the optical signal image information input from the projector 100 and the optical signal image information input from the projector 200. Recognize as information.

操作部340は、PC300に対して各種指示を行うためのキーボードやマウス等を備えている。メモリー360には、発光ペン400をポインティングデバイスのように利用するためのソフトウェア(デバイスドライバー)が記憶されている。そして、このソフトウェアが起動した状態では、PC300は、プロジェクター100および200から入力される光信号画像情報に基づく光位置情報に基づいて、投写画像内で発光ペン400が発光した位置、即ち投写画像内において押圧操作がなされた位置を認識する。そして、画像に含まれるオブジェクトを操作する。このときのPC300のソフトウェア動作を行うCPU350が、オブジェクト操作部に相当する。PC300は、発光した位置を認識すると、この位置でポインティングデバイスによるクリック操作がなされた場合と同一の処理を行う。つまり、ユーザーは、投写画像内において発光ペン400で押圧操作を行うことにより、PC300に対して、ポインティングデバイスで行う指示と同一の指示を行うことができる。   The operation unit 340 includes a keyboard, a mouse, and the like for giving various instructions to the PC 300. The memory 360 stores software (device driver) for using the light-emitting pen 400 like a pointing device. In a state where this software is activated, the PC 300, based on the optical position information based on the optical signal image information input from the projectors 100 and 200, the position where the light emitting pen 400 emits light in the projected image, that is, in the projected image. The position where the pressing operation is performed is recognized. Then, the object included in the image is operated. The CPU 350 that performs the software operation of the PC 300 at this time corresponds to the object operation unit. When the PC 300 recognizes the light emission position, the PC 300 performs the same processing as when a click operation is performed with the pointing device at this position. That is, the user can give the same instruction to the PC 300 with the pointing device by performing a pressing operation with the light emitting pen 400 in the projected image.

画像出力部370は、画像に基づいた画像信号をプロジェクター100およびプロジェクター200に出力する。   The image output unit 370 outputs an image signal based on the image to the projector 100 and the projector 200.

次に、インタラクティブシステム1のPC300が行う発光ペン400の操作検出処理について説明する。
図4はPC300の操作検出処理のフローチャートである。
Next, operation detection processing of the light emitting pen 400 performed by the PC 300 of the interactive system 1 will be described.
FIG. 4 is a flowchart of the operation detection process of the PC 300.

プロジェクター100,200から、PC300の光信号入力部310に光信号画像情報が入力されると、光信号情報変換部320は、入力された光信号画像情報を座標変換式に基づいて重畳画像領域G3上の位置情報に変換する(ステップS101)。   When the optical signal image information is input from the projectors 100 and 200 to the optical signal input unit 310 of the PC 300, the optical signal information conversion unit 320 converts the input optical signal image information into a superimposed image region G3 based on a coordinate conversion formula. The position information is converted into the upper position information (step S101).

光信号情報処理部330は、プロジェクター100から入力された光信号画像情報に基づいた位置情報と、プロジェクター200から入力された光信号画像情報に基づいた位置情報とを合成する(ステップS102)。このように合成することによって、プロジェクター100およびプロジェクター200から入力された2つの光信号画像情報の一方において発光ペン400の光信号が検出されず、他の一方において光信号が検出された場合に、光信号情報処理部330は光信号情報を認識することが可能になる。   The optical signal information processing unit 330 combines position information based on the optical signal image information input from the projector 100 and position information based on the optical signal image information input from the projector 200 (step S102). By combining in this way, when the optical signal of the light emitting pen 400 is not detected in one of the two optical signal image information input from the projector 100 and the projector 200 and the optical signal is detected in the other one, The optical signal information processing unit 330 can recognize the optical signal information.

光信号情報処理部330は、合成された位置情報に基づいて、発光ペン400の光信号を検知した光位置情報を認識する(ステップS103)。さらに、光信号情報処理部330は、発光ペン400の発信パターン情報を認識する(ステップS104)。   The optical signal information processing unit 330 recognizes the optical position information obtained by detecting the optical signal of the light emitting pen 400 based on the synthesized position information (step S103). Furthermore, the optical signal information processing unit 330 recognizes the transmission pattern information of the light emitting pen 400 (step S104).

そして、CPU350は、光位置情報および発信パターン情報に基づいて、画像に含まれるオブジェクトを操作する(ステップS105)。ここで、オブジェクトの操作とは、光位置情報が表す画像上の位置において、ポインティングデバイスによるクリック操作がなされた場合と同一の処理を表す。そして、PC300の操作検出処理を終了する。   Then, CPU 350 operates an object included in the image based on the light position information and the transmission pattern information (step S105). Here, the operation of the object represents the same processing as that when the click operation is performed by the pointing device at the position on the image represented by the light position information. And the operation detection process of PC300 is complete | finished.

上述した実施形態によれば、以下の効果が得られる。
(1)インタラクティブシステム1のプロジェクター100およびプロジェクター200は、投写画像を同一の投写領域に重畳させて表示し、それぞれの撮像部50は、投写画像を含む範囲を撮像して光信号画像情報として、PC300に出力する。PC300は、プロジェクター100とプロジェクター200から入力された光信号画像情報に基づいて位置情報を形成する。これにより、プロジェクター100,200は、異なる方向から投写画像を含む範囲を撮像することができるため、発表者Hがプロジェクターの投写領域の前で発光ペン400を用いる際に、一方の撮像画像が遮られても、他方の撮像画像を用いて、発光ペン400によるペン入力操作を検知することができる。よって、発表者Hに遮られて発光ペン400から発信される光信号の情報を撮像部50で撮像できない状態となることを低減することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The projector 100 and the projector 200 of the interactive system 1 display the projected image superimposed on the same projection area, and each imaging unit 50 captures a range including the projected image as optical signal image information. Output to PC300. The PC 300 forms position information based on the optical signal image information input from the projector 100 and the projector 200. Thus, since the projectors 100 and 200 can capture the range including the projected image from different directions, when the presenter H uses the light-emitting pen 400 in front of the projection area of the projector, one captured image is blocked. Even in this case, the pen input operation by the light emitting pen 400 can be detected using the other captured image. Therefore, it is possible to reduce the situation in which the information on the optical signal transmitted from the light emitting pen 400 by being blocked by the presenter H cannot be captured by the imaging unit 50.

(2)インタラクティブシステム1のPC300は、プロジェクター100およびプロジェクター200から入力された光信号画像情報に基づいた位置情報の合成を行う。PC300は、合成された位置情報に基づいて、発光ペン400の光信号を検知した光位置情報と発信パターン情報とを認識する。そして、PC300は、光位置情報および発信パターン情報に基づいて、画像に含まれるオブジェクトを操作する。これにより、プロジェクター100またはプロジェクター200のうち、少なくとも一方が撮像領域を撮像できていれば、PC300は、位置情報の合成を行うことで、光位置情報および発信パターン情報に基づいて、画像に含まれるオブジェクトを操作することが可能であるため、有益である。   (2) The PC 300 of the interactive system 1 combines position information based on optical signal image information input from the projector 100 and the projector 200. The PC 300 recognizes the light position information and the transmission pattern information detected from the light signal of the light-emitting pen 400 based on the combined position information. Then, the PC 300 operates an object included in the image based on the light position information and the transmission pattern information. As a result, if at least one of the projector 100 and the projector 200 is able to capture an imaging region, the PC 300 includes the positional information, and is included in the image based on the optical positional information and the transmission pattern information. This is beneficial because it can manipulate objects.

なお、上述した実施形態に限定されず、種々の変更や改良等を加えて実施することが可能である。変形例を以下に述べる。   In addition, it is not limited to embodiment mentioned above, It is possible to implement by adding various change, improvement, etc. A modification will be described below.

(変形例1)上記実施形態では、インタラクティブシステム1は、撮像部を有するプロジェクターを2つ備えるものとしたが、撮像部を有するプロジェクターの数はこれに限定するものではなく、2つ以上としてもよい。   (Modification 1) In the above embodiment, the interactive system 1 includes two projectors having an imaging unit. However, the number of projectors having an imaging unit is not limited to this, and may be two or more. Good.

(変形例2)上記実施形態では、PC300は、プロジェクター100およびプロジェクター200の光信号画像情報に基づいた位置情報の合成を行うものとした。しかし、位置情報の合成は行わずに、一方のプロジェクターの光信号画像情報に基づいた位置情報によって、発光ペン400の光信号の有無を判断し、光信号が検出されなかった場合に、他方のプロジェクターの光信号画像情報に基づいた位置情報を用いて光信号の検出を行うものとしてもよい。   (Modification 2) In the above embodiment, the PC 300 performs composition of position information based on the optical signal image information of the projector 100 and the projector 200. However, without synthesizing the position information, the presence or absence of the light signal of the light-emitting pen 400 is determined based on the position information based on the light signal image information of one projector, and when the light signal is not detected, The optical signal may be detected using position information based on the optical signal image information of the projector.

(変形例3)上記実施形態では、光信号情報変換部320および光信号情報処理部330は、独立した構成要素として記載しているが、メモリー360内にプログラムとして内蔵する構成としてもよい。そして、CPU350がメモリー360の当該プログラムを実行することで、光信号画像情報を位置情報へ変換する処理や、位置情報の合成処理、光位置情報の認識処理、発信パターン情報の認識処理等を行ってもよい。   (Modification 3) In the above embodiment, the optical signal information conversion unit 320 and the optical signal information processing unit 330 are described as independent components, but may be configured to be built in the memory 360 as a program. The CPU 350 executes the program in the memory 360 to perform processing for converting light signal image information into position information, position information synthesis processing, light position information recognition processing, transmission pattern information recognition processing, and the like. May be.

(変形例4)上記実施形態では、投写画像に対して、赤外光を発光する発光ペン400を用いて操作を行う態様を示したが、この態様に限定されず、例えば、レーザーポインターで操作を行う態様としてもよい。   (Modification 4) In the above-described embodiment, a mode in which an operation is performed on a projected image using the light-emitting pen 400 that emits infrared light has been described. However, the present invention is not limited to this mode. It is good also as a mode which performs.

(変形例5)上記実施形態では、プロジェクター100,200の光源11は、放電型の光源ランプ11aによって構成されているが、LED(Light Emitting Diode)光源やレーザー等の固体光源や、その他の光源を用いることもできる。   (Modification 5) In the above-described embodiment, the light source 11 of the projectors 100 and 200 is constituted by the discharge-type light source lamp 11a. However, a solid-state light source such as an LED (Light Emitting Diode) light source or a laser, or other light source. Can also be used.

(変形例6)上記実施形態では、プロジェクター100,200の光変調装置として、透過型の液晶ライトバルブ12R,12G,12Bを用いているが、反射型の液晶ライトバルブ等、反射型の光変調装置を用いることも可能である。また、入射した光の射出方向を、画素としてのマイクロミラー毎に制御することにより、光源から射出した光を変調する微小ミラーアレイデバイス等を用いることもできる。   (Modification 6) In the above embodiment, the transmissive liquid crystal light valves 12R, 12G, and 12B are used as the light modulation devices of the projectors 100 and 200. However, the reflective light modulation such as a reflective liquid crystal light valve is used. It is also possible to use a device. In addition, it is possible to use a micromirror array device that modulates light emitted from a light source by controlling the emission direction of incident light for each micromirror as a pixel.

1…インタラクティブシステム、10…画像投写部、11…光源、11a…光源ランプ、11b…リフレクター、12R,12G,12B…液晶ライトバルブ、13…投写レンズ、14…ライトバルブ駆動部、20…制御部、21…操作受付部、22…光源制御部、31…画像信号入力部、32…画像処理部、33…OSD処理部、50…撮像部、51…光信号出力部、100,200…プロジェクター、213…投写レンズ、250…撮像部、300…PC、310…光信号入力部、320…光信号情報変換部、320a…座標変換情報記憶部、330…光信号情報処理部、340…操作部、350…CPU、360…メモリー、370…画像出力部、400…発光ペン。   DESCRIPTION OF SYMBOLS 1 ... Interactive system, 10 ... Image projection part, 11 ... Light source, 11a ... Light source lamp, 11b ... Reflector, 12R, 12G, 12B ... Liquid crystal light valve, 13 ... Projection lens, 14 ... Light valve drive part, 20 ... Control part , 21 ... Operation accepting part, 22 ... Light source control part, 31 ... Image signal input part, 32 ... Image processing part, 33 ... OSD processing part, 50 ... Imaging part, 51 ... Optical signal output part, 100, 200 ... Projector, 213 ... Projection lens, 250 ... Imaging unit, 300 ... PC, 310 ... Optical signal input unit, 320 ... Optical signal information conversion unit, 320a ... Coordinate conversion information storage unit, 330 ... Optical signal information processing unit, 340 ... Operation unit, 350 ... CPU, 360 ... memory, 370 ... image output unit, 400 ... light emitting pen.

[適用例1]本適用例に係るインタラクティブシステムは、第1のカメラと、前記第1のカメラとは異なる第2のカメラと、プロジェクターと、前記ロジェクターに画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、前記光信号に基づく光信号情報を出力する光信号出力部と、を備えたインタラクティブシステムであって、前記ロジェクターは、光源から射出された光を前記画像信号に応じて変調して、投写画像として投写面に投写する画像投写部を有し、前記第1のカメラおよび前記第2のカメラはそれぞれ、前記投写画像を含む範囲を撮像することにより、前記光信号に基づく第1の光信号情報を形成し、
前記光信号出力部は、前記第1の光信号情報を前記コンピューターに出力をし、前記コンピューターは、前記光信号出力部から前記第1の光信号情報を入力する光信号入力部と、前記第1のカメラが形成した前記第1の光信号情報に前記光信号が存在するか否かを判定し、前記光信号が存在すると判定した場合は前記第1のカメラが形成した前記第1の光信号情報に基づいて第2の光信号情報を形成し、前記光信号が存在しないと判定した場合は前記第2のカメラが形成した前記第1の光信号情報に基づいて前記第2の光信号情報を形成する光信号情報処理部と、前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作部と、を有することを特徴とする。
Application Example 1 the interactive system according to this application example, the first camera, and the first different second camera and the camera, and the projector, and computer supplies an image signal to the projector, the predetermined a transmitter for transmitting a basis optical signal to the operation, an optical signal output unit for outputting an optical signal information based on the optical signal, a interactive system wherein the projector, light emitted from the light source An image projection unit that modulates the image according to the image signal and projects the projected image onto a projection surface, and the first camera and the second camera each capture a range including the projection image. Accordingly, to form a first optical signal information based on the optical signal,
The optical signal output section, said first optical signal information to output to the computer, the computer, an optical signal input unit for inputting the first optical signal information from the optical signal output section, said first It is determined whether or not the optical signal is present in the first optical signal information formed by one camera. If it is determined that the optical signal is present, the first light formed by the first camera is determined. Second optical signal information is formed based on the signal information, and when it is determined that the optical signal does not exist, the second optical signal is formed based on the first optical signal information formed by the second camera. An optical signal information processing unit that forms information, and an object operation unit that operates an object included in an image represented by the image signal based on the second optical signal information.

このようなインタラクティブシステムによれば、第1のカメラおよび第2のカメラは、異なる方向から投写画像を含む範囲を撮像することができるため、ユーザーがプロジェクターの投写領域の前で発信器を用いる際に、ユーザーに遮られて発信器から発信される光信号を撮像部で検知できない状態となることを低減できる。そして、コンピューターは、光信号に基づいてオブジェクトを操作することが可能になる。
According to such an interactive system, since the first camera and the second camera can capture a range including a projected image from different directions, the user uses the transmitter in front of the projection area of the projector. In addition, it is possible to reduce the situation in which the imaging unit cannot detect the optical signal transmitted from the transmitter by being blocked by the user. Then, the computer can operate the object based on the optical signal.

[適用例3]本適用例に係るインタラクティブシステムの制御方法は、光源から射出された光を画像信号に応じて変調して、投写画像として投写面に投写する画像投写部有するロジェクターと、前記投写画像を含む範囲を撮像する第1のカメラおよび第2のカメラと、前記プロジェクターに前記画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、を備えインタラクティブシステムの制御方法であって、前記第1のカメラおよび前記第2のカメラが撮像した前記光信号に基づく第1の光信号情報を形成する撮像ステップと、前記第1の光信号情報を前記コンピューターに出力する光信号出力ステップと、前記コンピューターが前記第1のカメラおよび前記第2のカメラから前記第1の光信号情報を入力する光信号入力ステップと、前記第1のカメラから入力した前記第1の光信号情報に前記光信号が存在するか否かを判定し、前記光信号が存在すると判定した場合は前記第1のカメラから入力した前記第1の光信号情報に基づいて第2の光信号情報を形成し、前記光信号が存在しないと判定した場合は前記第2のカメラから入力した前記第1の光信号情報に基づいて前記第2の光信号情報を形成する光信号情報処理ステップと、前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作ステップと、を有することを特徴とする。
Application Example 3] The method of an interactive system according to this application example, by modulating the light emitted from the light source to an image signal, and a projector having an image projection section that projects the projection plane as a projected image, An interactive system comprising: a first camera and a second camera that capture a range including the projected image; a computer that supplies the image signal to the projector; and a transmitter that transmits an optical signal based on a predetermined operation. A method of controlling a system, wherein an imaging step of forming first optical signal information based on the optical signal captured by the first camera and the second camera, and the first optical signal information as the computer an optical signal output step of outputting, the computer said first optical signal information from said first camera and said second camera input to To the optical signal input step, said whether the optical signal is present is determined in the first optical signal information input from the first camera, when it is determined that the optical signal is present the first second to form a light signal information based on the first optical signal information inputted from the camera, if it is determined that the optical signal is not present the first optical signal information inputted from said second camera An optical signal information processing step for forming the second optical signal information based on the information, and an object operation step for operating an object included in the image represented by the image signal based on the second optical signal information. It is characterized by that.

このようなインタラクティブシステムの制御方法によれば、第1のカメラおよび第2のカメラは、異なる方向から投写画像を含む範囲を撮像することができるため、ユーザーがプロジェクターの投写領域の前で発信器を用いる際に、ユーザーに遮られて発信器から発信される光信号を撮像部で検知できない状態となることを低減できる。そして、光信号に基づいてオブジェクトを操作することが可能になる。 According to such an interactive system control method, since the first camera and the second camera can capture a range including a projected image from different directions, the user can transmit the transmitter in front of the projection area of the projector. When using this, it is possible to reduce the situation in which the imaging unit cannot detect the optical signal transmitted from the transmitter by being blocked by the user. Then, the object can be operated based on the optical signal.

Claims (2)

第1のプロジェクターおよび前記第1のプロジェクターとは異なる第2のプロジェクターを含む複数のプロジェクターと、前記複数のプロジェクターに画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、を備えたインタラクティブシステムであって、
前記複数のプロジェクターは、それぞれが投写する投写画像を同一の投写領域に重畳させて表示させるように設置され、
前記複数のプロジェクターのそれぞれは、
光源から射出された光を前記画像信号に応じて変調して、前記投写画像として投写面に投写する画像投写部と、
前記投写画像を含む範囲を撮像して前記光信号に基づく第1の光信号情報を形成する撮像部と、
前記第1の光信号情報を前記コンピューターに出力する光信号出力部と、
を有し、
前記コンピューターは、
前記複数のプロジェクターから前記第1の光信号情報を入力する光信号入力部と、
前記第1のプロジェクターから入力した前記第1の光信号情報に前記光信号が存在するか否かを判定し、前記光信号が存在すると判定した場合は前記第1のプロジェクターから入力した前記第1の光信号情報に基づいて第2の光信号情報を形成し、前記光信号が存在しないと判定した場合は前記第2のプロジェクターから入力した前記第1の光信号情報に基づいて前記第2の光信号情報を形成する光信号情報処理部と、
前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作部と、
を有することを特徴とするインタラクティブシステム。
A plurality of projectors including a first projector and a second projector different from the first projector; a computer that supplies image signals to the plurality of projectors; and a transmitter that transmits an optical signal based on a predetermined operation; , An interactive system comprising
The plurality of projectors are installed so that projection images projected by the projectors are superimposed on the same projection area and displayed.
Each of the plurality of projectors is
An image projection unit that modulates light emitted from a light source according to the image signal and projects the light onto the projection surface as the projection image;
An imaging unit that captures a range including the projected image and forms first optical signal information based on the optical signal;
An optical signal output unit for outputting the first optical signal information to the computer;
Have
The computer
An optical signal input unit for inputting the first optical signal information from the plurality of projectors;
It is determined whether or not the optical signal is present in the first optical signal information input from the first projector. If it is determined that the optical signal is present, the first optical signal input from the first projector is determined. Second optical signal information is formed based on the optical signal information of the second optical signal, and when it is determined that the optical signal does not exist, the second optical signal information is input based on the first optical signal information input from the second projector. An optical signal information processing unit for forming optical signal information;
An object operation unit that operates an object included in an image represented by the image signal based on the second optical signal information;
An interactive system characterized by comprising:
光源から射出された光を画像信号に応じて変調して、投写画像として投写面に投写する画像投写部と、前記投写画像を含む範囲を撮像する撮像部とを有する複数のプロジェクターと、前記複数のプロジェクターに前記画像信号を供給するコンピューターと、所定の操作に基づき光信号を発信する発信器と、を備え、前記複数のプロジェクターは、それぞれが投写する前記投写画像を同一の投写領域に重畳させて表示させるように設置されたインタラクティブシステムの制御方法であって、
前記複数のプロジェクターは第1のプロジェクターおよび前記第1のプロジェクターとは異なる第2のプロジェクターを含み、前記複数のプロジェクターのそれぞれは、
前記撮像部が撮像した前記光信号に基づく第1の光信号情報を形成する撮像ステップと、
前記第1の光信号情報を前記コンピューターに出力する光信号出力ステップと、
を有し、
前記コンピューターは、
前記複数のプロジェクターから前記第1の光信号情報を入力する光信号入力ステップと、
前記第1のプロジェクターから入力した前記第1の光信号情報に前記光信号が存在するか否かを判定し、前記光信号が存在すると判定した場合は前記第1のプロジェクターから入力した前記第1の光信号情報に基づいて第2の光信号情報を形成し、前記光信号が存在しないと判定した場合は前記第2のプロジェクターから入力した前記第1の光信号情報に基づいて前記第2の光信号情報を形成する光信号情報処理ステップと、
前記第2の光信号情報に基づき、前記画像信号が表す画像に含まれるオブジェクトを操作するオブジェクト操作ステップと、
を有することを特徴とするインタラクティブシステムの制御方法。
A plurality of projectors each including an image projection unit that modulates light emitted from a light source according to an image signal and projects the light onto a projection plane as a projection image; and an imaging unit that captures a range including the projection image; A computer for supplying the image signal to the projector and a transmitter for transmitting an optical signal based on a predetermined operation, wherein the plurality of projectors superimpose the projection images projected by the projector on the same projection area. Control method of interactive system installed to display
The plurality of projectors includes a first projector and a second projector different from the first projector, and each of the plurality of projectors includes:
An imaging step of forming first optical signal information based on the optical signal captured by the imaging unit;
An optical signal output step of outputting the first optical signal information to the computer;
Have
The computer
An optical signal input step of inputting the first optical signal information from the plurality of projectors;
It is determined whether or not the optical signal is present in the first optical signal information input from the first projector. If it is determined that the optical signal is present, the first optical signal input from the first projector is determined. Second optical signal information is formed based on the optical signal information of the second optical signal, and when it is determined that the optical signal does not exist, the second optical signal information is input based on the first optical signal information input from the second projector. An optical signal information processing step for forming optical signal information;
An object operation step of operating an object included in an image represented by the image signal based on the second optical signal information;
A control method for an interactive system, comprising:
JP2015053022A 2015-03-17 2015-03-17 Interactive system and control method of interactive system Withdrawn JP2015146611A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015053022A JP2015146611A (en) 2015-03-17 2015-03-17 Interactive system and control method of interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015053022A JP2015146611A (en) 2015-03-17 2015-03-17 Interactive system and control method of interactive system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011107937A Division JP5724607B2 (en) 2011-05-13 2011-05-13 Interactive system and method for controlling interactive system

Publications (1)

Publication Number Publication Date
JP2015146611A true JP2015146611A (en) 2015-08-13

Family

ID=53890617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015053022A Withdrawn JP2015146611A (en) 2015-03-17 2015-03-17 Interactive system and control method of interactive system

Country Status (1)

Country Link
JP (1) JP2015146611A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691880B1 (en) * 2015-09-23 2017-01-03 (주) 이즈커뮤니케이션즈 Interactive System Having Auto Calibration Function And Auto Calibration Method of Interactive System
WO2021210155A1 (en) * 2020-04-17 2021-10-21 日本電信電話株式会社 Display device, display method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185395A (en) * 1997-09-08 1999-03-30 Sharp Corp Liquid crystal projector device with pointing function
JP2002116878A (en) * 2000-10-12 2002-04-19 Seiko Epson Corp Picture generation system and presentation system and information storage medium
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method
JP2007514242A (en) * 2003-12-09 2007-05-31 マシュー ベル、 Built-in interactive video display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185395A (en) * 1997-09-08 1999-03-30 Sharp Corp Liquid crystal projector device with pointing function
JP2002116878A (en) * 2000-10-12 2002-04-19 Seiko Epson Corp Picture generation system and presentation system and information storage medium
JP2007514242A (en) * 2003-12-09 2007-05-31 マシュー ベル、 Built-in interactive video display system
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101691880B1 (en) * 2015-09-23 2017-01-03 (주) 이즈커뮤니케이션즈 Interactive System Having Auto Calibration Function And Auto Calibration Method of Interactive System
WO2021210155A1 (en) * 2020-04-17 2021-10-21 日本電信電話株式会社 Display device, display method, and program

Similar Documents

Publication Publication Date Title
US9041695B2 (en) Projector and method of controlling projector
JP5673191B2 (en) Interactive system, position information conversion method, and projector
US9396520B2 (en) Projector system and control method thereof
CN108446047B (en) Display device and display control method
US20140071099A1 (en) Display device and method of controlling display device
US20200082795A1 (en) Image display device and method of controlling same
US10431131B2 (en) Projector and control method for projector
US11282422B2 (en) Display device, and method of controlling display device
US10701325B2 (en) Multi-projection system, projector, and method for controlling projector
JP5672126B2 (en) Interactive system, interactive system control method, and projector
US9830723B2 (en) Both-direction display method and both-direction display apparatus
JP6119170B2 (en) Projector and projector control method
JP2019045549A (en) Image projection system, terminal device, and control method for image projection system
JP6269801B2 (en) Projector and projector control method
JP6273671B2 (en) Projector, display system, and projector control method
US10909947B2 (en) Display device, display system, and method of controlling display device
JP2015146611A (en) Interactive system and control method of interactive system
JP5724607B2 (en) Interactive system and method for controlling interactive system
JP5967183B2 (en) Interactive system, projector, and projector control method
JP5899993B2 (en) Image display device, image display system, and control method of image display device
JP2016008999A (en) Projector and control method of projector
JP2009223107A (en) Projector and image display method thereof
JP2022133582A (en) Display device control method, display device and display system
JP2021089304A (en) Operation method for control unit and control unit
JP2013195659A (en) Display device and display control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160804