JP2010061433A - Projector, projecting method, and program - Google Patents

Projector, projecting method, and program Download PDF

Info

Publication number
JP2010061433A
JP2010061433A JP2008226911A JP2008226911A JP2010061433A JP 2010061433 A JP2010061433 A JP 2010061433A JP 2008226911 A JP2008226911 A JP 2008226911A JP 2008226911 A JP2008226911 A JP 2008226911A JP 2010061433 A JP2010061433 A JP 2010061433A
Authority
JP
Japan
Prior art keywords
pointer
image
drawing operation
projection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008226911A
Other languages
Japanese (ja)
Inventor
Tomoya Makino
友哉 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2008226911A priority Critical patent/JP2010061433A/en
Publication of JP2010061433A publication Critical patent/JP2010061433A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To remotely operate various settings related to projection from an external equipment side with a simple configuration. <P>SOLUTION: A projector includes a radio LAN antenna 54 and a radio LAN interface 52 for inputting image signals from external equipment provided with a pointing device, projection systems 33-46, 2a for projecting the images based on the input image signals, a CPU 47 for extracting a position of a pointer moving in accordance with the operation of the pointing device from among the input image signals, holding the history of moving of the extracted pointer for a fixed period of time, storing specific operation for drawing by the pointer to a selectable operational function in association with each other, determining whether the specific operation for drawing is performed or not from the history of moving of the held pointer for a fixed period of time, and setting the operational function associated with the stored operation for drawing when it is determined that the specific operation for drawing is performed, and a main memory 48 and a program memory 49. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えばパーソナルコンピュータとデータプロジェクタ装置とを接続してプレゼンテーションを行なう場合に好適な投影装置、投影方法及びプログラムに関する。   The present invention relates to a projection apparatus, a projection method, and a program suitable for a presentation when a personal computer and a data projector apparatus are connected, for example.

スクリーンに投影された画像に対する制御処理を、プロジェクタまたはプロジェクタと接続したPCに対する直接操作を行なうことなく、簡単に実行させることを目的とし、投影画像を撮影するデジタルカメラ機能を備えて、スクリーン上に照射されるレーザポインタの特定の形状パターン(マーク)を認識し、認識した形状パターンに応じた制御処理を実行するようにした技術が考えられている。(例えば、特許文献1)
特開2004−078682号公報
The control process for the image projected on the screen is intended to be easily executed without directly operating the projector or the PC connected to the projector, and has a digital camera function for photographing the projected image on the screen. A technique is conceived in which a specific shape pattern (mark) of a laser pointer to be irradiated is recognized and control processing corresponding to the recognized shape pattern is executed. (For example, Patent Document 1)
JP 2004-077862 A

上記特許文献1に記載された技術では、プロジェクタがスクリーン上のレーザポインタによる照射位置を撮影するためのデジタルカメラを装備しなければならず、プロジェクタの構成が複雑になるという不具合を生じる。   In the technique described in Patent Document 1, the projector must be equipped with a digital camera for photographing the irradiation position by the laser pointer on the screen, which causes a problem that the configuration of the projector becomes complicated.

加えて、投影の際には必ずレーザポインタを用いなければならず、投影に要する機器の数が増えるという不具合も生じる。   In addition, a laser pointer must be used for projection, which increases the number of devices required for projection.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、簡易な構成としながら、投影に関する各種設定を遠隔操作することが可能な投影装置、投影方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projection device, a projection method, and a program capable of remotely operating various settings relating to projection with a simple configuration. There is to do.

請求項1記載の発明は、ポインティングデバイスを備えた外部機器からの画像信号を入力する入力手段と、入力手段で入力した画像信号に基づいた画像を投影する投影手段と、上記入力手段で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出手段と、上記抽出手段で抽出したポインタの一定時間分の移動履歴を保持する保持手段と、ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶手段と、上記保持手段で保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断手段と、上記判断手段で特定の描画操作がなされたと判断した場合に、上記記憶手段から当該描画操作と関連付けられた動作上の機能を設定する制御手段とを具備したことを特徴とする。   According to the first aspect of the present invention, input means for inputting an image signal from an external device having a pointing device, projection means for projecting an image based on the image signal input by the input means, and input by the input means Extraction means for extracting the position of the pointer that moves in accordance with the operation of the pointing device from the image signal; holding means for holding a movement history of the pointer extracted by the extraction means for a fixed time; and specific drawing of the pointer Storage means for associating and storing an operation and a selectable operational function; and determination means for determining whether or not the specific drawing operation has been performed from a movement history of a pointer held by the holding means for a predetermined time; When the determination unit determines that a specific drawing operation has been performed, the operation function associated with the drawing operation is set from the storage unit. Characterized by comprising a control means.

請求項2記載の発明は、上記請求項1記載の発明において、上記記憶手段は、ポインタの複数の特定の描画操作及び画像と関連付けて選択可能な複数の動作上の機能を記憶し、上記判断手段は、上記保持手段で保持するポインタの一定時間分の移動履歴から上記記憶手段で記憶する複数の特定の描画操作中のいずれか1つがなされた際にそれを識別して判断し、上記制御手段は、上記判断手段での判断結果に応じて当該描画操作と関連付けられた動作上の機能を設定することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the storage means stores a plurality of operation functions that can be selected in association with a plurality of specific drawing operations and images of the pointer, and the determination The means discriminates and judges when any one of a plurality of specific drawing operations stored in the storage means is performed from the movement history of the pointer held by the holding means for a predetermined time, and the control The means is characterized in that an operational function associated with the drawing operation is set according to the determination result of the determination means.

請求項3記載の発明は、上記請求項1または2記載の発明において、上記記憶手段は、ポインタの特定の描画操作及び画像中の分割エリアと関連付けて選択可能な複数の動作上の機能を記憶し、上記判断手段は、上記保持手段で保持するポインタの一定時間分の移動履歴から上記記憶手段で記憶する特定の描画操作が画像中の対応する分割エリアでなされた際にそれを識別して判断し、上記制御手段は、上記判断手段での判断結果に応じて当該描画操作と関連付けられた動作上の機能を設定することを特徴とする。   According to a third aspect of the invention, in the first or second aspect of the invention, the storage means stores a plurality of operational functions that can be selected in association with a specific drawing operation of a pointer and a divided area in an image. The determining means identifies the specific drawing operation stored in the storage means from the movement history of the pointer held in the holding means for a predetermined time in the corresponding divided area in the image. The control unit determines and sets an operational function associated with the drawing operation in accordance with a determination result of the determination unit.

請求項4記載の発明は、上記請求項1または2記載の発明において、上記制御手段は、上記判断手段で特定の描画操作がなされたと判断する第1段階で、上記投影手段で投影する画像の少なくとも一部のエリアを用いて、複数の動作上の機能項目を記載したメニュー画像を投影させ、投影させたメニュー画像中の複数の動作上の機能項目の1つに対して上記判断手段で特定の描画操作がなされたと判断する第2段階以降で、当該描画操作と関連付けられた動作上の機能を設定することを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect of the present invention, in the first stage in which the control unit determines that a specific drawing operation has been performed by the determination unit, an image projected by the projection unit is provided. At least a part of the area is used to project a menu image in which a plurality of operation function items are described, and one of the plurality of operation function items in the projected menu image is specified by the determination unit. In the second step after determining that the drawing operation is performed, an operational function associated with the drawing operation is set.

請求項5記載の発明は、上記請求項4記載の発明において、上記制御手段は、上記投影手段で投影する画像の少なくとも一部のエリアを用い、半透明の上記メニュー画像を重畳して投影させることを特徴とする。   The invention according to claim 5 is the invention according to claim 4, wherein the control means uses at least a part of an area of the image projected by the projection means and projects the semitransparent menu image in a superimposed manner. It is characterized by that.

請求項6記載の発明は、ポインティングデバイスを備えた外部機器からの画像信号を入力する入力部、及び上記入力部で入力した画像信号に基づいた画像を投影する投影部を備えた装置での投影方法であって、上記入力部で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出工程と、上記抽出工程で抽出したポインタの一定時間分の移動履歴を保持する保持工程と、ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶工程と、上記保持工程で保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断工程と、上記判断工程で特定の描画操作がなされたと判断した場合に、上記記憶工程で記憶した、当該描画操作と関連付けられた動作上の機能を設定する制御工程とを有したことを特徴とする。   The invention according to claim 6 is a projection by an apparatus including an input unit for inputting an image signal from an external device including a pointing device, and a projection unit for projecting an image based on the image signal input by the input unit. A method for extracting a position of a pointer that moves in accordance with an operation of the pointing device from an image signal input by the input unit, and a movement history for a predetermined time of the pointer extracted in the extraction step. A holding step to be held, a storage step to store a specific drawing operation of the pointer in association with a selectable operational function, and the specific drawing operation from a movement history of the pointer held in the holding step for a predetermined time A determination step for determining whether or not a drawing operation has been performed, and the drawing operation stored in the storage step when it is determined that a specific drawing operation has been performed in the determination step Characterized in that a control step of setting a function on action associated.

請求項7記載の発明は、ポインティングデバイスを備えた外部機器からの画像信号を入力する入力部、及び上記入力部で入力した画像信号に基づいた画像を投影する投影部を備えた装置が内蔵するコンピュータが実行するプログラムであって、上記入力部で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出ステップと、上記抽出ステップで抽出したポインタの一定時間分の移動履歴を保持する保持ステップと、ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶ステップと、上記保持ステップで保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断ステップと、上記判断ステップで特定の描画操作がなされたと判断した場合に、上記記憶ステップで記憶した、当該描画操作と関連付けられた動作上の機能を設定する制御ステップとをコンピュータに実行させることを特徴とする。   According to a seventh aspect of the present invention, there is built in an apparatus including an input unit that inputs an image signal from an external device including a pointing device, and a projection unit that projects an image based on the image signal input from the input unit. A program executed by a computer, wherein an extraction step for extracting a position of a pointer that moves in response to an operation of the pointing device from an image signal input by the input unit, and a predetermined time of the pointer extracted in the extraction step A holding step for holding a movement history of the pointer, a storing step for storing a specific drawing operation of the pointer in association with a selectable operational function, and a movement history for a predetermined time of the pointer held in the holding step. A determination step for determining whether or not a specific drawing operation has been performed, and a specific drawing operation is not performed in the determination step. When it is determined that was stored in said storage step, characterized in that to execute a control step of setting the drawing operation and operational functions associated with the computer.

本発明によれば、極力簡易な構成と操作により、投影に関する各種設定を外部機器側から遠隔操作することが可能な投影装置、投影方法及びプログラムを提供することが可能となる。   According to the present invention, it is possible to provide a projection device, a projection method, and a program capable of remotely operating various settings relating to projection from the external device side with the simplest configuration and operation.

(第1の実施形態)
以下、パーソナルコンピュータとデータプロジェクタ装置を用いた本発明に係る投影システムに適用した場合の第1の実施形態について図面を参照して説明する。
(First embodiment)
Hereinafter, a first embodiment when applied to a projection system according to the present invention using a personal computer and a data projector device will be described with reference to the drawings.

図1は、システム全体の外観と接続構成を示すものである。パーソナルコンピュータ1とデータプロジェクタ装置2とが無線LAN技術、例えばIEEE802.11g規格に従って無線接続され、パーソナルコンピュータ1で再生されるプレゼンテーションプログラムの画像データが適宜データプロジェクタ装置2へ送られて、データプロジェクタ装置2によりスクリーンSCに向けて投影される。   FIG. 1 shows the appearance and connection configuration of the entire system. The personal computer 1 and the data projector device 2 are wirelessly connected according to wireless LAN technology, for example, the IEEE802.11g standard, and the image data of the presentation program reproduced by the personal computer 1 is appropriately sent to the data projector device 2, and the data projector device 2 is projected toward the screen SC.

ここでは、パーソナルコンピュータ1及びデータプロジェクタ装置2が共に予め無線LAN機能を有するものとし、プレゼンテーションプログラム等の各種アプリケーションプログラムをパーソナルコンピュータ1が実行する際、その画像データをパーソナルコンピュータ1がデータプロジェクタ装置2に対して直接送信することが可能であるものとする。   Here, it is assumed that both the personal computer 1 and the data projector apparatus 2 have a wireless LAN function in advance, and when the personal computer 1 executes various application programs such as a presentation program, the personal computer 1 stores the image data in the data projector apparatus 2. It is possible to transmit directly to.

パーソナルコンピュータ1は、マウス1a等のポインティングデバイスを設け、その操作に応じてパーソナルコンピュータ1からデータプロジェクタ装置2に送られる画像データ中のポインタの位置が移動する。   The personal computer 1 is provided with a pointing device such as a mouse 1a, and the position of the pointer in the image data sent from the personal computer 1 to the data projector device 2 is moved according to the operation.

データプロジェクタ装置2は、パーソナルコンピュータ1から送られてきた画像データを基に、例えばマイクロミラー素子を用いて画像データに対応する光像を形成し、筐体前面に配置された投影レンズユニット2aを介して、投影対象のスクリーンSC上の投影範囲PA内に対し、各種画像を投影表示する。   The data projector device 2 forms a light image corresponding to the image data using, for example, a micromirror element based on the image data sent from the personal computer 1, and includes a projection lens unit 2a disposed on the front surface of the housing. Thus, various images are projected and displayed within the projection range PA on the screen SC to be projected.

次に図2によりパーソナルコンピュータ1の構成について説明する。図2はこのパーソナルコンピュータ1のハードウェア構成を示すものであり、各種処理制御を司るCPU11とフロントサイドバスFSBを介してノースブリッジ12が接続される。   Next, the configuration of the personal computer 1 will be described with reference to FIG. FIG. 2 shows a hardware configuration of the personal computer 1, and a north bridge 12 is connected to the CPU 11 that controls various processes and a front side bus FSB.

このノースブリッジ12は、さらにメモリバスMBを介してメインメモリ13と、またグラフィクスインタフェースAGPを介してグラフィックコントローラ14及びグラフィックメモリ15と接続される他、サウスブリッジ16とも接続され、主としてこれらの間での入出力制御を実行する。   The north bridge 12 is further connected to the main memory 13 via the memory bus MB and to the graphic controller 14 and the graphic memory 15 via the graphics interface AGP, and is also connected to the south bridge 16 mainly between them. Execute I / O control.

サウスブリッジ16は、PCIバス17、上記マウス1aを含むキーボード/マウス18、ビデオエンコーダ19、無線LANインタフェース20、マルチディスクドライブ21、ハードディスク装置(HDD)22と接続され、主としてこれら周辺回路とノースブリッジ12との間の入出力制御を行なう。   The south bridge 16 is connected to the PCI bus 17, the keyboard / mouse 18 including the mouse 1 a, the video encoder 19, the wireless LAN interface 20, the multi-disk drive 21, and the hard disk device (HDD) 22. Input / output control with 12 is performed.

なお、これらパーソナルコンピュータ1を構成する個々の要素自体は、きわめて一般的な周知の技術であるのでその説明は省略するものとする。   It should be noted that the individual elements constituting the personal computer 1 are very general well-known techniques, and therefore description thereof is omitted.

なお、ビデオエンコーダ19は、与えられたデジタル値の画像信号からアナログ値の画像信号であるVGAビデオ信号を生成して出力し、ここでは図示しないカラーTFT(薄膜トランジスタ)液晶表示パネルで構成されるディスプレイ部を表示駆動する一方で、同VGAビデオ信号を無線LANインタフェース20へ出力する。   The video encoder 19 generates and outputs a VGA video signal, which is an analog image signal, from a given digital image signal, and is a display constituted by a color TFT (thin film transistor) liquid crystal display panel (not shown). The VGA video signal is output to the wireless LAN interface 20 while the display is driven.

また、上記無線LANインタフェース20は、無線LANアンテナ23を介し、例えばIEEE802.11g規格に則って2.4[GHz]帯の電波で上記データプロジェクタ装置2を含む機器とのデータの送受を行なう。パーソナルコンピュータ1でプレゼンテーションのアプリケーションプログラムを実行している間は、当該プレゼンテーションのVGAビデオ信号が上記ビデオエンコーダ19から無線LANインタフェース20に送られてくるため、無線LANインタフェース20はそのビデオ信号を無線LANアンテナ23より外部の機器へ送信する。   The wireless LAN interface 20 transmits / receives data to / from a device including the data projector device 2 via a wireless LAN antenna 23 using, for example, 2.4 [GHz] band radio waves in accordance with the IEEE 802.11g standard. While the personal computer 1 is executing the presentation application program, the VGA video signal of the presentation is sent from the video encoder 19 to the wireless LAN interface 20, and the wireless LAN interface 20 transmits the video signal to the wireless LAN. Transmission is performed from the antenna 23 to an external device.

次に図3により上記データプロジェクタ装置2の概略機能構成を示す。
31は入出力コネクタ部であり、例えばピンジャック(RCA)タイプのビデオ入力端子、D−sub15タイプのRGB入力端子、及びUSB(Universal Serial Bus)コネクタを含む。
Next, a schematic functional configuration of the data projector device 2 is shown in FIG.
Reference numeral 31 denotes an input / output connector unit including, for example, a pin jack (RCA) type video input terminal, a D-sub15 type RGB input terminal, and a USB (Universal Serial Bus) connector.

入出力コネクタ部31より入力される各種規格の画像信号は、入出力インタフェース(I/F)32、システムバスSBを介し、スケーラとも称される画像変換部33で投影に適した所定のフォーマットの画像信号に統一され、適宜表示用のバッファメモリであるビデオRAM34に記憶された後に、投影画像処理部35へ送られる。   Image signals of various standards input from the input / output connector unit 31 are in a predetermined format suitable for projection by an image conversion unit 33, also called a scaler, via an input / output interface (I / F) 32 and a system bus SB. After being unified into an image signal and appropriately stored in a video RAM 34 which is a buffer memory for display, the image signal is sent to the projection image processing unit 35.

この際、OSD(On Screen Display)用の各種動作状態を示すシンボル等のデータも必要に応じてビデオRAM34で画像信号に重畳加工され、加工後の画像信号が投影画像処理部35へ送られる。   At this time, data such as symbols indicating various operation states for OSD (On Screen Display) is also superimposed on the image signal by the video RAM 34 as necessary, and the processed image signal is sent to the projection image processing unit 35.

投影画像処理部35は、送られてきた画像信号に応じて、所定のフォーマットに従ったフレームレート、例えば30[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子(SOM)であるマイクロミラー素子36を表示駆動する。   The projection image processing unit 35 multiplies a frame rate according to a predetermined format, for example, 30 [frames / second], the number of color component divisions, and the number of display gradations in accordance with the transmitted image signal. The micromirror element 36, which is a spatial light modulation element (SOM), is driven to display by high-speed time division driving.

一方、リフレクタ37内に配置された、例えば高圧水銀灯を用いた光源ランプ38が高輝度の白色光を出射する。この光源ランプ38は、バラスト回路39からの電力により交流駆動されるもので、光源ランプ38の出射した白色光は、マイクロミラー素子36での表示に同期して高速回転するカラーホイール40を介して時分割で原色に着色され、インテグレータ41で輝度分布が均一な光束とされた後にミラー42で全反射して上記マイクロミラー素子36に照射される。   On the other hand, a light source lamp 38 using a high-pressure mercury lamp, for example, disposed in the reflector 37 emits white light with high luminance. The light source lamp 38 is AC driven by the electric power from the ballast circuit 39, and the white light emitted from the light source lamp 38 passes through a color wheel 40 that rotates at high speed in synchronization with the display on the micromirror element 36. The primary color is colored in a time-sharing manner, the luminous flux is made uniform by the integrator 41, and then totally reflected by the mirror 42 and irradiated onto the micromirror element 36.

そして、マイクロミラー素子36での反射光で光像が形成され、形成された光像が上記投影レンズユニット2aを介して、投影対象となるここでは図示しないスクリーンSCに投影される。   Then, an optical image is formed by the reflected light from the micromirror element 36, and the formed optical image is projected onto the screen SC (not shown) to be projected through the projection lens unit 2a.

投影レンズユニット2aは、マイクロミラー素子36で形成された光像を拡大してスクリーン等の対象に投影するものであり、合焦位置及びズーム位置(投影画角)を任意に可変できるものとする。   The projection lens unit 2a enlarges and projects the optical image formed by the micromirror element 36 onto a target such as a screen, and can change the focus position and the zoom position (projection angle of view) arbitrarily. .

すなわち、投影レンズユニット2a内の図示しないフォーカスレンズ及びズームレンズは共に光軸方向に沿って前後に移動することで制御されるもので、それらレンズはステッピングモータ(M)43の回動駆動により移動する。   That is, both the focus lens and the zoom lens (not shown) in the projection lens unit 2a are controlled by moving back and forth along the optical axis direction, and these lenses are moved by rotating the stepping motor (M) 43. To do.

また、上記光源ランプ38を点灯させるためのバラスト回路39への電力供給、上記カラーホイール40用のモータ(M)44の回転駆動、カラーホイール40の回転周端に設けられたマーカセンサ45からのセグメント境界の検出、及び上記ステッピングモータ43の回動駆動をいずれも投影光処理部46が実行する。   Further, the power supply to the ballast circuit 39 for turning on the light source lamp 38, the rotational drive of the motor (M) 44 for the color wheel 40, and the marker sensor 45 provided at the rotation peripheral end of the color wheel 40 are provided. Both the detection of the segment boundary and the rotational driving of the stepping motor 43 are executed by the projection light processing unit 46.

なお、上記投影画像処理部35は、マイクロミラー素子36で表示する色成分毎の画像の切換タイミングに同期したランプ同期信号を上記バラスト回路39及び投影光処理部46へ出力する。   The projection image processing unit 35 outputs a lamp synchronization signal synchronized with the switching timing of the image for each color component displayed by the micromirror element 36 to the ballast circuit 39 and the projection light processing unit 46.

上記各回路の動作すべてをCPU47が制御する。このCPU47は、DRAMで構成されたメインメモリ48、動作プログラムや各種定型データ等を記憶した電気的書換可能な不揮発性メモリで構成されたプログラムメモリ49を用いてこのデータプロジェクタ装置2内の制御動作を実行する。   The CPU 47 controls all the operations of the above circuits. The CPU 47 uses the main memory 48 composed of DRAM and the program memory 49 composed of an electrically rewritable non-volatile memory storing operation programs, various fixed data, and the like to perform control operations in the data projector device 2. Execute.

上記CPU47は、操作部50からの操作信号に応じて各種投影動作を実行する。この操作部50は、データプロジェクタ装置2の筐体本体に設けられたキー操作部と、このデータプロジェクタ装置2専用の図示しないリモートコントローラからの赤外線変調信号を受信する赤外線受信部とを含み、ユーザがキー操作部またはリモートコントローラを介して操作したキーに基づくキーコード信号をCPU47へ直接出力する。   The CPU 47 executes various projection operations in accordance with operation signals from the operation unit 50. The operation unit 50 includes a key operation unit provided in the housing body of the data projector device 2 and an infrared receiving unit that receives an infrared modulation signal from a remote controller (not shown) dedicated to the data projector device 2. Directly outputs to the CPU 47 a key code signal based on the key operated via the key operation unit or the remote controller.

上記CPU47はさらに、上記システムバスSBを介して音声処理部51及び無線LANインタフェース(I/F)52と接続される。   The CPU 47 is further connected to an audio processing unit 51 and a wireless LAN interface (I / F) 52 via the system bus SB.

音声処理部51は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部53を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。   The sound processing unit 51 includes a sound source circuit such as a PCM sound source, converts the sound data given during the projection operation into an analog signal, drives the speaker unit 53 to emit a loud sound, or generates a beep sound or the like as necessary.

無線LANインタフェース52は、無線LANアンテナ54を介し、例えばIEEE802.11g規格に則って2.4[GHz]帯の電波でパーソナルコンピュータ1を含む機器とのデータの送受を行なう。パーソナルコンピュータ1がプレゼンテーションのアプリケーションプログラムを実行している間は、パーソナルコンピュータ1から無線で送られてくる当該プレゼンテーションのVGAビデオ信号を受信し、上記画像変換部33へ出力する。   The wireless LAN interface 52 transmits / receives data to / from devices including the personal computer 1 via a wireless LAN antenna 54 using, for example, 2.4 [GHz] band radio waves in accordance with the IEEE 802.11g standard. While the personal computer 1 is executing the presentation application program, the personal computer 1 receives the VGA video signal of the presentation wirelessly transmitted from the personal computer 1 and outputs it to the image conversion unit 33.

次に上記実施形態の動作について説明する。
図4は、パーソナルコンピュータ1をデータプロジェクタ装置2と無線LANで接続した状態で、パーソナルコンピュータ1のマウス1aによるポインタ操作に対応したデータプロジェクタ装置2の設定機能を登録する登録モード時の処理内容を示すものである。
Next, the operation of the above embodiment will be described.
FIG. 4 shows the processing contents in the registration mode in which the setting function of the data projector device 2 corresponding to the pointer operation by the mouse 1a of the personal computer 1 is registered with the personal computer 1 connected to the data projector device 2 by the wireless LAN. It is shown.

この図4の動作は、CPU47がプログラムメモリ49から読出した動作プログラムをメインメモリ48に展開して実施することで制御される。   The operation of FIG. 4 is controlled by the CPU 47 developing the operation program read from the program memory 49 in the main memory 48 and executing it.

この際、パーソナルコンピュータ1及びデータプロジェクタ装置2を同時に取扱うユーザは、パーソナルコンピュータ1のディスプレイ及びデータプロジェクタ装置2で投影されるスクリーンSCの双方を見ながら登録作業を実行する。   At this time, a user who handles the personal computer 1 and the data projector device 2 simultaneously performs registration work while viewing both the display of the personal computer 1 and the screen SC projected by the data projector device 2.

その当初には、パーソナルコンピュータ1からのポインタを含む画像データを、無線LANアンテナ54、無線LANインタフェース52を介して受付け、画像変換部33で変換した上で展開してビデオRAM34に記憶させる(ステップR101)。   Initially, image data including a pointer from the personal computer 1 is received via the wireless LAN antenna 54 and the wireless LAN interface 52, converted by the image conversion unit 33, expanded, and stored in the video RAM 34 (steps). R101).

このビデオRAM34に記憶させた画像データ中からポインタの位置を抽出し、抽出した位置をメインメモリ48に蓄積して記憶させる(ステップR102)。このポインタの位置の蓄積に際しては、直前の画像フレームにおけるポインタの位置との比較により、ポインタの移動方向を示す情報を簡略化して合わせて記憶するものとしてもよい。   The position of the pointer is extracted from the image data stored in the video RAM 34, and the extracted position is accumulated and stored in the main memory 48 (step R102). When accumulating the pointer position, information indicating the direction of movement of the pointer may be simplified and stored by comparison with the position of the pointer in the immediately preceding image frame.

図5は、ポインタの移動方向について、前画像フレームでのポインタの位置Oからの移動方向を、全周囲360°を8分割して数値「1」〜「8」を割り当てた例を示す。例えば、画像中でポインタが水平方向に沿って右に移動し続けた場合、その移動方向から数値「2」を割り当てる。   FIG. 5 shows an example of assigning numerical values “1” to “8” by dividing the entire movement of the pointer from the position O in the previous image frame by 8 at 360 ° around the entire moving direction of the pointer. For example, when the pointer continues to move to the right along the horizontal direction in the image, a numerical value “2” is assigned from the movement direction.

次いで、蓄積して記憶したポインタの位置の一連の内容から、ポインタの位置が一定時間、例えば0.5[秒]以上変化していないかどうかにより、ポインタの移動が終了したか否かを判断する(ステップR103)。
ここでポインタの位置が変化しており、ポインタの移動が終了していないと判断した場合にはさらに上記ステップR101からの処理に戻って同様の処理を繰返し実行する。
Next, it is determined whether or not the movement of the pointer is completed based on whether or not the pointer position has changed for a certain period of time, for example, 0.5 [seconds], from a series of stored pointer positions. (Step R103).
Here, when it is determined that the position of the pointer has changed and the movement of the pointer has not ended, the process returns to step R101 and the same process is repeated.

また、上記ステップR103でポインタの位置が一定時間以上変化しておらず、ポインタの移動が終了したと判断した場合には、次に一定時間、例えば直前の過去1秒間のポインタの移動範囲を確定する(ステップR104)。   If it is determined in step R103 that the pointer position has not changed for a certain period of time and the movement of the pointer has been completed, then the movement range of the pointer for a certain period of time, for example, the previous one second is determined. (Step R104).

図6は、画像を縦3×横3の計9個のエリア「A」〜「I」に分割した場合を例示する。上記ステップR104の処理では、例えばエリアを示す情報を確定するものとする。   FIG. 6 illustrates a case where the image is divided into a total of nine areas “A” to “I” of 3 × 3. In the process of step R104, for example, information indicating an area is determined.

その後、上記ポインタの操作に対応するデータプロジェクタ装置2の機能を選択する(ステップR105)。これは、例えばデータプロジェクタ装置2により投影範囲PA内に選択可能なデータプロジェクタ装置2の機能名を一覧投影した上で、パーソナルコンピュータ1のマウス1a操作により特定の機能名に対してポインタが所定の描画操作、例えば記号「〆」に該当する操作がなされた場合に、当該位置にある機能を選択したものとする。
因みに、記号「〆」に該当するポインタの操作を行なった場合、上記図5で示したポインタの移動に対応する方向列では「5,8,3」が必ず含まれることになる。
Thereafter, the function of the data projector device 2 corresponding to the operation of the pointer is selected (step R105). For example, a list of function names of the data projector apparatus 2 that can be selected within the projection range PA by the data projector apparatus 2 is displayed as a list, and a pointer is set to a predetermined function name by operating the mouse 1a of the personal computer 1. It is assumed that when a drawing operation, for example, an operation corresponding to the symbol “を” is performed, the function at the position is selected.
Incidentally, when the pointer corresponding to the symbol “〆” is operated, “5, 8, 3” is always included in the direction row corresponding to the movement of the pointer shown in FIG.

こうして、ポインタ操作に関する位置の一連の情報と、エリア、及び選択した機能を一組のデータとして関連付けてメインメモリ48内部に保持するテーブルに登録する(ステップR106)。   In this way, a series of information on the position related to the pointer operation, the area, and the selected function are associated with each other as a set of data and registered in a table held in the main memory 48 (step R106).

以上でデータプロジェクタ装置2の機能設定に関する登録を一通り完了したこととなり、続けて他の機能の選択も行なうかどうかを判断する(ステップR107)。これは、例えばデータプロジェクタ装置2により投影範囲PA内に「次の機能を選択する」「機能の選択を終了する」のような文字ガイドメッセージを投影した上で、パーソナルコンピュータ1のマウス1a操作によりそのいずれの位置で所定の描画操作、例えば記号「〆」に該当する操作がなされたか否かにより判断する。   This completes the registration related to the function setting of the data projector apparatus 2, and it is subsequently determined whether or not to select another function (step R107). For example, the data projector device 2 projects a character guide message such as “select next function” or “ends selection of function” within the projection range PA, and then operates the mouse 1 a of the personal computer 1. The determination is made based on whether or not a predetermined drawing operation, for example, an operation corresponding to the symbol “〆” is performed at any position.

ここでまだ他の機能を選択するべく操作がなされた場合には、再び上記ステップR101からの処理に戻って同様の処理を繰返し実行する。   If an operation is still performed to select another function, the process returns to step R101 and the same process is repeated.

そして、ステップR107で登録を終了すると判断した時点で、この図4の処理を一旦終了する。   When it is determined in step R107 that registration is to be ended, the processing in FIG. 4 is temporarily ended.

図7は、メインメモリ48に保持する、ポインタ操作に対応した機能選択のテーブルTBの内容を例示する。同図では、記号に対して、ポインタ移動の方向列と、分割してエリアの位置、及び選択した機能を関連付けて複数記憶した例を示している。
図中、例えば記号「○」の描画に対しては、記号の最上部から半時計回りに操作することにより、ポインタの移動に対応する方向列が「5,4,3,2,1,8」と順次変化することを示している。この方向列の内容に関しては、ユーザ個人の操作の癖が反映されるものであるが、なるべく簡略化した内容でテーブルTBに登録することにより、同様の方向列を含むポインタの操作に対応して、確実に同記号の操作を判断することができる。
FIG. 7 illustrates the contents of the function selection table TB stored in the main memory 48 corresponding to the pointer operation. The figure shows an example in which a plurality of pointer movement direction strings, divided area positions, and selected functions are stored in association with symbols.
In the figure, for example, for drawing the symbol “◯”, the direction row corresponding to the movement of the pointer is “5, 4, 3, 2, 1, 8 by operating counterclockwise from the top of the symbol. ”In turn. Regarding the contents of this direction column, the trap of the user's individual operation is reflected, but by registering it in the table TB with a simplified content as much as possible, it corresponds to the operation of the pointer including the same direction column. The operation of the same symbol can be determined with certainty.

なお、この図7で示したテーブルTBの記憶内容は、データプロジェクタ装置2の電源オフ時に電気的に書換可能な不揮発メモリであるプログラムメモリ49に待避して記憶しておくことで、データプロジェクタ装置2の電源オフ時にも失われることがないように設定できる。   7 is stored in the program memory 49, which is an electrically rewritable nonvolatile memory when the power of the data projector apparatus 2 is turned off, so that the data projector apparatus can store the stored contents of the table TB shown in FIG. It can be set not to be lost even when the power of 2 is turned off.

図8は、上記のようなテーブルTBへの登録を行なった上でパーソナルコンピュータ1からの画像データを投影するデータプロジェクタ装置2での処理内容を示す。   FIG. 8 shows the processing contents in the data projector apparatus 2 that projects the image data from the personal computer 1 after registration in the table TB as described above.

この図8の動作も、CPU47がプログラムメモリ49から読出した動作プログラムをメインメモリ48に展開して実施することで制御される。   The operation of FIG. 8 is also controlled by developing an operation program read from the program memory 49 by the CPU 47 in the main memory 48 and executing it.

その当初、パーソナルコンピュータ1から無線LANアンテナ54、無線LANインタフェース52を介して受信した画像データを画像変換部33で投影に適したフォーマットに変換し、展開してビデオRAM34に保持させた上で投影画像処理部35によりマイクロミラー素子36で表示させ、投影レンズユニット2aを介してスクリーンSCに投影させる(ステップP101)。   Initially, the image data received from the personal computer 1 via the wireless LAN antenna 54 and the wireless LAN interface 52 is converted into a format suitable for projection by the image conversion unit 33, developed, stored in the video RAM 34, and projected. The image is displayed on the micromirror element 36 by the image processing unit 35 and projected onto the screen SC via the projection lens unit 2a (step P101).

これと合わせて、ビデオRAM34に保持する画像データ中からポインタ位置を抽出し(ステップP102)、抽出したポインタの位置を前画像フレームで同様に抽出したポインタの位置と比較することでポインタが移動したか否かを判断する(ステップP103)。   At the same time, the pointer position is extracted from the image data held in the video RAM 34 (step P102), and the pointer is moved by comparing the extracted pointer position with the extracted pointer position in the previous image frame. (Step P103).

ここでポインタが移動していないと判断した場合には、そのまま投影動作を継続するべく上記ステップP101からの処理に戻り、繰返し同様の処理を実行する。   If it is determined that the pointer has not moved, the process returns to step P101 to continue the projection operation as it is, and the same process is repeated.

また、上記ステップP103でポインタが移動したと判断した場合には、続いてその抽出したポインタの位置と移動方向とをメインメモリ48に蓄積して保持させる(ステップP104)。   If it is determined in step P103 that the pointer has moved, the position and moving direction of the extracted pointer are subsequently stored in the main memory 48 (step P104).

次いで、一定時間分、例えば直前の過去1秒間分のポインタの移動内容を取り纏めた上で(ステップP105)、上記メインメモリ48のテーブルTBを参照し(ステップP106)、記憶されている方向列を含み、且つエリアが一致する記号があるか否かを判断する(ステップP107)。   Next, after summarizing the movement of the pointer for a certain period of time, for example, the previous one second (step P105), the table TB of the main memory 48 is referred to (step P106), and the stored direction column is displayed. It is determined whether or not there is a symbol that includes and matches the area (step P107).

ここで、該当する記号がないと判断した場合は、上記ステップP101からの処理に戻って繰返し同様の処理を実行する。
一方で、上記ステップP107でテーブルTBに該当する記号があると判断した場合には、その記号に関連付けて記憶されている機能を読出し(ステップP108)、読出した機能を設定した後に(ステップP109)、再び次のポインタ操作に備えるべく上記ステップP101からの処理に戻る。
If it is determined that there is no corresponding symbol, the process returns to the process from step P101 and the same process is repeated.
On the other hand, when it is determined in step P107 that there is a symbol corresponding to the table TB, the function stored in association with the symbol is read (step P108), and the read function is set (step P109). The process returns to step P101 to prepare for the next pointer operation again.

上記図7で示したテーブルTBによれば、例えば画面の右上に位置する「C」エリアでポインタにより記号「○」を描画する操作がなされた場合にはデータプロジェクタ装置2の静音モードのオン設定、同じく「C」エリアで記号「×」を描画する操作がなされた場合にはデータプロジェクタ装置2の静音モードのオフ設定、画面の左下に位置する「G」エリアでポインタにより記号「○」を描画する操作がなされた場合にはデータプロジェクタ装置2のオートパワーオフのオン設定、同じく「G」エリアで記号「×」を描画する操作がなされた場合にはデータプロジェクタ装置2のオートパワーオフのオフ設定がそれぞれ実行されるものとしている。   According to the table TB shown in FIG. 7 above, for example, when the operation of drawing the symbol “◯” is performed with the pointer in the “C” area located at the upper right of the screen, the silent mode ON setting of the data projector device 2 is performed. Similarly, when an operation for drawing the symbol “×” is performed in the “C” area, the silent mode of the data projector apparatus 2 is set to OFF, and the symbol “O” is set by the pointer in the “G” area located at the lower left of the screen. When the drawing operation is performed, the auto power-off setting of the data projector apparatus 2 is set. When the operation of drawing the symbol “x” is performed in the “G” area, the auto power-off of the data projector apparatus 2 is performed. It is assumed that each off setting is executed.

以上詳記した如く本実施形態によれば、特にレーザポインタ等の、パーソナルコンピュータ1とデータプロジェクタ装置2以外の構成要素を必要とせず、簡易な構成としながら、外部機器側であるパーソナルコンピュータ1によるポインタ操作を行なう過程で合わせてデータプロジェクタ装置2での投影に関する各種設定を遠隔操作することが可能となる。   As described above in detail, according to the present embodiment, the personal computer 1 on the side of the external device is not required to have a component other than the personal computer 1 and the data projector device 2 such as a laser pointer. In the course of performing the pointer operation, various settings relating to projection by the data projector device 2 can be remotely operated.

また本実施形態では、上記図7で示したテーブルTBを用いてデータプロジェクタ装置2に関する機能設定を複数行えるものとしたので、データプロジェクタ装置2のユーザの好みや使用環境等を考慮し、最適な機能設定を実現できる。   Further, in the present embodiment, a plurality of function settings related to the data projector device 2 can be performed using the table TB shown in FIG. Function setting can be realized.

加えて上記実施形態では、画像を複数のエリアに分割し、ポインタの操作に関して画像中での操作位置が属するエリアも関連付けて機能設定を行なうものとしたので、設定したエリア以外でのポイント操作を無効と判断することで、誤認識の可能性を低減できると共に、同一のポイント操作であってもエリアによって異なる機能設定を行なうことができるなど、機能設定のバリエーションを増やすことができる。   In addition, in the above embodiment, the image is divided into a plurality of areas, and the function setting is performed in association with the area to which the operation position in the image belongs with respect to the pointer operation. By determining invalidity, the possibility of misrecognition can be reduced, and variations in function settings can be increased, such that different function settings can be made depending on the area even with the same point operation.

(第2の実施の形態)
以下、パーソナルコンピュータとデータプロジェクタ装置を用いた本発明に係る投影システムに適用した場合の第2の実施形態について図面を参照して説明する。
(Second Embodiment)
A second embodiment when applied to a projection system according to the present invention using a personal computer and a data projector apparatus will be described below with reference to the drawings.

なお、システム全体の外観と接続構成に関しては上記図1と、パーソナルコンピュータ1の構成に関しては上記図2と、そしてデータプロジェクタ装置の概略機能構成に関しては上記図3と、それぞれ基本的に同様であるため、同一部分には同一符号を付加するものとして、それらの図示と説明とを省略する。   The appearance and connection configuration of the entire system are basically the same as in FIG. 1, the configuration of the personal computer 1 is the same as in FIG. 2, and the schematic functional configuration of the data projector apparatus is basically the same as in FIG. Therefore, the same parts are denoted by the same reference numerals, and illustration and description thereof are omitted.

次に上記実施形態の動作について説明する。
図9は、パーソナルコンピュータ1からの画像データを投影するデータプロジェクタ装置2での処理内容を示す。
Next, the operation of the above embodiment will be described.
FIG. 9 shows the processing contents in the data projector apparatus 2 that projects the image data from the personal computer 1.

この図9の動作は、CPU47がプログラムメモリ49から読出した動作プログラムをメインメモリ48に展開して実施することで制御される。   The operation of FIG. 9 is controlled by the CPU 47 developing the operation program read from the program memory 49 in the main memory 48 and executing it.

その当初、パーソナルコンピュータ1から無線LANアンテナ54、無線LANインタフェース52を介して受信した画像データを画像変換部33で投影に適したフォーマットに変換し、展開してビデオRAM34に保持させた上で投影画像処理部35によりマイクロミラー素子36で表示させ、投影レンズユニット2aを介してスクリーンSCに投影させる(ステップP201)。   Initially, the image data received from the personal computer 1 via the wireless LAN antenna 54 and the wireless LAN interface 52 is converted into a format suitable for projection by the image conversion unit 33, developed, stored in the video RAM 34, and projected. The image is displayed on the micromirror element 36 by the image processing unit 35 and projected onto the screen SC via the projection lens unit 2a (step P201).

これと合わせて、ビデオRAM34に保持する画像データ中からポインタ位置を抽出し(ステップP202)、抽出したポインタの位置を前画像フレームで同様に抽出したポインタの位置と比較することでポインタが移動したか否かを判断する(ステップP203)。   At the same time, the pointer position is extracted from the image data held in the video RAM 34 (step P202), and the pointer is moved by comparing the extracted pointer position with the extracted pointer position in the previous image frame. (Step P203).

ここでポインタが移動していないと判断した場合には、そのまま投影動作を継続するべく上記ステップP201からの処理に戻り、繰返し同様の処理を実行する。   If it is determined that the pointer has not moved, the process returns to step P201 to continue the projection operation as it is, and the same process is repeated.

また、上記ステップP203でポインタが移動したと判断した場合には、続いてその抽出したポインタの位置と移動方向とをメインメモリ48に蓄積して保持させる(ステップP204)。   If it is determined in step P203 that the pointer has moved, the position and moving direction of the extracted pointer are subsequently stored in the main memory 48 (step P204).

次いで、一定時間分、例えば直前の過去1秒間分のポインタの移動内容を取り纏めることで(ステップP205)、所定の位置、例えば画像の中央のエリアで、所定の記号、例えば「○」を描画するべくポインタが操作されたか否かを判断する(ステップP206)。   Next, by summarizing the movement of the pointer for a certain period of time, for example, the previous one second (step P205), a predetermined symbol, for example, “◯” is drawn at a predetermined position, for example, the center area of the image. Whether or not the pointer has been operated is determined (step P206).

ここで、該当する位置で該当する記号のポインタ操作がないと判断した場合は、上記ステップP201からの処理に戻って繰返し同様の処理を実行する。
一方で、上記ステップP206で画像の中央のエリアで「○」を描画するべくポインタが操作されたと判断した場合には、入力画像中央に、このデータプロジェクタ装置2の選択機能を列挙した半透明のメニュー項目画像を重畳した画像を作成して投影レンズユニット2aよりスクリーンSCに向けて投影させる(ステップP207)。
If it is determined that there is no pointer operation for the corresponding symbol at the corresponding position, the process returns to the process from step P201 and the same process is repeated.
On the other hand, if it is determined in step P206 that the pointer has been operated to draw “◯” in the center area of the image, the selection function of the data projector device 2 is listed in the center of the input image. An image in which the menu item image is superimposed is created and projected from the projection lens unit 2a onto the screen SC (step P207).

その後、入力画像中のポインタ位置を抽出し(ステップP208)、抽出したポインタの位置を前画像フレームで同様に抽出したポインタの位置と比較することでポインタが移動したか否かを判断する(ステップP209)。   Thereafter, the pointer position in the input image is extracted (step P208), and it is determined whether or not the pointer has moved by comparing the extracted pointer position with the pointer position similarly extracted in the previous image frame (step P208). P209).

ここでポインタが移動していないと判断した場合には、そのまま半透明のメニュー項目画像を重畳した投影動作を継続するべく上記ステップP207からの処理に戻り、繰返し同様の処理を実行する。   If it is determined that the pointer has not moved, the process returns to step P207 to continue the projection operation with the semi-transparent menu item image superimposed, and the same process is repeated.

また、上記ステップP209でポインタが移動したと判断した場合には、続いてその抽出したポインタの位置と移動方向とをメインメモリ48に蓄積して保持させる(ステップP210)。   If it is determined in step P209 that the pointer has moved, the position and moving direction of the extracted pointer are subsequently stored in the main memory 48 (step P210).

次いで、一定時間分、例えば直前の過去1秒間分のポインタの移動内容を取り纏めた上で(ステップP211)、その時点で半透明で投影しているメニュー項目画像中のいずれかの項目に該当する位置で所定の記号、例えば「○」を描画するべくポインタが操作されたか否かを判断する(ステップP212)。   Next, after collecting the contents of movement of the pointer for a certain period of time, for example, the immediately preceding past one second (step P211), it corresponds to one of the items in the menu item image projected translucently at that time. It is determined whether or not the pointer has been operated to draw a predetermined symbol, for example, “◯” at the position (step P212).

ここで、メニュー項目画像中のいずれの項目にも該当しない位置での移動であった場合には、次いでその位置が上記メニュー項目画像を外れた位置での操作であるか否かを判断する(ステップP214)。   Here, if the movement is at a position not corresponding to any item in the menu item image, it is then determined whether or not the position is an operation at a position outside the menu item image ( Step P214).

メニュー項目画像を外れた位置での操作であると判断した場合には、以上で半透明の上記メニュー項目画像の重畳投影を終了するべく、上記ステップP201からの処理に戻る。   If it is determined that the operation is at a position outside the menu item image, the process returns to step P201 to end the superimposing projection of the semi-transparent menu item image.

一方、上記ステップP214でメニュー項目画像を外れた位置での操作ではないと判断した場合には、さらにいずれかのメニュー項目が選択されるのを待機するべく、上記ステップP207からの処理に戻る。   On the other hand, if it is determined in step P214 that the operation is not performed at a position outside the menu item image, the process returns to step P207 to wait for any menu item to be selected.

また、上記ステップP212でメニュー項目画像中のいずれかの項目に該当する位置で所定の記号を描画するべくポインタが操作された登判断した場合には、その選択された項目の機能を設定した後に(ステップP213)、再び次のポインタ操作に備えるべく上記ステップP201からの処理に戻る。   If it is determined in step P212 that the pointer has been operated to draw a predetermined symbol at a position corresponding to any item in the menu item image, the function of the selected item is set. (Step P213), the process returns to Step P201 to prepare for the next pointer operation.

上記メニュー項目画像で選択することが可能な機能の項目としては、例えば上記第1の実施形態でも説明したように、データプロジェクタ装置2の静音モードのオンまたはオフの設定、データプロジェクタ装置2のオートパワーオフ機能のオンまたはオフの設定、データプロジェクタ装置2のアフタークーリングのオンまたはオフの設定等が考えられる。   As the function items that can be selected in the menu item image, for example, as described in the first embodiment, the silent mode on / off setting of the data projector device 2, the auto of the data projector device 2 is set. A power-off function on / off setting, a data projector apparatus 2 after-cooling on / off setting, and the like are conceivable.

さらに、上述したような所定の機能のオンまたはオフを択一的に選択するのみならず、画像データとは別にパーソナルコンピュータ1のマウス1aでのクリック操作に応じた信号をデータプロジェクタ装置2で受信可能とすれば、ある機能を選択した時点で上記メニュー項目画像に代えてスケールを投影させ、そのスケール上でマウス1aによるドラッグ操作を受付けることで、投影のコントラストやズーム角度、フォーカス位置、色調の調整など、多段階の機能に関する設定を行なうことも可能となる。   Furthermore, the data projector device 2 receives not only image data but also a signal corresponding to the click operation with the mouse 1a of the personal computer 1 separately from the image data. If possible, when a function is selected, a scale is projected instead of the menu item image, and a drag operation with the mouse 1a is accepted on the scale, so that the projection contrast, zoom angle, focus position, and color tone can be changed. It is also possible to make settings related to multi-stage functions such as adjustment.

以上詳記した如く本実施形態によれば、ユーザが特に予め設定機能の登録等を行なわずとも、投影画像中にメニュー項目画像を投影させた上で必要な機能項目を選択して設定させることが可能となるので、データプロジェクタ装置2での投影に関する各種設定をより簡易に遠隔操作することが可能となる。   As described above in detail, according to the present embodiment, a user can select and set a necessary function item after projecting a menu item image in a projection image without particularly registering a setting function in advance. Therefore, various settings relating to projection by the data projector device 2 can be remotely operated more easily.

加えて、上記実施形態では、上記メニュー項目画像を半透明の画像として元の投影画像上に重畳して投影させるものとしたので、元の投影画像がメニュー項目画像によって完全に遮られてしまうことなく、メニュー項目画像が投影されている状態でも元の画像の内容を視認できる。   In addition, in the above embodiment, the menu item image is projected as a semi-transparent image superimposed on the original projection image, so that the original projection image is completely blocked by the menu item image. In addition, the contents of the original image can be visually recognized even when the menu item image is projected.

なお、上記実施形態では、パーソナルコンピュータ1とデータプロジェクタ装置2とを無線LAN接続して画像データの伝送を行なうものとして説明したが、本発明はこれに限ることなく、当然ながら有線接続により画像データを伝送するものとしてもよい。   In the above embodiment, the personal computer 1 and the data projector device 2 are described as being connected to each other via a wireless LAN to transmit image data. However, the present invention is not limited to this, and the image data is naturally connected by wire connection. May be transmitted.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

本発明の第1の実施形態に係るシステム全体の外観と接続構成を示す図。The figure which shows the external appearance and connection structure of the whole system which concern on the 1st Embodiment of this invention. 同実施形態に係るパーソナルコンピュータのハードウェア構成を示すブロック図。2 is an exemplary block diagram showing a hardware configuration of the personal computer according to the embodiment. FIG. 同実施形態に係るデータプロジェクタ装置の機能回路の概略構成を示すブロック図。FIG. 2 is a block diagram showing a schematic configuration of a functional circuit of the data projector device according to the embodiment. 同実施形態に係るデータプロジェクタ装置の設定機能を登録する登録モード時の処理内容を示すフローチャート。6 is a flowchart showing the processing contents in a registration mode for registering the setting function of the data projector device according to the embodiment. 同実施形態に係るポインタの移動方向に数値「1」〜「8」を割り当てた例を示す図。The figure which shows the example which assigned numerical value "1"-"8" to the moving direction of the pointer concerning the embodiment. 同実施形態に係る画像を複数のエリア「A」〜「I」に分割した場合を例示する図。The figure which illustrates the case where the image which concerns on the embodiment is divided | segmented into several area "A"-"I". 同実施形態に係るポインタ操作に対応した設定機能のテーブルの内容を例示する図。The figure which illustrates the content of the table of the setting function corresponding to pointer operation which concerns on the embodiment. 同実施形態に係るパーソナルコンピュータからの画像データを投影するデータプロジェクタ装置での処理内容を示すフローチャート。7 is a flowchart showing the processing contents in a data projector device that projects image data from the personal computer according to the embodiment. 本発明の第2の実施形態に係るパーソナルコンピュータからの画像データを投影するデータプロジェクタ装置での処理内容を示すフローチャート。9 is a flowchart showing processing contents in a data projector device that projects image data from a personal computer according to a second embodiment of the present invention.

符号の説明Explanation of symbols

1…パーソナルコンピュータ、1a…マウス、2…データプロジェクタ装置、2a…投影レンズユニット、11…CPU、12…ノースブリッジ、13…メインメモリ、14…グラフィックコントローラ、15…グラフィックメモリ、16…サウスブリッジ、17…PCIバス、18…キーボード/マウス、19…ビデオエンコーダ、20…無線LANインタフェース(I/F)、21…マルチディスクドライブ、22…ハードディスク装置(HDD)、23…無線LANアンテナ、31…入出力コネクタ部、32…入出力インタフェース(I/F)、33…画像変換部、34…ビデオRAM、35…投影画像処理部、36…マイクロミラー素子(SOM)、37…リフレクタ、38…光源ランプ、39…バラスト回路、40…カラーホイール、41…インテグレータ、42…ミラー、43…ステッピングモータ(M)、44…モータ(M)、45…マーカセンサ、46…投影光処理部、47…CPU、48…メインメモリ、49…プログラムメモリ、50…操作部、51…音声処理部、52…無線LANインタフェース(I/F)、53…スピーカ部、54…無線LANアンテナ、AGP…グラフィクスインタフェース(I/F)、FSB…フロントサイドバス、MB…メモリバス、PA…投影範囲、SB…システムバス、SC…スクリーン、TB…テーブル。   DESCRIPTION OF SYMBOLS 1 ... Personal computer, 1a ... Mouse, 2 ... Data projector apparatus, 2a ... Projection lens unit, 11 ... CPU, 12 ... North bridge, 13 ... Main memory, 14 ... Graphic controller, 15 ... Graphic memory, 16 ... South bridge, 17 ... PCI bus, 18 ... keyboard / mouse, 19 ... video encoder, 20 ... wireless LAN interface (I / F), 21 ... multi-disk drive, 22 ... hard disk device (HDD), 23 ... wireless LAN antenna, 31 ... on Output connector 32, input / output interface (I / F), 33 image conversion unit, 34 video RAM, 35 projection image processing unit, 36 micromirror element (SOM), 37 reflector, 38 light source lamp 39 ... Ballast circuit, 40 ... Color wheel , 41 ... Integrator, 42 ... Mirror, 43 ... Stepping motor (M), 44 ... Motor (M), 45 ... Marker sensor, 46 ... Projection light processing unit, 47 ... CPU, 48 ... Main memory, 49 ... Program memory, DESCRIPTION OF SYMBOLS 50 ... Operation part, 51 ... Audio | voice processing part, 52 ... Wireless LAN interface (I / F), 53 ... Speaker part, 54 ... Wireless LAN antenna, AGP ... Graphics interface (I / F), FSB ... Front side bus, MB ... memory bus, PA ... projection range, SB ... system bus, SC ... screen, TB ... table.

Claims (7)

ポインティングデバイスを備えた外部機器からの画像信号を入力する入力手段と、
入力手段で入力した画像信号に基づいた画像を投影する投影手段と、
上記入力手段で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出手段と、
上記抽出手段で抽出したポインタの一定時間分の移動履歴を保持する保持手段と、
ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶手段と、
上記保持手段で保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断手段と、
上記判断手段で特定の描画操作がなされたと判断した場合に、上記記憶手段から当該描画操作と関連付けられた動作上の機能を設定する制御手段と
を具備したことを特徴とする投影装置。
Input means for inputting an image signal from an external device equipped with a pointing device;
Projection means for projecting an image based on the image signal input by the input means;
Extraction means for extracting the position of the pointer that moves in accordance with the operation of the pointing device from the image signal input by the input means;
Holding means for holding a movement history for a predetermined time of the pointer extracted by the extracting means;
Storage means for storing a specific drawing operation of the pointer in association with a selectable operational function;
A determination means for determining whether or not the specific drawing operation has been performed from a movement history of a pointer for a predetermined time held by the holding means;
A projection apparatus comprising: a control unit that sets an operational function associated with the drawing operation from the storage unit when the determination unit determines that a specific drawing operation has been performed.
上記記憶手段は、ポインタの複数の特定の描画操作及び画像と関連付けて選択可能な複数の動作上の機能を記憶し、
上記判断手段は、上記保持手段で保持するポインタの一定時間分の移動履歴から上記記憶手段で記憶する複数の特定の描画操作中のいずれか1つがなされた際にそれを識別して判断し、
上記制御手段は、上記判断手段での判断結果に応じて当該描画操作と関連付けられた動作上の機能を設定する
ことを特徴とする請求項1記載の投影装置。
The storage means stores a plurality of operation functions that can be selected in association with a plurality of specific drawing operations and images of the pointer,
The determination means identifies and determines when any one of a plurality of specific drawing operations stored in the storage means is performed from a movement history of the pointer held by the holding means for a predetermined time,
The projection apparatus according to claim 1, wherein the control unit sets an operational function associated with the drawing operation in accordance with a determination result of the determination unit.
上記記憶手段は、ポインタの特定の描画操作及び画像中の分割エリアと関連付けて選択可能な複数の動作上の機能を記憶し、
上記判断手段は、上記保持手段で保持するポインタの一定時間分の移動履歴から上記記憶手段で記憶する特定の描画操作が画像中の対応する分割エリアでなされた際にそれを識別して判断し、
上記制御手段は、上記判断手段での判断結果に応じて当該描画操作と関連付けられた動作上の機能を設定する
ことを特徴とする請求項1または2記載の投影装置。
The storage means stores a plurality of operational functions that can be selected in association with a specific drawing operation of the pointer and a divided area in the image,
The determination means identifies and determines when a specific drawing operation stored in the storage means is performed in a corresponding divided area in the image from a movement history of the pointer held by the holding means for a predetermined time. ,
The projection apparatus according to claim 1, wherein the control unit sets an operational function associated with the drawing operation in accordance with a determination result of the determination unit.
上記制御手段は、上記判断手段で特定の描画操作がなされたと判断する第1段階で、上記投影手段で投影する画像の少なくとも一部のエリアを用いて、複数の動作上の機能項目を記載したメニュー画像を投影させ、投影させたメニュー画像中の複数の動作上の機能項目の1つに対して上記判断手段で特定の描画操作がなされたと判断する第2段階以降で、当該描画操作と関連付けられた動作上の機能を設定することを特徴とする請求項1記載の投影装置。   In the first step of determining that a specific drawing operation has been performed by the determination unit, the control unit describes a plurality of operational function items using at least a partial area of the image projected by the projection unit. A menu image is projected and associated with the drawing operation in the second stage or later in which it is determined by the determining means that a specific drawing operation has been performed on one of a plurality of operational function items in the projected menu image. The projection apparatus according to claim 1, wherein the set operational function is set. 上記制御手段は、上記投影手段で投影する画像の少なくとも一部のエリアを用い、半透明の上記メニュー画像を重畳して投影させることを特徴とする請求項4記載の投影装置。   The projection apparatus according to claim 4, wherein the control unit uses at least a part of an area of the image projected by the projection unit to project the semitransparent menu image in a superimposed manner. ポインティングデバイスを備えた外部機器からの画像信号を入力する入力部、及び上記入力部で入力した画像信号に基づいた画像を投影する投影部を備えた装置での投影方法であって、
上記入力部で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出工程と、
上記抽出工程で抽出したポインタの一定時間分の移動履歴を保持する保持工程と、
ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶工程と、
上記保持工程で保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断工程と、
上記判断工程で特定の描画操作がなされたと判断した場合に、上記記憶工程で記憶した、当該描画操作と関連付けられた動作上の機能を設定する制御工程と
を有したことを特徴とする投影方法。
A projection method in an apparatus including an input unit that inputs an image signal from an external device including a pointing device, and a projection unit that projects an image based on the image signal input from the input unit,
An extraction step of extracting the position of the pointer that moves in accordance with the operation of the pointing device from the image signal input by the input unit;
A holding step for holding a movement history for a predetermined time of the pointer extracted in the extraction step;
A storage step of storing a specific drawing operation of the pointer in association with a selectable operational function;
A determination step of determining whether or not the specific drawing operation has been performed from a movement history of a predetermined time of the pointer held in the holding step;
And a control step of setting an operational function associated with the drawing operation stored in the storage step when it is determined that a specific drawing operation has been performed in the determination step. .
ポインティングデバイスを備えた外部機器からの画像信号を入力する入力部、及び上記入力部で入力した画像信号に基づいた画像を投影する投影部を備えた装置が内蔵するコンピュータが実行するプログラムであって、
上記入力部で入力した画像信号中から上記ポインティングデバイスの操作に応じて移動するポインタの位置を抽出する抽出ステップと、
上記抽出ステップで抽出したポインタの一定時間分の移動履歴を保持する保持ステップと、
ポインタの特定の描画操作と選択可能な動作上の機能とを関連付けて記憶する記憶ステップと、
上記保持ステップで保持するポインタの一定時間分の移動履歴から上記特定の描画操作がなされたか否かを判断する判断ステップと、
上記判断ステップで特定の描画操作がなされたと判断した場合に、上記記憶ステップで記憶した、当該描画操作と関連付けられた動作上の機能を設定する制御ステップと
をコンピュータに実行させることを特徴とするプログラム。
A program executed by a computer built in an apparatus including an input unit that inputs an image signal from an external device including a pointing device and a projection unit that projects an image based on the image signal input from the input unit. ,
An extraction step of extracting the position of the pointer that moves in accordance with the operation of the pointing device from the image signal input by the input unit;
A holding step for holding a movement history for a predetermined time of the pointer extracted in the extraction step;
A storing step for storing a specific drawing operation of the pointer in association with a selectable operational function;
A determination step of determining whether or not the specific drawing operation has been performed from a movement history of the pointer held in the holding step for a predetermined time;
When it is determined that a specific drawing operation has been performed in the determination step, the computer is caused to execute a control step for setting an operational function associated with the drawing operation stored in the storage step. program.
JP2008226911A 2008-09-04 2008-09-04 Projector, projecting method, and program Pending JP2010061433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008226911A JP2010061433A (en) 2008-09-04 2008-09-04 Projector, projecting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226911A JP2010061433A (en) 2008-09-04 2008-09-04 Projector, projecting method, and program

Publications (1)

Publication Number Publication Date
JP2010061433A true JP2010061433A (en) 2010-03-18

Family

ID=42188164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226911A Pending JP2010061433A (en) 2008-09-04 2008-09-04 Projector, projecting method, and program

Country Status (1)

Country Link
JP (1) JP2010061433A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102736378A (en) * 2011-03-31 2012-10-17 卡西欧计算机株式会社 Projection apparatus, projection method, and storage medium having program stored thereon
JP2014224934A (en) * 2013-05-16 2014-12-04 富士ゼロックス株式会社 Information processor and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method
JP2006013597A (en) * 2004-06-22 2006-01-12 Seiko Epson Corp Projector composite machine server, client - projector composite machine server system, and method of use thereof
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
JP2006127519A (en) * 2004-10-26 2006-05-18 Fuji Xerox Co Ltd System and method for detecting user action in video stream

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284874A (en) * 2004-03-30 2005-10-13 Seiko Epson Corp Projector and command extraction method
JP2006013597A (en) * 2004-06-22 2006-01-12 Seiko Epson Corp Projector composite machine server, client - projector composite machine server system, and method of use thereof
JP2006099468A (en) * 2004-09-29 2006-04-13 Toshiba Corp Gesture input device, method, and program
JP2006127519A (en) * 2004-10-26 2006-05-18 Fuji Xerox Co Ltd System and method for detecting user action in video stream

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102736378A (en) * 2011-03-31 2012-10-17 卡西欧计算机株式会社 Projection apparatus, projection method, and storage medium having program stored thereon
CN102736378B (en) * 2011-03-31 2014-11-12 卡西欧计算机株式会社 Projection apparatus and projection method
US9182852B2 (en) 2011-03-31 2015-11-10 Casio Computer Co., Ltd. Projection apparatus,method, and program for a projector projecting plural screen sections one screen section at a time
JP2014224934A (en) * 2013-05-16 2014-12-04 富士ゼロックス株式会社 Information processor and program

Similar Documents

Publication Publication Date Title
JP5147016B2 (en) Projection apparatus, projection method, and program
JP4518108B2 (en) Projection apparatus, operation control method and program for projection apparatus
JP6759752B2 (en) Display device, display method and program
JP4458155B2 (en) Projection apparatus, projection method, and program
JP2010079007A (en) Data output device, data display system, data display method, and program
JP2010061433A (en) Projector, projecting method, and program
JP5408175B2 (en) Projection apparatus, projection method, and program
JP5061696B2 (en) Projection apparatus, projection control method, and program
JP2011252971A (en) Projection device, projection system and program
JP5597909B2 (en) Projection device
JP2009229924A (en) Projection device, projection method and program
JP2007132984A (en) Display apparatus, program, information memory medium and on-screen display image display method
JP5223954B2 (en) Image reproduction apparatus and program
JP4894639B2 (en) Image reproduction apparatus and program
JP5825312B2 (en) Image output apparatus, control method and program, and projection system
JP5495389B2 (en) Projection apparatus, projection method, and program
JP5387752B2 (en) Projection apparatus, projection method, and program
JP5407176B2 (en) Projection system
JP2000284222A (en) Laser pointer and laser pointer system
JP5572926B2 (en) Display device, display method, and program
JP5250962B2 (en) Projection apparatus, projection method, and program
JP2007048136A (en) Projector provided with function for projecting two-dimensional position information
JP5753335B2 (en) Projection device
JP2010066310A (en) Projector, projection method, and program
JP2023015560A (en) Control method of display device and display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121009