JP2013196475A - Projection device, projection method and program - Google Patents

Projection device, projection method and program Download PDF

Info

Publication number
JP2013196475A
JP2013196475A JP2012063955A JP2012063955A JP2013196475A JP 2013196475 A JP2013196475 A JP 2013196475A JP 2012063955 A JP2012063955 A JP 2012063955A JP 2012063955 A JP2012063955 A JP 2012063955A JP 2013196475 A JP2013196475 A JP 2013196475A
Authority
JP
Japan
Prior art keywords
image
projection
light
unit
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012063955A
Other languages
Japanese (ja)
Inventor
Yoshihiko Shinozaki
芳彦 篠崎
Ken Yoshino
研 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012063955A priority Critical patent/JP2013196475A/en
Publication of JP2013196475A publication Critical patent/JP2013196475A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To avoid deterioration of an image as much as possible in response to use state of a special purpose point pen.SOLUTION: A projection device includes: a light source part 15 having light emitters of multiple colors; an input/output part 11 for inputting an image signal; projection systems 13, 14, 16 and 17 for forming and projecting an optical image corresponding to the image signal input at the input/output part 11 in response to light color by using light emitted in time division for each color field from the light source part 15; and a CPU 18 for inserting an optical image corresponding to a position detection image for detecting a position in the light source part 15 instead of the optical image corresponding to the image signal input by the input/output part 11, causing the projection system 13, 14, 16 and 17 to project it, causing a pointer communication part 23 and an antenna 25 to transmit information instructing to detect positional coordinates at the projection timing to a point pen 3, and causing the pointer communication part 23 and the antenna 25 to receive information on the positional coordinates transmitted from the point pen 3 in response to the transmission, while determining a frequency for inserting an optical image corresponding to the position detection image in one frame of a color image and causing projection.

Description

本発明は、専用のポイントペンを用いたDLP(登録商標)方式のプロジェクタに好適な投影装置、投影方法及びプログラムに関する。   The present invention relates to a projection apparatus, a projection method, and a program suitable for a DLP (registered trademark) projector using a dedicated point pen.

スクリーンに投影された投影画像におけるレーザビーム等による指示位置を正確に検出するべく、色面順次方式のプロジェクタに、スクリーンを撮像するエリアセンサとエリアセンサに入力する光をレーザポインタが発するレーザビームと同色のR光のみとする光学フィルタ等からなるエリアセンサ部と、R,G,Bの投影タイミングを抽出するタイミング抽出部とを設け、説明画像の投影期間中にはR画像の投影タイミングが到来したら、その時点でスクリーンを撮像し、撮像した画像に基づきレーザビームにより指示された指示位置を検出する処理をMPUに行なわせて、投影画像にレーザビームと同色の部分が存在していたとしても指示位置を検出可能とする技術が考えられている。(例えば、特許文献1)   In order to accurately detect the position indicated by the laser beam or the like in the projection image projected on the screen, an area sensor that images the screen and a laser beam that is emitted from the laser pointer to the area sensor are input to a color-sequential projector. An area sensor unit composed of an optical filter or the like that uses only R light of the same color and a timing extraction unit that extracts R, G, and B projection timings are provided, and the projection timing of the R image arrives during the explanation image projection period. Then, even if there is a portion of the same color as the laser beam in the projected image by letting the MPU perform a process of picking up an image of the screen at that time and detecting the indicated position indicated by the laser beam based on the picked-up image A technique for enabling detection of the indicated position is considered. (For example, Patent Document 1)

特開2004−110797号公報JP 2004-110797 A

上記特許文献に記載された技術を含め、汎用のレーザポインタ等の指示装置を用いてプロジェクタで指示位置を検出するためには、プロジェクタ側に投影画像を撮影するためのエリアセンサ部等の撮像部が必要であり、装置の構成が複雑でコストが増大するという不具合がある。   In order to detect the pointing position with a projector using a general-purpose laser pointer or other pointing device, including the technique described in the above-mentioned patent document, an imaging unit such as an area sensor for shooting a projected image on the projector side Is necessary, and the configuration of the apparatus is complicated and the cost increases.

ところで近時、DLP(登録商標)方式のプロジェクタにおいて、専用のポインタペンを用いることでレーザポインタのように使用することが可能な環境が実現されている。この種の専用ポインタペンは、スポット状の極小範囲の輝度を検出する受光センサ部とプロジェクタ本体との制御信号を送受する通信部とを備える。   Recently, in a DLP (registered trademark) projector, an environment that can be used like a laser pointer is realized by using a dedicated pointer pen. This type of dedicated pointer pen includes a light receiving sensor unit that detects the brightness of a spot-like minimum range and a communication unit that transmits and receives control signals to and from the projector body.

プロジェクタ本体が、本来の投影画像中に、極短時間周期でX,Y座標検出用の各グラデーション画像を投影すると共に、専用ポイントペンに輝度検出を指示する。専用ポイントペンでは、プロジェクタ本体からの指示タイミングにしたがって輝度検出を実行し、検出結果を座標データ化してプロジェクタ本体に送信する。プロジェクタ本体は、専用ポイントペンから送られてくる座標データを送られてくる座標データにしたがって、投影画像中の対応位置にポインタ画像を重畳して投影することで、あたかも専用ポイントペンから出たビーム光が投影画像上に照射されて、位置を指定しているように見える。   The projector main body projects each gradation image for X and Y coordinate detection in an extremely short period on the original projected image, and instructs the dedicated point pen to detect luminance. The dedicated point pen executes luminance detection according to the instruction timing from the projector main body, converts the detection result into coordinate data, and transmits it to the projector main body. The projector body projects the coordinate data sent from the dedicated point pen by superimposing the pointer image on the corresponding position in the projected image according to the received coordinate data, and as if the beam emitted from the dedicated point pen. Light appears on the projected image and appears to specify the position.

この種の専用ポイントペンを使用するためにプロジェクタ本体側が本来の投影画像中に挟んでごく短時間で投影するグラデーション画像は、例えばX座標検出用の左端及び右端の一方が最も明るく、他方が最も暗い階調となる画像と、y座標検出用の上端及び下端の一方が最も明るく、他方が最も暗い階調となる画像の2枚が1組となる。   In order to use this type of dedicated point pen, the gradation image projected in a very short time by the projector body sandwiched between the original projection images, for example, one of the left end and the right end for X coordinate detection is brightest and the other is the most One set of two images is a dark gradation image, and one of the upper and lower ends for detecting the y coordinate is the brightest and the other image is the darkest gradation.

しかしながら、1組のグラデーション画像を挿入した場合、2枚を組み合わせた残像としては本来の投影画像の1対角線に沿って斜めに輝度が変化するものとなるため、これを相殺するべく、グラデーションの階調変化の方向が互いに逆となる画像と対にして、2組のグラデーション画像を基本単位として挿入することになる。   However, when a set of gradation images is inserted, the afterimage that combines the two images changes in luminance obliquely along one diagonal line of the original projected image. Two pairs of gradation images are inserted as basic units in pairs with images whose tone change directions are opposite to each other.

上述したグラデーション画像を専用ポイントペンの指示位置検出用に挿入する場合、ポイントペンの追従性能を上げるためには、より高い頻度で上記グラデーション画像を本来の投影画像中に挿入する必要がある。   When the above-described gradation image is inserted for detecting the designated position of the dedicated point pen, it is necessary to insert the gradation image into the original projection image at a higher frequency in order to improve the tracking performance of the point pen.

そのようにグラデーション画像をより高い頻度で(長い時間)挿入した場合、画像を認識する者(鑑賞者)は、本来の投影画像とともに投影画像とは関係のないグラデーション画像を認識することになるが、その場合、投影画像の階調表現のために用いる時間がその分だけ短縮され、投影画像がグラデーション画像により薄められてしまうため、投影画像のコントラストが低下するという不具合がある。   When the gradation image is inserted at a higher frequency (for a long time) as such, the person who recognizes the image (viewer) recognizes the gradation image that is not related to the projection image together with the original projection image. In this case, the time used for the gradation expression of the projected image is shortened by that amount, and the projected image is diluted by the gradation image, so that the contrast of the projected image is lowered.

特に、本来の投影画像自体が暗い階調の多いものであった場合、所謂「白浮き」と呼称されるような画像の暗部が不自然に明るい、あるいは色バランスが崩れた画像として認識される、という不具合がある。   In particular, when the original projected image itself has many dark gradations, the dark portion of the image, which is so-called “white floating”, is recognized as an image that is unnaturally bright or has an unbalanced color balance. There is a problem that.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、ポイントペンを使用する状況に応じて適切な動作環境を設定することが可能な投影装置、投影方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projection apparatus, a projection method, and a program capable of setting an appropriate operating environment in accordance with a situation where a point pen is used. Is to provide.

本発明の一態様は、複数色の発光素子を有する光源と、画像信号を入力する入力手段と、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段とを具備したことを特徴とする。   One embodiment of the present invention uses a light source having light emitting elements of a plurality of colors, input means for inputting an image signal, and light transmitted from the light source in a time division for each color field, depending on the color of the light. Projection means for forming and projecting a light image corresponding to the image signal input by the input means, and projection means for inserting a light image corresponding to a position detection image for detecting a position in the light image. The projection control means for projecting the image and the information for instructing the detection of the position coordinates at the timing when the projection control means projects the light image corresponding to the position detection image by the projection means to the point device outside the apparatus. A transmission unit; a reception unit that receives information about the position coordinates transmitted from the point device in response to transmission by the transmission unit; and the projection control unit that corresponds to the position detection image in one frame of the color image. Characterized in that by inserting an optical image comprises a determination means for determining the frequency of projecting to.

本発明によれば、ポイントペンを使用する状況に応じて適切な動作環境を設定することが可能となる。   According to the present invention, it is possible to set an appropriate operating environment according to the situation in which the point pen is used.

本発明の一実施形態に係る投影システムの接続構成を示す図。The figure which shows the connection structure of the projection system which concerns on one Embodiment of this invention. 同実施形態に係るデータプロジェクタ装置の機能構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of the data projector apparatus according to the embodiment. 同実施形態に係るポイントペンの機能構成を示すブロック図。The block diagram which shows the function structure of the point pen which concerns on the same embodiment. 同実施形態に係るPCのハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration of the PC according to the embodiment. 同実施形態に係る主としてポインタ位置検出用画像設定に関する処理内容を示すフローチャート。6 is a flowchart mainly showing processing contents related to image setting for pointer position detection according to the embodiment. 同実施形態に係る図5の自動設定処理の処理内容を示すサブルーチンのフローチャート。The flowchart of the subroutine which shows the processing content of the automatic setting process of FIG. 5 which concerns on the embodiment. 同実施形態に係る位置検出用画像を挿入しない通常シーケンスを説明する図。The figure explaining the normal sequence which does not insert the image for position detection concerning the embodiment. 同実施形態に係る位置検出用画像を3回挿入するシーケンスを説明する図。The figure explaining the sequence which inserts the image for position detection concerning the embodiment 3 times. 同実施形態に係る位置検出用画像を2回挿入するシーケンスを説明する図。The figure explaining the sequence which inserts the image for position detection concerning the embodiment twice. 同実施形態に係る位置検出用画像を1回挿入するシーケンスを説明する図。The figure explaining the sequence which inserts the image for position detection concerning the embodiment once. 同実施形態に係る通常のγ補正条件、γ補正条件1−1(、γ補正条件1−2)の内容を説明するための図。The figure for demonstrating the content of the normal (gamma) correction conditions and the (gamma) correction conditions 1-1 (and (gamma) correction conditions 1-2) based on the embodiment. 同実施形態に係るγ補正条件2の内容を説明するための図。The figure for demonstrating the content of the (gamma) correction condition 2 which concerns on the same embodiment. 同実施形態に係るγ補正条件2の内容を説明するための図。The figure for demonstrating the content of the (gamma) correction condition 2 which concerns on the same embodiment.

以下本発明をDLP(登録商標)方式のデータプロジェクタ装置にPCを接続して投影システムを構築した場合の一実施形態について図面を参照して説明する。
図1は本実施形態に係る投影システムの接続構成を例示する。同図で1がプロジェクタ、2がプロジェクタ1に投影する画像を提供するPCである。プロジェクタ1とPC2はVGAケーブルVC及びUSBケーブルUCで有線接続される。PC2からVGAケーブルVCを介して画像信号が提供され、プロジェクタ1はこの画像信号に応じた投影画像PIをスクリーンに投影する。
Hereinafter, an embodiment in which the present invention is constructed by connecting a PC to a DLP (registered trademark) data projector apparatus and constructing a projection system will be described with reference to the drawings.
FIG. 1 illustrates the connection configuration of the projection system according to the present embodiment. In the figure, 1 is a projector and 2 is a PC that provides an image to be projected onto the projector 1. The projector 1 and the PC 2 are connected by wire with a VGA cable VC and a USB cable UC. An image signal is provided from the PC 2 via the VGA cable VC, and the projector 1 projects a projection image PI corresponding to the image signal onto the screen.

3はプロジェクタ1専用のポイントペンであり、プロジェクタ1とポイントペン3の間は例えばBluetooth(登録商標)技術により無線接続される。プロジェクタ1が投影する投影画像PIには、PC2から提供される画像に加えて、位置検出用の画像が時分割で含まれている。   Reference numeral 3 denotes a point pen dedicated to the projector 1, and the projector 1 and the point pen 3 are wirelessly connected by, for example, Bluetooth (registered trademark) technology. The projection image PI projected by the projector 1 includes a position detection image in a time division manner in addition to the image provided from the PC 2.

ポイントペン3は内部にプロジェクタ1との通信系回路と、受光強度(輝度)から位置座標を算出する演算回路を備え、プロジェクタ1からの輝度検出の指示を受信し、ポイントペン3の受光部が向いた投影画像PI内のそのポイント位置の輝度から位置座標を算出し、ポイント指示の座標情報(位置座標)としてプロジェクタ1に送信する。   The point pen 3 includes a communication system circuit with the projector 1 and an arithmetic circuit that calculates position coordinates from the received light intensity (brightness). The point pen 3 receives a luminance detection instruction from the projector 1, and the light receiving unit of the point pen 3 A position coordinate is calculated from the luminance of the point position in the projected image PI that is faced, and is transmitted to the projector 1 as coordinate information (position coordinates) of the point instruction.

プロジェクタ1では、受信したポイントペン3の座標情報に基づいて、投影画像PI中にポイントマークPTの画像が重畳されるような画像信号を生成して投影する。
したがって、ポイントペン3を把持するユーザは、あたかもポイントペン3から直接ポイントマークPTの形状をした光が出射しているような感覚でポイントペン3を操作することができる。
Based on the received coordinate information of the point pen 3, the projector 1 generates and projects an image signal such that the image of the point mark PT is superimposed on the projection image PI.
Therefore, the user holding the point pen 3 can operate the point pen 3 as if the light having the shape of the point mark PT is emitted directly from the point pen 3.

図2は上記プロジェクタ1の概略機能構成を示す図である。
入出力部11は、例えばビデオ入力端子、RGB入力端子、VGA端子、PCと接続するためのUSB端子などにより構成される。入出力部11に入力された画像信号は、必要に応じてデジタル化された後に、システムバスSBを介して画像変換部12に送られる。
FIG. 2 is a diagram showing a schematic functional configuration of the projector 1.
The input / output unit 11 includes, for example, a video input terminal, an RGB input terminal, a VGA terminal, a USB terminal for connecting to a PC, and the like. The image signal input to the input / output unit 11 is digitized as necessary, and then sent to the image conversion unit 12 via the system bus SB.

画像変換部12は、スケーラとも称され、入力される画像データを投影に適した所定のフォーマットの画像データに統一して投影処理部13へ送る。   The image conversion unit 12 is also referred to as a scaler, and the input image data is unified into image data of a predetermined format suitable for projection and sent to the projection processing unit 13.

この際、上記ポイントマークPTを含むOSD(On Screen Display)用の各種動作状態を示すシンボル等のデータも必要に応じて画像変換部12が画像データに重畳加工し、加工後の画像データを投影処理部13へ送る。   At this time, data such as symbols indicating various operating states for OSD (On Screen Display) including the point mark PT is also superposed on the image data by the image conversion unit 12 as necessary, and the processed image data is projected. The data is sent to the processing unit 13.

投影処理部13は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子であるマイクロミラー素子14を表示するべく駆動する。   The projection processing unit 13 multiplies a frame rate according to a predetermined format, for example, 120 [frames / second], the number of color component divisions, and the number of display gradations, in accordance with the transmitted image data. The micromirror element 14 that is a spatial light modulation element is driven to display by the time-division driving.

このマイクロミラー素子14は、アレイ状に配列された複数、例えばWXGA(Wide eXtended Graphic Array)(横1280画素×縦800画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して画像を表示することで、その反射光により光像を形成する。   This micromirror element 14 is turned on / off individually at a high speed for each inclination angle of a plurality of micromirrors arranged in an array, for example, WXGA (Wide eXtended Graphics Array) (horizontal 1280 pixels × vertical 800 pixels). By displaying the image, an optical image is formed by the reflected light.

このときマイクロミラー素子14で表示する画像には、ポイントペン3のポイント位置検出用画像が上記入出力部11で入力された画像信号に応じた画像に代えて、時分割で適切な頻度で含まれる。詳しくは後述する。   At this time, the image displayed by the micromirror element 14 includes the point position detection image of the point pen 3 at an appropriate frequency in time division instead of the image corresponding to the image signal input by the input / output unit 11. It is. Details will be described later.

一方で、光源部15から時分割でR,G,Bの原色光を含む複数色の光が循環的に時分割で順次出射される。この光源部15からの光が、ミラー16で全反射して上記マイクロミラー素子14に照射される。   On the other hand, light of a plurality of colors including primary color lights of R, G, and B is sequentially emitted in a time division manner from the light source unit 15 in a time division manner. The light from the light source unit 15 is totally reflected by the mirror 16 and applied to the micromirror element 14.

そして、マイクロミラー素子14での反射光で光源光の色に応じた光像が形成され、形成された光像が投影レンズ部17を介して、投影対象となるここでは図示しないスクリーンに投影表示される。   Then, a light image corresponding to the color of the light source light is formed by the reflected light from the micromirror element 14, and the formed light image is projected and displayed on a screen (not shown) to be projected through the projection lens unit 17. Is done.

なお上記光源部15は、R,G,Bの原色光の他に、必要によりR,G,Bの光源素子を同時に発光させることでW(白色)の光を出射し、投影レンズ部17よりモノクロの画像を投影させることができるものとする。   The light source unit 15 emits W (white) light by causing the R, G, and B light source elements to emit light simultaneously, if necessary, in addition to the R, G, and B primary color lights. It is assumed that a monochrome image can be projected.

上記各回路の動作すべてをCPU18が制御する。このCPU18は、メインメモリ19及びプログラムメモリ20と直接接続される。メインメモリ19は、例えばSRAMで構成され、CPU18のワークメモリとして機能する。プログラムメモリ20は、電気的に書換え可能な不揮発性メモリで構成され、CPU18が実行する動作プログラムや各種定型データ等を記憶する。CPU18は、上記メインメモリ19及びプログラムメモリ20を用いて、このプロジェクタ1内の制御動作を統括して実行する。   The CPU 18 controls all the operations of the above circuits. The CPU 18 is directly connected to the main memory 19 and the program memory 20. The main memory 19 is composed of, for example, an SRAM and functions as a work memory for the CPU 18. The program memory 20 is composed of an electrically rewritable nonvolatile memory, and stores an operation program executed by the CPU 18 and various fixed data. The CPU 18 uses the main memory 19 and the program memory 20 to perform overall control operations in the projector 1.

上記CPU18は、操作部21からのキー操作信号に応じて各種投影動作を実行する。この操作部21は、プロジェクタ1の本体に設けられるキー操作部と、このプロジェクタ1専用の図示しないリモートコントローラからの赤外光を受光する赤外線受光部とを含み、ユーザが本体のキー操作部またはリモートコントローラで操作したキーに基づくキー操作信号をCPU18へ直接出力する。   The CPU 18 performs various projection operations according to key operation signals from the operation unit 21. The operation unit 21 includes a key operation unit provided in the main body of the projector 1 and an infrared light receiving unit that receives infrared light from a remote controller (not shown) dedicated to the projector 1. A key operation signal based on the key operated by the remote controller is directly output to the CPU 18.

上記CPU18はさらに、上記システムバスSBを介して音声処理部22、ポインタ通信部23とも接続される。音声処理部22は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部24を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。
ポインタ通信部23は、アンテナ25を介して上記ポイントペン3と無線接続し、ポイントペン3から送られてくる座標情報やポイントペン3に備えられる各種キーの操作信号等を受信して上記CPU18へ送出する。
The CPU 18 is further connected to an audio processing unit 22 and a pointer communication unit 23 via the system bus SB. The sound processing unit 22 includes a sound source circuit such as a PCM sound source, converts the sound data given during the projection operation into an analog signal, drives the speaker unit 24 to emit a loud sound, or generates a beep sound or the like as necessary.
The pointer communication unit 23 is wirelessly connected to the point pen 3 via the antenna 25, receives coordinate information sent from the point pen 3, operation signals of various keys provided in the point pen 3, and the like to the CPU 18. Send it out.

次に図3により上記ポイントペン3の機能構成を説明する。
ポイントペン3の先端に受光レンズ系31が組込まれており、この受光レンズ系31の合焦位置に受光素子として例えばフォトトランジスタ32が配置される。フォトトランジスタ32の出力信号はA/D変換部33でデジタル化された後に復調部34を介して座標算出部35に送られる。
Next, the functional configuration of the point pen 3 will be described with reference to FIG.
A light receiving lens system 31 is incorporated at the tip of the point pen 3, and a phototransistor 32, for example, is disposed as a light receiving element at a focus position of the light receiving lens system 31. The output signal of the phototransistor 32 is digitized by the A / D converter 33 and then sent to the coordinate calculator 35 via the demodulator 34.

座標算出部35は、復調部34の出力から投影画像PIにおけるポイントペン3のポイント位置を表す位置座標の算出とチェック等を行ない、その算出結果をバスBを介してCPU36へ出力する。   The coordinate calculation unit 35 calculates and checks the position coordinates representing the point position of the point pen 3 in the projection image PI from the output of the demodulation unit 34 and outputs the calculation result to the CPU 36 via the bus B.

CPU36は、上記A/D変換部33、復調部34、及び座標算出部35とこのポイントペン3全体に係る制御動作を司るもので、メインメモリ37及びプログラムメモリ38が直接接続される。メインメモリ37は、CPU36のワークメモリとして機能する。プログラムメモリ38は、CPU36が実行する動作プログラムや各種定型データを記憶する。CPU36は、上記メインメモリ37及びプログラムメモリ38を用いて、このポイントペン3内の制御動作を実行する。   The CPU 36 controls the A / D conversion unit 33, the demodulation unit 34, the coordinate calculation unit 35, and the control operation related to the entire point pen 3, and the main memory 37 and the program memory 38 are directly connected to each other. The main memory 37 functions as a work memory for the CPU 36. The program memory 38 stores an operation program executed by the CPU 36 and various fixed data. The CPU 36 executes the control operation in the point pen 3 using the main memory 37 and the program memory 38.

このCPU36に対してさらに、クリックキー部39からキー操作信号が入力される。クリックキー部39は、例えばポイントペン3の軸方向に沿って配設された、2つのクリックキーそれぞれの操作信号をCPU36に出力する。   Further, a key operation signal is input from the click key unit 39 to the CPU 36. The click key unit 39 outputs an operation signal of each of the two click keys arranged along the axial direction of the point pen 3 to the CPU 36, for example.

ここでクリックキー部39を構成する2つのクリックキーは、例えば図1に示すように、ポイントペン3の先端側に位置する、より操作面積が大きなクリックキー3a(マウスポインタの左クリックキーに相当する)と、そのキーに隣接して後方側に位置する、比較的小さなクリックキー3b(マウスポインタの右クリックキーに相当する)とからなるものとする。   Here, the two click keys constituting the click key unit 39 are, for example, as shown in FIG. 1, the click key 3a (corresponding to the left click key of the mouse pointer) located on the tip side of the point pen 3 and having a larger operation area. And a relatively small click key 3b (corresponding to the right click key of the mouse pointer) located on the rear side adjacent to the key.

さらに上記CPU36は、バスBを介してプロジェクタ通信部40とも接続される。このプロジェクタ通信部40は、アンテナ41を介して上記プロジェクタ1と無線接続され、プロジェクタ1からの輝度検出を指示する情報を受信し、その指定されたタイミングで取得した輝度に基づき算出された座標情報やクリックキー部39の操作信号をプロジェクタ1に送信する。   Further, the CPU 36 is also connected to the projector communication unit 40 via the bus B. This projector communication unit 40 is wirelessly connected to the projector 1 via the antenna 41, receives information instructing luminance detection from the projector 1, and is calculated based on the luminance acquired at the designated timing. And an operation signal of the click key unit 39 is transmitted to the projector 1.

図4は、上記PC2のハードウェア構成を示す。各種処理制御を司るCPU51とフロントサイドバスFSBを介してノースブリッジ52が接続される。   FIG. 4 shows the hardware configuration of the PC 2. The north bridge 52 is connected to the CPU 51 that controls various processes and the front side bus FSB.

このノースブリッジ52にはまた、メモリバスMBを介してメインメモリ53と、グラフィクスインタフェースAGPを介してグラフィックスアクセラレータ54及びグラフィックメモリ55と、そして図示しないディスプレイコネクタを介してディスプレイ56と接続される他、図示しないRGB出力端子を介してアナログの画像信号を出力する。   The north bridge 52 is connected to a main memory 53 via a memory bus MB, a graphics accelerator 54 and a graphic memory 55 via a graphics interface AGP, and a display 56 via a display connector (not shown). Then, an analog image signal is output via an RGB output terminal (not shown).

さらにノースブリッジ52はサウスブリッジ57とも接続され、主としてこれらの間での入出力制御を実行する。   Further, the north bridge 52 is also connected to the south bridge 57, and mainly performs input / output control between them.

サウスブリッジ57は、PCI−Expressスロット58、キーボード/マウス59、ハードディスク装置(HDD)60、光学ディスクドライブ61、ネットワークコネクタ62、及びUSBコネクタ63と接続され、主としてこれら周辺回路とノースブリッジ52との間の入出力制御を行なう。   The south bridge 57 is connected to a PCI-Express slot 58, a keyboard / mouse 59, a hard disk device (HDD) 60, an optical disk drive 61, a network connector 62, and a USB connector 63. Input / output control between.

上記ハードディスク装置60内に、OS(オペレーティングシステム)と各種のアプリケーションプログラム、各種のデータファイル等が予めインストールされているものとする。   It is assumed that an OS (operating system), various application programs, various data files, and the like are installed in the hard disk device 60 in advance.

その他、PC2を構成する個々の要素自体は、きわめて一般的な周知の技術であるのでその説明は省略するものとする。   In addition, since the individual elements constituting the PC 2 are very general well-known techniques, the description thereof will be omitted.

次に上記実施形態の動作について、図5〜図13を用いて説明する。
図5は、本発明の一実施形態に係る主としてポインタ位置検出用画像設定に関する処理内容を示すフローチャート、図6は、同実施形態に係る図5の自動設定処理の処理内容を示すサブルーチンのフローチャートである。
Next, the operation of the above embodiment will be described with reference to FIGS.
FIG. 5 is a flowchart mainly showing processing contents related to image setting for pointer position detection according to an embodiment of the present invention, and FIG. 6 is a flowchart of a subroutine showing processing contents of automatic setting processing of FIG. 5 according to the embodiment. is there.

図7は、同実施形態に係る位置検出用画像を挿入しない通常シーケンスを説明する図、図8は、同実施形態に係る位置検出用画像を3回挿入するシーケンスを説明する図、図9は、同実施形態に係る位置検出用画像を2回挿入するシーケンスを説明する図、図10は、同実施形態に係る位置検出用画像を1回挿入するシーケンスを説明する図である。   FIG. 7 is a diagram illustrating a normal sequence in which the position detection image according to the embodiment is not inserted, FIG. 8 is a diagram illustrating a sequence in which the position detection image according to the embodiment is inserted three times, and FIG. FIG. 10 is a diagram for explaining a sequence for inserting the position detection image according to the embodiment twice. FIG. 10 is a diagram for explaining a sequence for inserting the position detection image according to the embodiment once.

図11は、同実施形態に係る通常のγ補正条件、γ補正条件1−1(、γ補正条件1−2)の内容を説明するための図であり、図12、図13は、同実施形態に係るγ補正条件2の内容を説明するための図である。   FIG. 11 is a diagram for explaining the contents of the normal γ correction condition and γ correction condition 1-1 (and γ correction condition 1-2) according to the embodiment, and FIGS. It is a figure for demonstrating the content of the (gamma) correction condition 2 which concerns on a form.

図5は、上記図1に示したように本投影システムを稼動している過程で、PC2からの画像信号を投影するプロジェクタ1内において、CPU18及びこのCPU18の制御の下に投影処理部13が実行する、主としてポイントペン3のポイント位置検出用画像の頻度設定に関する処理内容の一部を示す。   FIG. 5 shows the CPU 18 and the projection processing unit 13 under the control of the CPU 18 in the projector 1 that projects the image signal from the PC 2 in the process of operating the projection system as shown in FIG. A part of the processing contents relating to the frequency setting of the point position detection image mainly executed by the point pen 3 is shown.

図示する如く当該プログラムでは、CPU18が操作部21からのキー入力信号により、設定メニューの選択操作がなされたか否かを判断する(ステップS101)。   As shown in the figure, in the program, the CPU 18 determines whether or not a setting menu selection operation has been performed by a key input signal from the operation unit 21 (step S101).

ここで、設定メニューの選択操作がなされていないと判断した場合、CPU18はその時に入出力部11から入力されている画像信号を用い、その時点で設定されている内容にしたがったポイントペン3の位置検出用画像の挿入頻度を勘案した投影動作を実行した上で(ステップS102)、再び上記ステップS101からの処理に戻る。   If it is determined that the setting menu selection operation is not performed, the CPU 18 uses the image signal input from the input / output unit 11 at that time, and uses the point pen 3 according to the contents set at that time. After performing the projection operation taking into account the frequency of inserting the position detection image (step S102), the process returns to step S101 again.

こうしてCPU18は、上記ステップS101,S102の処理を繰返し実行し、設定メニューの設定操作がなされるのを待機しながら投影動作を実行する。   In this way, the CPU 18 repeatedly executes the processes of steps S101 and S102, and executes the projection operation while waiting for the setting menu setting operation to be performed.

操作部21で設定メニューを選択するキー入力がなされた場合、CPU18はステップS101でそれを判断し、それまで投影していた、入出力部11から入力される画像信号にしたがった画像に代えて、設定メニューの各項目を列挙する画像をマイクロミラー素子14で表示し、その光像を投影レンズ部17により投影させる(ステップS103)。   When a key input for selecting a setting menu is made on the operation unit 21, the CPU 18 determines that in step S101, and replaces the image according to the image signal input from the input / output unit 11 that has been projected so far. Then, an image listing each item of the setting menu is displayed on the micromirror element 14, and the optical image is projected by the projection lens unit 17 (step S103).

なお、設定メニューの各項目を入出力部11から入力される画像信号にしたがった画像に重畳(合成)させるように表示してもよい。   Each item of the setting menu may be displayed so as to be superimposed (synthesized) on the image according to the image signal input from the input / output unit 11.

ここで、設定可能なメニュー項目としては、他の各種設定モードと共にポイントペン用のモードを設け、当該モード中にポイントペン3使用の有無、ポイントペン3使用時のポイントマークの追従性と画質とのバランスに関する、位置検出画像の挿入頻度についてのユーザによる手動/自動の設定、手動設定の場合の上記ポイントマーク追従性と画質とのバランスに関する設定等を含むものとする。   Here, as a menu item that can be set, a mode for a point pen is provided together with other various setting modes, and whether or not the point pen 3 is used during the mode, the followability of the point mark and the image quality when the point pen 3 is used. It includes manual / automatic setting by the user regarding the frequency of insertion of the position detection image regarding the balance of the position, setting regarding the balance between the point mark followability and image quality in the case of manual setting, and the like.

この設定メニューの選択画像を投影した状態で何らかの選択操作がなされた場合、操作部21からのキー入力にしたがってCPU18は、まず設定されたのがポイントペンモードに関する内容であるか否かを判断する(ステップS104)。   When any selection operation is performed in a state where the selection image of the setting menu is projected, the CPU 18 first determines whether or not the content related to the point pen mode is set according to the key input from the operation unit 21. (Step S104).

ここで設定されたのがポイントペンモードに関する内容ではないと判断した場合、CPU18は、その設定された内容に対応した動作設定を行なうものとする(ステップS105)。このポイントペンモード以外の設定に関しては、本発明には直接関係しないものとしてその説明を省略する。CPU18はその設定動作終了後に再び上記ステップS101からの処理に戻る。   If it is determined that the content set here is not the content related to the point pen mode, the CPU 18 performs the operation setting corresponding to the set content (step S105). The settings other than the point pen mode are not directly related to the present invention, and the description thereof is omitted. The CPU 18 returns to the processing from step S101 again after the setting operation is completed.

また設定されたのがポイントペンモードに関する内容であった場合、CPU18は上記ステップS104でそれを判断し、次にポイントペン3を使用する設定がなされているか否かを判断する(ステップS106)。   If the content related to the point pen mode is set, the CPU 18 determines this in step S104, and then determines whether or not the setting to use the point pen 3 has been made (step S106).

ここでポイントペン3の使用する設定がなされていないと判断した場合、CPU18はポイントペン3の位置検出用画像を使用せず、入出力部11から入力される画像信号に基づいた画像のみを使用する通常シーケンスを選択して設定する(ステップS107)。   If it is determined that the setting to use the point pen 3 is not made, the CPU 18 does not use the position detection image of the point pen 3 but uses only the image based on the image signal input from the input / output unit 11. The normal sequence to be selected is selected and set (step S107).

この通常シーケンスを模式的に示すと、図7のようなものである。   This normal sequence is schematically shown in FIG.

合わせてCPU18は、R,G,B各色の階調表現について、特に中間強調を行なわない通常のγ補正条件(図11(A)参照)を選択して設定し(ステップS108)、以上で設定メニューの選択動作を完了したものとして、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 18 selects and sets a normal γ correction condition (see FIG. 11A) that does not particularly perform intermediate emphasis for the gradation representation of each of the R, G, and B colors (step S108). Assuming that the menu selection operation has been completed, the process returns to step S101.

また上記ステップS106でポイントペン3を使用する設定がなされていると判断した場合、CPU18は次にポイントペン3の操作に対するポイントマークの追従性等について、ユーザによる手動設定状態となっているか否かを判断する(ステップS109)。   If it is determined in step S106 that the setting to use the point pen 3 has been made, the CPU 18 next determines whether or not the user is in a manual setting state regarding the followability of the point mark to the operation of the point pen 3 or the like. Is determined (step S109).

ここでユーザによる手動設定状態となっていると判断した場合、CPU18は、次いでポイントペン3の操作に対するポイントマークの追従性を最優先する設定がなされているか否かを判断する(ステップS110)。   If it is determined that the manual setting state is set by the user, the CPU 18 then determines whether or not the setting that gives the highest priority to the followability of the point mark with respect to the operation of the point pen 3 has been made (step S110).

ここでポイントマークの追従性を最優先する設定がなされていると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド全てにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS111)。   If the CPU 18 determines that the highest priority is given to the followability of the point mark, the CPU 18 outputs from the input / output unit 11 at the end of the field in each of the R, G, and B fields constituting one frame of the color image. Instead of an image based on an image signal, a sequence for inserting a position detection image is selected and set (step S111).

このシーケンスを模式的に示すと、図8のようなものとなる。   This sequence is schematically shown in FIG.

この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を3回実行することとなる。
ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像(位置検出用画像)を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。
With this setting, the position detection process of the point pen 3 is executed three times while one color image frame is projected.
In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images (position detection images) of the fourth gradation image are inserted and projected at the end of each field as a set, and a point pen is used at a predetermined timing from the start of projection for each gradation image projection. Against 3 It transmits information for specifying the brightness detection.

なお、上記図8では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。   In FIG. 8, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.

ここで、第1のグラデーション画像と第3のグラデーション画像、第2のグラデーション画像と第4のグラデーション画像は、それぞれ輝度が変化する方向が反転した設定となっている。   Here, the first gradation image and the third gradation image, and the second gradation image and the fourth gradation image are set so that the direction in which the luminance changes is inverted.

すなわち、単に画像中のポイント位置のX,Y座標を検出するためであれば、第1のグラデーション画像と第3のグラデーション画像の一方、及び第2のグラデーション画像と第4のグラデーション画像の一方の計2枚の互いに輝度の変化方向が直交するようなグラデーション画像を用いることで、原理的には座標検出が可能となる。   That is, if it is simply to detect the X and Y coordinates of the point position in the image, one of the first gradation image and the third gradation image, and one of the second gradation image and the fourth gradation image. Coordinate detection is possible in principle by using a total of two gradation images whose luminance change directions are orthogonal to each other.

しかしながら、人間の残像を利用するこの種のフィールドシーケンシャル方式のカラー画像投影において、2枚のグラデーション画像の残像効果により輝度の変化方向が矩形の1対角線に沿ったものとなり、本来の入力画像に対して悪影響を与えることになる。   However, in this type of field sequential color image projection using human afterimages, the luminance change direction is along one diagonal of the rectangle due to the afterimage effect of the two gradation images. Adversely affected.

そのため、それぞれ輝度変化が反転した計4枚のグラデーション画像を用いることで画面内での明るさの勾配を相殺すると共に、反転した画像から検出値の差分を算出することにより、投影環境の明るさ成分も相殺するようにできるので、位置座標の検出精度の向上に寄与させている。   Therefore, the brightness of the projection environment is calculated by canceling out the brightness gradient in the screen by using a total of four gradation images, each of which changes in luminance, and calculating the difference between the detected values from the inverted images. Since the components can also be canceled out, it contributes to the improvement of the detection accuracy of the position coordinates.

ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。   The point pen 3 detects the luminance at the timing according to the instruction information sent from the projector 1, and displays the screen from each luminance information obtained by the total four detections of the first to fourth gradation images for each instruction information. The X and Y coordinate positions pointed at are calculated, and the calculated coordinate information is returned to the projector 1.

そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報に応じてプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。   Then, the projector 1 can determine the coordinates of the point position of the point pen 3 according to the coordinate information returned from the point pen 3 after a certain delay time.

ここでカラー画像1フレームに対して時系列で3点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された適宜座標の平滑化処理等を行なって不必要に画像中で微振動しないようにしてもよい。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。   Here, coordinate information of point positions for three points in a time series can be acquired for one color image frame. Further, the CPU 18 may perform smoothing processing of the acquired coordinates as appropriate to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input / output unit 11.

合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件1−1に従い、特にR,G,Bの各画素階調共に特に中間階調を強調するようなγ補正条件を設定し(ステップS112)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 18 sets γ correction conditions that particularly emphasize the intermediate gradation for each of the R, G, and B pixel gradations in accordance with the γ correction condition 1-1 stored in advance in the program memory 20 ( In step S112), it is assumed that the series of processes related to the setting menu selection operation has been completed, and the process returns to step S101.

図11は、上記γ補正条件1−1の内容を説明する図である。すなわち、図11(A)が通常の入力階調に対するγ補正後の出力階調を表すものとした場合に、このγ補正条件1−1では、図11(B)に示すように(波線部分が図11(A)と同じγ特性)、特に中間階調領域での変化の度合いが大きくなるようにS字状カーブの曲率を高める(中間調を伸張する)設定とすることにより、R,G,Bの各フィールド全てにおいてコントラストを強調するような設定を行なうものである。   FIG. 11 is a diagram for explaining the contents of the γ correction condition 1-1. That is, when FIG. 11A represents the output gradation after γ correction with respect to the normal input gradation, the γ correction condition 1-1 shows that (the wavy line portion) as shown in FIG. Is the same γ characteristic as in FIG. 11A), in particular, by setting the curvature of the S-shaped curve to be increased (extend the halftone) so that the degree of change in the intermediate gradation region is increased, R, Settings are made so as to enhance the contrast in all the G and B fields.

このγ補正条件1−1の強調の程度は、1フレーム内における位置検出用画像の挿入時間の比率に応じて、変えるようにすればよい。   The degree of emphasis of the γ correction condition 1-1 may be changed according to the ratio of the position detection image insertion time in one frame.

つまり、本実施形態では、画像変換部12が通常実施しているγ補正処理に加え、位置検出用画像をR,G,Bの各フィールドに挿入したことにより薄められてしまうコントラスト感を強める補正を併せて実行するものとするものである。   In other words, in the present embodiment, in addition to the γ correction processing that is normally performed by the image conversion unit 12, correction that enhances the contrast that is diluted by inserting the position detection image into each of the R, G, and B fields. Are to be executed together.

また、上記ステップS110でポイントマークの追従性を最優先する設定がなされていないと判断した場合、CPU18は次いでポイントマークの追従性と画質のバランスで、追従性をより優先する設定がなされているか否かを判断する(ステップS113)。   If it is determined in step S110 that the setting that gives the highest priority to the followability of the point mark is not made, the CPU 18 then determines whether the setting of giving more priority to the followability is made by the balance between the followability of the point mark and the image quality. It is determined whether or not (step S113).

ここで追従性をより優先する設定がなされていると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド中、Bフィールドを除くR,Gの各フィールドにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS114)。   If it is determined that priority is given to followability, the CPU 18 determines the field in each of the R, G fields excluding the B field among the R, G, B fields constituting one frame of the color image. At the end, a sequence for inserting the position detection image is selected and set instead of the image based on the image signal from the input / output unit 11 (step S114).

このシーケンスを模式的に示すと、図9のようなものとなる。   This sequence is schematically shown in FIG.

この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を2回実行することとなる。
図9に示すように、カラー画像1フレームがR,G,Bの各フィールド、計3フィールドから構成されるものとした場合、Rフィールドの末尾で1回、及びGフィールドの末尾で1回、計2回の位置検出処理を実行する。
With this setting, the position detection process of the point pen 3 is executed twice while one color image is projected.
As shown in FIG. 9, when one frame of a color image is composed of R, G, and B fields, a total of 3 fields, once at the end of the R field and once at the end of the G field, The position detection process is executed twice in total.

ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。   In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images of the fourth gradation image to be inserted are inserted and projected at the end of each field as a set, and the luminance is detected with respect to the point pen 3 at a predetermined timing from the start of projection for each gradation image projection. Indicate To transmit information.

なお、上記図9では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。   In FIG. 9, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.

ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。   The point pen 3 detects the luminance at the timing according to the instruction information sent from the projector 1, and displays the screen from each luminance information obtained by the total four detections of the first to fourth gradation images for each instruction information. The X and Y coordinate positions pointed at are calculated, and the calculated coordinate information is returned to the projector 1.

そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報によりプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。   The projector 1 can determine the coordinates of the point position of the point pen 3 based on the coordinate information returned from the point pen 3 after a certain delay time.

ここでカラー画像1フレームに対して時系列で2点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された座標の平滑化処理等を行なって不必要に画像中で微振動しないようにし手も良い。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。   Here, the coordinate information of the point positions for two points in a time series with respect to one color image frame can be acquired. Further, the CPU 18 may perform a smoothing process on the acquired coordinates to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input / output unit 11.

合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件2に従い、Bの各画素階調で「0(ゼロ)」階調に近い暗い部分側の階調を底上げするようなγ補正条件を設定し(ステップS115)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。   At the same time, according to the γ correction condition 2 stored in advance in the program memory 20, the CPU 18 increases the γ correction so as to raise the gradation on the dark side close to the “0 (zero)” gradation in each pixel gradation of B. The conditions are set (step S115), and it is assumed that the series of processing related to the selection operation of the setting menu has been completed.

図12は、上記γ補正条件2の内容を説明する図である。すなわち、BフィールドのB画像には、R,GフィールドにおけるR,G画像と異なるように、図12の実線で示すように、「0(ゼロ)」階調に近い暗い部分側の階調をb分底上げした上で入力階調に対するγ補正を行なう。   FIG. 12 is a diagram for explaining the content of the γ correction condition 2. In other words, the B image in the B field has a dark portion side gradation close to the “0 (zero)” gradation, as shown by the solid line in FIG. 12, unlike the R and G images in the R and G fields. γ correction for the input gradation is performed after raising the level by b.

また、R,G画像では、図12の波線で示すような、b分底上げしない入力階調に対するγ補正を行なう。   In the R and G images, γ correction is performed for an input gradation that does not increase by b as shown by the wavy line in FIG.

なお、R,G画像に対しては、位置検出用画像の挿入に伴い発生するコントラストの減少を補う中間階調領域での変化の度合いが大きくなるようなS字状カーブの曲率を高める設定を行なうようにしてもよい。   For the R and G images, a setting is made to increase the curvature of the S-shaped curve so that the degree of change in the intermediate gradation region is increased to compensate for the decrease in contrast that occurs with the insertion of the position detection image. You may make it perform.

図13は、同様のγ補正の「0(ゼロ)」階調に近い暗い部分側の様子をより具体的に説明するための図である。   FIG. 13 is a diagram for more specifically explaining the situation on the dark side near the “0 (zero)” gradation of the same γ correction.

R,G画像に関しては、γ補正のカーブに沿った補正を行なうのに対し、B画像に関してはゼロ階調から一定の階調、例えば「(8)」までの間、出力階調を一律に階調「(0)」ではない、「(3)」としている。   For the R and G images, correction along the curve of γ correction is performed, while for the B image, the output gradation is uniformly set from zero gradation to a certain gradation, for example, “(8)”. The gradation is not “(0)” but “(3)”.

なお、上記黄色と補色関係にある青色の「0(ゼロ)」階調側でのγ補正に際しては、位置検出用画像の挿入によるエネルギーに相当するような階調の範囲を選定することで、双方を相殺して補色によりグレー色とするようにする。   In addition, in the γ correction on the “0 (zero)” gradation side of the blue color complementary to the above yellow, by selecting a gradation range corresponding to the energy due to the insertion of the position detection image, Both are offset to make a gray color with complementary colors.

このようなγ補正処理を実行し、R,Gの各フィールドでポイントペン3の位置検出用画像を挿入することで、たとえ本来の投影画像が(ゼロ)階調に近い、暗い画像を投影すべきタイミングで、R,G各フィールドで上記位置検出用画像に起因する、混色で黄色く浮いた画像として表現されてしまう状況であっても、補色であるBフィールドでの「0(ゼロ)」階調側を底上げして投影することにより、肉眼で知覚されやすい色彩を相殺して無彩色の淡いグレーとなる画像を投影させることとなり、ユーザに対して不自然な描写での画像投影となるのを回避できる。   By executing such γ correction processing and inserting the position detection image of the point pen 3 in each of the R and G fields, a dark image whose original projected image is close to (zero) gradation is projected. Even in a situation where the image is expressed as a mixed color yellow floating image due to the position detection image in each of the R and G fields at the power timing, the “0 (zero)” floor in the B field which is a complementary color By projecting with the key raised to the bottom, the color that is easily perceived by the naked eye will be offset and an achromatic gray image will be projected, resulting in an image projection with an unnatural description for the user. Can be avoided.

また、このようなB画像に対するγ補正処理は、本来の趣旨(システム系に応じた色バランスでの投影)とは異なる理由により行なうものであるが、通常の明るい画像の投影時には位置検出用画像の挿入による黄色成分の輝度レベルが相対的に低いものとなり、画質への影響はほとんどない。   Further, such a γ correction process for the B image is performed for a reason different from the original purpose (projection with color balance according to the system system). However, when a normal bright image is projected, the position detection image is used. The luminance level of the yellow component due to the insertion is relatively low, and the image quality is hardly affected.

つまり、ここでは、画像変換部12が通常実施しているγ補正処理に加え、位置検出用画像をR、Gフィールドのみに挿入したことにより黄色がかる画像を、黄色と補色の関係となる青色のγ補正時に、ゼロ階調から一定の階調までを一律の値に「底上げ」するような補正を併せて実行するものである。   That is, here, in addition to the γ correction processing normally performed by the image conversion unit 12, an image that has a yellow color due to the insertion of the position detection image only in the R and G fields is converted into a blue color having a complementary color relationship with yellow. At the time of γ correction, correction is also performed in such a manner that the level is raised from zero gradation to a constant gradation to a uniform value.

上記ステップS114であえてBフィールドにおいて、ポイントペン3の位置検出用画像を挿入しない設定とした理由を説明する。   The reason why the setting is made so that the position detection image of the point pen 3 is not inserted in the B field in step S114 will be described.

3原色R,G,B中でBが最も輝度成分が低い暗い画像であるために、位置を検出するポイントペン3が受光する光量(輝度)も3原色R,G,B中でBが最も暗く、検出精度が悪いものになってしまうので、他の色のフィールドに挿入しない設定よりは、ポイントペン3が座標情報(位置座標)を検出できる検出距離を長くすることができるからである。   Since B is the darkest image with the lowest luminance component among the three primary colors R, G, and B, the light quantity (luminance) received by the point pen 3 that detects the position is the highest among the three primary colors R, G, and B. This is because the detection distance that the point pen 3 can detect the coordinate information (positional coordinates) can be made longer than the setting not inserted in the field of other colors because it is dark and the detection accuracy is poor.

また、位置検出用画像を挿入することで、どの色も本来の画像のコントラストが低下するが、3原色R,G,B中でBが最も輝度成分が低い暗い画像であるために、位置検出用画像を挿入することで本来投影すべき画像の投影時間が短縮され、コントラストが低下する影響が最も小さい色という点でもBフィールドを選択するのが望ましい。   In addition, by inserting a position detection image, the contrast of the original image of any color is lowered. However, since B is the darkest image with the lowest luminance component among the three primary colors R, G, and B, position detection is performed. It is desirable to select the B field from the viewpoint that the projection time of the image to be originally projected is shortened by inserting the image for use, and the color has the smallest influence on the contrast.

また上記ステップS113でポイントマークの追従性と画質のバランスで、追従性をより優先する設定はなされていないと判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの3フィールドに加えてW(白色)のフィールドを設定し、当該Wフィールドにおいて、入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS116)。   If it is determined in step S113 that the setting for giving priority to followability has not been made in terms of the balance between the followability of the point mark and the image quality, the CPU 18 displays the three fields R, G, and B constituting one frame of the color image. In addition, a W (white) field is set, and a sequence for inserting a position detection image is selected and set in the W field in place of the image based on the image signal from the input / output unit 11 (step S116).

このシーケンスを模式的に示すと、図10のようなものとなる。   This sequence is schematically shown in FIG.

この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を1回実行することとなる。
図10に示すように、カラー画像1フレームがR,G,B,Wの各フィールド、計4フィールドから構成されるものとした場合、Wフィールドで1回のみ、位置検出処理を実行する。
With this setting, the position detection process of the point pen 3 is executed once while one color image frame is projected.
As shown in FIG. 10, when one frame of a color image is composed of R, G, B, and W fields, a total of 4 fields, the position detection process is executed only once in the W field.

ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。   In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images of the fourth gradation image to be inserted are inserted and projected at the end of each field as a set, and the luminance is detected with respect to the point pen 3 at a predetermined timing from the start of projection for each gradation image projection. Indicate To transmit information.

なお、上記図10では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。   In FIG. 10, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.

ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。   The point pen 3 detects the luminance at the timing according to the instruction information sent from the projector 1, and displays the screen from each luminance information obtained by the total four detections of the first to fourth gradation images for each instruction information. The X and Y coordinate positions pointed at are calculated, and the calculated coordinate information is returned to the projector 1.

そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報によりプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。   The projector 1 can determine the coordinates of the point position of the point pen 3 based on the coordinate information returned from the point pen 3 after a certain delay time.

ここでカラー画像1フレームに対して1点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された前後の数フレームと座標の平滑化処理等を行なって不必要に画像中で微振動しないようにし手も良い。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。   Here, the coordinate information of the point position for one point can be acquired for one frame of the color image. Further, the CPU 18 may perform a smoothing process of the frames before and after the acquired frames and coordinates to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input / output unit 11.

合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件1−2に従い、特にR,G,Bの各画素階調共に特に中間階調を強調するようなγ補正条件を設定し(ステップS117)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。   At the same time, the CPU 18 sets γ correction conditions that particularly emphasize the intermediate gradation for each of the R, G, and B pixel gradations in accordance with the γ correction conditions 1-2 stored in the program memory 20 in advance ( Step S117) Assuming that a series of processes related to the setting menu selection operation has been completed, the process returns to step S101 again.

なお、この場合、図10に示すシーケンスは、図8に示すシーケンスに比べ、位置検出用画像を挿入する頻度が低く、時間が短いので、このγ補正条件1−2は、γ補正条件1−1に比べて、R,G,Bの各画素階調の中間階調の強調の仕方は弱いものとする。   In this case, the sequence shown in FIG. 10 has a lower frequency of inserting the position detection image and the time is shorter than the sequence shown in FIG. Compared to 1, the method of emphasizing intermediate gradations of R, G, and B pixel gradations is weak.

次に、上記ステップS109でポイントペン3の操作に対するポイントマークの追従性等について、ユーザによる手動設定状態となっていないと判断した場合について説明する。この場合は、ポイントマークの追従性等について、自動設定状態となっていると判断し、CPU18は、その自動設定に応じた処理を実行する。   Next, a case will be described in which it is determined in step S109 that the user has not manually set the followability of the point mark with respect to the operation of the point pen 3 or the like. In this case, it is determined that the followability of the point mark is in an automatic setting state, and the CPU 18 executes processing according to the automatic setting.

図6はこのときCPU18が実行する自動処理の詳細な内容を示すサブルーチンのフローチャートである。なおここでは投影モードとして、何よりも明るさを優先する「プレゼンテーションモード」、全体に明るさと色彩を中庸にバランス良く設定した「スタンダードモード」、及び色彩と暗部の暗さを優先する「シアターモード」の3種類が選択可能である場合について例示する。   FIG. 6 is a flowchart of a subroutine showing the detailed contents of the automatic processing executed by the CPU 18 at this time. Here, as a projection mode, “Presentation Mode” that prioritizes brightness over anything, “Standard Mode” that sets the overall brightness and color in a well-balanced manner, and “Theater Mode” that prioritizes the darkness of colors and dark areas. An example in which the following three types can be selected will be described.

その当初にCPU18は、まず設定されている投影モードが「プレゼンテーションモード」であるか否かを判断する(ステップS201)。
「プレゼンテーションモード」であると判断した場合にCPU18は、カラー画像1フレームを構成するR,G,Bの各フィールド全てにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS202)。
Initially, the CPU 18 first determines whether or not the set projection mode is the “presentation mode” (step S201).
If it is determined that the mode is the “presentation mode”, the CPU 18 replaces the R, G, and B fields constituting one frame of the color image with an image based on the image signal from the input / output unit 11 at the end of the field. A sequence for inserting a detection image is selected and set (step S202).

その後の処理であるステップS203以降の処理は、上記、図5のステップS112の部分で説明したものと同様のものとなる。   The processing after step S203, which is the subsequent processing, is the same as that described in step S112 in FIG.

また、上記ステップS201で「プレゼンテーションモード」は設定されていないと判断した場合、CPU18は次いで「スタンダードモード」が設定されているか否かを判断する(ステップS204)。   If it is determined in step S201 that the “presentation mode” is not set, the CPU 18 next determines whether or not the “standard mode” is set (step S204).

ここで「スタンダードモード」が設定されていると判断した場合にCPU18は、その時点で入出力部11より入力されている画像信号に対するコントラスト解析を行なう(ステップS205)。その解析結果に対してCPU18は、2段階のしきい値を用いて、まず、より高い方のしきい値より入力画像のコントラストが高いか否かにより、入力画像が高コントラストであるか否かを判別する(ステップ206)。   If it is determined that the “standard mode” is set, the CPU 18 performs contrast analysis on the image signal input from the input / output unit 11 at that time (step S205). In response to the analysis result, the CPU 18 uses a two-stage threshold value to determine whether the input image has a high contrast depending on whether the contrast of the input image is higher than the higher threshold value. Is determined (step 206).

ここで入力画像のコントラストが、より高いしきい値を超えて高く、高コントラストであると判別した場合、CPU18は上記ステップS202からの処理に進み、「プレゼンテーションモード」の場合と同様の処理を実行させる。   If it is determined that the contrast of the input image is higher than the higher threshold and is high contrast, the CPU 18 proceeds to the process from step S202 and executes the same process as in the “presentation mode”. Let

また上記ステップS206で、入力画像が高コントラストではないと判別した場合、CPU18は次いで入力画像のコントラストが、2段階のしきい値の、より低い方のしきい値より高いか否かにより、入力画像が中コントラスト(中程度のコントラスト)であるか否かを判別する(ステップ207)。   If it is determined in step S206 that the input image is not high contrast, the CPU 18 then determines whether the input image contrast is higher than the lower threshold value of the two-stage threshold value. It is determined whether or not the image has medium contrast (medium contrast) (step 207).

ここで入力画像のコントラストが、より低いしきい値よりは高く、中コントラストであると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド中、Bフィールドを除くR,Gの各フィールドにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS208)。   If it is determined that the contrast of the input image is higher than the lower threshold and is medium contrast, the CPU 18 excludes the B field from the R, G, and B fields constituting one frame of the color image. , G, a sequence for inserting a position detection image is selected and set in place of the image based on the image signal from the input / output unit 11 at the end of the field (step S208).

その後の処理であるステップS209以降の処理は、上記、図5のステップS115の部分で説明したものと同様のものとなる。   The subsequent processes after step S209 are the same as those described in step S115 in FIG.

また、上記ステップS204で「スタンダードモード」が設定されておらず、「シアターモード」が設定されていると判別した場合、あるいは上記ステップS207で入力画像のコントラストが、より低いしきい値以下であると判別した場合、CPU18はカラー画像1フレームを構成するR,G,Bの3フィールドに加えてW(白色)のフィールドを設定し、当該Wフィールドにおいて、入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS210)。   If it is determined in step S204 that “standard mode” is not set and “theater mode” is set, or in step S207, the contrast of the input image is lower than a lower threshold. The CPU 18 sets a W (white) field in addition to the R, G, and B fields constituting one frame of the color image, and the image based on the image signal from the input / output unit 11 is set in the W field. Instead, the sequence for inserting the position detection image is selected and set (step S210).

その後の処理であるステップS211以降の処理は、上記、図5のステップS117の部分で説明したものと同様のものとなる。   Subsequent processes, step S211 and subsequent processes, are the same as those described in step S117 in FIG.

このようにして自動設定状態にあっては、その時点で設定されている投影モードや投影画像の特徴情報(コントラスト)に対応してポイントペンの使用環境(状態)に応じた設定を行なうことができる。   In this way, in the automatic setting state, setting corresponding to the point pen usage environment (state) can be performed corresponding to the projection mode and the feature information (contrast) of the projection image set at that time. it can.

以上詳述した如く本実施形態によれば、設定に応じてカラー画像1フレーム中でポイントペン3の位置検出用画像を挿入する頻度を可変するものとしたので、ポイントペン3を使用する状況に応じて適切な動作環境を設定することが可能となる。   As described above in detail, according to the present embodiment, the frequency of inserting the position detection image of the point pen 3 in one frame of the color image is variable according to the setting. Accordingly, it is possible to set an appropriate operating environment.

また本実施形態では、例えばR,G,Bフィールド中のBフィールドなど、特に輝度の点で不利な色フィールドにおいては意図的にポイントペン3の位置検出用画像を挿入しないように設定することで、画質の低下を抑えつつ、ポイントペンの位置検出距離を長くすることができる。   In the present embodiment, for example, in the color field that is disadvantageous in terms of luminance, such as the B field in the R, G, and B fields, the position detection image of the point pen 3 is not intentionally inserted. In addition, the position detection distance of the point pen can be lengthened while suppressing deterioration in image quality.

また、その時点で設定されている投影モードや投影画像の特徴情報(コントラスト)に対応してポイントペンの使用環境(状態)に応じて、カラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度が決定されることで、ユーザの手をわずらわすことなく、自動的に追従性能と画質のバランスの観点で適した設定を実現することできる。   In addition, light corresponding to the position detection image in one frame of the color image according to the use environment (state) of the point pen corresponding to the projection mode and the characteristic information (contrast) of the projection image set at that time. By determining the frequency of inserting and projecting an image, it is possible to automatically realize a setting suitable in terms of the balance between the tracking performance and the image quality without bothering the user.

また、ユーザの手動設定によりポイントペン3の位置検出用画像を挿入する頻度を決定するものとせれば、ユーザの意図を反映して、追従性能と画質のバランス観点で適した設定を実現することができる。   Further, if the frequency of inserting the position detection image of the point pen 3 is determined by the user's manual setting, the user's intention is reflected and a setting suitable from the viewpoint of the balance between the tracking performance and the image quality is realized. Can do.

さらに上記実施形態では、ポイントペン3の位置検出用画像を挿入する位置を各色フィールドの末尾としたが、前半でもよく、このように位置検出用画像を同一色の画像信号フィールドの前または後に連続して配置することで、色フィールド数を無闇に増やすことなく、光源の点灯/消灯の回数を減らし、制御を単純化することができる。   Further, in the above embodiment, the position where the position detection image of the point pen 3 is inserted is set to the end of each color field, but it may be the first half. Thus, the number of times the light source is turned on / off can be reduced and the control can be simplified without increasing the number of color fields.

なお上記実施形態では、ポイントペン3の位置検出用画像として、輝度パターンの変化が反転した2つの画像を用いるものとしたため、画面内での明るさの勾配を相殺すると共に、反転した画像から検出値の差分を算出することにより、環境光がポイントペンの輝度センサに与える影響を相殺することができるので、位置座標の検出精度を高めることができる。   In the above-described embodiment, two images with inverted luminance patterns are used as the position detection image of the point pen 3, so that the brightness gradient in the screen is canceled and detected from the inverted image. By calculating the difference between the values, the influence of the ambient light on the luminance sensor of the point pen can be canceled out, so that the detection accuracy of the position coordinates can be improved.

同様に上記実施形態では、ポイントペン3の位置検出用画像として、輝度パターンの変化方向が互いに直交する2つの画像を用いるものとしたため、各座標軸方向での正確な検出を行なうことができる。   Similarly, in the above-described embodiment, two images whose luminance pattern change directions are orthogonal to each other are used as the position detection image of the point pen 3, so that accurate detection in each coordinate axis direction can be performed.

また上記実施形態では、ポイントペン3の位置検出を行なった上で投影画像中の対応する位置にポイントマークの画像を重畳して投影させるものとしたので、ポイントペン3自体はレーザビーム等の光を発していないにも拘わらず、あたかも出射光で指示位置をポイントしているように制御でき、さらに設定によって色や形状を任意に可変したポイントマークを実現できる。   In the above embodiment, the position of the point pen 3 is detected, and the point mark image is superimposed and projected on the corresponding position in the projection image. Therefore, the point pen 3 itself is a light beam such as a laser beam. In spite of not emitting light, it can be controlled as if the pointing position is pointed by the emitted light, and further, a point mark whose color and shape can be arbitrarily changed by setting can be realized.

なお上記実施形態では、ガンマプロファイルを画像フレームの先頭で、ロードして設定するように説明したが、モードが決定された段階で、投影に先立ってロード、設定されるようにすれば、どの時点であってもよい。   In the above-described embodiment, the gamma profile is described as being loaded and set at the beginning of the image frame. However, when the mode is determined, the gamma profile can be loaded and set prior to projection. It may be.

また上記実施形態では、位置検出用画像については、画面内で、輝度ムラがでないように組となるように挿入されるものであり、入力信号の階調再現には関係ないので、γ補正されるようにしても、γ補正されないようにしてもよい。   Further, in the above embodiment, the position detection images are inserted so as to form a set so that there is no luminance unevenness in the screen, and are not related to the gradation reproduction of the input signal. Alternatively, γ correction may not be performed.

なお上記実施形態では、位置座標をポイントペン3で算出するものとして説明したが、ポイントペン3は、位置に関する情報として、輝度情報を送信し、プロジェクタ1で、位置に関する情報である輝度情報を受信し、位置座標を算出するようにしてもよい。   In the above embodiment, the position coordinate is calculated with the point pen 3, but the point pen 3 transmits the luminance information as the information regarding the position, and the projector 1 receives the luminance information that is the information regarding the position. Then, the position coordinates may be calculated.

なお上記実施形態では、特徴情報として、画像信号のコントラストの例で説明したが、動画像としての変化等を特徴情報として解析し、その解析結果から適したポイントペン3の位置検出用画像を挿入する頻度を決定するものとしてもよい。   In the above embodiment, the example of the contrast of the image signal has been described as the feature information. However, a change or the like as a moving image is analyzed as the feature information, and an appropriate position detection image of the point pen 3 is inserted from the analysis result. It is good also as what determines the frequency to do.

なお上記実施形態では、プロジェクタ1を複数色の発光素子を有するカラー画像を投影可能なものとして説明したが、ポインタペンをレーザポインタのように位置指定装置として使用する技術にあっては、単色の光源によるモノクロ(単色の)のプロジェクタであってもよい。   In the above-described embodiment, the projector 1 has been described as being capable of projecting a color image having light emitting elements of a plurality of colors. However, in a technique that uses a pointer pen as a position specifying device like a laser pointer, a single color is used. It may be a monochrome (single color) projector using a light source.

なお上記プロジェクタ1はDLP(登録商標)方式を採用するものとして説明したが、本発明は光源部に用いる発光素子等の構成を制限するものではない。   Although the projector 1 has been described as adopting the DLP (registered trademark) system, the present invention does not limit the configuration of a light emitting element or the like used in the light source unit.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、複数色の発光素子を有する光源と、画像信号を入力する入力手段と、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段とを具備したことを特徴とする。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
The invention described in claim 1 uses a light source having light emitting elements of a plurality of colors, an input means for inputting an image signal, and light sent from the light source in a time division for each color field, according to the color of the light A projection means for forming and projecting an optical image corresponding to the image signal input by the input means, and an optical image corresponding to a position detection image for detecting a position in the optical image. Projection control means for projecting by means, and information for instructing detection of position coordinates to be transmitted to the point device outside the apparatus at the timing when the projection control means projects the optical image corresponding to the position detection image by the projection means. Transmitting means, receiving means for receiving position coordinate information sent from the point device in response to transmission by the transmitting means, and the projection control means for detecting a position detection image in one color image frame. Characterized by comprising a determination means for determining the frequency of projecting by inserting a corresponding optical image.

請求項2記載の発明は、上記請求項1記載の発明において、上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを決定することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, the determination unit does not insert an optical image corresponding to the position detection image in one color image frame projected by the projection unit. A color field is determined.

請求項3記載の発明は、上記請求項2記載の発明において、上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを、上記光源からの光の輝度に応じて決定することを特徴とする。   The invention according to claim 3 is the invention according to claim 2, wherein the determination means does not insert an optical image corresponding to the position detection image in one color image frame projected by the projection means. The color field is determined according to the luminance of light from the light source.

請求項4記載の発明は、上記請求項1乃至3いずれか記載の発明において、色彩表現及び輝度の少なくとも一方の設定が異なる複数の投影モードから1つを選択する選択手段をさらに具備し、上記決定手段は、上記選択手段で選択した投影モードに応じて、上記頻度を決定することを特徴とする。   The invention according to claim 4 further comprises selection means for selecting one of a plurality of projection modes in which at least one of color representation and brightness is set, according to the invention according to any one of claims 1 to 3. The determining means determines the frequency according to the projection mode selected by the selecting means.

請求項5記載の発明は、上記請求項1乃至4いずれか記載の発明において、上記画像信号の特徴情報を判別する判別手段をさらに具備し、上記決定手段は、上記判別手段で判別した結果に応じて、上記頻度を決定することを特徴とする。   According to a fifth aspect of the invention, in the invention according to any one of the first to fourth aspects, the image processing apparatus further comprises a discriminating unit that discriminates the feature information of the image signal. In response, the frequency is determined.

請求項6記載の発明は、上記請求項1乃至3いずれか記載の発明において、上記頻度に関するユーザの指示を受け付ける受付手段をさらに具備し、上記選択手段は、上記受付手段で受け付けられたユーザの指示により、上記頻度を決定することを特徴とする。   The invention described in claim 6 further comprises receiving means for receiving a user instruction regarding the frequency in the invention described in any one of claims 1 to 3, wherein the selecting means includes a user's instruction received by the receiving means. The frequency is determined by an instruction.

請求項7記載の発明は、上記請求項1乃至6いずれか記載の発明において、上記投影制御手段は、上記位置検出用画像に対応する光像を、色フィールド内で上記画像信号に対応する光像の投影タイミングの前または後の連続したタイミングで投影させることを特徴とする。   According to a seventh aspect of the present invention, in the invention according to any one of the first to sixth aspects, the projection control means converts a light image corresponding to the position detection image into a light corresponding to the image signal in a color field. Projection is performed at successive timings before or after the image projection timing.

請求項8記載の発明は、上記請求項1乃至5いずれか記載の発明において、上記位置検出用画像に対応する光像は、位置毎の時間平均の輝度が一様となる、輝度パターンの変化が反転した2枚の画像に対応する光像であることを特徴とする。   The invention according to claim 8 is the invention according to any one of claims 1 to 5, wherein the light image corresponding to the position detection image has a change in luminance pattern in which time-average luminance is uniform for each position. Is an optical image corresponding to two images that are inverted.

請求項9記載の発明は、上記請求項1乃至6いずれか記載の発明において、上記位置検出用画像に対応する光像は、輝度パターンの変化方向が互いに直交する2組の画像に対応する光像であることを特徴とする。   The invention according to claim 9 is the invention according to any one of claims 1 to 6, wherein the light image corresponding to the position detection image is light corresponding to two sets of images whose luminance pattern change directions are orthogonal to each other. It is an image.

請求項10記載の発明は、上記請求項1乃至7いずれか記載の発明において、上記受信手段で受信した位置情報に基づき、上記投影手段で投影する、上記入力手段で入力した画像信号に対応する光像中にポインタ画像に対応する光像を重畳して配置するポインタ制御手段をさらに具備したことを特徴とする。   A tenth aspect of the invention corresponds to the image signal input by the input means, which is projected by the projection means based on the positional information received by the reception means in the invention of any one of the first to seventh aspects. The apparatus further comprises pointer control means for superposing and arranging the optical image corresponding to the pointer image in the optical image.

請求項11記載の発明は、複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置での投影方法であって、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御工程と、上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信工程と、上記送信工程での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信工程と、上記投影制御工程においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定工程とを有したことを特徴とする。   The invention according to claim 11 uses a light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, and light transmitted from the light source in a time division for each color field. A projection method in an apparatus including a projection unit, a transmission unit, and a reception unit that forms and projects an optical image corresponding to an image signal input by an input unit, for detecting a position in the optical image A projection control step in which a light image corresponding to the position detection image is inserted and projected by the projection unit, and a position coordinate is detected at a timing at which the light image corresponding to the position detection image is projected by the projection control step. In the transmission step of transmitting the instructing information to the point device outside the apparatus, the reception step of receiving information on the position coordinates transmitted from the point device in response to the transmission in the transmission step, and the projection control step Color Characterized in that and a determination step of determining how often to insert and projecting a light image corresponding to the position detection image in the image frame.

請求項12記載の発明は、複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御手段、上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段、及び上記投影制御手段においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段として機能させることを特徴とする。   The invention described in claim 12 uses a light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, and light transmitted from the light source in a time-division manner for each color field, and the light source is provided according to the color of light A program executed by a computer built in an apparatus including a projection unit, a transmission unit, and a reception unit that forms and projects an optical image corresponding to an image signal input by an input unit, the computer comprising the optical image Projection control means for inserting a light image corresponding to a position detection image for detecting the position in the image and projecting it by the projection unit, and projecting a light image corresponding to the position detection image by the projection control step Transmitting means for transmitting information instructing detection of position coordinates at timing to a point device outside the apparatus, and receiving information on position coordinates sent from the point device in response to transmission by the transmitting means Receiving means that, and is characterized in that to function as a determining means for determining the frequency of projecting by inserting an optical image corresponding to the position detection image in the color image frame in the projection control means.

1…プロジェクタ、2…PC、3…ポイントペン、11…入出力部、12…画像変換部、13…投影処理部、14…マイクロミラー素子、15…光源部、16…ミラー、17…投影レンズ部、18…CPU、19…メインメモリ、20…プログラムメモリ、21…操作部、22…音声処理部、23…ポインタ通信部、24…スピーカ部、25…アンテナ、31…受光レンズ系、32…フォトトランジスタ、33…A/D変換部、34…復調部、35…座標算出部、36…CPU、37…メインメモリ、38…プログラムメモリ、39…クリックキー部、40…プロジェクタ通信部、41…アンテナ、51…CPU、52…ノースブリッジ、53…メインメモリ、54…グラフィックスアクセラレータ、55…グラフィックメモリ、56…ディスプレイ、57…サウスブリッジ、58…PCI−Expressスロット、59…キーボード/マウス、60…ハードディスク装置(HDD)、61…光学ディスクドライブ、62…ネットワークコネクタ、63…USBコネクタ、AGP…グラフィクスインタフェース、B…バス、FSB…フロントサイドバス、MB…メモリバス、PI…投影画像、PT…ポイントマーク、SB…システムバス、VC…VGAケーブル、UC…USBケーブル。   DESCRIPTION OF SYMBOLS 1 ... Projector, 2 ... PC, 3 ... Point pen, 11 ... Input-output part, 12 ... Image conversion part, 13 ... Projection process part, 14 ... Micromirror element, 15 ... Light source part, 16 ... Mirror, 17 ... Projection lens , 18 ... CPU, 19 ... main memory, 20 ... program memory, 21 ... operation unit, 22 ... audio processing unit, 23 ... pointer communication unit, 24 ... speaker unit, 25 ... antenna, 31 ... light receiving lens system, 32 ... Phototransistor 33 ... A / D conversion unit 34 ... demodulation unit 35 ... coordinate calculation unit 36 ... CPU 37 ... main memory 38 ... program memory 39 ... click key unit 40 ... projector communication unit 41 ... Antenna 51 ... CPU 52 ... North bridge 53 ... Main memory 54 ... Graphics accelerator 55 ... Graphic memory 56 ... D Play, 57 ... South bridge, 58 ... PCI-Express slot, 59 ... Keyboard / mouse, 60 ... Hard disk drive (HDD), 61 ... Optical disk drive, 62 ... Network connector, 63 ... USB connector, AGP ... Graphics interface, B ... bus, FSB ... front side bus, MB ... memory bus, PI ... projected image, PT ... point mark, SB ... system bus, VC ... VGA cable, UC ... USB cable.

Claims (12)

複数色の発光素子を有する光源と、
画像信号を入力する入力手段と、
上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、
上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、
上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、
上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段と
を具備したことを特徴とする投影装置。
A light source having light emitting elements of multiple colors;
An input means for inputting an image signal;
Projecting means for forming and projecting a light image corresponding to an image signal input by the input means according to the color of light using light transmitted in a time-sharing manner from the light source for each color field;
Projection control means for inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection means;
Transmitting means for transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing when the projection control means projects a light image corresponding to the position detection image by the projection means;
Receiving means for receiving information relating to position coordinates sent from the point device in response to transmission by the sending means;
A projection apparatus comprising: a determination unit configured to determine a frequency at which the projection control unit inserts and projects a light image corresponding to a position detection image in one color image frame.
上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを決定することを特徴とする請求項1記載の投影装置。   2. The projection apparatus according to claim 1, wherein the determination unit determines at least one color field in which a light image corresponding to the position detection image is not inserted in one frame of a color image projected by the projection unit. . 上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを、上記光源からの光の輝度に応じて決定することを特徴とする請求項2記載の投影装置。   The determining unit determines at least one color field in which a light image corresponding to the position detection image is not inserted in one color image frame projected by the projecting unit according to the luminance of light from the light source. The projection apparatus according to claim 2. 色彩表現及び輝度の少なくとも一方の設定が異なる複数の投影モードから1つを選択する選択手段をさらに具備し、
上記決定手段は、上記選択手段で選択した投影モードに応じて、上記頻度を決定する
ことを特徴とする請求項1乃至3いずれか記載の投影装置。
A selection unit that selects one of a plurality of projection modes having different settings of at least one of color representation and luminance;
4. The projection apparatus according to claim 1, wherein the determination unit determines the frequency according to a projection mode selected by the selection unit.
上記画像信号の特徴情報を判別する判別手段をさらに具備し、
上記決定手段は、上記判別手段で判別した結果に応じて、上記頻度を決定する
ことを特徴とする請求項1乃至4いずれか記載の投影装置。
A discriminating means for discriminating the feature information of the image signal;
5. The projection apparatus according to claim 1, wherein the determining unit determines the frequency according to a result determined by the determining unit.
上記頻度に関するユーザの指示を受け付ける受付手段をさらに具備し、
上記選択手段は、上記受付手段で受け付けられたユーザの指示により、上記頻度を決定する
ことを特徴とする請求項1乃至3いずれか記載の投影装置。
Further comprising a receiving means for receiving a user instruction regarding the frequency,
The projection apparatus according to claim 1, wherein the selection unit determines the frequency according to a user instruction received by the reception unit.
上記投影制御手段は、上記位置検出用画像に対応する光像を、色フィールド内で上記画像信号に対応する光像の投影タイミングの前または後の連続したタイミングで投影させることを特徴とする請求項1乃至6いずれか記載の投影装置。   The projection control means projects the optical image corresponding to the position detection image at a continuous timing before or after the projection timing of the optical image corresponding to the image signal in a color field. Item 7. The projection device according to any one of Items 1 to 6. 上記位置検出用画像に対応する光像は、位置毎の時間平均の輝度が一様となる、輝度パターンの変化が反転した2枚の画像に対応する光像であることを特徴とする請求項1乃至5いずれか記載の投影装置。   The optical image corresponding to the position detection image is an optical image corresponding to two images in which a change in luminance pattern is reversed with uniform temporal average luminance for each position. The projection device according to any one of 1 to 5. 上記位置検出用画像に対応する光像は、輝度パターンの変化方向が互いに直交する2組の画像に対応する光像であることを特徴とする請求項1乃至6いずれか記載の投影装置。   The projection apparatus according to claim 1, wherein the optical image corresponding to the position detection image is an optical image corresponding to two sets of images whose luminance pattern change directions are orthogonal to each other. 上記受信手段で受信した位置情報に基づき、上記投影手段で投影する、上記入力手段で入力した画像信号に対応する光像中にポインタ画像に対応する光像を重畳して配置するポインタ制御手段をさらに具備したことを特徴とする請求項1乃至7いずれか記載の投影装置。   Pointer control means for superimposing an optical image corresponding to the pointer image on an optical image corresponding to the image signal input by the input means and projected by the projection means based on the positional information received by the receiving means. The projection apparatus according to claim 1, further comprising: 複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置での投影方法であって、
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御工程と、
上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信工程と、
上記送信工程での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信工程と、
上記投影制御工程においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定工程と
を有したことを特徴とする投影方法。
A light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, light transmitted in a time-sharing manner for each color field from the light source, and an image signal input at the input unit according to the color of light A projection method in an apparatus including a projection unit, a transmission unit, and a reception unit that form and project a corresponding optical image,
A projection control step of inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection unit;
A transmission step of transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing at which a light image corresponding to the position detection image is projected by the projection control step;
A receiving step of receiving information on the position coordinates sent from the point device in response to the transmission in the transmitting step;
And a determination step of determining a frequency of inserting and projecting a light image corresponding to the position detection image in one frame of the color image in the projection control step.
複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置が内蔵するコンピュータが実行するプログラムであって、
上記コンピュータを、
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御手段、
上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段、
上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段、及び
上記投影制御手段においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段
として機能させることを特徴とするプログラム。
A light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, light transmitted in a time-sharing manner for each color field from the light source, and an image signal input at the input unit according to the color of light A program executed by a computer built in an apparatus including a projection unit, a transmission unit, and a reception unit that form and project a corresponding optical image,
The computer
Projection control means for inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection unit;
Transmitting means for transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing at which a light image corresponding to the position detection image is projected by the projection control step;
A receiving unit that receives information on position coordinates transmitted from the point device in response to transmission by the transmitting unit; and a light image corresponding to the position detection image in one color image frame in the projection control unit. A program that functions as a determination unit that determines the frequency of insertion and projection.
JP2012063955A 2012-03-21 2012-03-21 Projection device, projection method and program Pending JP2013196475A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012063955A JP2013196475A (en) 2012-03-21 2012-03-21 Projection device, projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012063955A JP2013196475A (en) 2012-03-21 2012-03-21 Projection device, projection method and program

Publications (1)

Publication Number Publication Date
JP2013196475A true JP2013196475A (en) 2013-09-30

Family

ID=49395313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012063955A Pending JP2013196475A (en) 2012-03-21 2012-03-21 Projection device, projection method and program

Country Status (1)

Country Link
JP (1) JP2013196475A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186104A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection control device, projection device, projection system, projection control method and program
CN110149506A (en) * 2019-06-28 2019-08-20 浙江水晶光电科技股份有限公司 Image projection detection device and image projection detection method
WO2020129536A1 (en) * 2018-12-20 2020-06-25 ソニー株式会社 Image processing device, and display device having detection function

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186104A (en) * 2013-03-22 2014-10-02 Casio Comput Co Ltd Projection control device, projection device, projection system, projection control method and program
WO2020129536A1 (en) * 2018-12-20 2020-06-25 ソニー株式会社 Image processing device, and display device having detection function
CN113168266A (en) * 2018-12-20 2021-07-23 索尼集团公司 Image processing apparatus and display apparatus having detection function
US11429229B2 (en) 2018-12-20 2022-08-30 Sony Group Corporation Image processing apparatus and display apparatus with detection function
CN110149506A (en) * 2019-06-28 2019-08-20 浙江水晶光电科技股份有限公司 Image projection detection device and image projection detection method

Similar Documents

Publication Publication Date Title
US10121418B2 (en) Apparatus and method for controlling video wall
US9390646B2 (en) Color calibration apparatus and method usable with display device
JP6614859B2 (en) Display device, display device control method, image processing device, program, and recording medium
KR20180078713A (en) Display apparatus and method for displaying
US8306353B2 (en) Information processing apparatus with light processing, indication system, and computer readable medium
US9093007B2 (en) Method and device for generating a presentation
US20070188482A1 (en) Image display system, image display method, image display program, recording medium, data processing device, and image display device
KR102166590B1 (en) Multiple laser drive system
JP6155547B2 (en) Projection apparatus, projection method, and program
JP2013196475A (en) Projection device, projection method and program
JP6106969B2 (en) Projection device, pointer device, and projection system
KR20190134370A (en) Electronic device and method for displaying content of application through display
CN108206947B (en) Projection apparatus, projection method, and recording medium
JP6212845B2 (en) Display control device, display device, projection device, system, and display control method
JP2013196477A (en) Projection device, projection method and program
KR20160078023A (en) Apparatus and method for controlling display
JP6610635B2 (en) Display control apparatus, display control method, and program
JP2019109279A (en) Processing method, display device, and information processing device
CA2827425C (en) Method and device for generating a presentation
US8212929B2 (en) Image processing method and computer readable medium
JP2006345228A (en) Controller for point image and control method for point image
US20200133440A1 (en) Display device, method for controlling display device, and display system
JP2017097363A (en) Display device, projection device, display method, and program
JP2012252043A (en) Program, data processing device, and data processing method
KR20230075893A (en) Display apparatus and Controlling method thereof