JP2013196475A - Projection device, projection method and program - Google Patents
Projection device, projection method and program Download PDFInfo
- Publication number
- JP2013196475A JP2013196475A JP2012063955A JP2012063955A JP2013196475A JP 2013196475 A JP2013196475 A JP 2013196475A JP 2012063955 A JP2012063955 A JP 2012063955A JP 2012063955 A JP2012063955 A JP 2012063955A JP 2013196475 A JP2013196475 A JP 2013196475A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- light
- unit
- position detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、専用のポイントペンを用いたDLP(登録商標)方式のプロジェクタに好適な投影装置、投影方法及びプログラムに関する。 The present invention relates to a projection apparatus, a projection method, and a program suitable for a DLP (registered trademark) projector using a dedicated point pen.
スクリーンに投影された投影画像におけるレーザビーム等による指示位置を正確に検出するべく、色面順次方式のプロジェクタに、スクリーンを撮像するエリアセンサとエリアセンサに入力する光をレーザポインタが発するレーザビームと同色のR光のみとする光学フィルタ等からなるエリアセンサ部と、R,G,Bの投影タイミングを抽出するタイミング抽出部とを設け、説明画像の投影期間中にはR画像の投影タイミングが到来したら、その時点でスクリーンを撮像し、撮像した画像に基づきレーザビームにより指示された指示位置を検出する処理をMPUに行なわせて、投影画像にレーザビームと同色の部分が存在していたとしても指示位置を検出可能とする技術が考えられている。(例えば、特許文献1) In order to accurately detect the position indicated by the laser beam or the like in the projection image projected on the screen, an area sensor that images the screen and a laser beam that is emitted from the laser pointer to the area sensor are input to a color-sequential projector. An area sensor unit composed of an optical filter or the like that uses only R light of the same color and a timing extraction unit that extracts R, G, and B projection timings are provided, and the projection timing of the R image arrives during the explanation image projection period. Then, even if there is a portion of the same color as the laser beam in the projected image by letting the MPU perform a process of picking up an image of the screen at that time and detecting the indicated position indicated by the laser beam based on the picked-up image A technique for enabling detection of the indicated position is considered. (For example, Patent Document 1)
上記特許文献に記載された技術を含め、汎用のレーザポインタ等の指示装置を用いてプロジェクタで指示位置を検出するためには、プロジェクタ側に投影画像を撮影するためのエリアセンサ部等の撮像部が必要であり、装置の構成が複雑でコストが増大するという不具合がある。 In order to detect the pointing position with a projector using a general-purpose laser pointer or other pointing device, including the technique described in the above-mentioned patent document, an imaging unit such as an area sensor for shooting a projected image on the projector side Is necessary, and the configuration of the apparatus is complicated and the cost increases.
ところで近時、DLP(登録商標)方式のプロジェクタにおいて、専用のポインタペンを用いることでレーザポインタのように使用することが可能な環境が実現されている。この種の専用ポインタペンは、スポット状の極小範囲の輝度を検出する受光センサ部とプロジェクタ本体との制御信号を送受する通信部とを備える。 Recently, in a DLP (registered trademark) projector, an environment that can be used like a laser pointer is realized by using a dedicated pointer pen. This type of dedicated pointer pen includes a light receiving sensor unit that detects the brightness of a spot-like minimum range and a communication unit that transmits and receives control signals to and from the projector body.
プロジェクタ本体が、本来の投影画像中に、極短時間周期でX,Y座標検出用の各グラデーション画像を投影すると共に、専用ポイントペンに輝度検出を指示する。専用ポイントペンでは、プロジェクタ本体からの指示タイミングにしたがって輝度検出を実行し、検出結果を座標データ化してプロジェクタ本体に送信する。プロジェクタ本体は、専用ポイントペンから送られてくる座標データを送られてくる座標データにしたがって、投影画像中の対応位置にポインタ画像を重畳して投影することで、あたかも専用ポイントペンから出たビーム光が投影画像上に照射されて、位置を指定しているように見える。 The projector main body projects each gradation image for X and Y coordinate detection in an extremely short period on the original projected image, and instructs the dedicated point pen to detect luminance. The dedicated point pen executes luminance detection according to the instruction timing from the projector main body, converts the detection result into coordinate data, and transmits it to the projector main body. The projector body projects the coordinate data sent from the dedicated point pen by superimposing the pointer image on the corresponding position in the projected image according to the received coordinate data, and as if the beam emitted from the dedicated point pen. Light appears on the projected image and appears to specify the position.
この種の専用ポイントペンを使用するためにプロジェクタ本体側が本来の投影画像中に挟んでごく短時間で投影するグラデーション画像は、例えばX座標検出用の左端及び右端の一方が最も明るく、他方が最も暗い階調となる画像と、y座標検出用の上端及び下端の一方が最も明るく、他方が最も暗い階調となる画像の2枚が1組となる。 In order to use this type of dedicated point pen, the gradation image projected in a very short time by the projector body sandwiched between the original projection images, for example, one of the left end and the right end for X coordinate detection is brightest and the other is the most One set of two images is a dark gradation image, and one of the upper and lower ends for detecting the y coordinate is the brightest and the other image is the darkest gradation.
しかしながら、1組のグラデーション画像を挿入した場合、2枚を組み合わせた残像としては本来の投影画像の1対角線に沿って斜めに輝度が変化するものとなるため、これを相殺するべく、グラデーションの階調変化の方向が互いに逆となる画像と対にして、2組のグラデーション画像を基本単位として挿入することになる。 However, when a set of gradation images is inserted, the afterimage that combines the two images changes in luminance obliquely along one diagonal line of the original projected image. Two pairs of gradation images are inserted as basic units in pairs with images whose tone change directions are opposite to each other.
上述したグラデーション画像を専用ポイントペンの指示位置検出用に挿入する場合、ポイントペンの追従性能を上げるためには、より高い頻度で上記グラデーション画像を本来の投影画像中に挿入する必要がある。 When the above-described gradation image is inserted for detecting the designated position of the dedicated point pen, it is necessary to insert the gradation image into the original projection image at a higher frequency in order to improve the tracking performance of the point pen.
そのようにグラデーション画像をより高い頻度で(長い時間)挿入した場合、画像を認識する者(鑑賞者)は、本来の投影画像とともに投影画像とは関係のないグラデーション画像を認識することになるが、その場合、投影画像の階調表現のために用いる時間がその分だけ短縮され、投影画像がグラデーション画像により薄められてしまうため、投影画像のコントラストが低下するという不具合がある。 When the gradation image is inserted at a higher frequency (for a long time) as such, the person who recognizes the image (viewer) recognizes the gradation image that is not related to the projection image together with the original projection image. In this case, the time used for the gradation expression of the projected image is shortened by that amount, and the projected image is diluted by the gradation image, so that the contrast of the projected image is lowered.
特に、本来の投影画像自体が暗い階調の多いものであった場合、所謂「白浮き」と呼称されるような画像の暗部が不自然に明るい、あるいは色バランスが崩れた画像として認識される、という不具合がある。 In particular, when the original projected image itself has many dark gradations, the dark portion of the image, which is so-called “white floating”, is recognized as an image that is unnaturally bright or has an unbalanced color balance. There is a problem that.
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、ポイントペンを使用する状況に応じて適切な動作環境を設定することが可能な投影装置、投影方法及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a projection apparatus, a projection method, and a program capable of setting an appropriate operating environment in accordance with a situation where a point pen is used. Is to provide.
本発明の一態様は、複数色の発光素子を有する光源と、画像信号を入力する入力手段と、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段とを具備したことを特徴とする。 One embodiment of the present invention uses a light source having light emitting elements of a plurality of colors, input means for inputting an image signal, and light transmitted from the light source in a time division for each color field, depending on the color of the light. Projection means for forming and projecting a light image corresponding to the image signal input by the input means, and projection means for inserting a light image corresponding to a position detection image for detecting a position in the light image. The projection control means for projecting the image and the information for instructing the detection of the position coordinates at the timing when the projection control means projects the light image corresponding to the position detection image by the projection means to the point device outside the apparatus. A transmission unit; a reception unit that receives information about the position coordinates transmitted from the point device in response to transmission by the transmission unit; and the projection control unit that corresponds to the position detection image in one frame of the color image. Characterized in that by inserting an optical image comprises a determination means for determining the frequency of projecting to.
本発明によれば、ポイントペンを使用する状況に応じて適切な動作環境を設定することが可能となる。 According to the present invention, it is possible to set an appropriate operating environment according to the situation in which the point pen is used.
以下本発明をDLP(登録商標)方式のデータプロジェクタ装置にPCを接続して投影システムを構築した場合の一実施形態について図面を参照して説明する。
図1は本実施形態に係る投影システムの接続構成を例示する。同図で1がプロジェクタ、2がプロジェクタ1に投影する画像を提供するPCである。プロジェクタ1とPC2はVGAケーブルVC及びUSBケーブルUCで有線接続される。PC2からVGAケーブルVCを介して画像信号が提供され、プロジェクタ1はこの画像信号に応じた投影画像PIをスクリーンに投影する。
Hereinafter, an embodiment in which the present invention is constructed by connecting a PC to a DLP (registered trademark) data projector apparatus and constructing a projection system will be described with reference to the drawings.
FIG. 1 illustrates the connection configuration of the projection system according to the present embodiment. In the figure, 1 is a projector and 2 is a PC that provides an image to be projected onto the
3はプロジェクタ1専用のポイントペンであり、プロジェクタ1とポイントペン3の間は例えばBluetooth(登録商標)技術により無線接続される。プロジェクタ1が投影する投影画像PIには、PC2から提供される画像に加えて、位置検出用の画像が時分割で含まれている。
ポイントペン3は内部にプロジェクタ1との通信系回路と、受光強度(輝度)から位置座標を算出する演算回路を備え、プロジェクタ1からの輝度検出の指示を受信し、ポイントペン3の受光部が向いた投影画像PI内のそのポイント位置の輝度から位置座標を算出し、ポイント指示の座標情報(位置座標)としてプロジェクタ1に送信する。
The
プロジェクタ1では、受信したポイントペン3の座標情報に基づいて、投影画像PI中にポイントマークPTの画像が重畳されるような画像信号を生成して投影する。
したがって、ポイントペン3を把持するユーザは、あたかもポイントペン3から直接ポイントマークPTの形状をした光が出射しているような感覚でポイントペン3を操作することができる。
Based on the received coordinate information of the
Therefore, the user holding the
図2は上記プロジェクタ1の概略機能構成を示す図である。
入出力部11は、例えばビデオ入力端子、RGB入力端子、VGA端子、PCと接続するためのUSB端子などにより構成される。入出力部11に入力された画像信号は、必要に応じてデジタル化された後に、システムバスSBを介して画像変換部12に送られる。
FIG. 2 is a diagram showing a schematic functional configuration of the
The input /
画像変換部12は、スケーラとも称され、入力される画像データを投影に適した所定のフォーマットの画像データに統一して投影処理部13へ送る。
The
この際、上記ポイントマークPTを含むOSD(On Screen Display)用の各種動作状態を示すシンボル等のデータも必要に応じて画像変換部12が画像データに重畳加工し、加工後の画像データを投影処理部13へ送る。
At this time, data such as symbols indicating various operating states for OSD (On Screen Display) including the point mark PT is also superposed on the image data by the
投影処理部13は、送られてきた画像データに応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子であるマイクロミラー素子14を表示するべく駆動する。
The
このマイクロミラー素子14は、アレイ状に配列された複数、例えばWXGA(Wide eXtended Graphic Array)(横1280画素×縦800画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して画像を表示することで、その反射光により光像を形成する。
This
このときマイクロミラー素子14で表示する画像には、ポイントペン3のポイント位置検出用画像が上記入出力部11で入力された画像信号に応じた画像に代えて、時分割で適切な頻度で含まれる。詳しくは後述する。
At this time, the image displayed by the
一方で、光源部15から時分割でR,G,Bの原色光を含む複数色の光が循環的に時分割で順次出射される。この光源部15からの光が、ミラー16で全反射して上記マイクロミラー素子14に照射される。
On the other hand, light of a plurality of colors including primary color lights of R, G, and B is sequentially emitted in a time division manner from the
そして、マイクロミラー素子14での反射光で光源光の色に応じた光像が形成され、形成された光像が投影レンズ部17を介して、投影対象となるここでは図示しないスクリーンに投影表示される。
Then, a light image corresponding to the color of the light source light is formed by the reflected light from the
なお上記光源部15は、R,G,Bの原色光の他に、必要によりR,G,Bの光源素子を同時に発光させることでW(白色)の光を出射し、投影レンズ部17よりモノクロの画像を投影させることができるものとする。
The
上記各回路の動作すべてをCPU18が制御する。このCPU18は、メインメモリ19及びプログラムメモリ20と直接接続される。メインメモリ19は、例えばSRAMで構成され、CPU18のワークメモリとして機能する。プログラムメモリ20は、電気的に書換え可能な不揮発性メモリで構成され、CPU18が実行する動作プログラムや各種定型データ等を記憶する。CPU18は、上記メインメモリ19及びプログラムメモリ20を用いて、このプロジェクタ1内の制御動作を統括して実行する。
The CPU 18 controls all the operations of the above circuits. The CPU 18 is directly connected to the main memory 19 and the
上記CPU18は、操作部21からのキー操作信号に応じて各種投影動作を実行する。この操作部21は、プロジェクタ1の本体に設けられるキー操作部と、このプロジェクタ1専用の図示しないリモートコントローラからの赤外光を受光する赤外線受光部とを含み、ユーザが本体のキー操作部またはリモートコントローラで操作したキーに基づくキー操作信号をCPU18へ直接出力する。
The CPU 18 performs various projection operations according to key operation signals from the operation unit 21. The operation unit 21 includes a key operation unit provided in the main body of the
上記CPU18はさらに、上記システムバスSBを介して音声処理部22、ポインタ通信部23とも接続される。音声処理部22は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部24を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。
ポインタ通信部23は、アンテナ25を介して上記ポイントペン3と無線接続し、ポイントペン3から送られてくる座標情報やポイントペン3に備えられる各種キーの操作信号等を受信して上記CPU18へ送出する。
The CPU 18 is further connected to an
The
次に図3により上記ポイントペン3の機能構成を説明する。
ポイントペン3の先端に受光レンズ系31が組込まれており、この受光レンズ系31の合焦位置に受光素子として例えばフォトトランジスタ32が配置される。フォトトランジスタ32の出力信号はA/D変換部33でデジタル化された後に復調部34を介して座標算出部35に送られる。
Next, the functional configuration of the
A light receiving
座標算出部35は、復調部34の出力から投影画像PIにおけるポイントペン3のポイント位置を表す位置座標の算出とチェック等を行ない、その算出結果をバスBを介してCPU36へ出力する。
The coordinate
CPU36は、上記A/D変換部33、復調部34、及び座標算出部35とこのポイントペン3全体に係る制御動作を司るもので、メインメモリ37及びプログラムメモリ38が直接接続される。メインメモリ37は、CPU36のワークメモリとして機能する。プログラムメモリ38は、CPU36が実行する動作プログラムや各種定型データを記憶する。CPU36は、上記メインメモリ37及びプログラムメモリ38を用いて、このポイントペン3内の制御動作を実行する。
The
このCPU36に対してさらに、クリックキー部39からキー操作信号が入力される。クリックキー部39は、例えばポイントペン3の軸方向に沿って配設された、2つのクリックキーそれぞれの操作信号をCPU36に出力する。
Further, a key operation signal is input from the click
ここでクリックキー部39を構成する2つのクリックキーは、例えば図1に示すように、ポイントペン3の先端側に位置する、より操作面積が大きなクリックキー3a(マウスポインタの左クリックキーに相当する)と、そのキーに隣接して後方側に位置する、比較的小さなクリックキー3b(マウスポインタの右クリックキーに相当する)とからなるものとする。
Here, the two click keys constituting the click
さらに上記CPU36は、バスBを介してプロジェクタ通信部40とも接続される。このプロジェクタ通信部40は、アンテナ41を介して上記プロジェクタ1と無線接続され、プロジェクタ1からの輝度検出を指示する情報を受信し、その指定されたタイミングで取得した輝度に基づき算出された座標情報やクリックキー部39の操作信号をプロジェクタ1に送信する。
Further, the
図4は、上記PC2のハードウェア構成を示す。各種処理制御を司るCPU51とフロントサイドバスFSBを介してノースブリッジ52が接続される。
FIG. 4 shows the hardware configuration of the
このノースブリッジ52にはまた、メモリバスMBを介してメインメモリ53と、グラフィクスインタフェースAGPを介してグラフィックスアクセラレータ54及びグラフィックメモリ55と、そして図示しないディスプレイコネクタを介してディスプレイ56と接続される他、図示しないRGB出力端子を介してアナログの画像信号を出力する。
The
さらにノースブリッジ52はサウスブリッジ57とも接続され、主としてこれらの間での入出力制御を実行する。
Further, the
サウスブリッジ57は、PCI−Expressスロット58、キーボード/マウス59、ハードディスク装置(HDD)60、光学ディスクドライブ61、ネットワークコネクタ62、及びUSBコネクタ63と接続され、主としてこれら周辺回路とノースブリッジ52との間の入出力制御を行なう。
The south bridge 57 is connected to a PCI-
上記ハードディスク装置60内に、OS(オペレーティングシステム)と各種のアプリケーションプログラム、各種のデータファイル等が予めインストールされているものとする。
It is assumed that an OS (operating system), various application programs, various data files, and the like are installed in the
その他、PC2を構成する個々の要素自体は、きわめて一般的な周知の技術であるのでその説明は省略するものとする。
In addition, since the individual elements constituting the
次に上記実施形態の動作について、図5〜図13を用いて説明する。
図5は、本発明の一実施形態に係る主としてポインタ位置検出用画像設定に関する処理内容を示すフローチャート、図6は、同実施形態に係る図5の自動設定処理の処理内容を示すサブルーチンのフローチャートである。
Next, the operation of the above embodiment will be described with reference to FIGS.
FIG. 5 is a flowchart mainly showing processing contents related to image setting for pointer position detection according to an embodiment of the present invention, and FIG. 6 is a flowchart of a subroutine showing processing contents of automatic setting processing of FIG. 5 according to the embodiment. is there.
図7は、同実施形態に係る位置検出用画像を挿入しない通常シーケンスを説明する図、図8は、同実施形態に係る位置検出用画像を3回挿入するシーケンスを説明する図、図9は、同実施形態に係る位置検出用画像を2回挿入するシーケンスを説明する図、図10は、同実施形態に係る位置検出用画像を1回挿入するシーケンスを説明する図である。 FIG. 7 is a diagram illustrating a normal sequence in which the position detection image according to the embodiment is not inserted, FIG. 8 is a diagram illustrating a sequence in which the position detection image according to the embodiment is inserted three times, and FIG. FIG. 10 is a diagram for explaining a sequence for inserting the position detection image according to the embodiment twice. FIG. 10 is a diagram for explaining a sequence for inserting the position detection image according to the embodiment once.
図11は、同実施形態に係る通常のγ補正条件、γ補正条件1−1(、γ補正条件1−2)の内容を説明するための図であり、図12、図13は、同実施形態に係るγ補正条件2の内容を説明するための図である。
FIG. 11 is a diagram for explaining the contents of the normal γ correction condition and γ correction condition 1-1 (and γ correction condition 1-2) according to the embodiment, and FIGS. It is a figure for demonstrating the content of the (gamma)
図5は、上記図1に示したように本投影システムを稼動している過程で、PC2からの画像信号を投影するプロジェクタ1内において、CPU18及びこのCPU18の制御の下に投影処理部13が実行する、主としてポイントペン3のポイント位置検出用画像の頻度設定に関する処理内容の一部を示す。
FIG. 5 shows the CPU 18 and the
図示する如く当該プログラムでは、CPU18が操作部21からのキー入力信号により、設定メニューの選択操作がなされたか否かを判断する(ステップS101)。 As shown in the figure, in the program, the CPU 18 determines whether or not a setting menu selection operation has been performed by a key input signal from the operation unit 21 (step S101).
ここで、設定メニューの選択操作がなされていないと判断した場合、CPU18はその時に入出力部11から入力されている画像信号を用い、その時点で設定されている内容にしたがったポイントペン3の位置検出用画像の挿入頻度を勘案した投影動作を実行した上で(ステップS102)、再び上記ステップS101からの処理に戻る。
If it is determined that the setting menu selection operation is not performed, the CPU 18 uses the image signal input from the input /
こうしてCPU18は、上記ステップS101,S102の処理を繰返し実行し、設定メニューの設定操作がなされるのを待機しながら投影動作を実行する。 In this way, the CPU 18 repeatedly executes the processes of steps S101 and S102, and executes the projection operation while waiting for the setting menu setting operation to be performed.
操作部21で設定メニューを選択するキー入力がなされた場合、CPU18はステップS101でそれを判断し、それまで投影していた、入出力部11から入力される画像信号にしたがった画像に代えて、設定メニューの各項目を列挙する画像をマイクロミラー素子14で表示し、その光像を投影レンズ部17により投影させる(ステップS103)。
When a key input for selecting a setting menu is made on the operation unit 21, the CPU 18 determines that in step S101, and replaces the image according to the image signal input from the input /
なお、設定メニューの各項目を入出力部11から入力される画像信号にしたがった画像に重畳(合成)させるように表示してもよい。
Each item of the setting menu may be displayed so as to be superimposed (synthesized) on the image according to the image signal input from the input /
ここで、設定可能なメニュー項目としては、他の各種設定モードと共にポイントペン用のモードを設け、当該モード中にポイントペン3使用の有無、ポイントペン3使用時のポイントマークの追従性と画質とのバランスに関する、位置検出画像の挿入頻度についてのユーザによる手動/自動の設定、手動設定の場合の上記ポイントマーク追従性と画質とのバランスに関する設定等を含むものとする。
Here, as a menu item that can be set, a mode for a point pen is provided together with other various setting modes, and whether or not the
この設定メニューの選択画像を投影した状態で何らかの選択操作がなされた場合、操作部21からのキー入力にしたがってCPU18は、まず設定されたのがポイントペンモードに関する内容であるか否かを判断する(ステップS104)。 When any selection operation is performed in a state where the selection image of the setting menu is projected, the CPU 18 first determines whether or not the content related to the point pen mode is set according to the key input from the operation unit 21. (Step S104).
ここで設定されたのがポイントペンモードに関する内容ではないと判断した場合、CPU18は、その設定された内容に対応した動作設定を行なうものとする(ステップS105)。このポイントペンモード以外の設定に関しては、本発明には直接関係しないものとしてその説明を省略する。CPU18はその設定動作終了後に再び上記ステップS101からの処理に戻る。 If it is determined that the content set here is not the content related to the point pen mode, the CPU 18 performs the operation setting corresponding to the set content (step S105). The settings other than the point pen mode are not directly related to the present invention, and the description thereof is omitted. The CPU 18 returns to the processing from step S101 again after the setting operation is completed.
また設定されたのがポイントペンモードに関する内容であった場合、CPU18は上記ステップS104でそれを判断し、次にポイントペン3を使用する設定がなされているか否かを判断する(ステップS106)。
If the content related to the point pen mode is set, the CPU 18 determines this in step S104, and then determines whether or not the setting to use the
ここでポイントペン3の使用する設定がなされていないと判断した場合、CPU18はポイントペン3の位置検出用画像を使用せず、入出力部11から入力される画像信号に基づいた画像のみを使用する通常シーケンスを選択して設定する(ステップS107)。
If it is determined that the setting to use the
この通常シーケンスを模式的に示すと、図7のようなものである。 This normal sequence is schematically shown in FIG.
合わせてCPU18は、R,G,B各色の階調表現について、特に中間強調を行なわない通常のγ補正条件(図11(A)参照)を選択して設定し(ステップS108)、以上で設定メニューの選択動作を完了したものとして、再び上記ステップS101からの処理に戻る。 At the same time, the CPU 18 selects and sets a normal γ correction condition (see FIG. 11A) that does not particularly perform intermediate emphasis for the gradation representation of each of the R, G, and B colors (step S108). Assuming that the menu selection operation has been completed, the process returns to step S101.
また上記ステップS106でポイントペン3を使用する設定がなされていると判断した場合、CPU18は次にポイントペン3の操作に対するポイントマークの追従性等について、ユーザによる手動設定状態となっているか否かを判断する(ステップS109)。
If it is determined in step S106 that the setting to use the
ここでユーザによる手動設定状態となっていると判断した場合、CPU18は、次いでポイントペン3の操作に対するポイントマークの追従性を最優先する設定がなされているか否かを判断する(ステップS110)。
If it is determined that the manual setting state is set by the user, the CPU 18 then determines whether or not the setting that gives the highest priority to the followability of the point mark with respect to the operation of the
ここでポイントマークの追従性を最優先する設定がなされていると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド全てにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS111)。
If the CPU 18 determines that the highest priority is given to the followability of the point mark, the CPU 18 outputs from the input /
このシーケンスを模式的に示すと、図8のようなものとなる。 This sequence is schematically shown in FIG.
この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を3回実行することとなる。
ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像(位置検出用画像)を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。
With this setting, the position detection process of the
In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images (position detection images) of the fourth gradation image are inserted and projected at the end of each field as a set, and a point pen is used at a predetermined timing from the start of projection for each gradation image projection. Against 3 It transmits information for specifying the brightness detection.
なお、上記図8では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。 In FIG. 8, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.
ここで、第1のグラデーション画像と第3のグラデーション画像、第2のグラデーション画像と第4のグラデーション画像は、それぞれ輝度が変化する方向が反転した設定となっている。 Here, the first gradation image and the third gradation image, and the second gradation image and the fourth gradation image are set so that the direction in which the luminance changes is inverted.
すなわち、単に画像中のポイント位置のX,Y座標を検出するためであれば、第1のグラデーション画像と第3のグラデーション画像の一方、及び第2のグラデーション画像と第4のグラデーション画像の一方の計2枚の互いに輝度の変化方向が直交するようなグラデーション画像を用いることで、原理的には座標検出が可能となる。 That is, if it is simply to detect the X and Y coordinates of the point position in the image, one of the first gradation image and the third gradation image, and one of the second gradation image and the fourth gradation image. Coordinate detection is possible in principle by using a total of two gradation images whose luminance change directions are orthogonal to each other.
しかしながら、人間の残像を利用するこの種のフィールドシーケンシャル方式のカラー画像投影において、2枚のグラデーション画像の残像効果により輝度の変化方向が矩形の1対角線に沿ったものとなり、本来の入力画像に対して悪影響を与えることになる。 However, in this type of field sequential color image projection using human afterimages, the luminance change direction is along one diagonal of the rectangle due to the afterimage effect of the two gradation images. Adversely affected.
そのため、それぞれ輝度変化が反転した計4枚のグラデーション画像を用いることで画面内での明るさの勾配を相殺すると共に、反転した画像から検出値の差分を算出することにより、投影環境の明るさ成分も相殺するようにできるので、位置座標の検出精度の向上に寄与させている。 Therefore, the brightness of the projection environment is calculated by canceling out the brightness gradient in the screen by using a total of four gradation images, each of which changes in luminance, and calculating the difference between the detected values from the inverted images. Since the components can also be canceled out, it contributes to the improvement of the detection accuracy of the position coordinates.
ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。
The
そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報に応じてプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。
Then, the
ここでカラー画像1フレームに対して時系列で3点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された適宜座標の平滑化処理等を行なって不必要に画像中で微振動しないようにしてもよい。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。
Here, coordinate information of point positions for three points in a time series can be acquired for one color image frame. Further, the CPU 18 may perform smoothing processing of the acquired coordinates as appropriate to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input /
合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件1−1に従い、特にR,G,Bの各画素階調共に特に中間階調を強調するようなγ補正条件を設定し(ステップS112)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。 At the same time, the CPU 18 sets γ correction conditions that particularly emphasize the intermediate gradation for each of the R, G, and B pixel gradations in accordance with the γ correction condition 1-1 stored in advance in the program memory 20 ( In step S112), it is assumed that the series of processes related to the setting menu selection operation has been completed, and the process returns to step S101.
図11は、上記γ補正条件1−1の内容を説明する図である。すなわち、図11(A)が通常の入力階調に対するγ補正後の出力階調を表すものとした場合に、このγ補正条件1−1では、図11(B)に示すように(波線部分が図11(A)と同じγ特性)、特に中間階調領域での変化の度合いが大きくなるようにS字状カーブの曲率を高める(中間調を伸張する)設定とすることにより、R,G,Bの各フィールド全てにおいてコントラストを強調するような設定を行なうものである。 FIG. 11 is a diagram for explaining the contents of the γ correction condition 1-1. That is, when FIG. 11A represents the output gradation after γ correction with respect to the normal input gradation, the γ correction condition 1-1 shows that (the wavy line portion) as shown in FIG. Is the same γ characteristic as in FIG. 11A), in particular, by setting the curvature of the S-shaped curve to be increased (extend the halftone) so that the degree of change in the intermediate gradation region is increased, R, Settings are made so as to enhance the contrast in all the G and B fields.
このγ補正条件1−1の強調の程度は、1フレーム内における位置検出用画像の挿入時間の比率に応じて、変えるようにすればよい。 The degree of emphasis of the γ correction condition 1-1 may be changed according to the ratio of the position detection image insertion time in one frame.
つまり、本実施形態では、画像変換部12が通常実施しているγ補正処理に加え、位置検出用画像をR,G,Bの各フィールドに挿入したことにより薄められてしまうコントラスト感を強める補正を併せて実行するものとするものである。
In other words, in the present embodiment, in addition to the γ correction processing that is normally performed by the
また、上記ステップS110でポイントマークの追従性を最優先する設定がなされていないと判断した場合、CPU18は次いでポイントマークの追従性と画質のバランスで、追従性をより優先する設定がなされているか否かを判断する(ステップS113)。 If it is determined in step S110 that the setting that gives the highest priority to the followability of the point mark is not made, the CPU 18 then determines whether the setting of giving more priority to the followability is made by the balance between the followability of the point mark and the image quality. It is determined whether or not (step S113).
ここで追従性をより優先する設定がなされていると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド中、Bフィールドを除くR,Gの各フィールドにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS114)。 If it is determined that priority is given to followability, the CPU 18 determines the field in each of the R, G fields excluding the B field among the R, G, B fields constituting one frame of the color image. At the end, a sequence for inserting the position detection image is selected and set instead of the image based on the image signal from the input / output unit 11 (step S114).
このシーケンスを模式的に示すと、図9のようなものとなる。 This sequence is schematically shown in FIG.
この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を2回実行することとなる。
図9に示すように、カラー画像1フレームがR,G,Bの各フィールド、計3フィールドから構成されるものとした場合、Rフィールドの末尾で1回、及びGフィールドの末尾で1回、計2回の位置検出処理を実行する。
With this setting, the position detection process of the
As shown in FIG. 9, when one frame of a color image is composed of R, G, and B fields, a total of 3 fields, once at the end of the R field and once at the end of the G field, The position detection process is executed twice in total.
ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。
In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images of the fourth gradation image to be inserted are inserted and projected at the end of each field as a set, and the luminance is detected with respect to the
なお、上記図9では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。 In FIG. 9, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.
ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。
The
そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報によりプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。
The
ここでカラー画像1フレームに対して時系列で2点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された座標の平滑化処理等を行なって不必要に画像中で微振動しないようにし手も良い。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。
Here, the coordinate information of the point positions for two points in a time series with respect to one color image frame can be acquired. Further, the CPU 18 may perform a smoothing process on the acquired coordinates to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input /
合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件2に従い、Bの各画素階調で「0(ゼロ)」階調に近い暗い部分側の階調を底上げするようなγ補正条件を設定し(ステップS115)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。
At the same time, according to the
図12は、上記γ補正条件2の内容を説明する図である。すなわち、BフィールドのB画像には、R,GフィールドにおけるR,G画像と異なるように、図12の実線で示すように、「0(ゼロ)」階調に近い暗い部分側の階調をb分底上げした上で入力階調に対するγ補正を行なう。
FIG. 12 is a diagram for explaining the content of the
また、R,G画像では、図12の波線で示すような、b分底上げしない入力階調に対するγ補正を行なう。 In the R and G images, γ correction is performed for an input gradation that does not increase by b as shown by the wavy line in FIG.
なお、R,G画像に対しては、位置検出用画像の挿入に伴い発生するコントラストの減少を補う中間階調領域での変化の度合いが大きくなるようなS字状カーブの曲率を高める設定を行なうようにしてもよい。 For the R and G images, a setting is made to increase the curvature of the S-shaped curve so that the degree of change in the intermediate gradation region is increased to compensate for the decrease in contrast that occurs with the insertion of the position detection image. You may make it perform.
図13は、同様のγ補正の「0(ゼロ)」階調に近い暗い部分側の様子をより具体的に説明するための図である。 FIG. 13 is a diagram for more specifically explaining the situation on the dark side near the “0 (zero)” gradation of the same γ correction.
R,G画像に関しては、γ補正のカーブに沿った補正を行なうのに対し、B画像に関してはゼロ階調から一定の階調、例えば「(8)」までの間、出力階調を一律に階調「(0)」ではない、「(3)」としている。 For the R and G images, correction along the curve of γ correction is performed, while for the B image, the output gradation is uniformly set from zero gradation to a certain gradation, for example, “(8)”. The gradation is not “(0)” but “(3)”.
なお、上記黄色と補色関係にある青色の「0(ゼロ)」階調側でのγ補正に際しては、位置検出用画像の挿入によるエネルギーに相当するような階調の範囲を選定することで、双方を相殺して補色によりグレー色とするようにする。 In addition, in the γ correction on the “0 (zero)” gradation side of the blue color complementary to the above yellow, by selecting a gradation range corresponding to the energy due to the insertion of the position detection image, Both are offset to make a gray color with complementary colors.
このようなγ補正処理を実行し、R,Gの各フィールドでポイントペン3の位置検出用画像を挿入することで、たとえ本来の投影画像が(ゼロ)階調に近い、暗い画像を投影すべきタイミングで、R,G各フィールドで上記位置検出用画像に起因する、混色で黄色く浮いた画像として表現されてしまう状況であっても、補色であるBフィールドでの「0(ゼロ)」階調側を底上げして投影することにより、肉眼で知覚されやすい色彩を相殺して無彩色の淡いグレーとなる画像を投影させることとなり、ユーザに対して不自然な描写での画像投影となるのを回避できる。
By executing such γ correction processing and inserting the position detection image of the
また、このようなB画像に対するγ補正処理は、本来の趣旨(システム系に応じた色バランスでの投影)とは異なる理由により行なうものであるが、通常の明るい画像の投影時には位置検出用画像の挿入による黄色成分の輝度レベルが相対的に低いものとなり、画質への影響はほとんどない。 Further, such a γ correction process for the B image is performed for a reason different from the original purpose (projection with color balance according to the system system). However, when a normal bright image is projected, the position detection image is used. The luminance level of the yellow component due to the insertion is relatively low, and the image quality is hardly affected.
つまり、ここでは、画像変換部12が通常実施しているγ補正処理に加え、位置検出用画像をR、Gフィールドのみに挿入したことにより黄色がかる画像を、黄色と補色の関係となる青色のγ補正時に、ゼロ階調から一定の階調までを一律の値に「底上げ」するような補正を併せて実行するものである。
That is, here, in addition to the γ correction processing normally performed by the
上記ステップS114であえてBフィールドにおいて、ポイントペン3の位置検出用画像を挿入しない設定とした理由を説明する。
The reason why the setting is made so that the position detection image of the
3原色R,G,B中でBが最も輝度成分が低い暗い画像であるために、位置を検出するポイントペン3が受光する光量(輝度)も3原色R,G,B中でBが最も暗く、検出精度が悪いものになってしまうので、他の色のフィールドに挿入しない設定よりは、ポイントペン3が座標情報(位置座標)を検出できる検出距離を長くすることができるからである。
Since B is the darkest image with the lowest luminance component among the three primary colors R, G, and B, the light quantity (luminance) received by the
また、位置検出用画像を挿入することで、どの色も本来の画像のコントラストが低下するが、3原色R,G,B中でBが最も輝度成分が低い暗い画像であるために、位置検出用画像を挿入することで本来投影すべき画像の投影時間が短縮され、コントラストが低下する影響が最も小さい色という点でもBフィールドを選択するのが望ましい。 In addition, by inserting a position detection image, the contrast of the original image of any color is lowered. However, since B is the darkest image with the lowest luminance component among the three primary colors R, G, and B, position detection is performed. It is desirable to select the B field from the viewpoint that the projection time of the image to be originally projected is shortened by inserting the image for use, and the color has the smallest influence on the contrast.
また上記ステップS113でポイントマークの追従性と画質のバランスで、追従性をより優先する設定はなされていないと判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの3フィールドに加えてW(白色)のフィールドを設定し、当該Wフィールドにおいて、入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS116)。 If it is determined in step S113 that the setting for giving priority to followability has not been made in terms of the balance between the followability of the point mark and the image quality, the CPU 18 displays the three fields R, G, and B constituting one frame of the color image. In addition, a W (white) field is set, and a sequence for inserting a position detection image is selected and set in the W field in place of the image based on the image signal from the input / output unit 11 (step S116).
このシーケンスを模式的に示すと、図10のようなものとなる。 This sequence is schematically shown in FIG.
この設定により、カラー画像1フレームを投影する間に、ポイントペン3の位置検出処理を1回実行することとなる。
図10に示すように、カラー画像1フレームがR,G,B,Wの各フィールド、計4フィールドから構成されるものとした場合、Wフィールドで1回のみ、位置検出処理を実行する。
With this setting, the position detection process of the
As shown in FIG. 10, when one frame of a color image is composed of R, G, B, and W fields, a total of 4 fields, the position detection process is executed only once in the W field.
ここで1回の位置検出処理は、例えば画面の垂直方向に沿って最上端が最も明るいフル階調、最下端が最も暗い「0(ゼロ)」階調となる第1のグラデーション画像、画面の水平方向に沿って最左端が最も明るいフル階調、最右端が最も暗い「0(ゼロ)」階調となる第2のグラデーション画像、画面の垂直方向に沿って最上端が最も暗い「0(ゼロ)」階調、最下端が明るいフル階調となる第3のグラデーション画像、画面の水平方向に沿って最左端が最も暗い「0(ゼロ)」階調、最右端が最も明るいフル階調となる第4のグラデーション画像の計4枚のグラデーション画像を1組として各フィールド末尾に挿入して投影させ、各グラデーション画像の投影時共、投影開始から所定タイミングでポイントペン3に対して輝度検出を指示する情報を送信する。
In this case, the position detection process is performed once, for example, in the first gradation image in which the uppermost edge is the brightest full gradation and the lowermost edge is the darkest “0 (zero)” gradation along the vertical direction of the screen. A second gradation image in which the leftmost edge has the brightest full gradation and the rightmost edge has the darkest “0 (zero)” gradation along the horizontal direction, and the darkest “0 ( "Zero)" gradation, third gradation image with brightest full gradation at the bottom end, darkest "0 (zero)" gradation at the leftmost end along the horizontal direction of the screen, full gradation at the rightmost end A total of four gradation images of the fourth gradation image to be inserted are inserted and projected at the end of each field as a set, and the luminance is detected with respect to the
なお、上記図10では、図示を簡略化するために第3のグラデーション画像と第4のグラデーション画像の記載を省略しているが、実際にはそれぞれ第1のグラデーション画像、第2のグラデーション画像と輝度が変化する方向が反転した画像として挿入するよう設定されているものとする。 In FIG. 10, the description of the third gradation image and the fourth gradation image is omitted for the sake of simplicity, but actually, the first gradation image, the second gradation image, and the like, respectively. It is assumed that the setting is made so that the direction in which the brightness changes is reversed.
ポイントペン3では、プロジェクタ1から送られてくる指示情報にしたがったタイミングで輝度を検出し、指示情報毎に第1〜第4のグラデーション画像の計4回の検出により得た各輝度情報から画面中でポイントしているX,Y座標位置を算出し、算出した座標情報をプロジェクタ1に返送する。
The
そして、ポイントペン3から一定の遅延時間を経て返送されてくる座標情報によりプロジェクタ1はポイントペン3のポイント位置の座標が判断可能となる。
The
ここでカラー画像1フレームに対して1点分のポイント位置の座標情報が取得できる。また、CPU18はその取得された前後の数フレームと座標の平滑化処理等を行なって不必要に画像中で微振動しないようにし手も良い。そして、CPU18は、入出力部11からの画像信号に応じた画像投影に重畳して取得した座標情報の位置にポイントマークPTを投影させる。
Here, the coordinate information of the point position for one point can be acquired for one frame of the color image. Further, the CPU 18 may perform a smoothing process of the frames before and after the acquired frames and coordinates to prevent unnecessary fine vibrations in the image. Then, the CPU 18 projects the point mark PT at the position of the coordinate information obtained by superimposing on the image projection according to the image signal from the input /
合わせてCPU18は、予めプログラムメモリ20に記憶されているγ補正条件1−2に従い、特にR,G,Bの各画素階調共に特に中間階調を強調するようなγ補正条件を設定し(ステップS117)、以上で設定メニューの選択操作に関する一連の処理を終えたものとして、再び上記ステップS101からの処理に戻る。
At the same time, the CPU 18 sets γ correction conditions that particularly emphasize the intermediate gradation for each of the R, G, and B pixel gradations in accordance with the γ correction conditions 1-2 stored in the
なお、この場合、図10に示すシーケンスは、図8に示すシーケンスに比べ、位置検出用画像を挿入する頻度が低く、時間が短いので、このγ補正条件1−2は、γ補正条件1−1に比べて、R,G,Bの各画素階調の中間階調の強調の仕方は弱いものとする。 In this case, the sequence shown in FIG. 10 has a lower frequency of inserting the position detection image and the time is shorter than the sequence shown in FIG. Compared to 1, the method of emphasizing intermediate gradations of R, G, and B pixel gradations is weak.
次に、上記ステップS109でポイントペン3の操作に対するポイントマークの追従性等について、ユーザによる手動設定状態となっていないと判断した場合について説明する。この場合は、ポイントマークの追従性等について、自動設定状態となっていると判断し、CPU18は、その自動設定に応じた処理を実行する。
Next, a case will be described in which it is determined in step S109 that the user has not manually set the followability of the point mark with respect to the operation of the
図6はこのときCPU18が実行する自動処理の詳細な内容を示すサブルーチンのフローチャートである。なおここでは投影モードとして、何よりも明るさを優先する「プレゼンテーションモード」、全体に明るさと色彩を中庸にバランス良く設定した「スタンダードモード」、及び色彩と暗部の暗さを優先する「シアターモード」の3種類が選択可能である場合について例示する。 FIG. 6 is a flowchart of a subroutine showing the detailed contents of the automatic processing executed by the CPU 18 at this time. Here, as a projection mode, “Presentation Mode” that prioritizes brightness over anything, “Standard Mode” that sets the overall brightness and color in a well-balanced manner, and “Theater Mode” that prioritizes the darkness of colors and dark areas. An example in which the following three types can be selected will be described.
その当初にCPU18は、まず設定されている投影モードが「プレゼンテーションモード」であるか否かを判断する(ステップS201)。
「プレゼンテーションモード」であると判断した場合にCPU18は、カラー画像1フレームを構成するR,G,Bの各フィールド全てにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS202)。
Initially, the CPU 18 first determines whether or not the set projection mode is the “presentation mode” (step S201).
If it is determined that the mode is the “presentation mode”, the CPU 18 replaces the R, G, and B fields constituting one frame of the color image with an image based on the image signal from the input /
その後の処理であるステップS203以降の処理は、上記、図5のステップS112の部分で説明したものと同様のものとなる。 The processing after step S203, which is the subsequent processing, is the same as that described in step S112 in FIG.
また、上記ステップS201で「プレゼンテーションモード」は設定されていないと判断した場合、CPU18は次いで「スタンダードモード」が設定されているか否かを判断する(ステップS204)。 If it is determined in step S201 that the “presentation mode” is not set, the CPU 18 next determines whether or not the “standard mode” is set (step S204).
ここで「スタンダードモード」が設定されていると判断した場合にCPU18は、その時点で入出力部11より入力されている画像信号に対するコントラスト解析を行なう(ステップS205)。その解析結果に対してCPU18は、2段階のしきい値を用いて、まず、より高い方のしきい値より入力画像のコントラストが高いか否かにより、入力画像が高コントラストであるか否かを判別する(ステップ206)。
If it is determined that the “standard mode” is set, the CPU 18 performs contrast analysis on the image signal input from the input /
ここで入力画像のコントラストが、より高いしきい値を超えて高く、高コントラストであると判別した場合、CPU18は上記ステップS202からの処理に進み、「プレゼンテーションモード」の場合と同様の処理を実行させる。 If it is determined that the contrast of the input image is higher than the higher threshold and is high contrast, the CPU 18 proceeds to the process from step S202 and executes the same process as in the “presentation mode”. Let
また上記ステップS206で、入力画像が高コントラストではないと判別した場合、CPU18は次いで入力画像のコントラストが、2段階のしきい値の、より低い方のしきい値より高いか否かにより、入力画像が中コントラスト(中程度のコントラスト)であるか否かを判別する(ステップ207)。 If it is determined in step S206 that the input image is not high contrast, the CPU 18 then determines whether the input image contrast is higher than the lower threshold value of the two-stage threshold value. It is determined whether or not the image has medium contrast (medium contrast) (step 207).
ここで入力画像のコントラストが、より低いしきい値よりは高く、中コントラストであると判断した場合、CPU18はカラー画像1フレームを構成するR,G,Bの各フィールド中、Bフィールドを除くR,Gの各フィールドにおいて、フィールド末尾で入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS208)。
If it is determined that the contrast of the input image is higher than the lower threshold and is medium contrast, the CPU 18 excludes the B field from the R, G, and B fields constituting one frame of the color image. , G, a sequence for inserting a position detection image is selected and set in place of the image based on the image signal from the input /
その後の処理であるステップS209以降の処理は、上記、図5のステップS115の部分で説明したものと同様のものとなる。 The subsequent processes after step S209 are the same as those described in step S115 in FIG.
また、上記ステップS204で「スタンダードモード」が設定されておらず、「シアターモード」が設定されていると判別した場合、あるいは上記ステップS207で入力画像のコントラストが、より低いしきい値以下であると判別した場合、CPU18はカラー画像1フレームを構成するR,G,Bの3フィールドに加えてW(白色)のフィールドを設定し、当該Wフィールドにおいて、入出力部11からの画像信号による画像に代えて、位置検出用画像を挿入するシーケンスを選択して設定する(ステップS210)。
If it is determined in step S204 that “standard mode” is not set and “theater mode” is set, or in step S207, the contrast of the input image is lower than a lower threshold. The CPU 18 sets a W (white) field in addition to the R, G, and B fields constituting one frame of the color image, and the image based on the image signal from the input /
その後の処理であるステップS211以降の処理は、上記、図5のステップS117の部分で説明したものと同様のものとなる。 Subsequent processes, step S211 and subsequent processes, are the same as those described in step S117 in FIG.
このようにして自動設定状態にあっては、その時点で設定されている投影モードや投影画像の特徴情報(コントラスト)に対応してポイントペンの使用環境(状態)に応じた設定を行なうことができる。 In this way, in the automatic setting state, setting corresponding to the point pen usage environment (state) can be performed corresponding to the projection mode and the feature information (contrast) of the projection image set at that time. it can.
以上詳述した如く本実施形態によれば、設定に応じてカラー画像1フレーム中でポイントペン3の位置検出用画像を挿入する頻度を可変するものとしたので、ポイントペン3を使用する状況に応じて適切な動作環境を設定することが可能となる。
As described above in detail, according to the present embodiment, the frequency of inserting the position detection image of the
また本実施形態では、例えばR,G,Bフィールド中のBフィールドなど、特に輝度の点で不利な色フィールドにおいては意図的にポイントペン3の位置検出用画像を挿入しないように設定することで、画質の低下を抑えつつ、ポイントペンの位置検出距離を長くすることができる。
In the present embodiment, for example, in the color field that is disadvantageous in terms of luminance, such as the B field in the R, G, and B fields, the position detection image of the
また、その時点で設定されている投影モードや投影画像の特徴情報(コントラスト)に対応してポイントペンの使用環境(状態)に応じて、カラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度が決定されることで、ユーザの手をわずらわすことなく、自動的に追従性能と画質のバランスの観点で適した設定を実現することできる。 In addition, light corresponding to the position detection image in one frame of the color image according to the use environment (state) of the point pen corresponding to the projection mode and the characteristic information (contrast) of the projection image set at that time. By determining the frequency of inserting and projecting an image, it is possible to automatically realize a setting suitable in terms of the balance between the tracking performance and the image quality without bothering the user.
また、ユーザの手動設定によりポイントペン3の位置検出用画像を挿入する頻度を決定するものとせれば、ユーザの意図を反映して、追従性能と画質のバランス観点で適した設定を実現することができる。
Further, if the frequency of inserting the position detection image of the
さらに上記実施形態では、ポイントペン3の位置検出用画像を挿入する位置を各色フィールドの末尾としたが、前半でもよく、このように位置検出用画像を同一色の画像信号フィールドの前または後に連続して配置することで、色フィールド数を無闇に増やすことなく、光源の点灯/消灯の回数を減らし、制御を単純化することができる。
Further, in the above embodiment, the position where the position detection image of the
なお上記実施形態では、ポイントペン3の位置検出用画像として、輝度パターンの変化が反転した2つの画像を用いるものとしたため、画面内での明るさの勾配を相殺すると共に、反転した画像から検出値の差分を算出することにより、環境光がポイントペンの輝度センサに与える影響を相殺することができるので、位置座標の検出精度を高めることができる。
In the above-described embodiment, two images with inverted luminance patterns are used as the position detection image of the
同様に上記実施形態では、ポイントペン3の位置検出用画像として、輝度パターンの変化方向が互いに直交する2つの画像を用いるものとしたため、各座標軸方向での正確な検出を行なうことができる。
Similarly, in the above-described embodiment, two images whose luminance pattern change directions are orthogonal to each other are used as the position detection image of the
また上記実施形態では、ポイントペン3の位置検出を行なった上で投影画像中の対応する位置にポイントマークの画像を重畳して投影させるものとしたので、ポイントペン3自体はレーザビーム等の光を発していないにも拘わらず、あたかも出射光で指示位置をポイントしているように制御でき、さらに設定によって色や形状を任意に可変したポイントマークを実現できる。
In the above embodiment, the position of the
なお上記実施形態では、ガンマプロファイルを画像フレームの先頭で、ロードして設定するように説明したが、モードが決定された段階で、投影に先立ってロード、設定されるようにすれば、どの時点であってもよい。 In the above-described embodiment, the gamma profile is described as being loaded and set at the beginning of the image frame. However, when the mode is determined, the gamma profile can be loaded and set prior to projection. It may be.
また上記実施形態では、位置検出用画像については、画面内で、輝度ムラがでないように組となるように挿入されるものであり、入力信号の階調再現には関係ないので、γ補正されるようにしても、γ補正されないようにしてもよい。 Further, in the above embodiment, the position detection images are inserted so as to form a set so that there is no luminance unevenness in the screen, and are not related to the gradation reproduction of the input signal. Alternatively, γ correction may not be performed.
なお上記実施形態では、位置座標をポイントペン3で算出するものとして説明したが、ポイントペン3は、位置に関する情報として、輝度情報を送信し、プロジェクタ1で、位置に関する情報である輝度情報を受信し、位置座標を算出するようにしてもよい。
In the above embodiment, the position coordinate is calculated with the
なお上記実施形態では、特徴情報として、画像信号のコントラストの例で説明したが、動画像としての変化等を特徴情報として解析し、その解析結果から適したポイントペン3の位置検出用画像を挿入する頻度を決定するものとしてもよい。
In the above embodiment, the example of the contrast of the image signal has been described as the feature information. However, a change or the like as a moving image is analyzed as the feature information, and an appropriate position detection image of the
なお上記実施形態では、プロジェクタ1を複数色の発光素子を有するカラー画像を投影可能なものとして説明したが、ポインタペンをレーザポインタのように位置指定装置として使用する技術にあっては、単色の光源によるモノクロ(単色の)のプロジェクタであってもよい。
In the above-described embodiment, the
なお上記プロジェクタ1はDLP(登録商標)方式を採用するものとして説明したが、本発明は光源部に用いる発光素子等の構成を制限するものではない。
Although the
その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
請求項1記載の発明は、複数色の発光素子を有する光源と、画像信号を入力する入力手段と、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段とを具備したことを特徴とする。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
The invention described in
請求項2記載の発明は、上記請求項1記載の発明において、上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを決定することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the present invention, the determination unit does not insert an optical image corresponding to the position detection image in one color image frame projected by the projection unit. A color field is determined.
請求項3記載の発明は、上記請求項2記載の発明において、上記決定手段は、上記投影手段により投影させるカラー画像1フレーム中、上記位置検出用画像に対応する光像を挿入しない少なくとも1つの色フィールドを、上記光源からの光の輝度に応じて決定することを特徴とする。
The invention according to
請求項4記載の発明は、上記請求項1乃至3いずれか記載の発明において、色彩表現及び輝度の少なくとも一方の設定が異なる複数の投影モードから1つを選択する選択手段をさらに具備し、上記決定手段は、上記選択手段で選択した投影モードに応じて、上記頻度を決定することを特徴とする。
The invention according to
請求項5記載の発明は、上記請求項1乃至4いずれか記載の発明において、上記画像信号の特徴情報を判別する判別手段をさらに具備し、上記決定手段は、上記判別手段で判別した結果に応じて、上記頻度を決定することを特徴とする。 According to a fifth aspect of the invention, in the invention according to any one of the first to fourth aspects, the image processing apparatus further comprises a discriminating unit that discriminates the feature information of the image signal. In response, the frequency is determined.
請求項6記載の発明は、上記請求項1乃至3いずれか記載の発明において、上記頻度に関するユーザの指示を受け付ける受付手段をさらに具備し、上記選択手段は、上記受付手段で受け付けられたユーザの指示により、上記頻度を決定することを特徴とする。
The invention described in
請求項7記載の発明は、上記請求項1乃至6いずれか記載の発明において、上記投影制御手段は、上記位置検出用画像に対応する光像を、色フィールド内で上記画像信号に対応する光像の投影タイミングの前または後の連続したタイミングで投影させることを特徴とする。 According to a seventh aspect of the present invention, in the invention according to any one of the first to sixth aspects, the projection control means converts a light image corresponding to the position detection image into a light corresponding to the image signal in a color field. Projection is performed at successive timings before or after the image projection timing.
請求項8記載の発明は、上記請求項1乃至5いずれか記載の発明において、上記位置検出用画像に対応する光像は、位置毎の時間平均の輝度が一様となる、輝度パターンの変化が反転した2枚の画像に対応する光像であることを特徴とする。
The invention according to
請求項9記載の発明は、上記請求項1乃至6いずれか記載の発明において、上記位置検出用画像に対応する光像は、輝度パターンの変化方向が互いに直交する2組の画像に対応する光像であることを特徴とする。
The invention according to
請求項10記載の発明は、上記請求項1乃至7いずれか記載の発明において、上記受信手段で受信した位置情報に基づき、上記投影手段で投影する、上記入力手段で入力した画像信号に対応する光像中にポインタ画像に対応する光像を重畳して配置するポインタ制御手段をさらに具備したことを特徴とする。 A tenth aspect of the invention corresponds to the image signal input by the input means, which is projected by the projection means based on the positional information received by the reception means in the invention of any one of the first to seventh aspects. The apparatus further comprises pointer control means for superposing and arranging the optical image corresponding to the pointer image in the optical image.
請求項11記載の発明は、複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置での投影方法であって、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御工程と、上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信工程と、上記送信工程での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信工程と、上記投影制御工程においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定工程とを有したことを特徴とする。 The invention according to claim 11 uses a light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, and light transmitted from the light source in a time division for each color field. A projection method in an apparatus including a projection unit, a transmission unit, and a reception unit that forms and projects an optical image corresponding to an image signal input by an input unit, for detecting a position in the optical image A projection control step in which a light image corresponding to the position detection image is inserted and projected by the projection unit, and a position coordinate is detected at a timing at which the light image corresponding to the position detection image is projected by the projection control step. In the transmission step of transmitting the instructing information to the point device outside the apparatus, the reception step of receiving information on the position coordinates transmitted from the point device in response to the transmission in the transmission step, and the projection control step Color Characterized in that and a determination step of determining how often to insert and projecting a light image corresponding to the position detection image in the image frame.
請求項12記載の発明は、複数色の発光素子を有する光源、画像信号を入力する入力部、上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力部で入力した画像信号に対応する光像を形成して投影する投影部、送信部、及び受信部を備えた装置が内蔵するコンピュータが実行するプログラムであって、上記コンピュータを、上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御手段、上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段、上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段、及び上記投影制御手段においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段として機能させることを特徴とする。
The invention described in
1…プロジェクタ、2…PC、3…ポイントペン、11…入出力部、12…画像変換部、13…投影処理部、14…マイクロミラー素子、15…光源部、16…ミラー、17…投影レンズ部、18…CPU、19…メインメモリ、20…プログラムメモリ、21…操作部、22…音声処理部、23…ポインタ通信部、24…スピーカ部、25…アンテナ、31…受光レンズ系、32…フォトトランジスタ、33…A/D変換部、34…復調部、35…座標算出部、36…CPU、37…メインメモリ、38…プログラムメモリ、39…クリックキー部、40…プロジェクタ通信部、41…アンテナ、51…CPU、52…ノースブリッジ、53…メインメモリ、54…グラフィックスアクセラレータ、55…グラフィックメモリ、56…ディスプレイ、57…サウスブリッジ、58…PCI−Expressスロット、59…キーボード/マウス、60…ハードディスク装置(HDD)、61…光学ディスクドライブ、62…ネットワークコネクタ、63…USBコネクタ、AGP…グラフィクスインタフェース、B…バス、FSB…フロントサイドバス、MB…メモリバス、PI…投影画像、PT…ポイントマーク、SB…システムバス、VC…VGAケーブル、UC…USBケーブル。
DESCRIPTION OF
Claims (12)
画像信号を入力する入力手段と、
上記光源から色フィールド毎に時分割で送られてくる光を用い、光の色に応じて上記入力手段で入力した画像信号に対応する光像を形成して投影する投影手段と、
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影手段で投影させる投影制御手段と、
上記投影制御手段により位置検出用画像に対応する光像を上記投影手段で投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段と、
上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段と、
上記投影制御手段がカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段と
を具備したことを特徴とする投影装置。 A light source having light emitting elements of multiple colors;
An input means for inputting an image signal;
Projecting means for forming and projecting a light image corresponding to an image signal input by the input means according to the color of light using light transmitted in a time-sharing manner from the light source for each color field;
Projection control means for inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection means;
Transmitting means for transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing when the projection control means projects a light image corresponding to the position detection image by the projection means;
Receiving means for receiving information relating to position coordinates sent from the point device in response to transmission by the sending means;
A projection apparatus comprising: a determination unit configured to determine a frequency at which the projection control unit inserts and projects a light image corresponding to a position detection image in one color image frame.
上記決定手段は、上記選択手段で選択した投影モードに応じて、上記頻度を決定する
ことを特徴とする請求項1乃至3いずれか記載の投影装置。 A selection unit that selects one of a plurality of projection modes having different settings of at least one of color representation and luminance;
4. The projection apparatus according to claim 1, wherein the determination unit determines the frequency according to a projection mode selected by the selection unit.
上記決定手段は、上記判別手段で判別した結果に応じて、上記頻度を決定する
ことを特徴とする請求項1乃至4いずれか記載の投影装置。 A discriminating means for discriminating the feature information of the image signal;
5. The projection apparatus according to claim 1, wherein the determining unit determines the frequency according to a result determined by the determining unit.
上記選択手段は、上記受付手段で受け付けられたユーザの指示により、上記頻度を決定する
ことを特徴とする請求項1乃至3いずれか記載の投影装置。 Further comprising a receiving means for receiving a user instruction regarding the frequency,
The projection apparatus according to claim 1, wherein the selection unit determines the frequency according to a user instruction received by the reception unit.
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御工程と、
上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信工程と、
上記送信工程での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信工程と、
上記投影制御工程においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定工程と
を有したことを特徴とする投影方法。 A light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, light transmitted in a time-sharing manner for each color field from the light source, and an image signal input at the input unit according to the color of light A projection method in an apparatus including a projection unit, a transmission unit, and a reception unit that form and project a corresponding optical image,
A projection control step of inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection unit;
A transmission step of transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing at which a light image corresponding to the position detection image is projected by the projection control step;
A receiving step of receiving information on the position coordinates sent from the point device in response to the transmission in the transmitting step;
And a determination step of determining a frequency of inserting and projecting a light image corresponding to the position detection image in one frame of the color image in the projection control step.
上記コンピュータを、
上記光像中の位置を検出するための位置検出用画像に対応する光像を挿入して上記投影部で投影させる投影制御手段、
上記投影制御工程により位置検出用画像に対応する光像を投影させているタイミングで位置座標の検出を指示する情報を装置外部のポイント機器に送信する送信手段、
上記送信手段での送信に応答して上記ポイント機器から送られてくる位置座標に関する情報を受信する受信手段、及び
上記投影制御手段においてカラー画像1フレーム中に位置検出用画像に対応する光像を挿入して投影させる頻度を決定する決定手段
として機能させることを特徴とするプログラム。 A light source having light emitting elements of a plurality of colors, an input unit for inputting an image signal, light transmitted in a time-sharing manner for each color field from the light source, and an image signal input at the input unit according to the color of light A program executed by a computer built in an apparatus including a projection unit, a transmission unit, and a reception unit that form and project a corresponding optical image,
The computer
Projection control means for inserting a light image corresponding to a position detection image for detecting a position in the light image and projecting it by the projection unit;
Transmitting means for transmitting information instructing detection of position coordinates to a point device outside the apparatus at a timing at which a light image corresponding to the position detection image is projected by the projection control step;
A receiving unit that receives information on position coordinates transmitted from the point device in response to transmission by the transmitting unit; and a light image corresponding to the position detection image in one color image frame in the projection control unit. A program that functions as a determination unit that determines the frequency of insertion and projection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063955A JP2013196475A (en) | 2012-03-21 | 2012-03-21 | Projection device, projection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063955A JP2013196475A (en) | 2012-03-21 | 2012-03-21 | Projection device, projection method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013196475A true JP2013196475A (en) | 2013-09-30 |
Family
ID=49395313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063955A Pending JP2013196475A (en) | 2012-03-21 | 2012-03-21 | Projection device, projection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013196475A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014186104A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Projection control device, projection device, projection system, projection control method and program |
CN110149506A (en) * | 2019-06-28 | 2019-08-20 | 浙江水晶光电科技股份有限公司 | Image projection detection device and image projection detection method |
WO2020129536A1 (en) * | 2018-12-20 | 2020-06-25 | ソニー株式会社 | Image processing device, and display device having detection function |
-
2012
- 2012-03-21 JP JP2012063955A patent/JP2013196475A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014186104A (en) * | 2013-03-22 | 2014-10-02 | Casio Comput Co Ltd | Projection control device, projection device, projection system, projection control method and program |
WO2020129536A1 (en) * | 2018-12-20 | 2020-06-25 | ソニー株式会社 | Image processing device, and display device having detection function |
CN113168266A (en) * | 2018-12-20 | 2021-07-23 | 索尼集团公司 | Image processing apparatus and display apparatus having detection function |
US11429229B2 (en) | 2018-12-20 | 2022-08-30 | Sony Group Corporation | Image processing apparatus and display apparatus with detection function |
CN110149506A (en) * | 2019-06-28 | 2019-08-20 | 浙江水晶光电科技股份有限公司 | Image projection detection device and image projection detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10121418B2 (en) | Apparatus and method for controlling video wall | |
US9390646B2 (en) | Color calibration apparatus and method usable with display device | |
JP6614859B2 (en) | Display device, display device control method, image processing device, program, and recording medium | |
KR20180078713A (en) | Display apparatus and method for displaying | |
US8306353B2 (en) | Information processing apparatus with light processing, indication system, and computer readable medium | |
US9093007B2 (en) | Method and device for generating a presentation | |
US20070188482A1 (en) | Image display system, image display method, image display program, recording medium, data processing device, and image display device | |
KR102166590B1 (en) | Multiple laser drive system | |
JP6155547B2 (en) | Projection apparatus, projection method, and program | |
JP2013196475A (en) | Projection device, projection method and program | |
JP6106969B2 (en) | Projection device, pointer device, and projection system | |
KR20190134370A (en) | Electronic device and method for displaying content of application through display | |
CN108206947B (en) | Projection apparatus, projection method, and recording medium | |
JP6212845B2 (en) | Display control device, display device, projection device, system, and display control method | |
JP2013196477A (en) | Projection device, projection method and program | |
KR20160078023A (en) | Apparatus and method for controlling display | |
JP6610635B2 (en) | Display control apparatus, display control method, and program | |
JP2019109279A (en) | Processing method, display device, and information processing device | |
CA2827425C (en) | Method and device for generating a presentation | |
US8212929B2 (en) | Image processing method and computer readable medium | |
JP2006345228A (en) | Controller for point image and control method for point image | |
US20200133440A1 (en) | Display device, method for controlling display device, and display system | |
JP2017097363A (en) | Display device, projection device, display method, and program | |
JP2012252043A (en) | Program, data processing device, and data processing method | |
KR20230075893A (en) | Display apparatus and Controlling method thereof |