JP2011081651A - Projection type video display device - Google Patents

Projection type video display device Download PDF

Info

Publication number
JP2011081651A
JP2011081651A JP2009234189A JP2009234189A JP2011081651A JP 2011081651 A JP2011081651 A JP 2011081651A JP 2009234189 A JP2009234189 A JP 2009234189A JP 2009234189 A JP2009234189 A JP 2009234189A JP 2011081651 A JP2011081651 A JP 2011081651A
Authority
JP
Japan
Prior art keywords
image
unit
projection
bright spot
instruction information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009234189A
Other languages
Japanese (ja)
Inventor
Makoto Maeda
誠 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009234189A priority Critical patent/JP2011081651A/en
Publication of JP2011081651A publication Critical patent/JP2011081651A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a projection type video display device capable of improving convenience when explaining a projected image. <P>SOLUTION: In the scene of performing presentation by irradiating and indicating a pointer 80 to the projected image 100, when a user moves the indicating position of the pointer 80 clockwise (line T1) so as to surround a part of the projected image 100 on a screen SC, a luminous point P by the pointer 80 is moved clockwise to draw a circular track (line PT1) on the projected image 100 on the screen SC. A projector 10 detects the position information of the luminous point P on the projected image 100, and determines the indication information on highlighting and a target area to be highlighted on the basis of the detected position information. Then, the projector 10 generates an enhanced image R1 for which the target area inside the projected image 100 is enhanced (enlarged) according to the determined indication information, and combines the generated emphatic image R1 with the projected image 100 to be projected and displayed. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、投写型映像表示装置に関し、より特定的には、投写画像の一部分を強調して表示することが可能な投写型映像表示装置に関する。   The present invention relates to a projection display apparatus, and more particularly to a projection display apparatus capable of displaying a part of a projection image with emphasis.

投写した画像の一部を拡大して投写することが可能な投写型映像表示装置(以下、プロジェクタとも称する。)として、たとえば特開2007−219217号公報(特許文献1)には、ユーザによる画像の一部分の強調指示を示す指示情報を入力する指示情報入力部と、該指示情報に基づき、該強調指示の内容および該一部分の位置を判定する判定部と、該内容および該位置に基づき、該一部分に対応して該内容に応じた強調を行なうとともに、画像における該一部分を含む領域を拡大したズーム画像を生成する画像生成部とを含む構成が開示される。   As a projection-type image display apparatus (hereinafter also referred to as a projector) capable of enlarging and projecting a part of a projected image, for example, Japanese Unexamined Patent Application Publication No. 2007-219217 (Patent Document 1) discloses an image by a user. An instruction information input unit that inputs instruction information indicating an emphasis instruction of a part of the information, a determination unit that determines the content of the emphasis instruction and the position of the part based on the instruction information, and based on the content and the position, A configuration is disclosed that includes an image generation unit that performs enhancement according to the content corresponding to a part and generates a zoom image in which an area including the part in the image is enlarged.

この特許文献1では、指示情報入力部は、リモートコントローラ(リモコン)から指示情報を入力する。判定部は、指示情報に基づき、リモコンにおけるポインタアイコン表示指示ボタンが一定時間以上押し続けられたかどうかを判定する。画像生成部は、ポインタアイコン表示指示ボタンが一定時間以上押し続けられた場合には、ポインタアイコンを含み、ポインタアイコンの周辺を拡大したズーム画像を生成する。   In this patent document 1, the instruction information input unit inputs instruction information from a remote controller (remote controller). The determination unit determines whether the pointer icon display instruction button on the remote controller has been pressed for a predetermined time or more based on the instruction information. The image generation unit generates a zoom image including the pointer icon and enlarging the periphery of the pointer icon when the pointer icon display instruction button is kept pressed for a predetermined time or longer.

特開2007−219217号公報JP 2007-219217 A

上記の特許文献1に開示されるプロジェクタでは、指示情報入力部として、画像の一部を強調する指示を行なうためのエフェクトボタン、ポインタアイコン表示指示ボタンおよび強調表示を終了するためのESC(ESCAPE)等が設けられた、専用のリモコンが用いられる。すなわち、特許文献1のプロジェクタにおいて、強調表示はユーザによる専用のリモコンの操作とリンクして実行される。したがって、ユーザは、汎用のレーザポインタ等を指示装置として選択することができないため、利便性が損なわれるという問題がある。   In the projector disclosed in Patent Document 1 described above, as an instruction information input unit, an effect button for instructing to emphasize a part of an image, a pointer icon display instruction button, and an ESC (ESCAPE) for ending the emphasis display A dedicated remote control provided with the above is used. That is, in the projector of Patent Document 1, highlighting is performed in conjunction with the operation of a dedicated remote controller by the user. Therefore, since the user cannot select a general-purpose laser pointer or the like as the pointing device, there is a problem that convenience is impaired.

それゆえ、この発明は、かかる課題を解決するためになされたものであり、その目的は、投写画像の説明を行なう際の利便性を向上させることが可能な投写型映像表示装置を提供することである。   Therefore, the present invention has been made to solve such a problem, and an object of the present invention is to provide a projection display apparatus capable of improving the convenience in explaining a projected image. It is.

この発明のある局面に従う投写型映像表示装置は、画像をスクリーンに投写する投写型映像表示装置であって、スクリーンに投写された画像上にユーザによって指示される位置の位置情報を検出する位置検出部と、位置検出部によって検出された指示位置の位置情報に基づいて、投写画像内の目標領域を強調表示するための指示情報を判定する判定部と、判定部によって判定された指示情報に従って、投写画像内の目標領域が強調された画像を生成する画像生成部と、少なくとも画像生成部によって生成された画像を投写する画像投写部とを備える。   A projection display apparatus according to an aspect of the present invention is a projection display apparatus that projects an image on a screen, and detects position information of a position indicated by a user on the image projected on the screen. A determination unit that determines instruction information for highlighting the target region in the projection image based on the position information of the instruction position detected by the position detection unit, and the instruction information determined by the determination unit, An image generation unit that generates an image in which a target area in a projection image is emphasized, and an image projection unit that projects at least an image generated by the image generation unit.

好ましくは、位置検出部は、投写画像上でのポインタによる輝点の位置情報を検出する。   Preferably, the position detection unit detects position information of a bright spot by a pointer on the projected image.

好ましくは、判定部は、位置検出部によって検出された輝点の位置情報から、輝点の移動速度および軌跡を検出するとともに、その検出された輝点の移動速度および軌跡に基づいて指示情報を判定する。   Preferably, the determination unit detects the movement speed and locus of the bright spot from the position information of the bright spot detected by the position detection unit, and provides instruction information based on the detected movement speed and locus of the bright spot. judge.

好ましくは、判定部は、検出された輝点の移動速度が所定の閾値以下となるときには、ユーザによる強調指示が与えられたと判定する。   Preferably, the determination unit determines that an emphasis instruction is given by the user when the moving speed of the detected bright spot is equal to or less than a predetermined threshold.

好ましくは、投写型映像表示装置は、スクリーン上に投写された画像を撮像するための撮像部をさらに備える。位置検出部は、撮像部によって撮像された投写画像から、投写画像上での輝点の位置情報を検出する。撮像部による撮像画像の撮像範囲は、スクリーンとその外周の領域とを含む所定の範囲を有する。   Preferably, the projection display apparatus further includes an imaging unit for capturing an image projected on the screen. The position detection unit detects position information of a bright spot on the projection image from the projection image captured by the imaging unit. The imaging range of the captured image by the imaging unit has a predetermined range including the screen and the outer peripheral area.

好ましくは、画像生成部は、投写画像内の目標領域を強調させるとともに、該目標領域の輪郭部分を明示させた画像を生成する。   Preferably, the image generation unit generates an image in which the target area in the projection image is emphasized and the outline portion of the target area is clearly shown.

この発明によれば、投写画像の説明を行なう際の利便性を向上させることができる。   According to the present invention, it is possible to improve convenience when explaining a projected image.

この発明の実施の形態に係る投写型映像表示装置の概略構成図である。1 is a schematic configuration diagram of a projection display apparatus according to an embodiment of the present invention. 本実施の形態に従うプロジェクタにおける強調表示の一例を説明する図である。It is a figure explaining an example of the highlight display in the projector according to this Embodiment. 図1におけるプロジェクタの構成を示す図である。It is a figure which shows the structure of the projector in FIG. 本実施の形態における強調処理を説明するフローチャートである。It is a flowchart explaining the emphasis process in this Embodiment. 本実施の形態に従う強調処理における輝点Pの位置情報の検出処理を説明するフローチャートである。It is a flowchart explaining the detection processing of the positional information on the bright spot P in the enhancement processing according to the present embodiment. 本実施の形態に従う強調処理における指示情報の判定処理を説明するフローチャートである。It is a flowchart explaining the determination process of the instruction information in the emphasis process according to the present embodiment. 輝点Pの軌跡パターンマップの構成例を説明する図である。It is a figure explaining the structural example of the locus | trajectory pattern map of the bright spot P. FIG. 本実施の形態に従う強調処理における投写画像の生成処理を説明するフローチャートである。It is a flowchart explaining the production | generation process of the projection image in the emphasis process according to this Embodiment. 本実施の形態に従うプロジェクタにおける強調表示の他の例を説明する図である。It is a figure explaining the other example of the highlight display in the projector according to this Embodiment. 本実施の形態に従うプロジェクタにおける強調表示の他の例を説明する図である。It is a figure explaining the other example of the highlight display in the projector according to this Embodiment.

以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当する部分には同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

図1は、この発明の実施の形態に係る投写型映像表示装置の概略構成図である。
図1を参照して、本実施の形態に係る投写型映像表示装置(以下、「プロジェクタ」とも記す。)10は、液晶デバイスを利用して映像を投影する液晶プロジェクタであって、スクリーンSCに液晶デバイスにより表示される映像の光を投写することにより、投写画像100を表示する。投写面は、スクリーンSCに限定されず、壁面であってもよい。
FIG. 1 is a schematic configuration diagram of a projection display apparatus according to an embodiment of the present invention.
Referring to FIG. 1, a projection display apparatus (hereinafter also referred to as “projector”) 10 according to the present embodiment is a liquid crystal projector that projects an image using a liquid crystal device, and is provided on screen SC. The projected image 100 is displayed by projecting light of an image displayed by the liquid crystal device. The projection surface is not limited to the screen SC and may be a wall surface.

プロジェクタ10は、投写画像100を含む領域を、撮像面を介して撮像して撮像画像を生成する撮像部20を備える。撮像部20は、撮像素子と、撮像素子の各画素からの出力信号の取得など撮像素子を制御する撮像素子制御部と、撮像光学系とを含む。撮像素子としては、例えばCCDやCMOSなどを用いることができる。   The projector 10 includes an imaging unit 20 that captures an area including the projected image 100 via an imaging surface and generates a captured image. The imaging unit 20 includes an imaging device, an imaging device control unit that controls the imaging device such as acquisition of an output signal from each pixel of the imaging device, and an imaging optical system. For example, a CCD or CMOS can be used as the image sensor.

なお、撮像部20の撮像範囲は、投写画像100の投写範囲が十分収まる範囲であって、スクリーンSCとその外周の領域とを含む所定の範囲とする。   Note that the imaging range of the imaging unit 20 is a range in which the projection range of the projected image 100 is sufficiently contained, and is a predetermined range including the screen SC and its outer peripheral area.

プロジェクタ10は、入力部60をさらに備える。入力部60は、外部の信号供給装置(図示せず)から供給される画像信号を受け付けるための入力ポートを含む。信号供給装置には、DVD(Digital Versatile Disc)再生装置、Blue−Rayディスク再生装置などのデジタル信号を出力するデジタル信号供給装置と、コンピュータなどのアナログ信号を出力するアナログ信号供給装置とが含まれる。   The projector 10 further includes an input unit 60. The input unit 60 includes an input port for receiving an image signal supplied from an external signal supply device (not shown). The signal supply device includes a digital signal supply device that outputs a digital signal such as a DVD (Digital Versatile Disc) playback device or a Blue-Ray disk playback device, and an analog signal supply device that outputs an analog signal such as a computer. .

(強調表示)
ここで、プロジェクタ10による投写画像100を用いてプレゼンテーションを行なう際には、たとえば可視光レーザを用いたレーザポインタなどのポインタ80を使用して、スクリーンSC上の投写画像100の任意の位置を照射して指示することが一般的に行なわれている。本実施の形態に係るプロジェクタ10は、このような投写画像100にポインタ80を照射指示してプレゼンテーションを行なう場面において、ユーザがポインタ80で指し示す位置(指示位置)に応じた投写画像100内の目標領域を強調表示させる。
(Highlighting)
Here, when a presentation is performed using the projection image 100 by the projector 10, for example, a pointer 80 such as a laser pointer using a visible light laser is used to irradiate an arbitrary position of the projection image 100 on the screen SC. It is common practice to give instructions. The projector 10 according to the present embodiment provides a target in the projection image 100 according to the position (instructed position) pointed by the user with the pointer 80 in a scene where the projection image 100 is irradiated with the pointer 80 to give a presentation. Highlight the area.

図2は、本実施の形態に従うプロジェクタ10における強調表示の一例を説明する図である。   FIG. 2 is a diagram illustrating an example of highlighting in projector 10 according to the present embodiment.

図2(a)に示すように、投写画像100が表示されたスクリーンSC上は、任意の位置がポインタ80により指示されている。投写画像100内のポインタ80の指示位置は、輝点Pで示されている。なお、輝点Pは、投写画像100の表示領域の左下の角を原点(0,0)、右方向をX方向、上方向をY方向としたXY座標系において、座標(X,Y)で表わすものとする。   As shown in FIG. 2A, an arbitrary position is indicated by a pointer 80 on the screen SC on which the projected image 100 is displayed. The designated position of the pointer 80 in the projected image 100 is indicated by a bright spot P. Note that the bright spot P is a coordinate (X, Y) in the XY coordinate system in which the lower left corner of the display area of the projected image 100 is the origin (0, 0), the right direction is the X direction, and the upper direction is the Y direction. It shall be expressed.

ここで、ユーザがスクリーンSCに投写された投写画像100の一部分を囲むように、ポインタ80の指示位置を右回りに移動させると(図中のラインT1)と、スクリーンSCの投写画像100上では、ポインタ80による輝点Pが右回りに移動して円状の軌跡(図中のラインPT1)を描く。   Here, when the user moves the pointing position of the pointer 80 clockwise so as to surround a part of the projected image 100 projected on the screen SC (line T1 in the figure), the projected image 100 on the screen SC is displayed. The bright spot P by the pointer 80 moves clockwise to draw a circular locus (line PT1 in the figure).

プロジェクタ10は、後述する方法によって、投写画像100上の輝点Pの位置情報を検出し、その検出した位置情報に基づいて強調表示の指示情報および強調表示させる目標領域を判定する。そして、プロジェクタ10は、判定された指示情報に従って、投写画像100内の目標領域が強調された強調画像を生成する。そして、その生成した強調画像を、投写画像100に合成させて投影表示させる。   The projector 10 detects position information of the bright spot P on the projected image 100 by a method described later, and determines the instruction information for highlighting and the target area to be highlighted based on the detected position information. Then, the projector 10 generates an enhanced image in which the target area in the projected image 100 is enhanced according to the determined instruction information. Then, the generated emphasized image is combined with the projected image 100 and projected and displayed.

図2(a)の例では、プロジェクタ10は、輝点Pの位置情報に基づき輝点Pの軌跡パターン(右回りの円状)PT1を検出すると、図2(b)に示すように、投写画像100内の指示位置Pの軌跡パターンPT1で囲まれた領域を目標領域として、該目標領域が拡大された強調画像R1を生成する。そして、プロジェクタ10は、その生成した強調画像R1が投写画像100に重ねて表示させる。   In the example of FIG. 2A, when the projector 10 detects the locus pattern PT1 of the bright spot P (clockwise circle) PT1 based on the positional information of the bright spot P, as shown in FIG. Using the region surrounded by the locus pattern PT1 of the designated position P in the image 100 as a target region, an enhanced image R1 in which the target region is enlarged is generated. Then, the projector 10 causes the generated emphasized image R1 to be displayed so as to overlap the projected image 100.

なお、この際に、図2(b)に示すように、強調画像R1の外周部分を枠線で囲うことによって、枠線で囲われた領域に強調表示が施されていることを観察者に明確に認識させることができる。   At this time, as shown in FIG. 2 (b), by enclosing the outer peripheral portion of the enhanced image R1 with a frame line, it is indicated to the observer that the area surrounded by the frame line is highlighted. It can be clearly recognized.

以下では、本実施の形態に係るプロジェクタ10で実行される強調表示を行なうための画像処理(以下、「強調処理」とも称す。)について説明する。   Hereinafter, image processing (hereinafter, also referred to as “enhancement processing”) for performing highlighting performed by projector 10 according to the present embodiment will be described.

(プロジェクタの構成)
図3は、図1におけるプロジェクタ10の構成を示す図である。
(Projector configuration)
FIG. 3 is a diagram showing a configuration of the projector 10 in FIG.

図3を参照して、プロジェクタ10は、画像入力部30と、画像処理部32と、画像生成部34と、ライトバルブ駆動部36と、記憶部38と、制御部40と、画像投写部50とを備える。   Referring to FIG. 3, projector 10 includes an image input unit 30, an image processing unit 32, an image generation unit 34, a light valve driving unit 36, a storage unit 38, a control unit 40, and an image projection unit 50. With.

プロジェクタ10は、撮像部20(図1)と、撮像画像記憶部22と、位置検出部24とをさらに備える。   The projector 10 further includes an imaging unit 20 (FIG. 1), a captured image storage unit 22, and a position detection unit 24.

画像投写部50は、光源52と、光変調装置としての3つの液晶ライトバルブ54R,54G,54Bと、投写光学系としての投写レンズ56とを含む。   The image projection unit 50 includes a light source 52, three liquid crystal light valves 54R, 54G, and 54B as light modulation devices, and a projection lens 56 as a projection optical system.

光源52は、超高圧水銀ランプやメタルハライドランプなどの放電型光源ランプからなる。さらに、放電発光型の光源ランプに限らず、LED、レーザダイオード、有機EL(Electro Luminescence)素子、シリコン発光素子等の各種固体発光素子を採用してもよい。   The light source 52 is a discharge type light source lamp such as an ultra-high pressure mercury lamp or a metal halide lamp. Furthermore, the present invention is not limited to a discharge light source lamp, and various solid light emitting elements such as an LED, a laser diode, an organic EL (Electro Luminescence) element, and a silicon light emitting element may be employed.

光源52から射出された光は、図示しないインテグレータ光学系によって輝度分布が略均一な光に変換され、図示しない色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の各色光成分に分離された後、それぞれ液晶ライトバルブ54R,54G,54Bに入射する。   Light emitted from the light source 52 is converted into light having a substantially uniform luminance distribution by an integrator optical system (not shown), and red (R), green (G), and blue that are the three primary colors of light by a color separation optical system (not shown). After being separated into each color light component of (B), it enters the liquid crystal light valves 54R, 54G, 54B, respectively.

液晶ライトバルブ54R,54G,54Bは、一対の透明基板間に液晶が封入された液晶パネル等によって構成され、各透明基板の内面には、液晶に対して微小領域(画素)ごとに駆動電圧を印加可能な透明電極(画素電極)が矩形状の領域(画素領域)内にマトリクス状に形成されている。   The liquid crystal light valves 54R, 54G, and 54B are configured by a liquid crystal panel or the like in which liquid crystal is sealed between a pair of transparent substrates. A driving voltage is applied to the inner surface of each transparent substrate for each minute region (pixel) with respect to the liquid crystal. Transparent electrodes (pixel electrodes) that can be applied are formed in a matrix in a rectangular region (pixel region).

ライトバルブ駆動部36はが、入力される画像信号に応じた駆動電圧を各画素に印加することにより、各画素は、画像信号に応じた光透過率に設定される。つまり、光源52から射出された光は、この液晶ライトバルブ54R,54G,54Bを通過することによって変調され、画像信号に応じた画像光が色光ごとに形成される。形成された各色の画像光は、図示しない色合成光学系によって画素ごとに合成されてカラー画像を示す画像光となった後、投写レンズ56によってスクリーンSCに拡大投写される。   The light valve driving unit 36 applies a driving voltage corresponding to the input image signal to each pixel, so that each pixel is set to a light transmittance corresponding to the image signal. That is, the light emitted from the light source 52 is modulated by passing through the liquid crystal light valves 54R, 54G, and 54B, and image light corresponding to the image signal is formed for each color light. The formed image light of each color is combined for each pixel by a color combining optical system (not shown) to become image light indicating a color image, and then enlarged and projected onto the screen SC by the projection lens 56.

制御部40は、CPU(Central Processing Unit)、フラッシュメモリ等からなるROM(Read Only Memory)、各種データの一時記憶等に用いられるRAM(Random Access Memory)等(いずれも図示せず)を備え、コンピュータとして機能するものである。制御部40は、CPUが記憶部38に記憶されている制御プログラムに従って動作することにより、プロジェクタ10の動作を統括制御する。   The control unit 40 includes a CPU (Central Processing Unit), a ROM (Read Only Memory) including a flash memory, a RAM (Random Access Memory) used for temporary storage of various data, and the like (none of which are shown). It functions as a computer. The control unit 40 performs overall control of the operation of the projector 10 by the CPU operating according to the control program stored in the storage unit 38.

画像入力部30は、入力部60から与えられる画像信号を受信して出力する。画像入力部30は、受信したデジタル映像信号をアナログ信号に変換するADC(Analog Digital Converter)機能と、HDCP(High-Bandwidth Digital Content Protection System)に従う認証機能および暗号の復号機能とを有する。なお、HDCPとは、HDMI(High Definition Multimedia Interface)に従って伝送されるデータの暗号化を実現するために用いられる。これにより、デジタル伝送路上を伝送される映像信号などのコンテンツが不正にコピーされるのを防止できる。ここでは、デジタル伝送路は、HDMIに従ってデータ・信号を伝送する経路であるとしているが、DVI(Digital Visual Interface)に従って伝送経路であってもよい。   The image input unit 30 receives and outputs an image signal given from the input unit 60. The image input unit 30 has an ADC (Analog Digital Converter) function that converts a received digital video signal into an analog signal, an authentication function according to HDCP (High-Bandwidth Digital Content Protection System), and an encryption decryption function. HDCP is used to realize encryption of data transmitted according to HDMI (High Definition Multimedia Interface). As a result, it is possible to prevent content such as video signals transmitted on the digital transmission path from being illegally copied. Here, the digital transmission path is a path for transmitting data and signals according to HDMI, but may be a transmission path according to DVI (Digital Visual Interface).

画像処理部32は、画像入力部30から出力された画像信号を表示のための信号に処理して出力する。具体的には、画像処理部32は、画像入力部30からの画像信号を1フレーム(1画面)ごとにフレームメモリ(図示せず)に書き込むとともに、フレームメモリに記憶された画像を読み出す。そして、この書き込みと読み出しの処理の過程において、各種の画像処理を施すことにより、入力された画像信号を変換して投写すべき画像を表す入力画像データを生成する。   The image processing unit 32 processes the image signal output from the image input unit 30 into a signal for display and outputs the signal. Specifically, the image processing unit 32 writes the image signal from the image input unit 30 to a frame memory (not shown) for each frame (one screen) and reads an image stored in the frame memory. In the process of writing and reading, various image processes are performed to convert the input image signal to generate input image data representing an image to be projected.

画像生成部34は、制御部40からの指示に基づいて、投写画像100の一部分が強調された強調画像データを生成する。具体的には、画像生成部34は、後述する方法によって、強調表示の指示情報およびポインタ80による輝点Pの位置情報に基づき、投写画像100に合成するための強調画像を表わす画像データを生成する。そして、画像生成部34は、画像処理部32から入力される画像データ(入力画像データ)と、生成した強調画像データとを合成する。合成された合成画像データは、フレーム単位(画面単位)で図示しないフレームメモリに記憶され、フレーム単位でライトバルブ駆動部36に出力される。なお、合成すべき強調画像データがない場合には、画像生成部34は、画像処理部32から入力された画像データをそのまま出力する。また、画像生成部34は、所定のフレーム周波数(たとえば、60Hz)で画面が切り替わるように、順次入力される画像信号に応じてフレームメモリの内容を書き換える。   The image generation unit 34 generates enhanced image data in which a part of the projected image 100 is enhanced based on an instruction from the control unit 40. Specifically, the image generation unit 34 generates image data representing an emphasized image to be combined with the projected image 100 based on the instruction information for highlighting and the position information of the bright spot P by the pointer 80 by a method described later. To do. Then, the image generation unit 34 combines the image data input from the image processing unit 32 (input image data) and the generated enhanced image data. The synthesized composite image data is stored in a frame memory (not shown) in frame units (screen units) and output to the light valve driving unit 36 in frame units. If there is no emphasized image data to be combined, the image generation unit 34 outputs the image data input from the image processing unit 32 as it is. In addition, the image generation unit 34 rewrites the contents of the frame memory in accordance with sequentially input image signals so that the screen is switched at a predetermined frame frequency (for example, 60 Hz).

ライトバルブ駆動部36は、画像生成部34から入力されるフレーム単位の画像データに基づいて、液晶ライトバルブ54R,54G,54Bを駆動する。この結果、フレームメモリに記憶されている画像データに応じた画像(画像光)が画像投写部50から投写される。   The light valve driving unit 36 drives the liquid crystal light valves 54R, 54G, and 54B based on the frame unit image data input from the image generation unit 34. As a result, an image (image light) corresponding to the image data stored in the frame memory is projected from the image projection unit 50.

(強調処理)
以下に、図4から図8を参照して、本実施の形態に従う強調処理について説明する。図4は、本実施の形態における強調処理を説明するフローチャートである。なお、図4の各ステップの処理は、制御部40において予め格納したプログラムを実行することで実現される。
(Emphasis processing)
Hereinafter, enhancement processing according to the present embodiment will be described with reference to FIGS. FIG. 4 is a flowchart for explaining the emphasis process in the present embodiment. Note that the processing of each step in FIG. 4 is realized by executing a program stored in advance in the control unit 40.

図4を参照して、プロジェクタ10では、ライトバルブ駆動部36が、画像生成部34から入力される画像データに基づいて液晶ライトバルブ54R,54G,54Bを駆動することにより投写画像100の投写(表示)を行なう。この投写画像100の投写と並行して、撮像部20が投写画像100を撮像し、撮像画像データを取得する(ステップS100)。撮像部20により一定フレームレートごとに撮像される撮像画像データは、撮像画像記憶部22に記憶される。   Referring to FIG. 4, in projector 10, light valve drive unit 36 drives liquid crystal light valves 54R, 54G, and 54B based on image data input from image generation unit 34 to project projected image 100 (see FIG. 4). Display). In parallel with the projection of the projection image 100, the imaging unit 20 captures the projection image 100 and acquires captured image data (step S100). Captured image data captured by the imaging unit 20 at a constant frame rate is stored in the captured image storage unit 22.

位置検出部24は、撮像画像記憶部22に一定フレームレートごとに記憶される撮像画像データからポインタ80による輝点PのXY座標を表す位置情報(座標P(X,Y),P(X,Y)・・・)を検出する(ステップS200)。 The position detection unit 24 uses positional information (coordinates P (X 1 , Y 1 ), P () indicating the XY coordinates of the bright spot P by the pointer 80 from the captured image data stored in the captured image storage unit 22 for each fixed frame rate. X 2, Y 2) ···) for detecting a (step S200).

指示情報判定部26は、位置検出部24によって検出された輝点Pの位置情報に基づいて、輝点Pの移動速度および軌跡パターンを検出する。そして、指示情報判定部26は、検出された輝点Pの移動速度および軌跡パターンに基づいて、強調表示の指示情報を判定し、判定した指示情報を制御部40へ出力する(ステップS300)。   The instruction information determination unit 26 detects the moving speed and locus pattern of the bright spot P based on the position information of the bright spot P detected by the position detection unit 24. Then, the instruction information determination unit 26 determines the instruction information for highlighting based on the detected moving speed and locus pattern of the bright spot P, and outputs the determined instruction information to the control unit 40 (step S300).

画像生成部34は、制御部40から送信される指示情報に従って、輝点Pの軌跡パターンによって指定された目標領域が強調表示(たとえば拡大など)されるような強調画像データを生成する。そして、画像生成部34は、生成した強調画像データの背景部に、画像処理部32から入力される画像データが合成されるようにデータ処理を施し、処理後の合成画像データをライトバルブ駆動部36へ出力する。この結果、合成画像データが画像投写部50から投写される(ステップS400)。   In accordance with the instruction information transmitted from the control unit 40, the image generation unit 34 generates emphasized image data in which the target area specified by the locus pattern of the bright spot P is highlighted (for example, enlarged). Then, the image generation unit 34 performs data processing on the background portion of the generated emphasized image data so that the image data input from the image processing unit 32 is combined, and the processed composite image data is converted into a light valve driving unit. To 36. As a result, the composite image data is projected from the image projection unit 50 (step S400).

次に、図4に示す強調処理における各ステップの処理について詳細に説明する。
(位置情報の検出)
図5は、本実施の形態に従う強調処理における輝点Pの位置情報の検出処理を説明するフローチャートである。
Next, the process of each step in the enhancement process shown in FIG. 4 will be described in detail.
(Detection of location information)
FIG. 5 is a flowchart for describing detection processing of position information of bright spot P in the enhancement processing according to the present embodiment.

図5を参照して、最初に、位置検出部24は、撮像画像記憶部22に記憶されている撮像部20により一定フレームレートごとに撮像される撮像画像データを読み出すとともに(ステップS210)、入力部60に入力される画像信号を基に生成された入力画像データを画像処理部32から取得する(ステップS220)。   Referring to FIG. 5, first, the position detection unit 24 reads out captured image data captured at every fixed frame rate by the imaging unit 20 stored in the captured image storage unit 22 (step S210), and inputs Input image data generated based on the image signal input to the unit 60 is acquired from the image processing unit 32 (step S220).

次に、位置検出部24は、撮像画像データと入力画像データとを比較することによって、輝点Pの位置情報を検出する(ステップS230)。具体的には、位置検出部24は、撮像画像記憶部22に一定フレームレートごとに記憶される撮像範囲に対応する撮像画像データから、入力画像データに基づき、投写画像の表示領域に対応する撮像画像データを抽出する。そして、位置検出部24は、一定フレームごとに記憶される投写画像の表示領域から輝点Pの座標P(X,Y),P(X,Y)・・・を検出する。すなわち、位置検出部24は、撮像部20の撮像範囲に対応した撮像画像データから、投写画像の表示領域に対応した撮像画像データを抽出し、その抽出した撮像画像データから投写画像上での輝点Pの座標P(X,Y)を検出する。 Next, the position detection unit 24 detects the position information of the bright spot P by comparing the captured image data with the input image data (step S230). Specifically, the position detection unit 24 captures an image corresponding to a display area of a projected image based on input image data from captured image data corresponding to an imaging range stored for each fixed frame rate in the captured image storage unit 22. Extract image data. Then, the position detection unit 24 detects the coordinates P (X 1 , Y 1 ), P (X 2 , Y 2 ),... Of the bright spot P from the display area of the projected image stored for each fixed frame. That is, the position detection unit 24 extracts captured image data corresponding to the display area of the projected image from the captured image data corresponding to the imaging range of the imaging unit 20, and the brightness on the projected image is extracted from the extracted captured image data. The coordinate P (X, Y) of the point P is detected.

ここで、上述したように、撮像部20の撮像範囲は、投写画像100の投写範囲(表示領域)が十分収まる範囲であって、かつ、スクリーンSCとその外周部分の領域とを含む所定の範囲に設定されている。これにより、ポインタ80の操作中に輝点PがスクリーンSCをはみ出した場合であっても、位置検出部24は、輝点Pの位置情報を検出することができる。   Here, as described above, the imaging range of the imaging unit 20 is a range in which the projection range (display area) of the projected image 100 is sufficiently contained, and is a predetermined range including the screen SC and the area of the outer peripheral portion thereof. Is set to Thereby, even when the bright spot P protrudes from the screen SC during the operation of the pointer 80, the position detector 24 can detect the position information of the bright spot P.

(指示情報の判定)
図6は、本実施の形態に従う強調処理における指示情報の判定処理を説明するフローチャートである。
(Determination of instruction information)
FIG. 6 is a flowchart illustrating instruction information determination processing in emphasis processing according to the present embodiment.

図6を参照して、指示情報判定部26は、位置検出部24により検出された輝点Pの位置情報(座標P(X,Y),P(X,Y)・・・)を取得すると(ステップS310)、輝点Pの移動ベクトルを算出する(ステップS320)。 Referring to FIG. 6, the instruction information determination unit 26 includes position information (coordinates P (X 1 , Y 1 ), P (X 2 , Y 2 )... Of the bright spot P detected by the position detection unit 24. ) Is acquired (step S310), the movement vector of the bright spot P is calculated (step S320).

指示情報判定部26は、ステップS320にて算出した移動ベクトルの大きさに基づいて、輝点Pの移動速度を算出する。そして、指示情報判定部26は、算出した輝点Pの移動速度が所定の閾値以下であるか否かを判定する(ステップS330)。   The instruction information determination unit 26 calculates the moving speed of the bright spot P based on the size of the moving vector calculated in step S320. Then, the instruction information determination unit 26 determines whether or not the calculated moving speed of the bright spot P is equal to or less than a predetermined threshold (step S330).

輝点Pの移動速度が所定の閾値を超えると判定されたとき(ステップS330のNO判定時)には、指示情報判定部26は、ユーザにより強調表示が指示されていないと判断して、一連の強調処理を終了する。一方、輝点Pの移動速度が所定の閾値以下であると判定されたとき(ステップS330のYES判定時)には、指示情報判定部26は、ユーザによる強調表示が指示されていると判断する。この場合、指示情報判定部26は、ステップS340に進み、強調表示についての指示情報を判定する。   When it is determined that the moving speed of the bright spot P exceeds a predetermined threshold value (NO determination in step S330), the instruction information determination unit 26 determines that highlighting is not instructed by the user, and a series of The highlighting process ends. On the other hand, when it is determined that the moving speed of the bright spot P is equal to or lower than the predetermined threshold (YES in step S330), the instruction information determination unit 26 determines that the highlighting instruction by the user is instructed. . In this case, the instruction information determination unit 26 proceeds to step S340, and determines instruction information for highlighting.

このように、ステップS330では、輝点Pの移動速度に基づいて強調表示が指示されているか否かを判定する。このような構成としたことにより、手の震えや手ぶれなどの影響によってユーザが無意識にポインタ80の指示位置を移動させた場合や、単に投写画像100内の所望の位置を、ポインタ80を照射して明示させた場合などに、誤って強調表示が実行されるのを防止することができる。換言すれば、このような効果を発現させる観点から、ステップS330での所定の閾値は、ユーザが強調表示させることを意図してポインタ80を操作した場合と、それ以外の場合とを識別することができる値に設定される。   In this way, in step S330, it is determined whether or not highlighting is instructed based on the moving speed of the bright spot P. With such a configuration, when the user unintentionally moves the indicated position of the pointer 80 due to the influence of hand tremors or camera shake, or simply irradiates the pointer 80 at a desired position in the projected image 100. It is possible to prevent the highlighting from being erroneously executed, for example. In other words, from the viewpoint of exhibiting such an effect, the predetermined threshold value in step S330 identifies the case where the user operates the pointer 80 with the intention of highlighting and the other case. Is set to a value that can

そして、指示情報判定部26は、ステップS330での輝点Pの移動速度の判定に、輝点Pの軌跡パターンの判定をさらに組み合わせることによって、指示情報を判定する。このような構成としたことにより、輝点Pの移動速度が所定の閾値以下となる場合であっても、ユーザが強調表示を意図していないときに誤って強調表示が行なわれるのを確実に防止することができる。   Then, the instruction information determination unit 26 determines the instruction information by further combining the determination of the movement pattern of the bright spot P in step S330 with the determination of the locus pattern of the bright spot P. With such a configuration, even when the moving speed of the bright spot P is equal to or lower than a predetermined threshold, it is ensured that the highlighting is erroneously performed when the user does not intend to highlight the highlighting. Can be prevented.

具体的には、指示情報判定部26は、ステップS320で算出した移動ベクトルを時系列順に次々と図示しない記憶部に格納する(ステップS340)。そして、記憶部に移動ベクトルを格納した後、指示情報判定部26は、記憶部に格納された複数の移動ベクトルから抽出した輝点Pの軌跡パターンを、予め軌跡パターンを指示情報に対応させて記憶した軌跡パターンマップと照合する(ステップS360)。このとき、指示情報判定部26は、軌跡パターンマップに設定されている複数の指示情報の中に、抽出した輝点Pの軌跡パターン(図7を参照)に適合する指示情報が有るか否かを判定する(ステップS370)。   Specifically, the instruction information determination unit 26 stores the movement vectors calculated in step S320 one after another in a time series in a storage unit (not shown) (step S340). After storing the movement vector in the storage unit, the instruction information determination unit 26 associates the locus pattern of the bright spot P extracted from the plurality of movement vectors stored in the storage unit with the instruction information in advance. The stored trajectory pattern map is collated (step S360). At this time, the instruction information determination unit 26 determines whether or not there is instruction information that matches the extracted locus pattern of the bright spot P (see FIG. 7) among the plurality of instruction information set in the locus pattern map. Is determined (step S370).

輝点Pの軌跡パターンに適合する指示情報が有ると判定されたとき(ステップS370にてYES判定時)には、指示情報判定部26は、その軌跡パターンに適合する指示情報を、強調表示の指示情報に特定して(ステップS380)、制御部40へ送信する。一方、輝点Pの軌跡パターンに適合する指示情報が無いと判定されたとき(ステップS370にてNO判定時)には、指示情報判定部26は、ユーザが強調表示を意図していないと判断して、指示情報の判定処理を終了する。   When it is determined that there is instruction information that matches the locus pattern of the bright spot P (YES in step S370), the instruction information determination unit 26 highlights the instruction information that matches the locus pattern. The instruction information is specified (step S380) and transmitted to the control unit 40. On the other hand, when it is determined that there is no instruction information that matches the locus pattern of the bright spot P (NO determination in step S370), the instruction information determination unit 26 determines that the user does not intend to highlight. Then, the instruction information determination process ends.

図7は、輝点Pの軌跡パターンマップの構成例を説明する図である。
図7を参照して、軌跡パターンマップでは、各軌跡パターンが矢印を付した線分で表わされており、軌跡パターンごとに指示情報が対応付けて設定されている。たとえば、右回りの円状の軌跡パターンに対応する指示情報に対しては、「囲み領域を拡大表示」が設定されている。なお、「囲み領域」とは、投写画像の表示領域内の円状の軌跡パターンで囲まれた領域であって、指示情報に従って強調表示させるための目標領域に相当する。
FIG. 7 is a diagram illustrating a configuration example of the locus pattern map of the bright spot P.
Referring to FIG. 7, in the trajectory pattern map, each trajectory pattern is represented by a line segment with an arrow, and instruction information is set in association with each trajectory pattern. For example, “enlarged display of enclosed area” is set for instruction information corresponding to a clockwise circular locus pattern. The “enclosed area” is an area surrounded by a circular trajectory pattern in the display area of the projected image, and corresponds to a target area to be highlighted according to the instruction information.

したがって、輝点Pの軌跡パターン(右回りの円状)から「囲み領域を拡大表示」という指示情報が判定された場合には、図2(b)で示したように、投写画像100内の軌跡パターンPT1で囲まれた領域を目標領域として、該目標領域が拡大された強調画像R1が生成され、その生成した強調画像R1が投写画像100に重ねて表示される。   Therefore, when the instruction information “enlarged display of enclosed area” is determined from the locus pattern of the bright spot P (clockwise circle), as shown in FIG. Using the region surrounded by the trajectory pattern PT1 as a target region, an enhanced image R1 in which the target region is enlarged is generated, and the generated enhanced image R1 is displayed so as to be superimposed on the projected image 100.

このように、本実施の形態に従う指示情報の判定処理では、投写画像100上の輝点Pの動きを、その移動速度と軌跡パターンとによって、ユーザによるポインタ80の指示位置の操作とリンクさせて、その操作内容からユーザからの強調表示の指示内容を判定する。これにより、強調表示を指示するための特定のボタンが設けられた専用のリモコンを使用することなく、所望の強調表示を実現させることができる。   As described above, in the instruction information determination process according to the present embodiment, the movement of the bright spot P on the projected image 100 is linked to the operation of the designated position of the pointer 80 by the user by the moving speed and the trajectory pattern. Then, the instruction content of the highlight display from the user is determined from the operation content. Thereby, it is possible to realize desired highlighting without using a dedicated remote controller provided with a specific button for instructing highlighting.

(投写画像の生成)
図8は、本実施の形態に従う強調処理における投写画像の生成処理を説明するフローチャートである。
(Projection image generation)
FIG. 8 is a flowchart illustrating a projection image generation process in the enhancement process according to the present embodiment.

図8を参照して、画像生成部34は、最初に、制御部40を通じて指示情報判定部26が判定した指示情報を取得するとともに(ステップS410)、位置検出部24によって検出された輝点Pの位置情報(座標P(X,Y),P(X,Y)・・・)を取得する(ステップS420)。 Referring to FIG. 8, the image generation unit 34 first acquires the instruction information determined by the instruction information determination unit 26 through the control unit 40 (step S410), and the bright spot P detected by the position detection unit 24. Position information (coordinates P (X 1 , Y 1 ), P (X 2 , Y 2 )...) Is acquired (step S420).

次に、画像生成部34は、取得した指示情報が「強調処理の終了(エフェクトオフ)」であるか否かを判定する(ステップS430)。取得した指示情報が「強調処理の終了」であると判定されたとき(ステップS430のYES判定時)には、画像生成部34は、画像処理部32から入力された画像データをそのままライトバルブ駆動部36へ出力する。したがって、スクリーンSCには、入力画像データに基づく画像(投写画像100に相当)が投写(表示)される(ステップS470)。   Next, the image generation unit 34 determines whether or not the acquired instruction information is “end of enhancement processing (effect off)” (step S430). When it is determined that the acquired instruction information is “end of enhancement processing” (YES determination in step S430), the image generation unit 34 directly drives the image data input from the image processing unit 32 as a light valve. To the unit 36. Accordingly, an image (corresponding to the projected image 100) based on the input image data is projected (displayed) on the screen SC (step S470).

これに対して、取得した指示情報が「強調処理の終了」でないと判定されたとき(ステップS430のNO判定時)には、画像生成部34は、指示情報および検出された輝点Pの位置情報に基づき、投写画像100に合成するための強調画像を表わす画像データを生成する(ステップS440)。たとえば、指示情報が「囲み領域を拡大表示」である場合には、画像生成部34は、輝点Pの位置情報から特定される目標領域の画像を所定の表示サイズに拡大した画像(強調画像)を表す強調画像データを生成する。   On the other hand, when it is determined that the acquired instruction information is not “end of enhancement processing” (NO determination in step S430), the image generating unit 34 determines the position of the instruction information and the detected bright spot P. Based on the information, image data representing an emphasized image to be combined with the projected image 100 is generated (step S440). For example, when the instruction information is “enlarged display of enclosed area”, the image generation unit 34 enlarges the image of the target area specified from the position information of the bright spot P to a predetermined display size (emphasized image). ) Is generated.

そして、画像生成部34は、画像処理部32から与えられる入力画像データと、生成した強調画像データとを合成する(ステップS450)。合成された合成画像データは、フレーム単位(画面単位)で図示しないフレームメモリに記憶され、フレーム単位でライトバルブ駆動部36に出力される。これにより、スクリーンSCには、強調画像が投写画像100に重ねて表示される。   Then, the image generation unit 34 synthesizes the input image data given from the image processing unit 32 and the generated enhanced image data (step S450). The synthesized composite image data is stored in a frame memory (not shown) in frame units (screen units) and output to the light valve driving unit 36 in frame units. Thereby, the emphasized image is displayed on the screen SC so as to be superimposed on the projected image 100.

(強調表示)
最後に、図7の軌跡パターンマップで設定されている強調処理の指示情報の詳細について、図9および図10を用いて説明する。
(Highlighting)
Finally, details of the instruction information for emphasis processing set in the locus pattern map of FIG. 7 will be described with reference to FIGS. 9 and 10.

図9は、本実施の形態に従うプロジェクタ10における強調表示の他の例を説明する図である。   FIG. 9 is a diagram illustrating another example of highlighting in projector 10 according to the present embodiment.

図9(a)に示すように、投写画像100が表示されたスクリーンSC上は、任意の位置がポインタ80により指示されている。投写画像100内のポインタ80の指示位置は、輝点Pで示されている。   As shown in FIG. 9A, an arbitrary position is indicated by a pointer 80 on the screen SC on which the projected image 100 is displayed. The designated position of the pointer 80 in the projected image 100 is indicated by a bright spot P.

ここで、ユーザがスクリーンSCに投写された投写画像100の一部分を囲むように、ポインタ80の指示位置を左回りに移動させると(図中のラインT2)と、スクリーンSCの投写画像100上では、ポインタ80による輝点Pが左回りに移動して円状の軌跡(図中のラインPT2)を描く。   Here, when the user moves the pointing position of the pointer 80 counterclockwise so as to surround a part of the projected image 100 projected on the screen SC (line T2 in the figure), the projected image 100 on the screen SC is displayed. The bright spot P by the pointer 80 moves counterclockwise to draw a circular locus (line PT2 in the figure).

プロジェクタ10では、指示情報判定部26が、上述した方法によって、位置検出部24によって検出された輝点Pの位置情報に基づき、輝点Pの移動速度および軌跡パターン(左回りの円状)PT2を検出する。そして、指示情報判定部26は、輝点Pの移動速度から強調表示が指示されていると判定すると、その検出された輝点Pの軌跡パターンPT2と軌跡パターンマップ(図7)とを照合することによって、「囲み領域を全画面表示」という指示情報を判定する。   In the projector 10, the instruction information determination unit 26 uses the method described above, based on the position information of the bright spot P detected by the position detection unit 24, the moving speed and locus pattern (counterclockwise circular shape) PT2 of the bright spot P. Is detected. When the instruction information determination unit 26 determines that the highlight display is instructed from the moving speed of the bright spot P, the instruction information determination unit 26 collates the detected trace pattern PT2 of the bright spot P with the trace pattern map (FIG. 7). Thus, the instruction information “display the enclosed area in full screen” is determined.

これにより、図9(b)に示すように、画像生成部34は、投写画像100内の軌跡パターンPT2で囲まれた領域を目標領域として、該目標領域が画面全体の表示サイズに拡大された強調画像R2が生成され、その生成した強調画像R2が投写画像100に重ねて表示される。   As a result, as shown in FIG. 9B, the image generation unit 34 uses the area surrounded by the locus pattern PT2 in the projected image 100 as the target area, and the target area is enlarged to the display size of the entire screen. The enhanced image R2 is generated, and the generated enhanced image R2 is displayed so as to be superimposed on the projected image 100.

図10は、本実施の形態に従うプロジェクタ10における強調表示の他の例を説明する図である。   FIG. 10 is a diagram illustrating another example of highlighting in projector 10 according to the present embodiment.

図10(a)を参照して、ユーザがスクリーンSCに投写された投写画像100の一部分をn回(nは2以上の自然数)矩形状に囲むように、ポインタ80の指示位置を移動させると(図中のラインT3)と、スクリーンSCの投写画像100上では、ポインタ80による輝点Pが移動してn個の矩形からなる軌跡(図中のラインPT3)を描く。   Referring to FIG. 10A, when the user moves the indicated position of pointer 80 so as to surround a part of projection image 100 projected on screen SC n times (n is a natural number of 2 or more) in a rectangular shape. On the projected image 100 of the screen SC (line T3 in the figure), the bright spot P by the pointer 80 moves to draw a trajectory consisting of n rectangles (line PT3 in the figure).

この場合、プロジェクタ10では、指示情報判定部26が、上述した方法によって、位置検出部24によって検出された輝点Pの位置情報に基づき、輝点Pの移動速度および軌跡パターン(n個の矩形)PT3を検出する。そして、指示情報判定部26は、輝点Pの移動速度から強調表示が指示されていると判定すると、その検出された輝点Pの軌跡パターンPT3と軌跡パターンマップ(図7)とを照合することによって、「囲み領域を色付き表示」という指示情報を判定する。   In this case, in the projector 10, the instruction information determination unit 26 uses the method described above, based on the position information of the bright spot P detected by the position detection unit 24, the moving speed of the bright spot P and the locus pattern (n rectangles). ) Detect PT3. When the instruction information determination unit 26 determines that the highlight display is instructed from the moving speed of the bright spot P, the instruction information determination unit 26 collates the detected trace pattern PT3 of the bright spot P with the trace pattern map (FIG. 7). As a result, the instruction information “display the enclosed area with color” is determined.

これにより、図10(b)に示すように、画像生成部34は、投写画像100内の軌跡パターンPT3で囲まれた領域を目標領域として、該目標領域の画像に所定の色を付加した強調画像R3が生成され、その生成した強調画像R3が投写画像100に重ねて表示される。   As a result, as shown in FIG. 10B, the image generation unit 34 uses the region surrounded by the trajectory pattern PT3 in the projection image 100 as a target region, and enhances by adding a predetermined color to the image of the target region. An image R3 is generated, and the generated enhanced image R3 is displayed so as to overlap the projected image 100.

また、上記のような強調表示を終了したい場合には、強調画像の一隅に「終了マーク」を重畳させて表示しておくとともに、ユーザがポインタ80によって、該終了マークを所定期間照射して指示する。この場合には、指示情報判定部26は、図7の軌跡パターンマップを参照することにより、輝点Pの位置情報に基づき、「強調処理の終了(エフェクトオフ)」という指示情報を判定する。   In addition, when it is desired to end the highlighting as described above, an “end mark” is displayed superimposed on one corner of the emphasized image, and the user irradiates the end mark with a pointer 80 for a predetermined period of time. To do. In this case, the instruction information determination unit 26 determines instruction information “end of enhancement process (effect off)” based on the position information of the bright spot P by referring to the locus pattern map of FIG.

あるいは、これに代えて、ユーザが強調画像を全面的に塗りつぶすようにポインタ80の指示位置を移動させた場合、あるいは、スクリーンSCの法線方向(Z方向)にポインタ80の指示位置を移動させた場合などにおいて、指示情報判定部26が、輝点Pの位置情報に基づき、「強調処理の終了(エフェクトオフ)」という指示情報を判定するように構成してもよい。   Alternatively, when the user moves the designated position of the pointer 80 so as to completely fill the emphasized image, or the designated position of the pointer 80 is moved in the normal direction (Z direction) of the screen SC. In such a case, the instruction information determination unit 26 may be configured to determine the instruction information “end of enhancement processing (effect off)” based on the position information of the bright spot P.

なお、図7の軌跡パターンマップに示される軌跡パターンと指示情報との組合せは、強調表示の一例であって、これに限定されるものではなく、その他の組合せによって様々な強調表示を実施し得ることは明らかである。   Note that the combination of the trajectory pattern and the instruction information shown in the trajectory pattern map of FIG. 7 is an example of emphasis display, and is not limited to this, and various emphasis display can be performed by other combinations. It is clear.

以上のように、この発明の実施の形態に従う投写型映像表示装置によれば、投写画像にポインタを照射指示してプレゼンテーションを行なう場面において、ユーザがポインタで指し示す位置に応じた投写画像内の目標領域を強調表示させることができる。したがって、従来のプロジェクタのように、強調表示のための専用のリモコンを必要とせず、汎用のポインタの指示位置の移動速度および軌跡パターンに応じて、所望の強調表示を行なうことができる。この結果、投写画像の説明を行なう際の利便性を向上させることが可能となる。   As described above, according to the projection display apparatus according to the embodiment of the present invention, the target in the projection image corresponding to the position pointed by the user with the pointer in a scene where the pointer is directed to the projection image and the presentation is performed. The area can be highlighted. Therefore, unlike the conventional projector, a dedicated remote control for highlighting is not required, and desired highlighting can be performed according to the moving speed and locus pattern of the pointing position of the general-purpose pointer. As a result, it is possible to improve convenience when explaining the projected image.

なお、本実施の形態では、プロジェクタとして液晶プロジェクタを採用したが、これに限定されるものではない。たとえば、DLP(Digital Light Processing)(登録商標)方式のプロジェクタ等の他の方式のプロジェクタに本発明の技術を採用してもよい。   In this embodiment, a liquid crystal projector is used as the projector, but the present invention is not limited to this. For example, the technology of the present invention may be applied to other projectors such as a DLP (Digital Light Processing) (registered trademark) projector.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.

10 プロジェクタ、20 撮像部、22 撮像画像記憶部、24 位置検出部、26 指示情報判定部、30 画像入力部、32 画像処理部、34 画像生成部、36 ライトバルブ駆動部、38 記憶部、40 制御部、50 画像投写部、52 光源、54R,54G,54B 液晶ライトバルブ、56 投写レンズ、60 入力部、80 ポインタ、100 投写画像、R1〜R3 強調画像、SC スクリーン。   DESCRIPTION OF SYMBOLS 10 Projector, 20 Imaging part, 22 Captured image storage part, 24 Position detection part, 26 Instruction information determination part, 30 Image input part, 32 Image processing part, 34 Image generation part, 36 Light valve drive part, 38 Storage part, 40 Control unit, 50 image projection unit, 52 light source, 54R, 54G, 54B liquid crystal light valve, 56 projection lens, 60 input unit, 80 pointer, 100 projection image, R1-R3 weighted image, SC screen.

Claims (6)

画像をスクリーンに投写する投写型映像表示装置であって、
前記スクリーンに投写された画像上にユーザによって指示される位置の位置情報を検出する位置検出部と、
前記位置検出部によって検出された前記指示位置の位置情報に基づいて、投写画像内の目標領域を強調表示するための指示情報を判定する判定部と、
前記判定部によって判定された指示情報に従って、前記投写画像内の目標領域が強調された画像を生成する画像生成部と、
少なくとも前記画像生成部によって生成された画像を投写する画像投写部とを備える、投写型映像表示装置。
A projection display device that projects an image onto a screen,
A position detection unit for detecting position information of a position designated by a user on the image projected on the screen;
A determination unit that determines instruction information for highlighting a target area in a projection image based on position information of the instruction position detected by the position detection unit;
An image generation unit that generates an image in which a target area in the projection image is emphasized according to the instruction information determined by the determination unit;
A projection display apparatus comprising: an image projection unit that projects at least an image generated by the image generation unit.
前記位置検出部は、投写画像上でのポインタによる輝点の位置情報を検出する、請求項1に記載の投写型映像表示装置。   The projection display apparatus according to claim 1, wherein the position detection unit detects position information of a bright spot by a pointer on a projection image. 前記判定部は、前記位置検出部によって検出された前記輝点の位置情報から、前記輝点の移動速度および軌跡を検出するとともに、その検出された前記輝点の移動速度および軌跡に基づいて前記指示情報を判定する、請求項2に記載の投写型映像表示装置。   The determination unit detects the movement speed and locus of the bright spot from the position information of the bright spot detected by the position detection unit, and based on the detected movement speed and locus of the bright spot, The projection display apparatus according to claim 2, wherein the instruction information is determined. 前記判定部は、検出された前記輝点の移動速度が所定の閾値以下となるときには、ユーザによる前記強調指示が与えられたと判定する、請求項3に記載の投写型映像表示装置。   The projection display apparatus according to claim 3, wherein the determination unit determines that the user has given the enhancement instruction when the detected moving speed of the bright spot is equal to or less than a predetermined threshold. 前記スクリーン上に投写された画像を撮像するための撮像部をさらに備え、
前記位置検出部は、前記撮像部によって撮像された投写画像から、投写画像上での前記輝点の位置情報を検出し、
前記撮像部による撮像画像の撮像範囲は、前記スクリーンとその外周の領域とを含む所定の範囲を有する、請求項2に記載の投写型映像表示装置。
An image capturing unit for capturing an image projected on the screen;
The position detection unit detects position information of the bright spot on the projection image from the projection image captured by the imaging unit;
The projection display apparatus according to claim 2, wherein an imaging range of a captured image by the imaging unit has a predetermined range including the screen and an outer peripheral area.
前記画像生成部は、前記投写画像内の目標領域を強調させるとともに、該目標領域の輪郭部分を明示させた画像を生成する、請求項1から請求項5のいずれか1項に記載の投写型映像表示装置。   The projection type according to any one of claims 1 to 5, wherein the image generation unit generates an image that emphasizes a target area in the projection image and clearly shows an outline portion of the target area. Video display device.
JP2009234189A 2009-10-08 2009-10-08 Projection type video display device Withdrawn JP2011081651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009234189A JP2011081651A (en) 2009-10-08 2009-10-08 Projection type video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009234189A JP2011081651A (en) 2009-10-08 2009-10-08 Projection type video display device

Publications (1)

Publication Number Publication Date
JP2011081651A true JP2011081651A (en) 2011-04-21

Family

ID=44075631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009234189A Withdrawn JP2011081651A (en) 2009-10-08 2009-10-08 Projection type video display device

Country Status (1)

Country Link
JP (1) JP2011081651A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137686A (en) * 2011-12-28 2013-07-11 Fujitsu Ltd Pointing detector
JP2013196596A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Information processing apparatus, history data generation program and projection system
JP2013218430A (en) * 2012-04-05 2013-10-24 Seiko Epson Corp Input device, projector, display system and input method
JP2015518212A (en) * 2012-04-17 2015-06-25 ゼットティーイー コーポレイション Unlocking method, device and electronic terminal
JP2016034060A (en) * 2014-07-31 2016-03-10 株式会社リコー Image processing apparatus, image processing system, control method of image processing apparatus, and program
JP2016128870A (en) * 2015-01-09 2016-07-14 凸版印刷株式会社 Image processing device, image processing system, and lighting device
US9477384B2 (en) 2013-05-14 2016-10-25 Fujitsu Limited Display control apparatus, system and recording medium having display control program
JP2017092708A (en) * 2015-11-10 2017-05-25 キヤノン株式会社 Projection apparatus, projection method, and projection system
CN109375793A (en) * 2012-04-05 2019-02-22 精工爱普生株式会社 Input unit, display system and input method
CN112519670A (en) * 2019-09-17 2021-03-19 宝马股份公司 Reversing indication method and reversing indication system for motor vehicle and motor vehicle

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137686A (en) * 2011-12-28 2013-07-11 Fujitsu Ltd Pointing detector
JP2013196596A (en) * 2012-03-22 2013-09-30 Ricoh Co Ltd Information processing apparatus, history data generation program and projection system
JP2013218430A (en) * 2012-04-05 2013-10-24 Seiko Epson Corp Input device, projector, display system and input method
CN109375793A (en) * 2012-04-05 2019-02-22 精工爱普生株式会社 Input unit, display system and input method
JP2015518212A (en) * 2012-04-17 2015-06-25 ゼットティーイー コーポレイション Unlocking method, device and electronic terminal
US9477384B2 (en) 2013-05-14 2016-10-25 Fujitsu Limited Display control apparatus, system and recording medium having display control program
KR20160127341A (en) 2013-05-14 2016-11-03 후지쯔 가부시끼가이샤 Display control apparatus, system and recording medium having display control program
JP2016034060A (en) * 2014-07-31 2016-03-10 株式会社リコー Image processing apparatus, image processing system, control method of image processing apparatus, and program
JP2016128870A (en) * 2015-01-09 2016-07-14 凸版印刷株式会社 Image processing device, image processing system, and lighting device
JP2017092708A (en) * 2015-11-10 2017-05-25 キヤノン株式会社 Projection apparatus, projection method, and projection system
CN112519670A (en) * 2019-09-17 2021-03-19 宝马股份公司 Reversing indication method and reversing indication system for motor vehicle and motor vehicle
CN112519670B (en) * 2019-09-17 2024-03-05 宝马股份公司 Reversing indication method and reversing indication system for motor vehicle and motor vehicle

Similar Documents

Publication Publication Date Title
JP2011081651A (en) Projection type video display device
US10761624B2 (en) Display apparatus and method for controlling display apparatus
JP2014052930A (en) Display device and control method of display device
US9319651B2 (en) Image projection apparatus, image projection method, and storage medium of program
US9401129B2 (en) Image projection device
CN107817924B (en) Display device and control method of display device
JP2011164878A (en) Projector, control method of projector, and image display system
US20160055624A1 (en) Display device and control method therefor
US11150768B2 (en) Position detection device, display device, and position detection method
JP2014074825A (en) Projector and control method of projector
US20180039380A1 (en) Display apparatus, display system, and method of controlling display apparatus
US11333959B2 (en) Position detection device, display device, and position detection method
US20230080888A1 (en) Image display method and projector
CN112055185B (en) Operation method and display device
JP2018136364A (en) Display system, method for controlling display system, indication body, and display
JP6295758B2 (en) Display device and display device control method
US20170090707A1 (en) Interactive display method and interactive display device
JP5899993B2 (en) Image display device, image display system, and control method of image display device
JP2017220880A (en) Projection apparatus and projection method
JP2020191045A (en) Indicator, display system, and operation method
JP7302640B2 (en) Display device operation method and display device
JP2009092999A (en) Display system and control method
JP4829484B2 (en) Projection display device and image enhancement method
US10503322B2 (en) Projector and method of controlling projector
JP4665808B2 (en) Detection device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108