JP6794092B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP6794092B2
JP6794092B2 JP2015041626A JP2015041626A JP6794092B2 JP 6794092 B2 JP6794092 B2 JP 6794092B2 JP 2015041626 A JP2015041626 A JP 2015041626A JP 2015041626 A JP2015041626 A JP 2015041626A JP 6794092 B2 JP6794092 B2 JP 6794092B2
Authority
JP
Japan
Prior art keywords
image
image data
projected
region
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015041626A
Other languages
Japanese (ja)
Other versions
JP2016163228A (en
JP2016163228A5 (en
Inventor
明日華 八木
明日華 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015041626A priority Critical patent/JP6794092B2/en
Publication of JP2016163228A publication Critical patent/JP2016163228A/en
Publication of JP2016163228A5 publication Critical patent/JP2016163228A5/ja
Application granted granted Critical
Publication of JP6794092B2 publication Critical patent/JP6794092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置等に関する。 The present invention relates to a display device and the like.

プロジェクタの使用形態は近年多様化しており、プロジェクタの投影方法の1つとして、複数のプロジェクタを用いたマルチ投影がある。マルチ投影は、複数のプロジェクタの複数の投影画像を繋ぎ合わせることで、1つの投影画像(合成投影画像)を構成する投影方法である。 The usage patterns of projectors have been diversified in recent years, and one of the projection methods of projectors is multi-projection using a plurality of projectors. Multi-projection is a projection method for forming one projected image (composite projected image) by joining a plurality of projected images of a plurality of projectors.

マルチ投影においては、複数の投影画像の間のつなぎ目を見えにくくするために、各投影画像の投影領域(表示領域)を調整する必要がある。例えば、各投影画像の投影位置(表示位置)、各投影画像の形状、等を調整する必要がある。一般的には、ユーザが、リモコン等を用いてプロジェクタを操作することにより、投影領域を調整する。しかしながら、投影領域の調整は非常に困難である。 In multi-projection, it is necessary to adjust the projection area (display area) of each projection image in order to make the joint between the plurality of projection images difficult to see. For example, it is necessary to adjust the projection position (display position) of each projected image, the shape of each projected image, and the like. Generally, the user adjusts the projection area by operating the projector using a remote controller or the like. However, it is very difficult to adjust the projection area.

投影領域の調整を簡単化するための技術として、例えば、特許文献1に開示の技術がある。特許文献1に開示の技術では、投影領域の調整を補助するマーカーが配置された投影画像が投影される。特許文献1に開示の技術によれば、投影画像に配置されたマーカーが他の投影画像に配置されたマーカーに重なるように投影領域を調整すればよいため、ユーザは投影領域を容易に調整することができる。 As a technique for simplifying the adjustment of the projection area, for example, there is a technique disclosed in Patent Document 1. In the technique disclosed in Patent Document 1, a projected image in which a marker that assists in adjusting the projection area is arranged is projected. According to the technique disclosed in Patent Document 1, the projected area may be adjusted so that the marker placed on the projected image overlaps the marker placed on the other projected image, so that the user can easily adjust the projected area. be able to.

ここで、複数の投影画像の間のつなぎ目をより見えにくくするための画像処理として、輝度低減処理がある。輝度低減処理は、投影画像の一部が他の投影画像の一部に重なるように、複数の投影画像を並べることを前提とした画像処理である。このような配置方法で複数の投影画像を配置した場合、非ブレンド領域に比べ明るい画像がブレンド領域に表示され、ブレンド領域と非ブレンド領域の間に合成輝度(合成投影画像の投影輝度(表示輝度))の段差が生じる。ブレンド領域は、投影画像の領域のうち他の投影画像に重なる領域であり、非ブレンド領域は、投影画像の領域のうち他の投影画像に重ならない領域である。ブレンド領域の表示輝度が増加するのは、複数の投影画像が重ね合わせられるためである。輝度低減処理は、上記段差が低減するようにブレンド領域の輝度を低減する画像処理である。 Here, there is a brightness reduction process as an image process for making the joint between a plurality of projected images less visible. The brightness reduction process is an image process on the premise that a plurality of projected images are arranged so that a part of the projected image overlaps a part of another projected image. When a plurality of projected images are arranged by such an arrangement method, an image brighter than the non-blended area is displayed in the blended area, and the composite brightness (projected brightness (display brightness) of the composite projected image) is displayed between the blended area and the non-blended area. )) Steps occur. The blended region is a region of the projected image that overlaps the other projected image, and the non-blended region is a region of the projected image that does not overlap the other projected image. The display brightness of the blend region is increased because a plurality of projected images are superimposed. The brightness reduction process is an image process that reduces the brightness of the blend region so that the step is reduced.

しかしながら、ブレンド領域にマーカーが配置された画像データに輝度低減処理を施すと、マーカーの視認性が低下し、投影領域の調整が困難となる。 However, if the image data in which the marker is arranged in the blend region is subjected to the brightness reduction processing, the visibility of the marker is lowered and it becomes difficult to adjust the projection region.

特開2011−29727号公報Japanese Unexamined Patent Publication No. 2011-29727

本発明は、輝度低減処理によるマーカーの視認性の低下を抑制することができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of suppressing a decrease in visibility of a marker due to a luminance reduction process.

本発明に係る表示装置は、
第1投影画像を投影する表示装置であって、
画像データを取得する取得手段と、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得手段で取得された画像データに施して投影用画像データを生成する処理手段と、
前記投影用画像データに基づいて前記第1投影画像を投影する投影手段と、
を有し、
前記処理手段は、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得手段で取得された画像データに合成することが可能であり、
記マーカーのデータ前記取得手段で取得された画像データに合した場合に、前記マーカーのデータ前記取得手段で取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする。
The display device according to the present invention is
A display device that projects the first projected image.
Acquisition method for acquiring image data and
The image data acquired by the acquisition means is subjected to a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image, and projected. Processing means to generate image data for
A projection means for projecting the first projected image based on the projection image data, and
Have,
The processing means
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired by the acquisition means.
When synthesis of the data before KOR manufacturers in the image data acquired by the acquisition unit, smaller compared with the case where the data of the markers did not synthesize the acquired image data by the acquisition unit The value is set to the amount of reduction of the brightness of the region in which the marker is synthesized in the blend region by the brightness reduction processing.

本発明によれば、輝度低減処理によるマーカーの視認性の低下を抑制することができる。 According to the present invention, it is possible to suppress a decrease in the visibility of the marker due to the luminance reduction process.

本実施形態に係る液晶プロジェクタの全体構成の一例を示す図The figure which shows an example of the whole structure of the liquid crystal projector which concerns on this embodiment. 本実施形態に係る液晶プロジェクタの基本動作の一例を示すフロー図A flow chart showing an example of the basic operation of the liquid crystal projector according to the present embodiment. 本実施形態に係る画像処理部の内部構成の一例を示す図The figure which shows an example of the internal structure of the image processing part which concerns on this embodiment. 本実施形態に係るマルチ投影の一例を示す図The figure which shows an example of the multi-projection which concerns on this embodiment 本実施形態に係る液晶プロジェクタの動作の一例を示すフロー図A flow chart showing an example of the operation of the liquid crystal projector according to the present embodiment. 本実施形態に係る通常パラメータの一例を説明する図The figure explaining an example of the normal parameter which concerns on this Embodiment 本実施形態に係るエッジブレンド処理の一例を説明する図The figure explaining an example of the edge blend processing which concerns on this Embodiment 本実施形態に係るエッジブレンド処理の一例を示すフロー図Flow chart showing an example of edge blending processing according to this embodiment 本実施形態に係る調整パラメータの一例を説明する図The figure explaining an example of the adjustment parameter which concerns on this Embodiment 本実施形態に係る調整パラメータの一例を説明する図The figure explaining an example of the adjustment parameter which concerns on this Embodiment 本実施形態に係る調整パラメータの一例を説明する図The figure explaining an example of the adjustment parameter which concerns on this Embodiment マルチ投影の一例を示す図Diagram showing an example of multi-projection エッジブレンド処理後の投影画像の一例を示す図The figure which shows an example of the projection image after edge blend processing エッジブレンド処理後の合成投影画像の一例を示す図The figure which shows an example of the composite projection image after edge blend processing 補助マーカーが配置された投影画像の一例を示す図The figure which shows an example of the projection image in which the auxiliary marker is arranged 本実施形態で解決される課題の一例を示す図The figure which shows an example of the problem to be solved by this Embodiment 本実施形態で解決される課題の一例を示す図The figure which shows an example of the problem to be solved by this Embodiment

以下、本発明の実施形態に係る表示装置及びその制御方法について、図面を参照して説明する。なお、以下で説明する構成や処理は、あくまで一例であり、本発明の範囲を限定する主旨のものではない。 Hereinafter, the display device and the control method thereof according to the embodiment of the present invention will be described with reference to the drawings. The configuration and processing described below are merely examples, and are not intended to limit the scope of the present invention.

本実施形態に係る表示装置は、画像データに基づく投影画像を投影対象物(壁、スクリーンシート、スクリーンボード、等)に投影する投影型表示装置である。以下では、本実施形態に係る表示装置が透過型液晶プロジェクタ(表示デバイスとして透過型液晶パネルを用いたプロジェクタ)である場合の例を説明する。しかし、本実施形態に係る表示装置は、透過型液晶プロジェクタに限らない。本発明は、DLP、LCOS(反射型液晶パネル)、等の表示デバイスを用いたプロジェクタにも適用することができる。また、本発明は、単板式の液晶プロジェクタと3板式の液晶プロジェクタとのどちらにも適用することができる。画像データは、1枚の画像を表す静止画像データであってもよいし、複数のフレームに対応する複数の画像を表す動画像データであってもよい。 The display device according to the present embodiment is a projection type display device that projects a projected image based on image data onto a projection object (wall, screen sheet, screen board, etc.). Hereinafter, an example will be described in which the display device according to the present embodiment is a transmissive liquid crystal projector (a projector using a transmissive liquid crystal panel as a display device). However, the display device according to this embodiment is not limited to the transmissive liquid crystal projector. The present invention can also be applied to a projector using a display device such as DLP or LCOS (reflective liquid crystal panel). Further, the present invention can be applied to both a single-plate type liquid crystal projector and a three-plate type liquid crystal projector. The image data may be still image data representing one image, or moving image data representing a plurality of images corresponding to a plurality of frames.

<全体構成>
まず、図1を用いて、本実施形態に係る液晶プロジェクタの全体構成について説明する。図1は、本実施形態に係る液晶プロジェクタ100の全体構成の一例を示す図である。図1に示すように、液晶プロジェクタ100は、CPU110、ROM111、RAM112、操作部113、画像入力部130、及び、画像処理部140を有する。また、液晶プロジェクタ100は、さらに、液晶制御部150、液晶パネル151R,151G,151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、及び、投影光学系171を有する。また、液晶プロジェクタ100は、さらに、記録再生部191、記録媒体192、通信部193、撮影部194、表示制御部195、及び、表示部196を有する。以下では、液晶プロジェクタ100によって投影される投影画像を「第1投影画像」と記載し、液晶プロジェクタ100以外の表示装置によって投影される投影画像を「第2投影画像」と記載する。
<Overall configuration>
First, the overall configuration of the liquid crystal projector according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of the overall configuration of the liquid crystal projector 100 according to the present embodiment. As shown in FIG. 1, the liquid crystal projector 100 includes a CPU 110, a ROM 111, a RAM 112, an operation unit 113, an image input unit 130, and an image processing unit 140. Further, the liquid crystal projector 100 further includes a liquid crystal control unit 150, a liquid crystal panel 151R, 151G, 151B, a light source control unit 160, a light source 161, a color separation unit 162, a color synthesis unit 163, an optical system control unit 170, and projection optics. It has a system 171. Further, the liquid crystal projector 100 further includes a recording / reproducing unit 191, a recording medium 192, a communication unit 193, a photographing unit 194, a display control unit 195, and a display unit 196. In the following, the projected image projected by the liquid crystal projector 100 will be referred to as a “first projected image”, and the projected image projected by a display device other than the liquid crystal projector 100 will be referred to as a “second projected image”.

なお、液晶プロジェクタ100は、上述した機能部の一部を有していなくてもよい。例えば、液晶プロジェクタ100は、記録再生部191、記録媒体192、通信部193、撮影部194、表示制御部195、及び、表示部196の少なくともいずれかを有していなくてもよい。 The liquid crystal projector 100 does not have to have a part of the above-mentioned functional unit. For example, the liquid crystal projector 100 may not have at least one of the recording / reproducing unit 191 and the recording medium 192, the communication unit 193, the photographing unit 194, the display control unit 195, and the display unit 196.

CPU110は、液晶プロジェクタ100の各機能部を制御する。CPU110は、例えば、操作部113や通信部193から送信された制御信号を受信し、受信した制御信号に応じて各機能部を制御する。ROM111は、CUP110の処理手順を記述した制御プログラムを記憶する。RAM112は、ワークメモリとして一時的に制御プログラムやデータを記憶する。 The CPU 110 controls each functional unit of the liquid crystal projector 100. The CPU 110 receives, for example, a control signal transmitted from the operation unit 113 or the communication unit 193, and controls each functional unit according to the received control signal. The ROM 111 stores a control program that describes the processing procedure of the CUP 110. The RAM 112 temporarily stores a control program and data as a work memory.

操作部113は、液晶プロジェクタ100に対するユーザ操作を受け付け、行われたユーザ操作に応じた制御信号をCPU110に送信する。操作部113としては、例えば、スイッチ、ダイヤル、表示部196上に設けられたタッチパネル、等を用いることができる。また、操作部113として、リモコンからの信号を受信し、受信した信号に応じた制御信号をCPU110に送信する信号受信部(赤外線受信部など)を用いることもできる。 The operation unit 113 receives a user operation on the liquid crystal projector 100 and transmits a control signal corresponding to the performed user operation to the CPU 110. As the operation unit 113, for example, a switch, a dial, a touch panel provided on the display unit 196, or the like can be used. Further, as the operation unit 113, a signal receiving unit (infrared receiving unit or the like) that receives a signal from the remote controller and transmits a control signal corresponding to the received signal to the CPU 110 can also be used.

画像入力部130は、画像データを外部装置から取得し、取得した画像データを画像処理部140に出力する。画像入力部130は、画像データとしてアナログ信号を外部装置から受信した場合には、受信したアナログ信号をデジタル信号に変換し、得られたデジタル信号を画像処理部140に送信する。画像入力部130としては、例えば、コンポジット端子、S端子、D端子、コンポーネント端子、アナログRGB端子、DVI−I端子、DVI−D端子、HDMI(登録商標)端子、等を用いることができる。画像入力部130に画像データを出力する外部装置は、画像データを出力することができる装置であればよい。画像入力部130に画像データを出力する外部装置としては、例えば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、等を用いることができる。 The image input unit 130 acquires image data from an external device and outputs the acquired image data to the image processing unit 140. When the image input unit 130 receives an analog signal as image data from an external device, the image input unit 130 converts the received analog signal into a digital signal and transmits the obtained digital signal to the image processing unit 140. As the image input unit 130, for example, a composite terminal, an S terminal, a D terminal, a component terminal, an analog RGB terminal, a DVI-I terminal, a DVI-D terminal, an HDMI (registered trademark) terminal, and the like can be used. The external device that outputs the image data to the image input unit 130 may be any device that can output the image data. As an external device that outputs image data to the image input unit 130, for example, a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, or the like can be used.

画像処理部140は、画像処理部140に入力された画像データに所定の画像処理を施すことにより、投影用画像データ(表示用画像データ)を生成する。そして、画像処理部140は、生成した投影用画像データを液晶制御部150に出力する。所定の画像処理は、エッジブレンド処理を含む。エッジブレンド処理は、ブレンド領域の輝度を低減する輝度低減処理(減光処理)である。ブレンド領域は、第1投影画像の領域のうち、第2投影画像に重なる領域である。画像処理部140としては、例えば、画像処理用のマイクロプロセッサを用いることができる。 The image processing unit 140 generates projection image data (display image data) by performing predetermined image processing on the image data input to the image processing unit 140. Then, the image processing unit 140 outputs the generated image data for projection to the liquid crystal control unit 150. The predetermined image processing includes edge blending processing. The edge blending process is a luminance reducing process (dimming process) that reduces the luminance of the blended region. The blend region is a region of the first projected image that overlaps the second projected image. As the image processing unit 140, for example, a microprocessor for image processing can be used.

なお、所定の画像処理として、輝度低減処理を含む複数の画像処理が行われてもよい。
例えば、所定の画像処理は、フレーム間引き処理、フレーム補間処理、解像度変換処理、及び、歪み補正処理の少なくともいずれかを含んでいてもよい。歪み補正処理は、画像の歪みを補正する画像処理であり、例えば、台形状の歪みを補正するキーストン補正処理である。
In addition, as a predetermined image processing, a plurality of image processing including a luminance reduction processing may be performed.
For example, the predetermined image processing may include at least one of a frame thinning process, a frame interpolation process, a resolution conversion process, and a distortion correction process. The distortion correction process is an image process that corrects image distortion, and is, for example, a keystone correction process that corrects trapezoidal distortion.

なお、画像処理部140は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、画像処理部140の機能が実現されてもよい。 The image processing unit 140 does not have to be a dedicated microprocessor. For example, the function of the image processing unit 140 may be realized by the CPU 110 executing the processing according to the program stored in the ROM 111.

光源制御部160は、光源161のオン/オフ(点灯/消灯)を制御したり、光源の発光量を制御したりする。光源制御部160としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、光源制御部160は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、光源制御部160の機能が実現されてもよい。光源161としては、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、LED、等を用いることができる。 The light source control unit 160 controls on / off (lighting / extinguishing) of the light source 161 and controls the amount of light emitted from the light source. As the light source control unit 160, for example, a microprocessor for control can be used. The light source control unit 160 does not need to be a dedicated microprocessor. For example, the function of the light source control unit 160 may be realized by the CPU 110 executing the process according to the program stored in the ROM 111. As the light source 161, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, an LED, or the like can be used.

色分離部162は、光源161から発せられた光を、赤色の光(R光)、緑色の光(G光)、及び、青色の光(B光)に分離する。色分離部162としては、例えば、ダイクロイックミラー、プリズム、等を用いることができる。なお、R光を発するR光源、G光を発するG光源、及び、B光を発するB光源の3つの光源が光源161として使用される場合には、色分離部162は不要である。 The color separation unit 162 separates the light emitted from the light source 161 into red light (R light), green light (G light), and blue light (B light). As the color separation unit 162, for example, a dichroic mirror, a prism, or the like can be used. When three light sources, an R light source that emits R light, a G light source that emits G light, and a B light source that emits B light, are used as the light source 161, the color separation unit 162 is unnecessary.

液晶パネル151Rは、赤色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、R光が、液晶パネル151Rが有する複数の液晶素子を透過する。液晶パネル151Gは、緑色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、G光が、液晶パネル151Gが有する複数の液晶素子を透過する。そして、液晶パネル151Bは、青色に対応する液晶パネルであって、複数の液晶素子を有する。色分離部162から発せられた3色の光のうち、B光が、液晶パネル151Bが有する複数の液晶素子を透過する。 The liquid crystal panel 151R is a liquid crystal panel corresponding to red color, and has a plurality of liquid crystal elements. Of the three colors of light emitted from the color separation unit 162, the R light passes through a plurality of liquid crystal elements included in the liquid crystal panel 151R. The liquid crystal panel 151G is a liquid crystal panel corresponding to green, and has a plurality of liquid crystal elements. Of the three colors of light emitted from the color separation unit 162, G light passes through a plurality of liquid crystal elements included in the liquid crystal panel 151G. The liquid crystal panel 151B is a liquid crystal panel corresponding to blue color, and has a plurality of liquid crystal elements. Of the three colors of light emitted from the color separation unit 162, the B light passes through a plurality of liquid crystal elements included in the liquid crystal panel 151B.

液晶制御部150は、画像処理部140から出力された投影用画像データに基づいて、液晶パネル151R,151G,151Bが有する各液晶素子の透過率を制御する。液晶素子の透過率は、例えば、液晶素子に印加する電圧、液晶素子に供給する電流、または、それらの両方を制御することにより、制御することができる。画像処理部140に入力された画像データが動画像データである場合、画像処理部は、フレーム毎に投影用画像データを生成する。そして、液晶制御部150は、フレーム毎に、そのフレームの投影用画像データに基づいて、各液晶素子の透過率を制御する。液晶制御部150としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、液晶制御部150は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、液晶制御部150の機能が実現されてもよい。 The liquid crystal control unit 150 controls the transmittance of each liquid crystal element of the liquid crystal panels 151R, 151G, 151B based on the projection image data output from the image processing unit 140. The transmittance of the liquid crystal element can be controlled, for example, by controlling the voltage applied to the liquid crystal element, the current supplied to the liquid crystal element, or both of them. When the image data input to the image processing unit 140 is moving image data, the image processing unit generates projection image data for each frame. Then, the liquid crystal control unit 150 controls the transmittance of each liquid crystal element for each frame based on the projection image data of the frame. As the liquid crystal control unit 150, for example, a microprocessor for control can be used. The liquid crystal control unit 150 does not need to be a dedicated microprocessor. For example, the function of the liquid crystal control unit 150 may be realized by the CPU 110 executing the processing according to the program stored in the ROM 111.

色合成部163は、液晶パネル151Rを透過した光(透過R光)、液晶パネル151Gを透過した光(透過G光)、及び、液晶パネル151Bを透過した光(透過B光)を合成する。色合成部163としては、例えば、ダイクロイックミラー、プリズム、等を用いることができる。 The color synthesizing unit 163 synthesizes light transmitted through the liquid crystal panel 151R (transmitted R light), light transmitted through the liquid crystal panel 151G (transmitted G light), and light transmitted through the liquid crystal panel 151B (transmitted B light). As the color synthesizing unit 163, for example, a dichroic mirror, a prism, or the like can be used.

また、投影光学系171は、色合成部163から発せられた光(透過R光、透過G光、
及び、透過B光を合成した光;合成光)を、スクリーンシートに投影する。上述したように、液晶パネル151R,151G,151Bの透過率は、投影用画像データに基づいて制御される。そのため、合成光を投影することにより、投影用画像データに基づく画像が投影(表示)される。投影光学系171は、例えば、複数のレンズと、各レンズを駆動するアクチュエータと、を有する。各レンズの位置や向きを変更することにより、スクリーンシート上に形成された第1投影画像の拡大、縮小、焦点調整、等を行うことができる。
Further, the projection optical system 171 includes light (transmitted R light, transmitted G light, transmitted light) emitted from the color synthesis unit 163.
And, the light obtained by synthesizing the transmitted B light; the synthesized light) is projected onto the screen sheet. As described above, the transmittance of the liquid crystal panels 151R, 151G, 151B is controlled based on the projection image data. Therefore, by projecting the composite light, an image based on the projection image data is projected (displayed). The projection optical system 171 includes, for example, a plurality of lenses and an actuator for driving each lens. By changing the position and orientation of each lens, it is possible to enlarge, reduce, adjust the focus, etc. of the first projected image formed on the screen sheet.

光学系制御部170は、投影光学系171を制御する。具体的には、投影光学系171は、投影光学系171が有するアクチュエータに指示を出すことにより、投影光学系171が有する各レンズの位置や向きを制御する。例えば、光学系制御部170は、液晶プロジェクタ100に対するユーザ操作に応じて、投影光学系171を制御する。光学系制御部170としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、光学系制御部170は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、光学系制御部170の機能が実現されてもよい。 The optical system control unit 170 controls the projection optical system 171. Specifically, the projection optical system 171 controls the position and orientation of each lens of the projection optical system 171 by issuing an instruction to the actuator of the projection optical system 171. For example, the optical system control unit 170 controls the projection optical system 171 in response to a user operation on the liquid crystal projector 100. As the optical system control unit 170, for example, a microprocessor for control can be used. The optical system control unit 170 does not have to be a dedicated microprocessor. For example, the function of the optical system control unit 170 may be realized by the CPU 110 executing the processing according to the program stored in the ROM 111.

撮影部194は、液晶プロジェクタ100の周辺を撮影する。例えば、撮影部194は、スクリーンシート側を撮影する。具体的には、撮影部194は、スクリーンシート上に形成された投影画像(第1投影画像、第2投影画像、または、それらの両方)を撮影する。そして、撮影部194は、撮影によって得られた画像データを記録再生部191に出力する。撮影部194は、例えば、レンズ、アクチュエータ、マイクロプロセッサ、撮像素子、及び、AD変換部を有する。レンズは被写体の光学像を取得し、アクチュエータはレンズを駆動し、マイクロプロセッサはアクチュエータを制御する。撮像素子は、レンズを介して取得した光学像を画像信号(アナログ信号)に変換し、AD変換部は、撮像素子により得られた画像信号をデジタル信号に変換する。なお、撮影部194の撮影方向は、スクリーン方向(液晶プロジェクタ100からスクリーンシートへ向かう方向)に限らない。例えば、撮影部194の撮影方向は、スクリーン方向の逆方向であってもよい。撮影部194は、投影画像を見る視聴者の側を撮影してもよい。 The photographing unit 194 photographs the periphery of the liquid crystal projector 100. For example, the photographing unit 194 photographs the screen sheet side. Specifically, the photographing unit 194 photographs a projected image (first projected image, second projected image, or both of them) formed on the screen sheet. Then, the photographing unit 194 outputs the image data obtained by the photographing to the recording / reproducing unit 191. The photographing unit 194 includes, for example, a lens, an actuator, a microprocessor, an image sensor, and an AD conversion unit. The lens captures the optical image of the subject, the actuator drives the lens, and the microprocessor controls the actuator. The image sensor converts the optical image acquired through the lens into an image signal (analog signal), and the AD conversion unit converts the image signal obtained by the image sensor into a digital signal. The shooting direction of the shooting unit 194 is not limited to the screen direction (direction from the liquid crystal projector 100 toward the screen sheet). For example, the photographing direction of the photographing unit 194 may be the opposite direction to the screen direction. The photographing unit 194 may photograph the side of the viewer who sees the projected image.

記録媒体192は、様々なデータを記憶することができる。例えば、記録媒体192は、画像データ、液晶プロジェクタ100に必要な制御データ、等を記憶することができる。記録媒体192としては、例えば、磁気ディスク、光ディスク、半導体メモリ、等を用いることができる。記録媒体192は、液晶プロジェクタ100に内蔵された記録媒体であってもよいし、液晶プロジェクタ100に対して着脱可能な記録媒体であってもよい。 The recording medium 192 can store various data. For example, the recording medium 192 can store image data, control data required for the liquid crystal projector 100, and the like. As the recording medium 192, for example, a magnetic disk, an optical disk, a semiconductor memory, or the like can be used. The recording medium 192 may be a recording medium built in the liquid crystal projector 100, or may be a recording medium that can be attached to and detached from the liquid crystal projector 100.

通信部193は、様々なデータを外部装置から取得(受信)する。例えば、通信部193は、画像データ、液晶プロジェクタ100に必要な制御データ、等を外部装置から取得する。通信部193は、取得した画像データを、画像処理部140や記録再生部191に出力する。通信部193の通信方式としては、例えば、無線LAN、有線LAN、USB、Bluetooth(登録商標)、等を用いることができる。通信部193としてHDMI端子が使用されてもよい。その場合には、通信部193は、HDMI端子を介してCEC通信を行う。通信部193と通信を行う外部装置は、通信部193と通信を行うことができる装置であればよい。通信部193と通信を行うとしては、例えば、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機、等を用いることができる。 The communication unit 193 acquires (receives) various data from an external device. For example, the communication unit 193 acquires image data, control data required for the liquid crystal projector 100, and the like from an external device. The communication unit 193 outputs the acquired image data to the image processing unit 140 and the recording / playback unit 191. As the communication method of the communication unit 193, for example, wireless LAN, wired LAN, USB, Bluetooth (registered trademark), or the like can be used. An HDMI terminal may be used as the communication unit 193. In that case, the communication unit 193 performs CEC communication via the HDMI terminal. The external device that communicates with the communication unit 193 may be any device that can communicate with the communication unit 193. For communicating with the communication unit 193, for example, a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, or the like can be used.

記録再生部191は、撮影部194から出力された撮影画像データ、通信部193で取得された画像データ、画像入力部130で取得された画像データ、等を記録媒体192に記録する。また、記録再生部191は、記録媒体192から画像データを取得し、取得した画像データを画像処理部140に出力することもできる(再生処理)。記録再生部19
1は、例えば、記録媒体192と電気的に接続されたインタフェースと、記録媒体192との通信を行うマイクロプロセッサとを有する。なお、記録再生部191が有するマイクロプロセッサは、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、記録再生部191が有するマイクロプロセッサの機能が実現されてもよい。
The recording / playback unit 191 records the captured image data output from the photographing unit 194, the image data acquired by the communication unit 193, the image data acquired by the image input unit 130, and the like on the recording medium 192. Further, the recording / reproducing unit 191 can also acquire image data from the recording medium 192 and output the acquired image data to the image processing unit 140 (reproduction processing). Recording / playback unit 19
Reference numeral 1 denotes, for example, an interface electrically connected to the recording medium 192 and a microprocessor for communicating with the recording medium 192. The microprocessor included in the recording / playback unit 191 does not have to be a dedicated microprocessor. For example, the function of the microprocessor possessed by the recording / reproducing unit 191 may be realized by the CPU 110 executing the processing according to the program stored in the ROM 111.

表示部196は、液晶プロジェクタ100に対するユーザ操作を補助する操作画面を表示する。操作画面は、例えば、スイッチアイコンが配置された画像である。表示部196は、画像を表示できれば、どのような構造を有していてもよい。表示部196としては、例えば、液晶表示パネル、CRT表示パネル、有機EL表示パネル、LED表示パネル、プラズマ表示パネル、等を用いることができる。なお、各物理ボタンに対応する発光部(例えばLED)が使用されてもよい。発光部を発光させることにより、ユーザは、物理ボタンを容易に認識することができる。 The display unit 196 displays an operation screen that assists the user operation on the liquid crystal projector 100. The operation screen is, for example, an image in which a switch icon is arranged. The display unit 196 may have any structure as long as it can display an image. As the display unit 196, for example, a liquid crystal display panel, a CRT display panel, an organic EL display panel, an LED display panel, a plasma display panel, or the like can be used. A light emitting unit (for example, an LED) corresponding to each physical button may be used. By causing the light emitting unit to emit light, the user can easily recognize the physical button.

表示制御部195は、表示部196による画像表示を制御する。表示制御を行うマイクロプロセッサなどからなる。表示制御部195としては、例えば、制御用のマイクロプロセッサを用いることができる。なお、表示制御部195は、専用のマイクロプロセッサである必要はない。例えば、ROM111に記憶されたプログラムに応じた処理をCPU110が実行することにより、表示制御部195の機能が実現されてもよい。 The display control unit 195 controls the image display by the display unit 196. It consists of a microprocessor that controls display. As the display control unit 195, for example, a microprocessor for control can be used. The display control unit 195 does not have to be a dedicated microprocessor. For example, the function of the display control unit 195 may be realized by the CPU 110 executing the process according to the program stored in the ROM 111.

なお、画像処理部140、液晶制御部150、光源制御部160、光学系制御部170、記録再生部191、及び、表示制御部195の機能は、1つのマイクロプロセッサによって実現されてもよいし、複数のマイクロプロセッサによって実現されてもよい。これら6つの機能部に対応する6つのマイクロプロセッサが使用されてもよい。1つの機能部の処理は、1つのマイクロプロセッサによって実現されてもよいし、複数のマイクロプロセッサによって実現されてもよい。複数の機能部間で共通のマイクロプロセッサが使用されてもよい。上記6つの機能部のうちの2つ以上の機能部間で共通のマイクロプロセッサが使用されてもよい。 The functions of the image processing unit 140, the liquid crystal control unit 150, the light source control unit 160, the optical system control unit 170, the recording / playback unit 191 and the display control unit 195 may be realized by one microprocessor. It may be realized by a plurality of microprocessors. Six microprocessors corresponding to these six functional parts may be used. The processing of one functional unit may be realized by one microprocessor or may be realized by a plurality of microprocessors. A common microprocessor may be used among a plurality of functional parts. A common microprocessor may be used between two or more of the above six functional parts.

<基本動作>
次に、図2を用いて、液晶プロジェクタ100の基本動作を説明する。図2は、液晶プロジェクタ100の基本動作の一例を示すフロー図である。基本的には、CPU110が、ROM111に記憶されたプログラムに基づいて、各機能部を制御することにより、図2の動作が実現される。図2の動作は、液晶プロジェクタ100の電源がオンされたことに応じて開始される。
<Basic operation>
Next, the basic operation of the liquid crystal projector 100 will be described with reference to FIG. FIG. 2 is a flow chart showing an example of the basic operation of the liquid crystal projector 100. Basically, the operation of FIG. 2 is realized by the CPU 110 controlling each functional unit based on the program stored in the ROM 111. The operation of FIG. 2 is started in response to the power of the liquid crystal projector 100 being turned on.

まず、CPU110が、不図示の電源部から液晶プロジェクタ100の各機能部に電力を供給すると共に、投影開始処理を実行する(S201)。投影開始処理では、光源制御部160への指示、液晶制御部150への指示、画像処理部140の動作設定、等が行われる。光源制御部160への指示により、光源161を点灯する点灯制御が行われ、液晶制御部150への指示により、液晶パネル151R,151G,151B(各液晶素子)を駆動する駆動制御が行われる。投影開始処理が行われることにより、投影画像(第1投影画像)が投影される。 First, the CPU 110 supplies electric power to each functional unit of the liquid crystal projector 100 from a power supply unit (not shown), and executes a projection start process (S201). In the projection start process, an instruction to the light source control unit 160, an instruction to the liquid crystal control unit 150, an operation setting of the image processing unit 140, and the like are performed. The lighting control for lighting the light source 161 is performed according to the instruction to the light source control unit 160, and the drive control for driving the liquid crystal panels 151R, 151G, 151B (each liquid crystal element) is performed according to the instruction to the liquid crystal control unit 150. By performing the projection start processing, the projected image (first projected image) is projected.

次に、CPU110が、画像入力部130に入力された画像データが変化したか否かを判定する(S202)。画像データが変化した場合には、S203に処理が進められ、画像データが変化しなかった場合には、S204に処理が進められる。 Next, the CPU 110 determines whether or not the image data input to the image input unit 130 has changed (S202). If the image data changes, the process proceeds to S203, and if the image data does not change, the process proceeds to S204.

S203では、CPU110が、タイミング変更処理を実行する。タイミング変更処理では、入力画像(画像入力部130に入力された画像データによって表された画像)の解
像度、入力画像のフレームレート、等が検出される。そして、検出結果に応じたタイミングで入力画像がサンプリングされ、サンプリングされた入力画像(データ)が出力される。それにより、画像処理部140において、入力画像に必要な画像処理が施される。その結果、必要な画像処理が施された後の投影画像(第1投影画像)が投影される。そして、S203からS204に処理が進められる。
In S203, the CPU 110 executes the timing change process. In the timing change process, the resolution of the input image (the image represented by the image data input to the image input unit 130), the frame rate of the input image, and the like are detected. Then, the input image is sampled at the timing according to the detection result, and the sampled input image (data) is output. As a result, the image processing unit 140 performs image processing necessary for the input image. As a result, the projected image (first projected image) after the necessary image processing is performed is projected. Then, the process proceeds from S203 to S204.

S204では、CPU110が、液晶プロジェクタ100に対するユーザ操作が行われた否かを判定する。ユーザ操作が行われなかった場合には、S208に処理が進められる。ユーザ操作が行われた場合には、CPU110が、ユーザ操作が終了操作であるか否かを判定する(S205)。終了操作は、投影を終了するユーザ操作である。ユーザ操作が終了操作である場合には、S206に処理が進められる。ユーザ操作が終了操作でない場合には、CPU110が、ユーザ操作に応じた処理(ユーザ処理)を実行する(S207)。そして、S207からS208に処理が進められる。ユーザ処理は、例えば、設置設定の変更、入力画像の変更、画像処理の変更、情報の表示、等である。 In S204, the CPU 110 determines whether or not a user operation on the liquid crystal projector 100 has been performed. If no user operation is performed, the process proceeds to S208. When a user operation is performed, the CPU 110 determines whether or not the user operation is a termination operation (S205). The end operation is a user operation to end the projection. If the user operation is a termination operation, the process proceeds to S206. If the user operation is not an end operation, the CPU 110 executes a process (user process) according to the user operation (S207). Then, the process proceeds from S207 to S208. The user processing includes, for example, changing the installation setting, changing the input image, changing the image processing, displaying information, and the like.

S208では、CPU110が、通信部193によってコマンドが受信されたか否かを判定する。コマンドが受信されなかった場合には、S202に処理が戻される。コマンド受信された場合には、CPU110が、受信されたコマンド(受信コマンド)が終了コマンドであるか否かを判定する(S209)。終了コマンドは、投影を終了するコマンドである。受信コマンドが終了コマンドである場合には、S206に処理が進められる。受信コマンドが終了コマンドでない場合には、CPU110が、受信コマンドに応じた処理(コマンド処理)を実行する(S210)。そして、S210からS202に処理が戻される。コマンド処理は、例えば、設置設定の変更、入力画像の変更、画像処理の変更、情報の表示、等である。 In S208, the CPU 110 determines whether or not a command has been received by the communication unit 193. If the command is not received, the process is returned to S202. When a command is received, the CPU 110 determines whether or not the received command (received command) is an end command (S209). The end command is a command to end the projection. If the receive command is the end command, the process proceeds to S206. If the receive command is not an end command, the CPU 110 executes a process (command process) according to the receive command (S210). Then, the process is returned from S210 to S202. The command processing includes, for example, changing the installation setting, changing the input image, changing the image processing, displaying information, and the like.

上述したように、終了操作が行われた場合や終了コマンドが受信された場合には、S206の処理が行われる。S206では、CPU110が、投影終了処理を実行する。投影終了処理では、光源制御部160への指示、液晶制御部150への指示、必要な情報(各種設定値)のROM111への保存、等が行われる。光源制御部160への指示により、光源161を消灯する消灯制御が行われ、液晶制御部150への指示により、液晶パネル151R,151G,151B(各液晶素子)の駆動を停止する駆動停止制御が行われる。投影終了処理が行われることにより、投影画像(第1投影画像)の投影が終了される。そして、図2の動作フローが終了される。 As described above, when the end operation is performed or the end command is received, the process of S206 is performed. In S206, the CPU 110 executes the projection end process. In the projection end process, an instruction to the light source control unit 160, an instruction to the liquid crystal control unit 150, storage of necessary information (various set values) in the ROM 111, and the like are performed. The light source control unit 160 is instructed to turn off the light source 161, and the liquid crystal control unit 150 is instructed to turn off the liquid crystal panels 151R, 151G, 151B (each liquid crystal element). Will be done. By performing the projection end processing, the projection of the projected image (first projected image) is completed. Then, the operation flow of FIG. 2 is terminated.

なお、画像入力部130に入力された画像データに基づく投影画像が投影される場合を説明したが、液晶プロジェクタ100は、他の画像データに基づく投影画像を投影することもできる。例えば、液晶プロジェクタ100は、記録媒体192から画像データを読み出し、読み出した画像データに基づく投影画像を投影することもできる。また、液晶プロジェクタ100は、通信部193で受信された画像データに基づく投影画像を投影することもできる。どの画像データに基づく投影画像を投影するかは、例えば、液晶プロジェクタに設定されている動作モードに応じて決定される(切り替えられる)。 Although the case where the projected image based on the image data input to the image input unit 130 is projected has been described, the liquid crystal projector 100 can also project the projected image based on other image data. For example, the liquid crystal projector 100 can read image data from the recording medium 192 and project a projected image based on the read image data. The liquid crystal projector 100 can also project a projected image based on the image data received by the communication unit 193. Which image data to project the projected image based on is determined (switched) according to, for example, the operation mode set in the liquid crystal projector.

<本実施形態で解決される課題>
次に、本実施形態で解決される課題について、図12〜17を参照して説明する。
<Problems to be solved in this embodiment>
Next, the problems to be solved in this embodiment will be described with reference to FIGS. 12 to 17.

図12は、マルチ投影の一例を示す。マルチ投影は、複数のプロジェクタの複数の投影画像を繋ぎ合わせることで、1つの投影画像(合成投影画像)を構成する投影方法である。図12は、2台のプロジェクタ20a,20bを用いたマルチ投影の一例を示す。なお、マルチ投影に使用するプロジェクタの数は2台より多くてもよい。 FIG. 12 shows an example of multi-projection. Multi-projection is a projection method for forming one projected image (composite projected image) by joining a plurality of projected images of a plurality of projectors. FIG. 12 shows an example of multi-projection using two projectors 20a and 20b. The number of projectors used for multi-projection may be more than two.

図12では、プロジェクタ20aによって、スクリーン10上に投影画像10aが投影されており、プロジェクタ20bによって、スクリーン10上に投影画像10bが投影されている。投影画像10aの右辺部分は、投影画像10bの左辺部分に重なっている。図12において、符号30は、投影画像10aと投影画像10bが重なり合うブレンド領域を示す。エッジブレンド処理を行わずに投影を行うと、非ブレンド領域に比べ明るい画像がブレンド領域に表示され、ブレンド領域と非ブレンド領域の間に合成輝度(合成投影画像の投影輝度(表示輝度))の段差が生じる。非ブレンド領域は、投影画像の領域のうち他の投影画像に重ならない領域である。例えば、投影画像10a,10bの輝度が一様であった場合、図12に示すように、ブレンド領域30の合成輝度が、非ブレンド領域の2倍に高められる。その結果、合成輝度の段差が生じる。 In FIG. 12, the projector 20a projects the projected image 10a on the screen 10, and the projector 20b projects the projected image 10b on the screen 10. The right side portion of the projected image 10a overlaps the left side portion of the projected image 10b. In FIG. 12, reference numeral 30 indicates a blend region in which the projected image 10a and the projected image 10b overlap. When projection is performed without edge blending, an image brighter than the non-blended area is displayed in the blended area, and the combined brightness (projected brightness (display brightness) of the composite projected image) between the blended area and the non-blended area is displayed. There is a step. The non-blended region is a region of the projected image that does not overlap with other projected images. For example, when the brightness of the projected images 10a and 10b is uniform, as shown in FIG. 12, the combined brightness of the blended region 30 is increased to twice that of the non-blended region. As a result, a step in the combined brightness is generated.

エッジブレンド処理を行うことにより、合成輝度の段差を低減することができる。図13にエッジブレンド処理後の投影画像の一例を示す。図13において、投影画像10aの領域30aと、投影画像10bの領域30bとは、いずれも、図12のブレンド領域30に対応する領域である。図13の例では、領域30aの輝度を低減するエッジブレンド処理が投影画像10aに施され、且つ、領域30bの輝度を低減するエッジブレンド処理が投影画像10bに施された場合の例を示す。このようなエッジブレンド処理を行うことにより、図14に示すように、ブレンド領域30の合成輝度を、非ブレンド領域の合成輝度に合わせることができる。 By performing the edge blending process, it is possible to reduce the step in the combined brightness. FIG. 13 shows an example of the projected image after the edge blending process. In FIG. 13, the region 30a of the projected image 10a and the region 30b of the projected image 10b are both regions corresponding to the blend region 30 of FIG. In the example of FIG. 13, an example is shown in which an edge blending process for reducing the brightness of the region 30a is applied to the projected image 10a, and an edge blending process for reducing the brightness of the region 30b is applied to the projected image 10b. By performing such an edge blending process, as shown in FIG. 14, the combined brightness of the blended region 30 can be matched with the combined brightness of the non-blended region.

マルチ投影を行う際、ユーザは、複数の投影画像の間のつなぎ目を見えにくくするために、各投影画像の投影領域(表示領域)を調整する。例えば、ユーザによって、各投影画像の投影位置(表示位置)、各投影画像の形状、等が調整される。投影位置は、例えば、プロジェクタの設置位置を変更することにより、変更することができる。投影画像の形状は、例えば、キーストン補正に使用するパラメータを変更することにより、変更することができる。そして、投影領域の調整を簡単化するために、図15のように、ブレンド領域を示すマーカー(投影領域の調整を補助する補助マーカー)が表示されることがある。補助マーカーはブレンド領域を示すマーカーであるため、補助マーカーの少なくとも一部はブレンド領域に含まれる。そのため、補助マーカーが配置された画像データにエッジブレンド処理を施すと、図16に示すように、補助マーカーの一部の輝度が不必要に低減され、補助マーカーの視認性が低下する。補助マーカーの視認性が悪いと、ユーザは、投影領域を容易に調整することができない。 When performing multi-projection, the user adjusts the projection area (display area) of each projection image in order to make the joint between the plurality of projection images difficult to see. For example, the user adjusts the projection position (display position) of each projected image, the shape of each projected image, and the like. The projection position can be changed, for example, by changing the installation position of the projector. The shape of the projected image can be changed, for example, by changing the parameters used for keystone correction. Then, in order to simplify the adjustment of the projection area, as shown in FIG. 15, a marker indicating the blend area (an auxiliary marker that assists the adjustment of the projection area) may be displayed. Since the auxiliary marker is a marker indicating the blend region, at least a part of the auxiliary marker is included in the blend region. Therefore, when the edge blending process is applied to the image data in which the auxiliary marker is arranged, the brightness of a part of the auxiliary marker is unnecessarily reduced and the visibility of the auxiliary marker is lowered, as shown in FIG. If the visibility of the auxiliary marker is poor, the user cannot easily adjust the projection area.

補助マーカーは、グラフィック画像を元画像内に配置する描画処理によって描画されることがある。例えば、補助マーカーは、入力画像に重ねられたOSD(オンスクリーンディスプレイ)画像である。描画処理がエッジブレンド処理よりも後に行われれば、補助マーカーの視認性の低下を抑制することができる。しかしながら、描画処理により、補助マーカー以外のグラフィック画像が描画されることもある。例えば、各種設定値を示すメニュー画像が描画処理によって描画されることがある。描画処理がエッジブレンド処理よりも後に行われると、図17に示すように、エッジブレンド処理を施すべきグラフィック画像40にエッジブレンド処理が施されず、グラフィック画像40内に上述した合成輝度の段差が生じる。そのため、エッジブレンド処理は、描画処理の後に行われることが望ましい。 The auxiliary marker may be drawn by a drawing process in which the graphic image is placed in the original image. For example, the auxiliary marker is an OSD (On Screen Display) image superimposed on the input image. If the drawing process is performed after the edge blend process, it is possible to suppress a decrease in the visibility of the auxiliary marker. However, a graphic image other than the auxiliary marker may be drawn by the drawing process. For example, menu images showing various setting values may be drawn by drawing processing. When the drawing process is performed after the edge blend process, as shown in FIG. 17, the edge blend process is not applied to the graphic image 40 to be subjected to the edge blend process, and the above-mentioned step in the composite brightness is formed in the graphic image 40. Occurs. Therefore, it is desirable that the edge blending process is performed after the drawing process.

そこで、本実施形態では、描画処理が行われた後にエッジブレンド処理を行う。そして、補助マーカーが配置された画像データについては、それ以外の画像データに比べ小さい値に、ブレンド領域の輝度のエッジブレンド処理による低減量を制御する。それにより、エッジブレンド処理を施すべきグラフィック画像を高画質で投影でき、且つ、エッジブレンド処理による補助マーカーの視認性の低下を抑制することができる。 Therefore, in the present embodiment, the edge blending process is performed after the drawing process is performed. Then, for the image data in which the auxiliary marker is arranged, the amount of reduction of the brightness of the blend region by the edge blending process is controlled to a value smaller than that of the other image data. As a result, the graphic image to be subjected to the edge blending process can be projected with high image quality, and the deterioration of the visibility of the auxiliary marker due to the edge blending process can be suppressed.

<本実施形態の特徴>
次に、液晶プロジェクタ100の特徴的な動作について説明する。図3は、画像処理部140の内部構成の一例を示す図である。図3に示すように、画像処理部140は、OSD合成部310と各種画像処理部320を有する。
<Characteristics of this embodiment>
Next, the characteristic operation of the liquid crystal projector 100 will be described. FIG. 3 is a diagram showing an example of the internal configuration of the image processing unit 140. As shown in FIG. 3, the image processing unit 140 includes an OSD compositing unit 310 and various image processing units 320.

図3において、元画像データsig301は、画像入力部130、記録再生部191、または、通信部193から出力された入力画像データであり、元画像(入力画像)を表す画像データである。タイミング信号sig302は、元画像データsig301の供給元(元画像データsig301を出力した機能部)から出力された信号であり、元画像データsig301に同期した信号である。タイミング信号sig302は、例えば、垂直同期信号、水平同期信号、クロック信号、等を含む。画像処理部140が有する各機能部は、タイミング信号sig302に同期して動作する。なお、画像処理部140は、タイミング信号を受信せずに、タイミング信号を生成し、生成したタイミング信号を使用してもよい。 In FIG. 3, the original image data sig301 is input image data output from the image input unit 130, the recording / playback unit 191 or the communication unit 193, and is image data representing the original image (input image). The timing signal sig 302 is a signal output from the supply source of the original image data sig301 (the functional unit that outputs the original image data sig301), and is a signal synchronized with the original image data sig301. The timing signal sig 302 includes, for example, a vertical synchronization signal, a horizontal synchronization signal, a clock signal, and the like. Each functional unit of the image processing unit 140 operates in synchronization with the timing signal sig 302. Note that the image processing unit 140 may generate a timing signal without receiving the timing signal and use the generated timing signal.

OSD合成部310は、CPU110と連携して処理を行う。具体的には、OSD合成部310は、元画像データsig301を取得し、取得画像データsig303を各種画像処理部320に出力する。OSD合成部310は、元画像データsig301を取得画像データsig303として出力することができる。また、OSD合成部310は、グラフィック画像を表すグラフィック画像データを元画像データsig301に合成することにより、元画像にグラフィック画像を重ねた合成画像データを取得(生成)することができる。合成画像データは、CPU110からの指示に応じて生成される。例えば、1つ以上のグラフィック画像データが予め用意されており、CPU110からの指示に応じたグラフィック画像データを用いた合成によって、合成画像データが生成される。そして、OSD合成部310は、合成画像データを生成した場合に、合成画像データを取得画像データsig303として出力する。 The OSD synthesis unit 310 performs processing in cooperation with the CPU 110. Specifically, the OSD synthesizing unit 310 acquires the original image data sig301 and outputs the acquired image data sig303 to various image processing units 320. The OSD compositing unit 310 can output the original image data sig301 as the acquired image data sig303. Further, the OSD compositing unit 310 can acquire (generate) the composite image data in which the graphic image is superimposed on the original image by synthesizing the graphic image data representing the graphic image with the original image data sig301. The composite image data is generated in response to an instruction from the CPU 110. For example, one or more graphic image data are prepared in advance, and the composite image data is generated by synthesizing using the graphic image data according to the instruction from the CPU 110. Then, when the composite image data is generated, the OSD synthesis unit 310 outputs the composite image data as the acquired image data sig303.

各種画像処理部320は、取得画像データsig303に所定の画像処理を施すことにより、投影用画像データsig304を生成する。そして、各種画像処理部320は、投影用画像データsig304を液晶制御部150に出力する。上述したように、所定の画像処理は、エッジブレンド処理を含む。 The various image processing units 320 generate the projection image data sig 304 by performing predetermined image processing on the acquired image data sig 303. Then, the various image processing units 320 output the projection image data sig 304 to the liquid crystal control unit 150. As mentioned above, the predetermined image processing includes edge blending processing.

なお、上述したように、所定の画像処理として、エッジブレンド処理を含む複数の画像処理が行われてもよい。例えば、所定の画像処理は、画像データの特徴量の取得、IP変換、フレームレート変換、解像度変換、γ変換、色域変換、色補正、エッジ強調、等を含んでいてもよい。特徴量は、例えば、画素値のヒストグラム、画素値の代表値(平均値、中間値、最頻値、最大値、最小値、等)、輝度値のヒストグラム、輝度値の代表値、等である。これらの画像処理ついては、公知技術を用いることができるため、その説明を割愛する。 As described above, a plurality of image processes including an edge blend process may be performed as a predetermined image process. For example, the predetermined image processing may include acquisition of feature amounts of image data, IP conversion, frame rate conversion, resolution conversion, γ conversion, color gamut conversion, color correction, edge enhancement, and the like. The feature amount is, for example, a histogram of pixel values, a representative value of pixel values (mean value, an intermediate value, a mode value, a maximum value, a minimum value, etc.), a histogram of brightness values, a representative value of brightness values, and the like. .. Since known techniques can be used for these image processings, the description thereof will be omitted.

図4は、本実施形態に係るマルチ投影の一例を示す。図4は、2台のプロジェクタ400a,400bを用いたマルチ投影の一例を示す。プロジェクタ400a,400bは、図1の液晶プロジェクタ100と同様の構成を有する。なお、マルチ投影に使用するプロジェクタの数は2台より多くてもよい。 FIG. 4 shows an example of multi-projection according to the present embodiment. FIG. 4 shows an example of multi-projection using two projectors 400a and 400b. The projectors 400a and 400b have the same configuration as the liquid crystal projector 100 of FIG. The number of projectors used for multi-projection may be more than two.

図4は、プロジェクタ400aによって、スクリーン410上に投影画像500aが投影されており、プロジェクタ400bによって、スクリーン410上に投影画像500bが投影されている。投影画像500aと投影画像500bは、投影領域の調整が完了した際に1つの投影画像(合成投影画像)を形成する。図4では、投影画像500aは台形状に歪んで投影されており、投影画像500bはキーストン補正処理によって歪みなく投影
されている。
In FIG. 4, the projected image 500a is projected on the screen 410 by the projector 400a, and the projected image 500b is projected on the screen 410 by the projector 400b. The projected image 500a and the projected image 500b form one projected image (composite projected image) when the adjustment of the projection area is completed. In FIG. 4, the projected image 500a is distorted into a trapezoidal shape and projected, and the projected image 500b is projected without distortion by the keystone correction process.

このような場合、例えば、ユーザは、合成投影画像が形成されるように、投影画像500aの投影領域を調整する。なお、投影領域の調整では、1台のプロジェクタに対応する1つの投影画像の投影領域のみが調整されるとは限らない。複数台のプロジェクタに対応する複数の投影画像のそれぞれについて、投影領域が調整(変更)されることもある。投影領域の調整方法は特に限定されるものではない。 In such a case, for example, the user adjusts the projection area of the projected image 500a so that the composite projected image is formed. In the adjustment of the projection area, it is not always the case that only the projection area of one projected image corresponding to one projector is adjusted. The projection area may be adjusted (changed) for each of the plurality of projected images corresponding to the plurality of projectors. The method of adjusting the projection area is not particularly limited.

図5を用いて、プロジェクタ400aの動作の一例について説明する。図5は、プロジェクタ400aの動作の一例を示すフローチャートである。なお、プロジェクタ400bでも、以下で説明する動作と同様の動作が行われる。本実施形態では、プロジェクタ400aは、調整モードを含む複数の動作モードのいずれかを設定可能である。調整モードは、投影画像の投影領域の調整を行う際に設定すべき動作モードである。図5の動作は、プロジェクタ400aに対して調整モードが設定されたことをトリガとして開始される。 An example of the operation of the projector 400a will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the operation of the projector 400a. The projector 400b also performs the same operation as that described below. In the present embodiment, the projector 400a can set any of a plurality of operation modes including the adjustment mode. The adjustment mode is an operation mode that should be set when adjusting the projection area of the projected image. The operation of FIG. 5 is triggered by the adjustment mode being set for the projector 400a.

まず、S601にて、CPU110が、RAM112に予め記憶された補助マーカーをRAM112から読み出し、読み出した補助マーカーをOSD合成部310に出力する。それにより、OSD合成部310において、補助マーカーを用いた合成が行われ、補助マーカーが配置された合成画像データが生成される。 First, in S601, the CPU 110 reads the auxiliary marker stored in advance in the RAM 112 from the RAM 112, and outputs the read auxiliary marker to the OSD synthesis unit 310. As a result, the OSD synthesis unit 310 performs synthesis using the auxiliary marker, and generates composite image data in which the auxiliary marker is arranged.

次に、S602にて、CPU110が、RAM112に予め記憶されたエッジブレンドパラメータである調整パラメータをRAM112から読み出し、読み出した調整パラメータを各種画像処理部320に設定する。例えば、読み出された調整パラメータが、各種画像処理部320が保持している変換データに書き込まれる。エッジブレンドパラメータは、エッジブレンド処理に使用するパラメータである。変換データは、エッジブレンドパラメータを用いて輝度値を変換するデータである。変換データとしては、LUT(ルックアップテーブル)、関数、等が使用される。 Next, in S602, the CPU 110 reads the adjustment parameter, which is an edge blend parameter stored in advance in the RAM 112, from the RAM 112, and sets the read adjustment parameter in the various image processing units 320. For example, the read adjustment parameters are written in the conversion data held by the various image processing units 320. The edge blend parameter is a parameter used for the edge blend process. The conversion data is data for converting the brightness value using the edge blend parameter. As the conversion data, a LUT (look-up table), a function, or the like is used.

そして、S603にて、CPU110が、各種画像処理部320にエッジブレンド処理の実行を指示する。それにより、調整パラメータを用いたエッジブレンド処理が、S601で生成された合成画像データに施される。それにより、投影用画像データが生成される。その後、S603で生成された投影用画像データに基づく投影画像が、投影画像500aとして投影される。 Then, in S603, the CPU 110 instructs various image processing units 320 to execute the edge blending process. As a result, edge blending processing using the adjustment parameters is applied to the composite image data generated in S601. As a result, image data for projection is generated. After that, the projected image based on the projection image data generated in S603 is projected as the projected image 500a.

次に、S604にて、CPU110が、調整モードの設定が解除されたか否かを判定する。調整モードは、例えば、プロジェクタ400aに対するユーザ操作によって解除される。ユーザ操作は、調整モードを解除するユーザ操作、調整モードから他の動作モードに動作モードを変更するユーザ操作、等である。調整モードが解除された場合には、S605に処理が進められ、調整モードが解除されなかった場合には、S601に処理が戻される。 Next, in S604, the CPU 110 determines whether or not the adjustment mode setting has been canceled. The adjustment mode is released, for example, by a user operation on the projector 400a. The user operation is a user operation for canceling the adjustment mode, a user operation for changing the operation mode from the adjustment mode to another operation mode, and the like. When the adjustment mode is canceled, the process proceeds to S605, and when the adjustment mode is not canceled, the process returns to S601.

なお、調整モードの解除方法は上記方法に限らない。例えば、調整モードが設定されてから所定時間(3分、5分、10分、等)後に、自動で調整モードが解除されてもよい。 The method of canceling the adjustment mode is not limited to the above method. For example, the adjustment mode may be automatically canceled after a predetermined time (3 minutes, 5 minutes, 10 minutes, etc.) after the adjustment mode is set.

なお、図5の動作が開始されるタイミングは上記タイミングに限らない。例えば、プロジェクタ400aの電源がオンされたことをトリガとして、図5の動作が開始されてもよい。そして、プロジェクタ400aの電源がオンされたタイミングから所定時間後に、S604からS605に処理が進められてもよい。 The timing at which the operation of FIG. 5 is started is not limited to the above timing. For example, the operation of FIG. 5 may be started with the power of the projector 400a being turned on as a trigger. Then, the process may proceed from S604 to S605 after a predetermined time from the timing when the power of the projector 400a is turned on.

S605では、CPU110が、補助マーカーを消去する指示をOSD合成部310に
出力する。それにより、OSD合成部310において、補助マーカーが配置されていない画像データ(入力画像データまたは合成画像データ)が得られる。
In S605, the CPU 110 outputs an instruction to erase the auxiliary marker to the OSD synthesis unit 310. As a result, in the OSD synthesis unit 310, image data (input image data or composite image data) in which the auxiliary marker is not arranged can be obtained.

次に、S606にて、CPU110が、CPU110が、RAM112に予め記憶されたエッジブレンドパラメータである通常パラメータをRAM112から読み出し、読み出した通常パラメータを各種画像処理部320に設定する。 Next, in S606, the CPU 110 reads a normal parameter, which is an edge blend parameter stored in advance in the RAM 112, from the RAM 112, and sets the read normal parameter in the various image processing units 320.

そして、S607にて、CPU110が、各種画像処理部320にエッジブレンド処理の実行を指示する。それにより、通常パラメータを用いたエッジブレンド処理が、S605で得られた画像データに施される。それにより、投影用画像データが生成される。詳細は後述するが、通常パラメータは調整パラメータとは異なる。このように、本実施形態では、補助マーカーが配置された画像データが取得された場合と、そうでない場合とで、エッジブレンドパラメータが切り替えられて使用される。その後、S607で生成された投影用画像データに基づく投影画像が、投影画像500aとして投影される。具体的には、S603で生成された投影用画像データに基づく投影画像から、S607で生成された投影用画像データに基づく投影画像に、投影画像500aが変更(更新)される。 Then, in S607, the CPU 110 instructs various image processing units 320 to execute the edge blending process. As a result, edge blending processing using normal parameters is applied to the image data obtained in S605. As a result, image data for projection is generated. Details will be described later, but normal parameters are different from adjustment parameters. As described above, in the present embodiment, the edge blend parameter is switched and used depending on whether the image data in which the auxiliary marker is arranged is acquired or not. After that, the projected image based on the projection image data generated in S607 is projected as the projected image 500a. Specifically, the projected image 500a is changed (updated) from the projected image based on the projection image data generated in S603 to the projected image based on the projection image data generated in S607.

<通常パラメータ>
通常パラメータの一例について説明する。本実施形態では、輝度が一様な入力画像データから図6(a)に示す投影画像500aが得られるように、通常パラメータとして、図6(b)のエッジブレンドパラメータが使用される。図6(a)において、符号510aは、ブレンド領域を示す。図6(a)では、入力画像データの画像サイズは、W(水平方向における画素数)×H(垂直方向における画素数)である。そして、右端から左側にEB画素分の領域がブレンド領域510aである。図6(b)において、縦軸はエッジブレンド処理の補正比率Rを示し、横軸は水平方向における画素位置(水平位置)xを示す。補正比率は、エッジブレンド処理前の輝度に対するエッジブレンド処理後の輝度の割合であり、エッジブレンド処理後の輝度に対応する値である。図6(b)の例では、ブレンド領域と非ブレンド領域の境界(x=W−EB)から右端(x=W)にかけて輝度が連続的に低下している。図6(b)の補正比率は、垂直方向における画素位置(垂直位置)yには依存しない。
<Normal parameters>
An example of normal parameters will be described. In the present embodiment, the edge blend parameter of FIG. 6 (b) is used as a normal parameter so that the projected image 500a shown in FIG. 6 (a) can be obtained from the input image data having uniform brightness. In FIG. 6A, reference numeral 510a indicates a blend region. In FIG. 6A, the image size of the input image data is W (the number of pixels in the horizontal direction) × H (the number of pixels in the vertical direction). The region for EB pixels is the blend region 510a from the right end to the left side. In FIG. 6B, the vertical axis represents the correction ratio R of the edge blending process, and the horizontal axis represents the pixel position (horizontal position) x in the horizontal direction. The correction ratio is the ratio of the brightness after the edge blending process to the brightness before the edge blending process, and is a value corresponding to the brightness after the edge blending process. In the example of FIG. 6B, the brightness continuously decreases from the boundary (x = W-EB) of the blended region and the non-blended region to the right end (x = W). The correction ratio in FIG. 6B does not depend on the pixel position (vertical position) y in the vertical direction.

本実施形態では、変換データとして、図6(c)に示すLUT520が用意されている。図6(c)は、図6(b)の通常パラメータが書き込まれた後の変換データを示す。LUT520は、水平方向9個×垂直方向10個の計90個のデータブロックを有する。90個のデータブロックは、ブレンド領域510aを構成する水平方向9個×垂直方向10個の計90個の分割領域にそれぞれ対応する。各データブロックには、エッジブレンドパラメータが示す補正比率Rを離散化した値が書き込まれる。図6(c)において、各データブロック内に記載されている数値は、補正比率Rである。なお、LUTのデータブロックの数は特に限定されない。データブロックの数が多いほど、より連続的な補正比率の分布を表現することができ、より高精度なエッジブレンド処理を実現することができる。 In the present embodiment, the LUT 520 shown in FIG. 6C is prepared as the conversion data. FIG. 6 (c) shows the conversion data after the normal parameters of FIG. 6 (b) have been written. The LUT520 has a total of 90 data blocks, 9 in the horizontal direction and 10 in the vertical direction. The 90 data blocks correspond to a total of 90 divided regions of 9 in the horizontal direction and 10 in the vertical direction constituting the blend region 510a. A discretized value of the correction ratio R indicated by the edge blend parameter is written in each data block. In FIG. 6C, the numerical value described in each data block is the correction ratio R. The number of LUT data blocks is not particularly limited. As the number of data blocks increases, a more continuous distribution of correction ratios can be expressed, and more accurate edge blending processing can be realized.

なお、通常パラメータは、図6(b)に示すパラメータに限らない。例えば、通常パラメータとして、ブレンド領域内の各画素の輝度値を同じ低減量で低減するパラメータが使用されてもよい。 The normal parameters are not limited to the parameters shown in FIG. 6B. For example, as a normal parameter, a parameter that reduces the brightness value of each pixel in the blend region by the same reduction amount may be used.

<エッジブレンド処理>
エッジブレンド処理の一例について説明する。ここでは、図6(b)の通常パラメータを用いた場合の例を説明するが、他のエッジブレンドパラメータを用いる場合も以下で述べる処理と同様の処理が行われる。
<Edge blend processing>
An example of edge blending processing will be described. Here, an example in which the normal parameter shown in FIG. 6B is used will be described, but when other edge blend parameters are used, the same processing as described below is performed.

図7(a)は、図6(a)と同じものである。図7(b)は、ブレンド領域510aの各画素の入力輝度値(入力画素値)を示す。入力輝度値は、エッジブレンド処理前の輝度値である。図7(b)の例では、ブレンド領域510aは、水平方向N個×垂直方向M個の画素を有する。図7(b)において、各画素に記載されている数字は入力輝度値である。図7(c)は、LUT520を示す。図7(c)は、図6(b)の通常パラメータが書き込まれた後のLUT520を示す。図7(c)の例では、LUT520は、水平方向n個×垂直方向m個のデータブロックを有する。なお、Nとnは必ずしも一致せず、Mとmも必ずしも一致しない。 FIG. 7A is the same as FIG. 6A. FIG. 7B shows an input luminance value (input pixel value) of each pixel in the blend region 510a. The input luminance value is the luminance value before the edge blending process. In the example of FIG. 7B, the blend region 510a has N pixels in the horizontal direction and M pixels in the vertical direction. In FIG. 7B, the number written on each pixel is the input luminance value. FIG. 7 (c) shows the LUT 520. FIG. 7 (c) shows the LUT 520 after the normal parameters of FIG. 6 (b) have been written. In the example of FIG. 7C, the LUT 520 has n data blocks in the horizontal direction × m data blocks in the vertical direction. Note that N and n do not always match, and M and m do not necessarily match.

図8を用いて、エッジブレンド処理について説明する。図8は、エッジブレンド処理の流れの一例を示すフローチャートである。図8は、1つの画素(処理対象画素)に対する処理を示す。エッジブレンド処理では、ブレンド領域内の各画素について、図8の処理が行われる。以下では、図7(b)の画素511が処理対象画素である場合の例を説明する。 The edge blending process will be described with reference to FIG. FIG. 8 is a flowchart showing an example of the flow of the edge blending process. FIG. 8 shows processing for one pixel (processing target pixel). In the edge blending process, the processing of FIG. 8 is performed for each pixel in the blending region. Hereinafter, an example in which the pixel 511 of FIG. 7B is a processing target pixel will be described.

まず、S610にて、各種画像処理部320が、エッジブレンドパラメータが格納されているLUT520から、処理対象画素511の位置に基づいて補正比率を抽出する。本実施形態では、処理対象画素511の位置から所定範囲内に分割領域が存在するデータブロックの補正比率が抽出される。所定範囲内に分割領域の全部が含まれるデータブロックの補正比率のみが抽出されてもよいし、所定範囲内に分割領域の少なくとも一部が含まれるデータブロックの補正比率が抽出されてもよい。所定範囲内に分割領域の中心位置が含まれるデータブロックの補正比率が抽出されてもよい。ここでは、補正比率530a,530b,530c,530dが抽出されたとする。各データブロックに対応する分割領域は、データブロックの数n,mとブレンド領域510aのサイズH,EBとから算出することができる。なお、補正比率の抽出方法はこれに限らない。例えば、処理対象画素511の位置を含む分割領域に対応する補正比率が抽出されてもよい。 First, in S610, various image processing units 320 extract a correction ratio from the LUT 520 in which the edge blend parameter is stored, based on the position of the processing target pixel 511. In the present embodiment, the correction ratio of the data block in which the divided region exists within a predetermined range is extracted from the position of the processing target pixel 511. Only the correction ratio of the data block in which the entire divided area is included in the predetermined range may be extracted, or the correction ratio of the data block in which at least a part of the divided area is included in the predetermined range may be extracted. The correction ratio of the data block whose center position of the divided region is included in the predetermined range may be extracted. Here, it is assumed that the correction ratios 530a, 530b, 530c, and 530d are extracted. The division area corresponding to each data block can be calculated from the number n and m of the data blocks and the sizes H and EB of the blend area 510a. The method for extracting the correction ratio is not limited to this. For example, the correction ratio corresponding to the divided region including the position of the processing target pixel 511 may be extracted.

次に、S611にて、各種画像処理部320が、エッジブレンド係数を算出する。本実施形態では、処理対象画素511の位置と、S610で補正比率の抽出対象とされた複数の分割領域の位置(例えば中心位置)と、に基づく線形補間が行われる。それにより、S610で抽出された複数の補正比率から、処理対象画素511の位置に対応する補正比率が、エッジブレンド係数として算出される。ここでは、補正比率530a,530b,530c,530dからエッジブレンド係数が算出される。なお、線形補間でなく、非線形補間が行われてもよい。上記補間は、「処理対象画素511の位置と分割領域の位置との間の距離に応じた重みで複数の補正比率を合成する重み付け合成」と言うこともできる。この場合、重みとしては、距離が短いほど大きい重みが使用される。S610で補正比率が1つだけ抽出された場合には、抽出された補正比率がエッジブレンド係数として設定される。 Next, in S611, various image processing units 320 calculate the edge blend coefficient. In the present embodiment, linear interpolation is performed based on the position of the processing target pixel 511 and the position (for example, the center position) of the plurality of division regions for which the correction ratio is extracted in S610. As a result, the correction ratio corresponding to the position of the processing target pixel 511 is calculated as the edge blend coefficient from the plurality of correction ratios extracted in S610. Here, the edge blend coefficient is calculated from the correction ratios 530a, 530b, 530c, and 530d. In addition, nonlinear interpolation may be performed instead of linear interpolation. The above interpolation can also be referred to as "weighting synthesis in which a plurality of correction ratios are combined with weights according to the distance between the position of the processing target pixel 511 and the position of the division region". In this case, as the weight, the shorter the distance, the larger the weight is used. When only one correction ratio is extracted in S610, the extracted correction ratio is set as the edge blend coefficient.

そして、S612にて、各種画像処理部320が、処理対象画素511の輝度値(画素値)に、S611で算出したエッジブレンド係数を乗算する。その結果、図7(d)に示すように、処理対象画素511の輝度値が255から243に低減される。図7(d)は、ブレンド領域510aの各画素の出力輝度値(出力画素値)を示す。出力輝度値は、エッジブレンド処理後の輝度値である。 Then, in S612, various image processing units 320 multiply the brightness value (pixel value) of the processing target pixel 511 by the edge blend coefficient calculated in S611. As a result, as shown in FIG. 7D, the brightness value of the processing target pixel 511 is reduced from 255 to 243. FIG. 7D shows the output luminance value (output pixel value) of each pixel in the blend region 510a. The output luminance value is the luminance value after the edge blending process.

以上の処理をブレンド領域510a内の全ての画素について行うことにより、図7(d)の処理結果が得られる。 By performing the above processing for all the pixels in the blend region 510a, the processing result of FIG. 7D can be obtained.

なお、エッジブレンド処理の方法は、上記情報に限らない。ブレンド領域と非ブレンド領域の間の合成輝度の段差を低減することができれば、どのような方法でブレンド領域の
輝度が低減されてもよい。
The method of edge blending processing is not limited to the above information. The brightness of the blended region may be reduced by any method as long as the step of the combined brightness between the blended region and the non-blended region can be reduced.

<調整パラメータ>
調整パラメータの一例について説明する。本実施形態では、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図9(a)に示す投影画像500aが得られるように、調整パラメータとして、図9(b),9(c)に示すようなエッジブレンドパラメータが使用される。図9(a)の例では、ブレンド領域に含まれている補助マーカーの幅は、WM画素である。図9(b)は、図9(a)の垂直位置901についての調整パラメータを示し、図9(c)は、図9(a)の垂直位置902についての調整パラメータを示す。このように、本実施形態では、調整パラメータの補正比率は、垂直位置yには依存する。
<Adjustment parameters>
An example of the adjustment parameter will be described. In the present embodiment, the adjustment parameters are shown in FIGS. 9 (b) and 9 (a) so that the projected image 500a shown in FIG. 9 (a) can be obtained from the composite image data in which the auxiliary marker is superimposed on the input image having uniform brightness. Edge blend parameters as shown in c) are used. In the example of FIG. 9A, the width of the auxiliary marker included in the blend region is WM pixels. 9 (b) shows the adjustment parameters for the vertical position 901 of FIG. 9 (a), and FIG. 9 (c) shows the adjustment parameters for the vertical position 902 of FIG. 9 (a). As described above, in the present embodiment, the correction ratio of the adjustment parameter depends on the vertical position y.

図9(b)では、水平位置x=W−WMから水平位置x=Wまでの範囲に補助マーカーが存在するため、その範囲(マーカー範囲)の補正比率として、図6(b)よりも大きい値が設定されている。具体的には、マーカー範囲の補正比率として、輝度を低減しない補正比率が設定されている。そして、図9(b)では、マーカー範囲以外の範囲には補助マーカーが存在しないため、マーカー範囲以外の範囲の補正比率として、図6(b)と同じ値が設定されている。垂直位置902には補助マーカーが存在しないため、垂直位置902についての調整パラメータ(図9(c))として、図6(b)と同じエッジブレンドパラメータが使用される。 In FIG. 9B, since the auxiliary marker exists in the range from the horizontal position x = W-WM to the horizontal position x = W, the correction ratio of the range (marker range) is larger than that in FIG. 6B. The value is set. Specifically, as the correction ratio of the marker range, a correction ratio that does not reduce the brightness is set. Since there is no auxiliary marker in the range other than the marker range in FIG. 9B, the same value as in FIG. 6B is set as the correction ratio in the range other than the marker range. Since there is no auxiliary marker at the vertical position 902, the same edge blend parameter as in FIG. 6 (b) is used as the adjustment parameter (FIG. 9 (c)) for the vertical position 902.

図9(d)は、図9(b),9(c)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図9(d)のドットで塗りつぶされたデータブロック(右上と右下)には、分割領域に補助マーカーが存在するため、図6(c)よりも大きい補正比率が書き込まれている。具体的には、輝度を低減しない補正比率「100」が書き込まれている。図9(d)のLUT520を用いることにより、ブレンド領域のうち補助マーカーが存在する領域の低減量(エッジブレンド処理による低減量)を、図6(b)の通常パラメータを用いた場合よりも小さい値に制御することができる。具体的には、ブレンド領域のうち補助マーカーが存在する領域の低減量を、ゼロ(0)に制御することができる。厳密には、ブレンド領域のうち補助マーカーが存在する領域とその周辺の領域の低減量を、ゼロ(0)に制御することができる。そして、残りの領域(ブレンド領域のうち補助マーカーが存在しない領域)の低減量を、図6(b)の通常パラメータを用いた場合と同じ値に制御することができる。 FIG. 9 (d) shows the LUT 520 (conversion data) after the adjustment parameters of FIGS. 9 (b) and 9 (c) are written. In the data block (upper right and lower right) filled with dots in FIG. 9 (d), an auxiliary marker exists in the divided area, so that a correction ratio larger than that in FIG. 6 (c) is written. Specifically, a correction ratio "100" that does not reduce the brightness is written. By using the LUT520 of FIG. 9D, the reduction amount (reduction amount by the edge blending process) of the region where the auxiliary marker exists in the blend region is smaller than that when the normal parameter of FIG. 6B is used. It can be controlled to a value. Specifically, the reduction amount of the region in which the auxiliary marker exists in the blend region can be controlled to zero (0). Strictly speaking, the amount of reduction in the region where the auxiliary marker exists and the region around the blend region can be controlled to zero (0). Then, the reduction amount of the remaining region (the region of the blend region in which the auxiliary marker does not exist) can be controlled to the same value as when the normal parameter of FIG. 6B is used.

なお、調整パラメータを用いたエッジブレンド処理は上記処理に限らない。例えば、ブレンド領域のうち補助マーカーが存在する領域の低減量は0より大きくてもよい。また、ブレンド領域全体の低減量が、通常パラメータを用いた場合よりも小さい値に制御されてもよい。補助マーカーの視認性の低下を抑制できれば、ブレンド領域の低減量はどのように制御されてもよい。 The edge blending process using the adjustment parameters is not limited to the above processing. For example, the amount of reduction in the region where the auxiliary marker is present in the blend region may be larger than 0. Further, the reduction amount of the entire blend region may be controlled to a value smaller than that when the normal parameter is used. The amount of reduction in the blend region may be controlled in any way as long as the decrease in visibility of the auxiliary marker can be suppressed.

具体的には、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図10(a)に示す投影画像500aが得られるように、調整パラメータとして、図10(b)に示すようなエッジブレンドパラメータが使用されてもよい。ここでは、調整パラメータの補正比率は、垂直位置yに依存しない。 Specifically, as shown in FIG. 10 (b), the adjustment parameters are such that the projected image 500a shown in FIG. 10 (a) can be obtained from the composite image data in which the auxiliary marker is superimposed on the input image having uniform brightness. Edge blend parameters may be used. Here, the correction ratio of the adjustment parameter does not depend on the vertical position y.

図10(b)では、ブレンド領域全体に対して、輝度を低減しない補正比率が設定されている。図10(c)は、図10(b)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図10(c)では、全てのデータブロックに対して、輝度を低減しない補正比率「100」が書き込まれている。図10(c)のLUT520を用いることにより、ブレンド領域全体の低減量をゼロ(0)に制御することができる。即ち、ブ
レンド領域の全ての画素について、エッジブレンド処理後の画素値として、エッジブレンド処理前の画素値と同じ値を得ることができる。その結果、補助マーカーの視認性の低下を抑制することができる。
In FIG. 10B, a correction ratio that does not reduce the brightness is set for the entire blend region. FIG. 10 (c) shows the LUT 520 (conversion data) after the adjustment parameters of FIG. 10 (b) have been written. In FIG. 10C, a correction ratio “100” that does not reduce the brightness is written for all the data blocks. By using the LUT520 of FIG. 10C, the reduction amount of the entire blend region can be controlled to zero (0). That is, for all the pixels in the blend region, the same value as the pixel value before the edge blending process can be obtained as the pixel value after the edge blending process. As a result, it is possible to suppress a decrease in the visibility of the auxiliary marker.

また、輝度が一様な入力画像に補助マーカーを重ねた合成画像データから図11(a)に示す投影画像500aが得られるように、調整パラメータとして、図11(b)に示すようなエッジブレンドパラメータが使用されてもよい。ここでは、調整パラメータの補正比率は、垂直位置yに依存しない。 Further, as an adjustment parameter, an edge blend as shown in FIG. 11B is used so that the projected image 500a shown in FIG. 11A can be obtained from the composite image data in which the auxiliary marker is superimposed on the input image having uniform brightness. Parameters may be used. Here, the correction ratio of the adjustment parameter does not depend on the vertical position y.

図11(b)では、ブレンド領域と非ブレンド領域の境界(x=W−EB)から右端(x=W)にかけて補正比率が連続的に低下している。しかし、図11(b)では、右端(x=W)の補正比率として、図6(b)よりも大きい値が設定されている。図11(c)は、図11(b)の調整パラメータが書き込まれた後のLUT520(変換データ)を示す。図11(c)のLUT520を用いることにより、マーカー領域の輝度の低下を抑制することができ、補助マーカーの視認性の低下を抑制することができる。 In FIG. 11B, the correction ratio continuously decreases from the boundary (x = W-EB) between the blended region and the non-blended region to the right end (x = W). However, in FIG. 11B, a value larger than that in FIG. 6B is set as the correction ratio at the right end (x = W). FIG. 11C shows the LUT520 (conversion data) after the adjustment parameters of FIG. 11B have been written. By using the LUT520 of FIG. 11C, it is possible to suppress a decrease in the brightness of the marker region and suppress a decrease in the visibility of the auxiliary marker.

以上に述べたように、本実施形態によれば、補助マーカーが配置された画像データが取得された場合に、そうでない場合に比べ小さい値に、ブレンド領域の輝度のエッジブレンド処理による低減量が制御される。それにより、エッジブレンド処理による補助マーカーの視認性の低下を抑制することができる。その結果、ユーザは、投影領域を容易に調整することができる。 As described above, according to the present embodiment, when the image data in which the auxiliary marker is arranged is acquired, the amount of reduction in the brightness of the blended region by the edge blending process is reduced to a smaller value than in the case where the auxiliary marker is not arranged. Be controlled. As a result, it is possible to suppress a decrease in visibility of the auxiliary marker due to the edge blending process. As a result, the user can easily adjust the projection area.

なお、本実施形態では、補助マーカーが配置された画像データが、画像データの合成によって取得(生成)される例を説明したが、これに限らない。画像データの合成は、液晶プロジェクタとは異なる外部装置で行われてもよい。そして、液晶プロジェクタが、補助マーカーが配置された画像データを外部装置から取得してもよい。液晶プロジェクタに入力された画像に補助マーカーが配置されているか否かの判定方法は特に限定されない。例えば、外部装置から、補助マーカーが配置されているか否かを示すメタデータを含む画像データが取得されてもよい。その場合には、メタデータを用いて補助マーカーが配置されているか否かを判定することができる。 In the present embodiment, an example in which the image data in which the auxiliary marker is arranged is acquired (generated) by synthesizing the image data has been described, but the present invention is not limited to this. The image data may be combined by an external device different from the liquid crystal projector. Then, the liquid crystal projector may acquire the image data in which the auxiliary marker is arranged from the external device. The method for determining whether or not the auxiliary marker is arranged on the image input to the liquid crystal projector is not particularly limited. For example, image data including metadata indicating whether or not an auxiliary marker is arranged may be acquired from an external device. In that case, the metadata can be used to determine whether or not the auxiliary marker is placed.

なお、本実施形態では、補助マーカーが配置された画像データが取得された場合と、そうでない場合とで、エッジブレンドパラメータを切り替えたが、低減量の制御方法はこれに限らない。例えば、補助マーカーが配置された画像データが取得された場合に、エッジブレンド処理が省略されてもよい。 In the present embodiment, the edge blend parameter is switched between the case where the image data in which the auxiliary marker is arranged is acquired and the case where the image data is not acquired, but the control method of the reduction amount is not limited to this. For example, the edge blending process may be omitted when the image data in which the auxiliary marker is arranged is acquired.

<その他の実施形態>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。プロセッサーとしては、例えば、CPUやMPUを用いることができる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体が本発明を構成することになる。
プログラムコードを記憶する記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、等を用いることができる。
また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって
前述した実施形態の機能が実現される構成も、本発明に含まれる。
さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施形態の機能が実現される構成も、本発明に含まれる。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が処理の一部又は全部を行う。
<Other Embodiments>
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. As the processor, for example, a CPU or an MPU can be used. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.
As the storage medium for storing the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.
Further, based on the instruction of the above-mentioned program code, the OS (basic system or operating system) running on the device performs a part or all of the processing, and the processing realizes the function of the above-described embodiment. The configuration is also included in the present invention.
Further, the program code read from the storage medium is written in the memory provided in the function expansion board inserted in the device or the function expansion unit connected to the computer, and the function of the above-described embodiment is realized. , Included in the present invention. At this time, based on the instruction of the program code, the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the processing.

100:液晶プロジェクタ 140:画像処理部 171:投影光学系
310:OSD合成部 320:各種画像処理部
100: LCD projector 140: Image processing unit 171: Projection optical system 310: OSD compositing unit 320: Various image processing units

Claims (6)

第1投影画像を投影する表示装置であって、
画像データを取得する取得手段と、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得手段で取得された画像データに施して投影用画像データを生成する処理手段と、
前記投影用画像データに基づいて前記第1投影画像を投影する投影手段と、
を有し、
前記処理手段は、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得手段で取得された画像データに合成することが可能であり、
前記マーカーのデータを前記取得手段で取得された画像データに合成した場合に、前記マーカーのデータを前記取得手段で取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする表示装置。
A display device that projects the first projected image.
Acquisition method for acquiring image data and
The image data acquired by the acquisition means is subjected to a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image, and projected. Processing means to generate image data for
A projection means for projecting the first projected image based on the projection image data, and
Have,
The processing means
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired by the acquisition means.
When the marker data is combined with the image data acquired by the acquisition means, the value of the blend region is set to a smaller value than when the marker data is not combined with the image data acquired by the acquisition means. A display device characterized in that the amount of reduction of the brightness of the region in which the marker is synthesized by the brightness reduction processing is set.
前記処理手段は、前記マーカーのデータを前記取得手段で取得された画像データに合成した場合と、前記マーカーのデータを前記取得手段で取得された画像データに合成しなかった場合とで、前記ブレンド領域のうち前記マーカーを合成しない領域の輝度の前記輝度低減処理による低減量を変えない
ことを特徴とする請求項1に記載の表示装置。
The processing means blends the case where the marker data is combined with the image data acquired by the acquisition means and the case where the marker data is not combined with the image data acquired by the acquisition means. The display device according to claim 1, wherein the amount of reduction of the brightness of the region in which the marker is not synthesized by the brightness reduction processing is not changed.
前記処理手段は、前記マーカーのデータを前記取得手段で取得された画像データに合成した場合と、前記マーカーのデータを前記取得手段で取得された画像データに合成しなかった場合とで、前記輝度低減処理に使用するパラメータを切り替える
ことを特徴とする請求項1または2に記載の表示装置。
The processing means synthesizes the marker data with the image data acquired by the acquisition means, and does not combine the marker data with the image data acquired by the acquisition means. The display device according to claim 1 or 2, wherein the parameters used for the reduction process are switched.
前記表示装置は、投影画像の投影領域の調整を行う際に設定すべき動作モードである調
整モードを含む複数の動作モードのいずれかを設定可能であり、
前記処理手段は、前記調整モードが設定されている場合に、前記マーカーのデータを前記取得手段で取得された画像データに合成する
ことを特徴とする請求項1〜3のいずれか1項に記載の表示装置。
The display device can set any one of a plurality of operation modes including an adjustment mode, which is an operation mode to be set when adjusting the projection area of the projected image.
The processing means according to any one of claims 1 to 3, wherein the processing means synthesizes the data of the marker with the image data acquired by the acquisition means when the adjustment mode is set. Display device.
第1投影画像を投影する表示装置の制御方法であって、
画像データを取得する取得ステップと、
前記第1投影画像の領域のうち他の表示装置によって投影される第2投影画像に重なる領域であるブレンド領域の輝度を低減する輝度低減処理を前記取得ステップで取得された画像データに施して投影用画像データを生成する処理ステップと、
前記投影用画像データに基づいて前記第1投影画像を投影する投影ステップと、
を有し、
前記処理ステップでは、
前記輝度低減処理の前に、前記ブレンド領域を示すグラフィック画像であるマーカーのデータを前記取得ステップで取得された画像データに合成することが可能であり、
前記マーカーのデータを前記取得ステップで取得された画像データに合成した場合に、前記マーカーのデータを前記取得ステップで取得された画像データに合成しなかった場合に比べ小さい値に、前記ブレンド領域のうち前記マーカーを合成する領域の輝度の前記輝度低減処理による低減量を設定する
ことを特徴とする表示装置の制御方法。
This is a control method for a display device that projects a first projected image.
The acquisition step to acquire the image data and
The image data acquired in the acquisition step is projected by applying a brightness reduction process for reducing the brightness of the blend region, which is an region overlapping the second projected image projected by another display device in the region of the first projected image. Processing steps to generate image data for
A projection step of projecting the first projected image based on the projection image data,
Have,
In the processing step
Prior to the luminance reduction process, it is possible to combine the marker data, which is a graphic image showing the blend region, with the image data acquired in the acquisition step.
When the marker data is combined with the image data acquired in the acquisition step, the value of the blend region is set to a smaller value than when the marker data is not combined with the image data acquired in the acquisition step. A method for controlling a display device, which comprises setting a reduction amount of the brightness of a region in which the marker is synthesized by the brightness reduction processing.
請求項に記載の表示装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the display device control method according to claim 5 .
JP2015041626A 2015-03-03 2015-03-03 Display device Active JP6794092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015041626A JP6794092B2 (en) 2015-03-03 2015-03-03 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041626A JP6794092B2 (en) 2015-03-03 2015-03-03 Display device

Publications (3)

Publication Number Publication Date
JP2016163228A JP2016163228A (en) 2016-09-05
JP2016163228A5 JP2016163228A5 (en) 2018-04-12
JP6794092B2 true JP6794092B2 (en) 2020-12-02

Family

ID=56847420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041626A Active JP6794092B2 (en) 2015-03-03 2015-03-03 Display device

Country Status (1)

Country Link
JP (1) JP6794092B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019035939A (en) * 2017-08-10 2019-03-07 キヤノン株式会社 Projector and control method thereof
JP6926948B2 (en) * 2017-10-27 2021-08-25 セイコーエプソン株式会社 Projector, image projection system, and projector control method
JP2021039203A (en) * 2019-09-02 2021-03-11 キヤノン株式会社 Image processing device and image processing method
TW202332243A (en) * 2021-12-10 2023-08-01 日商索尼集團公司 Information processing method, information processing system, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4574819B2 (en) * 2000-08-30 2010-11-04 パナソニック株式会社 Video projector device
JP2013074475A (en) * 2011-09-28 2013-04-22 Mitsubishi Electric Corp Projection type display device
JP6164820B2 (en) * 2012-10-11 2017-07-19 キヤノン株式会社 Projector, control method therefor, and image projection system
JP2015026992A (en) * 2013-07-26 2015-02-05 株式会社リコー Projection system, image processing device, projection method, and program

Also Published As

Publication number Publication date
JP2016163228A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6164820B2 (en) Projector, control method therefor, and image projection system
JP2016065995A (en) Projection type image display device and method of controlling the same
US20170244941A1 (en) Projector and control method thereof
JP6794092B2 (en) Display device
US9568812B2 (en) Image projection apparatus and control method thereof
JP2013083755A (en) Display device, method of controlling display device, and program
JP2014135677A (en) Projection apparatus and method of controlling the same
JP6635748B2 (en) Display device, display device control method, and program
JP2015114443A (en) Display device and control method of display device
JP2017129704A (en) Display device, projector, and method for controlling display device
JP2019134206A (en) Projection device and control method therefor
JP6345316B2 (en) Projector, control method therefor, program, and storage medium
JP2020191589A (en) Projection device, projection method, program, and storage medium
US20180376031A1 (en) Projection apparatus that improves dynamic range of luminance of printed material, control method therefor, and storage medium
JP6700955B2 (en) Projection apparatus and projection method
JP2014142466A (en) Projection device and control method of the same, program, and storage medium
JP2020072357A (en) Projection apparatus and projection method
JP2019035939A (en) Projector and control method thereof
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2019047355A (en) projector
JP2018180105A (en) Projection device and image projection method
JP2019114887A (en) Projection type image display device and control method thereof
JP6562653B2 (en) Projection device
JP7309352B2 (en) Electronic equipment and its control method
JP2014036394A (en) Distortion correction method of projection image and projection display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180302

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191127

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191205

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191210

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191220

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200107

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200623

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200901

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200908

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201013

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R151 Written notification of patent or utility model registration

Ref document number: 6794092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151