JP2012098559A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2012098559A
JP2012098559A JP2010246748A JP2010246748A JP2012098559A JP 2012098559 A JP2012098559 A JP 2012098559A JP 2010246748 A JP2010246748 A JP 2010246748A JP 2010246748 A JP2010246748 A JP 2010246748A JP 2012098559 A JP2012098559 A JP 2012098559A
Authority
JP
Japan
Prior art keywords
pixel
region
apl
value
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010246748A
Other languages
Japanese (ja)
Inventor
Kimitaka Arai
公崇 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010246748A priority Critical patent/JP2012098559A/en
Publication of JP2012098559A publication Critical patent/JP2012098559A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Receiver Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that employs a technology for preventing luminance suppression and increase in unnecessary power consumption in a display device, and reducing difference in brightness between display devices in a multi-display system.SOLUTION: A coefficient for brightness value correction that corresponds to APL in a second area and an average brightness value of a boundary pixel string, is multiplied by an updated color component value of respective pixels that constitute the boundary pixel string. ΔS=(APL2×n-Ave×p)/(n-p) is subtracted from a color component value of respective pixels other than those constituting the boundary pixel string in the second area to update the color component value of respective pixels.

Description

本発明は、画像表示技術に関するものである。   The present invention relates to an image display technique.

近年、PDP等の薄型テレビの大画面化が進んでいる。家庭用テレビでは30〜70インチ前後の商品が流通している。特に、大画面化に適したPDPでは、100インチ以上の大画面製品が商品化されており、商用ディスプレイとして用いられている。   In recent years, a large screen of a flat-screen television such as a PDP has been increased. About 30 to 70 inches of products are distributed on home TV. In particular, in a PDP suitable for a large screen, a large screen product of 100 inches or more is commercialized and used as a commercial display.

また、別の技術として、グラフィックスカードのマルチ出力化がある。この技術は、マルチディスプレイ、マルチモニタとも呼ばれ、1台のコンピュータに2台以上のディスプレイを接続し、あたかも1台の大きなディスプレイであるかのように表示させることが可能である。最近では1枚のグラフィックスカードで4台のディスプレイを表示させることができるものも登場している。このような大画面ディスプレイやグラフィックスカードを利用したマルチディスプレイ化では、200インチを超える大画面を作ることも可能である。   Another technique is the multi-output of a graphics card. This technique is also called multi-display or multi-monitor, and two or more displays can be connected to one computer and displayed as if it were one large display. Recently, there are some graphics cards that can display four displays. In such a multi-display using a large screen display or a graphics card, it is possible to make a large screen exceeding 200 inches.

ディスプレイは大画面であることに起因して消費電力が大きくなるが、前述のPDPや近年開発が進むFEDといった自発光型大画面ディスプレイでは、画像に応じても消費電力が大きく変化する。そこで通常、これらのディスプレイでは、消費電力を押さえる目的で、表示されるAveragePixelLevel(以後APL:画素平均情報)に応じて電圧の最大値を制御するローディング機能を備えている。一方、マルチディスプレイにおいて入力画像を分割して表示する場合、各ディスプレイに割り当てられるAPLが異なってしまう。そのため、同じ画素値であっても隣接ディスプレイ間で明るさが異なるという問題があった。   The power consumption of the display increases due to the large screen. However, the power consumption of the self-luminous large screen display such as the aforementioned PDP or the FED that has been developed in recent years varies greatly depending on the image. Therefore, these displays usually have a loading function for controlling the maximum value of the voltage in accordance with the displayed Average Pixel Level (hereinafter referred to as APL: pixel average information) for the purpose of reducing power consumption. On the other hand, when the input image is divided and displayed on the multi-display, the APL assigned to each display is different. For this reason, there is a problem that the brightness is different between adjacent displays even with the same pixel value.

上記問題を解決する方法として、特許文献1にあるように、各ディスプレイのAPLをディスプレイから送信し、全ディスプレイのAPLを比較した後、特定のAPLを全PDPに再設定する方法がある。   As a method for solving the above problem, as disclosed in Patent Document 1, there is a method in which the APL of each display is transmitted from the display, the APLs of all the displays are compared, and then a specific APL is reset to all the PDPs.

また、別の方法として特許文献2にあるように、分割した画像情報と全ディスプレイに共通なAPL情報とを同時に伝送し、全ディスプレイのAPLを統一するする方法がある。   As another method, as disclosed in Patent Document 2, there is a method in which divided image information and APL information common to all displays are transmitted simultaneously to unify the APL of all displays.

また、別の方法として、特許文献3にあるように、分割前後のAPLを算出し、入力画像に応じて何れかのAPLと分割画像とを全PDPに伝送し、全ディスプレイのAPLを統一する方法がある。これらの方法によれば、隣接ディスプレイ間の明るさを一致させることが可能である。   As another method, as disclosed in Patent Document 3, the APL before and after the division is calculated, any APL and the divided image are transmitted to all PDPs according to the input image, and the APL of all displays is unified. There is a way. According to these methods, it is possible to match the brightness between adjacent displays.

特開2002-006804号公報JP 2002-006804 A 特開2003-015623号公報JP 2003-015623 A 特開2004-226513号公報JP 2004-226513 A

しかしながら、前述の特許文献1乃至3の何れにおいても、実際に表示される画像情報のAPLと異なるAPLが設定されることがある。例えば、画像のAPLよりも高くAPLが設定された場合、ディスプレイのピーク輝度が低く制限され、ディスプレイの輝度を抑制してしまう。また、画像のAPLよりも低くAPLが設定された場合、ディスプレイのピーク輝度が高くなり、ディスプレイの消費電力が増大することが課題となる。   However, in any of the aforementioned Patent Documents 1 to 3, an APL different from the APL of the image information that is actually displayed may be set. For example, when APL is set higher than the APL of the image, the peak luminance of the display is limited to be low, and the luminance of the display is suppressed. Further, when APL is set lower than the APL of the image, the peak luminance of the display becomes high, and the power consumption of the display increases.

また、特許文献1の場合は、パネル側からAPLを送信し返さなければならないため、パネルのコストが増加するという課題がある。特許文献2、3においても画像情報以外の情報伝送を行うため、システムのコストが増加するという課題がある。   In the case of Patent Document 1, since the APL must be transmitted back from the panel side, there is a problem that the cost of the panel increases. In Patent Documents 2 and 3, since information other than image information is transmitted, there is a problem that the cost of the system increases.

本発明は以上の問題に鑑みてなされたものであり、ディスプレイ装置における輝度抑制や、余計な消費電力の増大を回避し、マルチディスプレイでのディスプレイ装置間の明るさ相違を軽減する為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and a technique for reducing brightness differences among display devices in a multi-display while avoiding luminance suppression and unnecessary power consumption increase in the display device. The purpose is to provide.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、1枚の画像を一方の表示装置に表示するための第1の領域と、他方の表示装置に表示するための第2の領域と、に分割する分割手段と、前記第1の領域と前記第2の領域との境界に隣接する前記第1の領域側の画素と前記第2の領域側の画素との画素対毎に輝度値の差分を求め、求めた差分が閾値よりも小さい画素対が連続して並んでいる画素対列を特定し、特定した画素対列において前記第2の領域内の画素群を、境界画素列として特定する手段と、前記第1の領域内の色成分値を用いてAPLを求めると共に、前記第2の領域内の色成分値を用いてAPLを求める手段と、前記第2の領域内のAPLを分母、前記第1の領域内のAPLを分子とする分数値を計算し、計算した分数値を前記境界画素列を構成する各画素の色成分値に乗じることで該各画素の色成分値を更新する手段と、それぞれ異なるAPL毎及びそれぞれ異なる輝度値毎に予め設定された輝度値補正用係数のうち、前記第2の領域内のAPL及び前記境界画素列の平均輝度値に対応する輝度値補正用係数を特定し、特定した輝度値補正用係数を前記境界画素列を構成する各画素の前記更新された色成分値に乗じる更新手段と、前記第2の領域内のAPLをAPL2、前記第2の領域内の総画素数をn、前記境界画素列を構成する画素の数をp、前記境界画素列を構成する各画素の前記更新手段で更新した色成分値から計算される平均輝度値をAve、とすると、ΔS=(APL2×n−Ave×p)/(n−p)を計算する手段と、前記第2の領域において前記境界画素列以外の各画素の色成分値からΔSを減算することで該各画素の色成分値を更新する手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, a dividing unit that divides the image into a first area for displaying one image on one display device and a second area for displaying on one display device, the first area, Pixels for which a difference in luminance value is obtained for each pixel pair between the pixel on the first region side and the pixel on the second region side adjacent to the boundary with the second region, and the obtained difference is smaller than a threshold value Means for specifying a pixel pair row in which pairs are continuously arranged, specifying a pixel group in the second region as a boundary pixel row in the specified pixel pair row, and color components in the first region APL is obtained using a value, APL is obtained using a color component value in the second region, APL in the second region is a denominator, and APL in the first region is a numerator The calculated fractional value is used as the color component value of each pixel constituting the boundary pixel row. And updating the color component value of each pixel, and among the luminance value correction coefficients preset for each different APL and each different luminance value, the APL in the second region and the Update means for specifying a luminance value correction coefficient corresponding to the average luminance value of the boundary pixel column, and multiplying the updated luminance component value of each pixel constituting the boundary pixel column by the specified luminance value correction coefficient; APL2 in the second region is APL2, n is the total number of pixels in the second region, p is the number of pixels constituting the boundary pixel column, and the updating means for each pixel constituting the boundary pixel column If the average luminance value calculated from the color component values updated in step A is Ave, means for calculating ΔS = (APL2 × n−Ave × p) / (np), and the boundary in the second region ΔS from the color component value of each pixel other than the pixel column Means for updating the color component value of each pixel by subtraction.

本発明の構成によれば、ディスプレイ装置における輝度抑制や、余計な消費電力の増大を回避し、マルチディスプレイでのディスプレイ装置間の明るさ相違を軽減することができる。   According to the configuration of the present invention, it is possible to avoid luminance suppression in the display device and unnecessary increase in power consumption, and to reduce the brightness difference between the display devices in the multi-display.

画像処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing apparatus. 補正処理回路110の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of a correction processing circuit 110. 画像分割部202の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of an image dividing unit 202. m1=m2=2の場合のDcol、Drow、Icol、Irowの関係を示す図。The figure which shows the relationship of Dcol, Drawing, Icol, and Irow in the case of m1 = m2 = 2. m1=m2=2の場合の変倍処理後のDcol、Drow、Icol、Irowの関係を示す図。The figure which shows the relationship between Dcol, Drawing, Icol, and Irow after a scaling process in the case of m1 = m2 = 2. 連続領域抽出部203の構成例を示すブロック図。The block diagram which shows the structural example of the continuous area extraction part 203. FIG. 分割画像1、分割画像2の一例を示す図。The figure which shows an example of the divided image 1 and the divided image 2. FIG. テーブル情報の一例を示す図。The figure which shows an example of table information. 輝度補正部207の構成例を示す図。The figure which shows the structural example of the brightness correction | amendment part 207. FIG. 特徴補正量算出部205の構成例を示す図。The figure which shows the structural example of the feature correction amount calculation part 205. FIG. それぞれのAPLと最大の出力輝度値との関係を示す図。The figure which shows the relationship between each APL and the largest output luminance value. 補正処理回路110が行う処理のフローチャート。10 is a flowchart of processing performed by the correction processing circuit 110.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
先ず、本実施形態に係る画像処理装置の構成例について、図1のブロック図を用いて説明する。本実施形態に係る画像処理装置は、外部から供給された映像信号に基づく1枚の画像(動画像の場合には各フレームの画像)を複数の領域に分割し、分割したそれぞれの分割画像を、その分割数と同じ数の表示装置に対して出力する。これにより、この複数台の表示装置でこの1枚の画像を表示する。
[First Embodiment]
First, a configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. The image processing apparatus according to the present embodiment divides one image (an image of each frame in the case of a moving image) based on a video signal supplied from the outside into a plurality of areas, and each divided image is divided. , Output to the same number of display devices as the number of divisions. Thus, the single image is displayed on the plurality of display devices.

アナログ放送入力端子101は、地上アナログ放送、衛星アナログ放送などのアナログ放送信号を入力するための端子である。アナログ外部入力端子102は、D端子等、アナログ映像信号を入力するための端子である。デジタル放送入力端子103は、地上デジタル放送、衛星デジタル放送などのデジタル放送信号を入力するための端子である。デジタル外部入力端子104は、HDMI等、デジタル映像信号を入力するための端子である。   The analog broadcast input terminal 101 is a terminal for inputting analog broadcast signals such as terrestrial analog broadcast and satellite analog broadcast. The analog external input terminal 102 is a terminal for inputting an analog video signal, such as a D terminal. The digital broadcast input terminal 103 is a terminal for inputting digital broadcast signals such as terrestrial digital broadcast and satellite digital broadcast. The digital external input terminal 104 is a terminal for inputting a digital video signal such as HDMI.

アナログチューナ105は、アナログ放送入力端子101を介して入力されたアナログ放送信号を映像信号に変換するための装置である。デジタルチューナ106は、デジタル放送入力端子103を介して入力されたデジタル放送信号を映像信号に変換するための装置である。   The analog tuner 105 is a device for converting an analog broadcast signal input via the analog broadcast input terminal 101 into a video signal. The digital tuner 106 is a device for converting a digital broadcast signal input via the digital broadcast input terminal 103 into a video signal.

A/Dコンバータ107は、アナログチューナ105やアナログ外部入力端子102を介して入力したアナログ映像信号をデジタル映像信号に変換するための装置である。デコーダ108は、デジタルチューナ106やデジタル外部入力端子104を介して入力されたMPEG等の符号化技術により符号化された映像信号を、再生可能な復号映像信号に復号するための装置である。   The A / D converter 107 is a device for converting an analog video signal input via the analog tuner 105 or the analog external input terminal 102 into a digital video signal. The decoder 108 is a device for decoding a video signal encoded by an encoding technique such as MPEG input via the digital tuner 106 or the digital external input terminal 104 into a reproducible decoded video signal.

セレクタ109は、A/Dコンバータ107及びデコーダ108の何れか一方を選択し、選択した方から出力される映像信号を後段の補正処理回路110に供給する。補正処理回路110は、セレクタ109を介して供給された映像信号に対して、与えられたパラメータを基に高画質化、補正等の画像処理を施す装置である。   The selector 109 selects one of the A / D converter 107 and the decoder 108 and supplies a video signal output from the selected one to the correction processing circuit 110 at the subsequent stage. The correction processing circuit 110 is a device that performs image processing such as image quality improvement and correction on the video signal supplied via the selector 109 based on given parameters.

CPU111は、ROM112に格納されているコンピュータプログラムやデータを用いて画像処理装置全体の動作制御を行うと共に、画像処理装置を構成する上述の各部の動作制御も行う。   The CPU 111 controls the operation of the entire image processing apparatus using computer programs and data stored in the ROM 112, and also controls the operation of the above-described units constituting the image processing apparatus.

ROM112には、画像処理装置全体の動作制御をCPU111に実行させるためのコンピュータプログラムやデータ、画像処理装置が行うものとして後述する各処理をCPU111に実行させるためのコンピュータプログラムやデータが格納されている。またROM112には、画像処理装置の設定データ等も格納されている。ROM112に格納されているコンピュータプログラムやデータは、CPU111による制御に従って適宜RAM113にロードされ、CPU111による処理対象となる。   The ROM 112 stores a computer program and data for causing the CPU 111 to perform operation control of the entire image processing apparatus, and a computer program and data for causing the CPU 111 to execute each process described later as what the image processing apparatus performs. . The ROM 112 also stores setting data for the image processing apparatus. Computer programs and data stored in the ROM 112 are appropriately loaded into the RAM 113 under the control of the CPU 111 and are processed by the CPU 111.

RAM113は、様々なデータを一時的に記憶するためのエリアや、CPU111が各種の処理を実行する際に用いるワークエリアなどを有する。即ち、RAM113は、各種のエリアを適宜提供することができる。   The RAM 113 has an area for temporarily storing various data, a work area used when the CPU 111 executes various processes, and the like. That is, the RAM 113 can provide various areas as appropriate.

操作部114は、画像処理装置の操作者が操作することで、各種の指示をCPU111に対して入力するためのものである。この操作部114は、現実物体としてのボタンや、パネル(ディスプレイ)115〜117に設けられるタッチパネル式の入力デバイスなどにより構成されている。   The operation unit 114 is for inputting various instructions to the CPU 111 by an operator of the image processing apparatus. The operation unit 114 includes buttons as real objects, touch panel type input devices provided on the panels (displays) 115 to 117, and the like.

パネル115〜117は、補正処理回路110により画像処理が施された1枚の画像を表示するためのものである。例えば、1枚の画像を縦に3等分した場合、左の画像をパネル115に表示させ、真ん中の画像をパネル116に表示させ、右の画像をパネル117に表示させても良い。なお、図1ではパネルの数は3であるが、以下の説明から明らかとなるように、このパネルの数は複数であれば、如何なる数であっても良い。   Panels 115 to 117 are used to display one image that has been subjected to image processing by correction processing circuit 110. For example, when one image is vertically divided into three equal parts, the left image may be displayed on the panel 115, the middle image may be displayed on the panel 116, and the right image may be displayed on the panel 117. In FIG. 1, the number of panels is three. However, as will be apparent from the following description, the number of panels may be any number as long as it is plural.

次に、補正処理回路110の構成例について、図2のブロック図を用いて説明する。なお、以下の説明では、画像の特徴量として、周知のAPLを用いるが、これ以外の特徴を用いても良いことは、以下の説明から明らかとなるであろう。   Next, a configuration example of the correction processing circuit 110 will be described with reference to the block diagram of FIG. In the following description, a well-known APL is used as the image feature amount, but it will be apparent from the following description that other features may be used.

<高画質変換部201の動作について>
高画質変換部201は、セレクタ109から供給された映像信号に対し、ノイズリダクション、I/P変換、解像度変換、γ補正、輪郭補正、パネル依存処理等の前処理を施し、前処理が施された映像信号を後段の画像分割部202に送出する。
<Operation of the high-quality image conversion unit 201>
The high image quality conversion unit 201 performs preprocessing such as noise reduction, I / P conversion, resolution conversion, γ correction, contour correction, and panel-dependent processing on the video signal supplied from the selector 109. The received video signal is sent to the subsequent image dividing unit 202.

<画像分割部202の動作について>
画像分割部202は、高画質変換部201から供給された映像信号が表す1枚の画像を、パネルの数と同じ数の領域に分割する。図1の場合、パネルの数は3であるので、高画質変換部201から供給された映像信号が表す1枚の画像を3つの領域に分割する。また、領域分割の前に、この1枚の画像のサイズを適宜変倍しても良い。
<Operation of Image Dividing Unit 202>
The image dividing unit 202 divides one image represented by the video signal supplied from the high image quality converting unit 201 into the same number of regions as the number of panels. In the case of FIG. 1, since the number of panels is 3, one image represented by the video signal supplied from the high image quality conversion unit 201 is divided into three regions. Further, the size of the single image may be appropriately scaled before the area division.

ここで、画像分割部202の動作について、より詳細に説明する。画像分割部202は、図3のブロック図に示す如く、解像度変換部301と画像割り当て部302とを有する。   Here, the operation of the image dividing unit 202 will be described in more detail. As shown in the block diagram of FIG. 3, the image dividing unit 202 includes a resolution conversion unit 301 and an image allocation unit 302.

解像度変換部301は、画像処理装置に接続されているパネルの数をCPU111等から取得する。画像処理装置に接続されているパネルの数の計数については、接続時にCPU111が計数する等、様々な方法があり、これについては周知の技術であるので、これについての説明は省略する。   The resolution conversion unit 301 acquires the number of panels connected to the image processing apparatus from the CPU 111 or the like. There are various methods for counting the number of panels connected to the image processing apparatus, such as counting by the CPU 111 at the time of connection. Since this is a well-known technique, description thereof will be omitted.

ここで、縦方向にm1個、横方向にm2個、の合計m1×m2個のパネルを2次元的に並べてそれぞれ画像処理装置に接続しているとする。また、それぞれのパネルが有する画面の縦の画素数をDcol、横の画素数をDrow、とする。   Here, it is assumed that a total of m1 × m2 panels, m1 in the vertical direction and m2 in the horizontal direction, are two-dimensionally arranged and connected to the image processing apparatus. Further, the vertical pixel number of the screen of each panel is Dcol, and the horizontal pixel number is Drow.

この場合、解像度変換部301は、高画質変換部201から供給される映像信号が表す画像(入力画像)の縦のサイズ(画素数)Icol、横の画素数Irowが以下の式を満たすようなサイズとなるように、この入力画像の縦及び/又は横のサイズを変倍する。   In this case, the resolution conversion unit 301 is such that the vertical size (number of pixels) Icol and the horizontal pixel number Irow of the image (input image) represented by the video signal supplied from the high image quality conversion unit 201 satisfy the following expressions: The vertical and / or horizontal size of the input image is scaled so as to be the size.

Icol=m1×Dcol
Irow=m2×Drow
この変倍には、ニアレストネイバー、バイキュービック、バイリニアをはじめとする様々な方法を採用することができる。図4に、m1=m2=2の場合におけるDcol、Drow、Icol、Irowの関係を示す。また、図5に、m1=m2=2の場合における上記の変倍処理後のDcol、Drow、Icol、Irowの関係を示す。このような変倍処理により、1枚の入力画像のサイズを、それぞれのパネルが有する表示画面の合計サイズに合わせることができる。次に、画像割り当て部302は、この変倍後の入力画像を縦にm1分割、横にm2分割することで、この入力画像をm1×m2個の領域に分割する。
Icol = m1 × Dcol
Irow = m2 × Drow
Various methods such as nearest neighbor, bicubic, and bilinear can be used for this magnification. FIG. 4 shows the relationship between Dcol, Draw, Icol, and Irow when m1 = m2 = 2. FIG. 5 shows the relationship between Dcol, Draw, Icol, and Irow after the above scaling process in the case of m1 = m2 = 2. By such a scaling process, the size of one input image can be matched with the total size of the display screens of the respective panels. Next, the image allocating unit 302 divides the input image into m1 × m2 areas by dividing the input image after scaling by m1 vertically and m2 horizontally.

<連続領域抽出部203の動作について>
次に、連続領域抽出部203の動作について説明する。連続領域抽出部203は、図6のブロック図に示す如く、参照輝度算出部601、輝度比較部602、連続領域情報算出部603、を有する。
<Operation of Continuous Region Extraction Unit 203>
Next, the operation of the continuous area extraction unit 203 will be described. The continuous area extraction unit 203 includes a reference luminance calculation unit 601, a luminance comparison unit 602, and a continuous area information calculation unit 603, as shown in the block diagram of FIG.

また、以下の説明では、画像分割部202が入力画像を2つの分割画像(領域)に分割した場合について説明するが、以下の説明の本質がこれに限るものではないことは、以下の説明より明らかとなるであろう。   Further, in the following description, the case where the image dividing unit 202 divides the input image into two divided images (regions) will be described. However, the essence of the following description is not limited to this, from the following description. It will be clear.

2つの分割画像に分割したということは、画像処理装置に接続されているパネルの数が2であるということなので、一方のパネルには一方の分割画像を表示し、他方のパネルには他方の分割画像を表示することになる。以下の説明では、一方のパネルをパネル1、他方のパネルをパネル2と呼称し、パネル1に表示する分割画像を分割画像1(第1の領域)、パネル2に表示する分割画像を分割画像2(第2の領域)と呼称する。以下では、分割画像1についてはそのままパネル1に表示し、分割画像2については以下のように補正してからパネル2に表示する。   The division into two divided images means that the number of panels connected to the image processing apparatus is 2, so that one divided image is displayed on one panel and the other panel is on the other. A divided image is displayed. In the following description, one panel is referred to as panel 1 and the other panel is referred to as panel 2, the divided image displayed on panel 1 is divided image 1 (first region), and the divided image displayed on panel 2 is divided image. 2 (second region). In the following, the divided image 1 is displayed on the panel 1 as it is, and the divided image 2 is displayed on the panel 2 after being corrected as follows.

先ず、参照輝度算出部601は、分割画像1を構成する画素群のうち入力画像上で分割画像2と隣接している画素列Y1について、この画素列Y1を構成する各画素の輝度値を求める。それぞれの画素はR、G、Bのそれぞれの画素値(色成分値)を有しているので、以下の式を計算することで、画素の輝度値を求めることができる。   First, the reference luminance calculation unit 601 calculates the luminance value of each pixel constituting the pixel row Y1 for the pixel row Y1 adjacent to the divided image 2 on the input image in the pixel group constituting the divided image 1. . Since each pixel has a pixel value (color component value) of R, G, and B, the luminance value of the pixel can be obtained by calculating the following equation.

Y=α×R+β×G+γ×B
ここで、α、β、γのそれぞれは定数であり、画像の色空間がsRGBの場合には、α=0.2126、β=0.7152、γ=0.0722である。もちろん、輝度値の計算方法はこれに限るものではない。
Y = α × R + β × G + γ × B
Here, α, β, and γ are constants. When the color space of the image is sRGB, α = 0.2126, β = 0.7152, and γ = 0.0722. Of course, the method of calculating the luminance value is not limited to this.

また参照輝度算出部601は、分割画像2を構成する画素群のうち入力画像上で分割画像1と隣接している画素列Y2について、この画素列Y2を構成する各画素の輝度値を同様にして求める。   In addition, the reference luminance calculation unit 601 similarly sets the luminance value of each pixel constituting the pixel row Y2 for the pixel row Y2 adjacent to the divided image 1 on the input image in the pixel group constituting the divided image 2. Ask.

図7には、分割画像1、分割画像2を示すと共に、それぞれの分割画像における画素列Y1、Y2をそれぞれグレーで示している。また、分割画像1と分割画像2とが隣接している境界部分を点線で示している。   FIG. 7 shows the divided image 1 and the divided image 2, and the pixel columns Y1 and Y2 in the respective divided images are shown in gray. Further, a boundary portion where the divided image 1 and the divided image 2 are adjacent to each other is indicated by a dotted line.

輝度比較部602は、画素列Y1を構成する画素x(x=1、…、XY:XYは画素列Y1(Y2)を構成する画素の総数)の輝度値と、画素列Y2を構成する画素xの輝度値と、の差分(差の絶対値)DF(x)を求める。そして輝度比較部602は、この求めた差分DF(x)と、予めROM112に格納されている閾値ΔYとの大小比較を行う。この閾値ΔYは、ウェーバー・フェヒナーに基づく輝度弁別間隔量であっても良い。また、閾値ΔYは、ΔYがLab色差でAA級許容差(ΔE=0.8〜1.6)となる量であっても良い。また、閾値ΔYは、ΔYがLab色差でA級許容差(ΔE=1.6〜3.2)となる量であっても良い。また、閾値ΔYは、ΔYがLab色差でΔE=1となる量であっても良い。   The luminance comparison unit 602 includes luminance values of pixels x (x = 1,..., XY: total number of pixels constituting the pixel column Y1 (Y2)) constituting the pixel column Y1 and pixels constituting the pixel column Y2. A difference (absolute value) DF (x) between the luminance value of x is obtained. The luminance comparison unit 602 compares the obtained difference DF (x) with the threshold value ΔY stored in the ROM 112 in advance. This threshold value ΔY may be a luminance discrimination interval amount based on Weber-Fechner. Further, the threshold value ΔY may be an amount such that ΔY is a Lab color difference and an AA class tolerance (ΔE = 0.8 to 1.6). Further, the threshold value ΔY may be an amount such that ΔY becomes a class A tolerance (ΔE = 1.6 to 3.2) by Lab color difference. Further, the threshold value ΔY may be an amount such that ΔY is equal to Lab color difference and ΔE = 1.

そして輝度比較部602は、DF(x)<ΔYであれば、フラグFL(x)に1を設定し、DF(x)≧ΔYであれば、フラグFL(x)に0を設定する。このような処理を、x=1、…、XYを満たすそれぞれのxについて行う。   The luminance comparison unit 602 sets 1 to the flag FL (x) if DF (x) <ΔY, and sets 0 to the flag FL (x) if DF (x) ≧ ΔY. Such processing is performed for each x satisfying x = 1,..., XY.

そして輝度比較部602は、フラグFL(x)=1を満たすxの区間を特定し、画素列Y2を構成する各画素のうちこの特定した区間内のxが示す位置の画素から成る画素列を、境界画素列として特定する。   Then, the luminance comparison unit 602 identifies a section of x satisfying the flag FL (x) = 1, and selects a pixel column composed of pixels at positions indicated by x in the identified section among the pixels constituting the pixel column Y2. , Specified as a boundary pixel column.

即ち、ここまで輝度比較部602が行ってきた処理とは、換言すれば次のような処理である。先ず、第1の領域と第2の領域との境界に隣接する第1の領域側の画素と第2の領域側の画素との画素対毎に輝度値の差分DF(x)を求める。そして、この求めた差分DF(x)が閾値ΔYよりも小さい画素対が連続して並んでいる画素対列を特定する。そして、この特定した画素対列において第2の領域内の画素群を、境界画素列として特定する。連続領域情報算出部603は、境界画素列を構成する各画素の輝度値を用いて平均輝度値を算出する。   That is, the processing performed by the brightness comparison unit 602 so far is, in other words, the following processing. First, a luminance value difference DF (x) is obtained for each pixel pair of a pixel on the first region side and a pixel on the second region side adjacent to the boundary between the first region and the second region. Then, a pixel pair row in which pixel pairs having the obtained difference DF (x) smaller than the threshold value ΔY are continuously arranged is specified. Then, the pixel group in the second region in the specified pixel pair column is specified as the boundary pixel column. The continuous area information calculation unit 603 calculates the average luminance value using the luminance value of each pixel constituting the boundary pixel column.

<特徴補正量算出部205の動作について>
次に、特徴補正量算出部205の動作について説明する。特徴補正量算出部205は、図10のブロック図に示す如く、特徴量算出部1001、特徴補正量探索部1002、を有する。
<Operation of Feature Correction Amount Calculation Unit 205>
Next, the operation of the feature correction amount calculation unit 205 will be described. The feature correction amount calculation unit 205 includes a feature amount calculation unit 1001 and a feature correction amount search unit 1002, as shown in the block diagram of FIG.

特徴量算出部1001は、分割画像1内(第1の領域内)の各画素のGの画素値の平均値を、分割画像1のAPL(APL1)として計算する。同様に、特徴量算出部1001は、分割画像2内(第2の領域内)の各画素のGの画素値の平均値を、分割画像2のAPL(APL2)として計算する。もちろん、APLの計算方法はこれに限るものではない。   The feature amount calculation unit 1001 calculates the average value of the G pixel values of each pixel in the divided image 1 (in the first region) as the APL (APL1) of the divided image 1. Similarly, the feature amount calculation unit 1001 calculates the average value of the G pixel values of each pixel in the divided image 2 (in the second region) as the APL (APL2) of the divided image 2. Of course, the APL calculation method is not limited to this.

特徴補正量探索部1002は先ず、ディスプレイ特性情報DB204に格納されている図8に示すテーブル情報を取得する。図8のテーブル情報は、それぞれ異なるAPL毎に、各入力輝度値に対する出力輝度値が登録されている。例えば、APL=16の場合、入力輝度値として信号値=16が入力されても、0.22の輝度値しか出力されない。また、最大の入力輝度値として信号値=255が入力されても、100の輝度値しか出力されない。それぞれのAPLと最大の出力輝度値との関係を図11に示す。このようなテーブル情報は、パネル2のディスプレイ特性情報として予め作成され、ディスプレイ特性情報DB204に格納されているものである。   First, the feature correction amount search unit 1002 acquires the table information shown in FIG. 8 stored in the display characteristic information DB 204. In the table information of FIG. 8, output luminance values for each input luminance value are registered for each different APL. For example, when APL = 16, even if a signal value = 16 is input as an input luminance value, only a luminance value of 0.22 is output. Even if signal value = 255 is input as the maximum input luminance value, only 100 luminance values are output. The relationship between each APL and the maximum output luminance value is shown in FIG. Such table information is created in advance as display characteristic information of the panel 2 and stored in the display characteristic information DB 204.

然るに特徴補正量探索部1002は、計算したAPL2について最大の出力輝度値をこの図8のテーブル情報から特定し、連続領域情報算出部603が計算した平均輝度値がこの最大の出力輝度値よりも小さいか否かを判断する。小さい場合、特徴補正量探索部1002は、APL1を分母、APL2を分子とする分数値Gain(=APL2/APL1)を計算する。   However, the feature correction amount search unit 1002 specifies the maximum output luminance value for the calculated APL2 from the table information of FIG. 8, and the average luminance value calculated by the continuous region information calculation unit 603 is greater than the maximum output luminance value. Judge whether it is small or not. If it is smaller, the feature correction amount search unit 1002 calculates a fractional value Gain (= APL2 / APL1) with APL1 as the denominator and APL2 as the numerator.

なお、連続領域情報算出部603が計算した平均輝度値が最大の出力輝度値以上である場合、特徴補正量探索部1002は、平均輝度値が最大の出力輝度値よりも小さくなるようなAPLを図8のテーブル情報から取得してAPL2とし、Gainを計算する。   When the average luminance value calculated by the continuous area information calculation unit 603 is equal to or greater than the maximum output luminance value, the feature correction amount search unit 1002 performs APL such that the average luminance value is smaller than the maximum output luminance value. It is acquired from the table information of FIG. 8, and it is set as APL2, and Gain is calculated.

<特徴補正部206の動作について>
次に、特徴補正部206の動作について説明する。特徴補正部206は、分数値Gainを、境界画素列(連続領域情報)を構成する各画素のR、G、Bのそれぞれの画素値に乗じることで、境界画素列を構成する各画素のR、G、Bの画素値を更新する。
<Operation of Feature Correction Unit 206>
Next, the operation of the feature correction unit 206 will be described. The feature correction unit 206 multiplies the fractional value Gain by the pixel values of R, G, and B of each pixel that forms the boundary pixel sequence (continuous region information), so that the R of each pixel that configures the boundary pixel sequence. , G, B pixel values are updated.

<輝度補正部207の動作について>
次に、輝度補正部207の動作について説明する。輝度補正部207は、図9のブロック図に示す如く、連続領域判定部1301、第1補正部1302、特徴維持パラメータ算出部1303、第2補正部1304、を有する。
<Operation of Brightness Correction Unit 207>
Next, the operation of the brightness correction unit 207 will be described. As shown in the block diagram of FIG. 9, the luminance correction unit 207 includes a continuous area determination unit 1301, a first correction unit 1302, a feature maintenance parameter calculation unit 1303, and a second correction unit 1304.

連続領域判定部1301は、分割画像2を構成する各画素を参照し、境界画素列に属しているが否かを判断する。境界画素列を構成する各画素の位置は上記の処理により分かるので、分割画像2を構成する各画素の位置と、境界画素列を構成する各画素の位置とを比較すれば、この判断処理は達成できる。   The continuous area determination unit 1301 refers to each pixel constituting the divided image 2 and determines whether it belongs to the boundary pixel column. Since the position of each pixel constituting the boundary pixel column can be determined by the above processing, this determination process is performed by comparing the position of each pixel constituting the divided image 2 with the position of each pixel constituting the boundary pixel column. Can be achieved.

ここで、分割画像2内で現在参照している参照画素が境界画素列を構成する画素である場合には、この参照画素のR、G、Bの画素値を第1補正部1302に送出する。一方、分割画像2内で現在参照している参照画素が境界画素列を構成する画素ではない場合には、この参照画素のR、G、Bの画素値を第2補正部1304に送出する。   Here, when the reference pixel that is currently referred to in the divided image 2 is a pixel that forms a boundary pixel row, the R, G, and B pixel values of the reference pixel are sent to the first correction unit 1302. . On the other hand, when the reference pixel currently referred to in the divided image 2 is not a pixel constituting the boundary pixel column, the R, G, and B pixel values of the reference pixel are sent to the second correction unit 1304.

第1補正部1302は、それぞれ異なるAPL毎及びそれぞれ異なる輝度値毎に予め設定された輝度値補正用係数のうち、APL2及び境界画素列の平均輝度値に対応する輝度値補正用係数を特定する。「それぞれ異なるAPL毎及びそれぞれ異なる輝度値毎に予め設定された輝度値補正用係数」は、ROM112等のメモリに予め登録されているものである。そして第1補正部1302は、この特定した輝度値補正用係数を、連続領域判定部1301から受けたR、G、Bの画素値にそれぞれ乗じることで、このR、G、Bの画素値を更新する。   The first correction unit 1302 specifies a luminance value correction coefficient corresponding to the average luminance value of APL2 and the boundary pixel column among the luminance value correction coefficients set in advance for each different APL and each different luminance value. . The “brightness value correction coefficient set in advance for each different APL and each different brightness value” is registered in advance in a memory such as the ROM 112. Then, the first correction unit 1302 multiplies the R, G, and B pixel values received from the continuous region determination unit 1301 by the specified luminance value correction coefficient, respectively, thereby calculating the R, G, and B pixel values. Update.

特徴維持パラメータ算出部1303は、分割画像2内の総画素数をn、境界画素列を構成する画素の数をp、境界画素列を構成する各画素の(第1補正部1302により)更新した色成分値から計算される平均輝度値をAve、として、以下の式を計算する。   The feature maintenance parameter calculation unit 1303 updates the total number of pixels in the divided image 2 to n, the number of pixels constituting the boundary pixel column to p, and the pixels constituting the boundary pixel column (by the first correction unit 1302). The following formula is calculated by setting Ave as the average luminance value calculated from the color component values.

ΔS=(APL2×n−Ave×p)/(n−p)
第2補正部1304は、分割画像2において境界画素列以外の各画素のR、G、Bの画素値からΔSを減算する。このように、第1補正部1302により境界画素列のR、G、Bの画素値が補正され、第2補正部1304により境界画素列以外の画素のR、G、Bの画素値が補正された分割画像2を得ることができる。然るに補正処理回路110は、このようにして補正した分割画像2を、パネル2に対して出力することになる。
ΔS = (APL2 × n−Ave × p) / (n−p)
The second correction unit 1304 subtracts ΔS from the R, G, and B pixel values of each pixel other than the boundary pixel column in the divided image 2. As described above, the R, G, and B pixel values of the boundary pixel column are corrected by the first correction unit 1302, and the R, G, and B pixel values of pixels other than the boundary pixel column are corrected by the second correction unit 1304. The divided image 2 can be obtained. However, the correction processing circuit 110 outputs the divided image 2 corrected in this way to the panel 2.

以上の説明により、本実施形態によれば、全てのパネルの特徴量を特定の状態に固定する必要が無く、必要に応じて各パネルの特徴量の変更を最小限に押さえてパネル間の輝度補正を行う。そのためパネルの性能抑制や、消費電力の増加を抑えてパネル間の明るさ相違を補正できる。さらに、画像情報の伝送のみを行うため、システムコストを増加することなくパネル間の明るさ相違の補正が可能である。   As described above, according to the present embodiment, it is not necessary to fix the feature values of all the panels in a specific state, and the brightness between the panels can be minimized by changing the feature values of each panel as necessary. Make corrections. Therefore, it is possible to correct the difference in brightness between the panels while suppressing the performance of the panels and suppressing an increase in power consumption. Furthermore, since only image information is transmitted, it is possible to correct brightness differences between panels without increasing the system cost.

以上説明した各処理について、図12のフローチャートを用いて説明する。各ステップにおける処理は上記の通りであるので、ここでは各ステップにおける処理については簡単に説明する。なお、図12のフローチャートに従った処理を実行する各主体は、CPU111による動作制御に基づいて動作する。   Each process described above will be described with reference to the flowchart of FIG. Since the process in each step is as described above, the process in each step will be briefly described here. Each main body that executes the processing according to the flowchart of FIG. 12 operates based on operation control by the CPU 111.

先ず、ステップS1201では、高画質変換部201は、セレクタ109から供給された映像信号に対して上記の通りの各種の前処理を施し、後段の画像分割部202に送出する。   First, in step S <b> 1201, the high image quality conversion unit 201 performs various kinds of preprocessing as described above on the video signal supplied from the selector 109, and sends it to the subsequent image division unit 202.

ステップS1202では、画像分割部202は、高画質変換部201から供給された映像信号が表す1枚の画像のサイズを、パネル1及びパネル2が有する表示画面の合計サイズに合わせるべく、この画像の変倍処理を行う。そして画像分割部202は、変倍した画像を、分割画像1と分割画像2とに分割する。   In step S1202, the image dividing unit 202 adjusts the size of one image represented by the video signal supplied from the high image quality converting unit 201 to the total size of the display screens of the panel 1 and the panel 2 in order to match the size of the image. Perform scaling processing. The image dividing unit 202 divides the scaled image into a divided image 1 and a divided image 2.

ステップS1203では、連続領域抽出部203は、分割画像2について境界画素列を特定する。また、連続領域抽出部203は、境界画素列を構成する各画素の輝度値を用いて平均輝度値を算出する。ステップS1204では、特徴補正量算出部205は、APL1及びAPL2を計算する。更に特徴補正量算出部205は、上記の分数値Gainを計算する。   In step S <b> 1203, the continuous area extraction unit 203 specifies a boundary pixel string for the divided image 2. The continuous area extraction unit 203 calculates an average luminance value using the luminance value of each pixel constituting the boundary pixel row. In step S1204, the feature correction amount calculation unit 205 calculates APL1 and APL2. Further, the feature correction amount calculation unit 205 calculates the fractional value Gain.

ステップS1205では、特徴補正部206は、分数値Gainを、境界画素列を構成する各画素のR、G、Bのそれぞれの画素値に乗じることで、境界画素列を構成する各画素のR、G、Bの画素値を更新する。   In step S1205, the feature correction unit 206 multiplies the fractional value Gain by the pixel values of R, G, and B of each pixel that configures the boundary pixel column, so that the R, The pixel values of G and B are updated.

ステップS1206では輝度補正部207は、輝度値補正用係数を乗じることで境界画素列を構成する画素のR、G、Bの画素値を補正する。ステップS1207では輝度補正部207は上記のΔSを計算し、このΔSを用いて、分割画像2において境界画素列以外の画素のR、G、Bの画素値を補正する。   In step S1206, the luminance correction unit 207 corrects the R, G, and B pixel values of the pixels constituting the boundary pixel column by multiplying the luminance value correction coefficient. In step S1207, the luminance correction unit 207 calculates the above ΔS, and corrects the R, G, and B pixel values of the pixels other than the boundary pixel column in the divided image 2 using the ΔS.

[第2の実施形態]
図1に示した補正処理回路110を構成する各部はハードウェアで構成しても良いが、一部若しくは全部をコンピュータプログラムとして実装しても良い。この場合、このコンピュータプログラムは、ROM112等のメモリに格納されることになる。そして、CPU111がこのコンピュータプログラムを実行することで、対応する機能部の機能を実現することができる。
[Second Embodiment]
Each part of the correction processing circuit 110 shown in FIG. 1 may be configured by hardware, but a part or all of it may be implemented as a computer program. In this case, the computer program is stored in a memory such as the ROM 112. Then, the CPU 111 executes this computer program, thereby realizing the function of the corresponding functional unit.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (3)

1枚の画像を一方の表示装置に表示するための第1の領域と、他方の表示装置に表示するための第2の領域と、に分割する分割手段と、
前記第1の領域と前記第2の領域との境界に隣接する前記第1の領域側の画素と前記第2の領域側の画素との画素対毎に輝度値の差分を求め、求めた差分が閾値よりも小さい画素対が連続して並んでいる画素対列を特定し、特定した画素対列において前記第2の領域内の画素群を、境界画素列として特定する手段と、
前記第1の領域内の色成分値を用いてAPLを求めると共に、前記第2の領域内の色成分値を用いてAPLを求める手段と、
前記第2の領域内のAPLを分母、前記第1の領域内のAPLを分子とする分数値を計算し、計算した分数値を前記境界画素列を構成する各画素の色成分値に乗じることで該各画素の色成分値を更新する手段と、
それぞれ異なるAPL毎及びそれぞれ異なる輝度値毎に予め設定された輝度値補正用係数のうち、前記第2の領域内のAPL及び前記境界画素列の平均輝度値に対応する輝度値補正用係数を特定し、特定した輝度値補正用係数を前記境界画素列を構成する各画素の前記更新された色成分値に乗じる更新手段と、
前記第2の領域内のAPLをAPL2、前記第2の領域内の総画素数をn、前記境界画素列を構成する画素の数をp、前記境界画素列を構成する各画素の前記更新手段で更新した色成分値から計算される平均輝度値をAve、とすると、ΔS=(APL2×n−Ave×p)/(n−p)を計算する手段と、
前記第2の領域において前記境界画素列以外の各画素の色成分値からΔSを減算することで該各画素の色成分値を更新する手段と
を備えることを特徴とする画像処理装置。
A dividing unit that divides the image into a first area for displaying one image on one display device and a second area for displaying on one display device;
The difference obtained by obtaining a difference in luminance value for each pixel pair of the pixel on the first region side and the pixel on the second region side adjacent to the boundary between the first region and the second region. Means for specifying a pixel pair row in which pixel pairs having a threshold value smaller than a threshold value are continuously arranged, and specifying a pixel group in the second region in the specified pixel pair row as a boundary pixel row;
Means for determining APL using the color component values in the first region and determining APL using the color component values in the second region;
Calculating a fractional value using the APL in the second region as a denominator and the APL in the first region as a numerator, and multiplying the calculated fractional value by a color component value of each pixel constituting the boundary pixel column; And a means for updating the color component value of each pixel,
Among the luminance value correction coefficients set in advance for each different APL and for each different luminance value, specify the luminance value correction coefficient corresponding to the APL in the second area and the average luminance value of the boundary pixel column Updating means for multiplying the specified luminance value correction coefficient by the updated color component value of each pixel constituting the boundary pixel column;
APL2 in the second region is APL2, n is the total number of pixels in the second region, p is the number of pixels constituting the boundary pixel column, and the updating means for each pixel constituting the boundary pixel column A means for calculating ΔS = (APL2 × n−Ave × p) / (n−p), where Ave is the average luminance value calculated from the color component values updated in step S;
An image processing apparatus comprising: means for updating the color component value of each pixel by subtracting ΔS from the color component value of each pixel other than the boundary pixel column in the second region.
前記更新手段は、前記平均輝度値が前記第2の領域内のAPLにおける前記他方の表示装置の最大の出力輝度値以上である場合、該APLの変わりに、該平均輝度値が該最大の出力輝度値よりも小さくなるようなAPL及び前記境界画素列の平均輝度値に対応する輝度値補正用係数を特定することを特徴とする請求項1に記載の画像処理装置。   When the average luminance value is equal to or greater than the maximum output luminance value of the other display device in the APL in the second region, the updating means replaces the APL with the average luminance value being the maximum output luminance. The image processing apparatus according to claim 1, wherein an APL that is smaller than a luminance value and a luminance value correction coefficient corresponding to an average luminance value of the boundary pixel column are specified. 画像処理装置が行う画像処理方法であって、
前記画像処理装置の分割手段が、1枚の画像を一方の表示装置に表示するための第1の領域と、他方の表示装置に表示するための第2の領域と、に分割する分割工程と、
前記画像処理装置の特定手段が、前記第1の領域と前記第2の領域との境界に隣接する前記第1の領域側の画素と前記第2の領域側の画素との画素対毎に輝度値の差分を求め、求めた差分が閾値よりも小さい画素対が連続して並んでいる画素対列を特定し、特定した画素対列において前記第2の領域内の画素群を、境界画素列として特定する工程と、
前記画像処理装置の計算手段が、前記第1の領域内の色成分値を用いてAPLを求めると共に、前記第2の領域内の色成分値を用いてAPLを求める工程と、
前記画像処理装置の更新する手段が、前記第2の領域内のAPLを分母、前記第1の領域内のAPLを分子とする分数値を計算し、計算した分数値を前記境界画素列を構成する各画素の色成分値に乗じることで該各画素の色成分値を更新する工程と、
前記画像処理装置の更新手段が、それぞれ異なるAPL毎及びそれぞれ異なる輝度値毎に予め設定された輝度値補正用係数のうち、前記第2の領域内のAPL及び前記境界画素列の平均輝度値に対応する輝度値補正用係数を特定し、特定した輝度値補正用係数を前記境界画素列を構成する各画素の前記更新された色成分値に乗じる更新工程と、
前記画像処理装置の計算する手段が、前記第2の領域内のAPLをAPL2、前記第2の領域内の総画素数をn、前記境界画素列を構成する画素の数をp、前記境界画素列を構成する各画素の前記更新工程で更新した色成分値から計算される平均輝度値をAve、とすると、ΔS=(APL2×n−Ave×p)/(n−p)を計算する工程と、
前記画像処理装置の色成分値を更新する手段が、前記第2の領域において前記境界画素列以外の各画素の色成分値からΔSを減算することで該各画素の色成分値を更新する工程と
を備えることを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus,
A dividing step in which the dividing means of the image processing device divides the image into a first region for displaying one image on one display device and a second region for displaying on one display device; ,
The specifying unit of the image processing apparatus determines luminance for each pixel pair of the pixel on the first area side and the pixel on the second area side adjacent to the boundary between the first area and the second area. A value difference is obtained, a pixel pair row in which pixel pairs having the obtained difference smaller than a threshold value are continuously arranged is specified, and a pixel group in the second region in the specified pixel pair row is defined as a boundary pixel row. A process identified as
The calculating means of the image processing apparatus calculates APL using the color component values in the first area and calculates APL using the color component values in the second area;
The updating means of the image processing apparatus calculates a fractional value using the APL in the second region as a denominator and the APL in the first region as a numerator, and the calculated fractional value is configured in the boundary pixel column. Updating the color component value of each pixel by multiplying the color component value of each pixel to be
The update means of the image processing device sets the APL in the second region and the average luminance value of the boundary pixel column among the luminance value correction coefficients set in advance for each different APL and each different luminance value. An update step of identifying a corresponding luminance value correction coefficient and multiplying the updated color component value of each pixel constituting the boundary pixel column by the specified luminance value correction coefficient;
The calculation means of the image processing apparatus is configured such that the APL in the second area is APL2, the total number of pixels in the second area is n, the number of pixels constituting the boundary pixel column is p, and the boundary pixels A step of calculating ΔS = (APL2 × n−Ave × p) / (n−p) where Ave is an average luminance value calculated from the color component values updated in the updating step of each pixel constituting the column. When,
Means for updating the color component value of each pixel by subtracting ΔS from the color component value of each pixel other than the boundary pixel column in the second region, wherein the means for updating the color component value of the image processing device An image processing method comprising:
JP2010246748A 2010-11-02 2010-11-02 Image processing device and image processing method Withdrawn JP2012098559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010246748A JP2012098559A (en) 2010-11-02 2010-11-02 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010246748A JP2012098559A (en) 2010-11-02 2010-11-02 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2012098559A true JP2012098559A (en) 2012-05-24

Family

ID=46390507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010246748A Withdrawn JP2012098559A (en) 2010-11-02 2010-11-02 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2012098559A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199841A1 (en) * 2013-06-14 2014-12-18 Eizo株式会社 Multi-monitor system, and computer program and display device used in multi-monitor system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014199841A1 (en) * 2013-06-14 2014-12-18 Eizo株式会社 Multi-monitor system, and computer program and display device used in multi-monitor system
CN105308671A (en) * 2013-06-14 2016-02-03 Eizo株式会社 Multi-monitor system, and computer program and display device used in multi-monitor system
AU2014279337B2 (en) * 2013-06-14 2016-02-18 Eizo Corporation Multi-monitor system, and computer program and display device used in multi-monitor system
RU2613532C1 (en) * 2013-06-14 2017-03-16 ЭЙДЗО Корпорейшн Multi-monitor system and computer program and display used therein
RU2613532C9 (en) * 2013-06-14 2017-07-17 ЭЙДЗО Корпорейшн Multi-monitor system and computer program and display used therein

Similar Documents

Publication Publication Date Title
JP4221434B2 (en) Outline correction method, image processing apparatus, and display apparatus
CN100518263C (en) Display apparatus and method of preventing image burn-in
US8189013B2 (en) Video signal processing device and method of processing gradation
US20160329027A1 (en) Image processing device with image compensation function and image processing method thereof
JP2008160591A (en) Television receiver and frame rate conversion method therefor
KR100703939B1 (en) Video processing apparatus and video processing method
JP2007274070A (en) Video signal processor, video apparatus and video signal processing method
US7102696B2 (en) Method of effecting various anti compensation processes on segmented gray level of input image on plasma display panel
JP2007279220A (en) Image display device
JP2002189458A (en) Display control device and picture display device
US7932939B2 (en) Apparatus and method for correcting blurred images
JP4200381B2 (en) Video display device and video display method
US20120162528A1 (en) Video processing device and video display device
JP2017098845A (en) Image processing apparatus, image processing method, and program
WO2010064319A1 (en) Video display control device, video display device, video display method, video display program and recording medium having the program recorded thereon
US8462172B2 (en) Video display apparatus and video display method
JP2008258925A (en) Gamma correction circuit and method
JP2012098559A (en) Image processing device and image processing method
JP2003069859A (en) Moving image processing adapting to motion
JP2007005933A (en) Picture adjusting method, picture processing circuit, and picture display
JP2007104377A (en) Video signal display apparatus
JP4843478B2 (en) Image processing apparatus and image processing method
US20110134316A1 (en) Image display apparatus and method
JP4196580B2 (en) Display control device and image display device
EP2061236A1 (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140107