JP2017033545A - Image processing device and control method thereof - Google Patents
Image processing device and control method thereof Download PDFInfo
- Publication number
- JP2017033545A JP2017033545A JP2016128527A JP2016128527A JP2017033545A JP 2017033545 A JP2017033545 A JP 2017033545A JP 2016128527 A JP2016128527 A JP 2016128527A JP 2016128527 A JP2016128527 A JP 2016128527A JP 2017033545 A JP2017033545 A JP 2017033545A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- input
- image
- value
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 title claims abstract description 1064
- 238000000034 method Methods 0.000 title claims abstract description 239
- 238000004891 communication Methods 0.000 claims abstract description 82
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 58
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 58
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 26
- 238000001514 detection method Methods 0.000 claims description 47
- 239000000203 mixture Substances 0.000 claims description 20
- 230000005540 biological transmission Effects 0.000 claims description 12
- 239000002131 composite material Substances 0.000 claims description 11
- 230000006870 function Effects 0.000 description 41
- 238000010586 diagram Methods 0.000 description 38
- 101150044251 OGT gene Proteins 0.000 description 15
- 235000019557 luminance Nutrition 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 230000006866 deterioration Effects 0.000 description 5
- 238000003672 processing method Methods 0.000 description 4
- 230000003111 delayed effect Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 101150022075 ADR1 gene Proteins 0.000 description 1
- 101100490566 Arabidopsis thaliana ADR2 gene Proteins 0.000 description 1
- 101100269260 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) ADH2 gene Proteins 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置及びその制御方法に関する。 The present invention relates to an image processing apparatus and a control method thereof.
近年、画像表示装置で表示可能な画像データの高解像度化が進んでいる。これに伴い、画像処理装置で処理可能な画像データの高解像度化が望まれている。高解像度の画像データを処理する方法として、元画像データによって表された元画像を構成する複数の部分画像に対応する複数の部分画像データを、複数の画像処理装置で並列に処理する方法がある。各部分画像は、元画像の一部の領域における画像である。この方法では、例えば、500万画素の画像データを処理可能な画像処理装置を2つ用いることにより、1000万画素の元画像データに対する画像処理を実現することができる。上記方法で画像処理を行う画像処理システム(複数の画像処理装置を有するシステム)の構築は、高解像度の画像データを処理可能な新たな画像処理装置の開発よりも容易である。 In recent years, the resolution of image data that can be displayed on an image display device has been increasing. Accordingly, it is desired to increase the resolution of image data that can be processed by the image processing apparatus. As a method for processing high-resolution image data, there is a method in which a plurality of partial image data corresponding to a plurality of partial images constituting the original image represented by the original image data are processed in parallel by a plurality of image processing devices. . Each partial image is an image in a partial region of the original image. In this method, for example, by using two image processing apparatuses capable of processing image data of 5 million pixels, it is possible to realize image processing for original image data of 10 million pixels. Construction of an image processing system (a system having a plurality of image processing devices) that performs image processing by the above method is easier than development of a new image processing device capable of processing high-resolution image data.
また、HDR(High Dynamic Range)画像データと呼ばれる、輝度のダイナミックレンジが広い画像データを扱う機会が増している。HDR画像データが画像処理の対象である場合、画像処理装置では、低い輝度から、非常に高い輝度までの様々な輝度の画像データが処理されることとなる。しかしながら、HDR画像データに対する画像処理を、従来のLUT(Look Up Table)を用いて実現すると、画像処理の精度不足により、画質劣化が生じる。例えば、画像処理前の画像データである入力画像データの低輝度の画素値(階調値)が画像処理によって下限値に変換されることにより、黒潰れが生じる。従来のLUTは、例えば、輝度のダイナミックレンジが標準である画像データ(SDR(Standard Dynamic Range)画像データ)のみを考慮して作成されたLUTである。 In addition, opportunities for handling image data having a wide dynamic range of luminance called HDR (High Dynamic Range) image data are increasing. When the HDR image data is an object of image processing, the image processing apparatus processes image data with various luminances from low luminance to very high luminance. However, when image processing for HDR image data is realized using a conventional LUT (Look Up Table), image quality deterioration occurs due to insufficient accuracy of image processing. For example, blackout occurs due to the low luminance pixel value (gradation value) of the input image data, which is image data before image processing, being converted to the lower limit value by image processing. The conventional LUT is, for example, an LUT created in consideration of only image data (SDR (Standard Dynamic Range) image data) having a standard luminance dynamic range.
HDR画像データに対する画像処理において生じる上記画質劣化を防ぐ方法として、LUTのワード数を増やす方法が考えられる。具体的には、LUTのアドレスの範囲を拡大し、且つ、LUTの参照可能なアドレスの数を増やす方法が考えられる。しかしながら、LUTのワード数は、LUTを構成するメモリ(例えば、SRAM(Static Random Access Memory))の容量によって制限される。そして、メモリ容量の増加は画像処理装置のコストの増加を招くため、安易にメモリの総量を増やすことはできない。 A method for increasing the number of words in the LUT is conceivable as a method for preventing the image quality deterioration that occurs in image processing on HDR image data. Specifically, a method of expanding the address range of the LUT and increasing the number of addresses that can be referred to the LUT can be considered. However, the number of words in the LUT is limited by the capacity of a memory (for example, SRAM (Static Random Access Memory)) constituting the LUT. Since the increase in memory capacity causes an increase in the cost of the image processing apparatus, the total amount of memory cannot be increased easily.
通常よりも多い数且つ通常よりも広い範囲のアドレスを参照可能なアドレスとして用いた画像処理を実現する方法として、画像処理中に動的にLUTを書き換える方法が考えられる。例えば、入力画像データの各画素の輝度が一部の輝度範囲に集中する場合、当該輝度範囲に対応する範囲のアドレスが集中して参照される。そのため、参照される可能性が低い範囲のアドレスから、参照される可能性が高い範囲のアドレスに、LUTに設定(マッピング)されたアドレスを書き換える方法が考えられる。しかしながら、この方法では、LUTの書き換え中のアドレスが読み出されることにより、画像乱れ(画質劣化)が生じる。 A method of dynamically rewriting an LUT during image processing is conceivable as a method of realizing image processing using addresses larger than usual and a wider range than usual as addresses that can be referred to. For example, when the luminance of each pixel of the input image data is concentrated in a part of the luminance range, addresses in the range corresponding to the luminance range are referred to. For this reason, a method of rewriting an address set (mapped) in the LUT from an address in a range that is unlikely to be referred to to an address in a range that is likely to be referenced. However, in this method, an image disturbance (deterioration in image quality) occurs due to reading of the address during rewriting of the LUT.
画像処理中にLUTを書き換える従来技術は、例えば、特許文献1に開示されている。特許文献1に開示の技術では、書き換え中のアドレスの代わりに、書き換え中のアドレスの近傍のアドレスが参照される。それにより、大きな画像乱れの発生が抑制される。しかしながら、特許文献1に開示の技術では、所望のタイミングで所望のアドレスを参照できないことがある。このため、入力画像データの輝度範囲が変化する場合などにおいて、画
質劣化が生じることがある。
A conventional technique for rewriting an LUT during image processing is disclosed in
LUTの書き換えに起因した上記画質劣化の発生を防ぐために、画像処理中において常に一定の範囲のアドレスにアクセス可能であることが好ましい。 In order to prevent the occurrence of the image quality deterioration due to the rewriting of the LUT, it is preferable that a certain range of addresses can always be accessed during image processing.
LUTのワード数を増やす方法として、1ワードあたりのビット深度を減らす方法が考えられる。しかしながら、ビット深度を減らすと、画像処理の精度が低下する。また、使用したいLUTが画像の複数の領域の間で異なる場合がある。しかしながら、1つのメモリを用いて複数のLUTを構成すると、1領域あたりのメモリ容量が減り、画像処理の精度が低下する。当然のことながら、複数のLUTをそれぞれ構成する複数のメモリを画像処理装置に設けると、画像処理装置のコストが増加する。 As a method of increasing the number of words in the LUT, a method of reducing the bit depth per word can be considered. However, reducing the bit depth reduces the accuracy of image processing. In addition, the LUT that is desired to be used may differ among a plurality of regions of the image. However, if a plurality of LUTs are configured using one memory, the memory capacity per area is reduced, and the accuracy of image processing is reduced. As a matter of course, if a plurality of memories each configuring a plurality of LUTs are provided in the image processing apparatus, the cost of the image processing apparatus increases.
本発明は、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる技術を提供することを目的とする。 An object of the present invention is to provide a technique capable of obtaining a highly accurate image processing result without increasing the cost of an image processing apparatus.
本発明の第1の態様は、
画像処理装置であって、
入力画像データに第1の画像処理を施す第1の処理手段と、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信手段と、
前記第1の処理手段による前記第1の画像処理の結果と、前記通信手段によって取得された前記第2の画像処理の結果とを合成する合成処理を行う合成手段と、
を有することを特徴とする画像処理装置である。
The first aspect of the present invention is:
An image processing apparatus,
First processing means for performing first image processing on input image data;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. Communication means for causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing apparatus;
Combining means for combining the result of the first image processing by the first processing means and the result of the second image processing acquired by the communication means;
An image processing apparatus comprising:
本発明の第2の態様は、
第1の画像処理装置と第2の画像処理装置を有する画像処理システムであって、
前記第1の画像処理装置は、
前記第1の画像処理装置に入力された画像データである第1の入力画像データに第1の画像処理を施す第1の処理手段と、
前記第2の画像処理装置との間の通信を行う第1の通信手段と、
前記第1の処理手段による前記第1の画像処理の結果と、前記第1の通信手段による通信の結果とを合成する第1の合成処理を行う第1の合成手段と、を有し、
前記第2の画像処理装置は、前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段、を有し、
前記第1の通信手段は、前記第2の画像処理装置との間の通信を行うことにより、前記第1の入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記第1の入力画像データに前記第2の画像処理を施した結果を前記第2の画像処理装置から取得し、
前記第1の合成処理は、前記第1の入力画像データに対する前記第1の画像処理の結果と、前記第1の通信手段によって取得された前記第2の画像処理の結果とを合成する処理である
ことを特徴とする画像処理システムである。
The second aspect of the present invention is:
An image processing system having a first image processing device and a second image processing device,
The first image processing apparatus includes:
First processing means for performing first image processing on first input image data which is image data input to the first image processing apparatus;
First communication means for performing communication with the second image processing apparatus;
First combining means for performing first combining processing for combining the result of the first image processing by the first processing means and the result of communication by the first communication means;
The second image processing apparatus includes second processing means for performing second image processing different from the first image processing;
The first communication unit causes the second processing unit to perform the second image processing on the first input image data by performing communication with the second image processing apparatus. A result obtained by performing the second image processing on the first input image data is obtained from the second image processing apparatus;
The first synthesizing process is a process of synthesizing the result of the first image processing on the first input image data and the result of the second image processing acquired by the first communication unit. An image processing system is characterized by being.
本発明の第3の態様は、
第1の画像処理を行う第1の処理手段を有する画像処理装置の制御方法であって、
前記画像処理装置に入力された画像データである入力画像データに対する前記第1の画像処理を、前記第1の処理手段に行わせる処理ステップと、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信ステップと、
前記処理ステップにおいて取得された前記第1の画像処理の結果と、前記通信ステップにおいて取得された前記第2の画像処理の結果とを合成する合成処理を行う合成ステップと、
を有することを特徴とする画像処理装置の制御方法である。
The third aspect of the present invention is:
A control method for an image processing apparatus having first processing means for performing first image processing,
A processing step for causing the first processing means to perform the first image processing on input image data which is image data input to the image processing apparatus;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. A communication step of causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing device;
A synthesis step for performing a synthesis process for synthesizing the result of the first image processing acquired in the processing step and the result of the second image processing acquired in the communication step;
A control method for an image processing apparatus, comprising:
本発明の第4の態様は、
第1の画像処理を行う第1の処理手段を有する画像処理装置の制御方法をコンピュータに実行させるためのプログラムであって、
前記制御方法は、
前記画像処理装置に入力された画像データである入力画像データに対する前記第1の画像処理を、前記第1の処理手段に行わせる処理ステップと、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信ステップと、
前記処理ステップにおいて取得された前記第1の画像処理の結果と、前記通信ステップにおいて取得された前記第2の画像処理の結果とを合成する合成処理を行う合成ステップと、
を有する
ことを特徴とするプログラムである。
The fourth aspect of the present invention is:
A program for causing a computer to execute a control method of an image processing apparatus having first processing means for performing first image processing,
The control method is:
A processing step for causing the first processing means to perform the first image processing on input image data which is image data input to the image processing apparatus;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. A communication step of causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing device;
A synthesis step for performing a synthesis process for synthesizing the result of the first image processing acquired in the processing step and the result of the second image processing acquired in the communication step;
It is a program characterized by having.
本発明によれば、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。 According to the present invention, a highly accurate image processing result can be obtained without increasing the cost of the image processing apparatus.
<実施例1>
以下、本発明の実施例1に係る画像処理装置及びその制御方法について説明する。図1は、本実施例に係る画像処理装置100の構成の一例を示すブロック図である。画像処理装置100は、例えば、複数の画像処理装置を有する画像処理システムにおいて使用される。
<Example 1>
Hereinafter, an image processing apparatus and a control method thereof according to
アドレス決定部101は、入力画像データの画素値に応じたアドレスを決定する(アドレス決定処理)。入力画像データは、画像処理装置100に入力された画像データである。アドレス決定処理は、入力画像データの各画素について行われる。アドレス決定処理では、例えば、入力画像データの画素値の上位数ビットの値に応じてアドレスを決定する。
The
アドレス交換部102は、他の画像処理装置との間の通信を行う。具体的には、アドレス交換部102は、アドレス決定部101で決定されたアドレスを他の画像処理装置に出力したり、他の画像処理装置からアドレスを取得したりする。
The
アドレス選択部103は、アドレス決定部101で決定されたアドレスと、アドレス交換部102によって他の画像処理装置から取得されたアドレスとの一方を選択し、選択したアドレスをLUT104に出力する。
The
LUT104は、入力画像データに第1の画像処理を施すルックアップテーブル(Look Up Table;LUT)である。LUT104は、アドレス(入力値)が入力された場合に、入力されたアドレスに対応する出力値(第1の画像処理後の画素値である第1の処理値)を出力する。アドレス決定部101で決定されたアドレスがLUT104に入力された場合、LUT104では、入力画像データに第1の画像処理が施されることとなる。
The
LUT設定部105は、LUT104の設定を行う。
The
処理値交換部106は、上記他の画像処理装置との間の通信を行う。具体的には、処理
値交換部106は、LUT104によって得られた処理値を他の画像処理装置に出力したり、他の画像処理装置から処理値を取得したりする。
The processing
本実施例では、上記他の画像処理装置は、第1の画像処理とは異なる第2の画像処理を行うLUTを有する。他の画像処理装置が有するLUTを、以後、「他のLUT」と記載する。アドレス交換部102は、他の画像処理装置との間の通信を行うことにより、入力画像データに対する第2の画像処理を他のLUTに行わせる。具体的には、アドレス決定部101で決定されたアドレスがアドレス交換部102から他の画像処理装置に出力されると、アドレス決定部101で決定されたアドレスが、他のLUTに入力される。その結果、他のLUTの出力値として、入力画像データの画素値に第2の画像処理を施した結果である第2の処理値が得られる。そのため、「入力画像データに対する第2の画像処理を他のLUTに行わせる処理」は、「アドレス決定部101で決定されたアドレスに対応する出力値を他のLUTに出力させる処理」とも言える。そして、処理値交換部106は、他の画像処理装置との間の通信を行うことにより、入力画像データの画素値に第2の画像処理を施した結果である第2の処理値を、他の画像処理装置から取得する。また、処理値交換部106は、他の画像処理装置から取得されたアドレスに対応する処理値を、他の画像処理装置に出力する。
In this embodiment, the other image processing apparatus includes an LUT that performs second image processing different from the first image processing. The LUTs possessed by other image processing apparatuses are hereinafter referred to as “other LUTs”. The
なお、アドレス交換部102と処理値交換部106の代わりに、アドレス交換部102と処理値交換部106の機能を有する1つの通信部が使用されてもよい。
Instead of the
処理値合成部107は、LUT104による第1の画像処理の結果と、処理値交換部106によって取得された第2の画像処理の結果とを合成する合成処理を行う。合成処理は、入力画像データに第1の画像処理を施した結果と、入力画像データに第2の画像処理を施した結果とを合成する処理である。本実施例では、合成処理は、入力画像データの画素値に応じたアドレスに対応するLUT104の出力値である第1の処理値と、当該アドレスに対応する他のLUTの出力値である第2の処理値とを合成する処理である。本実施例では、入力画像データの各画素について合成処理が行われる。そして、処理値合成部107は、合成処理後の処理値(合成処理値)を出力する。
The processing
処理値選択部108は、LUT104の出力値である第1の処理値と、処理値合成部107の出力値である合成処理値との一方を選択し、選択した処理値(選択処理値)を出力する。
The processing
補間部109は、入力画像データの画素値に基づいて、選択処理値の補間演算を行う。なお、入力画像データの画素値の全ビットが補間演算に用いられてもよいし、入力画像データの画素値の一部のビットが補間演算に用いられてもよい。例えば、アドレス決定部101がアドレスを決定する際に、入力画像データの画素値を構成する複数ビットのうち上位数ビットが使用されたとする。この場合には、入力画像データの画素値を構成する複数ビットのうち、アドレス決定部101がアドレスを決定する際に使用されなかった下位数ビットが補間演算に使用されてもよい。補間演算は、線形補間を実現する演算であってもよいし、非線形補間を実現する演算であってもよい。補間部109は、補間演算後の処理値を、出力画像データの画素値として出力する。
The
なお、処理値選択部108と補間部109が省略され、合成処理値が出力画像データの画素値として使用されてもよい。
Note that the processing
LUT設定部105が行うLUT104の設定について、図2,3を用いて説明する。
ここでは、LUT104が、X×Yビットのデータ容量を有するSRAM(Static Random Access Memory)で構成されているとする。LUT設定
部105は、SRAMのサイズに収まるように、LUT104を構成する各第1の処理値のビット幅と、LUT104のワード数(アドレスの範囲)とを決定する。そして、LUT設定部105は、決定されたビット幅と、決定されたワード数とに応じて、アドレスと第1の処理値を、SRAM上にマッピングする。それにより、決定された範囲(ワード数)のアドレスを示し、かつ、決定されたビット幅を有する第1の処理値が各アドレスに対応付けられたLUT104が設定される。
The setting of the
Here, it is assumed that the
図2は、LUT104の構成の一例を示す。図2は、1ワード(1アドレス)あたりの第1の処理値のビット幅がXビットであり、かつ、ワード数がYワードである場合の例を示す。図2に示すLUT104を設定するためには、X×Yビット(=Xビット×Yワード)のデータ容量が必要である。上述したように、SRAMのデータ容量はX×Yビットである。そのため、図2に示すLUT104は設定可能である。図2において、「ADR=x」はアドレスxを示し、dat[x]はアドレスxに対応する第1の処理値を示す。
FIG. 2 shows an example of the configuration of the
図3も、LUT104の構成の一例を示す。図3は、ワード数が2Yワード(図2の2倍)である場合の例を示す。しかしながら、1ワードあたりの第1の処理値のビット幅としてXビット(図2と同じ値)を使用すると、LUT104の設定に必要なデータ容量がSRAMのデータ容量(X×Yビット)を超えてしまい、LUT104を設定できない。具体的には、2×X×Yビット(=Xビット×2Yワード)のデータ容量が、LUT104の設定に必要となる。そのため、図3の例では、1ワードあたりの第1の処理値のビット幅として、X/2ビットが使用されている。それにより、LUT104の設定に必要なデータ容量を、X×Yビット(=X/2ビット×2Yワード)に維持することができ、LUT104を設定できる。本実施例では、図3に示すLUT104が設定された場合の例を説明する。図3において、「ADR=x」はアドレスxを示し、dat1[x]はアドレスxに対応する第1の処理値を示す。
FIG. 3 also shows an example of the configuration of the
HDR(High Dynamic Range)画像データと呼ばれる、輝度のダイナミックレンジが広い画像データに画像処理を施す場合、LUTのワード数(アドレス範囲)を増やすことが考えられる。しかしながら、図3に示すように、アドレス範囲を拡大すると、1ワードあたりの処理値のビット幅が低減し、1ワードあたりの処理値の精度が低下する。SRAMのデータ容量を増やせば、処理値の精度の低下を抑制することができるが、画像処理装置のコストが増加してしまう。 When image processing is performed on image data having a wide luminance dynamic range called HDR (High Dynamic Range) image data, it is conceivable to increase the number of words (address range) of the LUT. However, as shown in FIG. 3, when the address range is expanded, the bit width of the processing value per word is reduced, and the accuracy of the processing value per word is lowered. Increasing the data capacity of the SRAM can suppress a decrease in accuracy of the processing value, but increases the cost of the image processing apparatus.
そこで、本実施例では、他の画像処理装置を利用して、画像処理に使用されるLUTの精度の向上を実現する。具体的には、他の画像処理装置を利用して、1ワードあたりの処理値の精度を下げることなく、アドレス範囲(ワード数)を拡大する。それにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。 Therefore, in this embodiment, the accuracy of the LUT used for image processing is improved by using another image processing apparatus. Specifically, the address range (number of words) is expanded without lowering the accuracy of the processing value per word using another image processing apparatus. Thereby, it is possible to obtain highly accurate image processing results without increasing the cost of the image processing apparatus.
図4は、本実施例に係る画像処理システムの構成の一例を示すブロック図である。図4に示すように、本実施例に係る画像処理システムは、画像処理装置100と画像処理装置200を有する。なお、画像処理システムは3台以上の画像処理装置を有していてもよい。画像処理装置200は、アドレス決定部201、アドレス交換部202、アドレス選択部203、LUT204、LUT設定部205、処理値交換部206、処理値合成部207、処理値選択部208、及び、補間部209を有する。
FIG. 4 is a block diagram illustrating an example of the configuration of the image processing system according to the present embodiment. As shown in FIG. 4, the image processing system according to the present embodiment includes an
アドレス決定部201は、アドレス決定部101と同様の機能を有する。アドレス交換部202は、アドレス交換部102と同様の機能を有する。アドレス選択部203は、アドレス選択部103と同様の機能を有する。LUT204は、LUT104と同様の機能を有する。LUT設定部205は、LUT設定部105と同様の機能を有する。処理値交換部206は、処理値交換部106と同様の機能を有する。処理値合成部207は、処理
値合成部107と同様の機能を有する。処理値選択部208は、処理値選択部108と同様の機能を有する。そして、補間部209は、補間部109と同様の機能を有する。即ち、画像処理装置200は、画像処理装置100と同様の構成を有する。画像処理装置200では、画像処理装置100の処理に関する上記説明における「第1」と「第2」を入れ替えた処理が行われる。
The
アドレスの送受信のための通信は、アドレス交換部102とアドレス交換部202との間で行われ、処理値の送受信のための通信は、処理値交換部106と処理値交換部206との間で行われる。
Communication for address transmission / reception is performed between the
図5は、LUT104、LUT204、及び、LUT104とLUT204を合成した合成LUTの一例を示す。LUT104は図5の左側に示されており、LUT204は図5の真ん中に示されており、合成LUTは図5の右側に示されている。図5のLUT104は、図3のLUT104と同じものである。図5のLUT204では、図5のLUT104と同様に、1ワードあたりの処理値(第2の処理値)のビット幅がX/2ビットであり、ワード数が2Yワードである。図5において、「ADR=x」はアドレスxを示し、dat1[x]はアドレスxに対応する第1の処理値を示し、dat2[x]はアドレスxに対応する第2の処理値を示す。
FIG. 5 shows an example of the
本実施例では、第1の処理値dat1として、画素値に所定の画像処理(高精度な画像処理)を施した画素値を構成する複数の部分値のいずれかである第1の部分値を使用する。そして、第2の処理値dat2として、上記複数の部分値のいずれかであり、且つ、第1の部分値とは異なる部分値である第2の部分値を使用する。第1の部分値と第2の部分値を合成することにより、第1の処理値dat1や第2の処理値dat2に比べ高精度な処理値を、合成処理値として得ることができる。複数の部分値の数は、例えば、画像処理システムが有する画像処理装置の数と一致する。複数の画像処理装置により得られた複数の部分値を合成することにより、高精度な画像処理の結果と同じ画素値を得ることができる。 In the present embodiment, as the first processing value dat1, a first partial value that is one of a plurality of partial values constituting a pixel value obtained by performing predetermined image processing (high-precision image processing) on the pixel value is used. use. Then, as the second processing value dat2, a second partial value that is one of the plurality of partial values and is different from the first partial value is used. By synthesizing the first partial value and the second partial value, it is possible to obtain a processing value with higher accuracy than the first processing value dat1 and the second processing value dat2 as a combined processing value. The number of the plurality of partial values matches, for example, the number of image processing apparatuses included in the image processing system. By synthesizing a plurality of partial values obtained by a plurality of image processing apparatuses, it is possible to obtain the same pixel value as the result of high-precision image processing.
本実施例では、所定の画像処理を実現するLUTとして、1ワードあたりの処理値のビット幅がXビットであり、かつ、ワード数が2YワードであるLUTを想定する。そして、Xビットの処理値の上位X/2ビットが、第1の処理値dat1として使用され、Xビットの処理値の下位X/2ビットが、第2の処理値dat2として使用される。そして、図5に示すように、第1の処理値dat1と第2の処理値dat2を合成することにより、高精度なLUT(ビット幅がXビットであり、かつ、ワード数が2YワードであるLUT)を用いた画像処理の結果を得ることができる。 In the present embodiment, an LUT that assumes that the bit width of the processing value per word is X bits and the number of words is 2Y words is assumed as an LUT that realizes predetermined image processing. Then, the upper X / 2 bits of the X-bit processed value are used as the first processed value dat1, and the lower X / 2 bits of the X-bit processed value are used as the second processed value dat2. Then, as shown in FIG. 5, by synthesizing the first processing value dat1 and the second processing value dat2, a high-precision LUT (the bit width is X bits and the number of words is 2Y words). The result of image processing using (LUT) can be obtained.
次に、本実施例に係る画像処理システムの処理フローの一例について説明する。図6は、本実施例に係る画像処理システムの処理フローの一例を示すフローチャートである。ここでは、画像処理装置100に入力された入力画像データに関する処理について説明する。なお、画像処理装置200に入力された入力画像データに関する処理については、画像処理装置100に入力された入力画像データに関する処理と同様であるため、説明を省略する。
Next, an example of a processing flow of the image processing system according to the present embodiment will be described. FIG. 6 is a flowchart illustrating an example of a processing flow of the image processing system according to the present embodiment. Here, processing relating to input image data input to the
まず、S101にて、アドレス決定部101が、入力画像データの画素値からアドレスを決定する。アドレス決定部101は、決定したアドレスを、アドレス交換部102およびアドレス選択部103に出力する。
First, in S101, the
次に、S102にて、アドレス交換部102が、画像処理装置200のアドレス交換部202との間の通信(アドレス交換)を開始する。例えば、S101で決定されたアドレ
スをアドレス交換部102がアドレス交換部202に出力する処理が、アドレス交換として行われる。アドレス交換は、S101で決定されたアドレスをアドレス交換部102がアドレス交換部202に出力する処理の他に、アドレス交換部202から出力されたアドレスをアドレス交換部102が取得する処理を含んでいてもよい。本実施例では、アドレス交換の実行と並列に、S103とS104の処理が行われる。アドレス交換が完了した後に、S103に処理が進められてもよい。
Next, in S <b> 102, the
S103では、アドレス選択部103が、アドレス決定部101で決定されたアドレスを選択し、選択したアドレスをLUT104に出力する。即ち、アドレス選択部103は、S101で決定されたアドレスをLUT104に出力する。
In step S <b> 103, the
S104では、LUT104が、S103でアドレス選択部103から出力されたアドレスに対応する第1の処理値dat1を、処理値合成部107に出力する(第1の処理値dat1の生成)。処理値合成部107は、合成処理が完了するまで、入力された処理値を保持する。
In S104, the
次に、S105にて、画像処理装置200のアドレス交換部202が、アドレス交換部102との間のアドレス交換が完了したか否かを判断する。例えば、S101で決定されたアドレスをアドレス交換部202がアドレス交換部102から取得する処理が完了した場合に、アドレス交換が完了したと判断される。そして、S101で決定されたアドレスをアドレス交換部202がアドレス交換部102から取得する処理が完了していない場合に、アドレス交換が完了していないと判断される。アドレス交換が完了したと判断されるまでS105の処理が繰り返され、アドレス交換が完了したと判断されると、S106に処理が進められる。
In step S <b> 105, the
S106では、アドレス交換部202が、S101で決定されたアドレスを、アドレス選択部203を介してLUT204に出力する。それにより、LUT204において、S101で決定されたアドレスに対応する第2の処理値dat2が生成される。そして、LUT204が、S101で決定されたアドレスに対応する第2の処理値dat2を、処理値交換部206に出力する。
In S106, the
次に、S107にて、処理値交換部206が、画像処理装置100の処理値交換部106との間の通信(処理値交換)を開始する。例えば、S106で得られた第2の処理値dat2を処理値交換部206が処理値交換部106に出力する処理が、処理値交換として行われる。処理値交換は、S106で得られた第2の処理値dat2を処理値交換部206が処理値交換部106に出力する処理の他に、処理値交換部106から出力された第1の処理値dat1を処理値交換部206が取得する処理を含んでいてもよい。
In step S <b> 107, the process value exchange unit 206 starts communication (process value exchange) with the process
そして、S108にて、処理値交換部106が、処理値交換部206との間の処理値交換が完了したか否かを判断する。例えば、S106で得られた第2の処理値dat2を処理値交換部106が処理値交換部206から取得する処理が完了した場合に、処理値交換が完了したと判断される。そして、S106で得られた第2の処理値dat2を処理値交換部106が処理値交換部206から取得する処理が完了していない場合に、処理値交換が完了していないと判断される。処理値交換が完了したと判断されるまでS108の処理が繰り返され、処理値交換が完了したと判断されると、S109に処理が進められる。また、処理値交換が完了したと判断されると、処理値交換部106は、S106で得られた第2の処理値dat2を処理値合成部107に出力する。
In S108, process
S109では、処理値合成部107が、S104で入力された第1の処理値dat1と、S108で入力された第2の処理値dat2とを合成する(合成処理)。これにより、
図5に示すようなビット幅Xビットの合成処理値が得られる。処理値合成部107は、合成処理値を処理値選択部108に出力する。
In S109, the process
A composite processing value having a bit width of X bits as shown in FIG. 5 is obtained. The process
次に、S110にて、処理値選択部108が、処理値合成部107の出力値を選択し、選択した出力値を補間部109に出力する。即ち、処理値選択部108は、S109で得られた合成処理値を補間部109に出力する。そして、補間部109が、入力画像データの画素値に基づいて、合成処理値の補間演算を行う。
Next, in S110, the processing
図7は、本実施例に係る画像処理システムの処理タイミングの一例を示すタイムチャートである。図7は、図6を用いて説明した処理フローに対応するタイムチャートである。 FIG. 7 is a time chart illustrating an example of processing timing of the image processing system according to the present embodiment. FIG. 7 is a time chart corresponding to the processing flow described with reference to FIG.
時刻t1で、画像処理装置100のアドレス決定部101に画像データが入力され、アドレスの決定が開始される。次に、時刻t2で、アドレスの決定が完了し、決定されたアドレスがアドレス交換部102やLUT104に入力される。そして、時刻t3で、時刻t2で決定されたアドレスに対応する第1の処理値dat1を、LUT104が読み出す。次に、時刻t4で、読み出された第1の処理値dat1が処理値合成部107に入力される。処理値合成部107に入力された第1の処理値dat1は、合成処理が完了するまで処理値合成部107で保持される。
At time t1, image data is input to the
時刻t5で、アドレス交換部102からアドレス交換部202とアドレス選択部203を介してLUT204に入力されたアドレスに対応する第2の処理値dat2を、LUT204が読み出す。その後、読み出された第2の処理値dat2が、処理値交換部206に入力される。そして、時刻t6で、読み出された第2の処理値dat2を処理値交換部206から処理値交換部106に出力する処理が開始される。
At time t5, the
時刻t7で、処理値交換部106によって処理値交換部206から取得された第2の処理値dat2が、処理値合成部107に入力され、入力された第2の処理値dat2と、時刻t4から保持されている第1の処理値dat1とが合成される。そして、時刻t8で、補間部109により、処理値合成部107で得られた合成処理値の補間演算が行われる。
At time t7, the second processing value dat2 acquired from the processing value exchanging unit 206 by the processing
ここで、処理値合成部107は、時刻t4で入力された第1の処理値dat1を時刻t7まで保持する必要がある。また、補間部109も、補間演算を行うタイミングまで入力画像データの画素値を保持する必要がある。図示は省略したが、これらの保持は、ラッチを用いた遅延回路、FIFO(First In First Out)メモリ、DRAM(Dynamic Random Access Memory)、等を用いて実現できる。
Here, the processing
なお、画像処理装置100の入力画像データに対する処理を画像処理装置100が行う期間において、画像処理装置200の入力画像データに対する処理を画像処理装置200が行うことがある。このような場合には、LUT204において、画像処理装置100で決定されたアドレスに対応する第2の処理値の読み出しと、画像処理装置200で決定されたアドレスに対応する第2の処理値の読み出しとの2回(2種類)の読み出しが行われる。そのため、このような場合には、入力画像データのレートに対して2倍以上のレートでLUT204を動作させる必要がある。例えば、LUT204の動作周波数(動作速度)を他の機能部の動作周波数の2倍以上に高めれば、入力画像データのレートに対して2倍以上のレートでLUT204を動作させることができる。
Note that the
また、画像処理装置100の入力画像データに対する処理を画像処理装置100が行う期間において、LUT104が画像処理装置200によって使用(参照)されることがあ
る。その場合には、上述した理由と同様の理由により、入力画像データのレートに対して2倍以上のレートでLUT104を動作させる必要がある。
Further, the
以上述べたように、本実施例によれば、複数の画像処理装置を連携して動作させることにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。具体的には、画像処理装置のコストの増加を招くことなく、高精度な画像処理を行うLUTを用いた場合と同等の画像処理結果を得ることができる。本実施例の画像処理システムは、HDR画像データに対する高精度な画像処理に対応可能である。なお、本実施例では、LUTを用いて画像処理が行われる例を説明したが、これに限らない。画像処理の方法は特に限定されない。例えば、関数を用いた演算によって画素値を変換する画像処理が行われてもよい。 As described above, according to the present embodiment, it is possible to obtain a high-precision image processing result without causing an increase in cost of the image processing apparatus by operating a plurality of image processing apparatuses in cooperation with each other. it can. Specifically, an image processing result equivalent to the case of using an LUT that performs high-precision image processing can be obtained without increasing the cost of the image processing apparatus. The image processing system of the present embodiment can cope with high-precision image processing for HDR image data. In this embodiment, an example in which image processing is performed using an LUT has been described. However, the present invention is not limited to this. The image processing method is not particularly limited. For example, image processing for converting pixel values by calculation using a function may be performed.
<実施例2>
以下、本発明の実施例2に係る画像処理装置及びその制御方法について説明する。図8は、本実施例に係る画像処理装置300の構成の一例を示すブロック図である。
<Example 2>
Hereinafter, an image processing apparatus and a control method thereof according to
領域検出部301は、入力画像データによって表された画像(入力画像)の領域から、複数の特定領域を区別して検出する。本実施例では、領域検出部301は、入力画像の領域から、第1の領域と、第2の領域とを検出する。本実施例では、第2の領域は、輝度のダイナミックレンジが通常の値である通常表示に対応した領域である。そして、第1の領域は、第2の領域に対応した表示よりも輝度のダイナミックレンジが広い表示(HDR表示)に対応した領域である。本実施例では、第1の領域を「HDR領域」と記載し、第2の領域を「通常領域」と記載する。領域検出部301は、HDR領域と通常領域の一方の領域A1を少なくとも含む領域における入力画像データを、入力選択部305に出力する。また、領域検出部301は、HDR領域と通常領域の他方の領域A2を少なくとも含む領域における入力画像データを、画像交換部A303に出力する。本実施例では、領域A1における入力画像データが入力選択部305に出力され、領域A2における入力画像データが画像交換部A303に出力される。以後、領域A1における入力画像データを「画像データD1」と記載し、領域A2における入力画像データを「画像データD2」と記載する。
The
なお、第1の領域と第2の領域は上述した領域に限らない。例えば、第1の領域は第1の色を多く含む領域であってもよいし、第2の領域は第2の色を多く含む領域であってもよい。第1の色と第2の色は特に限定されないが、例えば、第1の色は無彩色であり、第2の色は有彩色である。 Note that the first region and the second region are not limited to the above-described regions. For example, the first region may be a region including a large amount of the first color, and the second region may be a region including a large amount of the second color. The first color and the second color are not particularly limited. For example, the first color is an achromatic color, and the second color is a chromatic color.
なお、特定領域の検出方法は特に限定されない。例えば、入力画像データの各画素値の上位数ビットを用いて特定領域を検出することができる。また、特定領域を示す領域情報が入力画像データに付加されている場合には、領域情報を参照することで、特定領域を検出することができる。 In addition, the detection method of a specific area is not specifically limited. For example, the specific area can be detected using the upper several bits of each pixel value of the input image data. In addition, when region information indicating a specific region is added to the input image data, the specific region can be detected by referring to the region information.
制御部302は、領域検出部301で検出された各特定領域の種類とサイズに基づいて、どの種類の特定領域が大きいかを判断する。また、制御部302は、他の画像処理装置との間の通信を行うことができ、画像処理装置300で検出された各特定領域の種類とサイズを、他の画像処理装置で検出された各特定領域の種類とサイズと比較することができる。
The
画像交換部A303は、他の画像処理装置との間の通信を行う。具体的には、画像交換部A303は、領域検出部301から出力された画像データD2を他の画像処理装置に出力したり、他の画像処理装置から画像データD3を取得したりする。
The image exchange unit A303 performs communication with other image processing apparatuses. Specifically, the image exchange unit A303 outputs the image data D2 output from the
画像保持部304は、画像交換部A303によって他の画像処理装置から取得された画像データD3を保持(記憶)する。画像保持部304で保持された画像データD3は、入力選択部305により、特定のタイミングで画像保持部304から読み出される。
The
入力選択部305は、領域検出部301から出力された画像データD1と、画像保持部304で保持された画像データD3との一方を選択し、選択した画像データをLUT306に出力する。
The
LUT306は、第1の画像処理を行うLUTである。LUT306は、LUT306に入力された画像データの画素値に対応する出力値(第1の画像処理後の画素値である第1の処理値)を出力する。LUT306では、LUT306に入力された画像データの各画素について、画素値を第1の処理値に変換する処理が行われる。LUT306では、画像データD1に第1の画像処理が施されたり、画像データD3に第1の画像処理が施されたりする。以後、画像データD1に第1の画像処理を施すことによって得られた画像データを「処理画像データPD1」と記載し、画像データD3に第1の画像処理を施すことによって得られた画像データを「処理画像データPD3」と記載する。なお、実施例1で述べたように、第1の処理値の補間演算が行われてもよい。
The
LUT設定部307は、領域A1に対応する画像処理が第1の画像処理として実行されるように、LUT306の設定を行う。「LUTの設定」は、「画像処理の設定」とも言える。例えば、「領域A1に対応する画像処理が第1の画像処理として実行されるようにLUTを設定する処理」は、「領域A1に対応する画像処理を第1の画像処理として設定する処理」とも言える。本実施例では、制御部302により、HDR領域が領域A1として選択されたり、通常領域が領域A1として選択されたりする。そのため、LUT設定部307は、領域A1の選択結果に応じて、HDR領域に対応する画像処理を実行するLUTと、通常領域に対応する画像処理を実行するLUTとの間で、LUT306の設定を切り替える。具体的には、制御部302は、LUT設定部307に対して、領域A1の選択結果に応じた指示を行う。そして、LUT設定部307は、制御部302からの指示に応じてLUT306の設定を行う。
The
画像交換部B308は、上記他の画像処理装置との間の通信を行う。具体的には、画像交換部B308は、LUT306によって得られた処理画像データPD3を他の画像処理装置に出力したり、他の画像処理装置から画像データを取得したりする。
The image exchange unit B308 performs communication with the other image processing apparatus. Specifically, the image exchange unit B308 outputs the processed image data PD3 obtained by the
本実施例では、上記他の画像処理装置は、第1の画像処理とは異なる第2の画像処理を行うLUTを有する。第2の画像処理は、領域A2に対応する画像処理である。他の画像処理装置が有するLUTを、以後、「他のLUT」と記載する。画像交換部A303は、他の画像処理装置との間の通信を行うことにより、入力画像データに対する第2の画像処理を他のLUTに行わせる。具体的には、領域検出部301から出力された画像データD2が画像交換部A303から他の画像処理装置に出力されると、領域検出部301から出力された画像データD2が、他のLUTに入力される。その結果、他のLUTにより、領域検出部301から出力された画像データD2に第2の画像処理が施される。そのため、「入力画像データに対する第2の画像処理を他のLUTに行わせる処理」は、「領域検出部301から出力された画像データD2に対する第2の画像処理を他のLUTに行わせる処理」とも言える。以後、画像データD2に第2の画像処理を施すことによって得られた画像データを「処理画像データPD2」と記載する。そして、画像交換部B308は、他の画像処理装置との間の通信を行うことにより、処理画像データPD2を他の画像処理装置から取得する。
In this embodiment, the other image processing apparatus includes an LUT that performs second image processing different from the first image processing. The second image processing is image processing corresponding to the area A2. The LUTs possessed by other image processing apparatuses are hereinafter referred to as “other LUTs”. The image exchange unit A303 causes the other LUT to perform the second image processing on the input image data by performing communication with another image processing apparatus. Specifically, when the image data D2 output from the
なお、画像交換部A303と画像交換部B308の代わりに、画像交換部A303と画像交換部B308の機能を有する1つの通信部が使用されてもよい。 Note that instead of the image exchange unit A303 and the image exchange unit B308, one communication unit having the functions of the image exchange unit A303 and the image exchange unit B308 may be used.
合成部309は、LUT306による第1の画像処理の結果と、画像交換部B308によって取得された第2の画像処理の結果とを合成する合成処理を行う。合成処理は、入力画像データに第1の画像処理を施した結果と、入力画像データに第2の画像処理を施した結果とを合成する処理である。本実施例では、合成処理は、処理画像データPD1と処理画像データPD2を合成する処理である。そのため、合成処理により、入力画像の領域A1に対して第1の画像処理を施した画像であり、且つ、入力画像の領域A2に対して第2の画像処理を施した画像である合成画像を表す合成画像データが生成される。そして、処理値合成部107は、合成画像データを出力する。
The
画像処理装置が有するLUTのデータ容量によっては、複数の画像処理に対応する複数のLUTを同時に設定することができないことがある。例えば、1台の画像処理装置において、第1の画像処理に対応するLUTしか設定できず、第2の画像処理に対応するLUTが設定できないことがある。そのような場合には、入力画像の領域A1に対して所望の画像処理を施すことができるが、入力画像の領域A2に対して所望の画像処理を施すことができず、画像処理が画質の劣化を招く虞がある。 Depending on the data capacity of the LUT possessed by the image processing apparatus, it may not be possible to simultaneously set a plurality of LUTs corresponding to a plurality of image processes. For example, in one image processing apparatus, only the LUT corresponding to the first image processing can be set, and the LUT corresponding to the second image processing may not be set. In such a case, the desired image processing can be performed on the area A1 of the input image, but the desired image processing cannot be performed on the area A2 of the input image. There is a risk of deterioration.
そこで、本実施例では、他の画像処理装置を利用して、画像処理に使用されるLUTの数の増加を実現する。それにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。 Therefore, in this embodiment, an increase in the number of LUTs used for image processing is realized using another image processing apparatus. Thereby, it is possible to obtain highly accurate image processing results without increasing the cost of the image processing apparatus.
図9は、本実施例に係る画像処理システムの構成の一例を示すブロック図である。図9に示すように、本実施例に係る画像処理システムは、画像処理装置300と画像処理装置400を有する。なお、画像処理システムは、3台以上の画像処理装置を有していてもよい。画像処理装置400は、領域検出部401、制御部402、画像交換部A403、画像保持部404、入力選択部405、LUT406、LUT設定部407、画像交換部B408、及び、合成部409を有する。
FIG. 9 is a block diagram illustrating an example of the configuration of the image processing system according to the present embodiment. As shown in FIG. 9, the image processing system according to the present embodiment includes an
領域検出部401は、領域検出部301と同様の機能を有する。制御部402は、制御部302と同様の機能を有する。画像交換部A403は、画像交換部A303と同様の機能を有する。画像保持部404は、画像保持部304と同様の機能を有する。入力選択部405は、入力選択部305と同様の機能を有する。LUT406は、LUT306と同様の機能を有する。LUT設定部407は、LUT設定部307と同様の機能を有する。画像交換部B408は、画像交換部B308と同様の機能を有する。そして、合成部409は、合成部309と同様の機能を有する。即ち、画像処理装置400は、画像処理装置300と同様の構成を有する。画像処理装置400では、画像処理装置300の処理に関する上記説明における「第1」と「第2」を入れ替え、画像処理装置100の処理に関する上記説明における「領域A1」を「領域A2」を入れ替えた処理が行われる。
The
本実施例では、制御部302と制御部402との間で通信が行われ、画像処理装置300と画像処理装置400との間で送受信される画像データのデータサイズが低減されるように、領域A1,A2を決定する。そして、領域A1,A2の決定結果に応じて、LUTの設定(画像処理の設定)が行われる。
In the present embodiment, the communication is performed between the
具体的には、領域検出部301で検出されたHDR領域が、領域検出部401で検出されたHDR領域よりも大きい場合には、HDR領域が領域A1として選択され、通常領域が領域A2として選択される。その結果、HDR領域に対応する画像処理を行うLUTがLUT306として設定され、通常領域に対応する画像処理を行うLUTがLUT406
として設定される。領域検出部301で検出されたHDR領域が、領域検出部401で検出されたHDR領域よりも小さい場合には、通常領域が領域A1として選択され、HDR領域が領域A2として選択される。その結果、通常領域に対応する画像処理を行うLUTがLUT306として設定され、HDR領域に対応する画像処理を行うLUTがLUT406として設定される。
Specifically, when the HDR area detected by the
Set as When the HDR area detected by the
なお、領域A1,A2の種類は、メーカーによって予め定められていてもよいし、ユーザ操作に応じて設定されてもよい。例えば、HDR領域が常に領域A1として使用され、通常領域が常に領域A2として使用されてもよい。 Note that the types of the areas A1 and A2 may be determined in advance by the manufacturer or may be set according to a user operation. For example, the HDR area may always be used as the area A1, and the normal area may always be used as the area A2.
また、画像処理前の画像データの送受信のための通信は、画像交換部A303と画像交換部A403との間で行われ、画像処理後の画像データの送受信のための通信は、画像交換部B308と画像交換部B408との間で行われる。 Communication for transmission / reception of image data before image processing is performed between the image exchange unit A303 and the image exchange unit A403, and communication for transmission / reception of image data after image processing is performed by the image exchange unit B308. And the image exchange unit B408.
次に、本実施例に係るLUT設定処理(LUTの設定に関する処理)の処理フローの一例について説明する。図10は、本実施例に係るLUT設定処理の処理フローの一例を示すフローチャートである。 Next, an example of a processing flow of LUT setting processing (processing related to LUT setting) according to the present embodiment will be described. FIG. 10 is a flowchart illustrating an example of a process flow of the LUT setting process according to the present embodiment.
まず、S201にて、画像処理装置300の領域検出部301が、第1の入力画像の領域から複数の特定領域を区別して検出し、各特定領域の種類とサイズを制御部302に通知する。同様に、画像処理装置400の領域検出部401が、第2の入力画像の領域から複数の特定領域を区別して検出し、各特定領域の種類とサイズを制御部402に通知する。第1の入力画像は、画像処理装置300に入力された入力画像データによって表された画像であり、第2の入力画像は、画像処理装置400に入力された入力画像データによって表された画像である。本実施例では、複数の特定領域として、HDR領域と通常領域が検出される。
First, in S <b> 201, the
次に、S202にて、制御部302と制御部402との間の通信が行われる。それにより、S201の検出結果(各特定領域の種類とサイズ)に応じて、各画像処理装置の処理対象領域を決定する。本実施例では、領域A1,A2が決定される。処理対象領域の決定は、制御部302と制御部402のそれぞれにおいて行われてもよいし、そうでなくてもよい。処理対象領域の決定が制御部302と制御部402の一方で行われ、制御部302と制御部402の一方から他方に処理対象領域の決定の結果が通知されてもよい。
Next, in S202, communication between the
そして、S203にて、制御部302が、LUT設定部307を用いて、S202の処理結果に応じたLUTを、LUT306として設定する。同様に、制御部402が、LUT設定部407を用いて、S202の処理結果に応じたLUTを、LUT406として設定する。
In step S <b> 203, the
S202とS203の処理の具体例について、図11〜13を用いて説明する。図11〜13は、第1の入力画像と第2の入力画像の一例を示す図である。なお、図11〜13には、元画像を構成する2つの部分画像が第1の入力画像と第2の入力画像として示されているが、第1の入力画像と第2の入力画像は部分画像に限らない。第1の入力画像と第2の入力画像は、互いに独立した2つの独立画像であってもよい。また、図11〜13では、第1の入力画像のサイズが第2の入力画像のサイズと等しいが、第1の入力画像のサイズは第2の入力画像のサイズと異なっていてもよい。 A specific example of the processing of S202 and S203 will be described with reference to FIGS. 11 to 13 are diagrams illustrating examples of the first input image and the second input image. 11 to 13 show the two partial images constituting the original image as the first input image and the second input image, but the first input image and the second input image are partial. It is not limited to images. The first input image and the second input image may be two independent images that are independent of each other. 11 to 13, the size of the first input image is equal to the size of the second input image, but the size of the first input image may be different from the size of the second input image.
図11は、第1の入力画像にHDR領域と通常領域が含まれ、第2の入力画像に通常領域のみが含まれる場合を示す。この場合には、S202において、HDR領域が領域A1として選択され、通常領域が領域A2として選択される。そして、S203において、H
DR領域に対応する画像処理を行うLUTがLUT306として設定され、通常領域に対応する画像処理を行うLUTがLUT406として設定される。
FIG. 11 shows a case where the first input image includes the HDR region and the normal region, and the second input image includes only the normal region. In this case, in S202, the HDR area is selected as the area A1, and the normal area is selected as the area A2. In S203, H
The LUT that performs image processing corresponding to the DR area is set as the
そして、上述したような選択および設定が行われた場合には、画像処理装置300のLUT306により、第1の入力画像のHDR領域に対して、所望の画像処理(HDR領域に対応する画像処理)が施されることとなる。そして、画像処理装置400のLUT406により、第1の入力画像の通常領域と第2の入力画像の全領域とに対して、所望の画像処理(通常領域に対応する画像処理)が施されることとなる。即ち、第1の入力画像の全領域と、第2の入力画像の全領域とに対して、所望の画像処理を施すことができる。
When the selection and setting as described above are performed, desired image processing (image processing corresponding to the HDR region) is performed on the HDR region of the first input image by the
ここで、通常領域が領域A1として選択され、HDR領域が領域A2として選択された場合を考える。この場合には、画像処理装置300と画像処理装置400との間で、第1の入力画像のHDR領域に対応する画像と、第2の入力画像(全体)とが送受信されることとなる。一方、HDR領域が領域A1として選択され、通常領域が領域A2として選択された場合には、第1の入力画像の通常領域に対応する画像が送受信されることとなる。第1の入力画像の通常領域のサイズは、第1の入力画像のHDR領域のサイズと、第2の入力画像(全体)のサイズとの和よりも小さい。そのため、HDR領域が領域A1として選択され、通常領域が領域A2として選択されることにより、送受信される画像のデータサイズを低減することができる。
Here, consider a case where the normal region is selected as the region A1 and the HDR region is selected as the region A2. In this case, the image corresponding to the HDR region of the first input image and the second input image (entire) are transmitted and received between the
図12は、第1の入力画像に通常領域のみが含まれ、第2の入力画像にHDR領域と通常領域が含まれる場合を示す。この場合には、S202において、通常領域が領域A1として選択され、HDR領域が領域A2として選択される。そして、S203において、通常領域に対応する画像処理を行うLUTがLUT306として設定され、HDR領域に対応する画像処理を行うLUTがLUT406として設定される。
FIG. 12 shows a case where only the normal area is included in the first input image and the HDR area and the normal area are included in the second input image. In this case, in S202, the normal area is selected as the area A1, and the HDR area is selected as the area A2. In S203, the LUT that performs image processing corresponding to the normal area is set as the
そして、上述したような選択および設定が行われた場合には、画像処理装置300のLUT306により、第1の入力画像の全領域と第2の入力画像の通常領域とに対して、所望の画像処理(通常領域に対応する画像処理)が施されることとなる。そして、画像処理装置400のLUT406により、第2の入力画像のHDR領域に対して、所望の画像処理(HDR領域に対応する画像処理)が施されることとなる。即ち、第1の入力画像の全領域と、第2の入力画像の全領域とに対して、所望の画像処理を施すことができる。
When the selection and setting as described above are performed, the
ここで、HDR領域が領域A1として選択され、通常領域が領域A2として選択された場合を考える。この場合には、画像処理装置300と画像処理装置400との間で、第1の入力画像(全体)と、第2の入力画像のHDR領域に対応する画像とが送受信されることとなる。一方、通常領域が領域A1として選択され、HDR領域が領域A2として選択された場合には、第2の入力画像の通常領域に対応する画像が送受信されることとなる。第2の入力画像の通常領域のサイズは、第1の入力画像(全体)のサイズと、第2の入力画像のHDR領域のサイズとの和よりも小さい。そのため、通常領域が領域A1として選択され、HDR領域が領域A2として選択されることにより、送受信される画像のデータサイズを低減することができる。
Here, consider a case where the HDR region is selected as the region A1 and the normal region is selected as the region A2. In this case, the first input image (entire) and the image corresponding to the HDR region of the second input image are transmitted and received between the
図13は、第1の入力画像にHDR領域と通常領域が含まれ、第2の入力画像にもHDR領域と通常領域が含まれる場合を示す。第1の入力画像のHDR領域は、第2の入力画像のHDR領域よりも大きい。この場合には、S202において、HDR領域が領域A1として選択され、通常領域が領域A2として選択される。そして、S203において、HDR領域に対応する画像処理を行うLUTがLUT306として設定され、通常領域に対応する画像処理を行うLUTがLUT406として設定される。
FIG. 13 shows a case where the first input image includes an HDR region and a normal region, and the second input image also includes an HDR region and a normal region. The HDR area of the first input image is larger than the HDR area of the second input image. In this case, in S202, the HDR area is selected as the area A1, and the normal area is selected as the area A2. In step S <b> 203, the LUT that performs image processing corresponding to the HDR area is set as the
そして、上述したような選択および設定が行われた場合には、画像処理装置300のLUT306により、第1の入力画像のHDR領域と第2の入力画像のHDR領域とに対して、所望の画像処理(HDR領域に対応する画像処理)が施されることとなる。そして、画像処理装置400のLUT406により、第1の入力画像の通常領域と第2の入力画像の通常領域とに対して、所望の画像処理(通常領域に対応する画像処理)が施されることとなる。即ち、第1の入力画像の全領域と、第2の入力画像の全領域とに対して、所望の画像処理を施すことができる。
When the selection and setting as described above are performed, a desired image is selected for the HDR area of the first input image and the HDR area of the second input image by the
ここで、通常領域が領域A1として選択され、HDR領域が領域A2として選択された場合を考える。この場合には、画像処理装置300と画像処理装置400との間で、第1の入力画像のHDR領域に対応する画像と、第2の入力画像の通常領域に対応する画像とが送受信されることとなる。一方、HDR領域が領域A1として選択され、通常領域が領域A2として選択された場合には、第1の入力画像の通常領域に対応する画像と、第2の入力画像のHDR領域に対応する画像とが送受信されることとなる。第1の入力画像の通常領域のサイズと、第2の入力画像のHDR領域のサイズとの和は、第1の入力画像のHDR領域のサイズと、第2の入力画像の通常領域のサイズとの和よりも小さい。そのため、HDR領域が領域A1として選択され、通常領域が領域A2として選択されることにより、送受信される画像のデータサイズを低減することができる。
Here, consider a case where the normal region is selected as the region A1 and the HDR region is selected as the region A2. In this case, an image corresponding to the HDR area of the first input image and an image corresponding to the normal area of the second input image are transmitted and received between the
次に、本実施例に係る画像処理システムの全体の処理フローの一例について説明する。図14は、本実施例に係る画像処理システムの全体の処理フローの一例を示すフローチャートである。ここでは、画像処理装置300に入力された入力画像データに関する処理について説明する。なお、画像処理装置400に入力された入力画像データに関する処理については、画像処理装置300に入力された入力画像データに関する処理と同様であるため、説明を省略する。画像処理装置300に入力された入力画像データは、第1の入力画像を表し、画像処理装置400に入力された入力画像データは、第2の入力画像を表す。
Next, an example of the overall processing flow of the image processing system according to the present embodiment will be described. FIG. 14 is a flowchart illustrating an example of the overall processing flow of the image processing system according to the present embodiment. Here, processing relating to input image data input to the
まず、S204にて、領域検出部301が、第1の入力画像の領域から複数の特定領域を区別して検出する。S204の処理は、既に説明したS201の処理である。S204(S201)の処理の後に、S202の処理とS203の処理とが行われ、S205に処理が進められる。なお、領域の種類やサイズが変わらない場合は、S202とS203の処理は省略することができる。
First, in S204, the
S205では、領域検出部301が、第1の入力画像の領域から領域A1(画像処理装置300で処理される特定領域)が検出されたか否かを判断する。領域A1が検出された場合には、領域検出部301が、領域A1における入力画像データである画像データD1を、入力選択部305に出力し、S206の処理が行われる。また、領域検出部301は、第1の入力画像の領域から領域A2(画像処理装置400で処理される特定領域)が検出されたか否かを判断する。領域A2が検出された場合には、領域検出部301が、領域A2における入力画像データである画像データD2を、画像交換部A303に出力し、S207の処理が行われる。領域A1と領域A2の両方が検出された場合には、S206の処理とS207の処理とが並列または順番に行われる。
In S205, the
S206では、入力選択部305が、S205で領域検出部301から出力された画像データD1を、LUT306に出力する。それにより、LUT306において、画像データD1に対し第1の画像処理(領域A1に対応した画像処理)が施され、処理画像データPD1が生成される。
In S206, the
S207では、画像処理装置400を用いた連携処理が行われる。連携処理では、S205で領域検出部301から出力された画像データD2に対し第2の画像処理(領域A2
に対応した画像処理)が施され、処理画像データPD2が生成される。連携処理では、画像交換部A303が、画像データD2を画像処理装置400に出力し、画像交換部B308が、処理画像データPD2を画像処理装置400から取得する。
In S207, cooperative processing using the
Is processed), and processed image data PD2 is generated. In the linkage processing, the image exchange unit A303 outputs the image data D2 to the
そして、S208にて、合成部309が、合成処理に必要な処理画像データを取得する。第1の入力画像の領域から領域A1が検出され、かつ、第1の入力画像の領域から領域A2が検出されなかった場合には、合成部309は、S206で生成された処理画像データPD1をLUT306から取得する。第1の入力画像の領域から領域A1が検出されず、かつ、第1の入力画像の領域から領域A2が検出された場合には、合成部309は、S207で生成された処理画像データPD2を画像交換部B308から取得する。第1の入力画像の領域から領域A1と領域A2の両方が検出された場合には、合成部309は、処理画像データPD1と処理画像データPD2の両方を取得する。その場合、合成部309において、処理画像データPD1と処理画像データPD2の両方が同時に取得されるとは限らない。合成部309は、取得した処理画像データを保持する。
In step S208, the
次に、S209にて、合成部309が、合成処理に必要な全ての処理画像データが取得されたか否かを判断する。取得されていない処理画像データが存在する場合には、S208に処理が戻される。合成処理に必要な全ての処理画像データが取得された場合には、S210に処理が進められる。
Next, in S209, the
S210では、合成部309が、S208で取得された処理画像データを用いた合成処理を行うことにより、合成画像データを生成する。そして、合成部309は、生成した合成画像データを出力する。第1の入力画像の領域から領域A1が検出され、かつ、第1の入力画像の領域から領域A2が検出されなかった場合には、合成部309は、処理画像データPD1を合成画像データとして出力する。第1の入力画像の領域から領域A1が検出されず、かつ、第1の入力画像の領域から領域A2が検出された場合には、合成部309は、処理画像データPD2を合成画像データとして出力する。第1の入力画像の領域から領域A1と領域A2の両方が検出された場合には、合成部309は、処理画像データPD1と処理画像データPD2を合成した合成画像データを出力する。
In S210, the
次に、S207の処理(連携処理)の処理フローの一例について説明する。図15は、連携処理の処理フローの一例を示すフローチャートである。 Next, an example of the processing flow of the processing of S207 (cooperation processing) will be described. FIG. 15 is a flowchart illustrating an example of the processing flow of the cooperation processing.
まず、S211にて、画像処理装置300の画像交換部A303が、S205で領域検出部301から出力された画像データD2を出力する。
First, in S211, the image exchange unit A303 of the
次に、S212にて、画像処理装置400の画像交換部A403が、S211で画像交換部A303から出力された画像データD2を取得し、取得した画像データD2を画像保持部404に出力する。それにより、S211で画像交換部A303から出力された画像データD2が、画像保持部404によって保持される。
Next, in S212, the image exchange unit A403 of the
そして、S213にて、入力選択部405が、現在のタイミングがLUT406を使用可能なタイミングであるか否かを判断する。現在のタイミングがLUT406を使用可能なタイミングでないと判断された場合には、現在のタイミングがLUT406を使用可能なタイミングであると判断されるまで、S213の処理が繰り返される。そして、現在のタイミングがLUT406を使用可能なタイミングであると判断されると、S214に処理が進められる。
In step S <b> 213, the
S214では、入力選択部405が、S212で保持された画像データD2を画像保持部404から読み出し、読み出した画像データD2をLUT406に出力する。それによ
り、LUT406において、画像データD2に対し第2の画像処理(領域A2に対応した画像処理)が施され、処理画像データPD2が生成される。
In S214, the
LUT406を使用可能なタイミングは、LUT406が処理を行っていない期間内のタイミングである。例えば、LUT406を使用可能なタイミングは、画像処理装置400に入力画像データが入力されていないブランク期間内のタイミングである。また、領域検出部401で領域Bが検出されていない期間内のタイミングも、LUT406を使用可能なタイミングである。ここで、LUT406が他の機能部のクロックレートの2倍以上のクロックレートで動作できる場合を考える。この場合には、LUT406のクロックの立ち上がりエッジと、LUT406のクロックの立下りエッジとを検出して、LUT406の処理を時分割して多重化することができる。例えば、入力選択部405は、LUT406のクロックの立ち上がりエッジを検出した場合に、領域検出部401からの画像データをLUT406に出力する。そして、入力選択部405は、LUT406のクロックの立ち下がりエッジを検出した場合に、画像保持部404によって保持された画像データをLUT406に出力する。それにより、LUT406の処理が時分割されて多重化される。この場合、LUT406のクロックの立ち下がりエッジが検出されたタイミングも、S213でLUT406を使用可能なタイミングと判断できる。
The timing when the
次に、S215にて、LUT406が、S214で生成した処理画像データPD2を、画像交換部B408に出力する。そして、画像交換部B408が、取得した処理画像データPD2を画像交換部B308に出力する。
Next, in S215, the
図16は、本実施例に係る画像処理システムの処理タイミングの一例を示すタイムチャートである。図16は、図14,15を用いて説明した処理フローに対応するタイムチャートである。図16の例では、時刻t1から時刻t4までの期間において、画像処理装置300と画像処理装置400の両方に画像が入力され、時刻t9から時刻t10までの期間において、画像処理装置300と画像処理装置400の両方から画像が出力される。図16では、領域A1と領域A2が予め定められているものとする。なお、画像処理装置300に画像が入力されるタイミングは、画像処理装置400に画像が入力されるタイミングと異なっていてもよい。画像処理装置300から画像が出力されるタイミングは、画像処理装置400から画像が出力されるタイミングと異なっていてもよい。
FIG. 16 is a time chart illustrating an example of processing timing of the image processing system according to the present embodiment. FIG. 16 is a time chart corresponding to the processing flow described with reference to FIGS. In the example of FIG. 16, images are input to both the
図16の例では、領域検出部301により、時刻t1から時刻t2の期間に画像処理装置300に入力された画像D1−1と、時刻t3から時刻t4の期間に画像処理装置300に入力された画像D1−2とのそれぞれが、領域Aの画像であると判断される。領域Aは、画像処理装置300で処理される領域である。そして、LUT306により、画像D1−1,D1−2に対して第1の画像処理が施される。画像D1−1に第1の画像処理が施されることにより、処理画像PD1−1が生成され、画像D1−2に第1の画像処理が施されることにより、処理画像PD1−2が生成される。処理画像PD1−1は、時刻t5で合成部309に入力され、処理画像PD1−2は、時刻t6で合成部309に入力される。そして、処理画像PD1−1,PD1−2は、合成部309により保持される。
In the example of FIG. 16, the
また、領域検出部301により、時刻t2から時刻t3の期間に画像処理装置300に入力された画像D2が、領域Bの画像であると判断される。領域Bは、画像処理装置400で処理される領域である。そして、画像交換部A303により、画像D2が画像処理装置400に出力される。
Further, the
一方、領域検出部401では、時刻t1から時刻t4の期間に画像処理装置400に入力された画像D4(画像全体)が、領域Bの画像であると判断される。そして、LUT406により、画像D4に対して第2の画像処理が施される。画像D4に第2の画像処理が
施されることにより、処理画像PD4が生成される。処理画像PD4は、時刻t5で合成部409に入力される。そして、処理画像PD4は、合成部409により保持される。
On the other hand, the
ここで、画像処理装置300から出力された画像D2は、時刻t11で画像処理装置400の画像交換部A403に入力され、画像保持部404によって保持される。しかし、このタイミングは、LUT406が画像D4に対する処理を行っている期間内のタイミングであり、画像D2に対する処理のためにLUT406を使用可能なタイミングではない。そのため、入力選択部405は、画像D2に対する処理のためにLUT406を使用可能なタイミングまで待つ。そして、入力選択部405は、画像処理装置400に対する画像の入力が行われていないブランク期間内の時刻t12で画像保持部404から画像D2を読み出し、読み出した画像D2をLUT406に出力する。その後、LUT406により、画像D2に対して第2の画像処理が施される。画像D2に第2の画像処理が施されることにより、処理画像PD2が生成される。処理画像PD2は、画像交換部B408により、画像処理装置300に出力される。
Here, the image D2 output from the
そして、時刻t7で画像処理装置300の画像交換部B308に処理画像PD2が入力され、画像交換部B308が、処理画像PD2を合成部309に出力する。その後、時刻t9までに合成部309による合成処理が行われ、時刻t9で、画像処理装置300の合成部309と、画像処理装置400の合成部409とから、画像が出力される。合成部309からは、処理画像PD1−1,PD1−2,PD2を合成した合成画像が出力され、合成部409からは、処理画像PD4が出力される。
Then, at time t7, the processed image PD2 is input to the image exchanging unit B308 of the
これら一連の処理が入力画像の1フレーム期間内に完了されれば、各フレームの入力画像を問題無く処理することができる。また、複数フレームの画像を保持できる構成を合成部309が有していれば、合成部309による画像出力の完了を待たずに、次のフレームの入力画像を処理することができる。
If these series of processes are completed within one frame period of the input image, the input image of each frame can be processed without any problem. If the
図17も、図14,15を用いて説明した処理フローに対応するタイムチャートである。図17は、LUT406が他の機能部のクロックレートの2倍以上のクロックレートで動作でき、LUT406の処理を時分割して多重化した例を示す。
FIG. 17 is also a time chart corresponding to the processing flow described with reference to FIGS. FIG. 17 shows an example in which the
図17の例では、LUT406の処理が時分割されて多重化されたため、画像処理装置300から出力された画像D2が画像処理装置400の画像交換部A403に入力された時刻t11で、画像D2に対する処理のためにLUT406を使用できる。そのため、画像保持部404は実質的に不要である。図17では、画像保持部404は省略されている。
In the example of FIG. 17, since the processing of the
図17の例では、図16の時刻t12よりも早い時刻t13で、LUT406に画像D2が入力される。そして、時刻t14で、画像交換部B408から画像処理装置300に、処理画像PD2が出力される。
In the example of FIG. 17, the image D2 is input to the
そして、図16の時刻t7よりも早い時刻t15で、画像処理装置300の画像交換部B308に処理画像PD2が入力され、時刻t16で、処理画像PD2が合成部309に入力される。その後、時刻t17までに合成部309による合成処理が行われ、時刻t17から時刻t18の期間に、画像処理装置300の合成部309と、画像処理装置400の合成部409とから、画像が出力される。
Then, at time t15 earlier than time t7 in FIG. 16, the processed image PD2 is input to the image exchanging unit B308 of the
図17では、図16の時刻t7よりも早い時刻t15で、画像処理装置300に処理画像PD2が入力される。そのため、時刻t17として、図16の時刻t9よりも早い時刻を設定することができる。即ち、画像処理装置における画像の入力から出力までの時間を
、図16に比べ短い時間に短縮することができる。その結果、1フレーム期間が短い画像を問題無く処理することができる。
In FIG. 17, the processed image PD2 is input to the
なお、1つの画像(フレーム)に対して数画素飛ばしで画像処理を行い、複数のフレームに対する画像処理により全画素位置に対する画像処理を実現するフレームインタリーブという手法がある。本実施例で画像処理を施す領域は、フレームインタリーブによって個別に処理する複数の領域(画素の組み合わせが互いに異なる複数の領域)であってもよい。また、各LUTには、フレームインタリーブによって処理する各領域について個別にテーブル値が格納されていてもよい。 Note that there is a technique called frame interleaving that performs image processing with skipping several pixels for one image (frame) and realizes image processing for all pixel positions by image processing for a plurality of frames. In the present embodiment, the area on which image processing is performed may be a plurality of areas (a plurality of areas having different pixel combinations) that are individually processed by frame interleaving. Each LUT may store a table value individually for each area processed by frame interleaving.
以上述べたように、本実施例によれば、複数の画像処理装置を連携して動作させることにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。具体的には、画像処理装置のコストの増加を招くことなく、複数種類のLUTを用いた場合と同等の画像処理結果を得ることができる。 As described above, according to the present embodiment, it is possible to obtain a high-precision image processing result without causing an increase in cost of the image processing apparatus by operating a plurality of image processing apparatuses in cooperation with each other. it can. Specifically, an image processing result equivalent to the case of using a plurality of types of LUTs can be obtained without increasing the cost of the image processing apparatus.
<実施例3>
以下、本発明の実施例3に係る画像処理装置及びその制御方法について説明する。LUTを参照する画像処理では、互いに隣接する偶数と奇数の2つのアドレスにそれぞれ対応する2つの処理値をLUTから読み出して、2つの処理値の中間値を補間演算で得る場合がある。本実施例では、複数の画像処理装置を連携させることで、このような画像処理をより高精度で行える画像処理システムの一例を示す。
<Example 3>
Hereinafter, an image processing apparatus and a control method thereof according to
図18は、本実施例に係る画像処理装置500の構成の一例を示すブロック図である。前述の実施例に記載の機能部と同等の機能部については、同一の符号を付し、詳しい説明を省略する。
FIG. 18 is a block diagram illustrating an example of the configuration of the
アドレス判定部501は、アドレス決定部101が決定したアドレスの属性に応じて、アドレス交換部102またはアドレス選択部103を選択する。そして、アドレス判定部501は、選択した機能部に、アドレス決定部101が決定したアドレスを出力する。なお、全てのアドレスをアドレス交換部102とアドレス選択部103の一方に出力してもよい。また、アドレス決定部101では、入力画像の1つの画素に対して2つ以上のアドレスが決定されてもよい。例えば、アドレス決定部101は、1つの画素について、互いに隣接する偶数と奇数の2つのアドレスを決定してもよい。
The
画像処理装置500を単独で用いる場合には、LUT502として、LUT104と同等のルックアップテーブルが使用され、LUT設定部503は、LUT設定部105と同等の設定を行う。LUT設定部503は、画像処理装置500を他の装置と連携させる場合に、LUT104とは異なるルックアップテーブルをLUT502として形成する。
When the
遅延調整部504は、LUT502から出力された処理値を保持することができる。遅延調整部504としては、例えば、FIFO(First In First Out)メモリのようなメモリ素子が使用される。
The
処理値交換部505は、処理値交換部106と同等の機能を有する。さらに、処理値交換部505は、他の画像処理装置から処理値を受け取ったタイミングを遅延調整部504に通知することができる。これにより、他の画像処理装置から処理値を受け取ったタイミングに同期して、遅延調整部504が保持している処理値を遅延調整部504から読み出すことが可能となる。
The process
図19は、本実施例に係る画像処理システムの構成の一例を示すブロック図である。図
19に示すように、本実施例に係る画像処理システムは、画像処理装置500と画像処理装置600を有する。なお、画像処理システムは3台以上の画像処理装置を有していてもよい。画像処理装置600は、アドレス決定部201、アドレス判定部601、アドレス交換部202、アドレス選択部203、LUT602、LUT設定部603、遅延調整部604、処理値交換部605、及び、処理値合成部207を有する。
FIG. 19 is a block diagram illustrating an example of the configuration of the image processing system according to the present embodiment. As shown in FIG. 19, the image processing system according to this embodiment includes an
アドレス判定部601は、アドレス判定部501と同等の機能を有する。LUT602は、LUT502と同等の機能を有する。LUT設定部603は、LUT設定部503と同等の機能を有する。遅延調整部604は、遅延調整部504と同等の機能を有する。処理値交換部605は、処理値交換部505と同等の機能を有する。
The
アドレス送受信のための通信は、アドレス交換部102とアドレス交換部202との間で行われ、処理値の送受信のための通信は、処理値交換部505と処理値交換部605との間で行われる。
Communication for address transmission / reception is performed between the
なお、本実施例に係る画像処理システムにおいて、アドレス判定部501は、アドレスが偶数(偶数アドレス)の場合にアドレス選択部103を選択し、アドレスが奇数(奇数アドレス)の場合にアドレス交換部102を選択する。偶数アドレスと奇数アドレスの両方が決定された場合には、アドレス選択部103とアドレス交換部102の両方が選択され、偶数アドレスがアドレス選択部103へ出力され、奇数アドレスがアドレス交換部102へ出力される。また、アドレス判定部601は、アドレスが奇数アドレスの場合にアドレス選択部203を選択し、アドレスが偶数アドレスの場合にアドレス交換部202を選択する。偶数アドレスと奇数アドレスの両方が決定された場合には、アドレス選択部203とアドレス交換部202の両方が選択され、奇数アドレスがアドレス選択部203へ出力され、偶数アドレスがアドレス交換部202へ出力される。
In the image processing system according to the present embodiment, the
図20は、LUT502、LUT602、及び、LUT502とLUT602を合成した合成LUTの一例を示す。LUT502には、偶数アドレスに対応する処理値が設定されており、LUT602には、奇数アドレスに対応する処理値が設定されている。そして、本実施例では、アドレス判定部501とアドレス判定部601は、偶数アドレスが決定された場合にLUT502が参照され、奇数アドレスが決定された場合にLUT602が参照されるように、アドレスの出力先を選択する。このため、本実施例の画像処理システムでは、LUT502とLUT602の一方のみを用いるときよりも、高精度な画像処理を行うことができる。
FIG. 20 shows an example of the
なお、LUT502に奇数アドレスに対応する処理値が設定され、LUT602に偶数アドレスに対応する処理値が設定されてもよい。その場合には、アドレス判定部501は、アドレスが奇数アドレスの場合にアドレス選択部103を選択し、アドレスが偶数アドレスの場合にアドレス交換部102を選択すればよい。アドレス判定部601は、アドレスが偶数アドレスの場合にアドレス選択部203を選択し、アドレスが奇数アドレスの場合にアドレス交換部202を選択すればよい。
Note that a processing value corresponding to an odd address may be set in the
上述したように、本実施例では、処理値交換部505がLUT602の処理値を受け取ったタイミングに同期して、遅延調整部504が保持する処理値を遅延調整部504から読み出すことができる。このため、処理値合成部107は、偶数アドレスに対応する処理値と、奇数アドレスに対応する処理値とを、同時に補間演算(合成処理)に用いることができる。
As described above, in this embodiment, the processing value held by the
図21は、本実施例の処理フローの一例を示すフローチャートである。前述の実施例に記載の処理と同等の処理については、同一の符号(ステップ番号)を付し、詳しい説明を
省略する。
FIG. 21 is a flowchart illustrating an example of the processing flow of the present embodiment. Processes equivalent to those described in the above-described embodiment are denoted by the same reference numerals (step numbers), and detailed description thereof is omitted.
まず、S101〜S103の処理が行われる。ここでは、S101にて偶数アドレスと奇数アドレスとの両方が決定されたとする。そのため、S102にて、アドレス判定部501は、S101で決定された奇数アドレスをアドレス交換部102へ出力し、アドレス交換部102は、S101で決定された奇数アドレスをアドレス交換部202へ出力する処理(アドレス交換)を開始する。また、アドレス判定部501は、S101で決定された偶数アドレスをアドレス選択部103へ出力する。そして、S103にて、アドレス選択部103は、S101で決定された偶数アドレスをLUT502に出力する。それにより、S101で決定された偶数アドレスに対応する処理値が、LUT502から遅延調整部504へ出力される。
First, the processing of S101 to S103 is performed. Here, it is assumed that both the even address and the odd address are determined in S101. Therefore, in S102, the
次に、S301にて、遅延調整部504が、S101で決定された偶数アドレスに対応する処理値をLUT502から取得し、保持する。そして、S105〜S107の処理が行われる。S105では、画像処理装置600のアドレス交換部202が、S101で決定された奇数アドレスをアドレス交換部102から取得する処理(アドレス交換)が完了したか否かを判断する。S106では、アドレス交換部202が、S101で決定された奇数アドレスを、アドレス選択部203を介してLUT602に出力する。それにより、S101で決定された奇数アドレスに対応する処理値が、LUT602から処理値交換部605へ出力される。S107では、処理値交換部605が、S101で決定された奇数アドレスに対応する処理値を処理値交換部505に出力する処理(処理値交換)を開始する。
Next, in S301, the
そして、S302にて、処理値交換部505が、S101で決定された奇数アドレスに対応する処理値を処理値交換部605から取得する処理(処理値交換)が完了したか否かを判断する。処理値交換が完了するまでS302の処理は繰り返される。処理値交換が完了したタイミングで、当該タイミングが処理値交換部505から遅延調整部504へ通知され、S303へ処理が進められる。また、処理値交換が完了すると、処理値交換部505は、処理値交換部605から取得した処理値(S101で決定された奇数アドレスに対応する処理値)を、処理値合成部107に出力する。
In step S302, the process
S303にて、遅延調整部504が、S302で発生した通知に同期して、保持している処理値(S101で決定された偶数アドレスに対応する処理値)を、処理値合成部107に出力する。
In S303, the
そして、S304にて、処理値合成部107が、LUT502から出力された処理値と、LUT602から出力された処理値を用いて、補間演算を行う。即ち、S101で決定された偶数アドレスに対応する処理値と、S101で決定された奇数アドレスに対応する処理値とを用いた補間演算が行われる。この補間演算は、「2つの処理値を合成する合成処理」とも言える。偶数アドレスのみが決定された場合には、偶数アドレスに対応する処理値(LUT502から出力された処理値)のみが使用される。奇数アドレスのみが決定された場合には、奇数アドレスに対応する処理値(LUT602から出力された処理値)のみが使用される。S304の補間演算により、出力画像データの画素値が決定され、出力される。なお、S304の補間演算では、実施例1の補間部109の処理と同様に、入力画像データが使用されてもよい。
In step S <b> 304, the process
図22は、本実施例に係る画像処理システムの処理タイミングの一例を示すタイムチャートである。図22は、図21を用いて説明した処理フローに対応するタイムチャートである。 FIG. 22 is a time chart illustrating an example of processing timing of the image processing system according to the present embodiment. FIG. 22 is a time chart corresponding to the processing flow described with reference to FIG.
時刻t1で、画像処理装置500のアドレス決定部101に画像データが入力され、アドレスの決定が開始される。時刻t2で、アドレスの決定が完了し、決定されたアドレスがアドレス判定部501に入力される。そして、アドレス判定部501によって、偶数アドレスが画像処理装置500のLUT502へ出力され、奇数アドレスが画像処理装置600のLUT602へ出力される。時刻t3で、アドレス判定部501から出力された偶数アドレスに対応する処理値を、LUT502が読み出す(出力する)。時刻t4で、時刻t3で読み出された処理値が、遅延調整部504に入力され、保持される。
At time t1, image data is input to the
時刻t5で、アドレス交換部102からアドレス交換部202とアドレス選択部203を介してLUT602に入力された奇数アドレスに対応する処理値を、LUT602が読み出す。その後、読み出された処理値が、処理値交換部605に入力される。時刻t6で、読み出された処理値を処理値交換部605から処理値交換部505に出力する処理が開始される。
At time t5, the
時刻t7で、LUT602が読み出した処理値を処理値交換部505が取得する処理が完了する。このとき、処理値交換部505から遅延調整部504に対して通知が行われ、通知に同期して、遅延調整部504が保持している処理値(LUT502が読み出した処理値)を遅延調整部504から読み出す処理が開始される。時刻t8で、処理値合成部107に、LUT502が読み出した処理値と、LUT602が読み出した処理値とが入力され、補間演算が開始する。
At time t7, the processing
なお、画像処理装置500の入力画像データに対する処理を画像処理装置500が行う期間において、画像処理装置600の入力画像データに対する処理を画像処理装置600が行うことがある。このような場合には、LUT602において、画像処理装置500で決定されたアドレスに対応する処理値の読み出しと、画像処理装置600で決定されたアドレスに対応する処理値の読み出しとの2回(2種類)の読み出しが行われる。そのため、このような場合には、入力画像データのレートに対して2倍以上のレートでLUT602を動作させる必要がある。例えば、LUT602の動作周波数(動作速度)を他の機能部の動作周波数の2倍以上に高めれば、入力画像データのレートに対して2倍以上のレートでLUT602を動作させることができる。
Note that the
また、画像処理装置500の入力画像データに対する処理を画像処理装置500が行う期間において、LUT502が画像処理装置600によって使用(参照)されることがある。その場合には、上述した理由と同様の理由により、入力画像データのレートに対して2倍以上のレートでLUT502を動作させる必要がある。
In addition, the
以上述べたように、本実施例によれば、複数の画像処理装置を連携して動作させることにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。具体的には、画像処理装置のコストの増加を招くことなく、高精度な画像処理を行うLUTを用いた場合と同等の画像処理結果を得ることができる。本実施例の画像処理システムは、HDR画像データに対する高精度な画像処理に対応可能である。なお、本実施例では、LUTを用いて画像処理が行われる例を説明したが、これに限らない。画像処理の方法は特に限定されない。例えば、関数を用いた演算によって画素値を変換する画像処理が行われてもよい。 As described above, according to the present embodiment, it is possible to obtain a high-precision image processing result without causing an increase in cost of the image processing apparatus by operating a plurality of image processing apparatuses in cooperation with each other. it can. Specifically, an image processing result equivalent to the case of using an LUT that performs high-precision image processing can be obtained without increasing the cost of the image processing apparatus. The image processing system of the present embodiment can cope with high-precision image processing for HDR image data. In this embodiment, an example in which image processing is performed using an LUT has been described. However, the present invention is not limited to this. The image processing method is not particularly limited. For example, image processing for converting pixel values by calculation using a function may be performed.
<実施例4>
以下、本発明の実施例4に係る画像処理装置及びその制御方法について説明する。図23は、本実施例に係る画像処理装置700の構成の一例を示すブロック図である。前述の実施例に記載の機能部と同等の機能部については、同一の符号を付し、詳しい説明を省略する。
<Example 4>
Hereinafter, an image processing apparatus and a control method thereof according to
アドレス判定部701は、アドレス決定部101が決定したアドレスの属性に応じて、アドレス交換部102またはアドレス選択部103を選択する。そして、アドレス判定部701は、選択した機能部に、アドレス決定部101が決定したアドレスを出力する。なお、全てのアドレスをアドレス交換部102とアドレス選択部103の一方に出力してもよい。さらに、アドレス判定部701は、アドレス決定部101が決定したアドレス(処理に使用したアドレス)に対応する識別番号を決定する。そして、アドレス判定部701は、アドレス選択部103へアドレスを出力した場合に、当該アドレスの識別番号を、後述する遅延調整部704へと通知する。
The
画像処理装置700を単独で用いる場合には、LUT702として、LUT104と同等のルックアップテーブルが使用され、LUT設定部703は、LUT設定部105と同等の設定を行う。LUT設定部703は、画像処理装置700を他の装置と連携させる場合に、LUT104とは異なるルックアップテーブルをLUT702として形成する。
When the
遅延調整部704は、LUT702から出力された処理値を保持することができる。遅延調整部704としては、例えば、FIFO(First In First Out)メモリのようなメモリ素子が使用される。遅延調整部704は、アドレス判定部701からの識別番号と、処理値交換部505からの通知とに基づいて、保持している処理値の読み出し制御を行える。この詳細は後述する。
The
図24は、本実施例に係る画像処理システムの構成の一例を示すブロック図である。図24に示すように、本実施例に係る画像処理システムは、画像処理装置700と画像処理装置800を有する。なお、画像処理システムは3台以上の画像処理装置を有していてもよい。画像処理装置800は、アドレス決定部201、アドレス判定部801、アドレス交換部202、アドレス選択部203、LUT802、LUT設定部803、遅延調整部804、処理値交換部605、及び、補間部209を有する。
FIG. 24 is a block diagram illustrating an example of the configuration of the image processing system according to the present embodiment. As shown in FIG. 24, the image processing system according to the present embodiment includes an
アドレス判定部801は、アドレス判定部701と同等の機能を有する。LUT802は、LUT702と同等の機能を有する。LUT設定部803は、LUT設定部703と同等の機能を有する。遅延調整部804は、遅延調整部704と同等の機能を有する。
The
アドレス送受信のための通信は、アドレス交換部102とアドレス交換部202との間で行われ、処理値の送受信のための通信は、処理値交換部505と処理値交換部605との間で行われる。
Communication for address transmission / reception is performed between the
なお、本実施例に係る画像処理システムにおいて、アドレス判定部701は、アドレス空間を2つのグループに分ける。即ち、アドレス判定部701は、アドレスの取り得る値の範囲を構成する2つの部分範囲を設定する。なお、アドレスの取り得る値の範囲を構成する複数の部分範囲として、3つ以上の部分範囲が設定されてもよい。複数の部分範囲は、任意に定められてもよい。そして、アドレス判定部501は、アドレス値の小さい側のグループ(第1グループ)にアドレスが属す場合にアドレス選択部103を選択し、アドレス値の大きい側のグループ(第2グループ)にアドレスが属す場合にアドレス交換部102を選択する。「アドレス値」は、「アドレスの番地の大きさ」を意味する。また、アドレス判定部801は、アドレスが第2グループに属す場合にアドレス選択部203を選択し、アドレスが第1グループに属す場合にアドレス交換部202を選択する。なお、アドレス値の大きい側のグループが第1グループとして使用され、アドレス値の小さい側のグループが第2グループとして使用されてもよい。
In the image processing system according to the present embodiment, the
図25は、LUT702、LUT802、及び、LUT702とLUT802を合成し
た合成LUTの一例を示す。LUT702には、第1グループに属すアドレスに対応する処理値が設定されており、LUT802には、第2グループに属すアドレスに対応する処理値が設定されている。そして、アドレス判定部701とアドレス判定部801は、第1グループに対応するアドレスが決定された場合にLUT702が参照され、第2グループに対応するアドレスが決定された場合にLUT802が参照されるように、アドレスの出力先を選択する。このため、本実施例の画像処理システムでは、LUT702とLUT802の一方のみを用いるときよりも、高精度な画像処理を行うことができる。
FIG. 25 illustrates an example of the
本実施例では、補間部109は、合成処理により、各画素値がLUT702の処理値に基づく画素値またはLUT802の処理値に基づく画素値である出力画像データを生成して出力する。具体的には、補間部109は、処理値が入力される度に、入力された処理値(入力された処理値に基づく画素値)を、出力画像データの画素値として出力する。
In this embodiment, the
画像処理装置700がLUT702の処理値を取得するのに要する時間に比べ、画像処理装置700がLUT802の処理値を取得するのに要する時間が非常に長いことがある。そして、このような処理時間の差を考慮しない場合には、補間部109において、LUT802の処理値に基づく処理を行うべきタイミングで、LUT702の処理値に基づく処理が行われ、出力画像データの画素値として誤った値が得られることがある。
The time required for the
そこで、本実施例では、遅延調整部704を用いて、処理値が補間部109に到達するまでにかかる時間を調整する。具体的には、補間部109へのLUT702の処理値の伝送を、遅延調整部704を用いて意図的に遅らせる。それにより、補間部109は、使用すべき処理値をより確実に使用することができる。その結果、第1グループに属す入力値に対応する画素値(入力画像データの画素値)を、LUT702の処理値に基づく画素値(出力画像データの画素値)に変換することができる。そして、第2グループに属す入力値に対応する画素値(入力画像データの画素値)をLUT802の処理値に基づく画素値(出力画像データの画素値)に変換することができる。
Therefore, in this embodiment, the
遅延調整部704の処理を、図26を用いて説明する。アドレス判定部701は、アドレス判定部701の処理に使用したアドレスに対応する識別番号を決定する。識別番号は、アドレス判定部701の処理が行われる度に1ずつ増加する。そして、水平同期信号のタイミングなどの所定のタイミングで初期化される。アドレス判定部701は、アドレス選択部103を介してLUT702へアドレスを出力した場合に、当該アドレスの識別番号を遅延調整部704へと通知する。LUT702へアドレスが入力されると、当該アドレスに対応する処理値が、LUT702から遅延調整部704へ出力される。遅延調整部704は、入力された識別番号と処理値を互いに関連付けて保持する。
The processing of the
遅延調整部704は、識別番号順で処理値を読み出す(出力する)。図26の例では、識別番号#001,#002,#003の処理値が順に読み出される。ここで、識別番号#003の次の識別番号は#004であるが、遅延調整部704は、識別番号#004に対応する処理値を保持していない。遅延調整部704が保持していない処理値は、LUT802から出力される。このため、遅延調整部704は、識別番号#004の処理値が処理値交換部505によって取得されて補間部109へ出力されるまで、処理値の読み出しを停止する。処理値交換部505は、処理値交換が完了したタイミングで遅延調整部704に通知を出す。遅延調整部704は、この通知に基づいて、処理値の読み出しを再開する。図26の例ではでは、#004の識別番号に対応する処理値が処理値交換部505から補間部109へ出力された後に、遅延調整部704が、識別番号#005に対応する処理値を読み出す。
The
このような処理を行うことで、補間部109は識別番号順(アドレス判定部701の処
理順)に従って、処理値に基づく処理を行うことができる。なお、LUT702の処理値を取得するのに要する時間と、LUT802の処理値を取得するのに要する時間との差が予め決まっている場合がある。その場合には、遅延調整部704は、当該差に基づいて、処理値(LUT702の処理値)の読み出しを停止する時間を決定してもよい。
By performing such processing, the
図27は、本実施例の処理フローの一例を示すフローチャートである。前述の実施例に記載の処理と同等の処理については、同一のステップ番号を付し、詳しい説明を省略する。 FIG. 27 is a flowchart illustrating an example of the processing flow of the present embodiment. Processes equivalent to those described in the above-described embodiment are given the same step numbers, and detailed descriptions thereof are omitted.
まず、S101の処理が行われる。次に、S401にて、アドレス判定部701が、S101で決定されたアドレスが第1グループと第2グループのいずれに属すかを判定する。S101で決定されたアドレスが第1グループに属す場合には、アドレス判定部701は、S101で決定されたアドレスをアドレス選択部103に出力し、処理がS402へ進められる。S101で決定されたアドレスが第2グループに属す場合には、アドレス判定部701は、S101で決定されたアドレスをアドレス交換部102に出力し、処理がS102へ進められる。
First, the process of S101 is performed. Next, in S401, the
S402にて、アドレス判定部701は、S101で決定されたアドレスに対応する識別番号を遅延調整部704に通知する。次に、S103の処理が行われる。S103にて、アドレス選択部103は、S101で決定されたアドレスをLUT702に出力する。それにより、S101で決定されたアドレスに対応する処理値が、LUT702から遅延調整部704へ出力される。そして、S403にて、遅延調整部704は、S402の処理により入力された識別番号と、S103の処理により入力された処理値とを互いに関連付けて保持する。その後、S404へ処理が進められる。
In S402, the
S102へ処理が進められた場合には、S102の処理、S106の処理、及び、S107の処理が行われる。それにより、処理値交換部505は、S101で決定されたアドレスに対応する処理値として、LUT802の処理値を、処理値交換部605から取得する。その後、S404へ処理が進められる。
When the process has proceeded to S102, the process of S102, the process of S106, and the process of S107 are performed. Thereby, the process
S404にて、遅延調整部704は、識別番号を用いるなどして、アドレス判定部701の処理順に従って処理値が補間部109へ伝送されるように、LUT702の処理値の出力タイミングを調整しながら、LUT702の処理値を補間部109へと出力する。そして、補間部109は識別番号順(アドレス判定部701の処理順)に従って、処理値に基づく処理を行う。
In S404, the
なお、画像処理装置700の入力画像データに対する処理を画像処理装置700が行う期間において、画像処理装置800の入力画像データに対する処理を画像処理装置800が行うことがある。このような場合には、LUT802において、画像処理装置700で決定されたアドレスに対応する処理値の読み出しと、画像処理装置800で決定されたアドレスに対応する処理値の読み出しとの2回(2種類)の読み出しが行われる。そのため、このような場合には、入力画像データのレートに対して2倍以上のレートでLUT802を動作させる必要がある。例えば、LUT802の動作周波数(動作速度)を他の機能部の動作周波数の2倍以上に高めれば、入力画像データのレートに対して2倍以上のレートでLUT802を動作させることができる。
Note that the
また、画像処理装置700の入力画像データに対する処理を画像処理装置700が行う期間において、LUT702が画像処理装置800によって使用(参照)されることがある。その場合には、上述した理由と同様の理由により、入力画像データのレートに対して2倍以上のレートでLUT702を動作させる必要がある。
Further, the
以上述べたように、本実施例によれば、複数の画像処理装置を連携して動作させることにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得ることができる。具体的には、画像処理装置のコストの増加を招くことなく、高精度な画像処理を行うLUTを用いた場合と同等の画像処理結果を得ることができる。本実施例の画像処理システムは、HDR画像データに対する高精度な画像処理に対応可能である。なお、本実施例では、LUTを用いて画像処理が行われる例を説明したが、これに限らない。画像処理の方法は特に限定されない。例えば、関数を用いた演算によって画素値を変換する画像処理が行われてもよい。 As described above, according to the present embodiment, it is possible to obtain a high-precision image processing result without causing an increase in cost of the image processing apparatus by operating a plurality of image processing apparatuses in cooperation with each other. it can. Specifically, an image processing result equivalent to the case of using an LUT that performs high-precision image processing can be obtained without increasing the cost of the image processing apparatus. The image processing system of the present embodiment can cope with high-precision image processing for HDR image data. In this embodiment, an example in which image processing is performed using an LUT has been described. However, the present invention is not limited to this. The image processing method is not particularly limited. For example, image processing for converting pixel values by calculation using a function may be performed.
<実施例5>
以下、本発明の実施例5に係る画像処理装置及びその制御方法について説明する。図28は、本実施例に係る画像処理装置900の構成の一例を示すブロック図である。前述の実施例に記載の機能部と同等の機能部については、同一の符号を付し、詳しい説明を省略する。
<Example 5>
Hereinafter, an image processing apparatus and a control method thereof according to
色別アドレス決定部901は、入力画像データの画素値に応じたアドレスとして、複数の色成分にそれぞれ対応する複数のアドレスを決定する。具体的には、色別アドレス決定部901は、複数の色成分のそれぞれについて、色成分に対応する値(色成分値)を画素値から判断し、判断した色成分値に応じてアドレスを決定する。本実施例では、第1色成分に対応するアドレスと、第2色成分に対応するアドレスとが決定される。そして、色別アドレス決定部901は、第1色成分に対応するアドレスをアドレス選択部103に出力し、第2色成分に対応するアドレスをアドレス交換部102に出力する。なお、全てのアドレスをアドレス交換部102とアドレス選択部103の一方に出力してもよい。また、複数の色成分として、3つ以上の色成分が考慮されてもよい。
The color-specific
LUT902は、入力画像データに画像処理を施すルックアップテーブルである。LUT902は、アドレス(入力値)が入力された場合に、入力されたアドレスに対応する出力値(画像処理後の画素値である処理値)を出力する。色別アドレス決定部901で決定されたアドレスがLUT902に入力された場合、LUT902では、入力画像データに画像処理が施されることとなる。本実施例では、色別アドレス決定部901は、複数の色成分に対応する複数のアドレスを決定する。そのため、LUT902として複数の色成分に対応する複数のLUTを設定することができる。LUT902の詳しい構成は後述する。LUT設定部903は、LUT902の設定を行う。
The
図29,30は、LUT902の構成の一例を示す。図29,30のLUT902は、第1色成分(Cb)に対応するLUTと、第2色成分(Cr)に対応するLUTとを含む。図29,30において、「ADR1」は、第1色成分の値に応じたアドレスであり、「ADR2」は、第2色成分の値に応じたアドレスである。ここで、LUT902の容量(SRAMのデータ容量)は、X×Yビットである。図29,30に示すLUT902は、例えば、画像処理装置900を単独で使用する場合に使用される。なお、第1色成分は「Cb」に限られないし、第2色成分は「Cr」に限られない。
29 and 30 show an example of the configuration of the
図29では、第1色成分に対応するLUTと、第2色成分に対応するLUTとのそれぞれにおいて、1ワード(アドレス)あたりの処理値のビット幅がX/2ビットであり、かつ、ワード数がYワードである。そのため、2つのLUTの合計容量はX×Yビットであり、図29に示すLUT902は設定可能である。
In FIG. 29, in each of the LUT corresponding to the first color component and the LUT corresponding to the second color component, the bit width of the processing value per word (address) is X / 2 bits, and the word The number is a Y word. Therefore, the total capacity of the two LUTs is X × Y bits, and the
図30では、第1色成分に対応するLUTと、第2色成分に対応するLUTとのそれぞれにおいて、1ワードあたりの処理値のビット幅がXビットであり、かつ、ワード数がY
/2ワードである。そのため、2つのLUTの合計容量はX×Yビットであり、図30に示すLUT902も設定可能である。
In FIG. 30, in each of the LUT corresponding to the first color component and the LUT corresponding to the second color component, the bit width of the processing value per word is X bits, and the number of words is Y
/ 2 words. Therefore, the total capacity of the two LUTs is X × Y bits, and the
図31は、本実施例に係る画像処理システムの構成の一例を示すブロック図である。図31に示すように、本実施例に係る画像処理システムは、画像処理装置900と画像処理装置1000を有する。なお、画像処理システムは3台以上の画像処理装置を有していてもよい。画像処理装置1000は、色別アドレス決定部1001、アドレス交換部202、アドレス選択部203、LUT1002、LUT設定部1003、遅延調整部604、処理値交換部605、及び、処理値合成部207を有する。
FIG. 31 is a block diagram illustrating an example of the configuration of the image processing system according to the present embodiment. As shown in FIG. 31, the image processing system according to this embodiment includes an
色別アドレス決定部1001は、色別アドレス決定部901と同等の機能を有する。LUT1002は、LUT902と同等の機能を有する。LUT設定部1003は、LUT設定部903と同等の機能を有する。
The color-specific
アドレス送受信のための通信は、アドレス交換部102とアドレス交換部202との間で行われ、処理値の送受信のための通信は、処理値交換部505と処理値交換部605との間で行われる。
Communication for address transmission / reception is performed between the
なお、本実施例に係る画像処理システムにおいて、色別アドレス決定部901は、第1色成分に対応するアドレスをアドレス選択部103に出力し、第2色成分に対応するアドレスをアドレス交換部102に出力する。また、色別アドレス決定部1001は、第2色成分に対応するアドレスをアドレス選択部203に出力し、第1色成分に対応するアドレスをアドレス交換部202に出力する。
In the image processing system according to the present embodiment, the color-specific
図32は、LUT902とLUT1002の一例を示す。図32において、LUT902は、第1色成分に対応するLUTであり、LUT1002は、第2色成分に対応するLUTである。LUT902が他の色成分(第2色成分)に対応するLUTを含まない場合には、LUT902として、第1色成分に対応する高精度なLUTを設定することができる。同様に、LUT1002が他の色成分(第1色成分)に対応するLUTを含まない場合には、LUT1002として、第2色成分に対応する高精度なLUTを設定することができる。図32では、LUT902とLUT1002のそれぞれにおいて、1ワードあたりの処理値のビット幅がXビットであり、かつ、ワード数がYワードである。そのため、図32のLUT902は、図29,30のLUT(第1色成分に対応するLUT)よりも高精度であり、図32のLUT1002は、図29,30のLUT(第2色成分に対応するLUT)よりも高精度である。
FIG. 32 shows an example of the
そして、本実施例では、色別アドレス決定部901と色別アドレス決定部1001は、第1色成分に対応するアドレスについてLUT902が参照され、第2色成分に対応するアドレスについてLUT1002が参照されるように、アドレスの出力先を選択する。このため、本実施例の画像処理システムでは、LUT902とLUT1002の一方のみを用いるときよりも、高精度な画像処理を行うことができる。
In this embodiment, the color-specific
図33は、本実施例の処理フローの一例を示すフローチャートである。前述の実施例に記載の処理と同等の処理については、同一のステップ番号を付し、詳しい説明を省略する。まず、S501にて、色別アドレス決定部901が、入力画像データの画素値から、第1色成分に対応するアドレスと、第2色成分に対応するアドレスとを決定する。色別アドレス決定部901は、第1色成分に対応するアドレス(S501で決定されたアドレス)をアドレス選択部103へ出力し、第2色成分に対応するアドレス(S501で決定されたアドレス)をアドレス交換部102へ出力する。そして、S102〜S304の処理が行われる。
FIG. 33 is a flowchart illustrating an example of a processing flow of the present embodiment. Processes equivalent to those described in the above-described embodiment are given the same step numbers, and detailed descriptions thereof are omitted. First, in S501, the color-specific
本実施例は、各色成分についての画像処理を個別に行う場合に有効であり、RAW画像のディベイヤー(デモザイク)処理にも適用可能である。例えば、R、G1、G2、B、などの色成分が存在する場合において、複数の画像処理装置で各色成分についての画像処理を分担して実行することが可能である。 This embodiment is effective when image processing for each color component is performed individually, and can also be applied to RAW image debayer processing. For example, when there are color components such as R, G1, G2, and B, a plurality of image processing apparatuses can share and execute image processing for each color component.
なお、画像処理装置900の入力画像データに対する処理を画像処理装置900が行う期間において、画像処理装置1000の入力画像データに対する処理を画像処理装置1000が行うことがある。このような場合には、LUT1002において、画像処理装置900で決定されたアドレスに対応する処理値の読み出しと、画像処理装置1000で決定されたアドレスに対応する処理値の読み出しとの2回(2種類)の読み出しが行われる。そのため、このような場合には、入力画像データのレートに対して2倍以上のレートでLUT1002を動作させる必要がある。例えば、LUT1002の動作周波数(動作速度)を他の機能部の動作周波数の2倍以上に高めれば、入力画像データのレートに対して2倍以上のレートでLUT1002を動作させることができる。
Note that the
また、画像処理装置900の入力画像データに対する処理を画像処理装置900が行う期間において、LUT902が画像処理装置1000によって使用(参照)されることがある。その場合には、上述した理由と同様の理由により、入力画像データのレートに対して2倍以上のレートでLUT902を動作させる必要がある。
Further, the
なお、画像の色成分に関しては、Y:Cb:Cr=4:2:2フォーマットのCbとCrのように、2画素毎に1つの画素値が設定されているものがある。このようなCbとCrを扱う場合には、入力画像データのレートと同じレートでLUTを動作させることができる。 As for the color components of an image, there are those in which one pixel value is set for every two pixels, such as Cb and Cr of Y: Cb: Cr = 4: 2: 2 format. When handling such Cb and Cr, the LUT can be operated at the same rate as the rate of the input image data.
さらに、Y:Cb:Cr=4:2:0フォーマットのCbとCrのように、CbとCrの情報が1ラインごと交互に入力される場合がある。この場合は、ラインメモリを用いるなどして、画像処理装置900の入力画像データに対する処理と、画像処理装置1000の入力画像データに対する処理との一方を1ライン分だけ遅延させてもよい。それにより、画像処理装置900と画像処理装置1000とが同じLUT(LUT902とLUT1002の少なくとも一方)を同時に使用することを防ぐことができる。このような場合も、入力画像データのレートと同じレートでルックアップテーブルを動作させることができる。
Further, Cb and Cr information may be alternately input for each line, such as Cb and Cr in the Y: Cb: Cr = 4: 2: 0 format. In this case, one of the processing for the input image data of the
また、RAW画像におけるベイヤー配列のように、画像を形成する各座標に1つの色成分値のみが存在する場合もある。この場合には、或る座標の画像処理を行っているときには、1つの色成分のLUTのみを参照することになる。そこで、LUT902及びLUT1002として、色成分が互いに異なる2つのLUTを設定し、各画像処理装置が同じLUTを同時に参照しないようしてもよい。それにより、入力画像データのレートと同じレートでルックアップテーブルを動作させることができる。
Further, there may be a case where only one color component value exists at each coordinate forming an image, like a Bayer array in a RAW image. In this case, when image processing at a certain coordinate is performed, only the LUT of one color component is referred to. Accordingly, two LUTs having different color components may be set as the
なお、Y:Cb:Cr=4:2:0フォーマットの場合は、Cbの画像処理とCrの画像処理とが同時に発生しないようにすることもできる。このような場合には、LUT902とLUT1002のうち、画像処理に用いていない側のLUTの動作を止めることができる。これにより、画像処理システムの低消費電力化や、局所的な電力集中を抑えた発熱の低減といった効果を得ることができる。
In the case of the Y: Cb: Cr = 4: 2: 0 format, it is possible to prevent the Cb image processing and the Cr image processing from occurring simultaneously. In such a case, of the
以上述べたように、本実施例によれば、複数の画像処理装置を連携して動作させることにより、画像処理装置のコストの増加を招くことなく、高精度な画像処理の結果を得るこ
とができる。具体的には、画像処理装置のコストの増加を招くことなく、高精度な画像処理を行うLUTを用いた場合と同等の画像処理結果を得ることができる。本実施例の画像処理システムは、HDR画像データに対する高精度な画像処理にも対応可能である。なお、本実施例では、LUTを用いて画像処理が行われる例を説明したが、これに限らない。画像処理の方法は特に限定されない。例えば、関数を用いた演算によって画素値を変換する画像処理が行われてもよい。
As described above, according to the present embodiment, it is possible to obtain a high-precision image processing result without causing an increase in cost of the image processing apparatus by operating a plurality of image processing apparatuses in cooperation with each other. it can. Specifically, an image processing result equivalent to the case of using an LUT that performs high-precision image processing can be obtained without increasing the cost of the image processing apparatus. The image processing system according to the present embodiment can cope with high-accuracy image processing on HDR image data. In this embodiment, an example in which image processing is performed using an LUT has been described. However, the present invention is not limited to this. The image processing method is not particularly limited. For example, image processing for converting pixel values by calculation using a function may be performed.
なお、実施例1〜5はあくまで一例であり、本発明の要旨の範囲内で実施例1〜5の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜5の構成を適宜組み合わせて得られる構成も、本発明に含まれる。 In addition, Examples 1-5 are an example to the last, and the structure obtained by changing suitably and changing the structure of Examples 1-5 within the range of the summary of this invention is also contained in this invention. Configurations obtained by appropriately combining the configurations of Examples 1 to 5 are also included in the present invention.
<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other examples>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100,200,300,400,500:画像処理装置
600,700,800,900,1000:画像処理装置
102,202:アドレス交換部
104,204,306,406,502:LUT
602,702,802,902,1002:LUT
106,206,505,605:処理値交換部
107,207:処理値合成部
303,403:画像交換部A
308,408:画像交換部B
309,409:合成部
504,604,704,804:遅延調整部
100, 200, 300, 400, 500:
602, 702, 802, 902, 1002: LUT
106, 206, 505, 605: processing
308, 408: Image exchange unit B
309, 409:
Claims (23)
入力画像データに第1の画像処理を施す第1の処理手段と、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信手段と、
前記第1の処理手段による前記第1の画像処理の結果と、前記通信手段によって取得された前記第2の画像処理の結果とを合成する合成処理を行う合成手段と、
を有することを特徴とする画像処理装置。 An image processing apparatus,
First processing means for performing first image processing on input image data;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. Communication means for causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing apparatus;
Combining means for combining the result of the first image processing by the first processing means and the result of the second image processing acquired by the communication means;
An image processing apparatus comprising:
前記第1の処理手段には、前記入力画像データの画素値に応じた入力値が入力され、
前記通信手段は、
前記入力画像データの前記画素値に応じた前記入力値を前記他の画像処理装置に出力することにより、当該入力値に対応する出力値を前記第2の処理手段に出力させ、
前記第2の処理手段から出力された前記出力値を前記他の画像処理装置から取得し、
前記合成処理は、前記入力画像データの前記画素値に応じた前記入力値に対応する前記第1の処理手段の出力値と、当該入力値に対応する前記第2の処理手段の出力値とを合成する処理である
ことを特徴とする請求項1に記載の画像処理装置。 The first processing unit and the second processing unit output an output value corresponding to the input value when an input value corresponding to a pixel value is input,
An input value corresponding to a pixel value of the input image data is input to the first processing means,
The communication means includes
By outputting the input value corresponding to the pixel value of the input image data to the other image processing device, an output value corresponding to the input value is output to the second processing unit,
Obtaining the output value output from the second processing means from the other image processing apparatus;
The combining process includes: an output value of the first processing unit corresponding to the input value corresponding to the pixel value of the input image data; and an output value of the second processing unit corresponding to the input value. The image processing apparatus according to claim 1, wherein the image processing apparatus is a composition process.
前記第2の処理手段は、前記複数の部分値のいずれかであり、且つ、前記第1の部分値とは異なる部分値である第2の部分値を出力する
ことを特徴とする請求項2に記載の画像処理装置。 The first processing means outputs a first partial value that is one of a plurality of partial values constituting a pixel value obtained by performing predetermined image processing on the pixel value;
3. The second processing means outputs a second partial value that is one of the plurality of partial values and that is a partial value different from the first partial value. An image processing apparatus according to 1.
前記第1の処理手段には、前記第1入力値が入力され、
前記通信手段は、前記第2入力値を前記他の画像処理装置に出力することにより、当該第2入力値に対応する出力値を前記第2の処理手段に出力させる
ことを特徴とする請求項3に記載の画像処理装置。 The input value corresponding to the pixel value of the input image data includes a first input value corresponding to the first color component value of the pixel value and a second input value corresponding to the second color component value of the pixel value. Including
The first input value is input to the first processing means,
The communication means causes the second processing means to output an output value corresponding to the second input value by outputting the second input value to the other image processing apparatus. The image processing apparatus according to 3.
前記第1の画像処理は、前記第1の領域と前記第2の領域の一方の領域に対応する画像処理であり、
前記第2の画像処理は、前記第1の領域と前記第2の領域の他方の領域に対応する画像処理であり、
前記通信手段は、
前記検出手段の検出結果に基づいて、前記他方の領域を少なくとも含む領域における前記入力画像データである出力画像データを前記他の画像処理装置に出力することにより、前記出力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、
前記出力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得し、
前記合成手段は、前記合成処理により、前記一方の領域に対して前記第1の画像処理を
施した画像であり、且つ、前記他方の領域に対して前記第2の画像処理を施した画像である合成画像を表す合成画像データを生成する
ことを特徴とする請求項1に記載の画像処理装置。 Detecting means for detecting a first area and a second area from the area of the image represented by the input image data;
The first image processing is image processing corresponding to one of the first region and the second region;
The second image processing is image processing corresponding to the other region of the first region and the second region;
The communication means includes
Based on the detection result of the detection means, the output image data, which is the input image data in a region including at least the other region, is output to the other image processing device, whereby the second image with respect to the output image data is output. Causing the second processing means to perform image processing;
Obtaining the result of performing the second image processing on the output image data from the other image processing device,
The synthesizing unit is an image obtained by performing the first image processing on the one area by the synthesis process, and an image obtained by performing the second image process on the other area. The image processing apparatus according to claim 1, wherein composite image data representing a composite image is generated.
ことを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the output image data is the input image data in the other region.
ことを特徴とする請求項5または6に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the first area is an area corresponding to a display having a wider dynamic range than a display corresponding to the second area.
前記入力画像データの画素値に応じた1つ以上の入力値に第1入力値が含まれる場合に、前記第1入力値が前記第1の処理手段に入力され、
前記入力画像データの前記画素値に応じた前記1つ以上の入力値に第2入力値が含まれる場合に、前記通信手段は、
前記第2入力値を前記他の画像処理装置に出力することにより、前記第2入力値に対応する出力値を前記第2の処理手段に出力させ、
前記第2の処理手段から出力された前記出力値を前記他の画像処理装置から取得し、
前記合成処理は、前記入力画像データの前記画素値に応じた前記1つ以上の入力値に前記第1入力値と前記第2入力値が含まれる場合に、前記第1入力値に対応する前記第1の処理手段の出力値と、前記第2の入力値に対応する前記第2の処理手段の出力値とを合成する処理である
ことを特徴とする請求項1に記載の画像処理装置。 The first processing unit and the second processing unit output an output value corresponding to the input value when an input value corresponding to a pixel value is input,
When the first input value is included in one or more input values corresponding to the pixel value of the input image data, the first input value is input to the first processing means,
When the one or more input values corresponding to the pixel values of the input image data include a second input value, the communication unit includes:
By outputting the second input value to the other image processing device, an output value corresponding to the second input value is output to the second processing unit,
Obtaining the output value output from the second processing means from the other image processing apparatus;
The combining process corresponds to the first input value when the one or more input values corresponding to the pixel value of the input image data include the first input value and the second input value. The image processing apparatus according to claim 1, wherein the image processing apparatus is a process of combining the output value of the first processing unit and the output value of the second processing unit corresponding to the second input value.
前記入力値の取り得る範囲は、第1範囲と第2範囲を含む複数の部分範囲からなり、
前記入力画像データの画素値に応じた入力値が前記第1範囲に属す場合に、前記入力画像データの前記画素値に応じた前記入力値が前記第1の処理手段に入力され、
前記入力画像データの前記画素値に応じた前記入力値が前記第2範囲に属す場合に、前記通信手段は、
前記入力画像データの前記画素値に応じた前記入力値を前記他の画像処理装置に出力することにより、前記入力画像データの前記画素値に応じた前記入力値に対応する出力値を前記第2の処理手段に出力させ、
前記第2の処理手段から出力された前記出力値を前記他の画像処理装置から取得し、
前記合成手段は、前記合成処理により、各画素値が前記第1の処理手段の出力値に基づく画素値または前記第2の処理手段の出力値に基づく画素値である画像データを生成することを特徴とする請求項1に記載の画像処理装置。 The first processing unit and the second processing unit output an output value corresponding to the input value when an input value corresponding to a pixel value is input,
The possible range of the input value includes a plurality of partial ranges including a first range and a second range,
When the input value according to the pixel value of the input image data belongs to the first range, the input value according to the pixel value of the input image data is input to the first processing means,
When the input value according to the pixel value of the input image data belongs to the second range, the communication means
By outputting the input value corresponding to the pixel value of the input image data to the other image processing device, an output value corresponding to the input value corresponding to the pixel value of the input image data is set to the second value. Output to the processing means,
Obtaining the output value output from the second processing means from the other image processing apparatus;
The synthesizing unit generates, by the synthesizing process, image data in which each pixel value is a pixel value based on an output value of the first processing unit or a pixel value based on an output value of the second processing unit. The image processing apparatus according to claim 1, wherein:
ことを特徴とする請求項9に記載の画像処理装置。 The pixel value of the input image data corresponding to the input value belonging to the first range is converted into a pixel value based on the output value of the first processing means, and the input value belonging to the second range corresponds to the input value belonging to the second range. Delay means for delaying transmission of the output value of the first processing means to the synthesizing means so that the pixel value of the input image data is converted into a pixel value based on the output value of the second processing means; The image processing apparatus according to claim 9, further comprising:
前記第1の画像処理装置は、
前記第1の画像処理装置に入力された画像データである第1の入力画像データに第1の画像処理を施す第1の処理手段と、
前記第2の画像処理装置との間の通信を行う第1の通信手段と、
前記第1の処理手段による前記第1の画像処理の結果と、前記第1の通信手段による通信の結果とを合成する第1の合成処理を行う第1の合成手段と、
を有し、
前記第2の画像処理装置は、前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段、を有し、
前記第1の通信手段は、前記第2の画像処理装置との間の通信を行うことにより、前記第1の入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記第1の入力画像データに前記第2の画像処理を施した結果を前記第2の画像処理装置から取得し、
前記第1の合成処理は、前記第1の入力画像データに対する前記第1の画像処理の結果と、前記第1の通信手段によって取得された前記第2の画像処理の結果とを合成する処理である
ことを特徴とする画像処理システム。 An image processing system having a first image processing device and a second image processing device,
The first image processing apparatus includes:
First processing means for performing first image processing on first input image data which is image data input to the first image processing apparatus;
First communication means for performing communication with the second image processing apparatus;
First combining means for performing a first combining process for combining the result of the first image processing by the first processing means and the result of communication by the first communication means;
Have
The second image processing apparatus includes second processing means for performing second image processing different from the first image processing;
The first communication unit causes the second processing unit to perform the second image processing on the first input image data by performing communication with the second image processing apparatus. A result obtained by performing the second image processing on the first input image data is obtained from the second image processing apparatus;
The first synthesizing process is a process of synthesizing the result of the first image processing on the first input image data and the result of the second image processing acquired by the first communication unit. An image processing system characterized by being.
前記第1の画像処理装置との間の通信を行う第2の通信手段と、
前記第2の処理手段による前記第2の画像処理の結果と、前記第2の通信手段による通信の結果とを合成する第2の合成処理を行う第2の合成手段と、
をさらに有し、
前記第2の処理手段は、前記第2の画像処理装置に入力された画像データである第2の入力画像データに前記第2の画像処理を施し、
前記第2の通信手段は、前記第1の画像処理装置との間の通信を行うことにより、前記第2の入力画像データに対する前記第1の画像処理を前記第1の処理手段に行わせ、前記第2の入力画像データに前記第1の画像処理を施した結果を前記第1の画像処理装置から取得し、
前記第2の合成処理は、前記第2の入力画像データに対する前記第2の画像処理の結果と、前記第2の通信手段によって取得された前記第1の画像処理の結果とを合成する処理である
ことを特徴とする請求項11に記載の画像処理システム。 The second image processing apparatus includes:
Second communication means for performing communication with the first image processing apparatus;
Second combining means for performing second combining processing for combining the result of the second image processing by the second processing means and the result of communication by the second communication means;
Further comprising
The second processing means performs the second image processing on second input image data that is image data input to the second image processing device,
The second communication unit causes the first processing unit to perform the first image processing on the second input image data by performing communication with the first image processing apparatus, A result obtained by performing the first image processing on the second input image data is obtained from the first image processing apparatus;
The second combining process is a process of combining the result of the second image processing on the second input image data and the result of the first image processing acquired by the second communication unit. The image processing system according to claim 11, wherein there is an image processing system.
前記第1の処理手段には、前記第1の入力画像データの画素値に応じた入力値が入力され、
前記第1の通信手段は、
前記第1の入力画像データの前記画素値に応じた前記入力値を前記第2の画像処理装置に出力することにより、当該入力値に対応する出力値を前記第2の処理手段に出力させ、
前記第2の処理手段から出力された前記出力値を前記第2の画像処理装置から取得し、
前記第1の合成処理は、前記第1の入力画像データの前記画素値に応じた前記入力値に対応する前記第1の処理手段の出力値と、当該入力値に対応する前記第2の処理手段の出力値とを合成する処理である
ことを特徴とする請求項11に記載の画像処理システム。 The first processing unit and the second processing unit output an output value corresponding to the input value when an input value corresponding to a pixel value is input,
An input value corresponding to a pixel value of the first input image data is input to the first processing means,
The first communication means includes
By outputting the input value corresponding to the pixel value of the first input image data to the second image processing device, an output value corresponding to the input value is output to the second processing unit,
Obtaining the output value output from the second processing means from the second image processing apparatus;
The first combining process includes an output value of the first processing unit corresponding to the input value corresponding to the pixel value of the first input image data, and a second process corresponding to the input value. The image processing system according to claim 11, wherein the image processing system is a process of combining the output value of the means.
前記第1の画像処理装置との間の通信を行う第2の通信手段と、
前記第2の処理手段による前記第2の画像処理の結果と、前記第2の通信手段による通信の結果とを合成する第2の合成処理を行う第2の合成手段と、
をさらに有し、
前記第2の処理手段には、前記第2の画像処理装置に入力された画像データである第2の入力画像データの画素値に応じた入力値が入力され、
前記第2の通信手段は、
前記第2の入力画像データの前記画素値に応じた前記入力値を前記第1の画像処理装置に出力することにより、当該入力値に対応する出力値を前記第1の処理手段に出力させ、
前記第1の処理手段から出力された前記出力値を前記第1の画像処理装置から取得し、
前記第2の合成処理は、前記第2の入力画像データの前記画素値に応じた前記入力値に対応する前記第2の処理手段の出力値と、当該入力値に対応する前記第1の処理手段の出力値とを合成する処理である
ことを特徴とする請求項13に記載の画像処理システム。 The second image processing apparatus includes:
Second communication means for performing communication with the first image processing apparatus;
Second combining means for performing second combining processing for combining the result of the second image processing by the second processing means and the result of communication by the second communication means;
Further comprising
An input value corresponding to a pixel value of second input image data that is image data input to the second image processing apparatus is input to the second processing means,
The second communication means includes
By outputting the input value corresponding to the pixel value of the second input image data to the first image processing device, the output value corresponding to the input value is output to the first processing unit,
Obtaining the output value output from the first processing means from the first image processing apparatus;
The second synthesis process includes an output value of the second processing unit corresponding to the input value corresponding to the pixel value of the second input image data, and the first process corresponding to the input value. The image processing system according to claim 13, wherein the image processing system is a process of combining the output value of the means.
前記第2の処理手段は、前記複数の部分値のいずれかであり、且つ、前記第1の部分値とは異なる部分値である第2の部分値を出力する
ことを特徴とする請求項13または14に記載の画像処理システム。 The first processing means outputs a first partial value that is one of a plurality of partial values constituting a pixel value obtained by performing predetermined image processing on the pixel value;
14. The second processing means outputs a second partial value which is one of the plurality of partial values and which is a partial value different from the first partial value. Or the image processing system of 14.
前記第1の画像処理は、前記第1の領域と前記第2の領域の一方の領域に対応する画像処理であり、
前記第2の画像処理は、前記第1の領域と前記第2の領域の他方の領域に対応する画像処理であり、
前記第1の通信手段は、
前記第1の検出手段の検出結果に基づいて、前記他方の領域を少なくとも含む領域における前記第1の入力画像データである第1の出力画像データを前記第2の画像処理装置に出力することにより、前記第1の出力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、
前記第1の出力画像データに前記第2の画像処理を施した結果を前記第2の画像処理装置から取得し、
前記第1の合成手段は、前記第1の合成処理により、前記一方の領域に対して前記第1の画像処理を施した画像であり、且つ、前記他方の領域に対して前記第2の画像処理を施した画像である第1の合成画像を表す第1の合成画像データを生成する
ことを特徴とする請求項11に記載の画像処理システム。 The first image processing apparatus further includes first detection means for detecting a first area and a second area from an area of the image represented by the first input image data,
The first image processing is image processing corresponding to one of the first region and the second region;
The second image processing is image processing corresponding to the other region of the first region and the second region;
The first communication means includes
Based on the detection result of the first detection means, the first output image data that is the first input image data in the region including at least the other region is output to the second image processing device. , Causing the second processing means to perform the second image processing on the first output image data,
A result obtained by performing the second image processing on the first output image data is obtained from the second image processing apparatus;
The first combining means is an image obtained by performing the first image processing on the one area by the first combining process, and the second image on the other area. The image processing system according to claim 11, wherein first composite image data representing a first composite image which is a processed image is generated.
前記第1の画像処理装置との間の通信を行う第2の通信手段と、
前記第2の画像処理装置に入力された画像データである第2の入力画像データによって表された画像の領域から、前記第1の領域と、前記第2の領域とを検出する第2の検出手段と、
前記第2の処理手段による前記第2の画像処理の結果と、前記第2の通信手段による通信の結果とを合成する第2の合成処理を行う第2の合成手段と、
をさらに有し、
前記第2の処理手段は、前記第2の入力画像データに前記第2の画像処理を施し、
前記第1の画像処理は、前記第1の領域と前記第2の領域の一方の領域に対応する画像
処理であり、
前記第2の画像処理は、前記第1の領域と前記第2の領域の他方の領域に対応する画像処理であり、
前記第2の通信手段は、
前記第2の検出手段の検出結果に基づいて、前記一方の領域を少なくとも含む領域における前記第2の入力画像データである第2の出力画像データを前記第1の画像処理装置に出力することにより、前記第2の出力画像データに対する前記第1の画像処理を前記第1の処理手段に行わせ、
前記第2の出力画像データに前記第1の画像処理を施した結果を前記第1の画像処理装置から取得し、
前記第2の合成手段は、前記第2の合成処理により、前記一方の領域に対して前記第1の画像処理を施した画像であり、且つ、前記他方の領域に対して前記第2の画像処理を施した画像である第2の合成画像を表す第2の合成画像データを生成する
ことを特徴とする請求項16に記載の画像処理システム。 The second image processing apparatus includes:
Second communication means for performing communication with the first image processing apparatus;
Second detection for detecting the first region and the second region from the region of the image represented by the second input image data which is the image data input to the second image processing device Means,
Second combining means for performing second combining processing for combining the result of the second image processing by the second processing means and the result of communication by the second communication means;
Further comprising
The second processing means performs the second image processing on the second input image data,
The first image processing is image processing corresponding to one of the first region and the second region;
The second image processing is image processing corresponding to the other region of the first region and the second region;
The second communication means includes
By outputting second output image data, which is the second input image data in a region including at least the one region, to the first image processing device based on the detection result of the second detection unit. , Causing the first processing means to perform the first image processing on the second output image data,
A result obtained by performing the first image processing on the second output image data is obtained from the first image processing apparatus;
The second combining means is an image obtained by performing the first image processing on the one area by the second combining process, and the second image on the other area. The image processing system according to claim 16, wherein second composite image data representing a second composite image that is an image that has been processed is generated.
前記第2の画像処理装置は、前記第1の領域に対応する画像処理、または、前記第2の領域に対応する画像処理を、前記第2の画像処理として設定する第2の設定手段、をさらに有し、
前記第1の検出手段で検出された前記第1の領域が、前記第2の検出手段で検出された前記第1の領域よりも大きい場合に、
前記第1の設定手段は、前記第1の領域に対応する画像処理を前記第1の画像処理として設定し、
前記第2の設定手段は、前記第2の領域に対応する画像処理を前記第2の画像処理として設定し、
前記第1の検出手段で検出された前記第1の領域が、前記第2の検出手段で検出された前記第1の領域よりも小さい場合に、
前記第1の設定手段は、前記第2の領域に対応する画像処理を前記第1の画像処理として設定し、
前記第2の設定手段は、前記第1の領域に対応する画像処理を前記第2の画像処理として設定する
ことを特徴とする請求項17に記載の画像処理システム。 A first setting unit configured to set, as the first image processing, image processing corresponding to the first region or image processing corresponding to the second region; In addition,
A second setting unit configured to set, as the second image processing, image processing corresponding to the first region or image processing corresponding to the second region; In addition,
When the first area detected by the first detection means is larger than the first area detected by the second detection means,
The first setting means sets image processing corresponding to the first region as the first image processing,
The second setting means sets the image processing corresponding to the second region as the second image processing;
When the first area detected by the first detection means is smaller than the first area detected by the second detection means,
The first setting means sets image processing corresponding to the second region as the first image processing,
The image processing system according to claim 17, wherein the second setting unit sets image processing corresponding to the first region as the second image processing.
ことを特徴とする請求項16〜18のいずれか1項に記載の画像処理システム。 The image processing system according to claim 16, wherein the first output image data is the first input image data in the other region.
前記第2の出力画像データは、前記一方の領域における前記第2の入力画像データである
ことを特徴とする請求項17または18に記載の画像処理システム。 The first output image data is the first input image data in the other region,
The image processing system according to claim 17 or 18, wherein the second output image data is the second input image data in the one region.
ことを特徴とする請求項16〜20のいずれか1項に記載の画像処理システム。 21. The image processing system according to claim 16, wherein the first area is an area corresponding to a display having a wider dynamic range than a display corresponding to the second area. .
前記画像処理装置に入力された画像データである入力画像データに対する前記第1の画像処理を、前記第1の処理手段に行わせる処理ステップと、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信ステップと、
前記処理ステップにおいて取得された前記第1の画像処理の結果と、前記通信ステップにおいて取得された前記第2の画像処理の結果とを合成する合成処理を行う合成ステップと、
を有することを特徴とする画像処理装置の制御方法。 A control method for an image processing apparatus having first processing means for performing first image processing,
A processing step for causing the first processing means to perform the first image processing on input image data which is image data input to the image processing apparatus;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. A communication step of causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing device;
A synthesis step for performing a synthesis process for synthesizing the result of the first image processing acquired in the processing step and the result of the second image processing acquired in the communication step;
A control method for an image processing apparatus, comprising:
前記制御方法は、
前記画像処理装置に入力された画像データである入力画像データに対する前記第1の画像処理を、前記第1の処理手段に行わせる処理ステップと、
前記第1の画像処理とは異なる第2の画像処理を行う第2の処理手段を有する他の画像処理装置との間の通信を行うことにより、前記入力画像データに対する前記第2の画像処理を前記第2の処理手段に行わせ、前記入力画像データに前記第2の画像処理を施した結果を前記他の画像処理装置から取得する通信ステップと、
前記処理ステップにおいて取得された前記第1の画像処理の結果と、前記通信ステップにおいて取得された前記第2の画像処理の結果とを合成する合成処理を行う合成ステップと、
を有することを特徴とするプログラム。 A program for causing a computer to execute a control method of an image processing apparatus having first processing means for performing first image processing,
The control method is:
A processing step for causing the first processing means to perform the first image processing on input image data which is image data input to the image processing apparatus;
The second image processing on the input image data is performed by performing communication with another image processing apparatus having a second processing unit that performs second image processing different from the first image processing. A communication step of causing the second processing means to perform the second image processing on the input image data, and acquiring the result from the other image processing device;
A synthesis step for performing a synthesis process for synthesizing the result of the first image processing acquired in the processing step and the result of the second image processing acquired in the communication step;
The program characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/217,473 US20170032506A1 (en) | 2015-07-28 | 2016-07-22 | Image processing apparatus and control method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015148892 | 2015-07-28 | ||
JP2015148892 | 2015-07-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017033545A true JP2017033545A (en) | 2017-02-09 |
JP2017033545A5 JP2017033545A5 (en) | 2019-07-11 |
Family
ID=57987263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016128527A Withdrawn JP2017033545A (en) | 2015-07-28 | 2016-06-29 | Image processing device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017033545A (en) |
-
2016
- 2016-06-29 JP JP2016128527A patent/JP2017033545A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5050691B2 (en) | Image processing apparatus, image processing method, and computer program | |
US20140010479A1 (en) | Bilinear interpolation circuit for image and method thereof | |
JP2017228979A (en) | Video processing apparatus, display apparatus, and video processing method | |
CN107682730B (en) | Layer superposition processing method, layer superposition processing device and video processor | |
US20070223017A1 (en) | Image processing apparatus | |
CN110737321B (en) | Image display device for displaying background image with low power consumption and method thereof | |
US7336286B2 (en) | Method of and an apparatus for processing images | |
US10002409B2 (en) | Image signal providing apparatus and image signal providing method | |
JP2010066384A (en) | Image processing device | |
US20170032506A1 (en) | Image processing apparatus and control method thereof | |
JP5895150B2 (en) | Image display device | |
JP4453754B2 (en) | Display device, video signal correction device, and video signal correction method | |
JP2017033545A (en) | Image processing device and control method thereof | |
US5541668A (en) | Filter for reducing a noise component of a chrominance signal and chrominance signal noise component reducing method | |
US8704745B2 (en) | Driving device and driving method for liquid crystal display | |
US8199098B2 (en) | Driving device and driving method for liquid crystal display | |
JP2009094947A (en) | Correction arithmetic circuit | |
JP2001136412A (en) | Gamma correction circuit for a plurality of video display devices | |
CN101640773A (en) | Method and device for reducing and enlarging sub-picture video signals, and television with same | |
JP4735448B2 (en) | Video signal processing device | |
JP6048046B2 (en) | Image composition apparatus and image composition method | |
US20080218629A1 (en) | Method and system for processing image data in LCD by integrating de-interlace and overdrive operations | |
JP2008301381A (en) | Signal adjusting device | |
JP2010263394A (en) | Video signal processor | |
US20190238812A1 (en) | Image processing apparatus, image capturing apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190603 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200803 |