JP4247621B2 - Image processing apparatus, image processing method, and medium on which image processing control program is recorded - Google Patents

Image processing apparatus, image processing method, and medium on which image processing control program is recorded Download PDF

Info

Publication number
JP4247621B2
JP4247621B2 JP2004072344A JP2004072344A JP4247621B2 JP 4247621 B2 JP4247621 B2 JP 4247621B2 JP 2004072344 A JP2004072344 A JP 2004072344A JP 2004072344 A JP2004072344 A JP 2004072344A JP 4247621 B2 JP4247621 B2 JP 4247621B2
Authority
JP
Japan
Prior art keywords
area
value
target image
luminance
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004072344A
Other languages
Japanese (ja)
Other versions
JP2004260835A (en
Inventor
直樹 鍬田
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004072344A priority Critical patent/JP4247621B2/en
Publication of JP2004260835A publication Critical patent/JP2004260835A/en
Application granted granted Critical
Publication of JP4247621B2 publication Critical patent/JP4247621B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタル写真画像のような実写画像データに対して最適な画像処理を自動的に実行する画像処理装置、画像処理方法、画像処理制御プログラムを記録した媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, and a medium on which an image processing control program is recorded that automatically executes optimum image processing on real image data such as a digital photographic image.

従来より、ディジタル画像データに対して各種の画像処理が行われているが、従来の画像処理の場合には適切な明度補正がなされていなかった。   Conventionally, various types of image processing have been performed on digital image data. However, in the case of conventional image processing, appropriate brightness correction has not been performed.

例えば、撮像対象となる画像の明度の平均値を求める際、主要な部分の明度に対しては大きな重み付けを行い、不要な背景部分に対しては小さな重み付けをすることが好ましい。   For example, when obtaining the average value of the brightness of the image to be imaged, it is preferable to give a large weight to the lightness of the main part and to give a small weight to the unnecessary background part.

従来の画像処理の場合、主要部分は他の部分と比較して画像がシャープであるという経験的事実に基づいて、画像がシャープである画素を主要部の画素と判断している。画素データがドットマトリックス状の画素から構成されている場合、画像のエッジ部分では隣接する画素間での画素データの差分が大きくなる。そこで、輝度勾配に相当する当該差分をエッジ度と称して、エッジ度が所定値よりも大きい画素を、画像がシャープである主要部の画素と判定している。   In the case of conventional image processing, a pixel having a sharp image is determined as a main pixel based on an empirical fact that the main portion is sharper than the other portions. When the pixel data is composed of pixels in a dot matrix shape, the difference in pixel data between adjacent pixels becomes large at the edge portion of the image. Therefore, the difference corresponding to the luminance gradient is referred to as an edge degree, and a pixel having an edge degree larger than a predetermined value is determined as a main part pixel having a sharp image.

しかしながら、人物の顔など主要部でありながらエッジ度の小さい画素、人物の着用している服の模様(チェック柄)や模様のある壁など主要部でないにも拘わらずエッジ度の大きな画素を含む画像が存在する。このような画像の場合には、適切な明度補正がなされていなかった。   However, it includes pixels with a small edge degree, such as the face of a person, but pixels with a high edge degree, even though it is not the main part, such as a pattern (check pattern) of clothes worn by a person or a wall with a pattern. There is an image. In the case of such an image, appropriate brightness correction has not been made.

本発明は、上記問題点を解決するためになされたもので、適切な明度補正が可能な画像処理装置、方法及び画像処理制御プログラムを記録した記録媒体を提供することを課題とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, a method, and a recording medium on which an image processing control program is recorded that can perform appropriate brightness correction.

上記課題に鑑み、請求項1に記載の発明は、対象画像に対して所定の画像処理を行う画像処理装置であって、対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算手段と、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定手段と、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングを行い、明度補正を行う明度補正手段と、を備えて構成される。   In view of the above problems, the invention according to claim 1 is an image processing apparatus that performs predetermined image processing on a target image, and divides the target image into a plurality of regions, and averages luminance values for each region. A luminance average value calculating means for obtaining a reference area selecting means for selecting, as a reference area, an area having the lowest luminance average value from areas occupied by a main part of the target image; and a luminance average value of the selected reference area The brightness reference value includes brightness correction means that performs sampling and brightness correction based on the difference between the brightness reference value and the average brightness value of each area and the position of each area.

以上のように構成された対象画像に対して所定の画像処理を行う画像処理装置によれば、まず、輝度平均値計算手段によって、対象画像が複数の領域に分割され、各領域毎の輝度平均値が求められる。そして、基準領域選定手段によって、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域が基準領域として選定され、明度補正手段によって、選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングが行なわれ、明度補正が行なわれる。   According to the image processing apparatus that performs predetermined image processing on the target image configured as described above, first, the target image is divided into a plurality of regions by the luminance average value calculation unit, and the luminance average for each region is obtained. A value is determined. Then, the reference area selection means selects the area having the lowest luminance average value from the areas occupied by the main part of the target image as the reference area, and the brightness correction means determines the luminance average value of the selected reference area as the luminance reference value. As values, sampling is performed based on the difference between the luminance reference value and the average luminance value of each region, and the position of each region, and brightness correction is performed.

また、請求項2に記載の発明は、請求項1に記載の画像処理装置であって、前記対象画像の形状に基づき、前記対象画像の主要部分の占める領域を設定するように構成される。   The invention according to claim 2 is the image processing apparatus according to claim 1, and is configured to set an area occupied by a main part of the target image based on the shape of the target image.

さらに、請求項3に記載の発明は、請求項1に記載の画像処理装置であって、前記対象画像が縦長ならば前記対象画像の主要部分の占める領域を縦長に設定し、前記対象画像が横長ならば前記対象画像の主要部分の占める領域を横長に設定するように構成される。   Furthermore, the invention according to claim 3 is the image processing apparatus according to claim 1, wherein if the target image is vertically long, an area occupied by a main part of the target image is set to be vertically long, and the target image is If it is horizontally long, the area occupied by the main part of the target image is configured to be horizontally long.

また、請求項4に記載の発明は、請求項1乃至3のいづれか一項に記載の画像処理装置であって、前記分割された複数の領域を内周領域と外周領域とに分割して、内周領域の中から基準領域が選定されるように構成される。   The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein the plurality of divided areas are divided into an inner peripheral area and an outer peripheral area, The reference area is selected from the inner peripheral area.

さらに、請求項5に記載の発明は、請求項4に記載の画像処理装置であって、前記内周領域の領域分割数を、前記外周領域の領域分割数よりも多くするように構成される。   Furthermore, the invention according to claim 5 is the image processing device according to claim 4, wherein the number of area divisions of the inner peripheral area is larger than the number of area divisions of the outer peripheral area. .

また、請求項6に記載の発明は、請求項1乃至5のいづれか一項に記載の画像処理装置であって、前記輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、対象画像の輝度平均値を計算して、当該対象画像の輝度平均値が明度補正基準値以上の場合には対象画像を暗くするように明度補正し、当該対象画像の輝度平均値が明度補正基準値未満の場合には対象画像を明るくするように明度補正するように構成される。   The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein the difference between the luminance reference value and the luminance average value of each region, and the position of each region. The brightness average value of the target image is calculated, and when the brightness average value of the target image is equal to or higher than the brightness correction reference value, the brightness correction is performed so that the target image is darkened. If it is less than the lightness correction reference value, the lightness is corrected so that the target image is brightened.

さらに、請求項7に記載の発明は、請求項6に記載の画像処理装置であって、前記輝度基準値と各領域の輝度平均値との差が所定値以上の場合に、該当する領域を対象画像の輝度平均値の算定基準から除外するように構成される。   Furthermore, the invention according to claim 7 is the image processing apparatus according to claim 6, wherein when the difference between the luminance reference value and the luminance average value of each region is equal to or larger than a predetermined value, the corresponding region is determined. It is comprised so that it may exclude from the calculation reference | standard of the brightness | luminance average value of an object image.

また、請求項8に記載の発明は、請求項7に記載の画像処理装置であって、前記所定値を内周領域と外周領域とで異なる値として、内周領域における所定値を、外周領域における所定値よりも大きな値とするように構成される。   The invention according to claim 8 is the image processing apparatus according to claim 7, wherein the predetermined value is set to a value different between the inner peripheral region and the outer peripheral region, and the predetermined value in the inner peripheral region is set to the outer peripheral region. It is comprised so that it may become a bigger value than the predetermined value in.

上記課題に鑑み、請求項9に記載の発明は、対象画像に対して所定の画像処理を行う画像処理方法であって、対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算工程と、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定工程と、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングを行い、明度補正を行う明度補正工程と、を備えて構成される。   In view of the above problem, the invention according to claim 9 is an image processing method for performing predetermined image processing on a target image, and divides the target image into a plurality of regions, and averages luminance values for each region. A luminance average value calculating step, a reference region selecting step for selecting a region having the lowest luminance average value from the regions occupied by the main part of the target image as a reference region, and the luminance average value of the selected reference region The brightness reference value includes a brightness correction step of performing sampling and brightness correction based on the difference between the brightness reference value and the brightness average value of each area, and the position of each area.

以上のように構成された対象画像に対して所定の画像処理を行う画像処理方法によれば、まず、輝度平均値計算工程によって、対象画像が複数の領域に分割され、各領域毎の輝度平均値が求められる。そして、基準領域選定工程によって、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域が基準領域として選定され、明度補正工程によって、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングが行なわれ、明度補正が行なわれる。   According to the image processing method for performing predetermined image processing on the target image configured as described above, first, the target image is divided into a plurality of regions by the luminance average value calculating step, and the luminance average for each region is calculated. A value is determined. Then, the region having the lowest luminance average value is selected as the reference region from the regions occupied by the main part of the target image by the reference region selection step, and the luminance average value of the selected reference region is determined by the brightness correction step. As the reference value, sampling is performed based on the difference between the luminance reference value and the average luminance value of each region, and the position of each region, and brightness correction is performed.

上記課題に鑑み、請求項10に記載の発明は、対象画像に対して所定の画像処理を行う画像処理処理をコンピュータに実行させるためのプログラムを記録したコンピュータによって読取可能な記録媒体であって、対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算処理と、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定処理と、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングを行い、明度補正を行う明度補正処理と、をコンピュータに実行させるためのプログラムを記録してコンピュータによって読取可能に構成される。   In view of the above problems, the invention according to claim 10 is a computer-readable recording medium that records a program for causing a computer to execute image processing for performing predetermined image processing on a target image. Divide the target image into multiple areas and calculate the average brightness value for each area, and select the area with the lowest average brightness value from the areas occupied by the main part of the target image as the reference area The reference area selection processing to be performed, the luminance average value of the selected reference area as a luminance reference value, sampling is performed based on the difference between the luminance reference value and the luminance average value of each area, and the position of each area, A program for causing a computer to execute brightness correction processing for performing brightness correction is recorded and can be read by the computer.

以上のように構成されたコンピュータによって読取可能な記録媒体には、対象画像に対して所定の画像処理を行う画像処理処理をコンピュータに実行させるためのプログラムが記録されている。そして、輝度平均値計算処理によって、対象画像が複数の領域に分割され、各領域毎の輝度平均値が求められ、基準領域選定処理によって、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域が基準領域として選定される。さらに、明度補正処理によって、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングが行われ、明度補正が行なわれる。   The computer-readable recording medium configured as described above stores a program for causing a computer to execute image processing processing for performing predetermined image processing on a target image. Then, the target image is divided into a plurality of areas by the brightness average value calculation process, and the brightness average value for each area is obtained, and the brightness average value is calculated from the areas occupied by the main part of the target image by the reference area selection process. The lowest region is selected as the reference region. Further, by the brightness correction process, sampling is performed based on the difference between the luminance reference value and the average luminance value of each area, and the position of each area, using the average luminance value of the selected reference area as the luminance reference value. Lightness correction is performed.

図1は、本発明の一実施形態にかかる画像処理装置を適用した画像処理システムをブロック図により示しており、図2は、具体的ハードウエア構成例を概略ブロック図により示している。   FIG. 1 is a block diagram illustrating an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied. FIG. 2 is a schematic block diagram illustrating a specific hardware configuration example.

図1において、画像入力装置10は、写真などのドットマトリックス状の画素として表した実写画像データ(元画像データ)を画像処理装置20に出力する。当該画像処理装置20は、所定の処理を経て画像処理の内容及び程度を決定してから画像処理を実行した後、画像処理された画像データ(処理後画像データ)を画像出力装置30に出力する。当該画像出力装置30は、画像処理された画像をドットマトリックス状の画素で出力する。   In FIG. 1, the image input device 10 outputs real image data (original image data) represented as a dot matrix pixel such as a photograph to the image processing device 20. The image processing apparatus 20 performs image processing after determining the content and degree of image processing through predetermined processing, and then outputs image processed image data (processed image data) to the image output apparatus 30. . The image output device 30 outputs the image-processed image as a dot matrix pixel.

ここで、画像処理装置20が出力する画像データは、所定の条件下で輝度の基準値を決定して、当該輝度基準値に基づき輝度の重み付けを行なって明度補正を行って画像処理されたものである。画像処理装置20は、輝度平均値計算部20aと、基準エリア選定部20bと、不要エリア除去部20cと、重み付け輝度平均値計算部20dと、明度補正部20eと、を備えて構成される。各構成部分のデータ処理の詳細に関しては、後述する。   Here, the image data output from the image processing device 20 is obtained by performing image processing by determining a luminance reference value under a predetermined condition, performing luminance weighting based on the luminance reference value, and performing brightness correction. It is. The image processing apparatus 20 includes a luminance average value calculation unit 20a, a reference area selection unit 20b, an unnecessary area removal unit 20c, a weighted luminance average value calculation unit 20d, and a brightness correction unit 20e. Details of the data processing of each component will be described later.

画像入力装置10の具体例は、図2におけるデジタルスチルカメラ12またはビデオカメラ14などが該当する。また、画像処理装置20の具体例は、コンピュータ21、ハードディスク22、キーボード23、CD−ROMドライブ24、フロッピーディスクドライブ25、及びモデム26などを備えて構成されるコンピュータシステムが該当する。そして、画像出力装置30の具体例は、プリンタ31、ディスプレイ32などが該当する。なお、モデム26は公衆電話回線に接続され、外部のネットワークに同公衆通信回線を介して接続され、ソフトウエアやデータをダウンロードすることができる。   A specific example of the image input apparatus 10 corresponds to the digital still camera 12 or the video camera 14 in FIG. A specific example of the image processing apparatus 20 corresponds to a computer system including a computer 21, a hard disk 22, a keyboard 23, a CD-ROM drive 24, a floppy disk drive 25, a modem 26, and the like. A specific example of the image output device 30 corresponds to a printer 31, a display 32, and the like. The modem 26 is connected to a public telephone line and is connected to an external network via the public communication line so that software and data can be downloaded.

本発明による画像処理制御プログラムは、通常、コンピュータ21が読取可能な形態でフロッピーディスク、CD−ROMなどの記録媒体に記録されて流通する。当該プログラムは、メディア読取装置(CD−ROMドライブ24、フロッピーディスクドライブ25など)によって読み取られてハードディスク22にインストールされる。そして、CPUが所望のプログラムを適宜ハードディスク22から読み出して所望の処理を実行するように構成されている。   The image processing control program according to the present invention is normally recorded and distributed on a recording medium such as a floppy disk or a CD-ROM in a form readable by the computer 21. The program is read by a media reader (CD-ROM drive 24, floppy disk drive 25, etc.) and installed in the hard disk 22. The CPU is configured to read out a desired program from the hard disk 22 as appropriate and execute a desired process.

当該実施の形態においては、画像入力装置10としてのスキャナ11やデジタルスチルカメラ12が画像データとしてRGB(緑、青、赤)の階調データを出力するとともに、画像出力装置30としてのプリンタ31は、階調データとしてのCMY(シアン、マゼンタ、イエロー)またはこれに黒を加えたCMYKの二値データを入力として必要とする。また、ディスプレイ32は、RGBの階調データを入力として必要とする。一方、コンピュータ21内では、オペレーティングシステム21a、プリンタ31及びディスプレイ32に対応するプリンタドライバ21b及びディスプレイドライバ21cを備えている。また、画像処理アプリケーション21dは、オペレーティングシステム21aにて処理の実行を制御され、必要に応じてプリンタドライバ21bやディスプレイドライバ21cと連帯して所定の画像処理を実行する。したがって、画像処理装置20としての当該コンピュータ21の具体的役割は、RGBの階調データを入力して最適な画像処理を施したRGBの階調データを作成して、ディスプレイドライバ21cを介してディスプレイ32に表示させるとともに、プリンタドライバ21bを介してCMY(またはCMYK)の二値データに変換してプリンタ31に印刷させる。   In this embodiment, the scanner 11 or the digital still camera 12 as the image input device 10 outputs RGB (green, blue, red) gradation data as image data, and the printer 31 as the image output device 30 includes: , CMY (cyan, magenta, yellow) as gradation data or CMYK binary data obtained by adding black to this is required as input. The display 32 requires RGB gradation data as an input. On the other hand, the computer 21 includes an operating system 21a, a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32. The image processing application 21d is controlled by the operating system 21a to execute processing, and performs predetermined image processing together with the printer driver 21b and the display driver 21c as necessary. Accordingly, the specific role of the computer 21 as the image processing apparatus 20 is to create RGB gradation data that has been subjected to optimal image processing by inputting RGB gradation data, and displays it via the display driver 21c. 32, and is converted into CMY (or CMYK) binary data via the printer driver 21b and printed on the printer 31.

このように、当該実施の形態においては、画像の入出力装置の間にコンピュータシステムを組み込んで画像処理を行うようにしているが、必ずしも当該コンピュータシステムを必要とするわけではなく、画像データに対して所望の画像処理を施すシステムであれば良い。例えば、図3に示すように、デジタルスチルカメラ12a内に所望の画像処理を施す画像処理装置を組み込み、当該デジタルスチルカメラ内部で色変換を行い、当該変換された画像データをメモリに格納したり、
変換された画像データを用いてディスプレイ32aに表示させたり、プリンタ31aに印字させるようなシステムであっても良い。また、図4に示すように、コンピュータシステムを介することなく、画像データを入力して印刷するプリンタ31bにおいては、スキャナ11b、デジタルスチルカメラ12b、またはモデム26b等を介して入力される画像データから自動的に所望の画像処理を行うように構成することもできる。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, the computer system is not necessarily required, and image data is not necessarily processed. Any system that performs desired image processing may be used. For example, as shown in FIG. 3, an image processing device that performs desired image processing is incorporated in the digital still camera 12a, color conversion is performed inside the digital still camera, and the converted image data is stored in a memory. ,
A system in which the converted image data is displayed on the display 32a or printed on the printer 31a may be used. As shown in FIG. 4, in the printer 31b that inputs and prints image data without using a computer system, the image data input through the scanner 11b, the digital still camera 12b, the modem 26b, or the like is used. It can also be configured to perform desired image processing automatically.

以下、図5を参照して、図1に示す画像処理装置20による所望の画像処理に関して説明する。当該所望の画像処理は、具体的には上記コンピュータ21内において図5に示すフローチャートに対応した画像処理プログラムで行っており、メインの被写体が中央付近に配置されること、及び画像全体の輝度分布から著しく外れたエリアは補正に不要な情報を保有しているとの前提に基づいている。   Hereinafter, desired image processing by the image processing apparatus 20 shown in FIG. 1 will be described with reference to FIG. Specifically, the desired image processing is performed by the image processing program corresponding to the flowchart shown in FIG. 5 in the computer 21, and the main subject is arranged near the center, and the luminance distribution of the entire image. This is based on the premise that information that is not necessary for correction is held in areas that deviate significantly from the above.

まず、画像処理装置20内の輝度平均値計算部20aは、所望の画像処理を施す対象画像を図6に示すように14エリア(a0〜a13)に分割して、各エリア毎に輝度分布(ヒストグラム情報)を作成して、各エリア毎の輝度平均値Yaveを求める(ステップ40)。   First, the luminance average value calculation unit 20a in the image processing apparatus 20 divides a target image to be subjected to desired image processing into 14 areas (a0 to a13) as shown in FIG. (Histogram information) is created, and an average luminance value Yave for each area is obtained (step 40).

図6において、分割された14のエリアは、画像全体a0と、9個の内周エリアa1〜a9と、4個の外周エリアa10〜a13とからなる。当該実施の形態では、9個の内周エリアa1〜a9の形状が同一であり、図6に示すように縦横3列に配置され、画像全体に対して上下にそれぞれH/5づつ、左右にW/5づつの外周エリアが形成されるようにする。なお、Hは対象画像の高さを示し、Wは対象画像の幅を示している。当該実施の形態では、上記のように対象画像を分割しているが、内周エリア及び外周エリアにおけるエリア分割数、分割方法は任意である。   In FIG. 6, the 14 divided areas are composed of the entire image a0, nine inner peripheral areas a1 to a9, and four outer peripheral areas a10 to a13. In the present embodiment, the nine inner peripheral areas a1 to a9 have the same shape, and are arranged in three rows in the vertical and horizontal directions as shown in FIG. W / 5 outer peripheral areas are formed. H indicates the height of the target image, and W indicates the width of the target image. In this embodiment, the target image is divided as described above, but the number of area divisions and the division method in the inner peripheral area and the outer peripheral area are arbitrary.

次に、画像処理装置20内の基準エリア選定部20bは、注目エリアを決定して(ステップ42)、基準エリアを選定する(ステップ44)。   Next, the reference area selection unit 20b in the image processing apparatus 20 determines an attention area (step 42) and selects a reference area (step 44).

具体的には、対象画像が縦長の場合(H≧W)にはa2,a5,a7を注目エリアとして選定して、対象画像が横長の場合(H<W)にはa4,a5,a6を注目エリアとして選定する。これは、写真の向きに対する主要被写体の配置される場所の確率に基づいている。すなわち、縦長の建物などを横構図ではあまり撮像しないとの経験的事実に基づいている。   Specifically, when the target image is vertically long (H ≧ W), a2, a5, and a7 are selected as attention areas, and when the target image is horizontally long (H <W), a4, a5, and a6 are selected. Select as the area of interest. This is based on the probability of the location of the main subject relative to the orientation of the photograph. In other words, this is based on an empirical fact that a vertically long building or the like is not imaged with a horizontal composition.

次に、注目エリアの中から輝度平均値が最も低いエリアを基準エリアに選定して、当該基準エリアの輝度平均値を露出基準値Ystdとする。このように基準エリアを選定するのは、暗い画像と比較して明るい画像の方が画像処理に対する許容範囲が広いと考えられ、また逆光写真の場合に露出基準値を低い値にすることで明るい背景を容易に除去することができるからである。なお、注目エリアのうち、輝度中央値をとる領域を基準領域とすることもできる。   Next, an area with the lowest average brightness value is selected as the reference area from the attention areas, and the average brightness value of the reference area is set as the exposure reference value Ystd. The reason for selecting the reference area in this manner is that a bright image is considered to have a wider allowable range for image processing than a dark image, and in the case of backlight photography, the exposure reference value is set to a low value. This is because the background can be easily removed. Of the attention area, an area having a median luminance value may be used as the reference area.

次に、画像処理装置20内の不要エリア除外部20cは、対象画像の露出基準値Ystdと各エリアの輝度平均値との差の絶対値が所定の閾値以上の場合には、不要な情報と判定して以下の処理から除外する(ステップ46〜52)。   Next, when the absolute value of the difference between the exposure reference value Ystd of the target image and the luminance average value of each area is equal to or greater than a predetermined threshold, the unnecessary area exclusion unit 20c in the image processing apparatus 20 It judges and excludes from the following processes (steps 46-52).

具体的には、注目エリアを除く内周エリアa1〜a9に関して、
|Ystd−Yave[i]|>Th1?
であるか否かを判断する(ステップ46)。|Ystd−Yave[i]|>Th1の場合(ステップ46、Yes)、|Ystd−Yave[i]|>Th1となるエリアaiを除外する(ステップ48)。
Specifically, regarding the inner peripheral areas a1 to a9 excluding the attention area,
| Y std −Y ave [i] | > Th1?
It is determined whether or not (step 46). If | Y std −Y ave [i] |> Th1 (step 46, Yes), the area ai where | Y std− Y ave [i] |> Th1 is excluded (step 48).

また、外周エリアa10〜a13に関して、
|Ystd−Yave[i]|>Th2?
であるか否かを判断する(ステップ50)。|Ystd−Yave[i]|>Th2の場合(ステップ50、Yes)、|Ystd−Yave[i]|>Th2となるエリアaiを除外する(ステップ52)。
Moreover, regarding the outer peripheral areas a10 to a13,
| Y std −Y ave [i] | > Th2?
It is determined whether or not (step 50). If | Y std −Y ave [i] |> Th2 (step 50, Yes), the area ai where | Y std −Y ave [i] |> Th2 is excluded (step 52).

このように、判定閾値は、内周エリアと外周エリアとで異なる値(Th1>Th2)に設定する。内周エリアは、中央付近にありメインの被写体が存在する可能性が高いので、閾値Th1の値を比較的大きく設定する。一方、外周エリアは、背景の可能性が高いと思われるため、閾値Th2の値を比較的小さく設定して相対的に除外され易くしている。なお、エリアa8及びa9は、a1及びa3と同様に中央付近に位置しているが、多くの場合、上半部に背景(例えば、空)が入る可能性が高いため、扱いは外周エリアに含めることもできる。   Thus, the determination threshold is set to a different value (Th1> Th2) between the inner peripheral area and the outer peripheral area. Since the inner peripheral area is near the center and there is a high possibility that the main subject exists, the threshold value Th1 is set to be relatively large. On the other hand, the outer peripheral area seems to have a high possibility of background, so the threshold value Th2 is set to be relatively small so that it is relatively easily excluded. The areas a8 and a9 are located near the center as in the case of a1 and a3. In many cases, however, the background (for example, the sky) is likely to enter the upper half. It can also be included.

次に、画像処理装置20内の重み付け輝度平均値計算部20dは、不要エリア除外部20cによって除去されなかったエリアに関して、各エリアの位置に応じて、各エリアの輝度平均値を重み付けして加算する(ステップ54)。   Next, the weighted luminance average value calculation unit 20d in the image processing device 20 adds and weights the average luminance value of each area according to the position of each area regarding the area that has not been removed by the unnecessary area exclusion unit 20c. (Step 54).

当該実施の形態では、基準エリア、基準エリア以外の内周エリア、外周エリアの重み付け係数を3:2;1とする。他の重み付け係数を用いることもできる。すなわち、平均値の重み付け総和ΣYaveは、ステップ46、50で、除外されるエリアがない場合、基準エリアが中心のa5であるとすると、   In the present embodiment, the weighting coefficients of the reference area, the inner peripheral area other than the reference area, and the outer peripheral area are set to 3: 2: 1. Other weighting factors can also be used. That is, if the weighted sum ΣYave of the average values is not excluded in steps 46 and 50 and the reference area is the center a5,

Figure 0004247621

によって求まる。そして、対象画像の輝度平均値
Figure 0004247621

It is obtained by. And the luminance average value of the target image

Figure 0004247621

は、重み付け有効エリア数をanumとすると、
Figure 0004247621

If the number of weighted effective areas is a num ,

Figure 0004247621

によって求まる(ステップ56)。ここで、anum=[基準エリア数]×3+[基準エリアを除く、有効内周エリア数]×2+[有効外周エリア数]×1である。除外エリアがある場合は、式(1)および式(2)に関して、当該エリアは計算から除外される。
Figure 0004247621

(Step 56). Here, a num = [reference area number] × 3 + [effective inner peripheral area excluding reference area] × 2 + [effective outer peripheral area number] × 1. If there is an excluded area, the area is excluded from the calculation with respect to Equation (1) and Equation (2).

次に、画像処理装置20内の明度補正部20eは、対象画像の輝度平均値   Next, the brightness correction unit 20e in the image processing device 20 calculates the average brightness value of the target image.

Figure 0004247621

に基づき、明度(輝度値)を補正する(ステップ58)。具体的には、
Figure 0004247621

Based on the above, the brightness (luminance value) is corrected (step 58). In particular,

Figure 0004247621

によって画像全体の明るさを自動補正する。
Figure 0004247621

Automatically corrects the brightness of the entire image.

ここで、Yidealは明暗の基準値(明度補正基準値)であり、対象画像の輝度平均値   Here, Yideal is a light and dark reference value (lightness correction reference value), and the average luminance value of the target image

Figure 0004247621

が明暗の基準値Yidealより小さい場合には明度が大きくなるように、大きい場合には小さくなるようにガンマγの値が計算される。当該ガンマγの値を用いて
Y’=255×(Y/255)γ
によりプリンタドライバ21bまたはディスプレイドライバ21cのルックアップテーブルを作成する。ここで、Yは元画像の輝度値であり、Y’は明度補正後の輝度値である。
Figure 0004247621

The value of gamma γ is calculated so that the brightness increases when the brightness is smaller than the light / dark reference value Yideal and decreases when the brightness is larger. Using the value of gamma γ, Y ′ = 255 × (Y / 255) γ
Thus, a lookup table for the printer driver 21b or the display driver 21c is created. Here, Y is the luminance value of the original image, and Y ′ is the luminance value after lightness correction.

なお、このように明度補正する代わりにトーンカーブを用いて明度補正することも可能である。すなわち、明暗の基準値(明度補正基準値)と対象画像の輝度平均値との差分   It is also possible to correct the brightness using a tone curve instead of correcting the brightness in this way. That is, the difference between the brightness reference value (brightness correction reference value) and the average brightness value of the target image

Figure 0004247621

に基づきトーンカーブを制御して明度補正LUT(色変換テーブル)を生成する。
Figure 0004247621

The tone curve is controlled based on the above to generate a brightness correction LUT (color conversion table).

図7に、明度補正を行うためのトーンカーブの一例を示す。図7に示すように、明度補正LUTのトーンカーブは、階調「0」、階調「255」および制御ポイント(当該実施形態では、階調「64」とする。)の3点を通るスプライン曲線で滑らかに補間することで得られる。   FIG. 7 shows an example of a tone curve for performing brightness correction. As shown in FIG. 7, the tone curve of the lightness correction LUT is a spline that passes through three points of gradation “0”, gradation “255”, and control point (in this embodiment, gradation “64”). Obtained by smoothly interpolating with curves.

図8に、対象画像の各エリアの輝度平均値の一例を示す。当該一例に関して、図5のフローチャートに従う所望の画像処理を以下のように説明する。   FIG. 8 shows an example of the average brightness value of each area of the target image. Regarding this example, the desired image processing according to the flowchart of FIG. 5 will be described as follows.

この例では、輝度平均値計算部20a(ステップ40)により、図8に示すような各エリア毎の輝度平均値Yaveが求められたものとする。   In this example, it is assumed that the luminance average value Yave for each area as shown in FIG. 8 is obtained by the luminance average value calculation unit 20a (step 40).

対象画像を縦構図であると仮定すると、注目エリアは、a2,a5,a7となり(ステップ42)、基準エリア選定部21bは、注目エリアの中で最も低い輝度平均値Yave[2](=12)を有するエリアa2を基準エリアとして選定する(ステップ44)。従って、露出基準値Ystdは、注目エリアの中で最も低い輝度平均値Yave[2](=12)となる。   Assuming that the target image has a vertical composition, the attention areas are a2, a5, and a7 (step 42), and the reference area selection unit 21b has the lowest average luminance value Yave [2] (= 12) in the attention area. ) Is selected as a reference area (step 44). Therefore, the exposure reference value Ystd is the lowest luminance average value Yave [2] (= 12) in the attention area.

次に、不要エリア除外部20cは、輝度平均値と露出基準値との差の絶対値difを求める。各エリア毎の輝度平均値、及び当該輝度平均値と露出基準値との差の絶対値difは以下のとおりである。   Next, the unnecessary area exclusion unit 20c obtains an absolute value dif of the difference between the luminance average value and the exposure reference value. The average brightness value for each area and the absolute value dif of the difference between the average brightness value and the exposure reference value are as follows.

Figure 0004247621
さらに、不要エリア除外部20cは、内周エリア(a1〜a9)に対するエリア判定閾値Th1を100、外周エリア(a10〜a13)に対するエリア判定閾値Th2を50として、不要なエリアを除外する(ステップ46〜52)。
Figure 0004247621
Furthermore, the unnecessary area exclusion unit 20c excludes unnecessary areas by setting the area determination threshold Th1 for the inner peripheral areas (a1 to a9) to 100 and the area determination threshold Th2 for the outer peripheral areas (a10 to a13) to 50 (step 46). ~ 52).

図8に示す例では、4つのエリア(a8,a9,a12,a13)が不要エリアと判定されて除外される。よって、主要領域を重点的にサンプリングすることができる。   In the example shown in FIG. 8, four areas (a8, a9, a12, a13) are determined as unnecessary areas and excluded. Therefore, the main area can be sampled with priority.

次に、重み付け輝度平均値計算部20dは、必要エリアに関して、各エリアが内周エリアに属するか外周エリアに属するかに応じて、輝度平均値を重み付けして加算し、以下のようにΣYaveを求める(ステップ52)。
ΣYave=a2×3+(a1+a3+a4+a5+a6+a7)×2+(a10+a11)=36+516+74=626
対象画像の輝度平均値は
Next, the weighted luminance average value calculation unit 20d weights and adds the luminance average value according to whether each area belongs to the inner peripheral area or the outer peripheral area, and calculates ΣYave as follows. Obtain (step 52).
ΣYave = a2 × 3 + (a1 + a3 + a4 + a5 + a6 + a7) × 2 + (a10 + a11) = 36 + 516 + 74 = 626
The average brightness of the target image is

Figure 0004247621

となる。ここで、有効エリア数anumは、
num=[基準エリア数]×3+[基準エリアを除く、有効内周エリア数]×2+[有効外周エリア数]×1=1×3+6×2+2×1=17
によって計算される。
Figure 0004247621

It becomes. Here, the number of effective areas a num is
a num = [number of reference areas] × 3 + [number of effective inner peripheral areas excluding reference areas] × 2 + [number of effective outer peripheral areas] × 1 = 1 × 3 + 6 × 2 + 2 × 1 = 17
Calculated by

なお、同一の対象画像に関して、従来のオブジェクトサンプリングを行った場合の輝度平均値が78となることから、多分割サンプリングによって、対象画像をより暗い画像と認識して、より精度の高い補正が行われることが確認される。   Note that the average luminance value when the conventional object sampling is performed for the same target image is 78. Therefore, the target image is recognized as a darker image by multi-division sampling, and more accurate correction is performed. Is confirmed.

当該実施の形態によれば、外周エリアと内周エリアとに対して2段階のエリア判定閾値を設定して、不要エリアの除去を行うとともに、主要な領域に大きな係数をかけて重み付けを行なって、対象画像の輝度平均値を計算して輝度値を補正して明度補正を行う。このため、重要な情報をより正確にサンプリングでき、適切な明度補正が可能となる。従来のオブジェクトサンプリングの場合と異なり、エッジを抽出する必要がないため、サンプリングレートの相違による影響はかなり小さくなる。   According to this embodiment, two-step area determination thresholds are set for the outer peripheral area and the inner peripheral area, unnecessary areas are removed, and main areas are weighted by applying a large coefficient. The brightness correction is performed by calculating the brightness average value of the target image and correcting the brightness value. For this reason, important information can be sampled more accurately, and appropriate brightness correction can be performed. Unlike the case of the conventional object sampling, it is not necessary to extract an edge, so the influence due to the difference in sampling rate is considerably reduced.

請求項1に記載の画像処理装置、請求項7に記載の画像処理方法、または請求項8に記載の記録媒体に記録されているプログラムの処理の実行によれば、対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定して、当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値との差、及び各領域の位置に基づき、サンプリングを行い、明度補正を行なっているので、重要でありながら明度の低い主要部分をより正確にサンプリングでき、適切な明度補正が可能となる。   According to the image processing apparatus according to claim 1, the image processing method according to claim 7, or the processing of the program recorded in the recording medium according to claim 8, the main part of the target image is occupied A region having the lowest luminance average value is selected as a reference region from among the regions, and the luminance average value of the selected reference region is used as a luminance reference value, and the difference between the luminance reference value and the luminance average value of each region, Since the sampling is performed and the brightness correction is performed based on the position of each region, the main part having a low brightness but important can be sampled more accurately, and the appropriate brightness correction can be performed.

本発明の一実施形態にかかる画像処理装置を適用した画像処理システムを示すブロック図である。1 is a block diagram illustrating an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied.

具体的ハードウエア構成例を示す概略ブロック図である。It is a schematic block diagram which shows the specific hardware structural example.

本発明による画像処理装置の他の適用例を示す概略ブロック図である。It is a schematic block diagram which shows the other application example of the image processing apparatus by this invention.

本発明による画像処理装置のさらに他の適用例を示す概略ブロック図である。It is a schematic block diagram which shows the other application example of the image processing apparatus by this invention.

本発明による画像処理装置の所望の画像処理を説明するためのフローチャートである。It is a flowchart for demonstrating the desired image processing of the image processing apparatus by this invention.

所望の画像処理を施す対象画像を示す図である。It is a figure which shows the target image which performs desired image processing.

トーンカーブを用いる明度補正を説明するための図である。It is a figure for demonstrating the brightness correction which uses a tone curve.

対象画像の各エリアの輝度平均値の一例を示す図である。It is a figure which shows an example of the luminance average value of each area of a target image.

符号の説明Explanation of symbols

11 スキャナ、12 デジタルスチルカメラ、14 ビデオカメラ
21 コンピュータ、23 キーボード、24 CD−ROMドライブ
25 フロッピーディスクドライブ、26 モデム
31 プリンタ、32 ディスプレイ
11 Scanner, 12 Digital still camera, 14 Video camera 21 Computer, 23 Keyboard, 24 CD-ROM drive 25 Floppy disk drive, 26 Modem 31 Printer, 32 Display

Claims (10)

対象画像に対して所定の画像処理を行う画像処理装置であって、
前記対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算手段と、
前記対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定手段と、
当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値とのそれぞれのが、前記各領域の位置に応じた各所定値以上の領域を判別する領域判別手段と、
前記領域判別手段により判別された領域以外の領域の輝度平均値に基づく前記対象画像の輝度平均値に基づき、前記対象画像に対して明度補正を行う明度補正手段と、
を備えている画像処理装置。
An image processing apparatus that performs predetermined image processing on a target image,
By dividing the target image into a plurality of regions, the luminance average value calculation means for calculating an average luminance value for each region,
A reference region selecting means for selecting the lowest area of the brightness average value as the reference area from the area occupied by the main portion of the target image,
Using the luminance average value of the selected reference area as the luminance reference value, the area where the difference between the luminance reference value and the luminance average value of each area is greater than or equal to each predetermined value according to the position of each area is determined. Area discriminating means to perform,
Brightness correction means for performing brightness correction on the target image based on the luminance average value of the target image based on the luminance average value of the area other than the area determined by the area determination means ;
An image processing apparatus.
前記対象画像の形状に基づき、前記対象画像の主要部分の占める領域を設定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein an area occupied by a main part of the target image is set based on the shape of the target image. 前記対象画像が縦長ならば前記対象画像の主要部分の占める領域を縦長に設定し、前記対象画像が横長ならば前記対象画像の主要部分の占める領域を横長に設定する、請求項1に記載の画像処理装置。   The area occupied by the main part of the target image is set to be vertically long if the target image is vertically long, and the area occupied by the main part of the target image is set to be horizontally long if the target image is horizontally long. Image processing device. 前記分割された複数の領域を内周領域と外周領域とに分割して、前記内周領域の中から前記基準領域が選定される請求項1乃至3のいれか一項に記載の画像処理装置。 By dividing the plurality of divided regions into an inner region and the outer region, the image according to claims 1 to 3 Neu not Re or claim the reference region is selected from among the inner area Processing equipment. 前記内周領域の領域分割数を、前記外周領域の領域分割数よりも多くする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the number of area divisions of the inner peripheral area is larger than the number of area divisions of the outer peripheral area. 前記対象画像の輝度平均値が明度補正基準値以上の場合には前記対象画像を暗くするように明度補正し、前記対象画像の輝度平均値が明度補正基準値未満の場合には前記対象画像を明るくするように明度補正する請求項1乃至5のいれか一項に記載の画像処理装置。 Wherein when the average luminance value of the target image is greater than or equal brightness correction reference value brightness correction to darken the target image, the target image when the luminance average value of the target image is less than the brightness correction reference value the image processing apparatus according to claim 1 to 5 Neu not Re or claim to brightness correction to brighten. 前記対象画像の輝度平均値は、前記領域判別手段により判別された領域を除いた領域の輝度平均値を、前記各領域の位置に応じて重み付けして加算される請求項1乃至6のいずれか一項に記載の画像処理装置。The luminance average value of the target image is added by weighting the luminance average value of the area excluding the area determined by the area determination unit according to the position of each area. The image processing apparatus according to one item. 前記分割された複数の領域を内周領域と外周領域とに分割して、前記内周領域における所定値を、前記外周領域における所定値よりも大きな値とする請求項1乃至7のいずれか一項に記載の画像処理装置。 By dividing the plurality of divided regions into an inner region and the outer region, the predetermined value in the inner peripheral region, any one of claims 1 to 7, a value larger than the predetermined value in the outer peripheral region The image processing apparatus according to item . 対象画像に対して所定の画像処理を行う画像処理方法であって、
前記対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算工程と、
前記対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定工程と、
当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値とのそれぞれのが、前記各領域の位置に応じた各所定値以上の領域を判別する領域判別工程と、
前記領域判別工程により判別された領域以外の領域の輝度平均値に基づく前記対象画像の輝度平均値に基づき、前記対象画像に対して明度補正を行う明度補正工程と、
を備えている画像処理方法。
An image processing method for performing predetermined image processing on a target image,
By dividing the target image into a plurality of regions, the luminance average value calculation step of calculating an average luminance value for each region,
A reference region selecting step of selecting the lowest area of the brightness average value as the reference area from the area occupied by the main portion of the target image,
Using the luminance average value of the selected reference area as the luminance reference value, the area where the difference between the luminance reference value and the luminance average value of each area is greater than or equal to each predetermined value according to the position of each area is determined. An area discrimination process to be performed;
A brightness correction step of performing brightness correction on the target image based on the average brightness value of the target image based on the average brightness value of the region other than the region determined by the region determination step ;
An image processing method comprising:
対象画像に対して所定の画像処理を行う画像処理をコンピュータに実行させるためのプログラムを記録したコンピュータによって読取可能な記録媒体であって、
前記対象画像を複数の領域に分割して、各領域毎の輝度平均値を求める輝度平均値計算処理と、
前記対象画像の主要部分の占める領域の中から輝度平均値の最も低い領域を基準領域として選定する基準領域選定処理と、
当該選定された基準領域の輝度平均値を輝度基準値として、当該輝度基準値と各領域の輝度平均値とのそれぞれのが、前記各領域の位置に応じた各所定値以上の領域を判別する領域判別処理と、
前記領域判別処理により判別された領域以外の領域の輝度平均値に基づく前記対象画像の輝度平均値に基づき、前記対象画像に対して明度補正を行う明度補正処理と、
をコンピュータに実行させるためのプログラムを記録したコンピュータによって読取可能な記録媒体。
A recording medium readable by the recording a computer program for executing the image processing to perform a predetermined image processing in the computer for the target image,
By dividing the target image into a plurality of regions, the average luminance value calculation processing for calculating the average luminance value for each region,
A reference region selecting process of selecting the lowest area of the brightness average value as the reference area from the area occupied by the main portion of the target image,
Using the luminance average value of the selected reference area as the luminance reference value, the area where the difference between the luminance reference value and the luminance average value of each area is greater than or equal to each predetermined value according to the position of each area is determined. Area determination processing to be performed,
A brightness correction process for performing brightness correction on the target image based on the average brightness value of the target image based on the average brightness value of the area other than the area determined by the area determination process ;
A computer-readable recording medium on which a program for causing a computer to execute is recorded.
JP2004072344A 1999-09-27 2004-03-15 Image processing apparatus, image processing method, and medium on which image processing control program is recorded Expired - Fee Related JP4247621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004072344A JP4247621B2 (en) 1999-09-27 2004-03-15 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP27323699 1999-09-27
JP2004072344A JP4247621B2 (en) 1999-09-27 2004-03-15 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000279241A Division JP3937710B2 (en) 1999-09-27 2000-09-14 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008300472A Division JP4560845B2 (en) 1999-09-27 2008-11-26 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Publications (2)

Publication Number Publication Date
JP2004260835A JP2004260835A (en) 2004-09-16
JP4247621B2 true JP4247621B2 (en) 2009-04-02

Family

ID=33133326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004072344A Expired - Fee Related JP4247621B2 (en) 1999-09-27 2004-03-15 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Country Status (1)

Country Link
JP (1) JP4247621B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100809347B1 (en) 2006-07-31 2008-03-05 삼성전자주식회사 Method and apparatus for compensating shadow area
KR100815588B1 (en) 2006-08-16 2008-03-20 삼성전자주식회사 Display device and method of adjusting brightness for the same
KR100809349B1 (en) 2006-09-25 2008-03-05 삼성전자주식회사 Apparatus and method for compensating brightness of image
JP2008124890A (en) * 2006-11-14 2008-05-29 Seiko Epson Corp Exposure discrimination apparatus and its method
CN110070009A (en) * 2019-04-08 2019-07-30 北京百度网讯科技有限公司 Road surface object identification method and device

Also Published As

Publication number Publication date
JP2004260835A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
US7683973B2 (en) Image processing method and apparatus performing color adjustment
JP4814217B2 (en) System and computer program for converting image from low dynamic range to high dynamic range
US7358994B2 (en) Image processing apparatus, image processing method, recording medium thereof, and program thereof
US8374458B2 (en) Tone correcting method, tone correcting apparatus, tone correcting program, and image equipment
EP1857975B1 (en) Histogram adjustment for high dynamic range image mapping
US20070269132A1 (en) Histogram adjustment for high dynamic range image mapping
JP2000069310A (en) Method for processing images
JP2011239446A (en) Brightness conversion curve creation device, and method, as well as brightness conversion curve creation program
JP3673092B2 (en) Image quality adjusting apparatus, image quality adjusting method, and recording medium recording image adjusting program
JP4536015B2 (en) Luminance conversion curve creation device and method, and brightness conversion curve creation program
JP4247621B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
WO2005025207A1 (en) Image processing utilizing locally adaptive color correction and cumulative histograms
JPH11120325A (en) Image evaluating method, medium where image evaluating program is recorded, and image evaluating device
JPH118768A (en) Image processor, image processing method and medium recording image processing control program
JP3937710B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP4560845B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP4219577B2 (en) Image processing apparatus, image output apparatus, image processing method, and storage medium
JP4708866B2 (en) Lookup table creation device and method, and lookup table creation program
JP2001045303A (en) Image thresholding method
JPH10340332A (en) Image processor, image processing method and medium recording image processing control program
JP3817371B2 (en) Image processing method, apparatus, and recording medium
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP4398595B2 (en) Image processing apparatus and program
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP2003069828A (en) Image processor, image processing method and medium having image processing program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081230

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140123

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees