WO2010074179A1 - 画像処理方法及びコンピュータプログラム - Google Patents

画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2010074179A1
WO2010074179A1 PCT/JP2009/071496 JP2009071496W WO2010074179A1 WO 2010074179 A1 WO2010074179 A1 WO 2010074179A1 JP 2009071496 W JP2009071496 W JP 2009071496W WO 2010074179 A1 WO2010074179 A1 WO 2010074179A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
value
input image
image
calculated
Prior art date
Application number
PCT/JP2009/071496
Other languages
English (en)
French (fr)
Inventor
尚吾 高村
寛紀 山内
Original Assignee
Takumi Vision株式会社
ローム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takumi Vision株式会社, ローム株式会社 filed Critical Takumi Vision株式会社
Priority to US13/141,582 priority Critical patent/US8660379B2/en
Publication of WO2010074179A1 publication Critical patent/WO2010074179A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast

Definitions

  • the present invention relates to image processing for adjusting the gradation of image data, and relates to an image processing method for a digital image and a computer program for increasing the contrast of an input image.
  • the brightness and the three primary color (RGB) histogram (gradation distribution) included in the input image data are taken, and the contrast of the digital image is enhanced by correcting the histogram.
  • RGB three primary color
  • histogram correction method flattening and expansion are known.
  • a digital image that appears to be whitish overall due to too much light due to exposure time, etc. (this is referred to as a “mist image” in this specification)
  • a digital image that looks dark and dark has a histogram of the brightness value of the input image. (See, for example, Patent Documents 1 to 3).
  • the gradation of the input image is uniformly averaged or expanded, and thus there is a problem that a region having a sufficiently high contrast is originally corrected.
  • the input image is uniformly corrected using the histogram of the entire input image.
  • the influence of the pixel having a high gradation reaches the surrounding area.
  • the present invention has been made in view of the above, and even when various contrasts are unevenly included in an input image, it is possible to obtain an output image that is adjusted to an appropriate contrast and particularly has an emphasized outline.
  • An object is to provide an image processing method and a computer program.
  • the image processing method is an image processing method for adjusting the luminance value of each pixel included in an input image.
  • a closed region ⁇ (x, y) consisting of a plurality of pixels in the input image is calculated as a calculation target region.
  • the calculation target area is moved by a predetermined pixel unit in the input image.
  • the maximum value and the minimum value of the luminance energy defined as the luminance array in the calculation target region are respectively calculated, and the difference data of the luminance energy is calculated (step S4).
  • an output image is generated by applying the difference data calculated in step S4 to the input image (step S6).
  • the image processing method according to the present invention can be realized by a computer program executed by a computer.
  • the computer and the program can be mounted on a digital camera, a digital television, or other devices that display digital images.
  • the image processing method of the present invention even when various contrasts are unevenly included in the input image, it is possible to obtain an output image in which the contour is particularly emphasized by adjusting to an appropriate contrast. Even when some of the steps are selectively executed, a certain effect according to the input image can be obtained. Details thereof will be described in the following embodiment.
  • FIG. 1 is a flowchart showing a flow of processing when causing a computer to execute each step.
  • this series of image processing is referred to as an “adaptive contrast filter” in the present specification.
  • the image processing method according to the present invention is characterized in that a feature point related to luminance included in a digital image is extracted and a predetermined calculation is performed.
  • the image processing method is roughly divided into the following six types. Consists of steps: S1. Average luminance shift S2. Feature part extraction S3. Completion of feature part S4. Block luminance extraction S5. Adaptive processing S6. Image data output
  • steps S1 to S6 are executed on a computer, a digital camera and other computers mounted on various digital image devices.
  • the example described in the first embodiment includes a plurality of independent elements (I) to (III) below.
  • the luminance is calculated by separately calculating the minimum luminance energy array and the maximum luminance energy array in the calculation target region in step S4. A difference image of energy is generated, and finally, in step S6, image data is output.
  • the other steps (S1 and S2 to S3) are positioned as auxiliary steps for further improving the accuracy of image processing.
  • the distribution of the average luminance value of the entire input image is calculated, and then the calculated average luminance value is translated so that the waveform of the luminance distribution does not change.
  • This step is performed as initialization processing for performing the adaptive contrast filter.
  • the luminance value is shifted (moved in parallel) so as to be the average value of the luminance fluctuation width as a whole. This step can be omitted depending on the input image.
  • FIG. 2A shows the distribution of the average luminance value of the entire input image (x coordinate with the y coordinate fixed). Since the gradation of the luminance value is 256 steps (0 to 255) in the case of 8 bits, the maximum luminance value of the input image is 255. The average brightness at this time is assumed to be I 0.
  • the luminance value after linear conversion must be in the range of 0 to 255. That is, the maximum value on the coordinate axis of the luminance value and I 2.
  • step S2 Feature part extraction
  • step S3 a part where pixels having high gradation are concentrated in a narrow region in the input image is extracted and removed in advance as a feature part. Is a step of complementing with the average luminance of the input image.
  • the adaptive processing step (S5) since the luminance value is linearly converted in order to increase the luminance change, an area where high luminance such as a light source or the sun is concentrated in the input image (hereinafter, “ If there is a high brightness concentration area, there is a problem that the brightness of the low brightness area around it increases on average due to the influence of the pixels in the high brightness concentration area. As a result, even after image processing, the dark part where the change in brightness is small is hardly enhanced in contrast, and it remains dark and there is almost no change, or as a result of image processing, a minute important image located near the high-intensity concentrated area May become inconspicuous. In the present invention, in order to avoid such a problem, a feature portion where luminance is concentrated in advance is extracted from the input image, and processing for removing the portion is performed.
  • Morabek operator known as a calculation method for extracting feature points was used for extracting feature portions.
  • edge processing the Moravec operator has a feature that strongly extracts features such as intersections between lines.
  • FIG. 3 is a diagram for explaining the calculation procedure of the “Morabek operator”, and the table (window) shown in this figure represents a closed region ⁇ (x, y) composed of a plurality of pixels as the calculation target region.
  • the center in the calculation target area is represented as I 0,0
  • the square block centering on this is set as the calculation target area
  • the luminance value of the pixel in the block is a scalar quantity (8 bits). In this case, it is represented by 0 to 255).
  • the size of the calculation target region can be arbitrarily set, but the larger the size, the stronger the influence of the input image and the smoother the image.
  • This operator consists of two steps.
  • the sum of squares of the difference between the value of a pixel on each direction and the center pixel I 0,0 in the window is calculated in four directions, up, down, left, and right in the window.
  • the minimum value is selected from the four values.
  • This window processing is applied to the entire image.
  • a local maximum value is selected from the image output in the first stage, and is finally set as an operator output.
  • This calculated value is a characteristic value, that is, a value reflecting the magnitude relation of the difference in luminance value in this application example, and is a scalar quantity called “Morabek operator value”.
  • a threshold value is provided for the value of the luminance concentration degree, pixels that are equal to or larger than the threshold value are removed, and I 1 that is an average value of the luminance distribution is complemented to the pixel.
  • FIG. 4A shows a calculation target area 2 arbitrarily divided in the input image 1.
  • the calculation target area 2 is a closed area ⁇ (x, y) composed of a plurality of pixels, and the size thereof can be set to an arbitrary size in the input image.
  • FIG. 4B shows an array of luminance values inside the closed region ⁇ 1 fixed at an arbitrary position. From this arrangement, it can be read that the highest luminance value is 56 and the lowest luminance value is 12 in the closed region ⁇ 1.
  • the calculation target area 2 is moved in the x direction by an arbitrary number of pixels while y is fixed. At this time, it moves so as to overlap as much as possible. For example, if the closed region moved in the direction of one pixel x is ⁇ 2, FIG. 4C shows an array of luminance values inside the closed region ⁇ 2.
  • ⁇ 2 (x + dx, y) is obtained with respect to ⁇ 1 (x, y).
  • luminance energy the values of the maximum luminance energy and the minimum energy in the calculation target area 2 are added every time the calculation target area 2 is moved, and finally divided by the number of movements. The value thus obtained is defined as “luminance energy”.
  • FIGS. 5A and 5B show an example of the maximum luminance energy array E max and the minimum luminance energy array E min .
  • the maximum luminance energy array E max ⁇ B1, B2, B3 ⁇
  • the minimum luminance energy array E min ⁇ b1, b2, b3 ⁇
  • the maximum luminance energy e max ⁇ B1 + B2 + B3 ⁇ / 3
  • minimum luminance energy E min ⁇ b1 + b2 + b3 ⁇ / 3.
  • the difference data of luminance energy is expressed by the following (formula 3).
  • the number of movements is 3 as described above, the number of movements is actually enormous depending on the input image, the calculation target region, and the pixel unit to be moved. It can be optimized as appropriate depending on the contents of the input image. It is considered that the larger the calculation target area and the smaller the unit of the moving pixel, the higher the calculation amount but the more accurate block luminance extraction.
  • the calculation target area has a certain spread, if the pixel unit to be moved is small, the brightness value is counted redundantly in the calculation of the brightness energy. Very important. Further, for convenience of explanation, it has been described that y is fixed and x is moved, but in practice, it may be moved in any way.
  • the difference between the maximum luminance energy and the minimum luminance energy at an arbitrary x coordinate i is calculated by (Equation 3) described above.
  • step of adaptive processing in S5 is linear conversion, that is, processing for increasing contrast by linearly extending the difference in luminance.
  • the details of step S5 of this adaptation process are as follows.
  • S5-3 (S5-1) to (S5-2) are applied to all the pixels.
  • S5-4 The maximum value and the minimum value of the converted values are obtained, and in the case of 8 bits, linear conversion is performed so as to be within the range of 0 to 255.
  • the linear transformation at this time is expressed by the following linear function formula (formula 4).
  • FIG. 6B illustrates steps S5-1 to S5-4.
  • the luminance value after adaptive processing is optimal. In a wide range (e ′ min to e ′ max ).
  • Steps S4 ⁇ S6 (Modification 1)
  • Steps S1 ⁇ S4 ⁇ S5 ⁇ S6 (Modification 2)
  • Steps S2->S3->S4-> S6 (Modification 3)
  • Modification 1 is a case where only the block luminance extraction step S4 described in the first embodiment is performed on an input image.
  • an input image is an image that does not have a sharp difference in brightness, such as a fog image, that is, an image with a uniform contrast width
  • image processing with high practicality can be performed only by executing step S4. Can be realized.
  • FIG. 10A shows an example of an input image
  • FIG. 10B shows an output image obtained by executing steps S4 and S6 on the input image.
  • a portion where a characteristic difference appears in both images is surrounded by a frame. Since the entire input image is whitish and the difference in luminance is small, it is almost impossible to identify the outline of the subject as to what is reflected in the image.
  • step S4 block luminance extraction
  • the second modification is a case where the block luminance extraction step S4 and the average luminance shift and linear transformation steps S1 and S5 described in the first embodiment are executed on the input image. This case is also effective in the case where an input image is an image having no sharp difference in brightness, that is, an image having a uniform contrast width, like the fog image, as in the first modification.
  • the contrast width of the input image is uniform, the contrast width of the output image is adjusted to an appropriate range, so that whiteout or blackout in the output image can be prevented.
  • FIG. 10C shows an example of an input image
  • FIG. 10D shows an output image obtained by executing steps S1, S4, S5 and S6 on the input image.
  • a portion where a characteristic difference appears in both images is surrounded by a frame. Since the entire input image is whitish and the difference in luminance is small, it is almost impossible to identify the outline of the subject as to what is reflected in the image. However, by performing this processing, it is possible to obtain a high-contrast distribution image as shown in FIG.
  • Modification 3 is a case where steps S2 and S3 for extracting / removing and complementing feature portions are executed as preprocessing of block luminance extraction step S4 described in the first embodiment for an input image. is there. In this case, adjust the contrast width to an appropriate range when there is an image with a sharp difference in luminance, such as when there is a point-like light with high luminance in a dark area. Can do.
  • FIG. 10 (e) shows an example of an input image
  • FIG. 10 (f) shows an output image obtained by executing steps S2, S3, S4 and S6 on the input image.
  • a portion where a characteristic difference appears in both images is surrounded by a frame.
  • the input image has a high-intensity concentration area in the entire screen, but the brightness adjustment is inappropriate for the other parts, so it is displayed in black and what the subject is in the image is identified I can hardly do it.
  • the contrast distribution can be appropriately widened even when there is a point-like light having a high luminance in a dark region as shown in FIG.
  • a computer program for realizing the image processing method of the present invention is provided as an image processing application program executed on a computer such as a personal computer.
  • FIG. 7 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention.
  • An image processing apparatus 20 in which a program for executing each step of each image processing method according to the present invention is installed in a personal computer is temporarily stored in a CPU (Central Processing Unit) 21 and a RAM (Random Access Memory) that control the entire apparatus.
  • the personal computer operates as the image processing apparatus 20 according to the present invention by reading the computer program according to the present invention recorded on the recording medium into the storage means 23 and executing it on the operating system under the control of the control means 21.
  • the computer program stored in the storage unit 22 executes the steps described in the first embodiment (or a modification thereof) based on the control of the control unit 21, thereby storing the storage unit 23 and the like.
  • the input image is subjected to image processing on the image stored in the image and the image received through the external interface 27, and an output image is output from the output means 26.
  • FIGS. 8A and 9A show an example of an input image of the image processing apparatus 20 according to the present invention.
  • the brightness adjustment is insufficient, and it is dark and almost indistinguishable except for the sunset in the background.
  • FIGS. 8B and 9B show an output image obtained as a result of performing the histogram flattening process on the input image as a comparative example.
  • the sun is brightly emphasized like daytime, but in the vicinity of the sun, the outline is blurred by being dragged by the brightness of the sun.
  • the present invention is capable of emphasizing the contour even when the input image has various contrasts, so that the medical field such as image diagnosis for extracting a specific mass or the like, or crime prevention and safety for extracting a specific person, etc. Applications in fields such as equipment are expected. Therefore, the industrial applicability of the present invention is extremely large.
  • (A) is the distribution of the average luminance value of the entire input image (x coordinate with the y coordinate fixed),
  • (A) represents a calculation target area 2 arbitrarily divided in the input image 1.
  • (B) represents an array of luminance values inside the closed region ⁇ 1 fixed at an arbitrary position.
  • (C) represents an array of luminance values inside the closed region ⁇ 1 fixed at an arbitrary position.
  • (A) And (b) is a figure which shows an example of the maximum luminance energy arrangement
  • (B) illustrates the details of the adaptive processing step S5. It is a block diagram which shows the structure of the image processing apparatus in the 2nd Embodiment of this invention.
  • (A) has shown an example of the input image.
  • (B) is an output image (comparative example) showing the result of the histogram flattening process.
  • (C) shows an output image to which the image processing method according to the present invention is applied.
  • (A) has shown the other example of the input image.
  • (B) is an output image (comparative example) showing the result of the histogram flattening process.
  • C) shows an output image to which the image processing method according to the present invention is applied.
  • (A), (c), (e) has shown the other example of the input image.
  • (B), (d), and (f) are output images showing the results of implementing the modifications (1 to 3) of the first embodiment.
  • Image processing apparatus 21 with installed program of the present invention
  • CPU Central Processing Unit
  • RAM Temporary storage means
  • RAM storage means
  • Auxiliary storage means optical disk drive, etc.
  • Input means mouse, keyboard, etc.
  • Output means monitor, printer, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【目的】入力画像の輝度に関するコントラストを調整した出力画像を得る。 【構成】入力画像に含まれる各画素の輝度値を調整する画像処理方法において、まず、入力画像中の複数の画素からなる閉領域β(x,y)を演算対象領域として区画し、前記演算対象領域を前記入力画像内で所定の画素単位で移動させる。このとき、前記演算対象領域内における輝度配列として定義される輝度エネルギーの最大値と最小値とをそれぞれ算出し、その輝度エネルギーの差分データを算出する(ステップS4)。次に、入力画像にステップS4で算出した差分データを適応することにより出力画像を生成する(ステップS6)。

Description

画像処理方法及びコンピュータプログラム
 本発明は、画像データの階調を調整する画像処理に関し、入力画像のコントラストを高めるデジタル画像の画像処理方法及びコンピュータプログラムに関するものである。
 入力された画像データ(これを「入力画像」という。)に含まれる輝度や三原色(RGB)のヒストグラム(階調分布)をとり、そのヒストグラムを補正することにより、デジタル画像のコントラストが高められる。ヒストグラムの補正方法には、平坦化と伸長化が知られている。
 例えば、露出時間などの関係から光量が多すぎて全体的に白っぽく霧がかかったように見えるデジタル画像(本明細書ではこれを「霧画像」という。)や、逆に光量が足りず全体的に黒っぽく暗い感じに見えるデジタル画像は、入力画像の輝度値のヒストグラムをとり、ヒストグラムを平坦化又は伸長化することによって入力画像の輝度値を適切な値に補正し、コントラストを高めた鮮明な画像に調整できることが知られている(例えば、特許文献1~3等参照)。
特開昭63-040471号公報 特開2006-191401号公報 特開2007-292804号公報
 ところが、ヒストグラムに基づく画像処理方法では、入力画像の階調を一律に平均化したり伸長化したりするため、もともとコントラストが十分にある領域も補正されるという問題がある。
 すなわち、入力画像の中には、もともと十分なコントラストが得られている領域と、逆にコントラストが不十分な領域とが偏在している場合に、入力画像全体のヒストグラムを用いて一律に補正してしまうと、高い階調を持つ画素の影響がその周囲の領域に及ぶことになる。その結果、画像処理後もなお、局所的にはコントラストが不十分となったり、画像処理の結果、微小な重要な画像が目立たなくなってしまったりする。
 本発明は、上記に鑑みてなされたものであり、入力画像に多様なコントラストが偏在して含まれている場合にも、適切なコントラストに調整し、特に輪郭を強調した出力画像を得ることができる画像処理方法及びコンピュータプログラムを提供することを目的とする。
 本発明に係る画像処理方法は、入力画像に含まれる各画素の輝度値を調整する画像処理方法において、まず、入力画像中の複数の画素からなる閉領域β(x,y)を演算対象領域として区画し、前記演算対象領域を前記入力画像内で所定の画素単位で移動させる。このとき、前記演算対象領域内における輝度配列として定義される輝度エネルギーの最大値と最小値とをそれぞれ算出し、その輝度エネルギーの差分データを算出する(ステップS4)。次に、入力画像にステップS4で算出した差分データを適応することにより出力画像を生成する(ステップS6)。
 本発明に係る画像処理方法は、いずれもコンピュータに実行させるコンピュータプログラムによって実現することができる。また上記コンピュータ及びプログラムをデジタルカメラ、デジタルテレビその他デジタル画像を表示する機器に実装することもできる。
 本発明に係る画像処理方法によると、入力画像に多様なコントラストが偏在して含まれている場合にも、適切なコントラストに調整し、特に輪郭を強調した出力画像を得ることができる。また、各ステップの一部を選択的に実行した場合でも、入力画像に応じた一定の効果が得られる。その詳細については下記の実施形態において説明する。
(第1の実施形態)-適応コントラストフィルタ処理について-
 図1は、コンピュータに各ステップを実行させる場合の処理の流れを示すフローチャートである。この一連の画像処理のことを、以下、本明細書では、「適応コントラストフィルタ」と呼ぶ。本発明に係る画像処理方法は、デジタル画像に含まれる輝度に関する特徴点を抽出し、所定の演算を行うことを特徴とするものであり、好ましい実施形態としては、大きく分けて、次の6つのステップからなる:
 S1.平均輝度シフト
 S2.特徴部分抽出
 S3.特徴部分の補完
 S4.ブロック輝度抽出
 S5.適応処理
 S6.画像データ出力
 上記ステップS1~S6は、コンピュータやデジタルカメラその他種々のデジタル画像機器に搭載されたコンピュータ上で実行される。
 第1の実施形態で説明する例は、下記(I)~(III)のそれぞれ独立した複数の要素から成り立っている。
 (I)ステップS4による、ブロック輝度抽出に関する本発明の基本ステップ
 (II)ステップS1及びS5(平均輝度シフト及び線形変換)による輝度の適切な範囲でのスケーリングのステップ
 (III)ステップS2及びS3(特徴部分抽出除去及び補完)による急激な点状の輝度変化を抽出するための特徴点の抽出と除去および補完のステップ
 各ステップの詳細については後述するが、本発明の技術的思想の最も重要な部分は、ステップS4において、演算対象領域内の最小輝度エネルギー配列と最大輝度エネルギー配列をそれぞれ別々に算出することによって輝度エネルギーの差分画像を生成し、ステップS6において、最終的に画像データを出力する点にある。その他のステップ(S1及びS2~S3)は、より画像処理の精度を高めるための補助的なステップとして位置づけられる。
 以上のような演算処理を行うことにより、微小な重要な画像を除去することなく、全体として入力画像よりも高いコントラストのデジタル画像を得ることができる。
S1.平均輝度シフト
 最初のステップでは、入力画像全体の平均輝度値の分布を算出し、次に、算出された平均輝度値を、輝度分布の波形が変わらないように平行移動させる。このステップは、適応コントラストフィルタを行うための初期化処理処理として行うものである。入力画像に含まれる輝度分布の変化が小さい領域のコントラストを十分に大きくするため、全体的に輝度の振れ幅の平均値となるように輝度値をシフト(並行移動)させている。このステップは、入力画像によっては省略することもできる。
 図2(a)は、入力画像全体の平均輝度値の分布(y座標を固定したx座標)を表している。輝度値の階調は8ビットの場合256段階(0~255)であるから、入力画像の輝度値の最大は255である。このときの平均輝度がIであったとする。
 図2(b)は、入力画像に対し、入力画像全体の平均輝度値を算出すると共に平均輝度値と後述するステップ(S5)における線形変換後の輝度値の最大値とに基づいて定められる一定量の輝度値を入力画像の輝度分布に加算することにより輝度分布の波形が変わらないように、すなわち、輝度値の値域の最大値をI(=512)とし、輝度平均Iが最大値Iの2分の1(=256)と一致するように、平行移動した様子を示している。
 これは、線形変換後の輝度値が0~255の範囲に収まるようにしなければならないという要請に基づくものである。すなわち、輝度値の座標軸上の最大値をIとする。この最大値Iは、輝度分布の平均値I1 =I2 /2と一致するように平行移動させた時、輝度値の値域が0未満とIを超えることがないような「安全な」値としなければならない。そして、最も安全なIの値は輝度の階調が8ビットの場合、256×2=512である。これを超えると桁上がりが生じるなどの理由から処理速度が低下したり適切な出力画像が得られなかったりするといった問題が生じる。
S2.特徴部分抽出
 このステップS2と次のステップS3は、入力画像の中に高い階調を持つ画素が狭い領域に集中している部分を特徴部分として予め抽出して除去し、除去した座標については輝度が0になってしまうため入力画像の平均輝度で補完するというステップである。
 後述する適応処理のステップ(S5)では、輝度の変化を大きくするために輝度値を線形変換するため、入力画像中に光源や太陽などのような高い輝度が集中している領域(以下、「高輝度集中領域」という。)が存在していると、高輝度集中領域の画素の影響を受けて、その周囲にある低輝度領域の輝度が平均的に上がってしまう問題がある。その結果、画像処理後もなお、輝度の変化が小さい暗い部分は殆どコントラストが強調されず、黒っぽいまま殆ど変化がなかったり、画像処理の結果、高輝度集中領域のそばにある微小な重要な画像が目立たなくなってしまったりする。本発明では、このような問題を回避するため、入力画像から予め輝度が集中している特徴部分を抽出し、その部分を除去する処理を行っている。
 本件発明者らの実験では、特徴部分の抽出に、特徴点を抽出するための演算方法として知られている「モラベックオペレータ」を利用した。モラベックオペレータはいわゆる「エッジ処理」と異なり、線と線との交点などの特徴を強く抽出する特徴がある。
 図3は、「モラベックオペレータ」の演算手順について説明する図であり、この図に示す表(ウインドウ)は、演算対象領域となる複数の画素からなる閉領域β(x,y)を表している。図3に示すように、演算対象領域内の中心をI0,0と表し、これを中心とする正方形のブロック内を演算対象領域とし、その中にある画素の輝度値がスカラー量(8ビットの場合、0~255)で表されている。演算対象領域の大きさは任意に取ることができるが、大きくすればするほど入力画像の影響が強くなり滑らかな画像になる。
 モラベックオペレータの演算式は以下に示す(式1)により表される。
(式1)
Figure JPOXMLDOC01-appb-I000001
 このオペレータは、2つのステップから構成されている。第1のステップでは、ウインドウ内の上下、左右、対角の4方向で、各方向上にある画素の値とウインドウ内の中心画素I0,0との差の二乗和を計算する。そして、4つの値から最小値を選択する。このウインドウ処理を画像全体に適用する。第2のステップでは、第1段階で出力された画像から極大値を選択して、最終的にオペレータの出力とする。この演算値は特徴部分すなわちこの適用例では輝度値の差の大小関係を反映した値であり、「モラベックオペレータ値」と呼ばれるスカラー量である。
S3.特徴部分の補完
 適応処理の精度を上げるためには、輝度と集中度が高い画素のみを取り除かなければならない。しかし、モラベックオペレータ値は、輝度の差が出力値と比例関係を持つため、輝度の差が大きい微小面積の点などの重要な特徴部分まで抽出し除去してしまう危険性がある。そこで、輝度と集中度の両方が共に高い画素のみを除去することを考える。この発明では、集中度だけでなく輝度にも比例する値を計算により求めている。以下、これにより求められた値を「画素の輝度集中度」と定義する。画素の輝度集中度の演算式はモラベックオペレータ値と輝度値の積であり、以下に示す(式2)により表される。
(式2)
Figure JPOXMLDOC01-appb-I000002
 そして、この輝度集中度の値に閾値を設けて、閾値以上の画素を除去してその画素には輝度分布の平均値であるIを補完する。この操作によって輝度の差の大きい微小領域を除去することなく、高輝度集中領域の画素の影響を受けて、その周囲にある低輝度領域の輝度が平均的に上がってしまうことを防ぐことができる。
S4.ブロック輝度抽出
 図4(a)は、入力画像1の中に任意に区画される演算対象領域2を表している。演算対象領域2は複数の画素からなる閉領域β(x,y)であり、その大きさは入力画像の中で任意の大きさに設定することができる。
 図4(b)は、ある任意の位置で固定した閉領域β1の内部の輝度値の配列を表している。この配列から、閉領域β1の中で最も高い輝度値が56、最も低い輝度値が12であったことが読み取れる。次に、yを固定した状態で、任意の画素数分だけ演算対象領域2をx方向に移動させる。このときなるべく重なり合うように移動する。例えば1画素x方向に移動した閉領域をβ2とすると、図4(c)は、閉領域β2の内部の輝度値の配列を示している。座標で表現すると、β1(x,y)に対し、β2(x+dx,y)となる。なお、図4(b)、(c)では、斜め下方向に移動したように表しているが表現の便宜上のためであり、yは固定しているのでここでは無視しても構わない。閉領域β2の配列から、閉領域β2の中で最も高い輝度値が54、最も低い輝度値が10であったことが読み取れる。
 そして、演算対象領域2における最大輝度エネルギーと最小エネルギーの値を、演算対象領域2を移動させるたびごとに加算して、最後に移動回数で除算する。こうして得られた値を、「輝度エネルギー」と定義する。
 図5(a)及び(b)は、最大輝度エネルギー配列Emaxと最小輝度エネルギー配列Emin の一例を示している。移動回数3(β1~β3)の場合、最大輝度エネルギー配列Emax={B1,B2,B3}、最小輝度エネルギー配列Emin={b1,b2,b3}と表され、最大輝度エネルギーemax={B1+B2+B3}/3、最小輝度エネルギーEmin={b1+b2+b3}/3と求められる。そして、輝度エネルギーの差分データは以下に示す(式3)により表される。
(式3)
Figure JPOXMLDOC01-appb-I000003
 なお、移動回数3として説明しているが実際には入力画像、演算対象領域及び移動する画素単位によって膨大な回数になるが、演算対象領域2の大きさや移動の画素単位は画像処理の目的や入力画像の内容によって適宜最適なものとすることができる。より演算対象領域が大きいほど、また、移動画素の単位が小さいほど、計算量は増大するがより高精度のブロック輝度抽出ができると考えられる。
 演算対象領域がある一定の広がりを持っているため、移動する画素単位が小さい場合には輝度エネルギーの計算上重複して輝度値がカウントされることになるが、精度を上げる上でこの点が非常に重要である。また、説明の便宜上、yを固定してxを動かすとして説明をしたが、実際にはどのように移動しても構わない。
 次に、求められた最大輝度エネルギー配列Emaxと最小輝度エネルギー配列Eminの差分Ediff=Emax-Eminを算出する。この値は、微分されたコントラスト幅であるため、ある画素のコントラスト幅をもとめることができる。これにより、ステップS-1の平均輝度シフト処理でシフトした領域内で、次のステップS5で画素毎の適応的なコントラストの引き伸ばしを行う。
S5.線形変換
 図6(a)は、入力画像内の(x,y)座標において、y=jと固定したときの、最大輝度エネルギーと最小エネルギーの分布を示している。ある任意のx座標iにおける最大輝度エネルギーと最小輝度エネルギーの差分は上で述べた(式3)で計算される。
 S5の適応処理のステップとは、線形変換、すなわち輝度の差を線形的に引き伸ばして、コントラストを高めるための処理である。この適応処理のステップS5の詳細は次のとおりである。
 S5-1:任意の画素の0~eminの幅と、emax ~Iまでの幅とを比較し、幅が小さい方の値をLとする。すなわち、
 L=min(I-emax,emin
と定義する。
 S5-2:e’max=emax+L、e’min=emin-L、e’diff=emax-eminとして、画素上のシフト後の輝度値p(L,j)をemin~emaxをe’min~e’maxと変化させるように線形変換する。変換した値をp’(i,j)とおく。
 S5-3:(S5-1)~(S5-2)を全ての画素に適用する。
 S5-4:変換された値の最大値・最小値を求め、8ビットの場合、0~255の範囲に収まるように線形変換する。このときの線形変換は以下の一次関数の式(式4)により表される。
(式4)
Figure JPOXMLDOC01-appb-I000004
 図6(b)は、上記ステップS5-1~S5-4を図示したものである。ただし、p(i,j):(y,x)=(i,j)上におけるステップS1(平均輝度シフト)後の輝度値、p’(i,j):(y,x)=(i,j)上におけるステップS5(適応処理)後の輝度値を、それぞれ表している。
 既に述べたように、線形変換にあたり、事前のステップS1において引き延ばしの上限(線形変換後の輝度値のとりうる値域の最大値I)を設定しているため、適応処理後の輝度値が最適な範囲(e’min~e’max)で分布するようになる。
S6.適応処理による画像データ出力
 図1の全体フローチャートに示すように、最終的に、平均輝度シフトを行った入力画像に対し、輝度エネルギーの差分画像を各画素に適応させることにより、出力画像が得られる。
(第1の実施形態の変形例)
 第1の実施形態では、最も好ましい態様として、上述の(I)~(III)の全ての要素(すなわち、ステップ(S1~S6)の全部)を実行する場合について説明したが、入力画像或いは求める出力画像によっては、必須のステップであるステップS4(及びS6)さえ含んでいれば、その他のステップについては下記(1)~(3)のように、一部のステップのみを実行してもよい。
(1)ステップS4→S6(変形例1)
(2)ステップS1→S4→S5→S6(変形例2)
(3)ステップS2→S3→S4→S6(変形例3)
(変形例1)ステップS4→S6
 変形例1は、入力画像に対し、第1の実施形態で説明したブロック輝度抽出のステップS4のみを実行する場合である。霧画像のように、輝度の急激な差が存在しないような画像、すなわちコントラスト幅が一様な画像を入力画像とする場合には、ステップS4を実行するだけでも、実用性の高い画像処理を実現することができる。
 図10(a)は入力画像の例を、図10(b)は、この入力画像にステップS4及びS6を実行して得られた出力画像を示している。両画像中で特徴ある差異が現れた部分を枠で囲って示している。入力画像は画面全体が白っぽく輝度の差が小さいため、画像内に何が写っているのか、被写体の輪郭を識別することは殆どできない。このような画像に対して、第1の実施形態において説明した、ステップS4(ブロック輝度抽出)を行うことで、図10(b)のような、高コントラストの分布画像を得ることができる。
(変形例2)ステップS1→S4→S5→S6
 変形例2は、入力画像に対し、第1の実施形態で説明したブロック輝度抽出のステップS4と、平均輝度シフト及び線形変換のステップS1及びS5を実行する場合である。この場合も、変形例1と同様に霧画像のように、輝度の急激な差が存在しないような画像、すなわちコントラスト幅が一様な画像を入力画像とする場合に効果がある。変形例2では、入力画像のコントラスト幅が一様である場合には、出力画像のコントラスト幅が適切な範囲に調整されるため、出力画像の中の白つぶれや黒つぶれを防ぐことができる。
 図10(c)は入力画像の例を、図10(d)は、この入力画像にステップS1、S4、S5及びS6を実行して得られた出力画像を示している。両画像中で特徴ある差異が現れた部分を枠で囲って示している。入力画像は画面全体が白っぽく輝度の差が小さいため、画像内に何が写っているのか、被写体の輪郭を識別することは殆どできない。しかし、この処理を行うことで図10(d)のような、高コントラストの分布画像を得ることができる。
(変形例3)ステップS2→S3→S4→S6
 変形例3は、入力画像に対し、第1の実施形態で説明したブロック輝度抽出のステップS4の前処理として、特徴部分の抽出・除去と補完を行うためのステップS2及びS3を実行する場合である。この場合、暗い領域の中に輝度の高い点状の光などがあった場合のように、輝度の急激な差が存在するような画像である場合に、コントラスト幅を適切な範囲に調整することができる。
 図10(e)は入力画像の例を、図10(f)は、この入力画像にステップS2、S3、S4及びS6を実行して得られた出力画像を示している。両画像中で特徴ある差異が現れた部分を枠で囲って示している。入力画像は画面全体中に高輝度集中領域を持つが、それ以外の部分は輝度の調整が不適切であるため、黒っぽく表示されて画像内に何が写っているのか、被写体の輪郭を識別することは殆どできない。しかし、この処理を行うことで図10(f)のような、暗い領域の中に輝度の高い点状の光などがあった場合でも、適切にコントラスト分布を広げることが出来る。
(第2の実施形態)
 第2の実施形態は、パーソナルコンピュータ等のコンピュータ上で実行される画像処理用アプリケーションプログラムとして、本発明の画像処理方法を実現するコンピュータプログラムを提供する形態を示している。
 図7は、本発明の第2の実施形態における画像処理装置の構成を示すブロック図である。パーソナルコンピュータに本発明に係る各画像処理方法の各ステップを実行させるプログラムをインストールした画像処理装置20は、装置全体を制御するCPU(Central Processing Unit)21、RAM(Random Access Memory)等の一時記憶手段22、ハードディスクなどの記憶手段23、記録媒体から各データを読み取る光学ディスクドライブ等の補助記憶手段24、マウス及びキーボード等の入力手段25、モニタやプリンタ等の出力手段26を備えている。記録媒体に記録された本発明に係るコンピュータプログラムを記憶手段23に読み取り、制御手段21の制御により、オペレーティングシステム上で実行させることにより、パーソナルコンピュータは本発明に係る画像処理装置20として動作する。
 画像処理装置20では、記憶手段22に記憶させたコンピュータプログラムを制御手段21の制御に基づいて第1の実施形態(又はその変形例)で説明した各ステップを実行することにより、記憶手段23などに記憶している画像や外部とのインターフェース27を通じて入力を受け付けた画像を入力画像に対し、画像処理を行い、出力手段26から出力画像を出力する。
 図8(a)及び図9(a)は、本発明に係る画像処理装置20の入力画像の一例を示している。輝度の調整が不十分であり、背景の夕陽以外は暗くて殆ど判別不能である。図8(b)及び図9(b)は、比較例として、入力画像に対し、ヒストグラム平坦化処理を行った結果得られる出力画像を示している。太陽が昼間のように明るく強調されているが、太陽の近傍では、太陽の輝度に引きずられて輪郭がぼやけている。
 図8(c)及び図9(c)は、入力画像に対し、本発明に係る適応コントラストフィルタ処理を行った出力画像を示している。コントラストが適切に調整され、全ての輪郭が鮮明に表示された出力画像が得られた。
 本発明は、入力画像が多様なコントラストを持つ場合でも、その輪郭を強調することができる点で、特定の腫瘤などを抽出する画像診断などの医療分野或いは特定の人物などを抽出する防犯や安全装置などの分野などへの応用が期待される。従って、本発明の産業上利用可能性は極めて大きい。
コンピュータに各ステップを実行させる場合の処理の流れを示すフローチャートである。 (a)は、入力画像全体の平均輝度値の分布(y座標を固定したx座標)を、(b)は、輝度値をI(=512)とし、輝度平均がI(=256)と一致するように平行移動した様子を示している。 「モラベックオペレータ」について説明する図である。 (a)は、入力画像1の中に任意に区画される演算対象領域2を表す。(b)は、ある任意の位置で固定した閉領域β1の内部の輝度値の配列を表す。(c)は、ある任意の位置で固定した閉領域β1の内部の輝度値の配列を表す。 (a)及び(b)は、最大輝度エネルギー配列Emaxと最小輝度エネルギー配列Emin の一例を示す図である。 (a)は、入力画像内の(x,y)座標において、y=jと固定したときの、最大輝度エネルギーと最小エネルギーの分布を示す図である。(b)は、適応処理ステップS5の詳細を図示したものである。 本発明の第2の実施形態における画像処理装置の構成を示すブロック図である。 (a)は、入力画像の一例を示している。(b)は、ヒストグラム平坦化処理を行った結果を示す出力画像(比較例)である。(c)は、本発明に係る画像処理方法を適用した出力画像を示している。 (a)は、入力画像の他の例を示している。(b)は、ヒストグラム平坦化処理を行った結果を示す出力画像(比較例)である。(c)は、本発明に係る画像処理方法を適用した出力画像を示している。 (a)、(c)、(e)は、入力画像の他の例を示している。(b)、(d)、(f)は、第1の実施形態の変形例(1~3)を実施した各結果を示す出力画像である。
20 本発明のプログラムをインストールした画像処理装置
21 CPU(Central Processing Unit)
22 一時記憶手段(RAM)
23 記憶手段(ハードディスク)
24 補助記憶手段(光学ディスクドライブ等)
25 入力手段(マウス及びキーボード等)
26 出力手段(モニタやプリンタ等)
27 入出力インターフェース

Claims (5)

  1. 入力画像に含まれる各画素の輝度値を調整する画像処理方法において、
     前記入力画像中の複数の画素からなる閉領域β(x,y)を演算対象領域として区画し、前記演算対象領域を前記入力画像内で所定の画素単位で移動させることにより、
    前記演算対象領域内における輝度配列として定義される輝度エネルギーの最大値と最小値とをそれぞれ算出し、その輝度エネルギーの差分データを算出するステップ(S4)と、
     前記入力画像に前記差分データを適応することにより出力画像を生成するステップ(S6)とを含む、画像処理方法。
  2. 請求項1記載の画像処理方法において、
     前記差分データを算出するステップ(S4)の後に、前記差分データに基づいて各座標における輝度値を1次関数に基づいて線形変換するステップ(S5)を更に含むと共に、
     前記入力画像に対し、前記入力画像全体の平均輝度値(I)を算出し、前記平均輝度値(I)とステップ(S5)における線形変換後の輝度値の最大値(I)とに基づいて定められる一定量の輝度値(I/2-I)を、前記入力画像の輝度分布に加算するステップ(S1)を含む、画像処理方法。
  3. 請求項1記載の画像処理方法において、
     前記差分データを算出するステップ(S4)の前に、前記入力画像に対し、前記演算対象領域内において中心画素と前記領域内の任意の画素との輝度値の差が最も大きい部分に関する座標データとその輝度値の差の大小関係を反映した演算値とを求めるステップ(S2)及び前記演算値と前記入力画像中の輝度値との積を演算することにより各座標毎の画素の輝度集中度を算出すると共に、前記輝度集中度が予め設定した閾値以上の座標における輝度値ついては別途算出した前記演算値を輝度平均値と置換することで輝度値を補完するステップ(S3)を含む、画像処理方法。
  4. 入力画像に含まれる各画素の輝度値を調整する画像処理方法において、
     入力画像中の複数の画素からなる閉領域β(x,y)を演算対象領域として区画し、前記演算対象領域を前記入力画像内で所定の画素単位で移動させることにより、前記入力画像に含まれる輝度値の差が大きい特徴部分に関する座標データと輝度値の差の大小関係を反映した演算値とを求めるステップ(S2)と、
     前記演算値と前記入力画像中の輝度値との積を演算することにより各座標毎の画素の輝度集中度を算出すると共に、前記輝度集中度が予め設定した閾値以上の座標における輝度値ついては別途算出した前記演算値を輝度平均値と置換することで輝度値を補完するステップ(S3)と、
     前記輝度値の補完が行われた以外の座標における輝度値について、各座標毎の前記演算対象領域内における輝度配列として定義される輝度エネルギーの最大値と最小値とをそれぞれ算出し、その輝度エネルギーの差分データを算出するステップ(S4)と、
     前記差分データに基づいて各座標における輝度値を線形変換するステップ(S5)と、
     前記入力画像に対し、前記入力画像全体の平均輝度値(I)を算出し、前記平均輝度値(I)とステップ(S5)における線形変換後の輝度値の最大値(I)とに基づいて定められる一定量の輝度値(I/2-I)を、前記入力画像の輝度分布に加算するステップ(S1)と、
     前記入力画像に含まれる各画素に対し前記線形変換した輝度値を適応することにより出力画像を生成するステップ(S6)とを含んでいる、
     画像処理方法。
  5. 請求項1乃至4のいずれか1項に記載の各ステップを、コンピュータに実行させるためのコンピュータプログラム。
PCT/JP2009/071496 2008-12-24 2009-12-24 画像処理方法及びコンピュータプログラム WO2010074179A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/141,582 US8660379B2 (en) 2008-12-24 2009-12-24 Image processing method and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-328396 2008-12-24
JP2008328396A JP4982475B2 (ja) 2008-12-24 2008-12-24 画像処理方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2010074179A1 true WO2010074179A1 (ja) 2010-07-01

Family

ID=42287786

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/071496 WO2010074179A1 (ja) 2008-12-24 2009-12-24 画像処理方法及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US8660379B2 (ja)
JP (1) JP4982475B2 (ja)
WO (1) WO2010074179A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012129597A (ja) * 2010-12-13 2012-07-05 Oki Data Corp 画像形成装置及び方法、並びにプログラム及び記録媒体

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4851624B2 (ja) * 2008-11-19 2012-01-11 シャープ株式会社 指定色領域画定回路、検出回路及びそれを用いた画像処理装置
TWI497320B (zh) * 2011-11-14 2015-08-21 Novatek Microelectronics Corp 色調對應方法及影像處理裝置
JP6055681B2 (ja) * 2013-01-10 2016-12-27 株式会社 日立産業制御ソリューションズ 撮像装置
JP5901667B2 (ja) 2014-02-10 2016-04-13 オリンパス株式会社 画像処理装置及び方法、画像処理プログラム、撮像装置
JP6182092B2 (ja) * 2014-03-10 2017-08-16 キヤノン株式会社 画像処理装置および画像処理方法
JP5911525B2 (ja) 2014-04-07 2016-04-27 オリンパス株式会社 画像処理装置及び方法、画像処理プログラム、撮像装置
CN109902758B (zh) * 2019-03-11 2022-05-31 重庆邮电大学 基于深度学习的车道区域识别的数据集标定方法
JP2020191030A (ja) * 2019-05-24 2020-11-26 株式会社日立製作所 画像処理装置
US11238775B1 (en) * 2020-12-18 2022-02-01 Novatek Microelectronics Corp. Image adjustment device and image adjustment method suitable for light-emitting diode display

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723287A (ja) * 1993-06-22 1995-01-24 Matsushita Electric Ind Co Ltd 撮像装置
JP2000348189A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP2001222722A (ja) * 2000-02-07 2001-08-17 Matsushita Electric Ind Co Ltd 画像表示装置、画像補正方法、及び画像補正プログラムを記録した記録媒体
JP2002095007A (ja) * 2000-09-19 2002-03-29 Sony Corp クロマキー装置
JP2002312761A (ja) * 2001-04-12 2002-10-25 Matsushita Electric Ind Co Ltd 細胞画像の画像処理方法
JP2006214890A (ja) * 2005-02-04 2006-08-17 M I L:Kk 物品欠陥情報検出装置及び物品欠陥情報検出処理プログラム
JP2008154251A (ja) * 2005-03-25 2008-07-03 Mitsubishi Electric Corp 画像処理装置、画像表示装置、及び画像表示方法
JP2008283573A (ja) * 2007-05-11 2008-11-20 Olympus Corp 画像処理装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6340471A (ja) 1986-08-06 1988-02-20 Canon Inc 画質制御方法
JP2002077741A (ja) * 2000-08-28 2002-03-15 Matsushita Electric Works Ltd イメージセンサおよびその信号処理方法
US6993185B2 (en) * 2002-08-30 2006-01-31 Matsushita Electric Industrial Co., Ltd. Method of texture-based color document segmentation
US8498452B2 (en) * 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
JP4099481B2 (ja) 2005-01-06 2008-06-11 株式会社ナナオ 画像処理方法、画像処理装置及びコンピュータプログラム
US7623724B2 (en) * 2005-03-16 2009-11-24 Fabio Riccardi Interface method and system for mapping image intensity
JP5196731B2 (ja) 2006-04-20 2013-05-15 キヤノン株式会社 画像処理装置及び画像処理方法
TWI349827B (en) * 2007-07-17 2011-10-01 Asia Optical Co Inc Exposure adjustment methods and systems
US8484298B2 (en) * 2007-08-14 2013-07-09 Samsung Electronics Co., Ltd Method and system for SIP based dynamic advertisement of presence information

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723287A (ja) * 1993-06-22 1995-01-24 Matsushita Electric Ind Co Ltd 撮像装置
JP2000348189A (ja) * 1999-06-01 2000-12-15 Matsushita Electric Ind Co Ltd 画像処理装置
JP2001222722A (ja) * 2000-02-07 2001-08-17 Matsushita Electric Ind Co Ltd 画像表示装置、画像補正方法、及び画像補正プログラムを記録した記録媒体
JP2002095007A (ja) * 2000-09-19 2002-03-29 Sony Corp クロマキー装置
JP2002312761A (ja) * 2001-04-12 2002-10-25 Matsushita Electric Ind Co Ltd 細胞画像の画像処理方法
JP2006214890A (ja) * 2005-02-04 2006-08-17 M I L:Kk 物品欠陥情報検出装置及び物品欠陥情報検出処理プログラム
JP2008154251A (ja) * 2005-03-25 2008-07-03 Mitsubishi Electric Corp 画像処理装置、画像表示装置、及び画像表示方法
JP2008283573A (ja) * 2007-05-11 2008-11-20 Olympus Corp 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YASUSHI KANAZAWA ET AL.: "Computer Vision no Tameno Gazo no Tokucho Ten no Chushutsu", THE JOURNAL OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 87, no. 12, 1 December 2004 (2004-12-01), pages 1043 - 1048 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012129597A (ja) * 2010-12-13 2012-07-05 Oki Data Corp 画像形成装置及び方法、並びにプログラム及び記録媒体

Also Published As

Publication number Publication date
JP2010152536A (ja) 2010-07-08
US20110317936A1 (en) 2011-12-29
JP4982475B2 (ja) 2012-07-25
US8660379B2 (en) 2014-02-25

Similar Documents

Publication Publication Date Title
JP4982475B2 (ja) 画像処理方法及びコンピュータプログラム
US9299130B2 (en) Methods and apparatus for image processing and analysis
TW440801B (en) Method and apparatus for perceptual determination of threshold for gradient-based local edge determination
JP7030493B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20080298712A1 (en) Image sharpening with halo suppression
US9953422B2 (en) Selective local registration based on registration error
WO2012030869A4 (en) Multi-image face-based image processing
KR102355329B1 (ko) 영상 처리 장치, 영상 처리 방법, 및 영상 처리 프로그램
CN104463777A (zh) 一种基于人脸的实时景深的方法
JP2016111489A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009025862A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び画像表示装置
KR20160049954A (ko) 영상 처리 장치, 영상 처리 방법, 및 영상 처리 프로그램
JP5968088B2 (ja) 画像処理装置、画像処理方法、および、プログラム
US20200364913A1 (en) User guided segmentation network
WO2017006619A1 (ja) 画像処理装置、表示装置及びプログラム
Al-Ameen et al. Fast and Efficient Algorithm for Contrast Enhancement of Color Images.
KR101617551B1 (ko) 얼굴 검출 능력 향상을 위한 이미지 처리 방법 및 시스템
JP2006311378A (ja) 画像処理装置及び画像処理方法
US20140064633A1 (en) Image processing apparatus and image processing method
TWI783288B (zh) 影像處理方法
CN114418906A (zh) 一种图像对比度增强方法及系统
US20210158487A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
Venkatesh et al. Image Enhancement and Implementation of CLAHE Algorithm and Bilinear Interpolation
US20220309619A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
Jung et al. Deep low-contrast image enhancement using structure tensor representation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09834976

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13141582

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09834976

Country of ref document: EP

Kind code of ref document: A1