JP2014110624A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2014110624A
JP2014110624A JP2012265773A JP2012265773A JP2014110624A JP 2014110624 A JP2014110624 A JP 2014110624A JP 2012265773 A JP2012265773 A JP 2012265773A JP 2012265773 A JP2012265773 A JP 2012265773A JP 2014110624 A JP2014110624 A JP 2014110624A
Authority
JP
Japan
Prior art keywords
edge
image
contrast
gain adjustment
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012265773A
Other languages
Japanese (ja)
Inventor
Masatsugu Hirayama
理継 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung R&D Institute Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung R&D Institute Japan Co Ltd filed Critical Samsung R&D Institute Japan Co Ltd
Priority to JP2012265773A priority Critical patent/JP2014110624A/en
Publication of JP2014110624A publication Critical patent/JP2014110624A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform edge emphasis while suppressing influences of noise, and to improve an image quality.SOLUTION: An image processing device comprises: a contrast calculation part detecting a contrast of an input image to calculate a contrast value corresponding to the detected contrast; a plurality of edge detectors detecting edge components in frequency bands different from each other independently of each other, to the input image; a plurality of gain adjustment parts provided so as to correspond to the plurality of edge detectors respectively, and each performing gain adjustment depending on the contrast value to the edge component detected by the corresponding edge detector; a plurality of smoothing processing parts provided so as to correspond to the plurality of gain adjustment parts respectively, and each smoothing the detected edge component; and an image correction part performing edge emphasis processing to the input image on the basis of output values respectively outputted from the plurality of smoothing processing parts.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

画像の輪郭成分を強調することで画像のシャープネス(鮮鋭度)を向上させる輪郭補正処理は、デジタル画像、例えばデジタルスチルカメラによって撮像された画像の画質改善に有効な処理である。そのため、従来、画像の輪郭成分を強調するエッジ強調処理について、様々な技術が提案されている。   The contour correction processing that enhances the sharpness of an image by enhancing the contour component of the image is an effective process for improving the image quality of a digital image, for example, an image captured by a digital still camera. Therefore, conventionally, various techniques have been proposed for edge enhancement processing for enhancing the contour component of an image.

例えば、以下の特許文献1では、輪郭成分の強度を変換するための変換条件として、入力されたデータの値が大きくなるに従って、入力データの値の変化に対する出力データの値の変化の傾き(ゲイン)が小さくなるように定められた変換特性を用いることで、原画像中のコントラストが低い非エッジ部分については輪郭成分の強度を大幅に増大させる一方で、原画像中のコントラストが高いエッジ部分については輪郭成分の強度の増大を抑制する技術が提案されている。   For example, in Patent Document 1 below, as the conversion condition for converting the intensity of the contour component, the slope of the change in the value of the output data with respect to the change in the value of the input data (gain) as the value of the input data increases. ) Is reduced so that the intensity of the contour component is greatly increased for non-edge portions with low contrast in the original image, while edge portions with high contrast in the original image are used. A technique for suppressing an increase in the strength of the contour component has been proposed.

また、以下の特許文献2では、画素値の勾配が最も大きなエッジ勾配方向、及び、このエッジ勾配方向に直交するエッジ方向に対してそれぞれエッジ強調処理及び平滑化処理を行うことで画質を向上させ、異なる特性によりエッジ勾配方向及びエッジ方向を検出し、特性毎にエッジ強調処理及び平滑化処理を行った後、各特性の処理結果を合成する技術が提案されている。   In Patent Document 2 below, image quality is improved by performing edge enhancement processing and smoothing processing on the edge gradient direction where the gradient of the pixel value is the largest and the edge direction orthogonal to the edge gradient direction, respectively. A technique has been proposed in which edge gradient directions and edge directions are detected based on different characteristics, edge enhancement processing and smoothing processing are performed for each characteristic, and then the processing results of the characteristics are combined.

特開2006−129176号公報JP 2006-129176 A 特開2006−221403号公報JP 2006-221403 A

上記特許文献1に記載の技術は、画像のコントラストに基づいてエッジ強調のゲインをコントロールする方法である。しかしながら、上記特許文献1に記載の技術では、低コントラスト領域のノイズを強調してしまう懸念がある。   The technique described in Patent Document 1 is a method for controlling the gain of edge enhancement based on the contrast of an image. However, with the technique described in Patent Document 1, there is a concern that noise in a low contrast region may be emphasized.

また、上記特許文献2に記載の技術は、複数の異なる特性によるエッジを検出し、それぞれ強調・平滑化処理を行い、結果を統合して画質を向上させる方法である。しかしながら、それぞれの特性毎に強調・平滑化処理を画像に施した結果を統合する際、エッジ方向誤判定などが生じてしまうと、他の特性で正しく判定できた結果が存在したとしても悪影響を無視できないという問題がある。また、エッジ方向の信頼度を算出して、それぞれの結果をブレンドするパラメータとしているが、隣接画素の差分値をベースにしており、ノイズの影響を受けやすく大きな効果を期待できないという問題がある。   Further, the technique described in Patent Document 2 is a method of detecting an edge having a plurality of different characteristics, performing enhancement / smoothing processing, and integrating the results to improve the image quality. However, when integrating the results of applying emphasis / smoothing processing for each characteristic to the image, if an edge direction misjudgment or the like occurs, even if there is a result that can be correctly determined by other characteristics, there is an adverse effect. There is a problem that it cannot be ignored. Further, although the reliability in the edge direction is calculated and used as a parameter for blending the results, there is a problem that it is based on the difference value between adjacent pixels and is easily influenced by noise and cannot be expected to have a great effect.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ノイズの影響を抑制しつつエッジ強調を行い、画像品質を向上させることが可能な、画像処理装置、画像処理方法及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to perform image processing that can improve image quality by performing edge enhancement while suppressing the influence of noise. An apparatus, an image processing method, and a program are provided.

上記課題を解決するために、本発明のある観点によれば、入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出部と、前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行う複数のエッジ検出部と、前記複数のエッジ検出部のそれぞれに対応して設けられ、対応する当該エッジ検出部により検出された前記エッジ成分に対して、前記コントラスト値に応じたゲイン調整を行う複数のゲイン調整部と、前記複数のゲイン調整部のそれぞれに対応して設けられ、検出された前記エッジ成分を平滑化する複数のスムージング処理部と、前記複数のスムージング処理部からそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正部と、を備える画像処理装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, a contrast calculation unit that detects a contrast of an input image and calculates a contrast value corresponding to the detected contrast, and the input image, A plurality of edge detectors that detect edge components independently of each other in different frequency bands, and the edge components detected by the corresponding edge detectors provided corresponding to each of the plurality of edge detectors And a plurality of gain adjustment units that perform gain adjustment according to the contrast value, and a plurality of smoothing processes that are provided corresponding to each of the plurality of gain adjustment units and smooth the detected edge component And an edge enhancement process on the input image based on output values respectively output from the plurality of smoothing processing units and the plurality of smoothing processing units. Image processing apparatus comprising an image correcting unit, the performing is provided.

かかる構成によれば、コントラスト算出部は、入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出し、複数のエッジ検出部は、入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行い、複数のゲイン調整部は、複数のエッジ検出部のそれぞれに対応して設けられ、対応する当該エッジ検出部により検出されたエッジ成分に対して、コントラスト値に応じたゲイン調整を行い、複数のスムージング処理部は、複数のゲイン調整部のそれぞれに対応して設けられ、検出されたエッジ成分を平滑化し、画像補正部は、複数のスムージング処理部からそれぞれ出力された出力値に基づいて、入力画像に対してエッジ強調処理を行う。これにより、ノイズの影響を抑制しつつエッジ強調を行い、画像品質を向上させることが可能となる。   According to this configuration, the contrast calculation unit detects the contrast of the input image, calculates a contrast value corresponding to the detected contrast, and the plurality of edge detection units have different frequency bands for the input image. The edge components are detected independently of each other, and the plurality of gain adjustment units are provided corresponding to the plurality of edge detection units, respectively, and contrast with respect to the edge components detected by the corresponding edge detection unit. The gain adjustment is performed according to the value, and a plurality of smoothing processing units are provided corresponding to each of the plurality of gain adjusting units to smooth the detected edge component, and the image correction unit is connected to the plurality of smoothing processing units. Based on each output value, edge enhancement processing is performed on the input image. Thus, edge enhancement can be performed while suppressing the influence of noise, and image quality can be improved.

前記スムージング処理部は、検出された前記エッジ成分の方向を特定した後、当該エッジ成分の方向の加重平均を算出して前記エッジ成分を平滑化することが好ましい。これにより、ノイズ成分や斜め線のジャギーを抑制したエッジ強調が可能となる。   The smoothing processing unit preferably specifies the direction of the detected edge component and then calculates a weighted average of the direction of the edge component to smooth the edge component. This makes it possible to perform edge enhancement while suppressing noise components and oblique line jaggies.

前記画像補正部は、前記複数のスムージング処理部からそれぞれ出力された出力値の合計を算出してエッジ強調量とし、当該エッジ強調量を前記入力画像に対して加算することでエッジ強調処理を行うことが好ましい。これにより、ノイズの影響を減らしつつ画像品質を高めることが可能となる。   The image correction unit calculates the sum of output values output from the plurality of smoothing processing units to obtain an edge enhancement amount, and performs edge enhancement processing by adding the edge enhancement amount to the input image. It is preferable. Thereby, it is possible to improve the image quality while reducing the influence of noise.

前記複数のゲイン調整部のそれぞれは、互いに異なるゲイン補正曲線と、前記コントラスト値に応じて、前記ゲイン調整を行うことが好ましい。これにより、複数のパスにおいて抽出されたそれぞれの周波数成分に対し、周辺領域のコントラストに基づいてゲイン調整を行うことが可能となり、ノイズの影響を減らしつつ画像品質を高めることが可能となる。   Each of the plurality of gain adjustment units preferably performs the gain adjustment according to different gain correction curves and the contrast value. As a result, gain adjustment can be performed for each frequency component extracted in a plurality of paths based on the contrast of the surrounding area, and image quality can be improved while reducing the influence of noise.

前記複数のゲイン調整部は、前記エッジ強調処理の後段に画像サイズの変更処理が行われる場合、対応する前記ゲイン補正曲線の特性を前記画像サイズの変更処理に応じて変化させた上で前記ゲイン調整を行ってもよい。これにより、画像サイズの変更処理後の画像を高品質に保つことが可能となる。   When the image size changing process is performed after the edge enhancement process, the plurality of gain adjusting units change the characteristics of the corresponding gain correction curve according to the image size changing process, and then the gain Adjustments may be made. As a result, the image after the image size changing process can be maintained in high quality.

また、上記課題を解決するために、本発明の別の観点によれば、入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出ステップと、前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行うエッジ検出ステップと、前記互いに異なる周波数帯域において、検出された前記エッジ成分に対して前記コントラスト値に応じたゲイン調整を互いに独立して行うゲイン調整ステップと、前記互いに異なる周波数帯域において、検出された前記エッジ成分を互いに独立に平滑化するスムージング処理ステップと、前記スムージング処理ステップにてそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正ステップと、を含む画像処理方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, a contrast calculation step of detecting a contrast of an input image and calculating a contrast value corresponding to the detected contrast, the input image On the other hand, an edge detection step for detecting edge components independently from each other in different frequency bands, and gain adjustment according to the contrast value for the detected edge components in the different frequency bands are independent of each other. And the gain adjustment step performed in the different frequency bands, the smoothing processing step of smoothing the detected edge components independently of each other, and the output values respectively output in the smoothing processing step, An image correction step for performing edge enhancement on the input image; An image processing method comprising is provided.

かかる構成によれば、コントラスト算出ステップでは、入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値が算出され、エッジ検出ステップでは、入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出が行われ、ゲイン調整ステップでは、互いに異なる周波数帯域において、検出された前記エッジ成分に対して前記コントラスト値に応じたゲイン調整が互いに独立して行われ、スムージング処理ステップでは、互いに異なる周波数帯域において、検出された前記エッジ成分が互いに独立に平滑化され、画像補正ステップでは、スムージング処理ステップにてそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理が行われる。これにより、ノイズの影響を抑制しつつエッジ強調を行い、画像品質を向上させることが可能となる。   According to such a configuration, in the contrast calculation step, the contrast of the input image is detected, and a contrast value corresponding to the detected contrast is calculated. In the edge detection step, the input image is mutually compared in different frequency bands. Edge component detection is performed independently, and in the gain adjustment step, gain adjustment according to the contrast value is independently performed on the detected edge components in different frequency bands, and a smoothing processing step In the frequency bands different from each other, the detected edge components are smoothed independently of each other, and in the image correction step, edge enhancement is performed on the input image based on the output values respectively output in the smoothing processing step. Processing is performed. Thus, edge enhancement can be performed while suppressing the influence of noise, and image quality can be improved.

また、上記課題を解決するために、本発明の更に別の観点によれば、コンピュータに、入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出機能と、前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行う複数のエッジ検出機能と、前記複数のエッジ検出機能のそれぞれに対応して設けられ、対応する当該エッジ検出機能により検出された前記エッジ成分に対して、前記コントラスト値に応じたゲイン調整を行う複数のゲイン調整機能と、前記複数のゲイン調整機能のそれぞれに対応して設けられ、検出された前記エッジ成分を平滑化する複数のスムージング処理機能と、前記複数のスムージング処理機能からそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正機能と、を実現させるためのプログラムが提供される。   In order to solve the above problem, according to still another aspect of the present invention, a contrast calculation function for detecting a contrast of an input image in a computer and calculating a contrast value corresponding to the detected contrast, A plurality of edge detection functions for detecting edge components independently of each other in different frequency bands from the input image, and the corresponding edge detection functions provided corresponding to each of the plurality of edge detection functions A plurality of gain adjustment functions for performing gain adjustment according to the contrast value and the plurality of gain adjustment functions are provided corresponding to the edge components detected by A plurality of smoothing processing functions for smoothing and output values output from the plurality of smoothing processing functions, respectively. And Zui, a program for implementing an image correcting function of performing edge enhancement processing to the input image is provided.

かかる構成によれば、コンピュータを、上記画像処理装置として機能させることが可能となる。   According to this configuration, the computer can function as the image processing apparatus.

以上説明したように本発明によれば、互いに異なる周波数帯域で互いに独立してゲイン調整処理を行い、各周波数帯域における処理結果を統合してエッジ強調処理を行うことで、ノイズの影響を抑制しつつエッジ強調を行い、画像品質を向上させることが可能となる。   As described above, according to the present invention, the gain adjustment processing is performed independently from each other in different frequency bands, and the effect of noise is suppressed by performing the edge enhancement processing by integrating the processing results in each frequency band. Edge enhancement can be performed while improving image quality.

本発明の第1の実施形態に係る撮像装置の構成の一例を示したブロック図である。1 is a block diagram illustrating an example of a configuration of an imaging apparatus according to a first embodiment of the present invention. 同実施形態に係る画像処理部の構成の一例を示したブロック図である。FIG. 2 is a block diagram illustrating an example of a configuration of an image processing unit according to the embodiment. 同実施形態に係るエッジ強調部の構成の一例を示したブロック図である。It is the block diagram which showed an example of the structure of the edge emphasis part which concerns on the same embodiment. 同実施形態に係るエッジ強調部について説明するための説明図である。It is explanatory drawing for demonstrating the edge emphasis part which concerns on the same embodiment. 同実施形態に係るエッジ強調部について説明するための説明図である。It is explanatory drawing for demonstrating the edge emphasis part which concerns on the same embodiment. 同実施形態に係るエッジ強調部について説明するための説明図である。It is explanatory drawing for demonstrating the edge emphasis part which concerns on the same embodiment. 同実施形態に係る撮像方法の流れの一例を示した流れ図である。It is the flowchart which showed an example of the flow of the imaging method which concerns on the embodiment. 実施例について説明するための説明図である。It is explanatory drawing for demonstrating an Example.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

(第1の実施形態)
<画像処理装置の構成について>
以下では、図1〜図6を参照しながら、本発明の第1の実施形態に係る画像処理装置の構成について、詳細に説明する。なお、以下では、本実施形態に係る画像処理装置が、被写体を撮像することが可能な撮像装置として実現されている場合を例に挙げて、説明を行うものとする。
(First embodiment)
<Configuration of image processing apparatus>
The configuration of the image processing apparatus according to the first embodiment of the present invention will be described in detail below with reference to FIGS. In the following description, the image processing apparatus according to the present embodiment is described as an example where the image processing apparatus is realized as an imaging apparatus capable of imaging a subject.

図1は、本実施形態に係る画像処理装置の構成の一例を示したブロック図である。図1に示したように、撮像装置として機能する本実施形態に係る画像処理装置10は、CPU/DSP101、ROM、103、RAM105、撮像光学系107、撮像素子109、光学系駆動部111、画像処理部113、投光光源115、表示制御部117、LCD/EVF119、操作インタフェース(I/F)121、操作部123、記録メディアI/F125及び記録メディア127等を主に備える。   FIG. 1 is a block diagram showing an example of the configuration of the image processing apparatus according to the present embodiment. As shown in FIG. 1, the image processing apparatus 10 according to the present embodiment that functions as an imaging apparatus includes a CPU / DSP 101, a ROM, 103, a RAM 105, an imaging optical system 107, an imaging element 109, an optical system driving unit 111, and an image. A processing unit 113, a projection light source 115, a display control unit 117, an LCD / EVF 119, an operation interface (I / F) 121, an operation unit 123, a recording medium I / F 125, a recording medium 127, and the like are mainly provided.

CPU(Central Processing Unit)/DSP(Digital Signal Processor)101は、演算処理装置および制御装置として機能し、ROM103やRAM105等に記録された各種プログラムに従って、撮像装置10内の動作全般またはその一部を制御する。ROM(Read Only Memory)103は、CPU/DSP101が使用するプログラムや演算パラメータ等を記憶する。RAM(Random Access Memory)105は、CPU/DSP101が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるバスにより相互に接続されている。   A CPU (Central Processing Unit) / DSP (Digital Signal Processor) 101 functions as an arithmetic processing unit and a control unit. According to various programs recorded in the ROM 103, the RAM 105, etc., the entire operation in the imaging apparatus 10 or a part thereof is performed. Control. A ROM (Read Only Memory) 103 stores programs used by the CPU / DSP 101, operation parameters, and the like. A RAM (Random Access Memory) 105 temporarily stores programs used by the CPU / DSP 101, parameters that change as appropriate during execution of the programs, and the like. These are connected to each other by a bus constituted by an internal bus such as a CPU bus.

これらCPU/DSP101、ROM103、RAM105等が互いに連携することで、撮像装置10のオートフォーカス(AF)を制御するAF部や、自動露光(AE)を制御するAE部や、ホワイトバランスを自動制御するAWB部等が実現されることとなる。   The CPU / DSP 101, ROM 103, RAM 105, and the like cooperate with each other to automatically control the autofocus (AF) of the image pickup apparatus 10, the AE unit that controls automatic exposure (AE), and the white balance. An AWB unit or the like is realized.

撮像光学系107は、後述する光学系駆動部111による駆動制御のもとで、被写体からの光を後述する撮像素子109の受光面に入射させる。これにより、撮像素子109において、受光面に入射した光が電気信号へと変換され、撮像画像が生成されることとなる。この撮像光学系107は、例えば、ズームレンズやフォーカスレンズ等のレンズ群、絞り、シャッター、NDフィルタ等から構成されている。   The imaging optical system 107 causes light from a subject to enter a light receiving surface of an imaging element 109 (to be described later) under drive control by an optical system driving unit 111 (to be described later). Thereby, in the image sensor 109, the light incident on the light receiving surface is converted into an electric signal, and a captured image is generated. The imaging optical system 107 includes, for example, a lens group such as a zoom lens and a focus lens, an aperture, a shutter, an ND filter, and the like.

撮像光学系107により導光された光(雰囲気光やフラッシュ光等を含む。)は、撮像光学系107の後段に設けられた撮像素子109の受光面に入射する。撮像素子109は、受光素子が2次元状に配列された受光面を有しており、この受光面に入射した光を、その光量に応じた電気信号へと変換する。この電気信号を1つ又は複数の受光素子によって構成される画素毎に順次読み出すことで、入射した光に応じた画像が生成されることとなる。なお、撮像素子109において画素信号がリセットされるタイミングや画素信号が読みだされるタイミングは、後述する光学系駆動部111により制御される。本実施形態に係る撮像装置10では、撮像素子109の種類は特に限定されず、CMOSセンサやCCDセンサ等のように、公知の撮像素子を利用することが可能である。撮像素子109によって生成された電気信号(すなわち、撮像画像)は、後述する画像処理部113へと出力される。   Light guided by the imaging optical system 107 (including ambient light, flash light, and the like) is incident on the light receiving surface of the imaging element 109 provided at the subsequent stage of the imaging optical system 107. The image sensor 109 has a light receiving surface on which light receiving elements are arranged in a two-dimensional shape, and converts light incident on the light receiving surface into an electrical signal corresponding to the light amount. By sequentially reading out this electrical signal for each pixel constituted by one or a plurality of light receiving elements, an image corresponding to the incident light is generated. Note that the timing at which the pixel signal is reset in the image sensor 109 and the timing at which the pixel signal is read out are controlled by the optical system driving unit 111 described later. In the imaging device 10 according to the present embodiment, the type of the imaging element 109 is not particularly limited, and a known imaging element such as a CMOS sensor or a CCD sensor can be used. The electrical signal (that is, the captured image) generated by the image sensor 109 is output to the image processing unit 113 described later.

光学系駆動部111は、撮像光学系107を構成するレンズ群、絞り、シャッター、NDフィルタ等の部材や、撮像素子109の駆動制御を行う処理部である。光学系駆動部111が、レンズ群の焦点位置や、絞りの開閉度合いや、シャッターの開閉タイミングや、撮像素子109の読み出しタイミング等を制御することで、被写体を撮像した撮像画像が生成されることとなる。光学系駆動部111の具体的な構成については特に限定されるものではなく、公知のあらゆる技術を利用することが可能である。   The optical system driving unit 111 is a processing unit that performs driving control of members such as a lens group, a diaphragm, a shutter, and an ND filter that configure the imaging optical system 107 and the imaging element 109. The optical system driving unit 111 controls the focal position of the lens group, the opening / closing degree of the aperture, the opening / closing timing of the shutter, the readout timing of the image sensor 109, and the like, and a captured image obtained by capturing the subject is generated. It becomes. The specific configuration of the optical system driving unit 111 is not particularly limited, and any known technique can be used.

画像処理部113は、撮像素子109により生成された撮像画像に対して、公知の前処理及び後処理等を含む各種の画像処理を実施する。また、画像処理部113は、撮像素子109によって生成された撮像画像を圧縮する圧縮処理を行うことも可能である。更に、本実施形態に係る画像処理部113は、撮像素子109によって撮像された撮像画像に対して以下で詳述するようなエッジ強調処理を行う。この画像処理部113の詳細な構成については、以下で詳述する。   The image processing unit 113 performs various types of image processing including known pre-processing and post-processing on the captured image generated by the image sensor 109. The image processing unit 113 can also perform compression processing for compressing the captured image generated by the image sensor 109. Furthermore, the image processing unit 113 according to the present embodiment performs edge enhancement processing as will be described in detail below on the captured image captured by the image sensor 109. The detailed configuration of the image processing unit 113 will be described in detail below.

投光光源115は、被写体を撮像する際に投光される各種の光の光源である。このような投光光源115として、例えば、フラッシュ光として用いられるキセノン光源や、オートフォーカス(AF)用に撮像装置に予め設けられている光源や、赤目補正用に予め設けられている光源等を挙げることができる。   The light projecting light source 115 is a light source of various types of light that is projected when the subject is imaged. As such a projection light source 115, for example, a xenon light source used as flash light, a light source provided in advance in an imaging device for autofocus (AF), a light source provided in advance for red-eye correction, or the like is used. Can be mentioned.

表示制御部117は、後述するLCD(Liquid Crystal Display:液晶ディスプレイ)やEVF(Electronic View Finder:電子ビューファインダ)等の表示装置の表示制御を行う。これにより、表示装置の表示画面に、撮像画像や、撮像装置10が備える各種の機能を選択するためのメニュー画面等が表示されることとなる。   The display control unit 117 performs display control of a display device such as an LCD (Liquid Crystal Display) or EVF (Electronic View Finder) described later. As a result, a captured image, a menu screen for selecting various functions provided in the imaging device 10, and the like are displayed on the display screen of the display device.

LCDやEVFは、撮像装置10に設けられた表示装置として機能するものであり、表示制御部117によって表示内容が制御される。撮像装置10のユーザは、これら表示装置の表示画面に表示される内容を見ることで、撮像した画像をその場で確認したり、各種のメニューを選択したりすることができる。   The LCD and EVF function as a display device provided in the imaging device 10, and the display content is controlled by the display control unit 117. The user of the imaging device 10 can check the captured image on the spot or select various menus by viewing the contents displayed on the display screens of these display devices.

操作I/F121は、ハードキーやダイヤル等の操作部123に対してユーザが行った各種の操作に関する情報(操作情報)を撮像装置10に入力するためのインタフェースである。操作I/F121から入力された各種の操作情報は、CPU/DSP101に通知され、操作情報に応じた各種の機能が実現されることとなる。なお、操作部123の構成については特に限定されるものではなく、タッチパネル等を利用した操作手段など、公知の入力手段を適用することが可能である。   The operation I / F 121 is an interface for inputting information (operation information) related to various operations performed by the user to the operation unit 123 such as a hard key or a dial to the imaging apparatus 10. Various operation information input from the operation I / F 121 is notified to the CPU / DSP 101, and various functions corresponding to the operation information are realized. The configuration of the operation unit 123 is not particularly limited, and a known input unit such as an operation unit using a touch panel or the like can be applied.

記録メディアI/F125は、後述する記録メディア127を撮像装置10に対して接続させるためのインタフェースであり、記録メディア127を駆動するためのドライバとしても機能する。また、記録メディア127は、撮像装置10に設けられた外部記憶装置の一例である。記録メディアI/F125は、記録メディア127に対して各種のデータを書き込んだり、記録メディア127から各種のデータを読み出したりすることができる。また、記録メディアI/F125は、表示制御部117と連携して、記録メディア127に記録されている各種のデータを、LCDやEVF等の表示装置119に表示させることもできる。なお、本実施形態においては、記録メディア127の種類は特に限定されず、公知の各種記録メディアを用いることが可能である。また、記録メディアI/F125の種類は、記録メディア127の種類に応じて適宜選択することが可能である。   The recording medium I / F 125 is an interface for connecting a recording medium 127 to be described later to the imaging apparatus 10 and also functions as a driver for driving the recording medium 127. The recording medium 127 is an example of an external storage device provided in the imaging device 10. The recording medium I / F 125 can write various data to the recording medium 127 and read various data from the recording medium 127. In addition, the recording medium I / F 125 can display various data recorded on the recording medium 127 on a display device 119 such as an LCD or EVF in cooperation with the display control unit 117. In the present embodiment, the type of the recording medium 127 is not particularly limited, and various known recording media can be used. Further, the type of the recording medium I / F 125 can be appropriately selected according to the type of the recording medium 127.

<画像処理部の構成について>
続いて、図2及び図3を参照しながら、本実施形態に係る画像処理部113の詳細な構成について説明する。図2は、本実施形態に係る画像処理部の構成の一例を示したブロック図であり、図3は、本実施形態に係るエッジ強調部の構成の一例を示したブロック図である。
<Configuration of image processing unit>
Next, a detailed configuration of the image processing unit 113 according to the present embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a block diagram illustrating an example of the configuration of the image processing unit according to the present embodiment, and FIG. 3 is a block diagram illustrating an example of the configuration of the edge enhancement unit according to the present embodiment.

図2に示したように、本実施形態に係る画像処理装置10が備える画像処理部113は、エッジ強調部131と、後処理部133と、を備える。   As illustrated in FIG. 2, the image processing unit 113 included in the image processing apparatus 10 according to the present embodiment includes an edge enhancement unit 131 and a post-processing unit 133.

エッジ強調部131は、撮像素子109から出力された撮像画像に対して、本実施形態に係るエッジ強調処理が実施される処理部である。エッジ強調部131は、以下で詳述するエッジ強調処理を実施するに際して、ROM103、RAM105、記録メディア127等の記憶部を参照し、当該記憶部に格納されたプログラムや、後述するゲイン補正曲線を利用することができる。このエッジ強調部131の詳細な構成及び機能については、以下で詳述する。   The edge enhancement unit 131 is a processing unit that performs the edge enhancement processing according to the present embodiment on the captured image output from the image sensor 109. The edge emphasizing unit 131 refers to a storage unit such as the ROM 103, the RAM 105, the recording medium 127, and the like when executing the edge emphasis process described in detail below, and stores a program stored in the storage unit and a gain correction curve described later. Can be used. The detailed configuration and function of the edge enhancement unit 131 will be described in detail below.

後処理部133は、エッジ強調部131によりエッジ強調処理が施され、シャープネスの向上した撮像画像に対して、必要に応じて、画像サイズの拡大・縮小といった画像サイズの変更処理を含む公知の後処理を行う。また、後処理部133では、撮像画像の圧縮や、色座標空間の変換等の処理を行うことも可能である。後処理部133は、上記のような各種処理を実施するに際して、ROM103、RAM105、記録メディア127等の記憶部を参照し、当該記憶部に格納された各種のプログラム等を利用することができる。   The post-processing unit 133 performs a known post-processing including image size change processing such as image size enlargement / reduction, as necessary, on a captured image that has been subjected to edge enhancement processing by the edge enhancement unit 131 and improved sharpness. Process. Further, the post-processing unit 133 can also perform processing such as compression of the captured image and conversion of the color coordinate space. The post-processing unit 133 can use various programs stored in the storage unit by referring to the storage unit such as the ROM 103, the RAM 105, and the recording medium 127 when performing the various processes as described above.

後処理部133により公知の後処理が行われた撮像画像は、表示制御部117を介してLCDやEVF等の表示装置119に表示されたり、記録メディアI/F125を介して記録メディア127に格納されたりする。   The captured image that has been subjected to known post-processing by the post-processing unit 133 is displayed on the display device 119 such as an LCD or EVF via the display control unit 117, or stored in the recording medium 127 via the recording medium I / F 125. Or

次に、図3を参照しながら、本実施形態に係るエッジ強調部131の構成について、更に詳細に説明する。   Next, the configuration of the edge enhancement unit 131 according to the present embodiment will be described in more detail with reference to FIG.

本実施形態に係るエッジ強調部131は、コントラスト算出部151と、複数のエッジ検出部153と、複数のゲイン調整部155と、複数のスムージング処理部157と、画像補正部159と、を備える。以下、これらの処理部について、詳細に説明する。   The edge enhancement unit 131 according to the present embodiment includes a contrast calculation unit 151, a plurality of edge detection units 153, a plurality of gain adjustment units 155, a plurality of smoothing processing units 157, and an image correction unit 159. Hereinafter, these processing units will be described in detail.

なお、図3では、エッジ検出部153、ゲイン調整部155及びスムージング処理部157が、それぞれ2つ設けられている場合を例に挙げて図示している。しかしながら、各処理部の個数については、以下の2つの例に限定されるものではなく、エッジ検出部153及びゲイン調整部155の個数については、求められる処理精度や、処理に用いるフィルタの大きさや、演算コスト等に応じて、適宜決定すればよい。   In FIG. 3, the case where two edge detection units 153, gain adjustment units 155, and smoothing processing units 157 are provided is shown as an example. However, the number of processing units is not limited to the following two examples, and the number of edge detection units 153 and gain adjustment units 155 is not limited to the required processing accuracy, the size of a filter used for processing, and the like. What is necessary is just to determine suitably according to a calculation cost etc.

コントラスト算出部151は、エッジ強調部131に入力された撮像画像(以下、入力画像とも称する。)を取得すると、この入力画像のコントラストを検出して、検出したコントラストに対応するコントラスト値を算出する。このコントラスト値の算出処理は、公知のコントラスト値算出方法を利用して行うことが可能であるが、例えば、後述する複数のエッジ検出部153で用いられるエッジ検出フィルタの大きさ(換言すれば、エッジ検出領域の大きさ)に応じて、エッジ検出領域内に対して下記の式101により行われる。   When the contrast calculation unit 151 acquires the captured image (hereinafter also referred to as an input image) input to the edge enhancement unit 131, the contrast calculation unit 151 detects the contrast of the input image and calculates a contrast value corresponding to the detected contrast. . The contrast value calculation process can be performed using a known contrast value calculation method. For example, the size of the edge detection filter used in the plurality of edge detection units 153 described below (in other words, In accordance with the size of the edge detection area, the following equation 101 is applied to the edge detection area.

ここで、下記の式101において、「contrast」はコントラスト値を表し、Pijは、入力画像を構成する(縦,横)=(i,j)番目の画素の画素値を表し、エッジ検出領域の大きさが5×5である場合を示している。従って、下記式101は、5×5の大きさを有するエッジ検出領域内において、最大の画素値と最小の画素値との差分をコントラスト値とするものである。 Here, in the following expression 101, “contrast” represents a contrast value, and P ij represents the pixel value of the (vertical, horizontal) = (i, j) th pixel constituting the input image, and is an edge detection region. The case where the size of is 5 × 5 is shown. Therefore, the following expression 101 is a difference between the maximum pixel value and the minimum pixel value in the edge detection region having a size of 5 × 5 as a contrast value.

Figure 2014110624
・・・(式101)
Figure 2014110624
... (Formula 101)

なお、コントラスト算出部151は、上記式101を利用してコントラスト値を算出する際に、エッジ検出領域内における最大値及び最小値は利用せずに、最大値から2番目の画素値、及び、最小値から2番目の画素値をそれぞれ利用して、コントラスト値を算出してもよい。   Note that when the contrast calculation unit 151 calculates the contrast value using the formula 101, the second pixel value from the maximum value and the maximum value and the minimum value in the edge detection region are not used, and The contrast value may be calculated using the second pixel value from the minimum value.

コントラスト算出部151は、このようにして算出した各エッジ検出領域のコントラスト値を、後述する複数のエッジ検出部153のそれぞれに対して出力する。   The contrast calculation unit 151 outputs the contrast value of each edge detection region calculated in this way to each of a plurality of edge detection units 153 described later.

複数のエッジ検出部153は、エッジ強調部131に入力された入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行う。図3に示した例では、第1エッジ検出部153a及び第2エッジ検出部153bは、互いに異なる周波数帯域、例えば、物体の輪郭等を表す空間周波数面で相対的に低い帯域と、物体の細部を表す空間周波数面で相対的に高い帯域と、のそれぞれにおいて、独立してエッジ検出を行う。   The plurality of edge detection units 153 detect edge components independently of each other in different frequency bands from the input image input to the edge enhancement unit 131. In the example illustrated in FIG. 3, the first edge detection unit 153 a and the second edge detection unit 153 b have different frequency bands, for example, a relatively low band in the spatial frequency plane representing the contour of the object, and the details of the object. Edge detection is performed independently in each of the relatively high bands in the spatial frequency plane representing

より詳細には、第1エッジ検出部153a及び第2エッジ検出部153bは、まず、それぞれがエッジ検出対象とする空間周波数帯域を、図4に示したような互いに異なる2種類の周波数フィルタ(例えば帯域の異なる2種類のバンドパスフィルタ)の何れかを用いることで分別する。例えば、第1エッジ検出部153aが相対的に低い周波数帯域に対してエッジ検出を行い、第2エッジ検出部153bが相対的に高い周波数帯域に対してエッジ検出を行う場合、第1エッジ検出部153aは図4に示したようなバンドパスフィルタを用いて周波数帯域を分別するとともに、第2エッジ検出部153bは図4に示したようなバンドパスフィルタを用いて周波数帯域を分別する。また、高周波数帯域用のバンドパスフィルタの代わりに、ハイパスフィルタを用いてもよい。   More specifically, the first edge detection unit 153a and the second edge detection unit 153b first select two different frequency filters (for example, different spatial frequency bands as shown in FIG. Classification is performed by using either of two types of bandpass filters having different bands. For example, when the first edge detection unit 153a performs edge detection for a relatively low frequency band and the second edge detection unit 153b performs edge detection for a relatively high frequency band, the first edge detection unit 153a separates the frequency band using a bandpass filter as shown in FIG. 4, and the second edge detector 153b separates the frequency band using a bandpass filter as shown in FIG. Further, a high pass filter may be used instead of the band pass filter for the high frequency band.

その後、第1エッジ検出部153a及び第2エッジ検出部153bは、それぞれの空間周波数帯域について、所定の大きさの2次元エッジ検出フィルタを用いて、互いに独立にエッジ検出処理を実施する。このような2次元エッジ検出フィルタについては、特に限定されるものではなく、例えば、5×5の2次元FIR(Finite Impulse Response)フィルタや、7×7の2次元FIRフィルタ等を利用することが可能である。   Thereafter, the first edge detection unit 153a and the second edge detection unit 153b perform edge detection processing independently of each other using a two-dimensional edge detection filter having a predetermined size for each spatial frequency band. Such a two-dimensional edge detection filter is not particularly limited, and for example, a 5 × 5 two-dimensional FIR (Finite Impulse Response) filter, a 7 × 7 two-dimensional FIR filter, or the like may be used. Is possible.

それぞれのエッジ検出部153で互いに独立して検出されたエッジに関する情報(例えば、FIRフィルタの出力値)は、後述する複数のゲイン調整部155に出力される。   Information (for example, the output value of the FIR filter) regarding edges detected independently of each other by the respective edge detection units 153 is output to a plurality of gain adjustment units 155 described later.

なお、第1エッジ検出部153a及び第2エッジ検出部153bのどちらがどの周波数帯域におけるエッジ検出処理を行うかについては、特に限定されるものではない。   In which frequency band the first edge detection unit 153a and the second edge detection unit 153b perform edge detection processing is not particularly limited.

複数のゲイン調整部155は、複数のエッジ検出部153のそれぞれに対応して設けられており、対応するエッジ検出部153により検出されたエッジ成分に対して、コントラスト算出部151により算出されたコントラスト値に応じたゲイン調整を行う。   The plurality of gain adjustment units 155 are provided corresponding to each of the plurality of edge detection units 153, and the contrast calculated by the contrast calculation unit 151 for the edge component detected by the corresponding edge detection unit 153. Adjust the gain according to the value.

より詳細には、本実施形態では、図3に示したように、第1エッジ検出部153aに対応して第1ゲイン調整部155aが設けられており、第2エッジ検出部153bに対応して第2ゲイン調整部155bが設けられている。   More specifically, in the present embodiment, as shown in FIG. 3, a first gain adjustment unit 155a is provided corresponding to the first edge detection unit 153a, and corresponding to the second edge detection unit 153b. A second gain adjustment unit 155b is provided.

まず、第1ゲイン調整部155a及び第2ゲイン調整部155bは、各ゲイン調整部に対応して予め設定されているゲイン補正曲線をそれぞれ取得する。これらゲイン補正曲線は、例えば図5に例示したように、互いに異なる補正曲線の形状を有している。例えば、図5に示した第1ゲイン補正曲線は、コントラスト値が低い領域では、補正係数の値は1に近い値となっており、コントラスト値が高くなるにつれて補正係数の値が減少していくようになっている。一方、図5に示した第2ゲイン補正曲線は、中程度のコントラスト値までは補正係数の値は1に近い値となっており、コントラスト値が高い領域で急激に補正係数が低下するようなものとなっている。   First, the first gain adjustment unit 155a and the second gain adjustment unit 155b each acquire a gain correction curve set in advance corresponding to each gain adjustment unit. These gain correction curves have, for example, different correction curve shapes as illustrated in FIG. For example, in the first gain correction curve shown in FIG. 5, in the region where the contrast value is low, the correction coefficient value is close to 1, and the correction coefficient value decreases as the contrast value increases. It is like that. On the other hand, in the second gain correction curve shown in FIG. 5, the value of the correction coefficient is close to 1 up to an intermediate contrast value, and the correction coefficient suddenly decreases in a region where the contrast value is high. It has become a thing.

コントラスト値が高い領域では、物体の輪郭など元来シャープネスが相対的に高くなっている。そのため、図5に示した2種類のゲイン補正曲線を用いることで、高コントラスト値領域では、低コントラスト値領域に対して相対的にエッジ強調を弱めることが可能となり、過度なエッジ強調を抑制することが可能となる。また、互いに異なる形状を有するゲイン補正曲線を利用してゲイン調整を行うため、異なる空間周波数帯域に対して、異なるゲイン制御を行うことが可能となる。   In areas where the contrast value is high, the sharpness such as the contour of the object is originally relatively high. Therefore, by using the two types of gain correction curves shown in FIG. 5, in the high contrast value region, it becomes possible to weaken the edge enhancement relative to the low contrast value region, thereby suppressing excessive edge enhancement. It becomes possible. Moreover, since gain adjustment is performed using gain correction curves having different shapes, different gain control can be performed for different spatial frequency bands.

なお、それぞれのゲイン補正曲線の形状は、図5に示した例に限定されるものではなく、ゲイン調整の方針に応じて適宜決定することが可能である。   Note that the shape of each gain correction curve is not limited to the example shown in FIG. 5, and can be determined as appropriate according to the policy of gain adjustment.

第1ゲイン調整部155a及び第2ゲイン調整部155bは、以上説明したような各ゲイン補正曲線とコントラスト値とに基づいて補正係数を決定し、対応するエッジ検出部から出力された出力値に対して決定した補正係数を乗じて、ゲイン値を算出する。   The first gain adjustment unit 155a and the second gain adjustment unit 155b determine a correction coefficient based on each gain correction curve and the contrast value as described above, and output the output value output from the corresponding edge detection unit. The gain value is calculated by multiplying the correction coefficient determined in the above.

第1ゲイン調整部155a及び第2ゲイン調整部155bは、算出したゲイン値に関する情報を、後述する複数のスムージング処理部157に出力する。   The first gain adjustment unit 155a and the second gain adjustment unit 155b output information on the calculated gain value to a plurality of smoothing processing units 157 described later.

なお、画像処理装置10の設定条件等によっては、エッジ強調部131の後段に設けられた後処理部133において、入力画像の拡大/縮小処理のような画像サイズの変更処理を行うことが予め決まっている場合も存在しうる。このような際には、各ゲイン調整部155は、対応するゲイン補正曲線の特性を画像サイズの変更処理に応じて変化させた上で、上記のようなゲイン調整(すなわち、ゲイン値の算出処理)を行ってもよい。画像サイズの変更処理は、着目している入力画像の空間周波数を変化させる処理であるともいえる。従って、各ゲイン調整部155は、「ゲイン抑制の度合いを弱めるようにゲイン補正曲線を修正する」、「ゲインを強調させるようにゲイン補正曲線を修正する」などの処理を行っても良い。このような処理を行うことで、画像サイズを変更した後の画像の品質を高く維持することが可能となる。   Depending on the setting conditions of the image processing apparatus 10 and the like, it is determined in advance that the post-processing unit 133 provided at the subsequent stage of the edge emphasizing unit 131 performs image size changing processing such as input image enlargement / reduction processing. There may be cases. In such a case, each gain adjustment unit 155 changes the characteristics of the corresponding gain correction curve in accordance with the image size change process, and then performs the gain adjustment as described above (that is, the gain value calculation process). ) May be performed. It can be said that the image size changing process is a process of changing the spatial frequency of the input image of interest. Accordingly, each gain adjustment unit 155 may perform processes such as “correct the gain correction curve so as to weaken the degree of gain suppression”, “correct the gain correction curve so as to enhance the gain”, and the like. By performing such processing, it is possible to maintain high image quality after changing the image size.

複数のスムージング処理部157は、複数のゲイン調整部155のそれぞれに対応して設けられており、対応するエッジ検出部153により検出され、ゲイン調整部155によりゲインの調整されたエッジ成分に対して、平滑化処理を実施する。   The plurality of smoothing processing units 157 are provided corresponding to each of the plurality of gain adjustment units 155, and are detected by the corresponding edge detection unit 153, and the edge component whose gain is adjusted by the gain adjustment unit 155. , Smoothing processing is performed.

より詳細には、本実施形態では、図3に示したように、第1エッジ検出部153a及び第1ゲイン調整部155aに対応して第1スムージング処理部157aが設けられており、第2エッジ検出部153b及び第2ゲイン調整部155bに対応して第2スムージング処理部157bが設けられている。   More specifically, in the present embodiment, as shown in FIG. 3, a first smoothing processing unit 157a is provided corresponding to the first edge detection unit 153a and the first gain adjustment unit 155a, and the second edge A second smoothing processing unit 157b is provided corresponding to the detection unit 153b and the second gain adjustment unit 155b.

これら第1スムージング処理部157a及び第2スムージング処理部157bは、対応するゲイン調整部155から出力されたエッジ成分の方向を特定した後、エッジ成分の方向の加重平均を算出して、エッジ成分を平滑化する。これにより、孤立点ノイズ等のノイズ成分を抑制したエッジ強調が可能となる。また、エッジの連結性を高めることも可能となるため、斜め線に発生しやすいジャギーを抑制した(目立たなくした)エッジ強調が可能となる。   The first smoothing processing unit 157a and the second smoothing processing unit 157b specify the direction of the edge component output from the corresponding gain adjustment unit 155, and then calculate a weighted average of the direction of the edge component to obtain the edge component. Smooth. This makes it possible to perform edge enhancement while suppressing noise components such as isolated point noise. In addition, since it is possible to improve edge connectivity, it is possible to perform edge enhancement in which jaggies that are likely to occur in oblique lines are suppressed (not noticeable).

以下、第1スムージング処理部157a及び第2スムージング処理部157bのそれぞれで実施される平滑化処理(スムージング処理)について、図6を参照しながら、具体的に説明する。   Hereinafter, the smoothing process (smoothing process) performed by each of the first smoothing processing unit 157a and the second smoothing processing unit 157b will be specifically described with reference to FIG.

第1スムージング処理部157a及び第2スムージング処理部157bは、図6上段に示した方向判定オペレータD(n=0〜3)を利用して、ゲイン調整後のエッジ成分(例えば3×3の大きさのエッジ成分)の方向を判断する。具体的には、第1スムージング処理部157a及び第2スムージング処理部157bは、着目しているエッジ成分に対して、各方向判定オペレータDを作用させて、対応する算出値を取得する。その上で、第1スムージング処理部157a及び第2スムージング処理部157bは、最大の算出値を与える方向判定オペレータDに対応する方向が、エッジ成分の方向であると判断する。 The first smoothing processing unit 157a and the second smoothing processing unit 157b use the direction determination operator D n (n = 0 to 3) shown in the upper part of FIG. 6 to obtain edge components (for example, 3 × 3) after gain adjustment. The direction of the edge component) is determined. More specifically, the first smoothing processing unit 157a and the second smoothing unit 157b, to the edge component of interest, by the action of the direction determination operator D n, to obtain the corresponding calculated value. On top of that, the first smoothing processing unit 157a and the second smoothing unit 157b includes a direction corresponding to the direction determination operator D n giving the maximum calculated value is determined to be the direction of the edge components.

次に、第1スムージング処理部157a及び第2スムージング処理部157bは、図6下段に示したように、最大の算出値を与える方向判定オペレータDのインデックス(n)を利用して、このインデックスのスムージングオペレータを選択する。その後、第1スムージング処理部157a及び第2スムージング処理部157bは、選択したスムージングオペレータを着目しているエッジ成分に対して作用させて、出力値を得る。第1スムージング処理部157a及び第2スムージング処理部157bは、得られた出力値を平滑化処理の処理結果として、後段の画像補正部159に出力する。 Then, the first smoothing processing unit 157a and the second smoothing processing unit 157b, as shown in the lower part 6, by using the index of the direction determination operator D n giving the maximum calculated value (n), the index Select a smoothing operator. Thereafter, the first smoothing processing unit 157a and the second smoothing processing unit 157b cause the selected smoothing operator to act on the focused edge component to obtain an output value. The first smoothing processing unit 157a and the second smoothing processing unit 157b output the obtained output value to the subsequent image correction unit 159 as a processing result of the smoothing processing.

画像補正部159は、複数のスムージング処理部157からそれぞれ出力された出力値に基づいて、入力画像に対してエッジ強調処理を行う。より詳細には、画像補正部159は、図3に示したように、複数のスムージング処理部157からそれぞれ出力された出力値の合計を算出してエッジ強調量とし、算出したエッジ強調量を入力画像に対して加算することで、エッジ強調処理を行う。これにより、ノイズの影響を減らしつつ画像品質を高めることが可能となる。   The image correction unit 159 performs edge enhancement processing on the input image based on the output values output from the plurality of smoothing processing units 157, respectively. More specifically, as shown in FIG. 3, the image correction unit 159 calculates the sum of output values respectively output from the plurality of smoothing processing units 157 as an edge enhancement amount, and inputs the calculated edge enhancement amount. Edge enhancement processing is performed by adding to the image. Thereby, it is possible to improve the image quality while reducing the influence of noise.

以上、本実施形態に係る画像処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。   Heretofore, an example of the function of the image processing apparatus 10 according to the present embodiment has been shown. Each component described above may be configured using a general-purpose member or circuit, or may be configured by hardware specialized for the function of each component. In addition, the CPU or the like may perform all functions of each component. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at the time of carrying out the present embodiment.

なお、上述のような本実施形態に係る画像処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。   It should be noted that a computer program for realizing each function of the image processing apparatus according to the present embodiment as described above can be produced and installed in a personal computer or the like. In addition, a computer-readable recording medium storing such a computer program can be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.

<画像処理方法の流れについて>
次に、図7を参照しながら、本実施形態に係る画像処理装置10における画像処理方法の流れについて、簡単に説明する。図7は、本実施形態に係る画像処理方法の流れの一例を示した流れ図である。
<Flow of image processing method>
Next, the flow of the image processing method in the image processing apparatus 10 according to the present embodiment will be briefly described with reference to FIG. FIG. 7 is a flowchart showing an example of the flow of the image processing method according to the present embodiment.

本実施形態に係る画像処理方法では、まず、エッジ強調部131が処理対象画像(すなわち、図3における入力画像)を取得する(ステップS101)。その後、エッジ強調部131のコントラスト算出部151は、処理対象画像のコントラスト値を算出する(ステップS103)。   In the image processing method according to the present embodiment, first, the edge enhancement unit 131 acquires a processing target image (that is, the input image in FIG. 3) (step S101). Thereafter, the contrast calculation unit 151 of the edge enhancement unit 131 calculates the contrast value of the processing target image (step S103).

また、エッジ強調部131に設けられた複数のエッジ検出部153は、互いに異なる周波数帯域(例えば、高域・中域の周波数帯域)におけるエッジ成分をそれぞれ検出する(ステップS105)。その後、各エッジ検出部153は、それぞれのエッジ検出部153の後段に設けられたゲイン調整部155に対して、得られた検出結果を出力する。   Further, the plurality of edge detection units 153 provided in the edge enhancement unit 131 respectively detect edge components in different frequency bands (for example, high frequency band and mid frequency band) (step S105). Thereafter, each edge detection unit 153 outputs the obtained detection result to the gain adjustment unit 155 provided at the subsequent stage of each edge detection unit 153.

続いて、各エッジ検出部153の後段に設けられたゲイン調整部155のそれぞれでは、各周波数帯域(例えば、高域・中域の周波数帯域)のゲインをそれぞれ調整する(ステップS107)。その後、各ゲイン調整部155は、それぞれのゲイン調整部155の後段に設けられたスムージング処理部157に対して、ゲイン調整後のエッジ成分を出力する。   Subsequently, in each of the gain adjustment units 155 provided at the subsequent stage of each edge detection unit 153, the gain of each frequency band (for example, the high frequency band / mid frequency band) is adjusted (step S107). Thereafter, each gain adjustment unit 155 outputs the edge component after gain adjustment to the smoothing processing unit 157 provided at the subsequent stage of each gain adjustment unit 155.

次に、各スムージング処理部157は、各ゲイン調整部155から出力されたゲイン調整後のエッジ成分(例えば、高域・中域の周波数帯域のエッジ成分に対して、スムージング処理を実施する(ステップS109)。その後、各スムージング処理部157は、得られた処理結果を、後段に設けられた画像補正部159に出力する。   Next, each smoothing processing unit 157 performs a smoothing process on the edge component after gain adjustment (for example, the edge component of the high frequency band / mid frequency band) output from each gain adjustment unit 155 (Step S1). Thereafter, each smoothing processing unit 157 outputs the obtained processing result to the image correction unit 159 provided in the subsequent stage.

画像補正部159は、各スムージング処理部157から出力された出力結果に基づき、エッジ強調量を算出する(ステップS111)。その後、画像補正部159は、算出したエッジ強調量を処理対象画像に加算することで、処理対象画像のエッジを強調する(ステップS113)。これにより、エッジ強調がなされ、シャープネスが向上した画像が生成されることとなる。その後、画像補正部159は、エッジ強調後の処理対象画像を出力する(ステップS113)。   The image correction unit 159 calculates an edge enhancement amount based on the output result output from each smoothing processing unit 157 (step S111). Thereafter, the image correction unit 159 enhances the edge of the processing target image by adding the calculated edge enhancement amount to the processing target image (step S113). Thereby, edge enhancement is performed, and an image with improved sharpness is generated. Thereafter, the image correction unit 159 outputs the processing target image after edge enhancement (step S113).

このような処理が行われることで、ノイズの影響を抑制しつつエッジ強調を行い、画像品質を向上させることが可能となる。   By performing such processing, edge enhancement can be performed while suppressing the influence of noise, and image quality can be improved.

<実施例>
図8は、車のサイドミラーを写した画像を入力画像として用い、本実施形態に係る画像処理方法を利用してエッジ強調処理を行ったもののエッジ画像を示している。この処理では、図3に示したような構成を有するエッジ強調部を用いることで、エッジ強調処理を行っている。
<Example>
FIG. 8 shows an edge image obtained by performing an edge enhancement process using the image processing method according to the present embodiment, using an image of a side mirror of a car as an input image. In this processing, edge enhancement processing is performed by using an edge enhancement section having a configuration as shown in FIG.

図8(a)に示したように、一般的なエッジ強調処理後では、サイドミラーの輪郭がギザギザしているのに対し、図8(b)に示したように、本実施形態に係るエッジ強調処理を施すことで、サイドミラーの輪郭が滑らかにつながっていることがわかる。   As shown in FIG. 8A, after the general edge enhancement processing, the contour of the side mirror is jagged, whereas as shown in FIG. 8B, the edge according to the present embodiment. It can be seen that the contours of the side mirrors are smoothly connected by performing the enhancement process.

このように、本実施形態に係る画像処理装置及び画像処理方法を用いることで、物体輪郭の過強調や斜め線のジャギーを目立たせることなく、シャープネスを向上させた高品質の画像を提供することが可能となる。   As described above, by using the image processing apparatus and the image processing method according to the present embodiment, it is possible to provide a high-quality image with improved sharpness without conspicuous over-emphasis of an object outline or jaggy of oblique lines. Is possible.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 撮像装置
101 CPU/DSP
103 ROM
105 RAM
107 撮像光学系
109 撮像素子
111 光学系駆動部
113 画像処理部
115 投光光源
117 表示制御部
119 表示装置(LCD/EVF)
121 操作インタフェース(操作I/F)
123 操作部
125 記録メディアインタフェース(記録メディアI/F)
127 記録メディア
131 エッジ強調部
133 後処理部
151 コントラスト算出部
153 エッジ検出部
153a 第1エッジ検出部
153b 第2エッジ検出部
155 ゲイン調整部
155a 第1ゲイン調整部
155b 第2ゲイン調整部
157 スムージング処理部
157a 第1スムージング処理部
157b 第2スムージング処理部
159 画像補正部
10 Imaging device 101 CPU / DSP
103 ROM
105 RAM
DESCRIPTION OF SYMBOLS 107 Image pick-up optical system 109 Image pick-up element 111 Optical system drive part 113 Image processing part 115 Light projection light source 117 Display control part 119 Display apparatus (LCD / EVF)
121 Operation interface (operation I / F)
123 Operation unit 125 Recording media interface (recording media I / F)
127 Recording medium 131 Edge enhancement unit 133 Post processing unit 151 Contrast calculation unit 153 Edge detection unit 153a First edge detection unit 153b Second edge detection unit 155 Gain adjustment unit 155a First gain adjustment unit 155b Second gain adjustment unit 157 Smoothing processing Unit 157a first smoothing processing unit 157b second smoothing processing unit 159 image correction unit

Claims (7)

入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出部と、
前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行う複数のエッジ検出部と、
前記複数のエッジ検出部のそれぞれに対応して設けられ、対応する当該エッジ検出部により検出された前記エッジ成分に対して、前記コントラスト値に応じたゲイン調整を行う複数のゲイン調整部と、
前記複数のゲイン調整部のそれぞれに対応して設けられ、検出された前記エッジ成分を平滑化する複数のスムージング処理部と、
前記複数のスムージング処理部からそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正部と、
を備える
ことを特徴とする、画像処理装置。
A contrast calculation unit that detects the contrast of the input image and calculates a contrast value corresponding to the detected contrast;
A plurality of edge detectors that detect edge components independently of each other in different frequency bands with respect to the input image;
A plurality of gain adjustment units provided corresponding to each of the plurality of edge detection units, and performing gain adjustment according to the contrast value for the edge components detected by the corresponding edge detection unit;
A plurality of smoothing processing units provided corresponding to each of the plurality of gain adjustment units and smoothing the detected edge component;
An image correction unit that performs edge enhancement processing on the input image based on output values respectively output from the plurality of smoothing processing units;
An image processing apparatus comprising:
前記スムージング処理部は、検出された前記エッジ成分の方向を特定した後、当該エッジ成分の方向の加重平均を算出して前記エッジ成分を平滑化する
ことを特徴とする、請求項1に記載の画像処理装置。
2. The smoothing processing unit according to claim 1, wherein the smoothing processing unit smoothes the edge component by calculating a weighted average of the direction of the edge component after specifying the direction of the detected edge component. 3. Image processing device.
前記画像補正部は、前記複数のスムージング処理部からそれぞれ出力された出力値の合計を算出してエッジ強調量とし、当該エッジ強調量を前記入力画像に対して加算することでエッジ強調処理を行う
ことを特徴とする、請求項1又は2に記載の画像処理装置。
The image correction unit calculates the sum of output values output from the plurality of smoothing processing units to obtain an edge enhancement amount, and performs edge enhancement processing by adding the edge enhancement amount to the input image. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記複数のゲイン調整部のそれぞれは、互いに異なるゲイン補正曲線と、前記コントラスト値に応じて、前記ゲイン調整を行う
ことを特徴とする、請求項1〜3の何れか1項に記載の画像処理装置。
4. The image processing according to claim 1, wherein each of the plurality of gain adjustment units performs the gain adjustment according to different gain correction curves and the contrast value. 5. apparatus.
前記複数のゲイン調整部は、前記エッジ強調処理の後段に画像サイズの変更処理が行われる場合、対応する前記ゲイン補正曲線の特性を前記画像サイズの変更処理に応じて変化させた上で前記ゲイン調整を行う
ことを特徴とする、請求項4に記載の画像処理装置。
When the image size changing process is performed after the edge enhancement process, the plurality of gain adjusting units change the characteristics of the corresponding gain correction curve according to the image size changing process, and then the gain The image processing apparatus according to claim 4, wherein adjustment is performed.
入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出ステップと、
前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行うエッジ検出ステップと、
前記互いに異なる周波数帯域において、検出された前記エッジ成分に対して前記コントラスト値に応じたゲイン調整を互いに独立して行うゲイン調整ステップと、
前記互いに異なる周波数帯域において、検出された前記エッジ成分を互いに独立に平滑化するスムージング処理ステップと、
前記スムージング処理ステップにてそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正ステップと、
を含む
ことを特徴とする、画像処理方法。
A contrast calculating step for detecting a contrast of the input image and calculating a contrast value corresponding to the detected contrast;
An edge detection step for detecting edge components independently of each other in different frequency bands from the input image;
A gain adjustment step of performing gain adjustment according to the contrast value independently of each other on the detected edge components in the different frequency bands;
Smoothing processing steps for smoothing the detected edge components independently from each other in the different frequency bands;
An image correction step for performing edge enhancement processing on the input image based on the output values respectively output in the smoothing processing step;
An image processing method comprising:
コンピュータに、
入力画像のコントラストを検出して、検出した当該コントラストに対応するコントラスト値を算出するコントラスト算出機能と、
前記入力画像に対して、互いに異なる周波数帯域で互いに独立してエッジ成分の検出を行う複数のエッジ検出機能と、
前記複数のエッジ検出機能のそれぞれに対応して設けられ、対応する当該エッジ検出機能により検出された前記エッジ成分に対して、前記コントラスト値に応じたゲイン調整を行う複数のゲイン調整機能と、
前記複数のゲイン調整機能のそれぞれに対応して設けられ、検出された前記エッジ成分を平滑化する複数のスムージング処理機能と、
前記複数のスムージング処理機能からそれぞれ出力された出力値に基づいて、前記入力画像に対してエッジ強調処理を行う画像補正機能と、
を実現させるためのプログラム。
On the computer,
A contrast calculation function for detecting the contrast of the input image and calculating a contrast value corresponding to the detected contrast;
A plurality of edge detection functions for detecting edge components independently of each other in different frequency bands from the input image;
A plurality of gain adjustment functions that are provided corresponding to each of the plurality of edge detection functions, and that perform gain adjustment according to the contrast value for the edge components detected by the corresponding edge detection functions;
A plurality of smoothing processing functions provided corresponding to each of the plurality of gain adjustment functions, and smoothing the detected edge component;
An image correction function for performing edge enhancement processing on the input image based on output values respectively output from the plurality of smoothing processing functions;
A program to realize
JP2012265773A 2012-12-04 2012-12-04 Image processing device, image processing method, and program Pending JP2014110624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012265773A JP2014110624A (en) 2012-12-04 2012-12-04 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012265773A JP2014110624A (en) 2012-12-04 2012-12-04 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2014110624A true JP2014110624A (en) 2014-06-12

Family

ID=51030992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265773A Pending JP2014110624A (en) 2012-12-04 2012-12-04 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2014110624A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208476A (en) * 2015-04-28 2016-12-08 ブラザー工業株式会社 Image processing apparatus and computer program
WO2017006401A1 (en) * 2015-07-03 2017-01-12 オリンパス株式会社 Image processing device, image processing method, and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016208476A (en) * 2015-04-28 2016-12-08 ブラザー工業株式会社 Image processing apparatus and computer program
WO2017006401A1 (en) * 2015-07-03 2017-01-12 オリンパス株式会社 Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
US8023000B2 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
JP4582423B2 (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP6157242B2 (en) Image processing apparatus and image processing method
JP6711396B2 (en) Image processing device, imaging device, image processing method, and program
US10511781B2 (en) Image pickup apparatus, control method for image pickup apparatus
US20190132495A1 (en) Image processing method, and device
JP5988068B2 (en) System and method for performing depth estimation by utilizing an adaptive kernel
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
US9489721B2 (en) Image processing apparatus, image processing method, and storage medium
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
KR101720189B1 (en) Digital photographing apparatus and control method thereof
JP2014110624A (en) Image processing device, image processing method, and program
US20160284061A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6020904B2 (en) Image processing apparatus and imaging apparatus
US8643730B2 (en) Imaging device and image capturing method
JP5673454B2 (en) Image processing apparatus, image processing method, and program
US9710897B2 (en) Image processing apparatus, image processing method, and recording medium
JP2010098663A (en) Imaging apparatus
JP6556033B2 (en) Image processing apparatus, image processing method, and program
US11115582B2 (en) Imaging control apparatus, imaging apparatus, and recording medium
JP6436840B2 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP6029464B2 (en) Imaging device, control method thereof, and control program
JP2010079815A (en) Image correction device
JP2017147498A (en) Image processing apparatus, image processing method and program
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program