JP6433177B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6433177B2
JP6433177B2 JP2014136298A JP2014136298A JP6433177B2 JP 6433177 B2 JP6433177 B2 JP 6433177B2 JP 2014136298 A JP2014136298 A JP 2014136298A JP 2014136298 A JP2014136298 A JP 2014136298A JP 6433177 B2 JP6433177 B2 JP 6433177B2
Authority
JP
Japan
Prior art keywords
image
subject
image processing
processing
undershoot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014136298A
Other languages
Japanese (ja)
Other versions
JP2016015600A (en
Inventor
小笠原 努
努 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014136298A priority Critical patent/JP6433177B2/en
Publication of JP2016015600A publication Critical patent/JP2016015600A/en
Application granted granted Critical
Publication of JP6433177B2 publication Critical patent/JP6433177B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像内の被写体に対して輪郭を強調する輪郭強調処理の画像処理に関する。   The present invention relates to image processing of contour emphasis processing for enhancing a contour for a subject in an image.

近年のデジタルカメラにおいて、光学系素子や撮像素子の進化によって、明所での撮影から暗所での撮影まで、また近い被写体の撮影から遠い被写体の撮影など撮影可能な被写体の幅が広がっている。   In recent digital cameras, the evolution of optical elements and image sensors has expanded the range of subjects that can be taken, from shooting in a bright place to shooting in a dark place, and shooting from a close subject to a far subject. .

しかし、上記の従来のデジタルカメラにおいては、被写体や撮影シーンに対応して画像処理が行なわれているものの、被写体や撮影シーンの種類によっては画像処理が適切に行われない場合がある。たとえば、被写体や撮影シーンに対応した画像処理のうち、被写体をくっきり見せるための輪郭強調処理に関して、被写体の色温度や撮影感度に応じて輪郭強調の強調量を可変する方法(特許文献1)や、撮影モードにより輪郭強調の強調量を可変する方法(特許文献2)などが提案されている。   However, in the above-described conventional digital camera, image processing is performed corresponding to the subject and the shooting scene, but depending on the type of the subject and the shooting scene, the image processing may not be appropriately performed. For example, among image processing corresponding to a subject and a shooting scene, with respect to the contour enhancement processing for clearly showing the subject, a method of changing the amount of enhancement of contour enhancement according to the color temperature and photographing sensitivity of the subject (Patent Document 1) A method (Patent Document 2) or the like for changing the amount of enhancement for contour enhancement according to the photographing mode has been proposed.

特開2004−247872号公報Japanese Patent Laid-Open No. 2004-247872 特開2002−281348号公報JP 2002-281348 A

しかしながら、輪郭強調の強調の度合い(強調量、強度)を何れの被写体に対しても一律に可変した場合、たとえば夜空の星をくっきりさせるために強調量を上げて輪郭強調の処理しようとすると、輪郭を強調したくない背景被写体も強調してしまう。   However, if the degree of enhancement (enhancement amount, intensity) of the contour enhancement is uniformly changed for any subject, for example, if the enhancement amount is increased to sharpen the stars in the night sky, The background subject that does not want to emphasize the outline is also emphasized.

本発明に係る画像処理装置は、前記画像内の被写体の種類を判定する被写体判定手段と、前記被写体の輪郭を強調する輪郭強調処理を行う処理手段と、前記被写体判定手段により夜空領域と判定された領域に対し、オーバーシュートをアンダーシュートに対して強める前記輪郭強調処理を行い、前記夜空領域と判定されなかった他の領域に対しては前記輪郭強調処理を行わない、またはオーバーシュート量とアンダーシュート量の比率を変更しないよう前記処理手段を制御する制御手段と、を備えることを特徴とする。 An image processing apparatus according to the present invention is determined to be a night sky region by a subject determination unit that determines a type of a subject in the image, a processing unit that performs a contour enhancement process for enhancing a contour of the subject, and the subject determination unit. The contour enhancement process for strengthening the overshoot against the undershoot is performed on the other areas, and the contour enhancement process is not performed on the other areas not determined as the night sky area, or the overshoot amount and the undershoot are performed. Control means for controlling the processing means so as not to change the ratio of the amount of shoots .

本発明によれば、過剰な輪郭強調や輪郭強調による画像内でのノイズ増加等の弊害を軽減することができる。   According to the present invention, it is possible to reduce adverse effects such as excessive edge enhancement and noise increase in an image due to edge enhancement.

第1の実施形態の撮像装置の構成である。It is a structure of the imaging device of 1st Embodiment. 第1の実施形態の画像処理回路の構成である。1 is a configuration of an image processing circuit according to a first embodiment. 第1の実施形態の画像処理回路のうち、エッジ強調回路の構成である。It is the structure of an edge emphasis circuit among the image processing circuits of 1st Embodiment. 第1の実施形態の領域判定を説明する図である。It is a figure explaining the area | region determination of 1st Embodiment. 第2の実施形態のシーン判定の動作フローである。It is an operation | movement flow of the scene determination of 2nd Embodiment.

以下、図面を参照して、本発明の実施形態にかかる画像処理装置を詳細に説明する。以下の説明において、画像処理装置の一例としてデジタルカメラを採用して画像処理装置を説明するが、これに限定されない。   Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In the following description, a digital camera will be described as an example of an image processing apparatus, but the image processing apparatus will be described. However, the present invention is not limited to this.

(第1の実施形態)
図1から図4を参照して、第1の実施形態にかかる画像処理装置100を説明する。
(First embodiment)
An image processing apparatus 100 according to the first embodiment will be described with reference to FIGS. 1 to 4.

図1は、実施形態の画像処理装置100の構成を示している。   FIG. 1 shows a configuration of an image processing apparatus 100 according to the embodiment.

画像処理装置100は、フォーカスレンズを含む撮影レンズ10、絞り機能を備える機械式シャッター12を備える。また、画像処理装置100は、撮影レンズ10及びシャッター12などの光学系から入射される光学像を電気信号に変換する撮像素子14、撮像素子14のアナログ信号出力をデジタル信号に変換するA/D(アナログ/デジタル)変換器16を更に備える。   The image processing apparatus 100 includes a photographing lens 10 including a focus lens, and a mechanical shutter 12 having a diaphragm function. The image processing apparatus 100 also converts an optical image incident from an optical system such as the photographing lens 10 and the shutter 12 into an electrical signal, and an analog signal output from the imaging element 14 is converted into a digital signal. An (analog / digital) converter 16 is further provided.

撮像素子14、A/D変換器16にクロック信号や制御信号を供給するタイミング発生回路18は、メモリ制御回路22及びシステム制御回路50により制御される。機械式シャッター12以外にも、タイミング発生回路18による撮像素子14のリセットタイミングの制御によって、電子シャッタとして、蓄積時間を制御することが可能であり、動画撮影などに使用可能である。   The timing generation circuit 18 that supplies a clock signal and a control signal to the image sensor 14 and the A / D converter 16 is controlled by the memory control circuit 22 and the system control circuit 50. In addition to the mechanical shutter 12, the storage time can be controlled as an electronic shutter by controlling the reset timing of the image sensor 14 by the timing generation circuit 18 and can be used for moving image shooting and the like.

画像処理回路20は、A/D変換器16からのデータ或いはメモリ制御回路22からのデータに対して所定の画素補間処理や色変換処理を行う。また、画像処理回路20によって画像の切り出し、変倍処理を行うことで電子ズーム機能が実現することができる。また、画像処理回路20においては、撮像した画像データを用いて所定の演算処理を行う。   The image processing circuit 20 performs predetermined pixel interpolation processing and color conversion processing on the data from the A / D converter 16 or the data from the memory control circuit 22. Further, an electronic zoom function can be realized by performing image clipping and scaling processing by the image processing circuit 20. Further, the image processing circuit 20 performs predetermined arithmetic processing using the captured image data.

画像処理回路20で得られた演算結果に基づいて、システム制御回路50が露光制御手段40、測距制御手段42に対して、AF(オートフォーカス)処理、AE(自動露光)処理、EF(フラッシュ調光)処理を行う。さらに、画像処理回路20は、画像データに対してAWB(オートホワイトバランス)処理も行うことができる。   Based on the calculation result obtained by the image processing circuit 20, the system control circuit 50 performs AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash) on the exposure control means 40 and the distance measurement control means 42. Dimming) processing. Further, the image processing circuit 20 can also perform AWB (auto white balance) processing on the image data.

さらに、画像処理回路20は被写体検出回路を含む構成であってもよく、被写体検出方法としてはパターンマッチング、特徴点抽出などの方法を適用することが可能である。   Further, the image processing circuit 20 may include a subject detection circuit. As a subject detection method, a method such as pattern matching or feature point extraction can be applied.

なお、本実施形態においては、画像処理装置20は、人物被写体の顔、風景被写体の夜空を検出する例を用いて説明しているが、これらの被写体の種類に限定されず、他の種類の被写体を検出してもよい。なお、画像処理装置20は、人物被写体の顔を検出する顔検出回路として機能することが可能であり、検出結果として顔領域の位置(座標)、さらに詳細には目の位置(座標)などが領域情報(座標)とともに出力することができる。   In the present embodiment, the image processing apparatus 20 has been described using an example of detecting the face of a human subject and the night sky of a landscape subject. However, the present invention is not limited to these types of subjects, and other types of subjects can be used. A subject may be detected. The image processing apparatus 20 can function as a face detection circuit that detects the face of a human subject, and the detection result includes the position (coordinates) of the face area, and more specifically, the position (coordinates) of the eyes. It can be output together with area information (coordinates).

メモリ制御回路22は、A/D変換器16、タイミング発生回路18、画像処理回路20、メモリ30、圧縮・伸長回路32を制御する。A/D変換器16から出力された画像データが、画像処理回路20、メモリ制御回路22を介して、或いはA/D変換器16から直接メモリ制御回路22を介して、メモリ30に書き込まれる。   The memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the memory 30, and the compression / decompression circuit 32. The image data output from the A / D converter 16 is written into the memory 30 via the image processing circuit 20 and the memory control circuit 22 or directly from the A / D converter 16 via the memory control circuit 22.

TFT、LCD等から成る画像表示部28は、メモリ20に書き込まれた表示用の画像データをメモリ制御回路22を介して表示する。画像表示部28を用いて、撮像した画像データを逐次表示すれば、電子ファインダー機能を実現することが可能である。また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合には画像処理装置100の電力消費を大幅に低減することが出来る。   The image display unit 28 including a TFT, an LCD, etc. displays the display image data written in the memory 20 via the memory control circuit 22. An electronic viewfinder function can be realized by sequentially displaying captured image data using the image display unit 28. The image display unit 28 can arbitrarily turn on / off the display according to an instruction from the system control circuit 50. When the display is turned off, the power consumption of the image processing apparatus 100 can be greatly reduced. I can do it.

メモリ30は、撮影した静止画像や動画像の画像データを格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像の画像データを格納するのに十分な記憶量を備えている。これにより、複数枚の静止画像を連続して撮影する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ30に対して行うことが可能となる。また、メモリ30はシステム制御回路50の作業領域としても使用することが可能である。   The memory 30 is a memory for storing captured still images and moving image image data, and has a sufficient storage capacity for storing a predetermined number of still images and moving image data for a predetermined time. . This makes it possible to write a large amount of images to the memory 30 at high speed even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. The memory 30 can also be used as a work area for the system control circuit 50.

FlashROM等で構成された不揮発性メモリ31には、システム制御回路50が実行するプログラムコードが書き込まれており、システム制御回路50は、記憶されたプログラムコードを逐次読み出して実行する。また、不揮発性メモリ内にはシステム情報を記憶する領域や、ユーザー設定情報を記憶する領域を設け、さまざまな情報や設定を次回起動時に読み出して、復元することを実現している。   A program code to be executed by the system control circuit 50 is written in the non-volatile memory 31 constituted by a flash ROM or the like, and the system control circuit 50 sequentially reads and executes the stored program code. In addition, an area for storing system information and an area for storing user setting information are provided in the nonvolatile memory, and various information and settings are read and restored at the next startup.

適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する圧縮・伸長回路32は、メモリ30に格納された画像データを読み込んで圧縮処理或いは伸長処理を行い、処理を終えた画像データをメモリ30に書き込む。   A compression / decompression circuit 32 that compresses and decompresses image data by adaptive discrete cosine transform (ADCT) or the like reads the image data stored in the memory 30 and performs compression processing or decompression processing, and the processed image data is stored in the memory 30. Write to.

絞り機能を備えるシャッター12を制御する露光制御手段40は、フラッシュ48と連動することによりフラッシュ調光機能も有するものである。   The exposure control means 40 for controlling the shutter 12 having an aperture function also has a flash light control function in conjunction with the flash 48.

さらに、画像処理装置100は、撮影レンズ10のフォーカシングを制御する測距制御手段42、撮影レンズ10のズーミングを制御するズーム制御手段44を備えている。   Further, the image processing apparatus 100 includes a distance measurement control unit 42 that controls focusing of the photographing lens 10 and a zoom control unit 44 that controls zooming of the photographing lens 10.

フラッシュ48は、AF補助光の投光機能、フラッシュ調光機能も有する。露光制御手段40、測距制御手段42はTTL方式を用いて制御されており、撮像で得られた画像データを画像処理回路20によって演算した演算結果に基づいて、システム制御回路50が露光制御手段40、測距制御手段42に対して制御を行う。   The flash 48 also has an AF auxiliary light projecting function and a flash light control function. The exposure control means 40 and the distance measurement control means 42 are controlled using the TTL method, and the system control circuit 50 uses the exposure control means based on the calculation result obtained by calculating the image data obtained by imaging by the image processing circuit 20. 40, the distance measurement control means 42 is controlled.

システム制御回路50は、画像処理装置100全体を制御する制御回路である。   The system control circuit 50 is a control circuit that controls the entire image processing apparatus 100.

システム制御回路50の各種の動作指示を入力するための操作手段は、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。以下に、これらの操作手段の具体的な説明を行う。   The operation means for inputting various operation instructions of the system control circuit 50 is configured by a single or a plurality of combinations such as a switch, a dial, a touch panel, pointing by visual line detection, and a voice recognition device. In the following, these operating means will be described in detail.

モードダイアルスイッチ60は、電源オフ、自動撮影モード、撮影モード、HDR撮影モード、パノラマ撮影モード、動画撮影モード、再生モード、PC接続モード等の各機能モードを切り替え設定することが出来る。   The mode dial switch 60 can switch and set various function modes such as power-off, automatic shooting mode, shooting mode, HDR shooting mode, panoramic shooting mode, moving image shooting mode, playback mode, and PC connection mode.

シャッタースイッチSW1(62)は、シャッターボタンの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理等の動作開始を指示する。シャッタースイッチSW2(64)は、シャッターボタンの操作完了でONとなる。   The shutter switch SW1 (62) is turned ON during the operation of the shutter button, and instructs to start operations such as AF (autofocus) processing, AE (automatic exposure) processing, and AWB (auto white balance) processing. The shutter switch SW2 (64) is turned on when the operation of the shutter button is completed.

フラッシュ撮影の場合、EF(フラッシュプリ発光)処理を行った後に、AE処理で決定された露光時間分、撮像素子14を露光させる。フラッシュ撮影の場合、この露光期間中に発光させて、露光期間終了と同時に露光制御手段40により遮光することで、撮像素子14への露光を終了させる。また、撮像素子14から読み出した信号を記録媒体200に書き込む記録処理までの一連の処理の動作開始を指示する。より具体的には、A/D変換器16、メモリ制御回路22を介してメモリ30に画像データを書き込む読み出し処理、画像処理回路20やメモリ制御回路22での演算を用いた現像処理、メモリ30から画像データを読み出し、圧縮・伸長回路32での圧縮を行う、などである。   In the case of flash photography, after performing EF (flash pre-emission) processing, the image sensor 14 is exposed for the exposure time determined by the AE processing. In the case of flash photography, light is emitted during this exposure period, and light is shielded by the exposure control means 40 simultaneously with the end of the exposure period, thereby completing the exposure to the image sensor 14. In addition, it instructs the start of a series of processes up to a recording process for writing a signal read from the image sensor 14 to the recording medium 200. More specifically, a read process for writing image data to the memory 30 via the A / D converter 16 and the memory control circuit 22, a development process using computations in the image processing circuit 20 and the memory control circuit 22, and the memory 30. The image data is read out from the image data and compressed by the compression / decompression circuit 32.

表示切替スイッチ66は、画像表示部28の表示切替を行うことが出来る。この機能により、光学ファインダー104を用いて撮影を行う際に、LCD等から成る画像表示部への電流供給を遮断することにより、省電力を図ることが可能となる。   The display changeover switch 66 can change the display of the image display unit 28. With this function, when shooting using the optical viewfinder 104, it is possible to save power by cutting off the current supply to the image display unit such as an LCD.

各種ボタン、タッチパネルや回転式ダイアル等からなる操作部70は、メニューボタン、セットボタン、マクロボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン等がある。またメニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等もある。   The operation unit 70 including various buttons, a touch panel, a rotary dial, and the like includes a menu button, a set button, a macro button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, and the like. Menu move + (plus) button, menu move-(minus) button, playback image move + (plus) button, playback image-(minus) button, shooting quality selection button, exposure compensation button, date / time setting button, etc. is there.

ユーザーが撮像画像の倍率変更指示を行うズーム操作手段としてのズームスイッチ部72は、ズームスイッチ72ともいい、撮像画角を望遠側に変更させるテレスイッチと、広角側に変更させるワイドスイッチからなる。このズームスイッチ72を用いることにより、ズーム制御手段44に撮影レンズ10の撮像画角の変更を指示し光学ズーム操作を行うトリガとなる。また、画像処理回路20による画像の切り出しや、画素補間処理などによる撮像画角の電子的なズーミング変更のトリガともなる。   The zoom switch unit 72 serving as a zoom operation unit for a user to give an instruction to change the magnification of a captured image is also referred to as a zoom switch 72, and includes a tele switch that changes the imaging field angle to the telephoto side and a wide switch that changes the wide angle side. By using the zoom switch 72, the zoom control unit 44 is instructed to change the imaging field angle of the photographing lens 10 and becomes a trigger for performing an optical zoom operation. In addition, it also serves as a trigger for electronic zooming change of the imaging angle of view by image cropping by the image processing circuit 20 or pixel interpolation processing.

画像処理装置100は、アルカリ電池の一次電池やNiCd電池やNiMH電池、Liイオン電池等の二次電池、ACアダプター等からなる電源手段86を備えている。   The image processing apparatus 100 includes a power source 86 including a primary battery of an alkaline battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li ion battery, an AC adapter, or the like.

また、メモリカードやハードディスク等の記録媒体とのインタフェース90、メモリカードやハードディスク等の記録媒体と接続を行うコネクタ92を備えている。   Further, an interface 90 with a recording medium such as a memory card or a hard disk, and a connector 92 for connecting to a recording medium such as a memory card or a hard disk are provided.

さらに、保護手段102は、画像処理装置100のレンズ10を含む撮像部を覆う事により、撮像部の汚れや破損を防止するバリアである。   Furthermore, the protection unit 102 is a barrier that prevents the imaging unit from being soiled or damaged by covering the imaging unit including the lens 10 of the image processing apparatus 100.

光学ファインダ104は、画像表示部28による電子ファインダー機能を使用せずに、光学ファインダのみを用いて撮影を行うことが可能である。   The optical viewfinder 104 can take an image using only the optical viewfinder without using the electronic viewfinder function of the image display unit 28.

通信手段110は、USB、IEEE1394、LAN、無線通信、等の各種通信機能を有する。また、通信手段110によって、画像処理装置100が他の機器と接続するためのインターフェイスとして、コネクタ112或いは無線通信の場合はアンテナ112を有している。   The communication unit 110 has various communication functions such as USB, IEEE1394, LAN, and wireless communication. Further, the communication unit 110 has a connector 112 or an antenna 112 in the case of wireless communication as an interface for connecting the image processing apparatus 100 to other devices.

メモリカードやハードディスク等の記録媒体200は、半導体メモリや磁気ディスク等から構成される記録部202、画像処理装置100とのインタフェース204、画像処理装置100と接続を行うコネクタ206を備えている。   A recording medium 200 such as a memory card or a hard disk includes a recording unit 202 configured by a semiconductor memory, a magnetic disk, or the like, an interface 204 with the image processing apparatus 100, and a connector 206 for connecting to the image processing apparatus 100.

上述した画像処理装置100内の各構成は、ハードウェアモジュールで構成してもよく、その一部あるいは全部をソフトウェアモジュールとして構成しても良い。   Each configuration in the image processing apparatus 100 described above may be configured by a hardware module, or a part or all of the configuration may be configured as a software module.

本実施形態の画像処理回路20の構成を図2を用いて説明する。   The configuration of the image processing circuit 20 of this embodiment will be described with reference to FIG.

画像処理回路20は、撮像素子14から入力した画像データのベイヤ配列の信号から輝度信号生成S201、色信号生成S202、エッジ強調S203を実施し、YUV信号を得る。そのYUV信号は、リサイズ、彩度変更、エッジ強調等の後処理S204を撮影シーン等に応じて実施する。また、顔検出などの被写体検出、シーン検出等の検出処理S205を実施することにより、シーン等に応じて、S201からS204の画質パラメータを変更する。   The image processing circuit 20 performs luminance signal generation S201, color signal generation S202, and edge enhancement S203 from the Bayer array signal of the image data input from the image sensor 14, and obtains a YUV signal. The YUV signal is subjected to post-processing S204 such as resizing, saturation change, and edge enhancement according to the shooting scene or the like. Also, by performing detection processing S205 such as subject detection such as face detection and scene detection, the image quality parameters in S201 to S204 are changed according to the scene and the like.

本実施形態の画像処理回路20のうち、エッジ強調回路の構成を図3を用いて説明する。   The configuration of the edge enhancement circuit in the image processing circuit 20 of the present embodiment will be described with reference to FIG.

図3(a)はエッジ強調回路の構成である。入力した画像信号にローパスフィルタ(LPF)S301を施し、S302の減算回路にて元画像とLPF画像の差分をとる。この減算処理では負の信号は考慮しないことによって、高輝度側に凸のエッジ信号であるオーバーシュートを得る。逆に、S303の減算回路ではLPF画像と元画像の差分をとることによって、低輝度側に凸のエッジ信号であるアンダーシュートの反転した信号を得る。   FIG. 3A shows the configuration of the edge enhancement circuit. A low-pass filter (LPF) S301 is applied to the input image signal, and the difference between the original image and the LPF image is obtained by the subtraction circuit in S302. In this subtraction process, negative signals are not taken into account, thereby obtaining an overshoot that is a convex edge signal on the high luminance side. On the contrary, the subtracting circuit of S303 obtains a signal with inverted undershoot, which is an edge signal convex to the low luminance side, by taking the difference between the LPF image and the original image.

さらに、S304のゲイン回路(AMP)ではS305のゲイン制御回路(CTRL)により、S302の減算回路で得られたオーバーシュートにゲインを施す。同様にS306のゲイン回路(AMP)では、S307のゲイン制御回路(CTRL)により、S303の減算回路で得られたアンダーシュートの反転した信号にゲインを施す。   Further, in the gain circuit (AMP) in S304, a gain is applied to the overshoot obtained in the subtracting circuit in S302 by the gain control circuit (CTRL) in S305. Similarly, in the gain circuit (AMP) in S306, the gain control circuit (CTRL) in S307 applies gain to the inverted signal of the undershoot obtained in the subtracting circuit in S303.

また、S308の加算回路では元画像とゲインを施したオーバーシュートを加算する。S309の減算回路では元画像とオーバーシュートを加算した画像からアンダーシュートの反転した信号を減算することにより、結果としてアンダーシュートを加算する。   In addition, the addition circuit in S308 adds the original image and overshoot with gain. The subtracting circuit of S309 subtracts the signal with the undershoot inverted from the original image and the image obtained by adding the overshoot, thereby adding the undershoot as a result.

さらに、図3(b)から(e)の信号波形を用いてオーバーシュート及びアンダーシュートを取得する動作を説明する。図3(b)は元画像の水平方向の波形の一部を示し縦軸が輝度レベル、横軸が画像の水平方向の座標である。図3(c)は元画像をS301にてLPF処理を施したLPF画像を示しており、元画像から高周波成分が無くなった波形である。これらの信号の差分をとることにより、元画像からLPF画像を減算すると図3(d)の斜線部分S3111がオーバーシュートとして得られ、逆にLPF画像から元画像を減算すると図3(e)の網かけ部分S321がアンダーシュートとして得られる。オーバーシュートは輪郭強調の明るい側、アンダーシュートは暗い側の調整を行う。   Further, the operation of acquiring overshoot and undershoot using the signal waveforms of FIGS. 3B to 3E will be described. FIG. 3B shows a part of the horizontal waveform of the original image, where the vertical axis represents the luminance level and the horizontal axis represents the horizontal coordinate of the image. FIG. 3C shows an LPF image obtained by performing the LPF process on the original image in S301, and has a waveform in which the high frequency component is eliminated from the original image. By subtracting the LPF image from the original image by taking the difference between these signals, the hatched portion S3111 in FIG. 3D is obtained as an overshoot, and conversely, subtracting the original image from the LPF image in FIG. A shaded portion S321 is obtained as an undershoot. Overshoot adjusts the bright side of the contour enhancement, and undershoot adjusts the dark side.

なお、ここで用いるローパスフィルタは、例えば着目画素と隣接画素で1:2:1(/4)のフィルタであるが、これに限定されない。また、本実施形態では元画素とLPF画像との差分を求めたが、それに限らず、高周波成分を含む画像と高周波を含まない画像の差分を求めることができればよい。   Note that the low-pass filter used here is, for example, a 1: 2: 1 (/ 4) filter for the target pixel and adjacent pixels, but is not limited thereto. In the present embodiment, the difference between the original pixel and the LPF image is obtained. However, the present invention is not limited to this, and it is only necessary to obtain the difference between the image including the high frequency component and the image not including the high frequency.

本実施形態の領域判定について図4を用いて説明する。   Region determination according to the present embodiment will be described with reference to FIG.

図4(a)は本実施形態の想定構図の1つである星空夜景で、山などの暗い遠景S401、夜空S402、星S403から構成される構図である。   FIG. 4A is a starry night view that is one of the assumed compositions of the present embodiment, and is composed of a dark distant view S401 such as a mountain, a night sky S402, and a star S403.

図4(b)は、図4(a)を複数のブロック分割し、各ブロックについて輝度信号及び色信号の平均値を求め、差分の少ないブロックを結合して領域として設定しており、暗い茶色の領域S411、暗い青の領域S412と判断する。   In FIG. 4B, FIG. 4A is divided into a plurality of blocks, the average value of the luminance signal and the color signal is obtained for each block, and blocks having a small difference are combined and set as an area. Area S411 and dark blue area S412.

図4(c)は、図4(b)にて得た領域毎の輝度信号及び色信号の平均値から被写体を判定することにより、被写体に対応して、夜空領域S421はオーバーシュートをアンダーシュートに対して相対的に強めて輪郭強調を施し、夜空領域S421以外のS422には通常処理としてエッジ強調を実施しないか、オーバーシュートとアンダーシュートの比率を変更しないエッジ強調を施す。   In FIG. 4C, the night sky region S421 undershoots the overshoot corresponding to the subject by determining the subject from the average value of the luminance signal and the color signal for each region obtained in FIG. 4B. In contrast, the edge enhancement is applied to S422 other than the night sky region S421 as a normal process, or the edge enhancement without changing the ratio of overshoot and undershoot is performed.

また、図4(d)は本実施形態の想定構図の1つである人物撮影で、人物S431、山などの遠景S432、空S433から構成される構図である。   Further, FIG. 4D is a photograph of a person, which is one of the assumed compositions of the present embodiment, and is composed of a person S431, a distant view S432 such as a mountain, and a sky S433.

図4(e)は、図4(d)を複数のブロック分割し、各ブロックについて輝度信号及び色信号の平均値を求め、差分の少ないブロックを結合して領域設定しており、黒い領域S441、肌色領域S442、白い領域S443、茶色の領域S444、青い領域S445と判断する。さらに、顔検出回路により検出された顔領域S446がある。   In FIG. 4E, FIG. 4D is divided into a plurality of blocks, the average value of the luminance signal and the color signal is obtained for each block, and the area is set by combining the blocks with a small difference. The skin color area S442, the white area S443, the brown area S444, and the blue area S445 are determined. Furthermore, there is a face region S446 detected by the face detection circuit.

図4(f)は、図4(e)にて得た領域毎の輝度信号及び色信号の平均値及び顔検出領域から被写体を判定することにより、被写体に対応して、顔検出領域S451を含む顔領域S452はアンダーシュートをオーバーシュートに対して相対的に強めて輪郭強調処理を施し、顔領域以外のS453は通常処理としてエッジ強調を実施しないか、オーバーシュートとアンダーシュートの比率を変更しないエッジ強調を施す。   FIG. 4F shows the face detection region S451 corresponding to the subject by determining the subject from the average value of the luminance signal and color signal for each region and the face detection region obtained in FIG. The included face area S452 is subjected to contour emphasis processing with the undershoot relatively strengthened with respect to overshoot, and S453 other than the face area is not subjected to edge emphasis as a normal process, or the ratio of overshoot to undershoot is not changed. Apply edge enhancement.

なお、上述したように、図4(c)、図4(f)の領域ごとにオーバーシュートとアンダーシュートの比率を可変させて制御する際に、領域の輝度レベルに基づいて、前記比率をさらに調整してもよい。具体的には、輝度レベルが予め設定された所定値よりも低い領域についてはオーバーシュート量の比率がより大きくなるように、輝度レベルが所定値よりも高い領域についてはアンダーシュート量の比率がより大きくするなるようにしてもよい。   As described above, when the control is performed by varying the ratio of overshoot and undershoot for each region in FIGS. 4C and 4F, the ratio is further increased based on the luminance level of the region. You may adjust. Specifically, the ratio of the undershoot amount is higher in the region where the luminance level is higher than the predetermined value so that the ratio of the overshoot amount is higher in the region where the luminance level is lower than the predetermined value. You may make it enlarge.

また、本実施形態では、夜空と人物(顔)を対象として被写体判定を行う例を用いて説明したが、被写体対象はこれらに限定されない。つまり、夜空の代わりに低輝度領域の中に高輝度領域が含まれる被写体であってもよく、人物(顔)の代わりに高輝度領域の中に低輝度領域が含まれる被写体であってもよい。   In the present embodiment, the example in which subject determination is performed for the night sky and a person (face) is described, but the subject target is not limited to these. That is, the subject may include a high-luminance region in the low-luminance region instead of the night sky, or may be a subject in which the low-luminance region is included in the high-luminance region instead of a person (face). .

以上により、本実施形態においては、画像内の被写体の種類に応じて、輪郭強調処理のオーバーシュート量とアンダーシュート量の比率を制御して輪郭強調の画像処理を行うことによって、被写体ごとに適切な輪郭強調を行うことが可能となる。よって、過剰な輪郭エッジ強調や輪郭強調による画像内でのノイズ増加等の弊害を軽減することが可能となる。   As described above, in the present embodiment, according to the type of the subject in the image, the ratio of the overshoot amount and the undershoot amount in the contour emphasis process is controlled to perform the image emphasis image processing. Thus, it is possible to perform the contour enhancement. Therefore, it is possible to reduce harmful effects such as excessive edge enhancement and noise increase in the image due to edge enhancement.

(第2の実施形態)
第1の実施形態では被写体の種類を判定し、被写体に応じて、オーバーシュート量とアンダーシュート量の比率を制御するものであったが、第2の実施形態では画像の撮影シーンを判定して撮影シーンに応じて前記比率を制御するものである。
(Second Embodiment)
In the first embodiment, the type of the subject is determined, and the ratio of the overshoot amount and the undershoot amount is controlled according to the subject. In the second embodiment, the shooting scene of the image is determined. The ratio is controlled according to the shooting scene.

第1の実施形態と同一の構成については説明を省略し、以下では、主に本実施形態の特徴的な構成について説明する。   The description of the same configuration as that of the first embodiment is omitted, and the characteristic configuration of the present embodiment will be mainly described below.

図5は、第2の実施形態のシーン判定の動作フローを示す。図5を用いて、本実施形態の撮影シーン判定の動作を説明する。   FIG. 5 shows an operation flow of scene determination according to the second embodiment. With reference to FIG. 5, the shooting scene determination operation of the present embodiment will be described.

S501にて画像から顔を検出し、顔があると判定したらS502で露出設定等の測光結果から照度の判定をする。たとえば測光結果の照度が所定値と比較することで明暗を判定する。明るい場所での撮影であると判定したら人物撮影であると判断し(S503)、オーバーシュートに対してアンダーシュートを強めて輪郭強調を施す。S502で暗い場所での撮影であると判定したら夜景人物撮影であると判断し(S504)、領域分割したエッジ強調を実施するか、通常処理としてエッジ強調を実施しないか、オーバーシュートとアンダーシュートの比率を変更しないエッジ強調を施す。   If a face is detected from the image in S501 and it is determined that there is a face, the illuminance is determined from the photometric result such as exposure setting in S502. For example, brightness is determined by comparing the illuminance of the photometric result with a predetermined value. If it is determined that the image is shot in a bright place, it is determined that the image is a person image (S503), and the undershoot is strengthened against the overshoot to enhance the outline. If it is determined in S502 that the image is taken in a dark place, it is determined that the image is a night scene portrait image (S504), and the edge-segmented edge enhancement is performed, the edge enhancement is not performed as a normal process, or overshoot and undershoot are performed. Apply edge enhancement without changing the ratio.

なお、上記動作を行うために、画像処理部20が顔検出部、明るさ検出部としての機能を行ってもよい。   In order to perform the above operation, the image processing unit 20 may function as a face detection unit and a brightness detection unit.

S501にて顔がないと判定したらS505で露出設定等の測光結果から照度の判定をする。明るい場所での撮影であると判定したら人物や夜景を除く一般撮影であると判断し(S506)、通常処理としてエッジ強調を実施しないか、オーバーシュートとアンダーシュートの比率を変更しないエッジ強調を施す。S505で暗い場所での撮影であると判定したら夜景撮影であると判断し(S507)、オーバーシュートをアンダーシュートに対して強めて輪郭強調を施す。   If it is determined that there is no face in S501, the illuminance is determined from the photometric result such as exposure setting in S505. If it is determined that the shooting is performed in a bright place, it is determined that the shooting is a general shooting except for a person and a night view (S506), and edge enhancement is not performed as normal processing or edge enhancement that does not change the ratio of overshoot and undershoot is performed. . If it is determined in S505 that the shooting is in a dark place, it is determined that the shooting is night scene shooting (S507), and the overshoot is strengthened against the undershoot to enhance the outline.

本実施形態では、画像から撮影シーンを判定し、撮影シーンの種類に応じて、輪郭強調処理のオーバーシュート量とアンダーシュート量の比率を制御して輪郭強調の画像処理を行うことを特徴としている。   The present embodiment is characterized in that a shooting scene is determined from an image, and an edge emphasis image process is performed by controlling a ratio of an overshoot amount and an undershoot amount in the edge enhancement process according to the type of the shooting scene. .

本実施形態の変形例として、使用者が撮影時に設定した撮影モードを判定し、判定された撮影モードに応じて前記比率を制御してもよい。たとえば撮影時に夜景撮影モードが設定されていた場合には、オーバーシュートをアンダーシュートに対して強めて輪郭強調を施す。また、ポートレート撮影モードが設定されていた場合には、オーバーシュートに対してアンダーシュートを強めて輪郭強調を施す。   As a modification of the present embodiment, a shooting mode set by the user during shooting may be determined, and the ratio may be controlled according to the determined shooting mode. For example, if the night scene shooting mode is set at the time of shooting, the overshoot is strengthened against the undershoot and the contour is emphasized. If the portrait shooting mode is set, the undershoot is strengthened against the overshoot to enhance the contour.

なお、撮影モード判定については、たとえば画像ファイルに画像とともに記録された撮影モードを取得して判定するようにしてもよい。   Note that the shooting mode determination may be performed by acquiring a shooting mode recorded together with an image in an image file, for example.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

上記実施形態では、画像処理装置が撮像装置に内蔵された構成であり、当該撮像装置で取得した画像に対して輪郭強調の画像処理を施すものであるが、画像処理装置が撮像装置とは分離して構成され画像が外部機器から通信により取得される構成でもよい。   In the above-described embodiment, the image processing device is built in the imaging device and performs image processing for edge enhancement on the image acquired by the imaging device. However, the image processing device is separated from the imaging device. The image may be configured to be acquired by communication from an external device.

なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus execute the program. It can also be realized by a process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

20 画像処理部
50 システム制御部
100 画像処理装置
DESCRIPTION OF SYMBOLS 20 Image processing part 50 System control part 100 Image processing apparatus

Claims (4)

画像を取得する取得手段と、
前記画像内の被写体の種類を判定する被写体判定手段と、
前記被写体の輪郭を強調する輪郭強調処理を行う処理手段と、
前記被写体判定手段により夜空領域と判定された領域に対し、オーバーシュートをアンダーシュートに対して強める前記輪郭強調処理を行い、前記夜空領域と判定されなかった他の領域に対しては前記輪郭強調処理を行わない、またはオーバーシュート量とアンダーシュート量の比率を変更しないよう前記処理手段を制御する制御手段と、を備えることを特徴とする画像処理装置。
An acquisition means for acquiring an image;
Subject determination means for determining the type of subject in the image;
Processing means for performing contour enhancement processing for enhancing the contour of the subject;
The contour enhancement process for strengthening overshoot against the undershoot is performed on the area determined as the night sky area by the subject determination unit, and the outline enhancement process is performed on the other areas not determined as the night sky area. And a control means for controlling the processing means so as not to change the ratio of the overshoot amount and the undershoot amount.
被写体の種類に対応して前記画像を領域分割する分割手段を備え、
前記処理手段は、前記領域ごとに前記輪郭強調処理を行うことを特徴とする請求項1に記載の画像処理装置。
Dividing means for dividing the image into regions corresponding to the types of subjects;
The image processing apparatus according to claim 1, wherein the processing unit performs the edge enhancement processing for each region.
レンズ及び撮像素子を有することを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a lens and an image sensor. 画像処理装置の制御方法であって、
画像を取得し、
前記画像内の被写体の種類を判定し、
前記被写体の輪郭を強調する輪郭強調処理を行う画像処理方法であって、
前記被写体の種類の判定により夜空領域と判定された領域に対し、オーバーシュートをアンダーシュートに対して強めるよう前記輪郭強調処理を行い、前記夜空領域と判定されなかった他の領域に対しては前記輪郭強調処理を行わない、またはオーバーシュート量とアンダーシュート量の比率を変更しないよう制御することを特徴とする制御方法。
A control method for an image processing apparatus, comprising:
Get an image,
Determine the type of subject in the image,
An image processing method for performing contour enhancement processing for enhancing the contour of the subject,
The contour enhancement processing is performed so as to enhance overshoot against undershoot with respect to the area determined as the night sky area by the determination of the type of the subject , and the other areas not determined as the night sky area are A control method characterized by performing control so as not to perform contour enhancement processing or to change the ratio of the overshoot amount and the undershoot amount.
JP2014136298A 2014-07-01 2014-07-01 Image processing apparatus and image processing method Active JP6433177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014136298A JP6433177B2 (en) 2014-07-01 2014-07-01 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136298A JP6433177B2 (en) 2014-07-01 2014-07-01 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2016015600A JP2016015600A (en) 2016-01-28
JP6433177B2 true JP6433177B2 (en) 2018-12-05

Family

ID=55231495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136298A Active JP6433177B2 (en) 2014-07-01 2014-07-01 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6433177B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7287118B2 (en) * 2019-05-30 2023-06-06 株式会社リコー Image processing device, program, and image processing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209463A (en) * 1999-01-12 2000-07-28 Fujitsu General Ltd Contour emphasis circuit
JP4463400B2 (en) * 2000-08-29 2010-05-19 三菱電機株式会社 Luminance signal enhancer
JP2002152553A (en) * 2000-11-13 2002-05-24 Sharp Corp Contour correcting circuit
JP3543774B2 (en) * 2001-03-19 2004-07-21 ミノルタ株式会社 Image processing apparatus, image processing method, and recording medium
JP4025865B2 (en) * 2002-03-14 2007-12-26 コニカミノルタオプト株式会社 Electronic camera
JP4306313B2 (en) * 2003-04-17 2009-07-29 パナソニック株式会社 Image signal processing device
JP4049116B2 (en) * 2004-03-15 2008-02-20 ソニー株式会社 Image processing device
JP4522270B2 (en) * 2005-01-19 2010-08-11 キヤノン株式会社 Imaging apparatus and control method thereof
CN101772952B (en) * 2007-07-23 2013-04-24 松下电器产业株式会社 Imaging device
JP2010104061A (en) * 2010-02-05 2010-05-06 Nikon Corp Electronic camera and image processing apparatus
JP5826001B2 (en) * 2011-11-30 2015-12-02 キヤノン株式会社 Image processing apparatus and control method thereof
JP2014068230A (en) * 2012-09-26 2014-04-17 Nikon Corp Electronic camera

Also Published As

Publication number Publication date
JP2016015600A (en) 2016-01-28

Similar Documents

Publication Publication Date Title
JP4035543B2 (en) Imaging device
JP5366584B2 (en) Imaging apparatus, image processing method, and program
JP6218378B2 (en) Image processing apparatus and image processing method
JP6116299B2 (en) Imaging apparatus and control method thereof
US9560265B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP5576706B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
US10839497B2 (en) Image processing apparatus and method
JP7154758B2 (en) Image processing device and its control method
JP5513244B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP6192416B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2007081732A (en) Imaging apparatus
JP6116436B2 (en) Image processing apparatus and image processing method
JP6433177B2 (en) Image processing apparatus and image processing method
JP2012090041A (en) Image processing device, method, and program
JP2014143457A (en) HDR switching control method
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2016148933A (en) Image processing system and image processing method
JP2015053652A (en) Imaging apparatus, and control method and control program for the same
JP6274780B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6235919B2 (en) Image processing apparatus, imaging apparatus, control method therefor, program, and storage medium
JP2017038300A (en) Image processing apparatus and method
JP2020145538A (en) Image processing device, image processing method, and program
JP2014135589A (en) Image processing device, control method therefor, and control program
JP2016163327A (en) Image processing apparatus, image processing method, and program
JP2021111811A (en) Image processing device, imaging apparatus, image processing method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181106

R151 Written notification of patent or utility model registration

Ref document number: 6433177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151