JP2014135589A - Image processing device, control method therefor, and control program - Google Patents

Image processing device, control method therefor, and control program Download PDF

Info

Publication number
JP2014135589A
JP2014135589A JP2013001736A JP2013001736A JP2014135589A JP 2014135589 A JP2014135589 A JP 2014135589A JP 2013001736 A JP2013001736 A JP 2013001736A JP 2013001736 A JP2013001736 A JP 2013001736A JP 2014135589 A JP2014135589 A JP 2014135589A
Authority
JP
Japan
Prior art keywords
image
edge
edge detection
sensitivity
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013001736A
Other languages
Japanese (ja)
Inventor
Tsutomu Ogasawara
努 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013001736A priority Critical patent/JP2014135589A/en
Publication of JP2014135589A publication Critical patent/JP2014135589A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To always accurately extract a subject by high-pass filter processing while reducing influence of noise.SOLUTION: A system control circuit 50 and an image processing circuit 20, when performing extraction processing of a subject in an image obtained as a result of photographing the subject, reduce the image in accordance with photographing sensitivity in the photographing or noise level in the image to generate a reduced image, detect an edge of the subject in the reduced image, and output an edge detection result.

Description

本発明は、固体撮像素子を用いた撮像装置で用いられる画像処理装置、その制御方法、および制御プログラムに関する。   The present invention relates to an image processing apparatus used in an imaging apparatus using a solid-state imaging device, a control method thereof, and a control program.

一般に、デジタルカメラなどの撮像装置においては、主被写体を認識して、オートフォーカスのために当該主被写体を追尾することが行われている。さらに、撮像装置においては、画像から主被写体を抽出して当該主被写体を最適化する画像処理を施し、さらには、画像の背景をぼかすなどの特殊効果処理を行うことがある。   In general, in an imaging apparatus such as a digital camera, a main subject is recognized and the main subject is tracked for autofocus. Further, the imaging apparatus may perform image processing for extracting the main subject from the image and optimizing the main subject, and may perform special effect processing such as blurring the background of the image.

特に、画像において被写体と背景とを切り分ける際には、被写体抽出の精度の向上が要求されている。   In particular, when the subject and the background are separated from each other in the image, it is required to improve the accuracy of subject extraction.

ここで、画像において被写体を抽出する手法の1つとして、画像にハイパスフィルタ処理を施してエッジ情報を抽出する手法がある。   Here, as one of methods for extracting a subject in an image, there is a method for extracting edge information by performing high-pass filter processing on the image.

ところが、この手法では、ハイパスフィルタ処理に起因して、画像に重畳するランダムノイズとエッジとのの切り分けが難しい。特に、ノイズレベルが高くなる高感度撮影の際においてはエッジの抽出を困難となることがある。   However, with this method, it is difficult to distinguish between random noise superimposed on an image and an edge due to high-pass filter processing. In particular, it may be difficult to extract an edge during high-sensitivity imaging with a high noise level.

このため、撮影の結果得られた画像に重畳するノイズレベルを別に求めて、ハイパスフィルタ処理結果から得られるエッジ信号からノイズレベルを一律に減算してノイズの影響を排除するようにした撮像装置がある(特許文献1参照)。   For this reason, an image pickup apparatus that separately obtains a noise level to be superimposed on an image obtained as a result of photographing and uniformly subtracts the noise level from an edge signal obtained from a high-pass filter processing result to eliminate the influence of noise. Yes (see Patent Document 1).

特開2010−171614号公報JP 2010-171614 A

ところが、特許文献1のように、ハイパスフィルタ処理の結果得られたエッジ信号からノイズレベルを一律に減算すると、当該ノイズレベルよりもそのレベルが低いエッジ成分を検出することができない。その結果、画像において被写体を精度よく抽出することができないことがある。   However, as in Patent Document 1, if the noise level is uniformly subtracted from the edge signal obtained as a result of the high-pass filter process, an edge component having a level lower than the noise level cannot be detected. As a result, the subject may not be accurately extracted from the image.

従って、本発明の目的は、ハイパスフィルタ処理によって常に精度よく被写体を抽出することのできる画像処理装置、その制御方法、および制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus, a control method thereof, and a control program that can always accurately extract a subject by high-pass filter processing.

上記の目的を達成するため、本発明による画像処理装置は、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置であって、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理手段と、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力する第1のエッジ検出手段と、を有することを特徴とする。   In order to achieve the above object, an image processing device according to the present invention is an image processing device that extracts a subject from an image obtained as a result of photographing the subject, and is used for photographing sensitivity at the time of photographing or in the image. A reduction processing unit that reduces the image to a reduced image according to a noise level; and a first edge detection unit that detects an edge of the subject in the reduced image and outputs an edge detection result. It is characterized by.

本発明による制御方法は、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置の制御方法であって、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、を有することを特徴とする。   A control method according to the present invention is a control method of an image processing apparatus that performs extraction processing on the subject in an image obtained as a result of photographing the subject, depending on the photographing sensitivity at the time of photographing or the noise level in the image. The image processing apparatus includes a reduction processing step for reducing the image to obtain a reduced image, and an edge detection step for detecting an edge of the subject in the reduced image and outputting an edge detection result.

本発明による制御プログラムは、被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、を実行させることを特徴とする。   The control program according to the present invention is a control program used in an image processing apparatus that extracts a subject in an image obtained as a result of photographing the subject, and the computer included in the image processing device performs photographing at the time of photographing. In accordance with sensitivity or a noise level in the image, a reduction processing step for reducing the image to obtain a reduced image, and an edge detection step for detecting an edge of the subject in the reduced image and outputting an edge detection result. It is made to perform.

本発明によれば、ノイズの影響を低減して、ハイパスフィルタ処理によって常に精度よく被写体を抽出することができる。   According to the present invention, it is possible to reduce the influence of noise and always extract a subject with high accuracy by high-pass filter processing.

本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image processing apparatus according to a first embodiment of the present invention. 図1に示すカメラで行われるエッジ抽出処理を説明するための図であり、(a)は元画像を示す図、(b)は元画像にハイパスフィルタ処理を施した画像を示す図、(c)は元画像のエッジ領域を示す図、(d)は元画像を縮小してハイパスフィルタ処理を施した画像を示す図、(e)は(d)に示す画像のエッジ領域を示す図、(f)は(c)に示すエッジ領域と(e)に示すエッジ領域とを合成した結果を示す図である。2A and 2B are diagrams for explaining edge extraction processing performed by the camera illustrated in FIG. 1, in which FIG. 1A is a diagram illustrating an original image, FIG. 2B is a diagram illustrating an image obtained by performing high-pass filter processing on the original image; ) Is a diagram showing an edge region of the original image, (d) is a diagram showing an image obtained by reducing the original image and subjected to high-pass filter processing, (e) is a diagram showing an edge region of the image shown in (d), (f) is a diagram showing the result of combining the edge region shown in (c) and the edge region shown in (e). 図1に示すカメラで行われるエッジ抽出処理を説明するためのブロック図である。It is a block diagram for demonstrating the edge extraction process performed with the camera shown in FIG. 図3に示すエッジ判定結果を合成する際に用いられる合成比率のテーブルの一例を示す図である。It is a figure which shows an example of the table of the synthesis | combination ratio used when synthesize | combining the edge determination result shown in FIG. 図1に示すカメラで行われるエッジ判定処理の際に用いられるハイパスフィルタおよびローパスフィルタについて説明するための図であり、(a)はハイパスフィルタの一例を示す図、(b)はローパスフィルタの一例を示す図である。2A and 2B are diagrams for explaining a high-pass filter and a low-pass filter used in edge determination processing performed by the camera shown in FIG. 1, in which FIG. 1A is a diagram illustrating an example of a high-pass filter, and FIG. FIG.

以下、本発明の実施の形態による撮像装置について図面を参照して説明する。   Hereinafter, an imaging device according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus including an image processing apparatus according to the first embodiment of the present invention.

図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズユニット(以下単に撮影レンズと呼ぶ)10を有している。撮影レンズ10の後段には絞り機能を備えるシャッター12が配置されている。そして、シャッター12の後側には、光学像を電気信号に変換するCCD又はCMOS素子などの撮像素子14が配置されている。撮像素子14の出力であるアナログ信号はA/D変換器16によってデジタル信号(画像データ)に変換される。   The illustrated imaging apparatus 100 is, for example, a digital camera (hereinafter simply referred to as a camera) and includes a photographing lens unit (hereinafter simply referred to as a photographing lens) 10. A shutter 12 having a diaphragm function is disposed at the rear stage of the photographing lens 10. An imaging element 14 such as a CCD or CMOS element that converts an optical image into an electrical signal is disposed behind the shutter 12. An analog signal that is an output of the image sensor 14 is converted into a digital signal (image data) by the A / D converter 16.

なお、図示はしないが、撮影レンズ10の前面側にはバリアが配置されており、このバリアは撮影レンズ10、シャッター12、および撮像素子14などを覆って、その汚れおよび破損を防止するためのものである。   Although not shown, a barrier is disposed on the front side of the photographic lens 10, and this barrier covers the photographic lens 10, the shutter 12, and the image sensor 14 to prevent the dirt and damage thereof. Is.

タイミング発生回路18は撮像素子14、A/D変換器16、およびD/A変換器26にクロック信号又は制御信号を供給する。このタイミング発生回路18はメモリ制御回路22およびシステム制御回路50によって制御される。   The timing generation circuit 18 supplies a clock signal or a control signal to the image sensor 14, the A / D converter 16, and the D / A converter 26. The timing generation circuit 18 is controlled by the memory control circuit 22 and the system control circuit 50.

なお、撮像素子18のリセットタイミングを制御することによる電子シャッターで撮像素子18の蓄積時間を制御すれば、当該電子シャッターによって動画撮影などを行うことができる。   Note that if the accumulation time of the image sensor 18 is controlled by an electronic shutter by controlling the reset timing of the image sensor 18, moving image shooting or the like can be performed by the electronic shutter.

画像処理回路20はA/D変換器16の出力である画像データ、又はメモリ制御回路22から画像データを受けて、所定の画素補間および縮小などのリサイズ処理と色変換処理とを行う。   The image processing circuit 20 receives the image data that is the output of the A / D converter 16 or the image data from the memory control circuit 22 and performs a resizing process such as predetermined pixel interpolation and reduction and a color conversion process.

また、画像処理回路20は画像データからその一部領域を画像として切り出す切り出し処理および変倍処理を行って電子ズームを実行する。   In addition, the image processing circuit 20 performs electronic zoom by performing a cut-out process and a scaling process for cutting out a partial area of the image data as an image.

画像処理回路20は撮像の結果得られた画像データを用いて所定の演算処理を行う。システム制御回路50は当該演算結果に基づいて露光制御部40および測距制御部42を制御して露光制御および測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理が行われる。   The image processing circuit 20 performs predetermined arithmetic processing using image data obtained as a result of imaging. The system control circuit 50 controls the exposure control unit 40 and the distance measurement control unit 42 based on the calculation result to perform exposure control and distance measurement control. As a result, TTL (through the lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed.

さらに、画像処理回路20は撮像の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   Further, the image processing circuit 20 performs predetermined calculation processing using image data obtained as a result of imaging, and performs TTL AWB (auto white balance) processing based on the calculation result.

メモリ制御回路22はA/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、および圧縮伸長回路32を制御する。A/D変換器16からの出力である画像データは、画像処理回路20およびメモリ制御回路22を介して、或いは直接メモリ制御回路22を介してメモリ30に書き込まれる。   The memory control circuit 22 controls the A / D converter 16, the timing generation circuit 18, the image processing circuit 20, the image display memory 24, the D / A converter 26, the memory 30, and the compression / decompression circuit 32. Image data that is output from the A / D converter 16 is written into the memory 30 via the image processing circuit 20 and the memory control circuit 22 or directly via the memory control circuit 22.

メモリ30に書き込まれた表示用の画像データはメモリ制御回路22を介して画像表示部28に送られる。これにより、画像表示部28には画像データに応じた画像が表示される。   The display image data written in the memory 30 is sent to the image display unit 28 via the memory control circuit 22. As a result, an image corresponding to the image data is displayed on the image display unit 28.

なお、画像表示部28(例えば、LCD)に撮像によって得られた画像を逐次表示すれば、電子ファインダ機能を実現することができる。   Note that an electronic finder function can be realized by sequentially displaying images obtained by imaging on the image display unit 28 (for example, LCD).

画像表示部28は、システム制御回路50の制御によってその表示をオン/オフすることが可能であり、表示をオフにした場合は、撮像装置100の電力消費を大幅に低減することができる。   The display of the image display unit 28 can be turned on / off under the control of the system control circuit 50. When the display is turned off, the power consumption of the imaging apparatus 100 can be greatly reduced.

メモリ30には、撮影の結果得られた静止画像又は動画像が格納される。メモリ30は、所定枚数の静止画像又は所定時間の動画像を格納するための十分な記憶容量を有している。   The memory 30 stores still images or moving images obtained as a result of shooting. The memory 30 has a sufficient storage capacity for storing a predetermined number of still images or a moving image for a predetermined time.

このメモリ30を用いれば、複数枚の静止画像を連続して撮影する連写撮影又はパノラマ撮影の場合においても、高速に大量の画像を保存することができる。また、メモリ30はシステム制御回路50の作業領域としても用いられる。   By using this memory 30, a large number of images can be stored at high speed even in continuous shooting or panoramic shooting in which a plurality of still images are continuously shot. The memory 30 is also used as a work area for the system control circuit 50.

圧縮伸張回路32は、適応離散コサイン変換(ADCT)などによって画像データを圧縮又は伸張する。圧縮伸張回路32は、例えば、シャッター12の動作をトリガとしてメモリ30に格納された画像データを読み込んで圧縮処理を行い、圧縮処理後の画像データをメモリ30に書き込む。   The compression / decompression circuit 32 compresses or decompresses image data by adaptive discrete cosine transform (ADCT) or the like. For example, the compression / decompression circuit 32 reads the image data stored in the memory 30 using the operation of the shutter 12 as a trigger, performs compression processing, and writes the compressed image data in the memory 30.

また、圧縮伸張回路32は記録媒体200からメモリ30に読み込まれた圧縮処理後の画像データを読み込んで伸張処理を行って、伸張処理後の画像データをメモリ30に書き込む。圧縮伸張回路32によってメモリ30に書き込まれた画像データは、システム制御回路50においてファイル化されて、インタフェース90を介して記録媒体200に記録される。   The compression / decompression circuit 32 reads the compressed image data read from the recording medium 200 into the memory 30, performs the decompression process, and writes the decompressed image data into the memory 30. The image data written to the memory 30 by the compression / decompression circuit 32 is filed by the system control circuit 50 and recorded on the recording medium 200 via the interface 90.

露光制御部40はシステム制御回路50の制御下でシャッター12の制御を行う。さらに、露光制御部40はフラッシュ48と連携してフラッシュ調光を行う。測距制御部42はシステム制御回路50の制御下で撮影レンズ10のフォーカシングを制御する。   The exposure control unit 40 controls the shutter 12 under the control of the system control circuit 50. Further, the exposure control unit 40 performs flash light control in cooperation with the flash 48. The distance measurement control unit 42 controls the focusing of the photographing lens 10 under the control of the system control circuit 50.

前述のように、システム制御回路50は、画像処理回路20による演算結果に基づいて露光制御部40および測距制御部42を制御して、TTL方式の露光制御および測距制御を行う。   As described above, the system control circuit 50 controls the exposure control unit 40 and the distance measurement control unit 42 based on the calculation result of the image processing circuit 20 to perform TTL exposure control and distance measurement control.

ズーム制御部44はシステム制御回路50の制御下で撮影レンズ10のズーミングを制御する。フラッシュ48はシステム制御回路50によって制御され、ピント合わせを行うためのAF補助光の投光を行うとともに、フラッシュ調光を行う。   The zoom control unit 44 controls zooming of the photographing lens 10 under the control of the system control circuit 50. The flash 48 is controlled by the system control circuit 50, and performs the flash light control while projecting AF auxiliary light for focusing.

システム制御回路50は撮像装置100全体の制御を司る。不揮発性メモリ31は、例えば、フラッシュROMであり、不揮発性メモリメモリ31にはシステム制御回路50の動作用の定数、変数、およびプログラムなどが記憶される。   A system control circuit 50 controls the entire imaging apparatus 100. The nonvolatile memory 31 is, for example, a flash ROM, and constants, variables, programs, and the like for operation of the system control circuit 50 are stored in the nonvolatile memory memory 31.

また、不揮発性メモリ31には、カメラに係る情報を記憶する領域、ユーザ設定情報を記憶する領域が規定され、システム制御回路50はこれら情報および設定を起動の際に読み出して復元する。   The non-volatile memory 31 defines an area for storing information related to the camera and an area for storing user setting information, and the system control circuit 50 reads and restores the information and settings at the time of activation.

モードダイアルスイッチ60は、電源86のオン又はオフの際に用いられる。さらに、モードダイアルスイッチ60は、例えば、システム制御回路50の動作モードをプログラムAEモードなどの自動露出モード、全自動モード、マニュアル露出モード、寝顔撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、又はPC接続モードなどに切り替える際に用いられる。   The mode dial switch 60 is used when the power source 86 is turned on or off. Further, the mode dial switch 60 is configured such that, for example, the operation mode of the system control circuit 50 is an automatic exposure mode such as a program AE mode, a fully automatic mode, a manual exposure mode, a sleeping face shooting mode, a panoramic shooting mode, a playback mode, a multi-screen playback / It is used when switching to the erase mode or PC connection mode.

シャッターボタン62が操作途中(半押し)であると、第1のシャッタースイッチSW1がオンとなって、第1のシャッタースイッチ信号SW1がシステム制御回路50に与えられる。   When the shutter button 62 is being operated (half-pressed), the first shutter switch SW1 is turned on, and the first shutter switch signal SW1 is given to the system control circuit 50.

これによって、システム制御回路50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などの撮影準備動作を開始示する。   Thus, the system control circuit 50 starts shooting preparation operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing.

シャッターボタン62が操作完了(全押し)されると、第2のシャッタースイッチSW2がオンとなって、第2のシャッタースイッチ信号SW2がシステム制御回路50に与えられる。   When the operation of the shutter button 62 is completed (fully pressed), the second shutter switch SW2 is turned on, and the second shutter switch signal SW2 is given to the system control circuit 50.

これによって、システム制御回路50は撮像素子14の信号読み出しからメモリ30に画像データを書き込む露光処理、画像処理回路20およびメモリ制御回路22による演算を用いた現像処理、そして、メモリ30から画像データを読み出して圧縮伸長回路32で圧縮を行った後記録媒体200に画像データを書き込む記録処理などの一連の撮像処理を開始する。   As a result, the system control circuit 50 performs exposure processing for writing image data to the memory 30 after reading the signal from the image sensor 14, development processing using computations by the image processing circuit 20 and the memory control circuit 22, and image data from the memory 30. A series of imaging processes such as a recording process in which image data is written to the recording medium 200 after being read and compressed by the compression / decompression circuit 32 is started.

表示切替スイッチ66の操作に応じて、システム制御回路50は画像表示部28における表示切替を行う。これによって、光学ファインダ104を用いて撮影を行う際には、画像表示部28に対する電力の供給が遮断されて省電力となる。   In response to the operation of the display changeover switch 66, the system control circuit 50 performs display switching in the image display unit 28. As a result, when photographing is performed using the optical viewfinder 104, power supply to the image display unit 28 is cut off, thereby saving power.

操作部70は各種ボタン、タッチパネル、および回転式ダイアルなどを有している。各種ボタンとして、例えば、メニューボタン、セットボタン、マクロボタン、画像表示オン/オフボタン、マルチ画面再生改ページボタン、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動−(マイナス)ボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、および日付/時間設定ボタンがある。   The operation unit 70 has various buttons, a touch panel, a rotary dial, and the like. Various buttons include, for example, a menu button, a set button, a macro button, an image display on / off button, a multi-screen playback page break button, a flash setting button, a single shooting / continuous shooting / self-timer switching button, menu movement + (plus) There are a button, a menu shift- (minus) button, a playback image shift + (plus) button, a playback image- (minus) button, a shooting image quality selection button, an exposure correction button, and a date / time setting button.

メニューボタンが操作されると、システム制御回路50は各種設定を行うためのメニュー画面を画像表示部28に表示する。ユーザは画像表示部28に表示されたメニュー画面を見て、各種ボタンの操作によって直感的に各種設定を行うことができる。   When the menu button is operated, the system control circuit 50 displays a menu screen for performing various settings on the image display unit 28. The user can intuitively make various settings by operating various buttons by looking at the menu screen displayed on the image display unit 28.

ズームスイッチ72はユーザが画像の倍率変更指示を行う際に用いられる。このズームスイッチ72は、撮像画角を望遠側に変更するテレスイッチと広角側に変更するワイドスイッチとを有している。   The zoom switch 72 is used when the user issues an image magnification change instruction. The zoom switch 72 includes a tele switch that changes the imaging field angle to the telephoto side and a wide switch that changes the wide angle side.

ズームスイッチ72の操作によって、システム制御回路50はズーム制御部44に撮影レンズ10の撮像画角の変更を指示するとともに、光学ズーム操作を行う。   By operating the zoom switch 72, the system control circuit 50 instructs the zoom control unit 44 to change the imaging field angle of the photographic lens 10 and performs an optical zoom operation.

なお、ズームスイッチ72の操作によって画像処理回路20による画像の切り出し処理および画素補間処理などによる撮像画角の電子的なズーミング変更が行われる。   It should be noted that by operating the zoom switch 72, an electronic zooming change of the imaging angle of view is performed by an image cut-out process and a pixel interpolation process by the image processing circuit 20.

電源86はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池などの二次電池を備えるとともに、ACアダプターなどを有している。   The power source 86 includes a primary battery such as an alkaline battery or a lithium battery, or a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter.

インタフェース(I/F)90は記録媒体200とのインタフェースである。インタフェース90はコネクタ92によって記録媒体200に備えられたコネクタ206に接続される。記録媒体200はインタフェース204および記録部202を有しており、記録部202として半導体メモリ又は磁気ディスクが用いられる。   An interface (I / F) 90 is an interface with the recording medium 200. The interface 90 is connected to a connector 206 provided on the recording medium 200 by a connector 92. The recording medium 200 includes an interface 204 and a recording unit 202, and a semiconductor memory or a magnetic disk is used as the recording unit 202.

通信部110は、USB、IEEE1394、LAN、又は無線通信などに係る各種通信処理を行う。コネクタ(無線通信の場合はアンテナ)112は、通信部110をプリンタなどの外部機器と接続する。   The communication unit 110 performs various communication processes related to USB, IEEE 1394, LAN, or wireless communication. A connector (an antenna in the case of wireless communication) 112 connects the communication unit 110 to an external device such as a printer.

コネクタ112にプリンタが接続された場合、例えば、記録媒体200に記録された画像ファイル(画像データ)がプリンタに転送されて、PCなどを用いることなく直接プリンタによって画像の印刷を行うことができる。   When a printer is connected to the connector 112, for example, an image file (image data) recorded on the recording medium 200 is transferred to the printer, and an image can be directly printed by the printer without using a PC or the like.

光学ファインダ104を用いれば、画像表示部28による電子ファインダ機能を使用することなく撮影を行うことが可能である。   If the optical viewfinder 104 is used, it is possible to take an image without using the electronic viewfinder function of the image display unit 28.

また、光学ファインダ104には表示部54の一部に表示される表示内容の一部、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、および露出補正表示が表示される。   The optical viewfinder 104 includes a part of display contents displayed on a part of the display unit 54, for example, an in-focus display, a camera shake warning display, a flash charge display, a shutter speed display, an aperture value display, and an exposure correction display. Is displayed.

システム制御回路50は、撮影可能なモードにおいてモードダイアルスイッチ60によって電源86のオンが行われると、各種撮影準備動作を行う。そして、撮影準備動作が完了すると、システム制御回路50はメモリ制御回路22を制御して画像表示部28にスルー画像を表示する。   The system control circuit 50 performs various photographing preparation operations when the power supply 86 is turned on by the mode dial switch 60 in the photographing capable mode. When the photographing preparation operation is completed, the system control circuit 50 controls the memory control circuit 22 to display a through image on the image display unit 28.

ここで、スルー画像とは、静止画を撮影する前後においてファインダ機能を実行するため撮像素子14によって撮像された画像のことをいう。   Here, the through image refers to an image captured by the image sensor 14 in order to execute a finder function before and after capturing a still image.

スルー画像表示状態においては、撮像素子14、A/D変換器16、画像処理回路20、およびメモリ制御回路22を介して画像表示メモリ24に逐次書き込まれた画像データが、メモリ制御回路22およびD/A変換器26を介して画像表示部28に逐次送られる。これによって、電子ビューファインダ(EVF)機能が行われる。   In the through image display state, the image data sequentially written to the image display memory 24 via the image sensor 14, A / D converter 16, image processing circuit 20, and memory control circuit 22 is stored in the memory control circuit 22 and D. It is sequentially sent to the image display unit 28 via the / A converter 26. Thereby, an electronic viewfinder (EVF) function is performed.

図2は、図1に示すカメラで行われるエッジ抽出処理を説明するための図である。そして、図2(a)は元画像を示す図であり、図2(b)は元画像にハイパスフィルタ処理を施した画像を示す図である。また、図2(c)は元画像のエッジ領域を示す図であり、図2(d)は元画像を縮小してハイパスフィルタ処理を施した画像を示す図である。さらに、図2(e)は図2(d)に示す画像のエッジ領域を示す図であり、図2(f)は図2(c)に示すエッジ領域と図2(e)に示すエッジ領域とを合成した結果を示す図である。   FIG. 2 is a diagram for explaining edge extraction processing performed by the camera shown in FIG. FIG. 2A is a diagram illustrating an original image, and FIG. 2B is a diagram illustrating an image obtained by performing high-pass filter processing on the original image. FIG. 2C is a diagram illustrating an edge region of the original image, and FIG. 2D is a diagram illustrating an image obtained by reducing the original image and performing high-pass filter processing. Further, FIG. 2 (e) is a diagram showing the edge region of the image shown in FIG. 2 (d), and FIG. 2 (f) is the edge region shown in FIG. 2 (c) and the edge region shown in FIG. 2 (e). It is a figure which shows the result of having synthesize | combined.

図2(a)に示す画像は撮影の結果得られた画像を示す元画像であり、当該元画像は画像処理回路20において生成されたYUV画像である。そして、図示の元画像には主被写体201と背景202が存在する。   The image shown in FIG. 2A is an original image showing an image obtained as a result of photographing, and the original image is a YUV image generated in the image processing circuit 20. A main subject 201 and a background 202 exist in the illustrated original image.

画像処理回路20において装置図2(a)に示す元画像に対してハイパスフィルタ処理(HPF)を施すと図2(b)に示す画像が得られる。図示の画像において、主被写体領域203はエッジ信号およびノイズ信号を有している。ここでは、説明の便宜上、主被写体領域203にのみノイズ信号が存在するとする。   When the image processing circuit 20 performs high-pass filter processing (HPF) on the original image shown in FIG. 2A, an image shown in FIG. 2B is obtained. In the illustrated image, the main subject region 203 has an edge signal and a noise signal. Here, for convenience of explanation, it is assumed that a noise signal exists only in the main subject region 203.

そして、画像処理回路20はシステム制御回路50の制御下で、図2(b)に示す画像を複数のブロック204に分割する。図示の例では、画像は8×8個のブロック204に分割される。   Then, the image processing circuit 20 divides the image shown in FIG. 2B into a plurality of blocks 204 under the control of the system control circuit 50. In the example shown, the image is divided into 8 × 8 blocks 204.

システム制御回路50は画像処理回路20を制御して、ブロック204毎にそのエッジを検出して、図2(c)に示すエッジ領域205を得る。ここでは、黒地領域で示すように主被写体領域に含まれるエッジ信号およびノイズ信号をエッジ領域と判定する。   The system control circuit 50 controls the image processing circuit 20 to detect the edge of each block 204 and obtain an edge region 205 shown in FIG. Here, the edge signal and the noise signal included in the main subject area are determined as the edge area as indicated by the black background area.

ここで、元画像を縮小してエッジ抽出を行う手法について説明する。   Here, a method for performing edge extraction by reducing the original image will be described.

まず、画像処理回路20はシステム制御回路50の制御下で、図2(a)に示す元画像を縮小して縮小画像とする。そして、画像処理回路20は当該縮小画像に対してハイパスフィルタ処理を施して、図2(d)に示す画像を得る。図2(d)に示す画像では元画像を縮小した後、ハイパスフィルタ処理を施しているので、ノイズレベルが相対的に低下する。この結果、図2(d)に示す画像においては主被写体領域206にはエッジ信号のみが含まれるとみなしてよい。   First, the image processing circuit 20 reduces the original image shown in FIG. 2A to a reduced image under the control of the system control circuit 50. Then, the image processing circuit 20 performs high-pass filter processing on the reduced image to obtain the image shown in FIG. In the image shown in FIG. 2D, since the high-pass filter processing is performed after the original image is reduced, the noise level relatively decreases. As a result, in the image shown in FIG. 2D, the main subject region 206 may be regarded as including only an edge signal.

そして、画像処理回路20はシステム制御回路50の制御下で、図2(d)に示す画像を複数のブロック207に分割する。図示の例では、画像は4×4個のブロック207に分割される。   Then, the image processing circuit 20 divides the image shown in FIG. 2D into a plurality of blocks 207 under the control of the system control circuit 50. In the illustrated example, the image is divided into 4 × 4 blocks 207.

システム制御回路50は画像処理回路20を制御して、ブロック207毎にそのエッジを検出して、図2(e)に示すエッジ領域208を得る。ここでは、黒地領域で示すように主被写体領域に含まれるエッジ信号をエッジ領域と判定する。   The system control circuit 50 controls the image processing circuit 20 to detect the edge of each block 207 and obtain an edge region 208 shown in FIG. Here, as shown by the black background area, the edge signal included in the main subject area is determined as the edge area.

続いて、システム制御回路50は画像処理回路20を制御して、図2(c)に示すエッジ領域205と図2(e)に示すエッジ領域208とを合成して図2(f)に示すエッジ領域を得る。   Subsequently, the system control circuit 50 controls the image processing circuit 20 to synthesize the edge region 205 shown in FIG. 2C and the edge region 208 shown in FIG. 2E, as shown in FIG. Get edge region.

つまり、ノイズ信号を含む等倍画像に係るエッジ領域と、位置精度が粗くなるもののノイズ信号を含まない縮小画像のエッジ領域とを合成することによって、黒地領域で示すようにノイズの影響を低減したエッジ領域209を得ることができる。   In other words, the influence of noise was reduced, as shown by the black background area, by combining the edge area related to the 1X image including the noise signal and the edge area of the reduced image that does not include the noise signal, although the positional accuracy is coarse. An edge region 209 can be obtained.

図3は、図1に示すカメラで行われるエッジ抽出処理を説明するためのブロック図である。なお、図3に示すエッジ抽出処理はシステム制御回路50の制御下で行われる。   FIG. 3 is a block diagram for explaining edge extraction processing performed by the camera shown in FIG. The edge extraction process shown in FIG. 3 is performed under the control of the system control circuit 50.

まず、画像処理回路50に画像データ(ここでは、RGB信号)が与えられて、画像信号は当該RGB信号を現像して元画像であるYUV信号を得る(S306)。   First, image data (RGB signal here) is given to the image processing circuit 50, and the RGB signal is developed to obtain the YUV signal which is the original image (S306).

第1の系(S301)においては、等倍画像でエッジ判定が行われる。画像処理回路50は元画像に対してハイパスフィルタ処理を施した後(S307)、前述のようにブロック分割する。   In the first system (S301), edge determination is performed on the same-size image. The image processing circuit 50 performs high-pass filter processing on the original image (S307) and then divides the block as described above.

そして、画像処理回路50はブロック毎にハイパスフィルタ処理後の画像を積分して(つまり、ブロック毎に画素の積分を行う:S308)、当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定し(S309)、第1のエッジ判定結果(第1のエッジ領域)を得る。なお、エッジ判定結果はエッジ検出結果ともいう。   Then, the image processing circuit 50 integrates the image after the high-pass filter processing for each block (that is, integrates the pixels for each block: S308), and selects the block whose integration result is equal to or greater than a predetermined threshold as an edge region. (S309), the first edge determination result (first edge region) is obtained. The edge determination result is also referred to as an edge detection result.

第2の系においては(S302)、第1の縮小率で縮小した結果得られた第1の縮小画像でエッジ判定が行われる。画像処理回路20は元画像を第1の縮小率で縮小して第1の縮小画像を得た後(S311)、当該第1の縮小画像に対してハイパスフィルタ処理を施す(S312)。   In the second system (S302), edge determination is performed on the first reduced image obtained as a result of reduction at the first reduction rate. The image processing circuit 20 reduces the original image at the first reduction ratio to obtain a first reduced image (S311), and then performs high-pass filter processing on the first reduced image (S312).

画像処理回路20はハイパスフィルタ処理後の画像を複数のブロックに分割して、ブロック毎にハイパスフィルタ処理後の画像を積分する(S313)。そして、画像処理回路20は当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定して(S314)、エッジ判定結果を得る。   The image processing circuit 20 divides the image after the high-pass filter processing into a plurality of blocks, and integrates the image after the high-pass filter processing for each block (S313). Then, the image processing circuit 20 determines a block whose integration result is equal to or greater than a predetermined threshold as an edge region (S314), and obtains an edge determination result.

続いて、画像処理回路50は、このエッジ判定結果を第1の縮小率と同率の第1の倍率で拡大して元に戻して第2のエッジ判定結果(第2のエッジ領域)とする(S315)。   Subsequently, the image processing circuit 50 enlarges the edge determination result at a first magnification that is the same as the first reduction ratio and returns the result to the second edge determination result (second edge region) ( S315).

第3の系においては(S303)において、第1の縮小率よりも縮小率が大きい第2の縮小率で縮小した結果得られた第2の縮小画像でエッジ判定が行われる。画像処理回路20は元画像を第2の縮小率で縮小して第2の縮小画像を得た後(S317)、当該第2の縮小画像に対してハイパスフィルタ処理を施す(S318)。   In the third system (S303), edge determination is performed on the second reduced image obtained as a result of reduction at the second reduction rate that is larger than the first reduction rate. The image processing circuit 20 reduces the original image at the second reduction ratio to obtain a second reduced image (S317), and then performs high-pass filter processing on the second reduced image (S318).

画像処理回路20はハイパスフィルタ処理後の画像を複数のブロックに分割して、ブロック毎にハイパスフィルタ処理後の画像を積分する(S319)。そして、画像処理回路20は当該積分結果が所定の閾値以上となったブロックをエッジ領域と判定して(S320)、エッジ判定結果を得る。   The image processing circuit 20 divides the image after the high-pass filter processing into a plurality of blocks, and integrates the image after the high-pass filter processing for each block (S319). Then, the image processing circuit 20 determines a block whose integration result is equal to or greater than a predetermined threshold as an edge region (S320), and obtains an edge determination result.

続いて、画像処理回路50は、このエッジ判定結果を第2の縮小率と同率の第2の倍率で拡大して元に戻して第3のエッジ判定結果(第3のエッジ領域)とする(S321)。   Subsequently, the image processing circuit 50 enlarges the edge determination result at a second magnification that is the same as the second reduction ratio, and returns the result to the third edge determination result (third edge region) ( S321).

第4の系においては(S304)、輝度信号を用いてエッジ判定が行われる。まず、画像処理回路20は元画像を複数のブロックに分割する(S323)。そして、画像処理回路20はブロック毎に輝度信号(つまり、画素毎の輝度値)を積分して輝度積分値を得る。   In the fourth system (S304), edge determination is performed using the luminance signal. First, the image processing circuit 20 divides the original image into a plurality of blocks (S323). Then, the image processing circuit 20 integrates a luminance signal (that is, a luminance value for each pixel) for each block to obtain a luminance integrated value.

続いて、画像処理回路20は輝度積分値が予め設定された範囲にあるブロックをグルーピングして輝度グループ領域を得る(S324)。そして、画像処理回路20は輝度グループ領域の境界をエッジと判定して、第4のエッジ判定結果(第4のエッジ領域)を得る(S325)。   Subsequently, the image processing circuit 20 groups the blocks whose luminance integration values are in a preset range to obtain a luminance group region (S324). Then, the image processing circuit 20 determines that the boundary of the luminance group area is an edge, and obtains a fourth edge determination result (fourth edge area) (S325).

第5の系においては(S305)、色差信号を用いてエッジ判定が行われる。まず、画像処理回路20は元画像を複数のブロックに分割する(S327)。そして、画像処理回路20はブロック毎に色差信号を積分して色差積分値を得る。   In the fifth system (S305), edge determination is performed using the color difference signal. First, the image processing circuit 20 divides the original image into a plurality of blocks (S327). Then, the image processing circuit 20 integrates the color difference signal for each block to obtain a color difference integrated value.

続いて、画像処理回路20は色差積分値が予め設定された範囲にあるブロックをグルーピングして色差グループ領域を得る(S328)。そして、画像処理回路20は色差グループ領域の境界をエッジと判定して、第5のエッジ判定結果(第5のエッジ領域)を得る(S329)。   Subsequently, the image processing circuit 20 groups the blocks in which the color difference integral value is in a preset range to obtain a color difference group region (S328). Then, the image processing circuit 20 determines that the boundary of the color difference group area is an edge, and obtains a fifth edge determination result (fifth edge area) (S329).

上述のようにして、システム制御回路50は画像処理回路20によって第1〜第5のエッジ判定結果を得た後、システム制御回路50は、所定の第4の合成比率k4によって第4のエッジ判定結果と第5のエッジ判定結果とを合成して、第4の合成エッジ判定結果を得る(S326)。ここでは、第4のエッジ判定結果はk4倍され、第5のエッジ判定結果は(1−k4)倍される。   As described above, after the system control circuit 50 obtains the first to fifth edge determination results by the image processing circuit 20, the system control circuit 50 determines the fourth edge determination by the predetermined fourth synthesis ratio k4. The result and the fifth edge determination result are combined to obtain a fourth combined edge determination result (S326). Here, the fourth edge determination result is multiplied by k4, and the fifth edge determination result is multiplied by (1-k4).

続いて、システム制御回路50は、所定の第3の合成比率k3によって第3のエッジ判定結果と第4の合成エッジ判定結果とを合成して、第3の合成エッジ判定結果を得る(S322)。ここでは、第3のエッジ判定結果はk3倍され、第4の合成エッジ判定結果は(1−k3)倍される。   Subsequently, the system control circuit 50 combines the third edge determination result and the fourth combined edge determination result with the predetermined third combining ratio k3 to obtain the third combined edge determination result (S322). . Here, the third edge determination result is multiplied by k3, and the fourth combined edge determination result is multiplied by (1-k3).

次に、システム制御回路50は、所定の第2の合成比率k2によって第2のエッジ判定結果と第3の合成エッジ判定結果とを合成して、第2の合成エッジ判定結果を得る(S316)。ここでは、第2のエッジ判定結果はk2倍され、第3の合成エッジ判定結果は(1−k2)倍される。   Next, the system control circuit 50 combines the second edge determination result and the third combined edge determination result with the predetermined second combining ratio k2 to obtain the second combined edge determination result (S316). . Here, the second edge determination result is multiplied by k2, and the third combined edge determination result is multiplied by (1-k2).

さらに、システム制御回路50は、所定の第1の合成比率k1によって第1のエッジ判定結果と第2の合成エッジ判定結果とを合成して、第1の合成エッジ判定結果を得る(S310)。ここでは、第1のエッジ判定結果はk1倍され、第2の合成エッジ判定結果は(1−k1)倍される。そして、システム制御回路50は第1の合成エッジ判定結果を、主被写体のエッジ領域とする。   Further, the system control circuit 50 combines the first edge determination result and the second combined edge determination result with the predetermined first combining ratio k1 to obtain the first combined edge determination result (S310). Here, the first edge determination result is multiplied by k1, and the second combined edge determination result is multiplied by (1-k1). Then, the system control circuit 50 sets the first composite edge determination result as the edge area of the main subject.

なお、上述の例では、元画像を縮小してノイズレベルを相対的に低減するようにしたが、元画像を縮小することなく、ローパスフィルタ処理を行ってノイズレベルを低減するようにしてもよい。   In the above example, the noise level is relatively reduced by reducing the original image. However, the noise level may be reduced by performing low-pass filter processing without reducing the original image. .

つまり、元画像を縮小処理する代わりに、元画像に対してローパスフィルタ処理を施してローパスフィルタ処理済み画像を生成する。そして、縮小画像の代わりにローパスフィルタ処理済み画像を用い、撮影感度又はノイズレベルに応じて、ローパスフィルタ処理に係る係数を変更する。   That is, instead of reducing the original image, low-pass filter processing is performed on the original image to generate a low-pass filtered image. Then, the low-pass filtered image is used instead of the reduced image, and the coefficient related to the low-pass filter processing is changed according to the photographing sensitivity or the noise level.

図4は、図3に示すエッジ判定結果を合成する際に用いられる合成比率k1〜k4のテーブルの一例を示す図である。   FIG. 4 is a diagram illustrating an example of a table of combination ratios k1 to k4 used when combining the edge determination results illustrated in FIG.

合成比率k1〜k4を設定する際には、撮影者の設定による感度条件(撮影感度)又はカメラの自動設定による感度条件、又はノイズレベルに応じて第1の設定〜第5の設定のいずれかが選択される。ここでは、まず、撮影感度を例に挙げて説明する。なお、図4に示すテーブルは、例えば、図1に示す不揮発性メモリ31に格納されている。   When setting the combination ratios k1 to k4, one of the first setting to the fifth setting according to the sensitivity condition (shooting sensitivity) set by the photographer, the sensitivity condition set automatically by the camera, or the noise level. Is selected. Here, first, the imaging sensitivity will be described as an example. The table shown in FIG. 4 is stored in, for example, the nonvolatile memory 31 shown in FIG.

システム制御回路50は、撮影感度(例えば、ISO)が予め定められた第1の感度以下であると、第1の設定を選択する。撮影感度が第1の感度以下の際には、ノイズの影響を受けることなく、高精度でエッジ領域の判定を行うことができるので、ここでは、第1の合成比率k1=1として、第1の系(S301)のみを用いてエッジ領域の判定が行われる。   The system control circuit 50 selects the first setting when the photographing sensitivity (for example, ISO) is equal to or lower than a predetermined first sensitivity. When the shooting sensitivity is equal to or lower than the first sensitivity, the edge region can be determined with high accuracy without being affected by noise. Therefore, here, the first synthesis ratio k1 = 1 is set to the first sensitivity. The edge region is determined using only the system (S301).

この結果、システム制御回路50は第1のエッジ判定結果を第1の合成エッジ判定結果として出力することになる。   As a result, the system control circuit 50 outputs the first edge determination result as the first combined edge determination result.

なお、撮影感度が第1の感度以下の際には、第2の合成比率k2〜第4の合成比率k4は用いられない。   When the photographing sensitivity is equal to or lower than the first sensitivity, the second synthesis ratio k2 to the fourth synthesis ratio k4 are not used.

撮影感度が第1の感度を超え、当該第1の感度よりも高い第2の感度以下であると、システム制御回路50は、第2の設定を選択する。ここでは、第1の合成比率k1=0.5、第2の合成比率k2=1として、第1の系(S301)および第2の系(S302)を用いてエッジ領域の判定が行われる。   When the photographing sensitivity exceeds the first sensitivity and is equal to or lower than the second sensitivity higher than the first sensitivity, the system control circuit 50 selects the second setting. Here, the edge region is determined using the first system (S301) and the second system (S302) with the first composition ratio k1 = 0.5 and the second composition ratio k2 = 1.

この結果、システム制御回路50は、第2のエッジ判定結果を第2の合成エッジ判定結果とし、当該第2の合成エッジ判定結果と第1のエッジ判定結果とをそれぞれ0.5倍して合成し、第1の合成エッジ判定結果を出力する。   As a result, the system control circuit 50 sets the second edge determination result as the second combined edge determination result, and combines the second combined edge determination result and the first edge determination result by 0.5 times. Then, the first composite edge determination result is output.

なお、撮影感度が第1の感度を超え第2の感度以下であると、第3の合成比率k3および第4の合成比率k4は用いられない。   Note that if the photographing sensitivity exceeds the first sensitivity and is equal to or lower than the second sensitivity, the third synthesis ratio k3 and the fourth synthesis ratio k4 are not used.

撮影感度が第2の感度を超え、当該第2の感度よりも高い第3の感度以下であると、システム制御回路50は、第3の設定を選択する。ここでは、第1の合成比率k1=0、第2の合成比率k2=0.5、そして、第3の合成比率k3=1として、第1の系(S301)〜第3の系(S303)を用いてエッジ領域の判定が行われる。   When the photographing sensitivity exceeds the second sensitivity and is equal to or lower than the third sensitivity higher than the second sensitivity, the system control circuit 50 selects the third setting. Here, the first synthesis ratio k1 = 0, the second synthesis ratio k2 = 0.5, and the third synthesis ratio k3 = 1, the first system (S301) to the third system (S303). The edge region is determined using.

この結果、システム制御回路50は、k3=1であるから第3のエッジ判定結果を第3の合成エッジ判定結果とし、K2=0.5であるから当該第3の合成エッジ判定結果と第2のエッジ判定結果とをそれぞれ0.5倍して合成し、第2の合成エッジ判定結果を出力する。   As a result, since k3 = 1, the system control circuit 50 sets the third edge determination result as the third combined edge determination result, and since K2 = 0.5, the third combined edge determination result and the second Are combined by multiplying each of the edge determination results by 0.5, and a second combined edge determination result is output.

そして、システム制御回路50は、k1=0であるから、第2の合成エッジ判定結果を第1の合成判定結果として出力する。   Then, since k1 = 0, the system control circuit 50 outputs the second combined edge determination result as the first combined determination result.

なお、撮影感度が第2の感度を超え第3の感度以下であると、第4の合成比率k4は用いられない。   Note that if the photographing sensitivity exceeds the second sensitivity and is equal to or lower than the third sensitivity, the fourth combination ratio k4 is not used.

撮影感度が第3の感度を超え、当該第3の感度よりも高い第4の感度以下であると、システム制御回路50は、第4の設定を選択する。撮影感度が第3の感度を超え第4の感度以下の場合には、ノイズレベルの上昇によってハイパスフィルタ処理によるエッジ領域判定では精度が落ちるので、輝度信号の輝度レベルをエッジ領域の判定を用いる。   When the photographing sensitivity exceeds the third sensitivity and is equal to or lower than the fourth sensitivity higher than the third sensitivity, the system control circuit 50 selects the fourth setting. When the photographing sensitivity exceeds the third sensitivity and is equal to or lower than the fourth sensitivity, the accuracy of the edge region determination by the high-pass filter processing decreases due to the increase of the noise level, so the determination of the edge level is used for the luminance level of the luminance signal.

ここでは、第1の合成比率k1=0、第2の合成比率k2=0、第3の合成比率k3=0.5、そして、第4の合成比率k4=1として、第1の系(S301)〜第4の系(S304)を用いてエッジ領域の判定が行われる。   Here, it is assumed that the first synthesis ratio k1 = 0, the second synthesis ratio k2 = 0, the third synthesis ratio k3 = 0.5, and the fourth synthesis ratio k4 = 1, the first system (S301 The edge region is determined using the fourth system (S304).

この結果、システム制御回路50は、k4=1であるから第4のエッジ判定結果を第4の合成エッジ判定結果とし、K3=0.5であるから当該第4の合成エッジ判定結果と第3のエッジ判定結果とをそれぞれ0.5倍して合成し、第3の合成エッジ判定結果を出力する。   As a result, since k4 = 1, the system control circuit 50 sets the fourth edge determination result as the fourth combined edge determination result, and since K3 = 0.5, the fourth combined edge determination result and the third Are combined by multiplying each of the edge determination results by 0.5, and a third combined edge determination result is output.

そして、システム制御回路50は、k2=K1=0であるから、第3の合成エッジ判定結果を第2の合成判定結果として出力し、第2の合成判定結果を第1の合成判定結果として出力することになる。   Since k2 = K1 = 0, the system control circuit 50 outputs the third combined edge determination result as the second combined determination result, and outputs the second combined determination result as the first combined determination result. Will do.

撮影感度が第4の感度を超えると、システム制御回路50は、第5の設定を選択する。撮影感度が第4の感度を超えると、ノイズレベルの上昇によってハイパスフィルタ処理によるエッジ領域判定ではさらに精度が落ちるので、輝度信号の輝度レベルと色差信号とをエッジ領域の判定を用いる。   When the photographing sensitivity exceeds the fourth sensitivity, the system control circuit 50 selects the fifth setting. If the photographing sensitivity exceeds the fourth sensitivity, the accuracy of the edge region determination by the high-pass filter processing is further reduced due to the increase of the noise level. Therefore, the determination of the edge region is performed using the luminance level of the luminance signal and the color difference signal.

ここでは、第1の合成比率k1=0、第2の合成比率k2=0、第3の合成比率k3=0.33、そして、第4の合成比率k4=0.5として、第1の系(S301)〜第4の系(S304)を用いてエッジ領域の判定が行われる。   Here, it is assumed that the first synthesis ratio k1 = 0, the second synthesis ratio k2 = 0, the third synthesis ratio k3 = 0.33, and the fourth synthesis ratio k4 = 0.5. The edge region is determined using (S301) to the fourth system (S304).

この結果、システム制御回路50は、k4=0.5であるから第5のエッジ判定結果と第4のエッジ判定結果とをそれぞれ0.5倍して合成し、第4の合成エッジ判定結果を出力する。   As a result, since k4 = 0.5, the system control circuit 50 synthesizes the fifth edge determination result and the fourth edge determination result by multiplying each by 0.5, and the fourth combined edge determination result is obtained. Output.

さらに、K3=0.33であるから、システム制御回路50は第4の合成エッジ判定結果を0.67倍し、第3のエッジ判定結果を0.33倍して合成し、第3の合成エッジ判定結果を出力する。   Furthermore, since K3 = 0.33, the system control circuit 50 multiplies the fourth combined edge determination result by 0.67, multiplies the third edge determination result by 0.33, and combines the result. The edge judgment result is output.

そして、システム制御回路50は、k2=K1=0であるから、第3の合成エッジ判定結果を第2の合成判定結果として出力し、第2の合成判定結果を第1の合成判定結果として出力することになる。   Since k2 = K1 = 0, the system control circuit 50 outputs the third combined edge determination result as the second combined determination result, and outputs the second combined determination result as the first combined determination result. Will do.

なお、上述の説明では、撮影感度を例に挙げて説明したが、画像におけるノイズレベルによって第1の設定〜第4の設定のいずれかを選択するようにしてもよい。   In the above description, the shooting sensitivity has been described as an example, but any one of the first setting to the fourth setting may be selected depending on the noise level in the image.

つまり、システム制御回路50は、ノイズレベルが第1の閾値レベル以下(第1の閾値以下)であると第1の設定を選択し、ノイズレベルが第1の閾値レベルを超え当該第1の閾値レベルよりも高い第2の閾値レベル以下であると、第2の設定を選択する。   That is, the system control circuit 50 selects the first setting when the noise level is equal to or lower than the first threshold level (less than the first threshold), and the noise level exceeds the first threshold level and the first threshold value is selected. The second setting is selected to be equal to or lower than a second threshold level higher than the level.

同様にして、システム制御回路50は、ノイズレベルが第2の閾値レベルを超え当該第2の閾値レベルよりも高い第3の閾値レベル以下であると、第3の設定を選択する。   Similarly, the system control circuit 50 selects the third setting when the noise level exceeds the second threshold level and is equal to or lower than the third threshold level higher than the second threshold level.

さらに、システム制御回路50は、ノイズレベルが第3の閾値レベルを超え当該第3の閾値レベルよりも高い第4の閾値レベル以下であると、第4の設定を選択する。そして、システム制御回路50は、ノイズレベルが第4の閾値レベルを超えると第5の設定を選択する。   Further, the system control circuit 50 selects the fourth setting when the noise level exceeds the third threshold level and is equal to or lower than the fourth threshold level higher than the third threshold level. Then, the system control circuit 50 selects the fifth setting when the noise level exceeds the fourth threshold level.

図5は、図1に示すカメラで行われるエッジ判定処理の際に用いられるハイパスフィルタおよびローパスフィルタについて説明するための図である。そして、図5(a)はハイパスフィルタの一例を示す図であり、図5(b)はローパスフィルタの一例を示す図である。   FIG. 5 is a diagram for explaining a high-pass filter and a low-pass filter used in the edge determination process performed by the camera shown in FIG. FIG. 5A is a diagram illustrating an example of a high-pass filter, and FIG. 5B is a diagram illustrating an example of a low-pass filter.

図1に示すカメラでは、ハイパスフィルタ又はローパスフィルタを元画像上で1画素ずつ左から右へ、上から下へ移動しつつ、当該フィルタ行列と元画像との演算結果を生成する。   The camera shown in FIG. 1 generates a calculation result between the filter matrix and the original image while moving the high-pass filter or the low-pass filter pixel by pixel on the original image from left to right and from top to bottom.

このように、本発明の実施の形態では、元画像をハイパスフィルタ処理してエッジの判定を行ってエッジ判定結果を得るとともに、撮影感度又はノイズレベルに応じて元画像を縮小してエッジ判定を行ってエッジ判定結果を得て、これらエッジ判定結果を所定の合成比率で合成して最終的なエッジ判定結果を得るようにしたので、常に精度よく被写体を抽出することができる。   As described above, in the embodiment of the present invention, the original image is subjected to high-pass filter processing to perform edge determination to obtain an edge determination result, and the original image is reduced according to photographing sensitivity or noise level to perform edge determination. Since the edge determination results are obtained and these edge determination results are combined at a predetermined combining ratio to obtain the final edge determination result, the subject can always be extracted with high accuracy.

さらに、撮影感度又はノイズレベルが高い場合には、輝度信号および色差信号の少なくとも一方を用いてエッジ判定を行って、そのエッジ判定結果と元画像に応じて得られたエッジ判定結果とを所定の合成比率で合成するようにしたので、撮影感度又はノイズレベルが高い場合にであっても、精度よく被写体を抽出することができる。   Further, when the photographing sensitivity or the noise level is high, edge determination is performed using at least one of the luminance signal and the color difference signal, and the edge determination result and the edge determination result obtained according to the original image are set to a predetermined value. Since the composition is performed at the composition ratio, the subject can be accurately extracted even when the photographing sensitivity or the noise level is high.

上述の説明から明らかなように、図1に示す例においては、少なくとも画像処理回路20およびシステム制御回路50が画像処理装置を構成する。そして、画像処理回路20およびシステム制御回路50は縮小処理手段、第1のエッジ検出手段、第2のエッジ検出手段、合成手段、第3のエッジ検出手段、およびとして機能する。   As is apparent from the above description, in the example shown in FIG. 1, at least the image processing circuit 20 and the system control circuit 50 constitute an image processing apparatus. The image processing circuit 20 and the system control circuit 50 function as a reduction processing unit, a first edge detection unit, a second edge detection unit, a synthesis unit, and a third edge detection unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも縮小処理ステップおよびエッジ検出ステップを有している。   Each of the above control method and control program has at least a reduction processing step and an edge detection step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

14 撮像素子
20 画像処理回路
22 メモリ制御回路
28 画像表示部
40 露光制御部
42 測距制御部
44 ズーム制御部
50 システム制御回路
60 モードダイアルスイッチ
62 シャッターボタン
14 Image sensor 20 Image processing circuit 22 Memory control circuit 28 Image display unit 40 Exposure control unit 42 Distance control unit 44 Zoom control unit 50 System control circuit 60 Mode dial switch 62 Shutter button

Claims (13)

被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置であって、
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理手段と、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力する第1のエッジ検出手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that extracts a subject in an image obtained as a result of photographing the subject,
A reduction processing means that reduces the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
First edge detection means for detecting an edge of the subject in the reduced image and outputting an edge detection result;
An image processing apparatus comprising:
前記縮小処理手段は、前記撮影感度又は前記ノイズレベルに応じて前記画像を縮小する縮小率を変更することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reduction processing unit changes a reduction ratio for reducing the image according to the photographing sensitivity or the noise level. 前記縮小処理手段は、前記撮影感度が高くなるか又は前記ノイズレベルが大きくなるに伴って前記画像を縮小する縮小率を大きくすることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the reduction processing unit increases a reduction ratio for reducing the image as the photographing sensitivity increases or the noise level increases. 前記画像を元画像として当該元画像において前記被写体のエッジを検出する第2のエッジ検出手段と、
前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第2のエッジ検出手段の出力であるエッジ検出結果とを合成して最終的なエッジ検出結果とする合成手段とを有することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
Second edge detection means for detecting an edge of the subject in the original image using the image as an original image;
And combining means for combining the edge detection result output from the first edge detection means and the edge detection result output from the second edge detection means into a final edge detection result. The image processing apparatus according to claim 1.
前記合成手段は、前記撮影感度又は前記ノイズレベルに応じて、前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第2のエッジ検出手段の出力であるエッジ検出結果とを合成する合成比率を変更することを特徴とする請求項4に記載の画像処理装置。   The synthesizing unit synthesizes the edge detection result that is the output of the first edge detection unit and the edge detection result that is the output of the second edge detection unit according to the photographing sensitivity or the noise level. The image processing apparatus according to claim 4, wherein the ratio is changed. 前記合成手段は、前記撮影感度が所定の第1の感度を超えるか又は前記ノイズレベルが所定の第1の閾値を超えると、前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第2のエッジ検出手段の出力であるエッジ検出結果とを合成することを特徴とする請求項4又は5に記載の画像処理装置。   When the photographing sensitivity exceeds a predetermined first sensitivity or the noise level exceeds a predetermined first threshold, the combining means and the edge detection result as the output of the first edge detecting means and the first 6. The image processing apparatus according to claim 4, wherein an edge detection result which is an output of the second edge detection means is synthesized. 前記合成手段は、前記撮影感度が前記第1の感度よりも高い第2の感度を超えるか又は前記ノイズレベルが前記第1の閾値よりも高い第2の閾値を超えると、前記第1のエッジ検出手段の出力であるエッジ検出結果を前記最終的なエッジ検出結果として出力することを特徴とする請求項6に記載の画像処理装置。   The synthesizing unit may detect the first edge when the imaging sensitivity exceeds a second sensitivity higher than the first sensitivity or when the noise level exceeds a second threshold higher than the first threshold. The image processing apparatus according to claim 6, wherein an edge detection result that is an output of a detection unit is output as the final edge detection result. 前記合成手段は、前記撮影感度が前記第1の感度以下であるか又は前記ノイズレベルが前記第1の閾値以下であると、前記第2のエッジ検出手段の出力であるエッジ検出結果を前記最終的なエッジ検出結果として出力することを特徴とする請求項6又は7に記載の画像処理装置。   The synthesizing unit outputs an edge detection result that is an output of the second edge detecting unit when the photographing sensitivity is equal to or lower than the first sensitivity or the noise level is equal to or lower than the first threshold. The image processing apparatus according to claim 6, wherein the image processing apparatus outputs the result as a typical edge detection result. 前記画像における輝度信号および色差信号の少なくとも一方に応じて前記画像における被写体のエッジを検出する第3のエッジ検出手段を備え、
前記合成手段は、前記撮影感度が前記第2の感度よりも高い第3の感度を超えるか又は前記ノイズレベルが前記第2の閾値よりも高い第4の閾値を超えると、前記第1のエッジ検出手段の出力であるエッジ検出結果と前記第3のエッジ検出手段の出力であるエッジ検出結果とを合成して前記最終的なエッジ検出結果とする請求項7に記載の画像処理装置。
A third edge detecting means for detecting an edge of a subject in the image according to at least one of a luminance signal and a color difference signal in the image;
The synthesizing means may detect the first edge when the photographing sensitivity exceeds a third sensitivity higher than the second sensitivity or when the noise level exceeds a fourth threshold higher than the second threshold. The image processing apparatus according to claim 7, wherein an edge detection result output from the detection unit and an edge detection result output from the third edge detection unit are combined to obtain the final edge detection result.
前記第1のエッジ検出手段および前記第2のエッジ検出手段の各々はハイパスフィルタ処理によって前記被写体のエッジを検出することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein each of the first edge detection unit and the second edge detection unit detects an edge of the subject by high-pass filter processing. 前記縮小処理手段の代わりに、前記画像に対してローパスフィルタ処理を施してローパスフィルタ処理済み画像を生成するローパスフィルタ処理手段を備え、
前記縮小画像の代わりに前記ローパスフィルタ処理済み画像を用い、前記ローパスフィルタ処理手段は前記撮影感度又は前記ノイズレベルに応じて、前記ローパスフィルタ処理に係る係数を変更することを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
In place of the reduction processing means, low-pass filter processing means for performing low-pass filter processing on the image to generate a low-pass filtered image,
2. The low-pass filter processed image is used instead of the reduced image, and the low-pass filter processing unit changes a coefficient related to the low-pass filter processing according to the photographing sensitivity or the noise level. The image processing apparatus according to any one of 10 to 10.
被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置の制御方法であって、
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、
を有することを特徴とする制御方法。
A control method of an image processing apparatus for extracting a subject in an image obtained as a result of photographing the subject,
A reduction processing step to reduce the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
An edge detection step of detecting an edge of the subject in the reduced image and outputting an edge detection result;
A control method characterized by comprising:
被写体を撮影した結果得られた画像において前記被写体を抽出処理する画像処理装置で用いられる制御プログラムであって、
前記画像処理装置が備えるコンピュータに、
前記撮影の際の撮影感度又は前記画像におけるノイズレベルに応じて、前記画像を縮小して縮小画像とする縮小処理ステップと、
前記縮小画像において前記被写体のエッジを検出してエッジ検出結果を出力するエッジ検出ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image processing apparatus for extracting the subject in an image obtained as a result of photographing the subject,
A computer included in the image processing apparatus,
A reduction processing step to reduce the image to a reduced image according to the shooting sensitivity at the time of shooting or the noise level in the image;
An edge detection step of detecting an edge of the subject in the reduced image and outputting an edge detection result;
A control program characterized by causing
JP2013001736A 2013-01-09 2013-01-09 Image processing device, control method therefor, and control program Pending JP2014135589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013001736A JP2014135589A (en) 2013-01-09 2013-01-09 Image processing device, control method therefor, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013001736A JP2014135589A (en) 2013-01-09 2013-01-09 Image processing device, control method therefor, and control program

Publications (1)

Publication Number Publication Date
JP2014135589A true JP2014135589A (en) 2014-07-24

Family

ID=51413592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013001736A Pending JP2014135589A (en) 2013-01-09 2013-01-09 Image processing device, control method therefor, and control program

Country Status (1)

Country Link
JP (1) JP2014135589A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195189A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195189A (en) * 2017-05-19 2018-12-06 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP5366584B2 (en) Imaging apparatus, image processing method, and program
JP5363157B2 (en) Imaging device and live view display method
JP5667726B2 (en) Interchangeable lens camera and viewfinder display method
JP5607260B2 (en) Imaging apparatus, imaging method, and program
JP6827854B2 (en) Image processing equipment and methods, and imaging equipment
JP2007081732A (en) Imaging apparatus
JP5513244B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP6192416B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6116436B2 (en) Image processing apparatus and image processing method
JP2006276683A (en) Imaging apparatus and program
JP2012090041A (en) Image processing device, method, and program
JP2014143457A (en) HDR switching control method
JP5828663B2 (en) Image processing apparatus and image processing apparatus control method
JP6353585B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2014135589A (en) Image processing device, control method therefor, and control program
JP4401974B2 (en) Imaging apparatus and control method thereof
KR20130092213A (en) Digital photographing apparatus and control method thereof
JP6611566B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP6433177B2 (en) Image processing apparatus and image processing method
US20230239564A1 (en) Image processing device, imaging device, method for controlling image processing device, and storage medium
JP6645612B1 (en) Imaging device and electronic equipment
JP2017038300A (en) Image processing apparatus and method
JP2008060844A (en) Image processor and image processing method
JP2016163327A (en) Image processing apparatus, image processing method, and program
JP6245802B2 (en) Image processing apparatus, control method thereof, and control program