JP2011124712A - Image processing device, method, and program - Google Patents

Image processing device, method, and program Download PDF

Info

Publication number
JP2011124712A
JP2011124712A JP2009279616A JP2009279616A JP2011124712A JP 2011124712 A JP2011124712 A JP 2011124712A JP 2009279616 A JP2009279616 A JP 2009279616A JP 2009279616 A JP2009279616 A JP 2009279616A JP 2011124712 A JP2011124712 A JP 2011124712A
Authority
JP
Japan
Prior art keywords
subject
distance
image data
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009279616A
Other languages
Japanese (ja)
Other versions
JP5437781B2 (en
Inventor
Hiroshi Endo
宏 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009279616A priority Critical patent/JP5437781B2/en
Publication of JP2011124712A publication Critical patent/JP2011124712A/en
Application granted granted Critical
Publication of JP5437781B2 publication Critical patent/JP5437781B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To implement contour enhancement in consideration of a subject distance for the contour enhancement correction of image data captured by an imaging device. <P>SOLUTION: A CPU 40 calculates a distance difference between a focused subject that is a subject within a predetermined focusing area and a peripheral subject that is a subject within each ambient area, and stores a distance difference corresponding to each ambient area in an SDRAM 48. Then, the CPU 40 determines whether or not the distance difference corresponding to each ambient area is below a predetermined threshold, and if not, on the basis of second conversion property information (having a conversion property determined in such a manner that a slope of a value change of output data versus value change of input data is reduced as a value of the distance difference from the focused subject corresponding to the image data of each ambient area becomes large), the CPU controls a digital signal processing section 24 to convert the intensity of an contour component indicated by contour component data of an ambient area with the distance difference equal to or higher than a predetermined threshold for YC data after primary image imaging to make contour enhancement. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は撮像装置の取得した画像データの輪郭強調補正に関する。 The present invention relates to edge enhancement correction of image data acquired by an imaging apparatus.

特許文献1では、画像処理部は、主要被写体の領域の階調補正の特性を他の領域と変化させる。例えば、画像処理部は、撮像画像の主要被写体の領域には、他の領域と異なる階調曲線の階調特性テーブルを適用して階調補正を実行する。   In Patent Document 1, the image processing unit changes the tone correction characteristics of the main subject area from other areas. For example, the image processing unit executes gradation correction by applying a gradation characteristic table having a gradation curve different from that of the other areas to the main subject area of the captured image.

特許文献2では、画質改善装置は、入力信号の波形を判別し、入力信号が振幅一定の正弦波、余弦波、変調波等の場合には、エッジ強調成分を付加せず、入力信号がパルスや、バーパルス等の波形の立ち上がり部分を含む信号、および振幅が変化する正弦波、余弦波、変調波等の場合には、波形の傾斜部にエッジ強調成分を付加する。従って、この画質改善装置は、エッジ強調が必要な部分のみにエッジ強調成分を付加でき、視覚的に不自然さを与えることなく再生画像の輪郭部を強調して画質の鮮鋭度を向上させることにより、画質を改善することができる、とする。   In Patent Document 2, the image quality improvement apparatus discriminates the waveform of the input signal. When the input signal is a sine wave, cosine wave, modulation wave or the like having a constant amplitude, the edge enhancement component is not added and the input signal is pulsed. In addition, in the case of a signal including a rising portion of a waveform such as a bar pulse, and a sine wave, cosine wave, or modulated wave whose amplitude changes, an edge emphasis component is added to the slope portion of the waveform. Therefore, this image quality improvement device can add an edge enhancement component only to a portion that needs edge enhancement, and enhances the sharpness of the image quality by enhancing the contour portion of the reproduced image without visually unnaturalness. Thus, the image quality can be improved.

特許文献3は、微小な凸レンズアレイを撮像面の直前にマトリクス状に設けて被写体像を異なる2つの撮像子に入射させ、2つの撮像子の出力信号の位相差に応じて合焦状態を検出する技術の一例である。   In Patent Document 3, a minute convex lens array is provided in a matrix in front of an imaging surface, and a subject image is incident on two different imaging elements, and a focus state is detected according to a phase difference between output signals of the two imaging elements. It is an example of the technique to do.

特許文献4および5では、システムコントローラに被写体のコントラスト情報が入力されると、同情報から判断・演算処理部により撮像装置の合焦状態が如何なる状態かを認識し、プロセス処理部のアパーチャ補償回路の周波数特性を変えて、上記合焦状態に応じた映像形成を行う。   In Patent Documents 4 and 5, when the contrast information of the subject is input to the system controller, the determination / arithmetic processing unit recognizes the in-focus state of the imaging device from the information, and the aperture compensation circuit of the process processing unit The image is formed in accordance with the in-focus state by changing the frequency characteristic of.

特許文献6は、撮像レンズの射出瞳をメガネレンズによって2つに分割し、その分割された2つの領域を通過した光束を蓄積型の光電変換素子列(ラインセンサ)に結像させ、そのラインセンサの出力信号をA/D変換器にてA/D変換し、それらの像の相対位置の変位をコンピュータによって演算することで合焦状態を特定する技術の一例である。具体的には、メガネレンズによって2次結像された左右の像が異なるラインセンサ群によって受光される。そして、種々の処理回路を経て、ラインセンサ画素出力が出力される。受光センサからのラインセンサ画素出力がA/D変換器によってデジタル信号に変換された後、マイクロコンピュータによって、A像とB像との相関演算が行われ、被写体のデフォーカス状態(又は距離情報)が検出される。また、特許文献6は、焦点検出装置として、撮像画面上の複数エリアに対して、夫々独立に合焦状態を検出可能な多点焦点検出装置では、多点測距を行うために、各測距エリアに独立したラインセンサが設けられ、さらに、各ラインセンサに対してAGC領域および測距演算領域が設定されている、とする。   In Patent Document 6, an exit pupil of an imaging lens is divided into two by a spectacle lens, and a light beam that has passed through the two divided regions is imaged on a storage type photoelectric conversion element array (line sensor). This is an example of a technique for specifying an in-focus state by A / D converting an output signal of a sensor with an A / D converter and calculating a displacement of a relative position of those images by a computer. Specifically, the left and right images secondarily formed by the spectacle lens are received by different line sensor groups. The line sensor pixel output is output through various processing circuits. After the line sensor pixel output from the light receiving sensor is converted into a digital signal by the A / D converter, the microcomputer performs a correlation calculation between the A image and the B image, and the defocused state (or distance information) of the subject. Is detected. Further, Patent Document 6 discloses that a multipoint focus detection apparatus capable of independently detecting a focus state with respect to a plurality of areas on an imaging screen as a focus detection apparatus is configured to measure each point in order to perform multipoint distance measurement. It is assumed that an independent line sensor is provided in the distance area, and that an AGC area and a distance measurement calculation area are set for each line sensor.

特許文献7は、TTL(Through The Lens)位相差検出方式による合焦制御、すなわち2つの像の像間隔からデフォーカス量を演算し、現在のレンズ位置から算出したデフォーカス量分だけ駆動した位置にレンズを停止させる技術の一例である。   Patent Document 7 discloses a focus control based on a TTL (Through The Lens) phase difference detection method, that is, a position where a defocus amount is calculated from an image interval between two images and driven by the defocus amount calculated from the current lens position. This is an example of a technique for stopping the lens.

特許文献8は、撮像画面を分割し、その分割領域ごとに被写体の焦点検出を行って、その像ずれ量を検出する技術の一例を示す。なお、像ずれ量は被写体までの距離に依存するため、像ずれ量は被写体距離と技術的に同視しうる。   Patent Document 8 shows an example of a technique for dividing an imaging screen, detecting the focus of a subject for each divided region, and detecting the image shift amount. Since the image shift amount depends on the distance to the subject, the image shift amount can be technically equated with the subject distance.

特許文献9は輪郭強調処理の一例を示す。特許文献10は、焦点距離に対するレンズ性能の関係、特に焦点距離に応じた撮影画角の中央領域および周辺領域における光学性能の関係の一例を示す。また特許文献10は、撮影光学系の性能保証範囲外で使用する場合の像性能低下を補完するように、輪郭補正処理のゲイン値やコアリングレベルを変更する。また特許文献11は、顔検出技術の一例を示す。   Patent document 9 shows an example of an outline emphasis process. Patent Document 10 shows an example of the relationship between the lens performance with respect to the focal length, particularly the relationship between the optical performance in the central region and the peripheral region of the shooting angle of view according to the focal length. Further, Patent Document 10 changes the gain value and coring level of the contour correction process so as to compensate for the image performance degradation when used outside the performance guarantee range of the photographing optical system. Patent Document 11 shows an example of a face detection technique.

特開2007−282119号公報、段落0062JP 2007-282119 A, paragraph 0062 特許2530249号公報(特開平4−139966号公報)Japanese Patent No. 2530249 (Japanese Patent Laid-Open No. 4-139966) 特許2959142号公報Japanese Patent No. 2959142 特許3469590号公報(特開平5−183796号公報)Japanese Patent No. 3469590 (Japanese Patent Laid-Open No. 5-183796) 特開2002−287846号公報(特開2004−62188号公報)JP 2002-287846 A (JP 2004-62188 A) 特開2006−285639号公報JP 2006-285639 A 特開2006−276699号公報JP 2006-276699 A 特開平4−73731号公報JP-A-4-73731 特開2006−129176号公報JP 2006-129176 A 特開2002−64745号公報、段落0109、段落0116、図23JP 2002-64745 A, paragraph 0109, paragraph 0116, FIG. 特許公開2009−104427号公報Japanese Patent Publication No. 2009-104427

従来技術では、輪郭強調は画面全体、検出された顔、主要被写体などに一律に適用される。よって例えば、従来技術では、主要被写体にピントがあっており背景にはピントがあってない場合であっても、背景に輪郭強調が施される。この結果、ぼやけた部分の輪郭が強調され、好ましくない画像が得られる。本発明は、被写体距離を考慮した輪郭強調を実施する。   In the prior art, contour enhancement is uniformly applied to the entire screen, the detected face, the main subject, and the like. Thus, for example, in the prior art, contour enhancement is performed on the background even when the main subject is in focus and the background is not in focus. As a result, the outline of the blurred part is emphasized, and an undesirable image is obtained. The present invention performs contour enhancement in consideration of subject distance.

本発明は、撮像レンズを介して結像された被写体を撮像素子により光電変換することで得られた画像データを入力する入力部と、被写体までの距離を算出する距離算出部と、距離算出部の算出した距離に応じた強度の輪郭強調処理を、入力部の入力した画像データに対して実施する輪郭強調処理部と、を備える画像処理装置を提供する。   The present invention relates to an input unit for inputting image data obtained by photoelectrically converting a subject imaged via an imaging lens by an imaging element, a distance calculation unit for calculating a distance to the subject, and a distance calculation unit There is provided an image processing apparatus comprising: a contour emphasis processing unit that performs contour emphasis processing with an intensity corresponding to the calculated distance for image data input by an input unit.

好ましくは、画像処理装置は、画像データの所定の合焦領域に存在する被写体に合焦するよう撮像レンズの位置を制御する合焦制御部を備え、距離算出部は、画像データの所定の合焦領域に存在する被写体である合焦被写体までの距離と合焦被写体以外の被写体である周辺被写体までの距離との差を算出し、輪郭強調処理部は、合焦被写体までの距離と周辺被写体までの距離との差に応じた強度の輪郭強調処理を周辺被写体に実施する。   Preferably, the image processing apparatus includes a focusing control unit that controls a position of the imaging lens so that a subject existing in a predetermined focusing area of the image data is focused, and the distance calculation unit includes a predetermined focusing of the image data. The contour enhancement processing unit calculates the difference between the distance to the focused subject that is the subject in the focal area and the distance to the peripheral subject that is a subject other than the focused subject. Intensity contour enhancement processing according to the difference from the distance to the subject is performed on the peripheral subject.

好ましくは、輪郭強調処理部は、合焦被写体までの距離と周辺被写体までの距離との差が大きくなるにつれて強度を弱めた輪郭強調処理を周辺被写体に実施する。   Preferably, the contour emphasizing processing unit performs contour emphasizing processing with decreasing intensity as the difference between the distance to the focused subject and the distance to the surrounding subject increases.

すなわち、本発明によると、距離差に応じて輪郭強調を弱めることで、自然な画像が得られる。   That is, according to the present invention, a natural image can be obtained by weakening the contour enhancement according to the distance difference.

好ましくは、画像処理装置は、撮影モードを設定するモード設定部を備え、輪郭強調処理部は、モード設定部の設定した撮影モードに応じて合焦被写体までの距離と周辺被写体までの距離との差に応じた強度の輪郭強調処理を周辺被写体に実施する。   Preferably, the image processing apparatus includes a mode setting unit that sets a shooting mode, and the contour emphasis processing unit determines whether the distance to the in-focus subject and the distance to the surrounding subject are in accordance with the shooting mode set by the mode setting unit. An edge enhancement process with an intensity corresponding to the difference is performed on the peripheral subject.

好ましくは、輪郭強調処理部は、モード設定部の設定した撮影モードが人物モードであることに応じて合焦被写体よりも弱い強度の輪郭強調処理を周辺被写体に実施する。   Preferably, the contour emphasis processing unit performs the contour emphasis processing with weaker intensity than the focused subject on the peripheral subject in accordance with the shooting mode set by the mode setting unit being the person mode.

すなわち、人物モードの場合は人物に近い被写体の輪郭強調を弱めることで、相対的に人物を強調し、人物モードに相応しい画像を得ることができる。   That is, in the case of the person mode, it is possible to weaken the contour emphasis of the subject close to the person, thereby relatively enhancing the person and obtaining an image suitable for the person mode.

好ましくは、輪郭強調処理部は、モード設定部の設定した撮影モードが風景モードであることに応じて合焦被写体と同一の強度の輪郭強調処理を周辺被写体に実施する。   Preferably, the contour emphasis processing unit performs the contour emphasis processing on the peripheral subject with the same intensity as that of the focused subject in accordance with the shooting mode set by the mode setting unit being the landscape mode.

すなわち、風景モードの場合は近距離に合焦した場合も遠景の輪郭強調を弱めないことで遠景の画質を向上させ、風景モードに相応しい画像を得ることができる。   That is, in the landscape mode, the image quality of the distant view can be improved and the image suitable for the landscape mode can be obtained by not weakening the outline enhancement of the distant view even when focusing on a short distance.

好ましくは、画像処理装置は、画像データに所定の合焦領域を設定する合焦領域設定部と、合焦領域設定部の設定した所定の合焦領域と画像データの中央部との間の画像データ上での位置の差異を判定する判定部と、を備え、輪郭強調処理部は、判定部が判定した差異に応じて、画像データの中央部以外の領域より弱い強度の輪郭強調処理を画像データの中央部に実施する。   Preferably, the image processing apparatus includes an in-focus area setting unit that sets a predetermined in-focus area in the image data, and an image between the predetermined in-focus area set by the in-focus area setting unit and the central portion of the image data. A determination unit that determines a difference in position on the data, and the contour enhancement processing unit performs an edge enhancement process that is weaker than the region other than the central portion of the image data according to the difference determined by the determination unit. Perform in the center of the data.

すなわち、画面中心はレンズ性能がよいので、画像データの中央部の輪郭強調を弱めることで、画像全体のバランスをとることができる。   That is, since the lens performance is good at the center of the screen, it is possible to balance the entire image by weakening the edge enhancement at the center of the image data.

輪郭強調処理部は、ズームレンズの焦点距離に応じた強度の輪郭強調処理を画像データの中央部に実施する。   The contour emphasis processing unit performs a contour emphasis process with an intensity corresponding to the focal length of the zoom lens at the center of the image data.

すなわち、ズームレンズの焦点距離に応じて画面中央のレンズ性能が変化することを考慮し、ズームの焦点距離に応じて画面中央の輪郭強調の強度を変え、画像全体のバランスをとることができる。   In other words, taking into consideration that the lens performance at the center of the screen changes according to the focal length of the zoom lens, the intensity of contour emphasis at the center of the screen can be changed according to the focal length of the zoom to balance the entire image.

距離算出部は、画像データの全体を実質的に被覆する領域のデフォーカス量に基づいて被写体までの距離を算出し、合焦制御部は、所定の合焦領域のデフォーカス量に基づいて撮像レンズの位置を制御する。   The distance calculation unit calculates the distance to the subject based on the defocus amount of the region that substantially covers the entire image data, and the focus control unit captures an image based on the defocus amount of the predetermined focus region Control the position of the lens.

ここで、画像データの全体を実質的に被覆する領域とは、画像データの全体を完全に隙間なく覆っていることを意味せず、画像データを密にあるいは粗に覆うことを含む。   Here, the region that substantially covers the entire image data does not mean that the entire image data is completely covered without a gap, but includes covering the image data densely or roughly.

本発明は、画像処理装置が、撮像レンズを介して結像された被写体を撮像素子により光電変換することで得られた画像データを入力するステップと、被写体までの距離を算出するステップと、算出した距離に応じた強度の輪郭強調処理を、入力した画像データに対して実施するステップと、を実行する画像処理方法を提供する。   The present invention includes a step in which an image processing apparatus inputs image data obtained by photoelectrically converting a subject imaged through an imaging lens by an imaging device, a step of calculating a distance to the subject, and a calculation An image processing method is provided for executing a contour enhancement process with an intensity according to the distance performed on input image data.

本発明は、この画像処理方法を画像処理装置に実行させるための画像処理プログラムを提供する。   The present invention provides an image processing program for causing an image processing apparatus to execute this image processing method.

この発明によると、被写体までの距離に応じた強度の輪郭強調処理が実施される。従って、例えば、合焦被写体に比して距離の差が大きい被写体すなわちピントの大きくずれた被写体に対する輪郭強調処理を弱め、自然な画像を得ることができる。   According to the present invention, the contour emphasis processing with the intensity corresponding to the distance to the subject is performed. Therefore, for example, it is possible to weaken the contour enhancement processing for a subject having a large distance difference compared to the focused subject, that is, a subject that is greatly out of focus, and obtain a natural image.

撮像装置(デジタルカメラ)の実施の形態を示すブロック図The block diagram which shows embodiment of an imaging device (digital camera) CCDの構成例を示す図(ベイヤ型配列の例)A diagram showing an example of the configuration of a CCD (example of Bayer array) CCDの構成例を示す図(ベイヤ型配列の他の例)A diagram showing a configuration example of a CCD (another example of a Bayer array) CCDの構成例を示す図(ハニカム型配列の例)Diagram showing CCD configuration example (honeycomb array example) CCDの要部拡大図Enlarged view of the main part of CCD CCDの断面を模式的に示した図The figure which showed the cross section of CCD typically 焦点状態と位相差検出用の画素A、画素Bの出力(位相差)との関係を示す図The figure which shows the relationship between a focus state and the output (phase difference) of the pixel A and the pixel B for phase difference detection 他のCCDの構成例を示す図The figure which shows the structural example of other CCD 第1実施形態の撮影処理のフローチャートFlowchart of photographing process according to the first embodiment 第2実施形態の撮影処理のフローチャートFlowchart of photographing process of the second embodiment 第3実施形態の撮影処理のフローチャートFlowchart of photographing process according to the third embodiment 第4実施形態の撮影処理のフローチャートFlowchart of photographing process according to the fourth embodiment 撮像レンズの像高の例を示す図The figure which shows the example of the image height of the imaging lens 第5実施形態の撮影処理のフローチャートFlowchart of shooting process of the fifth embodiment

以下、添付図面に従って本発明に係る撮像装置の実施の形態について説明する。   Hereinafter, embodiments of an imaging apparatus according to the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
[撮像装置の全体構成]
図1は本発明に係る撮像装置(デジタルカメラ)10の実施の形態を示すブロック図である。
<First Embodiment>
[Overall configuration of imaging device]
FIG. 1 is a block diagram showing an embodiment of an imaging apparatus (digital camera) 10 according to the present invention.

このデジタルカメラ10は、撮像した画像を不揮発性記憶媒体、好ましくはメモリカード54その他の可搬性記憶媒体に記録するもので、カメラ全体の動作は、中央処理装置(CPU)40によって統括制御される。CPU40の実行するプログラムやその実行に必要なパラメータ、例えばフォーカス領域の座標などは、ROM53などの不揮発性記憶媒体に記憶されている。CPU40は撮影処理などのプログラムを実行する際のバッファとして、メモリ(SDRAM)48やVRAM50などの揮発性記憶媒体を利用する。   The digital camera 10 records captured images on a non-volatile storage medium, preferably a memory card 54 or other portable storage medium, and the operation of the entire camera is centrally controlled by a central processing unit (CPU) 40. . Programs executed by the CPU 40 and parameters necessary for the execution, such as the coordinates of the focus area, are stored in a nonvolatile storage medium such as the ROM 53. The CPU 40 uses a volatile storage medium such as a memory (SDRAM) 48 or a VRAM 50 as a buffer when executing a program such as a photographing process.

デジタルカメラ10には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキーなどを含む操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいてデジタルカメラ10の各回路を制御し、例えば、撮像準備(ズームレンズ駆動制御、AF、AE)および本撮像(記録用画像データの取得)を含む撮像制御、画像処理制御、画像データの記録/再生制御、表示部30の表示制御などを行う。なお、操作部38はボタンやキーのみで構成する必要はなく、ボタンやキーの等価物、例えばタッチパネル、音声センサ、視線センサといった各種のユーザインターフェースでも構成されうる。   The digital camera 10 is provided with an operation unit 38 including a shutter button, a mode dial, a playback button, a MENU / OK key, a cross key, a BACK key, and the like. A signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the digital camera 10 based on the input signal. For example, imaging preparation (zoom lens drive control, AF, AE) and main imaging (for recording) Imaging control including image data acquisition), image processing control, image data recording / reproduction control, display control of the display unit 30, and the like are performed. Note that the operation unit 38 does not need to be configured only with buttons and keys, and can be configured with various user interfaces such as buttons and keys equivalents, for example, a touch panel, an audio sensor, and a line-of-sight sensor.

操作部38のシャッタボタンは、撮像開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、静止画を撮像するオート撮像モード(通常撮影モード)、マニュアル撮像モード、人物、風景、夜景等のシーンポジション、および動画を撮像する動画モードのいずれかを選択する撮像モードの選択手段である。   The shutter button of the operation unit 38 is an operation button for inputting an instruction to start imaging, and includes a two-stage stroke type switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. . The mode dial selects an imaging mode selection unit that selects any one of an auto imaging mode (normal shooting mode) for capturing a still image, a manual imaging mode, a scene position such as a person, a landscape, a night view, and a moving image mode for capturing a moving image. It is.

再生ボタンは、撮像記録した静止画または動画を液晶モニタや有機EL(エレクトロルミネセンス)ディスプレイなどで構成された表示部30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、表示部30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定および実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮像時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。   The playback button is a button for switching to a playback mode in which a captured still image or moving image is displayed on the display unit 30 including a liquid crystal monitor or an organic EL (electroluminescence) display. The MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the display unit 30 and a function as an OK button for instructing confirmation and execution of selection contents. It is. The cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do. In addition, the up / down key of the cross key functions as a zoom switch at the time of imaging or a playback zoom switch in the playback mode, and the left / right key functions as a frame advance (forward / reverse feed) button in the playback mode. . The BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.

撮像モード時において、被写体を示す画像光は、撮像レンズ12、絞り14を介して固体撮像素子16の受光面に結像される。以下、固体撮像素子16はCCDとするが、CMOSなどでもよい。撮像レンズ12はフォーカスレンズおよびズームレンズを含む。これらのレンズは、CPU40によって制御されるレンズ駆動部36によって光軸方向に駆動され、合焦位置の検出と当該検出された合焦位置へのフォーカスレンズ移動を行うフォーカス制御、操作部38からの指示に応じて焦点距離をテレ(望遠)側またはワイド(広角)側に変化させるズーム制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部34によって駆動され、例えば、絞り値F2.8 〜F11まで1AV刻みで5段階に絞り制御される。   In the imaging mode, image light indicating the subject is imaged on the light receiving surface of the solid-state imaging device 16 via the imaging lens 12 and the diaphragm 14. Hereinafter, the solid-state imaging device 16 is a CCD, but may be a CMOS or the like. The imaging lens 12 includes a focus lens and a zoom lens. These lenses are driven in the optical axis direction by a lens driving unit 36 controlled by the CPU 40, and focus control for detecting the focus position and moving the focus lens to the detected focus position, from the operation unit 38. In accordance with the instruction, zoom control or the like for changing the focal length to the tele (telephoto) side or the wide (wide angle) side is performed. The diaphragm 14 is composed of, for example, five diaphragm blades, and is driven by the diaphragm driving unit 34 controlled by the CPU 40. For example, the diaphragm 14 is controlled in five stages from the aperture values F2.8 to F11 in increments of 1AV.

また、CPU40は、絞り駆動部34を介して絞り14を制御するとともに、撮像制御部32を介してCCD16での電荷蓄積時間(シャッタスピード)や、CCD16からの画像信号の読み出し制御等を行う。   Further, the CPU 40 controls the diaphragm 14 via the diaphragm driving unit 34, and performs charge accumulation time (shutter speed) in the CCD 16, image signal readout control from the CCD 16, and the like via the imaging control unit 32.

なお、図1の各ブロックの全てが1つの撮像装置に一体化されている必要はなく、それらの全部または一部が各々独立した複数の装置に組み込まれていてもよい。例えば、撮像レンズ12、絞り14、固体撮像素子16、撮像制御部32、絞り駆動部34、レンズ駆動部36、アナログ信号処理部18、A/D変換部20、画像入力コントローラ22などの画像データの取得に関する各ブロック(撮像部)と、VRAM50、メモリ48、デジタル信号処理部24などの取得された画像データに対する画像処理に関する各ブロック(画像処理部)とは、必ずしも一体の装置に構成されなくてもよい。撮像部を外付け用カメラユニットとし、撮像部以外のブロックは、当該カメラから画像信号などを通信可能な画像処理部としてもよい。   Note that all of the blocks in FIG. 1 do not have to be integrated into one imaging device, and all or part of them may be incorporated into a plurality of independent devices. For example, image data such as the imaging lens 12, the diaphragm 14, the solid-state imaging device 16, the imaging controller 32, the diaphragm driver 34, the lens driver 36, the analog signal processor 18, the A / D converter 20, and the image input controller 22. Each block (imaging unit) related to image acquisition and each block (image processing unit) related to image processing on acquired image data such as the VRAM 50, the memory 48, and the digital signal processing unit 24 are not necessarily configured as an integrated apparatus. May be. The imaging unit may be an external camera unit, and blocks other than the imaging unit may be image processing units that can communicate image signals and the like from the camera.

図2は本発明に係るCCD16の構成例を示す図である。図2(a)および(b)はベイヤ型配列、図2(c)はハニカム型配列の一例である。   FIG. 2 is a diagram showing a configuration example of the CCD 16 according to the present invention. 2A and 2B show an example of a Bayer type arrangement, and FIG. 2C shows an example of a honeycomb type arrangement.

図2(a)に示すように、CCD16は、マトリクス状に配列された偶数ラインの画素群と、奇数ラインの画素群とを有しており、これらの2つの画素群にてそれぞれ光電変換された2面分の画像信号は、後述するように独立して読み出すことができるようになっている。各画素群に対応する複数の受光素子は、有効な撮像信号を得るための有効画素領域と、黒レベルの基準信号を得るためのオプティカルブラック領域(以下「OB領域」という)とを形成する。OB領域は、実際には、有効画素領域の周囲を取り囲むように形成される。位相差検出用の画素群は有効画素領域の全体に渡って配列されていれば足り、OB領域には配列されなくてもよい。   As shown in FIG. 2A, the CCD 16 has an even line pixel group and an odd line pixel group arranged in a matrix, and photoelectric conversion is performed in each of these two pixel groups. The image signals for the two surfaces can be read independently as will be described later. The plurality of light receiving elements corresponding to each pixel group form an effective pixel region for obtaining an effective imaging signal and an optical black region (hereinafter referred to as “OB region”) for obtaining a black level reference signal. The OB region is actually formed so as to surround the effective pixel region. It suffices if the pixel group for phase difference detection is arranged over the entire effective pixel area, and does not have to be arranged in the OB area.

図2(a)に示すように、CCD16はR(赤)、G(緑)、B(青)のカラーフィルタを備えた画素を有する。偶数ライン(0、2、4、…)には、GBGB…の画素が配列される。一方、奇数ライン(1、3、5、…)には、RGRGRG…の画素が配列される。偶数ラインの画素は、奇数ラインの画素に対して画素同士が2分の1ピッチだけライン方向に沿って左または右に交互にずれて配置されている。   As shown in FIG. 2A, the CCD 16 has pixels having R (red), G (green), and B (blue) color filters. In the even lines (0, 2, 4,...), GBGB... Pixels are arranged. On the other hand, RGRRGRG... Pixels are arranged in odd lines (1, 3, 5,...). The pixels on the even lines are alternately shifted to the left or right along the line direction by a half pitch with respect to the pixels on the odd lines.

また、偶数ラインの画素は、位相差検出用の画素として構成されている。即ち、図3に示すように、偶数ラインの位相差検出用の画素では、光電変換素子(フォトダイオード)PDの中心と、その上方に設けられたマイクロレンズL1の中心とがずれている。一方、奇数ラインの通常の画素では、光電変換素子(フォトダイオード)PDの中心と、その上方に設けられたマイクロレンズL2の中心とが一致している。またマイクロレンズL1は、マイクロレンズL2よりも小さいものとなっている。   The pixels on the even lines are configured as pixels for phase difference detection. That is, as shown in FIG. 3, in the even number line phase difference detection pixels, the center of the photoelectric conversion element (photodiode) PD is shifted from the center of the microlens L1 provided thereabove. On the other hand, in a normal pixel of an odd line, the center of the photoelectric conversion element (photodiode) PD and the center of the microlens L2 provided above the same coincide. The microlens L1 is smaller than the microlens L2.

また、図2および図3上で符号A、Bで区別されているように、位相差検出用の画素は、フォトダイオードPDに対してマイクロレンズL1が左にずれているもの(画素A)と、右にずれているもの(画素B)との2種類の画素を有している。位相差検出用の各画素A・Bは同一色のカラーフィルタを備え、好ましくはG(緑)のカラーフィルタを備える。   In addition, as distinguished by reference signs A and B in FIGS. 2 and 3, the phase difference detection pixel is different from the one in which the microlens L1 is shifted to the left with respect to the photodiode PD (pixel A). , And two types of pixels that are shifted to the right (pixel B). Each of the pixels A and B for phase difference detection includes a color filter of the same color, and preferably includes a G (green) color filter.

図4は上記CCD16の断面を模式的に示したものである。図4に示すように通常の画素は、撮像レンズ12の射出瞳を通過する光束の受光方向の制限を受けないようにマイクロレンズL2によりフォトダイオードPD上に集光されているが、位相差検出用の画素は、撮像レンズ12の射出瞳を通過する光束の受光方向の制限を受けるようにマイクロレンズL1とフォトダイオードPDとが配置されており、画素Aと画素Bとでは、光束の受光方向の制限方向が異なる。   FIG. 4 schematically shows a cross section of the CCD 16. As shown in FIG. 4, the normal pixels are condensed on the photodiode PD by the microlens L2 so as not to be limited in the light receiving direction of the light beam passing through the exit pupil of the imaging lens 12, but the phase difference detection is performed. In the pixel for use, the microlens L1 and the photodiode PD are arranged so as to be limited in the light receiving direction of the light beam passing through the exit pupil of the imaging lens 12, and in the pixel A and the pixel B, the light receiving direction of the light beam. The restriction direction is different.

従って、図5に示すように後ピン、合焦、前ピンの状態に応じて画素Aと画素Bの出力は、位相がずれるかまたは位相が一致する。上記位相差検出用の画素A,Bの出力信号の位相差は撮像レンズ12のデフォーカス量に対応するため、この位相差を検出することにより撮像レンズ12のAF制御を行うことができる。なお、詳細は省略するが、図2(a)と同様、図2(b)および(c)のような画素配列の場合でも、同一色のカラーフィルタを備えた位相差検出用の画素AおよびBのフォトダイオードPDの中心に対するマイクロレンズの中心を左または右に交互にずらして配列することにより、位相差を検出することができる。さらに、位相差検出用の画素AおよびBは、密に配列されてもよいし、粗に配列されてもよい。   Therefore, as shown in FIG. 5, the outputs of the pixel A and the pixel B are out of phase or in phase with each other depending on the state of the rear pin, in-focus, and front pin. Since the phase difference between the output signals of the pixels A and B for detecting the phase difference corresponds to the defocus amount of the imaging lens 12, AF control of the imaging lens 12 can be performed by detecting this phase difference. Although details are omitted, similarly to FIG. 2A, even in the case of the pixel arrangement as shown in FIG. 2B and FIG. 2C, the phase difference detection pixel A including the color filters of the same color and The phase difference can be detected by arranging the centers of the microlenses with respect to the center of the photodiode PD of B to be alternately shifted left or right. Further, the pixels A and B for phase difference detection may be arranged densely or roughly.

この位相差は、所定のフォーカス領域に含まれる小領域の各々について算出されるだけでなく、有効画素領域の全体を実質的に被覆する複数の小領域の各々について算出される。有効画素領域の全体を実質的に被覆する複数の小領域とは、有効画素領域の全体を完全に覆っている必要はなく、フォーカス領域を除く有効画素領域の全体に渡って密にあるいは粗に配列されていればよい。例えば、特許文献8のように、有効画素領域をマトリクス状に所定の単位(例えば8×8画素)、あるいはそれ以下(例えば1×1画素)、あるいはそれ以上(例えば10×10画素)で分割した分割領域の各々について位相差が算出される。あるいは、有効画素領域の外縁を起点に所定のピッチ(例えば分割領域1つ分、あるいはそれ以上、あるいはそれ以下)を隔てた所定の単位の分割領域ごとに位相差が算出される。要するに位相差は有効画素領域の全体に渡って算出されるものとするが、必ずしも有効画素領域を構成する小領域の全てについて算出されなくてもよい。   This phase difference is calculated not only for each of the small areas included in the predetermined focus area, but also for each of a plurality of small areas that substantially cover the entire effective pixel area. The plurality of small areas that substantially cover the entire effective pixel area do not need to completely cover the entire effective pixel area, but are densely or roughly distributed over the entire effective pixel area except the focus area. It only has to be arranged. For example, as in Patent Document 8, the effective pixel area is divided into a predetermined unit (for example, 8 × 8 pixels), or less (for example, 1 × 1 pixel) or more (for example, 10 × 10 pixels) in a matrix. A phase difference is calculated for each of the divided areas. Alternatively, the phase difference is calculated for each divided region in a predetermined unit separated from the outer edge of the effective pixel region by a predetermined pitch (for example, one divided region or more or less). In short, it is assumed that the phase difference is calculated over the entire effective pixel area, but it is not necessarily calculated for all of the small areas constituting the effective pixel area.

なお、位相差検出用の画素A,Bは、図3および図4に示したようにマイクロレンズL2をずらして構成する場合に限らず、マイクロレンズに対してフォトダイオードPDの位置をずらすようにしてもよく、また、図6に示すように2つのフォトダイオードPD上に1つのマイクロレンズL3を設け、この2つのフォトダイオードPDをそれぞれ画素A,Bとしてもよい。   Note that the phase difference detection pixels A and B are not limited to the configuration in which the microlens L2 is shifted as shown in FIGS. 3 and 4, and the position of the photodiode PD is shifted with respect to the microlens. Alternatively, as shown in FIG. 6, one microlens L3 may be provided on the two photodiodes PD, and the two photodiodes PD may be used as the pixels A and B, respectively.

図1に戻って、CCD16に蓄積された信号電荷は、撮像制御部32から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。CCD16から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素ごとのR、G、B信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。   Returning to FIG. 1, the signal charge accumulated in the CCD 16 is read out as a voltage signal corresponding to the signal charge based on the readout signal applied from the imaging control unit 32. The voltage signal read from the CCD 16 is applied to the analog signal processing unit 18 where the R, G, and B signals for each pixel are sampled and held, amplified, and then applied to the A / D converter 20. The A / D converter 20 converts R, G, and B signals that are sequentially input into digital R, G, and B signals and outputs them to the image input controller 22.

なお、CCD16からは偶数ラインの1画面分(A面)の画像信号が読み出され、続いて奇数ラインの1画面分(B面)の画像信号が読み出され、A面、B面の画像信号は、後述するように適宜画像処理される。   The image signal for one screen (A surface) of even lines is read from the CCD 16, and the image signal for one screen (B surface) of odd lines is subsequently read, and the images of the A and B surfaces are read. The signal is appropriately subjected to image processing as will be described later.

デジタル信号処理部24は、画像入力コントローラ22を介して入力するA面およびB面の画像信号に対して、オフセット処理、ホワイトバランス補正処理、感度補正処理、ゲイン・コントロール処理、ガンマ補正処理、ノイズ低減処理といった補正処理と、当該補正処理後のA面およびB面の画像信号の合成処理、当該合成処理されたA面・B面の画像信号である合成画像に対するYC処理、YC処理で得られたY信号(輝度信号)に対する輪郭強調等が行われる。   The digital signal processing unit 24 performs offset processing, white balance correction processing, sensitivity correction processing, gain control processing, gamma correction processing, noise on the A-side and B-side image signals input via the image input controller 22. Obtained by correction processing such as reduction processing, synthesis processing of the image signals of the A and B surfaces after the correction processing, YC processing and YC processing on the composite image that is the image signals of the A and B surfaces subjected to the synthesis processing Edge enhancement for the Y signal (luminance signal) is performed.

特許文献9と同様、デジタル信号処理部24の輪郭強調処理は、次の処理を含みうる。輪郭補正処理では、まず合成画像から輪郭成分を抽出する。輪郭成分の抽出は、例えば合成画像の輝度を表す輝度信号Yに対し、帯域通過フィルタ(BPF)や高域通過フィルタ(HPF)等のフィルタリング処理を行うことで実現できる。これにより、処理対象の画像データが表す原画像上の各部分(各画素位置)における輪郭成分の強度を表す輪郭成分データが得られる。輪郭成分データが表す原画像上の各部分の輪郭成分の強度は、原画像上の各部分におけるフィルタ演算を行う単位領域(例えば3×3画素の領域、あるいはそれ以上またはそれ以下の領域、例えば位相差の算出単位となる分割領域と同一の領域)内のコントラスト(輝度のレベル差)に依存し、コントラストが小さい部分では輪郭成分の強度も小さくなり、コントラストが大きい部分では輪郭成分の強度も大きくなる。   Similar to Patent Document 9, the contour enhancement processing of the digital signal processing unit 24 may include the following processing. In the contour correction process, a contour component is first extracted from the composite image. The extraction of the contour component can be realized, for example, by performing a filtering process such as a band pass filter (BPF) or a high pass filter (HPF) on the luminance signal Y representing the luminance of the composite image. Thereby, contour component data representing the strength of the contour component in each portion (each pixel position) on the original image represented by the image data to be processed is obtained. The intensity of the contour component of each part on the original image represented by the contour component data is a unit area (for example, a 3 × 3 pixel area, or an area of more or less than that, for example, an area of the original image) Depending on the contrast (brightness level difference) within the same divided area as the phase difference calculation unit, the intensity of the contour component is reduced at low contrast areas, and the intensity of the contour component at high contrast areas. growing.

次に、デジタル信号処理部24は、CPU40からの制御に従ってROM53に予め記憶されている変換特性情報を読み出す。上記の変換特性情報は、複数の種類存在する。ここでは、ROM53は、第1ないし第4の変換特性情報を記憶する。変換特性情報は、変換特性を関数によって規定する情報であるが、これに代えてLUTに設定する変換データでもよい。   Next, the digital signal processing unit 24 reads the conversion characteristic information stored in advance in the ROM 53 according to the control from the CPU 40. There are a plurality of types of the conversion characteristic information. Here, the ROM 53 stores first to fourth conversion characteristic information. The conversion characteristic information is information that defines the conversion characteristic by a function, but may be conversion data set in the LUT instead.

第1の変換特性情報は、入力されたデータの値が大きくなるに従って、入力データの値の変化に対する出力データの値の変化の傾き(この傾きは輪郭成分の強度変換におけるゲインに相当する)が小さくなるように定められた変換特性を規定する。   In the first conversion characteristic information, as the value of the input data increases, the slope of the change in the value of the output data with respect to the change in the value of the input data (this slope corresponds to the gain in the intensity conversion of the contour component). A conversion characteristic determined to be small is specified.

また、第2の変換特性情報は、各周辺領域の画像データに対応する合焦被写体との距離差の値が大きくなるに従って、入力データの値の変化に対する出力データの値の変化の傾きが小さくなるように定められた変換特性を規定する。例えば、第2の変換特性情報は、周辺領域の画像データに対する輪郭強調の強度(ゲイン)=(当該周辺領域内の被写体の距離情報−所定のフォーカス領域内の被写体の距離情報)×α(所定の定数)を規定する。   Further, the second conversion characteristic information indicates that the slope of the change in the value of the output data with respect to the change in the value of the input data becomes smaller as the value of the distance difference from the in-focus subject corresponding to the image data in each peripheral region becomes larger. The conversion characteristics determined to be are defined. For example, the second conversion characteristic information includes the intensity (gain) of edge enhancement with respect to image data in the peripheral area = (distance information of the subject in the peripheral area−distance information of the subject in the predetermined focus area) × α (predetermined Constant).

また、第3の変換特性情報は、入力されたデータの値が大きくなるに従って、入力データの値の変化に対する出力データの値の変化の傾きが小さくなるように定められた変換特性を規定する。ただし、第3の変換特性情報の傾きは第1の変換特性情報の傾きよりも小さく、輪郭強調の強度が弱いものとする。第3の変換特性情報の傾きは0でもよい。   The third conversion characteristic information defines a conversion characteristic determined such that the slope of the change in the value of the output data with respect to the change in the value of the input data becomes smaller as the value of the input data becomes larger. However, it is assumed that the inclination of the third conversion characteristic information is smaller than the inclination of the first conversion characteristic information, and the edge enhancement strength is weak. The slope of the third conversion characteristic information may be zero.

また、第4の変換特性情報は、周辺領域の画像データに対応する撮像レンズ12の焦点距離が小さくなるに従って(画角が広角側から望遠側に遷移するに従って)、入力データの値の変化に対する出力データの値の変化の傾きが小さくなるように定められた変換特性を規定する。   In addition, the fourth conversion characteristic information corresponds to the change in the value of the input data as the focal length of the imaging lens 12 corresponding to the image data in the peripheral area becomes smaller (as the angle of view changes from the wide angle side to the telephoto side). A conversion characteristic is defined so that the gradient of change in the value of the output data becomes small.

デジタル信号処理部24は、読み出した変換特性情報に基づいて、輪郭成分データが表す輪郭成分の強度を変換する。これにより、原画像の各部分における輪郭成分の強度(各部分のコントラスト)に応じて各部分の輪郭強調の度合い(ゲイン)が変化することになる。   The digital signal processing unit 24 converts the strength of the contour component represented by the contour component data based on the read conversion characteristic information. As a result, the degree of contour emphasis (gain) of each part changes according to the strength of the contour component (contrast of each part) in each part of the original image.

デジタル信号処理部24の処理で得られたYC信号からなる画像データは、VRAM50に入力する。VRAM50には、それぞれが1コマ分の画像を表す画像データを記憶するX領域とY領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがX領域とY領域とで交互に書き換えられる。VRAM50のX領域およびY領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。VRAM50から読み出された画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている表示部30に出力され、これにより被写体像が表示部30の表示画面上に表示される。   Image data composed of YC signals obtained by the processing of the digital signal processing unit 24 is input to the VRAM 50. The VRAM 50 includes an X area and a Y area each storing image data representing an image for one frame. In the VRAM 50, image data representing an image for one frame is rewritten alternately in the X area and the Y area. Of the X area and Y area of the VRAM 50, the written image data is read from an area other than the area where the image data is rewritten. The image data read from the VRAM 50 is encoded by the video encoder 28 and output to the display unit 30 provided on the back of the camera, whereby the subject image is displayed on the display screen of the display unit 30.

また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、AF動作およびAE動作が開始する。即ち、A/D変換器20から出力される画像データのうちのB面の画像データ(位相差検出用の画素の出力信号)がAF検出部42に取り込まれる。AF検出部42は、B面の画像データの所定のフォーカス領域内の画素Aの画像データと画素Bの画像データとの位相差を検出し、この位相差を示す情報をCPU40に出力する。CPU40は、AF検出部42から入力する位相差情報に基づいてデフォーカス量を求め、このデフォーカス量が0になるようにレンズ駆動部36を介して撮像レンズ12に含まれるフォーカスレンズの位置を制御する。   Further, when the shutter button of the operation unit 38 is pressed (half-pressed) in the first stage, the AF operation and the AE operation are started. That is, the image data of the B surface (the output signal of the phase difference detection pixel) among the image data output from the A / D converter 20 is taken into the AF detection unit 42. The AF detection unit 42 detects the phase difference between the image data of the pixel A and the image data of the pixel B within the predetermined focus area of the image data on the B surface, and outputs information indicating the phase difference to the CPU 40. The CPU 40 obtains the defocus amount based on the phase difference information input from the AF detection unit 42, and determines the position of the focus lens included in the imaging lens 12 via the lens driving unit 36 so that the defocus amount becomes zero. Control.

ただし、AF検出部42は、B面の画像データの所定のフォーカス領域以外の領域の画素Aの画像データと画素Bの画像データとの位相差を検出し、この位相差を示す情報をCPU40に出力することもできる。   However, the AF detection unit 42 detects the phase difference between the image data of the pixel A and the image data of the pixel B in an area other than the predetermined focus area of the image data on the B surface, and sends information indicating the phase difference to the CPU 40. It can also be output.

所定のフォーカス領域の位置は、CPU40により設定される。例えば、CPU40は、操作部38から「通常撮影モード」または「風景モード」が設定された場合、予めROM53に記憶された座標情報に基づいて設定された位置、例えば画面中央部の矩形領域(例えば画面中心点の座標を囲む16×16画素の矩形領域)を所定のフォーカス領域に設定する。あるいは、CPU40は、操作部38から「人物撮影モード」が設定された場合、顔検出部46により検出された顔領域を所定のフォーカス領域に設定する。あるいはCPU40は、操作部38を介してユーザにより適宜指示された領域を所定のフォーカス領域に設定してもよい。CPU40による所定のフォーカス領域の設定は、操作部38を介した撮像モードの選択と連動していてもよいし、連動していなくてもよい。   The position of the predetermined focus area is set by the CPU 40. For example, when “normal shooting mode” or “landscape mode” is set from the operation unit 38, the CPU 40 sets a position set based on the coordinate information stored in advance in the ROM 53, for example, a rectangular area (for example, a central area of the screen) A 16 × 16 pixel rectangular area surrounding the coordinates of the screen center point) is set as a predetermined focus area. Alternatively, when the “portrait shooting mode” is set from the operation unit 38, the CPU 40 sets the face area detected by the face detection unit 46 as a predetermined focus area. Alternatively, the CPU 40 may set an area appropriately designated by the user via the operation unit 38 as a predetermined focus area. The setting of the predetermined focus area by the CPU 40 may or may not be linked with the selection of the imaging mode via the operation unit 38.

顔検出部46での顔検出は、撮像画像内で所定の対象領域の位置を移動させながら、対象領域の画像と、ROM53に予め記憶された顔画像テンプレート(顔画像の特徴量)とを照合して両者の相関を調べ、相関スコアが予め設定された閾値を越えると、その対象領域を顔領域として検出する。その他、顔検出方法には、エッジ検出または形状パターン検出による顔検出方法、色相検出または肌色検出による顔検出方法等の公知の方法を利用することができる(例えば特許文献11を参照)。   Face detection by the face detection unit 46 is performed by collating the image of the target area with the face image template (face image feature amount) stored in advance in the ROM 53 while moving the position of the predetermined target area in the captured image. Then, the correlation between the two is examined, and when the correlation score exceeds a preset threshold, the target area is detected as a face area. In addition, as the face detection method, a known method such as a face detection method based on edge detection or shape pattern detection, a face detection method based on hue detection or skin color detection, or the like can be used (see, for example, Patent Document 11).

また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE検出部44に取り込まれる。AE検出部44では、画面全体のG信号を積算し、または画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、または顔検出部46により検出された顔領域のG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮像Ev値)を算出し、この撮像Ev値に基づいて絞り14の絞り値およびCCD16の電子シャッタ(シャッタスピード)をROM53の所定のプログラム線図に従って決定し、その決定した絞り値に基づいて絞り駆動部34を介して絞り14を制御するとともに、決定したシャッタスピードに基づいて撮像制御部32を介してCCD16での電荷蓄積時間を制御する。   The image data output from the A / D converter 20 when the shutter button is half-pressed is taken into the AE detection unit 44. The AE detection unit 44 integrates the G signals of the entire screen, integrates the G signals with different weights in the central portion and the peripheral portion of the screen, or calculates the G signal of the face area detected by the face detection unit 46. Integration is performed and the integrated value is output to the CPU 40. The CPU 40 calculates the brightness of the subject (imaging Ev value) from the integrated value input from the AE detection unit 44, and based on this imaging Ev value, the aperture value of the aperture 14 and the electronic shutter (shutter speed) of the CCD 16 are stored in the ROM 53. Determined according to a predetermined program diagram, controls the aperture 14 via the aperture drive unit 34 based on the determined aperture value, and accumulates charges in the CCD 16 via the imaging control unit 32 based on the determined shutter speed. Control the time.

AE動作およびAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力されるA面およびB面の画像データが画像入力コントローラ22からメモリ48に入力し、一時的に記憶される。以下、シャッタボタンの全押しに応じた画像データの取得を本撮像と呼ぶ。   When the AE operation and the AF operation are completed and the shutter button is pressed in the second stage (full press), the image data of the A and B planes output from the A / D converter 20 in response to the pressing is obtained. The image is input from the image input controller 22 to the memory 48 and temporarily stored. Hereinafter, acquisition of image data in response to a full press of the shutter button is referred to as main imaging.

A面およびB面の画像データは、メモリ48から読み出され、デジタル信号処理部24において補正処理、画像合成処理、合成された画像データの輝度データおよび色差データの生成処理(YC処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、デジタル信号処理部24にて、後述する輪郭強調処理が施された後、再びメモリ48に記憶される。続いて、YCデータは圧縮伸長処理部26に出力され、JPEG (joint photographic experts group)などの所定の圧縮処理が実行される。圧縮されたYCデータは、再びメモリ48に出力されて記憶されたのち、メディア・コントローラ52によって読み出され、メモリカード54に記録される。   The image data of the A and B surfaces is read from the memory 48 and includes correction processing, image synthesis processing, and luminance data and color difference data generation processing (YC processing) of the synthesized image data in the digital signal processing unit 24. Predetermined signal processing is performed. The YC-processed image data (YC data) is stored in the memory 48 again after being subjected to an edge emphasis process described later in the digital signal processing unit 24. Subsequently, the YC data is output to the compression / decompression processing unit 26, and a predetermined compression process such as JPEG (joint photographic experts group) is executed. The compressed YC data is output and stored again in the memory 48, and then read out by the media controller 52 and recorded in the memory card 54.

[撮像動作]
次に、上記構成のデジタルカメラ10による撮像時の動作について説明する。
[Imaging operation]
Next, the operation at the time of imaging by the digital camera 10 having the above configuration will be described.

図7は本発明に係る撮像装置(デジタルカメラ10)の撮影処理を示すフローチャートである。この処理はCPU40によって制御される。この処理をCPU40に実行させるためのプログラムはROM53などの不揮発性記憶媒体に記憶されている。   FIG. 7 is a flowchart showing a photographing process of the imaging apparatus (digital camera 10) according to the present invention. This process is controlled by the CPU 40. A program for causing the CPU 40 to execute this processing is stored in a nonvolatile storage medium such as the ROM 53.

図7において、CPU40は、操作部38のシャッタボタンが半押し(S1がON)されたか否かを判別する。シャッタボタンのS1がONされると、CPU40は、位相差検出用の画素の信号が含まれているB面の画像データの読み出しを行わせ、読み出した画像データにより位相差AF処理およびAE処理を行う。   In FIG. 7, the CPU 40 determines whether or not the shutter button of the operation unit 38 is half-pressed (S1 is ON). When S1 of the shutter button is turned ON, the CPU 40 reads out the image data of the B surface including the pixel signal for phase difference detection, and performs the phase difference AF process and the AE process with the read image data. Do.

即ち、S1では、CPU40は、AE検出部44を制御してG信号の積算を行わせ、その積算値に基づいてシャッタスピード、絞り値等の撮像条件を決定する。   That is, in S1, the CPU 40 controls the AE detection unit 44 to perform the integration of the G signal, and determines the imaging conditions such as the shutter speed and the aperture value based on the integrated value.

S2では、CPU40は、AF検出部42を制御して、所定のフォーカス領域内に含まれる小領域の画素Aの画像データと画素Bの画像データとの間の位相差の検出を行わせ、この位相差情報に基づいて所定のフォーカス領域内のデフォーカス量を求める。   In S2, the CPU 40 controls the AF detection unit 42 to detect the phase difference between the image data of the pixel A and the image data of the pixel B in the small area included in the predetermined focus area. A defocus amount in a predetermined focus area is obtained based on the phase difference information.

S3では、CPU40は、SDRAM48の主要デフォーカス量が0になるようにレンズ駆動部36を介して撮像レンズ12を制御し、所定のフォーカス領域内の被写体に撮像レンズ12を合焦させる。なお、撮像レンズ12の配置によっては、主要デフォーカス量が0になることが合焦状態を意味するとは限らない。   In S3, the CPU 40 controls the imaging lens 12 via the lens driving unit 36 so that the main defocus amount of the SDRAM 48 becomes 0, and focuses the imaging lens 12 on a subject in a predetermined focus area. Note that, depending on the arrangement of the imaging lens 12, the main defocus amount of 0 does not necessarily mean a focused state.

CPU40は、撮像レンズ12を合焦させたとき、所定のフォーカス領域内の画素Aの画像データと画素Bの画像データとの間の位相差情報を主要位相差情報としてSDRAM48に記憶する。   When the imaging lens 12 is brought into focus, the CPU 40 stores phase difference information between the image data of the pixel A and the image data of the pixel B in the predetermined focus area in the SDRAM 48 as main phase difference information.

またCPU40は、撮像レンズ12を合焦させたとき、AF検出部42を制御して、所定のフォーカス領域以外の有効画素領域に含まれる小領域である周辺領域の画素Aの画像データと画素Bの画像データとの間で位相差の検出を行わせ、この各周辺領域の位相差情報を周辺位相差情報としてSDRAM48に記憶する。   Further, when the imaging lens 12 is focused, the CPU 40 controls the AF detection unit 42 so that the image data and the pixel B of the pixel A in the peripheral area, which is a small area included in the effective pixel area other than the predetermined focus area. The phase difference is detected from the image data, and the phase difference information of each peripheral region is stored in the SDRAM 48 as the peripheral phase difference information.

S4では、CPU40は、シャッタボタンのS2がONされたと判別されると、S1のAE処理にて設定したシャッタ速度および絞り値と、S2のAF処理で設定された合焦レンズ位置とに応じた撮像条件で本撮像を行わせる。   In S4, when it is determined that the shutter button S2 is turned on, the CPU 40 responds to the shutter speed and aperture value set in the AE process in S1 and the focusing lens position set in the AF process in S2. The main imaging is performed under the imaging conditions.

S5では、CPU40は、この本撮像により取得されたCCD16のA面・B面の画像データをVRAM50に取得し、これらのA面・B面の画像データの補正処理、合成処理、YC処理を行うようデジタル信号処理部24を制御する。   In S5, the CPU 40 acquires the image data of the A and B surfaces of the CCD 16 acquired by the main imaging to the VRAM 50, and performs correction processing, composition processing, and YC processing of the image data of these A and B surfaces. The digital signal processing unit 24 is controlled.

S6では、CPU40は、SDRAM48の主要位相差情報から、所定のフォーカス領域内の被写体までの距離を示す主要距離情報を得る。また、CPU40は、SDRAM48の周辺位相差情報から、各周辺領域内の被写体までの距離を示す距離情報を得る。これは特許文献8のように位相差が距離情報に依存することに基づいて算出しうる。   In S <b> 6, the CPU 40 obtains main distance information indicating the distance to the subject in the predetermined focus area from the main phase difference information of the SDRAM 48. Further, the CPU 40 obtains distance information indicating the distance to the subject in each peripheral area from the peripheral phase difference information of the SDRAM 48. This can be calculated based on the fact that the phase difference depends on the distance information as in Patent Document 8.

CPU40は、各周辺領域に対応する距離情報と主要距離情報とから、所定のフォーカス領域内の被写体である合焦被写体と各周辺領域内の被写体である周辺被写体との距離差を周辺領域ごとに算出し、各周辺領域に対応する距離差をSDRAM48に記憶する。なお、上記距離差が算出可能であるならば、所定のフォーカス領域内の被写体に撮像レンズ12を合焦させる方式はTTL位相差検出方式に限らず、外部パッシブ方式、アクティブ方式などを採用してもよい。あるいは、CPU40は、合焦方式とは無関係な方式で被写体距離を算出してもよい。例えば、CPU40は、異なる位置に設けられた2台以上の撮像部を用いて被写体を撮像し、これにより取得された複数の画像(基準カメラによる基準画像および参照カメラによる参照画像)の間で対応する画素である対応点を探索し(ステレオマッチング)、互いに対応する基準画像上の画素と、参照画像上の画素との位置の差(視差)を算出し、視差に三角測量の原理を適用することにより、基準カメラまたは参照カメラから当該画素に対応する被写体上の点までの距離を計測してもよい。   The CPU 40 determines, for each peripheral area, the distance difference between the focused subject that is the subject in the predetermined focus area and the peripheral subject that is the subject in each peripheral area from the distance information corresponding to each peripheral area and the main distance information. The distance difference corresponding to each peripheral area is calculated and stored in the SDRAM 48. If the distance difference can be calculated, the method of focusing the imaging lens 12 on the subject in the predetermined focus area is not limited to the TTL phase difference detection method, and an external passive method, an active method, or the like is adopted. Also good. Alternatively, the CPU 40 may calculate the subject distance by a method unrelated to the focusing method. For example, the CPU 40 captures a subject using two or more image capturing units provided at different positions, and supports a plurality of images (a standard image by a standard camera and a reference image by a reference camera) acquired thereby. Corresponding points that are pixels to be searched (stereo matching), calculate the difference (parallax) between the corresponding pixel on the reference image and the pixel on the reference image, and apply the principle of triangulation to the parallax Thus, the distance from the base camera or the reference camera to the point on the subject corresponding to the pixel may be measured.

そして、CPU40は、各周辺領域に対応する距離差が所定の閾値(例えば被写界深度の3倍、すなわち合焦被写体の周辺にボケが生じる限界)未満であるか否かを、周辺領域ごとに判断する。Yesの場合はS7、Noの場合はS8に進む。   Then, the CPU 40 determines whether or not the distance difference corresponding to each peripheral area is less than a predetermined threshold (for example, three times the depth of field, that is, the limit at which blur occurs around the focused subject) for each peripheral area. Judgment. If Yes, the process proceeds to S7. If No, the process proceeds to S8.

S7では、CPU40は、ROM53に記憶されている第1の変換特性情報に基づいて、VRAM50に記憶された本撮像後のYCデータのうち、所定のフォーカス領域の輪郭成分データが表す輪郭成分の強度と、上記距離差が所定の閾値未満の周辺領域の輪郭成分データが表す輪郭成分の強度とを変換し、これらの領域に輪郭強調を施すようデジタル信号処理部24を制御する。   In S <b> 7, the CPU 40 based on the first conversion characteristic information stored in the ROM 53, the intensity of the contour component represented by the contour component data in the predetermined focus area among the YC data after the main imaging stored in the VRAM 50. And the intensity of the contour component represented by the contour component data of the peripheral region where the distance difference is less than a predetermined threshold value, and the digital signal processing unit 24 is controlled so as to perform contour emphasis on these regions.

S8では、CPU40は、ROM53に記憶されている第2の変換特性情報に基づいて、本撮像後のYCデータのうち、上記距離差が所定の閾値以上の周辺領域の輪郭成分データが表す輪郭成分の強度を変換し、輪郭強調を施すようデジタル信号処理部24を制御する。   In S8, the CPU 40, based on the second conversion characteristic information stored in the ROM 53, out of the YC data after the main imaging, the contour component represented by the contour component data of the peripheral region where the distance difference is equal to or greater than a predetermined threshold. The digital signal processing unit 24 is controlled so as to convert the intensity of the signal and to perform contour enhancement.

S9では、CPU40は、S7またはS8で輪郭強調が施されたYCデータをメモリカード54に記録するよう圧縮伸長処理部26およびメディア・コントローラ52を制御する。   In S9, the CPU 40 controls the compression / decompression processing unit 26 and the media controller 52 so as to record the YC data subjected to the contour emphasis in S7 or S8 on the memory card 54.

以上の処理によると、所定のフォーカス領域内の合焦被写体までの距離と、所定のフォーカス領域以外の各周辺領域内の被写体までの距離との差に基づいて、輪郭強調の度合いを変化させる。このため、ピントのあっていない被写体に過剰に輪郭強調が施されることが防がれ、自然な画像が得られる。   According to the above processing, the degree of contour enhancement is changed based on the difference between the distance to the focused subject in the predetermined focus area and the distance to the subject in each peripheral area other than the predetermined focus area. For this reason, it is possible to prevent excessive outline enhancement from being performed on a subject that is not in focus, and a natural image can be obtained.

<第2実施形態>
図8は第2実施形態に係る撮影処理を示すフローチャートである。この処理はCPU40によって制御される。この処理をCPU40に実行させるためのプログラムはROM53に記憶されている。
Second Embodiment
FIG. 8 is a flowchart showing a photographing process according to the second embodiment. This process is controlled by the CPU 40. A program for causing the CPU 40 to execute this process is stored in the ROM 53.

S10〜S15はそれぞれS1〜S6と同様である。ただし、S15にてYesと判定された場合はS16、Noと判定された場合はS17に進む。   S10 to S15 are the same as S1 to S6, respectively. However, if it is determined Yes in S15, the process proceeds to S16, and if it is determined No, the process proceeds to S17.

S16はS7と同様である。   S16 is the same as S7.

S17では、CPU40は操作部38を介して設定された撮像モードが人物モードであるか否かを判断する。Yesの場合はS18、Noの場合はS19に進む。なお、このS17の判断をS15よりも先に行った上、Yesの場合はS18に進み、Noの場合はS15を実施した上で、S16またはS19に進んでもよい。   In S <b> 17, the CPU 40 determines whether or not the imaging mode set via the operation unit 38 is the person mode. If Yes, the process proceeds to S18, and if No, the process proceeds to S19. The determination in S17 may be performed before S15, and if Yes, the process proceeds to S18. If No, the process may proceed to S16 or S19 after performing S15.

S18では、CPU40は、ROM53に記憶されている第3の変換特性情報に基づいて、本撮像後のYCデータのうち、上記距離差が所定の閾値以上の周辺領域の輪郭成分データが表す輪郭成分の強度を変換し、輪郭強調を施すようデジタル信号処理部24を制御する。第3の変換特性情報の傾きが0の場合は、本撮像後のYCデータの周辺領域に対する輪郭強調が停止する。   In S18, the CPU 40, based on the third conversion characteristic information stored in the ROM 53, out of the YC data after the main imaging, the contour component represented by the contour component data of the peripheral area where the distance difference is equal to or greater than a predetermined threshold. The digital signal processing unit 24 is controlled so as to convert the intensity of the signal and to perform contour enhancement. When the inclination of the third conversion characteristic information is 0, contour enhancement for the peripheral region of the YC data after the main imaging is stopped.

S19、S20はそれぞれS8、S9と同様である。   S19 and S20 are the same as S8 and S9, respectively.

以上の処理によると、人物モードが設定された場合は、人物に近い周辺領域に対する輪郭強調が弱められるため、相対的に被写体人物の輪郭が強調される。   According to the above processing, when the person mode is set, the contour emphasis on the peripheral area close to the person is weakened, so that the contour of the subject person is relatively emphasized.

<第3実施形態>
図9は第3実施形態に係る撮影処理を示すフローチャートである。この処理はCPU40によって制御される。この処理をCPU40に実行させるためのプログラムはROM53に記憶されている。
<Third Embodiment>
FIG. 9 is a flowchart showing a photographing process according to the third embodiment. This process is controlled by the CPU 40. A program for causing the CPU 40 to execute this processing is stored in the ROM 53.

S21〜S26はS1〜S6と同様である。ただし、S26にてYesと判定された場合はS27、Noと判定された場合はS28に進む。   S21 to S26 are the same as S1 to S6. However, if it is determined Yes in S26, the process proceeds to S27, and if it is determined No, the process proceeds to S28.

S27はS7と同様である。   S27 is the same as S7.

S28では、CPU40は操作部38を介して設定された撮像モードが風景モードであるか否かを判断する。Yesの場合はS27、Noの場合はS29に進む。なお、このS28の判断をS26よりも先に行った上、Yesの場合はS27に進み、Noの場合はS26を実施した上でS27またはS29に進んでもよい。   In S28, the CPU 40 determines whether or not the imaging mode set via the operation unit 38 is the landscape mode. If yes, go to S27, if no, go to S29. The determination in S28 may be performed prior to S26, and if Yes, the process proceeds to S27. If No, the process may proceed to S27 or S29 after performing S26.

S29、S30はそれぞれS8、S9と同様である。   S29 and S30 are the same as S8 and S9, respectively.

以上の処理によると、風景モードが設定された場合は、上記距離差が所定の閾値未満であっても、設定値の輪郭強調が施されるため、風景の解像度が高まる。   According to the above processing, when the landscape mode is set, even if the distance difference is less than a predetermined threshold value, the outline of the set value is enhanced, so that the resolution of the landscape is increased.

<第4実施形態>
図10は第4実施形態に係る撮影処理を示すフローチャートである。この処理はCPU40によって制御される。この処理をCPU40に実行させるためのプログラムはROM53に記憶されている。
<Fourth embodiment>
FIG. 10 is a flowchart showing a photographing process according to the fourth embodiment. This process is controlled by the CPU 40. A program for causing the CPU 40 to execute this processing is stored in the ROM 53.

S31〜S36はS1〜S6と同様である。ただし、S36にてYesと判定された場合はS37、Noと判定された場合はS38に進む。   S31 to S36 are the same as S1 to S6. However, if it is determined Yes in S36, the process proceeds to S37, and if it is determined No, the process proceeds to S38.

S37、S38はそれぞれS7、S8と同様である。   S37 and S38 are the same as S7 and S8, respectively.

S39では、CPU40は、CPU40がAF動作のために設定した所定のフォーカス領域の代表点(当該フォーカス領域の中心点など)の座標を算出するとともに、当該YCデータの中心点の座標を算出する。CPU40は、当該代表点の座標および当該中心点の座標の間の距離である変位距離を算出する。CPU40は、当該変位距離が所定の閾値未満であるか否かを判断する。Yesと判定された場合はS41、Noと判定された場合はS40に進む。この所定の閾値は、撮像レンズ12のレンズ収差などの結像性能に応じて設定され、具体的には撮像レンズ12の像高6割(図11参照)が設定される。   In S39, the CPU 40 calculates the coordinates of the representative point (such as the center point of the focus area) of the predetermined focus area set by the CPU 40 for the AF operation, and calculates the coordinates of the center point of the YC data. The CPU 40 calculates a displacement distance that is a distance between the coordinates of the representative point and the coordinates of the center point. The CPU 40 determines whether or not the displacement distance is less than a predetermined threshold value. When it determines with Yes, it progresses to S41, and when it determines with No, it progresses to S40. The predetermined threshold is set according to the imaging performance such as lens aberration of the imaging lens 12, and specifically, the image height of the imaging lens 12 is set to 60% (see FIG. 11).

S40では、CPU40は、画面中央部の領域(例えば中心点の座標を囲む16×16画素の矩形領域)の輪郭強調の強度をS38よりも下げた輪郭強調処理を実施するようデジタル信号処理部24を制御する。   In S40, the CPU 40 performs the digital signal processing unit 24 so as to perform the contour emphasis processing in which the strength of the contour emphasis of the region at the center of the screen (for example, a 16 × 16 pixel rectangular region surrounding the coordinates of the center point) is lower than that in S38. To control.

S41はS9と同様である。   S41 is the same as S9.

以上の処理によると、フォーカス領域の代表点が画面中心に近いか画面の周縁領域にあるかが判断され、その判断結果に応じて輪郭強調の度合いが変化する。すなわち、画面中心部はレンズ性能がよいので、フォーカス領域が画面の周縁領域にあれば、画面中心部の輪郭強調の度合いを弱めて、画像の全体のバランスがとられる。   According to the above processing, it is determined whether the representative point of the focus area is near the center of the screen or the peripheral area of the screen, and the degree of contour enhancement changes according to the determination result. That is, since the lens performance at the center of the screen is good, if the focus area is in the peripheral area of the screen, the degree of contour emphasis at the center of the screen is reduced and the entire image is balanced.

<第5実施形態>
図12は第5実施形態に係る撮影処理を示すフローチャートである。この処理はCPU40によって制御される。この処理をCPU40に実行させるためのプログラムはROM53に記憶されている。
<Fifth Embodiment>
FIG. 12 is a flowchart showing a photographing process according to the fifth embodiment. This process is controlled by the CPU 40. A program for causing the CPU 40 to execute this processing is stored in the ROM 53.

S51〜S59はS31〜S39と同様である。   S51 to S59 are the same as S31 to S39.

S60では、CPU40は、ROM53に記憶されている第4の変換特性情報に基づいて、本撮像後のYCデータのうち、画面中央部の輪郭成分データが表す輪郭成分の強度を変換し、輪郭強調を施すようデジタル信号処理部24を制御する。つまり、CPU40は、撮像レンズ12の撮影画角がワイド側からテレ側に遷移するに従って、画面中央部の輪郭強調の程度をS58よりも下げる。   In S60, based on the fourth conversion characteristic information stored in the ROM 53, the CPU 40 converts the strength of the contour component represented by the contour component data at the center of the screen among the YC data after the main imaging, and contour enhancement. The digital signal processing unit 24 is controlled to perform the above. That is, the CPU 40 lowers the degree of contour enhancement at the center of the screen below S58 as the shooting angle of view of the imaging lens 12 changes from the wide side to the tele side.

すなわち、S58において画面中央部の一部または全部の輪郭成分データに輪郭強調が施されている場合、S60では、その輪郭強調の程度よりもさらに低い程度の輪郭強調を焦点距離に応じて施す。つまり、画面中央部の一部または全部が周辺領域である場合は、その部分についてはさらに低い程度の輪郭強調を施す。   That is, when the contour emphasis is applied to part or all of the contour component data in the central portion of the screen in S58, contour emphasis lower than the degree of contour emphasis is performed according to the focal length in S60. That is, when a part or all of the central portion of the screen is a peripheral region, contour enhancement to a lower degree is performed on the portion.

特許文献10に示されるように、撮像レンズ12の焦点距離(画角)がワイド側からテレ側に遷移するに従って、画面中央部の光学性能と画面周辺部の光学性能の差が低下し両者の光学性能が均一化する。本処理では、ズームレンズがワイド側に存在する場合はテレ側に存在する場合よりも画面中央部の輪郭強調の度合いを下げるため、フォーカス領域の輪郭強調と画面中央部の輪郭強調とのバランスをとることができる。   As shown in Patent Document 10, as the focal length (angle of view) of the imaging lens 12 transitions from the wide side to the tele side, the difference between the optical performance at the center of the screen and the optical performance at the periphery of the screen decreases. Optical performance becomes uniform. In this process, when the zoom lens is on the wide side, the degree of contour emphasis at the center of the screen is lower than when it is on the telephoto side. Can take.

10…撮像装置(デジタルカメラ)、12…撮像レンズ、16…固体撮像素子、24…デジタル信号処理部、30…表示部、32…撮像制御部、36…レンズ駆動部、38…操作部、40…中央処理装置(CPU)、42…AF検出部、44…AE検出部、46…顔検出部、48…メモリ、54…メモリカード   DESCRIPTION OF SYMBOLS 10 ... Imaging device (digital camera), 12 ... Imaging lens, 16 ... Solid-state image sensor, 24 ... Digital signal processing part, 30 ... Display part, 32 ... Imaging control part, 36 ... Lens drive part, 38 ... Operation part, 40 ... Central processing unit (CPU), 42 ... AF detector, 44 ... AE detector, 46 ... Face detector, 48 ... Memory, 54 ... Memory card

Claims (11)

撮像レンズを介して結像された被写体を撮像素子により光電変換することで得られた画像データを入力する入力部と、
前記被写体までの距離を算出する距離算出部と、
前記距離算出部の算出した距離に応じた強度の輪郭強調処理を、前記入力部の入力した画像データに対して実施する輪郭強調処理部と、
を備える画像処理装置。
An input unit for inputting image data obtained by photoelectrically converting a subject imaged through an imaging lens by an imaging device;
A distance calculation unit for calculating a distance to the subject;
An edge emphasis processing unit that performs an edge emphasis process according to the distance calculated by the distance calculation unit on the image data input by the input unit;
An image processing apparatus comprising:
前記画像データの所定の合焦領域に存在する被写体に合焦するよう前記撮像レンズの位置を制御する合焦制御部を備え、
前記距離算出部は、前記画像データの所定の合焦領域に存在する被写体である合焦被写体までの距離と前記合焦被写体以外の被写体である周辺被写体までの距離との差を算出し、
前記輪郭強調処理部は、前記合焦被写体までの距離と前記周辺被写体までの距離との差に応じた強度の輪郭強調処理を前記周辺被写体に実施する請求項1に記載の画像処理装置。
A focusing control unit that controls the position of the imaging lens so as to focus on a subject existing in a predetermined focusing area of the image data;
The distance calculation unit calculates a difference between a distance to a focused subject that is a subject existing in a predetermined focus area of the image data and a distance to a peripheral subject that is a subject other than the focused subject;
The image processing apparatus according to claim 1, wherein the contour emphasis processing unit performs contour emphasis processing with an intensity corresponding to a difference between a distance to the focused subject and a distance to the peripheral subject on the peripheral subject.
前記輪郭強調処理部は、前記合焦被写体までの距離と前記周辺被写体までの距離との差が大きくなるにつれて強度を弱めた輪郭強調処理を前記周辺被写体に実施する請求項2に記載の画像処理装置。   3. The image processing according to claim 2, wherein the contour enhancement processing unit performs contour enhancement processing on the peripheral subject with reduced intensity as a difference between the distance to the focused subject and the distance to the peripheral subject increases. apparatus. 撮影モードを設定するモード設定部を備え、
前記輪郭強調処理部は、前記モード設定部の設定した撮影モードに応じて前記合焦被写体までの距離と前記周辺被写体までの距離との差に応じた強度の輪郭強調処理を前記周辺被写体に実施する請求項2または3に記載の画像処理装置。
It has a mode setting section to set the shooting mode,
The contour emphasis processing unit performs an edge emphasis process on the peripheral subject according to the difference between the distance to the focused subject and the distance to the peripheral subject according to the shooting mode set by the mode setting unit. The image processing apparatus according to claim 2 or 3.
前記輪郭強調処理部は、前記モード設定部の設定した撮影モードが人物モードであることに応じて前記合焦被写体よりも弱い強度の輪郭強調処理を前記周辺被写体に実施する請求項4に記載の画像処理装置。   5. The edge enhancement processing unit according to claim 4, wherein the edge enhancement processing unit performs edge enhancement processing with weaker intensity than the focused subject on the peripheral subject in response to the shooting mode set by the mode setting unit being a person mode. Image processing device. 前記輪郭強調処理部は、前記モード設定部の設定した撮影モードが風景モードであることに応じて前記合焦被写体と同一の強度の輪郭強調処理を前記周辺被写体に実施する請求項4に記載の画像処理装置。   5. The edge enhancement processing unit according to claim 4, wherein the edge enhancement processing unit performs edge enhancement processing of the same intensity as that of the focused subject on the peripheral subject in response to the shooting mode set by the mode setting unit being a landscape mode. Image processing device. 前記画像データに所定の合焦領域を設定する合焦領域設定部と、
前記合焦領域設定部の設定した所定の合焦領域と前記画像データの中央部との間の前記画像データ上での位置の差異を判定する判定部と、
を備え、
前記輪郭強調処理部は、前記判定部が判定した前記差異に応じて、前記画像データの中央部以外の領域より弱い強度の輪郭強調処理を前記画像データの中央部に実施する請求項2または3に記載の画像処理装置。
A focusing area setting unit for setting a predetermined focusing area in the image data;
A determination unit that determines a difference in position on the image data between a predetermined focusing region set by the focusing region setting unit and a central portion of the image data;
With
The edge enhancement processing unit performs edge enhancement processing with weaker intensity than the region other than the center of the image data in the center of the image data according to the difference determined by the determination unit. An image processing apparatus according to 1.
前記輪郭強調処理部は、前記ズームレンズの焦点距離に応じた強度の輪郭強調処理を前記画像データの中央部に実施する請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the contour emphasis processing unit performs contour emphasis processing with an intensity corresponding to a focal length of the zoom lens at a central portion of the image data. 前記距離算出部は、前記画像データの全体を実質的に被覆する領域のデフォーカス量に基づいて前記被写体までの距離を算出し、
前記合焦制御部は、前記所定の合焦領域のデフォーカス量に基づいて前記撮像レンズの位置を制御する請求項2〜8のいずれかに記載の画像処理装置。
The distance calculation unit calculates a distance to the subject based on a defocus amount of a region that substantially covers the entire image data;
The image processing apparatus according to claim 2, wherein the focus control unit controls the position of the imaging lens based on a defocus amount of the predetermined focus area.
画像処理装置が、
撮像レンズを介して結像された被写体を撮像素子により光電変換することで得られた画像データを入力するステップと、
前記被写体までの距離を算出するステップと、
前記算出した距離に応じた強度の輪郭強調処理を、前記入力した画像データに対して実施するステップと、
を実行する画像処理方法。
The image processing device
Inputting image data obtained by photoelectrically converting a subject imaged via an imaging lens by an imaging device;
Calculating a distance to the subject;
Performing the edge enhancement processing of intensity according to the calculated distance on the input image data;
An image processing method for executing.
請求項10に記載の画像処理方法を画像処理装置に実行させるための画像処理プログラム。   An image processing program for causing an image processing apparatus to execute the image processing method according to claim 10.
JP2009279616A 2009-12-09 2009-12-09 Image processing apparatus, method, and program Expired - Fee Related JP5437781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009279616A JP5437781B2 (en) 2009-12-09 2009-12-09 Image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009279616A JP5437781B2 (en) 2009-12-09 2009-12-09 Image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2011124712A true JP2011124712A (en) 2011-06-23
JP5437781B2 JP5437781B2 (en) 2014-03-12

Family

ID=44288192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009279616A Expired - Fee Related JP5437781B2 (en) 2009-12-09 2009-12-09 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5437781B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043211A1 (en) 2010-10-01 2012-04-05 富士フイルム株式会社 Imaging device
WO2013061947A1 (en) 2011-10-28 2013-05-02 富士フイルム株式会社 Imaging method and image processing method, program using same, recording medium, and imaging device
JP2013132018A (en) * 2011-12-22 2013-07-04 Sharp Corp Image processing device, imaging device, display device, image processing method, and image processing program
WO2013141007A1 (en) 2012-03-21 2013-09-26 富士フイルム株式会社 Image capture device
JP2013211770A (en) * 2012-03-30 2013-10-10 Canon Inc Imaging device and signal processing method
US9071828B2 (en) 2011-07-29 2015-06-30 Fujifilm Corporation Imaging apparatus
US9124876B2 (en) 2011-08-23 2015-09-01 Fujifilm Corporation Pupil-dividing imaging apparatus
JPWO2013179620A1 (en) * 2012-05-28 2016-01-18 株式会社ニコン Imaging device
US9646383B2 (en) 2011-12-19 2017-05-09 Sharp Kabushiki Kaisha Image processing apparatus, image capturing apparatus, and display apparatus
CN111742241A (en) * 2018-02-20 2020-10-02 株式会社电装 Optical distance measuring device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (en) * 1998-03-17 1999-09-28 Canon Inc Digital camera, photographing method and storage medium
JP2000156816A (en) * 1998-11-18 2000-06-06 Casio Comput Co Ltd Device and method for emphasizing edge
JP2003087545A (en) * 2001-09-07 2003-03-20 Canon Inc Image pickup device, image processor and method
JP2003274280A (en) * 2002-03-14 2003-09-26 Minolta Co Ltd Electronic camera
JP2005136480A (en) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd Photographing apparatus
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11266388A (en) * 1998-03-17 1999-09-28 Canon Inc Digital camera, photographing method and storage medium
JP2000156816A (en) * 1998-11-18 2000-06-06 Casio Comput Co Ltd Device and method for emphasizing edge
JP2003087545A (en) * 2001-09-07 2003-03-20 Canon Inc Image pickup device, image processor and method
JP2003274280A (en) * 2002-03-14 2003-09-26 Minolta Co Ltd Electronic camera
JP2005136480A (en) * 2003-10-28 2005-05-26 Fuji Photo Film Co Ltd Photographing apparatus
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012043211A1 (en) 2010-10-01 2012-04-05 富士フイルム株式会社 Imaging device
US8605197B2 (en) 2010-10-01 2013-12-10 Fujifilm Corporation Imaging apparatus
US9071828B2 (en) 2011-07-29 2015-06-30 Fujifilm Corporation Imaging apparatus
US9124876B2 (en) 2011-08-23 2015-09-01 Fujifilm Corporation Pupil-dividing imaging apparatus
WO2013061947A1 (en) 2011-10-28 2013-05-02 富士フイルム株式会社 Imaging method and image processing method, program using same, recording medium, and imaging device
US9646383B2 (en) 2011-12-19 2017-05-09 Sharp Kabushiki Kaisha Image processing apparatus, image capturing apparatus, and display apparatus
JP2013132018A (en) * 2011-12-22 2013-07-04 Sharp Corp Image processing device, imaging device, display device, image processing method, and image processing program
WO2013141007A1 (en) 2012-03-21 2013-09-26 富士フイルム株式会社 Image capture device
US9432606B2 (en) 2012-03-30 2016-08-30 Canon Kabushiki Kaisha Image pickup apparatus including image pickup element having image pickup pixel and focus detection pixel and signal processing method
JP2013211770A (en) * 2012-03-30 2013-10-10 Canon Inc Imaging device and signal processing method
JPWO2013179620A1 (en) * 2012-05-28 2016-01-18 株式会社ニコン Imaging device
CN111742241A (en) * 2018-02-20 2020-10-02 株式会社电装 Optical distance measuring device
CN111742241B (en) * 2018-02-20 2023-09-29 株式会社电装 Optical distance measuring device

Also Published As

Publication number Publication date
JP5437781B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5437781B2 (en) Image processing apparatus, method, and program
US8471952B2 (en) Image pickup apparatus
JP5647739B2 (en) Imaging method
JP5396231B2 (en) Imaging device
JP4787180B2 (en) Imaging apparatus and imaging method
JP5421829B2 (en) Imaging device
JP5609270B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP4697606B2 (en) Imaging apparatus and focus control method
US20090091633A1 (en) Image-taking method and apparatus
JP4730553B2 (en) Imaging apparatus and exposure control method
JPWO2011118077A1 (en) Stereo imaging device and parallax image restoration method
JP5871989B2 (en) Imaging apparatus, imaging method, and program
JP2007215091A (en) Imaging apparatus and program therefor
JP2010147786A (en) Imaging device and image processing method
JP5620196B2 (en) Imaging device
JP2008053931A (en) Imaging apparatus
JP2007102061A (en) Imaging apparatus
JP5092673B2 (en) Imaging apparatus and program thereof
KR20090063611A (en) Digital photographing apparatus and method for controlling the same
JP2007225897A (en) Focusing position determination device and method
JP5595505B2 (en) Stereo imaging device and stereo imaging method
JP2010062987A (en) Imaging apparatus and method
JP5597942B2 (en) Electronic camera
JP5054209B2 (en) Imaging apparatus and focus control method
JP2011075841A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131212

R150 Certificate of patent or registration of utility model

Ref document number: 5437781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees