JP2009044535A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2009044535A
JP2009044535A JP2007208143A JP2007208143A JP2009044535A JP 2009044535 A JP2009044535 A JP 2009044535A JP 2007208143 A JP2007208143 A JP 2007208143A JP 2007208143 A JP2007208143 A JP 2007208143A JP 2009044535 A JP2009044535 A JP 2009044535A
Authority
JP
Japan
Prior art keywords
image
electronic camera
processing
phase difference
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007208143A
Other languages
Japanese (ja)
Inventor
Shigeo Takahashi
茂雄 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007208143A priority Critical patent/JP2009044535A/en
Publication of JP2009044535A publication Critical patent/JP2009044535A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To simplify process for making the sharpness of an image obtained by an image sensor different in the image. <P>SOLUTION: An electronic camera is equipped with a focus detecting means 3 which divides the luminous flux of an object which has passed through photo-optical system 1 into two systems to detect defocus information based on the phase difference between two images formed respectively of the optical flux of 2 systems, the image sensor 3 with the optical systems which divides the luminous flux of object into two systems and which is formed on substantially the whole region of an imaging surface and an image processing means 4 for making the sharpness of the image obtained by the image sensor 3 different based on the distribution of the defocus information in the imaging surface detected by the focus detecting means 3. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

被写体までの距離を計測し、距離に応じてグループ分けした撮像空間に対して異なるフィルタ処理を行う技術が開示されている(特許文献1参照)。   A technique for measuring a distance to a subject and performing different filter processing on an imaging space grouped according to the distance is disclosed (see Patent Document 1).

特開2006−67521号公報JP 2006-67521 A

従来技術では、赤外線などを用いて被写体までの距離が計測される。このため、撮像素子の撮像面までの距離と厳密に一致しない上、撮影画角内の全被写体に向けてそれぞれ赤外光を発しながら、各被写体までの距離を計測する必要があった。   In the prior art, the distance to the subject is measured using infrared rays or the like. For this reason, it is necessary to measure the distance to each subject while emitting infrared light toward all subjects within the shooting angle of view, in addition to being exactly the same as the distance to the imaging surface of the image sensor.

(1)本発明による電子カメラは、撮影光学系を通過した被写体光束を2系統に分割し、2系統の光束がそれぞれ形成する2つの像の位相差に基づいてデフォーカス情報を検出する焦点検出手段と、被写体光束を2系統に分割する光学系が撮像面の略全域に形成されている撮像素子と、焦点検出手段が検出した撮像面におけるデフォーカス情報の分布に基づいて、撮像素子で取得される画像の鮮鋭さを異ならせる画像処理手段とを備えることを特徴とする。
(2)請求項1に記載の電子カメラにおいて、画像処理手段は、画像の空間周波数を変える処理、画像の輪郭強調の強さを変える処理、およびγ補正時のゲインを変える処理の少なくとも1つを行うことが好ましい。
(3)請求項2に記載の電子カメラにおいて、画像処理手段は、撮像素子で取得された画像をデフォーカス情報の大きさに応じて複数のグループに分類し、分類された画像の領域間において空間周波数、輪郭強調の強さ、およびγ補正時のゲインの少なくとも1つを異ならせることが好ましい。
(4)請求項3に記載の電子カメラにおいて、画像処理手段は、画像の中で遠景に対応する領域ほど空間周波数を低く、輪郭強調を弱く、γ補正時のゲインを低くすることもできる。
(1) An electronic camera according to the present invention divides a subject light beam that has passed through a photographing optical system into two systems, and detects focus information based on a phase difference between two images formed by the two light beams. Acquired by the image pickup device based on the distribution of the defocus information on the image pickup surface detected by the focus detection means and the image pickup device in which the optical system that divides the subject light flux into two systems is formed over substantially the entire image pickup surface And image processing means for varying the sharpness of the image to be processed.
(2) In the electronic camera according to claim 1, the image processing means includes at least one of a process of changing the spatial frequency of the image, a process of changing the strength of image outline enhancement, and a process of changing the gain at the time of γ correction. It is preferable to carry out.
(3) In the electronic camera according to claim 2, the image processing means classifies the images acquired by the image sensor into a plurality of groups according to the size of the defocus information, and between the classified image regions. It is preferable to vary at least one of the spatial frequency, the strength of edge enhancement, and the gain at the time of γ correction.
(4) In the electronic camera according to claim 3, the image processing means can lower the spatial frequency, weaken the edge enhancement, and lower the gain at the time of γ correction in the region corresponding to the distant view in the image.

本発明による電子カメラでは、撮像素子で取得された画像の鮮鋭さを画像内で異ならせる処理が簡単になる。   The electronic camera according to the present invention simplifies the process of making the sharpness of the image acquired by the image sensor different in the image.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態による電子カメラの要部構成を説明するブロック図である。電子カメラは、制御装置4によって制御される。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram for explaining a main configuration of an electronic camera according to an embodiment of the present invention. The electronic camera is controlled by the control device 4.

撮影レンズ1は、後述する撮像素子の撮像面上に被写体像を結像させる。測距装置兼撮像装置3は、撮像素子と、AFE(Analog Front End)回路と、A/D変換回路と、デフォーカス量演算回路とを含む。   The taking lens 1 forms a subject image on an image pickup surface of an image pickup element to be described later. The distance measuring device and imaging device 3 includes an imaging device, an AFE (Analog Front End) circuit, an A / D conversion circuit, and a defocus amount calculation circuit.

撮像素子は、たとえば、CMOSイメージセンサ31(図2)によって構成される。イメージセンサ31は被写体像を撮像し、アナログ画像信号をAFE回路へ出力する。AFE回路は、アナログ画像信号に対するアナログ処理(指示されたISO感度に応じた信号増幅など)を行う。ISO感度は、制御装置4からの感度設定指示に応じて撮像感度(露光感度)を所定範囲(たとえばISO50相当〜ISO1000相当)内で変更するものである。撮像感度は、AFE回路で行う信号増幅の増幅率を変化させる被制御量のことをいう。撮像感度値は、相当するISO感度値で表される。A/D変換回路は、アナログ処理後の画像信号をディジタル信号に変換する。ディジタル画像信号は、制御装置4内の画像処理部4aへ出力される。   The image sensor is constituted by, for example, a CMOS image sensor 31 (FIG. 2). The image sensor 31 captures a subject image and outputs an analog image signal to the AFE circuit. The AFE circuit performs analog processing on the analog image signal (such as signal amplification in accordance with the instructed ISO sensitivity). The ISO sensitivity changes the imaging sensitivity (exposure sensitivity) within a predetermined range (for example, equivalent to ISO 50 to ISO 1000) in accordance with a sensitivity setting instruction from the control device 4. The imaging sensitivity is a controlled amount that changes the amplification factor of signal amplification performed by the AFE circuit. The imaging sensitivity value is represented by a corresponding ISO sensitivity value. The A / D conversion circuit converts the image signal after analog processing into a digital signal. The digital image signal is output to the image processing unit 4a in the control device 4.

画像処理部4aは、入力されたディジタル画像信号に対して画像処理を施す。画像処理には、たとえば、γ変換処理、輪郭強調処理、フィルタ処理や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理、画像圧縮・伸張処理などが含まれる。バッファメモリ4bは、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体9へ記録する前の画像ファイルを格納したり、記録媒体9から読み出した画像ファイルを格納したりするために使用される。   The image processing unit 4a performs image processing on the input digital image signal. Image processing includes, for example, γ conversion processing, contour enhancement processing, filter processing, color temperature adjustment (white balance adjustment) processing, format conversion processing for image signals, image compression / decompression processing, and the like. The buffer memory 4b temporarily stores data before and after image processing and during image processing, stores an image file before recording on the recording medium 9, and stores an image file read from the recording medium 9. Used for.

表示回路6は、撮像画像を液晶モニタ7に表示させたり、操作メニューを液晶モニタ7に表示させるための表示データを作成する。液晶モニタ7は、上記作成された表示データによる再生画像またはメニュー画面を表示する。   The display circuit 6 creates display data for displaying a captured image on the liquid crystal monitor 7 and displaying an operation menu on the liquid crystal monitor 7. The liquid crystal monitor 7 displays a reproduced image or menu screen based on the created display data.

制御装置4は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。操作部材8は電子カメラの操作スイッチ類を含む。操作部材8は、レリーズボタン(不図示)の押下操作に連動してオン/オフする半押しスイッチや全押しスイッチ、メニュー操作キーなど、各操作スイッチなどからの操作信号を制御装置4へ出力する。   The control device 4 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The operation member 8 includes operation switches for an electronic camera. The operation member 8 outputs an operation signal from each operation switch to the control device 4 such as a half-press switch, a full-press switch, a menu operation key, and the like that are turned on / off in conjunction with a pressing operation of a release button (not shown). .

記録媒体9は、電子カメラに対して着脱可能なメモリカードなどで構成される。記録媒体9には、制御装置4からの指示によって画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体9に記録された画像ファイルは、制御装置4からの指示によって読み出しが可能である。   The recording medium 9 includes a memory card that can be attached to and detached from the electronic camera. In the recording medium 9, image data and an image file including the information are recorded according to an instruction from the control device 4. The image file recorded on the recording medium 9 can be read by an instruction from the control device 4.

<焦点検出処理>
本実施形態の電子カメラは、イメージセンサ31上の焦点検出領域に入射される光束を用いて、いわゆる位相差検出方式によって撮影レンズ1による焦点調節状態の検出を行う。図2は、イメージセンサ31に形成されるフォーカス検出用の画素列を説明する図である。イメージセンサ31が有する画素のうち、水平方向に所定の画素列ごとに設けられた画素列A、画素列B、画素列C、…は通常の画素列と異なり、それぞれフォーカス検出用画素で構成される。フォーカス検出用画素には、それぞれ瞳分割用のマスキングが施されている。
<Focus detection processing>
The electronic camera according to the present embodiment detects a focus adjustment state by the photographing lens 1 using a light beam incident on a focus detection region on the image sensor 31 by a so-called phase difference detection method. FIG. 2 is a diagram for explaining a pixel row for focus detection formed in the image sensor 31. Among the pixels of the image sensor 31, the pixel column A, the pixel column B, the pixel column C,... Provided for each predetermined pixel column in the horizontal direction are different from normal pixel columns and are each configured with focus detection pixels. The Each focus detection pixel is subjected to masking for pupil division.

具体的には、画素に対応して形成されるオンチップマイクロレンズの略半面が遮光されている。図3は、図2のフォーカス検出用画素列の微小領域310を拡大した図である。各画素において、左半面または右半面が交互にマスキングされる。これにより、横方向に隣接する画素間ではマスキングされた半面同士、またはマスキングされていない半面同士が隣り合う。   Specifically, substantially half of the on-chip microlens formed corresponding to the pixel is shielded from light. FIG. 3 is an enlarged view of the minute region 310 of the focus detection pixel column of FIG. In each pixel, the left half or right half is masked alternately. Thereby, between the pixels adjacent in the horizontal direction, the half faces masked or the half faces not masked are adjacent to each other.

図4は、フォーカス検出用画素列および当該画素列に入射される光束を説明する図である。図4において、右半面がマスキングされている画素のフォトダイオードには左方向からの光束(A成分と呼ぶ)が入射される。また、左半面がマスキングされている画素のフォトダイオードには右方向からの光束(B成分と呼ぶ)が入射される。   FIG. 4 is a diagram illustrating a focus detection pixel column and a light beam incident on the pixel column. In FIG. 4, a light beam (referred to as an A component) from the left direction enters a photodiode of a pixel whose right half surface is masked. A light beam (referred to as a B component) from the right direction is incident on the photodiode of the pixel whose left half surface is masked.

この結果、A成分の光束が入射される画素群から得られる画素出力(光電変換信号値)は、撮影レンズ1の射出瞳の片半分から入射された光束による像を表し、B成分の光束が入射される画素群から得られる画素出力(光電変換信号値)は、上記射出瞳の他半分から入射された光束による像を表す。   As a result, the pixel output (photoelectric conversion signal value) obtained from the pixel group to which the A component light beam is incident represents an image by the light beam incident from one half of the exit pupil of the photographing lens 1, and the B component light beam is A pixel output (photoelectric conversion signal value) obtained from the incident pixel group represents an image of a light beam incident from the other half of the exit pupil.

図5は、主要被写体に対して合焦時に得られる画素出力波形を例示する図である。図5において横軸は画素位置を表し、縦軸は画素出力を表す。合焦時はイメージセンサ31上に鮮鋭像が結ばれる状態であるため、瞳分割された光束による一対の像はイメージセンサ31上で一致する。つまり、フォーカス検出用画素列を構成する画素群から得られるA成分波形およびB成分波形は、その形状が重なる。   FIG. 5 is a diagram illustrating a pixel output waveform obtained when focusing on the main subject. In FIG. 5, the horizontal axis represents the pixel position, and the vertical axis represents the pixel output. Since a sharp image is formed on the image sensor 31 at the time of focusing, a pair of images formed by pupil-divided light beams coincide on the image sensor 31. That is, the A component waveform and the B component waveform obtained from the pixel group constituting the focus detection pixel column overlap in shape.

図6は、主要被写体に対して非合焦時に得られる画素出力波形を例示する図である。図6において横軸は画素位置を表し、縦軸は画素出力を表す。非合焦時はイメージセンサ31の手前で鮮鋭像を結ぶ状態、あるいはイメージセンサ31の後ろ側に鮮鋭像を結ぶ状態であるため、瞳分割された光束による一対の像はイメージセンサ31上では一致しない。この場合のA成分波形およびB成分波形は、合焦状態からのずれ(デフォーカス量)に応じて、A成分波形とB成分波形の位置関係(ずれ方向およびずれ量Δd)が異なる。   FIG. 6 is a diagram illustrating a pixel output waveform obtained when the main subject is out of focus. In FIG. 6, the horizontal axis represents the pixel position, and the vertical axis represents the pixel output. At the time of out-of-focus, a state where a sharp image is formed in front of the image sensor 31 or a state where a sharp image is formed on the back side of the image sensor 31, the pair of images formed by the pupil-divided light beams coincide on the image sensor 31. do not do. In this case, the A component waveform and the B component waveform have different positional relationships (shift direction and shift amount Δd) between the A component waveform and the B component waveform in accordance with the shift (defocus amount) from the focused state.

測距装置兼撮像装置3内のデフォーカス量演算回路は、A成分波形およびB成分波形の位置関係に基づいて撮影レンズ1による焦点位置の調節状態(デフォーカス量)を算出し、算出結果を制御装置4へ送出する。制御装置4がデフォーカス量に応じたレンズ駆動信号(レンズ駆動方向およびレンズ駆動量を指示する信号)をレンズ駆動機構5へ出力すると、レンズ駆動機構5がフォーカスレンズ2を光軸方向へ進退移動させる。これにより、ピント調節が行われる。   A defocus amount calculation circuit in the distance measuring device / imaging device 3 calculates a focus position adjustment state (defocus amount) by the photographing lens 1 based on a positional relationship between the A component waveform and the B component waveform, and calculates the calculation result. It is sent to the control device 4. When the control device 4 outputs a lens drive signal (a signal for instructing the lens drive direction and the lens drive amount) according to the defocus amount to the lens drive mechanism 5, the lens drive mechanism 5 moves the focus lens 2 forward and backward in the optical axis direction. Let Thereby, focus adjustment is performed.

なお、図5および図6において例示する比較領域は、A成分波形およびB成分波形から抽出した特徴点(たとえば極大値)を共通に含む領域である。デフォーカス量演算回路は、フォーカス検出用画素列を構成する画素群から得られるA成分波形およびB成分波形のうち、比較領域内の波形データを用いてデフォーカス量を求める。   Note that the comparison region illustrated in FIGS. 5 and 6 is a region that commonly includes feature points (for example, local maximum values) extracted from the A component waveform and the B component waveform. The defocus amount calculation circuit obtains the defocus amount using the waveform data in the comparison region among the A component waveform and the B component waveform obtained from the pixel group constituting the focus detection pixel column.

<位相差分布の測定>
本実施形態の電子カメラは、イメージセンサ31が撮像面の略全域にフォーカス検出用画素列を有することから、撮影画面の略全域でA成分波形とB成分波形の位置関係、すなわち位相差情報を取得できる。位相差情報は、A成分波形およびB成分波形を出力する画素群上に形成される被写体像に対応する被写体までの距離(電子カメラから当該被写体までの撮影距離)に対応する。したがって、イメージセンサ31上の所定領域ごとに位相差情報を取得すれば、撮影画面内に存在する全ての被写体までの撮影距離情報を得ることができる。
<Measurement of phase difference distribution>
In the electronic camera according to the present embodiment, since the image sensor 31 has focus detection pixel rows in almost the entire area of the imaging surface, the positional relationship between the A component waveform and the B component waveform, that is, phase difference information is obtained in almost the entire area of the imaging screen. You can get it. The phase difference information corresponds to the distance to the subject corresponding to the subject image formed on the pixel group that outputs the A component waveform and the B component waveform (shooting distance from the electronic camera to the subject). Therefore, if the phase difference information is obtained for each predetermined area on the image sensor 31, the photographing distance information to all the subjects existing in the photographing screen can be obtained.

図7(a)は、撮影レンズ1がイメージセンサ31の撮像面上に被写体71の鮮鋭像を結ぶ状態(被写体71に合焦)を例示する図である。図7(b)は、フォーカス検出用画素列から被写体71の像に関して得られる画素出力波形を例示する図である。図7(b)において横軸は画素位置を表し、縦軸は画素出力を表す。合焦状態では、A成分波形およびB成分波形間の位相差が略0になる。   FIG. 7A is a diagram illustrating a state in which the photographing lens 1 forms a sharp image of the subject 71 on the imaging surface of the image sensor 31 (focused on the subject 71). FIG. 7B is a diagram illustrating a pixel output waveform obtained with respect to the image of the subject 71 from the focus detection pixel array. In FIG. 7B, the horizontal axis represents the pixel position, and the vertical axis represents the pixel output. In the in-focus state, the phase difference between the A component waveform and the B component waveform is substantially zero.

図8(a)は、図7に例示したフォーカス調節状態において撮影レンズ1がイメージセンサ31の撮像面上に被写体72の像を結ぶ場合を例示する図である。図8(b)は、フォーカス検出用画素列から被写体72の像に関して得られる画素出力波形を例示する図である。図8(b)において横軸は画素位置を表し、縦軸は画素出力を表す。被写体72は被写体71より電子カメラから離れているため、被写体71に合焦している状態(被写体72に非合焦の状態)ではA成分波形およびB成分波形の間に位相差が生じる。本実施形態に例示する光学系の場合、A成分波形がB成分波形に対して右側にΔdずれた位相差が検出される。   FIG. 8A is a diagram illustrating a case where the photographing lens 1 forms an image of the subject 72 on the imaging surface of the image sensor 31 in the focus adjustment state illustrated in FIG. FIG. 8B is a diagram illustrating a pixel output waveform obtained with respect to the image of the subject 72 from the focus detection pixel array. In FIG. 8B, the horizontal axis represents the pixel position, and the vertical axis represents the pixel output. Since the subject 72 is farther from the electronic camera than the subject 71, a phase difference occurs between the A component waveform and the B component waveform when the subject 72 is in focus (the subject 72 is out of focus). In the case of the optical system exemplified in this embodiment, a phase difference in which the A component waveform is shifted to the right by Δd with respect to the B component waveform is detected.

図9は、撮影画面の所定領域ごとに検出した位相差の分布を例示する図である。「0」は合焦した(ピント面)領域を表す。正数はピント面より遠方の被写体領域を表す。負数はピント面より近い被写体領域を表す。「−」はA成分波形およびB成分波形の特徴点を検出不能などの理由で位相差を検出できなかった領域を表す。ここで、像71aは被写体71の像を表し、像72aは被写体72の像を表す。   FIG. 9 is a diagram illustrating a distribution of phase differences detected for each predetermined area on the shooting screen. “0” represents an in-focus (focus plane) area. A positive number represents a subject area far from the focal plane. A negative number represents a subject area closer to the focus plane. “-” Represents an area in which the phase difference cannot be detected because the feature points of the A component waveform and the B component waveform cannot be detected. Here, the image 71 a represents the image of the subject 71, and the image 72 a represents the image of the subject 72.

制御装置4は、図9に例示した位相差分布を用いて補間処理を施し、位相差検出されていない領域(すなわち、フォーカス検出用画素列が設けられていない画素列に対応する領域、および図9において「−」で表された領域)についての位相差情報を算出する。図10は、補間処理後の位相差分布を例示する図である。像71aが被写体71の像を表し、像72aが被写体72の像を表す点は図9の場合と同様である。   The control device 4 performs an interpolation process using the phase difference distribution illustrated in FIG. 9, and a region in which no phase difference is detected (that is, a region corresponding to a pixel column in which no focus detection pixel column is provided, and 9, the phase difference information for the region indicated by “−” is calculated. FIG. 10 is a diagram illustrating the phase difference distribution after the interpolation processing. The point that the image 71a represents the image of the subject 71 and the image 72a represents the image of the subject 72 is the same as in the case of FIG.

<像ぼけ付加処理>
制御装置4は、上述した位相差分布に応じて撮影画面の領域間で異なる画像処理(たとえば、γ変換処理、輪郭強調処理、フィルタ処理)を行うことにより、画像のエッジを不鮮明にし、画像のコントラストを低下させて画像の鮮鋭度を下げる。このために制御装置4は、補間処理後の位相差分布(図10)に基づき、撮影画面を所定数(たとえば3)の領域にグループ分けする。図11はグループ分けした領域を例示する図である。図11の例によれば、位相差情報が5未満の第1領域111と、位相差情報が5以上かつ15未満の第2領域112と、位相差情報が15以上の第3領域113とに3分割されている。第1領域111は被写体像71aに対応し、第2領域112は被写体像72aに対応し、第3領域113は被写体71および72より遠方の背景像に対応する。
<Image blur processing>
The control device 4 performs different image processing (for example, γ conversion processing, contour emphasis processing, and filter processing) between areas of the shooting screen in accordance with the above-described phase difference distribution, thereby blurring the edges of the image. Reduce contrast by reducing contrast. For this purpose, the control device 4 groups the photographing screens into a predetermined number (for example, 3) of regions based on the phase difference distribution (FIG. 10) after the interpolation processing. FIG. 11 is a diagram illustrating a grouped area. According to the example of FIG. 11, the first region 111 having phase difference information less than 5; the second region 112 having phase difference information of 5 or more and less than 15; and the third region 113 having phase difference information of 15 or more. Divided into three. The first area 111 corresponds to the subject image 71 a, the second area 112 corresponds to the subject image 72 a, and the third area 113 corresponds to the background image farther from the subjects 71 and 72.

制御装置4は、第1領域111における画像の鮮鋭度を最も高く、第3領域113における画像の鮮鋭度を最も低くすることによって画像ぼけを付加する。このために制御装置4は、以下の処理のうち少なくとも1つを行う。
[a]第1領域−第2領域−第3領域の順に、第3領域113における空間周波数の低周波数成分を多く、かつ高周波数成分を少なくするバンドパスフィルタ(BPF)処理を施す。
[b]第1領域−第2領域−第3領域の順に、第3領域113におけるγ変換処理のゲインを弱める。
[c]第1領域−第2領域−第3領域の順に、第3領域113における輪郭強調処理のゲインを弱める。図12は、グループ分けした各領域ごと、各処理ごとの処理内容を例示する図である。
The control device 4 adds image blur by making the sharpness of the image in the first region 111 the highest and making the image sharpness in the third region 113 the lowest. For this purpose, the control device 4 performs at least one of the following processes.
[A] A band pass filter (BPF) process for increasing the low frequency components of the spatial frequency in the third region 113 and reducing the high frequency components in the order of the first region-second region-third region is performed.
[B] The gain of the γ conversion processing in the third region 113 is weakened in the order of the first region-second region-third region.
[C] The gain of the contour enhancement processing in the third region 113 is weakened in the order of the first region-second region-third region. FIG. 12 is a diagram exemplifying processing contents for each area and each process.

以上説明した電子カメラが行うカメラ処理について、図13〜図16のフローチャートを参照して説明する。
<レリーズ待機処理>
図13は、制御装置4が実行するレリーズ待機処理の流れを説明するフローチャートである。ステップS10において、制御装置4はレリーズ操作を受付けたか否かを判定する。制御装置4は、操作部材8からレリーズボタンが全押し操作されたことを示す操作信号が入力された場合、ステップS10を肯定判定してステップS20へ進む。制御装置4は、操作部材8からレリーズボタンが全押し操作されたことを示す操作信号が入力されない場合にはステップS10を否定判定し、当該判定処理を繰り返しながらレリーズ待機を行う。
Camera processing performed by the electronic camera described above will be described with reference to the flowcharts of FIGS.
<Release standby processing>
FIG. 13 is a flowchart illustrating the flow of a release standby process executed by the control device 4. In step S10, the control device 4 determines whether or not a release operation has been accepted. When an operation signal indicating that the release button has been fully pressed is input from the operation member 8, the control device 4 makes a positive determination in step S10 and proceeds to step S20. When the operation signal indicating that the release button has been fully pressed is not input from the operation member 8, the control device 4 makes a negative determination in step S10 and performs a release standby while repeating the determination process.

ステップS20において、制御装置4は、レリーズ処理を行ってステップS10へ戻る。レリーズ処理の詳細については後述する。   In step S20, the control device 4 performs a release process and returns to step S10. Details of the release process will be described later.

<レリーズ処理>
図14のステップS21において、制御装置4はAF(オートフォーカス)処理を行ってステップS22へ進む。AF処理の詳細については後述する。ステップS22において、制御装置4は撮影処理を行って図14による処理を終了する。撮影処理の詳細については後述する。
<Release processing>
In step S21 of FIG. 14, the control device 4 performs an AF (autofocus) process and proceeds to step S22. Details of the AF processing will be described later. In step S <b> 22, the control device 4 performs a shooting process and ends the process of FIG. 14. Details of the photographing process will be described later.

<AF処理>
図15のステップS211において、制御装置4はAF実施領域を決定してステップS212へ進む。制御装置4は、たとえば、操作部材8からの操作信号によって指示されているフォーカス検出領域をAF実施領域とする。
<AF processing>
In step S211 of FIG. 15, the control device 4 determines an AF execution area and proceeds to step S212. For example, the control device 4 sets the focus detection area designated by the operation signal from the operation member 8 as the AF execution area.

ステップS212において、制御装置4は測距装置兼撮像装置3へ指示を送り、AF実施領域に対応するイメージセンサ31の位相差検出画素列のからの信号を読み出させてステップS213へ進む。   In step S212, the control device 4 sends an instruction to the distance measuring device / imaging device 3 to read out the signal from the phase difference detection pixel row of the image sensor 31 corresponding to the AF execution area, and then proceeds to step S213.

ステップS213において、制御装置4は測距装置兼撮像装置3へ指示を送り、位相差を計測(デフォーカス量の算出)させてステップS214へ進む。ステップS214において、制御装置4は、合焦させるために必要なフォーカスレンズ駆動量を位相差から算出してステップS215へ進む。ステップS215において、制御装置4はレンズ駆動機構5へ指示を送り、フォーカスレンズ2を駆動させてステップS216へ進む。   In step S213, the control device 4 sends an instruction to the distance measuring device / imaging device 3, measures the phase difference (calculates the defocus amount), and proceeds to step S214. In step S214, the control device 4 calculates a focus lens driving amount necessary for focusing from the phase difference, and proceeds to step S215. In step S215, the control device 4 sends an instruction to the lens driving mechanism 5, drives the focus lens 2, and proceeds to step S216.

ステップS216において、制御装置4はフォーカスレンズ2が目標位置へ到達したか否かを判定する。制御装置4は、レンズ駆動機構5からレンズ駆動が完了したことを示す信号を受けた場合にステップS216を肯定判定し、図15による処理を終了して図14のステップS22へ進む。制御装置4は、レンズ駆動機構5からレンズ駆動が完了したことを示す信号を受けない場合にはステップS216を否定判定し、当該判定処理を繰り返しながらレンズ駆動の完了を待つ。   In step S216, the control device 4 determines whether or not the focus lens 2 has reached the target position. When the control device 4 receives a signal indicating that the lens driving is completed from the lens driving mechanism 5, the control device 4 makes an affirmative determination in step S216, ends the processing in FIG. 15, and proceeds to step S22 in FIG. When the control device 4 does not receive a signal indicating that the lens driving is completed from the lens driving mechanism 5, the control device 4 makes a negative determination in step S216 and waits for the lens driving to be completed while repeating the determination processing.

<撮影処理>
図16のステップS221において、制御装置4は測距装置兼撮像装置3へ指示を送り、画像データを取得させてステップS222に進む。これにより、測距装置兼撮像装置3は被写体像を撮像し、イメージセンサ31の全画素からの信号を読み出す。
<Shooting process>
In step S221 in FIG. 16, the control device 4 sends an instruction to the distance measuring device / imaging device 3 to acquire image data, and the process proceeds to step S222. As a result, the distance measuring device / imaging device 3 captures a subject image and reads out signals from all the pixels of the image sensor 31.

ステップS222において、制御装置4は測距装置兼撮像装置3へ指示を送り、図9に例示した所定領域ごとに、対応する位相差検出用(フォーカス検出用)画素列からの信号を抽出させてステップS223へ進む。ステップS223において、制御装置4は測距装置兼撮像装置3へ指示を送り、各領域ごとの位相差分布を算出させてステップS224へ進む。補間処理を行うことにより、図10に例示した位相差分布が得られる。   In step S222, the control device 4 sends an instruction to the distance measuring device / imaging device 3 to extract a signal from a corresponding phase difference detection (focus detection) pixel row for each of the predetermined regions illustrated in FIG. Proceed to step S223. In step S223, the control device 4 sends an instruction to the distance measuring device / imaging device 3, calculates the phase difference distribution for each region, and proceeds to step S224. By performing the interpolation process, the phase difference distribution illustrated in FIG. 10 is obtained.

ステップS224において、制御装置4は測距装置兼撮像装置3へ指示を送り、位相差分布に応じて撮影画面をグループ分けし、ステップS225へ進む。ステップS225において、制御装置4は、ステップS221で取得した撮影画像に対し、グループ分けした領域間で異なる画像処理(γ変換処理、輪郭強調処理、フィルタ処理)を画像処理部4aに行わせてステップS226へ進む。   In step S224, the control device 4 sends an instruction to the distance measuring device / imaging device 3, groups the shooting screens according to the phase difference distribution, and proceeds to step S225. In step S225, the control device 4 causes the image processing unit 4a to perform different image processing (γ conversion processing, contour emphasis processing, filter processing) on the captured image acquired in step S221 in the grouped regions. The process proceeds to S226.

ステップS226において、制御装置4は、画像処理後の画像データを含むファイルを記録媒体9に保存して図16による処理を終了する。   In step S226, the control device 4 saves the file including the image data after the image processing in the recording medium 9, and ends the processing in FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラは、位相差検出AFに用いる位相差検出用の画素列を含むイメージセンサ31を備えたので、瞳分割された一対の像を、撮影画像を取得する撮像面上において取得できる。これにより、位相差検出AFに用いるフォーカスセンサをイメージセンサと別に設ける場合のように、イメージセンサの撮像面とフォーカスセンサの撮像面とが厳密に一致しないことに起因するピントずれの発生を防止することができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) Since the electronic camera includes the image sensor 31 including a pixel array for phase difference detection used for phase difference detection AF, a pair of pupil-divided images can be acquired on an imaging surface for acquiring a captured image. . Thereby, as in the case where the focus sensor used for phase difference detection AF is provided separately from the image sensor, the occurrence of out-of-focus due to the fact that the imaging surface of the image sensor and the imaging surface of the focus sensor do not exactly match is prevented. be able to.

(2)位相差検出用画素列をメージセンサ31の撮像面の略全域に所定画素間隔で設けたので、撮影画面の略全域で被写体までの撮影距離情報(位相差情報)を得ることができる。従来技術と異なり、撮影画角内の全被写体までの距離を個別に計測しなくてよいので、測距に要する時間および計測処理の負担を軽減できる。 (2) Since the pixel row for phase difference detection is provided at a predetermined pixel interval substantially over the entire imaging surface of the image sensor 31, photographing distance information (phase difference information) to the subject can be obtained over substantially the entire photographing screen. Unlike the prior art, it is not necessary to individually measure the distances to all subjects within the shooting angle of view, so the time required for distance measurement and the burden of measurement processing can be reduced.

(3)撮影画像に対して行う画像処理(γ変換処理、輪郭強調処理、フィルタ処理)を、位相差情報の分布に応じて異ならせたので、撮影距離が近い被写体と遠い被写体とで異なる処理を行うことができる。たとえば35mm版カメラに比べてイメージセンサの撮像面積が小さい電子カメラのように、実焦点距離が短いカメラは撮影画像が平面的で奥行き感に乏しいことが多い。このような場合に遠い被写体に対して像ぼけを付加すれば、画像に奥行き感を持たせることができる。 (3) Since image processing (γ conversion processing, contour enhancement processing, and filter processing) to be performed on the captured image is varied according to the distribution of the phase difference information, different processing is performed for a subject with a short photographing distance and a subject with a long photographing distance. It can be performed. For example, a camera with a short actual focal length, such as an electronic camera having a small imaging area of an image sensor compared to a 35 mm version camera, often has a flat captured image and a poor sense of depth. In such a case, if an image blur is added to a distant subject, the image can have a sense of depth.

(4)撮影画面を位相差情報の分布に応じてグループ分けし、グループ分けした領域ごとに画像処理を異ならせた。グループ数を3つにする場合には3通りの画像処理を行えばよいので、3通り以上の画像処理を行う場合に比べて画像処理の負担を軽減することができる。 (4) The photographing screens are grouped according to the distribution of the phase difference information, and the image processing is varied for each grouped region. When the number of groups is three, it is only necessary to perform three types of image processing, so that the burden of image processing can be reduced as compared with the case where three or more types of image processing are performed.

(変形例1)
上述したイメージセンサ31は、位相差検出用の画素列を所定画素列ごとに設けるように説明したが、水平方向の全画素列(すなわちイメージセンサ31の全画素)を位相差検出用の画素で構成してもよい。
(Modification 1)
The image sensor 31 described above has been described so as to provide a pixel row for phase difference detection for each predetermined pixel row. However, all the pixel rows in the horizontal direction (that is, all pixels of the image sensor 31) are pixels for phase difference detection. It may be configured.

(変形例2)
画像ぼけを付加するための画像処理、すなわち、画像のエッジを不鮮明にし、画像のコントラストを低下させて画像の鮮鋭度を下げる処理は、上述したγ変換処理、輪郭強調処理、フィルタ処理を少なくとも1つ行うものでもよいし、各処理を組み合わせて行うものでもよい。
(Modification 2)
Image processing for adding image blur, that is, processing for blurring image edges and reducing image contrast to reduce image sharpness includes at least one of the above-described γ conversion processing, contour enhancement processing, and filtering processing. One process may be performed, or each process may be performed in combination.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態による電子カメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera by one embodiment of this invention. イメージセンサに形成されるフォーカス検出用の画素列を説明する図である。It is a figure explaining the pixel row | line for focus detection formed in an image sensor. フォーカス検出用画素列の拡大図である。It is an enlarged view of a pixel row for focus detection. フォーカス検出用画素列、および画素列に入射される光束を説明する図である。It is a figure explaining the focus detection pixel row | line and the light beam which injects into a pixel row | line. 合焦時に得られる画素出力波形を例示する図である。It is a figure which illustrates the pixel output waveform obtained at the time of focusing. 非合焦時に得られる画素出力波形を例示する図である。It is a figure which illustrates the pixel output waveform obtained at the time of non-focusing. (a)はイメージセンサの撮像面上に鮮鋭像を結ぶ状態を例示する図である。(b)は画素出力波形を例示する図である。(a) is a figure which illustrates the state which ties a sharp image on the imaging surface of an image sensor. (b) is a diagram illustrating a pixel output waveform. (a)はイメージセンサの撮像面上に他の被写体の像を結ぶ場合を例示する図である。(b)は画素出力波形を例示する図である。(a) is a figure which illustrates the case where the image of another subject is formed on the imaging surface of the image sensor. (b) is a diagram illustrating a pixel output waveform. 撮影画面の所定領域ごとに検出した位相差分布を例示する図である。It is a figure which illustrates phase difference distribution detected for every predetermined field of a photography screen. 補間処理後の位相差分布を例示する図である。It is a figure which illustrates phase difference distribution after interpolation processing. グループ分けした領域を例示する図である。It is a figure which illustrates the field divided into groups. グループ分けした各領域ごと、各処理ごとの処理内容を例示する図である。It is a figure which illustrates the processing content for every process for every area | region divided into groups. レリーズ待機処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a release standby process. レリーズ処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a release process. AF処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of AF process. 撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of imaging | photography process.

符号の説明Explanation of symbols

1…撮影レンズ
2…フォーカスレンズ
3…測距装置兼撮像装置
4…制御装置
4a…画像処理部
4b…バッファメモリ
5…レンズ駆動機構
6…表示回路
7…液晶モニタ
8…操作部材
DESCRIPTION OF SYMBOLS 1 ... Shooting lens 2 ... Focus lens 3 ... Distance measuring device and imaging device 4 ... Control apparatus 4a ... Image processing part 4b ... Buffer memory 5 ... Lens drive mechanism 6 ... Display circuit 7 ... Liquid crystal monitor 8 ... Operation member

Claims (4)

撮影光学系を通過した被写体光束を2系統に分割し、前記2系統の光束がそれぞれ形成する2つの像の位相差に基づいてデフォーカス情報を検出する焦点検出手段と、
前記被写体光束を2系統に分割する光学系が撮像面の略全域に形成されている撮像素子と、
前記焦点検出手段が検出した前記撮像面におけるデフォーカス情報の分布に基づいて、前記撮像素子で取得される画像の鮮鋭さを異ならせる画像処理手段とを備えることを特徴とする電子カメラ。
A focus detection unit that divides a subject luminous flux that has passed through the photographing optical system into two systems, and detects defocus information based on a phase difference between two images formed by the two luminous fluxes;
An imaging device in which an optical system for dividing the subject luminous flux into two systems is formed over substantially the entire area of the imaging surface;
An electronic camera comprising: an image processing unit that varies a sharpness of an image acquired by the imaging device based on a distribution of defocus information on the imaging surface detected by the focus detection unit.
請求項1に記載の電子カメラにおいて、
前記画像処理手段は、画像の空間周波数を変える処理、画像の輪郭強調の強さを変える処理、およびγ補正時のゲインを変える処理の少なくとも1つを行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera is characterized in that the image processing means performs at least one of a process of changing a spatial frequency of an image, a process of changing the intensity of image edge enhancement, and a process of changing a gain at the time of γ correction.
請求項2に記載の電子カメラにおいて、
前記画像処理手段は、前記撮像素子で取得された画像を前記デフォーカス情報の大きさに応じて複数のグループに分類し、前記分類された前記画像の領域間において前記空間周波数、前記輪郭強調の強さ、および前記γ補正時のゲインの少なくとも1つを異ならせることを特徴とする電子カメラ。
The electronic camera according to claim 2,
The image processing means classifies the images acquired by the image sensor into a plurality of groups according to the size of the defocus information, and performs spatial frequency and contour enhancement between the classified areas of the images. An electronic camera characterized in that at least one of strength and gain at the time of γ correction is made different.
請求項3に記載の電子カメラにおいて、
前記画像処理手段は、前記画像の中で遠景に対応する領域ほど前記空間周波数を低く、前記輪郭強調を弱く、前記γ補正時のゲインを低くすることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The electronic camera according to claim 1, wherein the image processing means lowers the spatial frequency, weakens the edge enhancement, and lowers the gain during the γ correction in a region corresponding to a distant view in the image.
JP2007208143A 2007-08-09 2007-08-09 Electronic camera Pending JP2009044535A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007208143A JP2009044535A (en) 2007-08-09 2007-08-09 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007208143A JP2009044535A (en) 2007-08-09 2007-08-09 Electronic camera

Publications (1)

Publication Number Publication Date
JP2009044535A true JP2009044535A (en) 2009-02-26

Family

ID=40444777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007208143A Pending JP2009044535A (en) 2007-08-09 2007-08-09 Electronic camera

Country Status (1)

Country Link
JP (1) JP2009044535A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215389B2 (en) 2011-05-16 2015-12-15 Samsung Electronics Co., Ltd. Image pickup device, digital photographing apparatus using the image pickup device, auto-focusing method, and computer-readable medium for performing the auto-focusing method
CN109785649A (en) * 2019-03-04 2019-05-21 李娜 Traffic intersection dynamic big data updating device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215389B2 (en) 2011-05-16 2015-12-15 Samsung Electronics Co., Ltd. Image pickup device, digital photographing apparatus using the image pickup device, auto-focusing method, and computer-readable medium for performing the auto-focusing method
CN109785649A (en) * 2019-03-04 2019-05-21 李娜 Traffic intersection dynamic big data updating device

Similar Documents

Publication Publication Date Title
US10638033B2 (en) Focus control apparatus, focus control method and storage medium
JP2009069577A (en) Imaging apparatus
JP2009217252A (en) Imaging apparatus and focus control method
US9247122B2 (en) Focus adjustment apparatus and control method therefor
JP4823167B2 (en) Imaging device
JP6351231B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JPWO2012133427A1 (en) Imaging apparatus and autofocus control method thereof
US9001260B2 (en) Imaging apparatus and imaging method
JP5322995B2 (en) Imaging apparatus and control method thereof
US9591243B2 (en) Focus detecting apparatus, control method thereof, and image-pickup apparatus
JP2008135812A (en) Imaging device, imaging method, and program
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US10326925B2 (en) Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2009124313A (en) Electronic camera
JP2013255188A (en) Imaging element, imaging apparatus, imaging method and program
JP2009044637A (en) Imaging apparatus
JP2013160991A (en) Imaging apparatus
JP2009042555A (en) Electronic camera
JP4823169B2 (en) Imaging device
JP2013113857A (en) Imaging device, and control method therefor
JP2011090143A (en) Focal point detecting device and camera
JP2009044535A (en) Electronic camera
US20180309925A1 (en) Control apparatus, image capturing apparatus, control method, and storage medium
JP2012220890A (en) Focus adjustment device