JP2021057825A - Signal processing apparatus and method, and imaging apparatus - Google Patents

Signal processing apparatus and method, and imaging apparatus Download PDF

Info

Publication number
JP2021057825A
JP2021057825A JP2019180715A JP2019180715A JP2021057825A JP 2021057825 A JP2021057825 A JP 2021057825A JP 2019180715 A JP2019180715 A JP 2019180715A JP 2019180715 A JP2019180715 A JP 2019180715A JP 2021057825 A JP2021057825 A JP 2021057825A
Authority
JP
Japan
Prior art keywords
image
subject
focus detection
pair
detection signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019180715A
Other languages
Japanese (ja)
Inventor
浩靖 形川
Hiroyasu Katagawa
浩靖 形川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019180715A priority Critical patent/JP2021057825A/en
Publication of JP2021057825A publication Critical patent/JP2021057825A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

To detect a specific subject even in a state of a large defocus quantity of an imaging optical system while performing focus detection in an imaging plane phase difference manner.SOLUTION: A signal processing apparatus processes a pair of focus detection signals with a parallax and an image signal which can be acquired from an imaging element comprising a plurality of photoelectric conversion parts for a plurality of microlenses respectively, and also comprises subject detection means which uses at least one of the pair of focus detection signals to detect a predetermined subject, and focus detection means which uses the pair of focus detection signals to detect a focus state. When the subject detection means detects the subject, the focus detection means uses a pair of focus detection signals corresponding to a region of the subject among pairs of focus detection signals to detect the focus state.SELECTED DRAWING: Figure 1

Description

本発明は、信号処理装置及び方法、及び撮像装置に関し、特に顔などの特定被写体の検出機能を有する信号処理装置及び方法、及び撮像装置に関する。 The present invention relates to a signal processing device and method and an imaging device, and more particularly to a signal processing device and method having a function of detecting a specific subject such as a face and an imaging device.

近年、撮像装置において、生成した画像内に存在する顔を画像認識技術により検出する、いわゆる顔検出機能を有するものがある。撮像装置は、撮像範囲のうち、顔検出機能によって検出された顔を含む領域に自動的にピントを合わせたり、顔を含む領域を示す枠などを、モニタ上の画像に重畳表示したりする。 In recent years, some imaging devices have a so-called face detection function of detecting a face existing in a generated image by an image recognition technique. The image pickup apparatus automatically focuses on the area including the face detected by the face detection function in the image pickup range, and superimposes and displays a frame showing the area including the face on the image on the monitor.

一方、従来より1つのマイクロレンズに対して複数の光電変換部が設けられた撮像素子により瞳分割信号を取得し、得られた複数の瞳分割信号の位相差に基づいて焦点検出を行うAF(オートフォーカス)技術が知られている。 On the other hand, AF (conventional AF) in which a pupil division signal is acquired by an image sensor provided with a plurality of photoelectric conversion units for one microlens and focus detection is performed based on the phase difference of the obtained plurality of pupil division signals. Autofocus) technology is known.

特許文献1では、瞳分割した像の位相差に基づいて焦点検出を行うだけでなく、同一のマイクロレンズを共有する複数の光電変換部からの信号を全て加算することで、複数の光電変換部を1つの光電変換部として扱うことが開示されている。これにより、1つのマイクロレンズに対して光電変換部が1つ設けられたの場合と同様に信号を扱うことが可能となり、従来の信号処理技術により記録用の画像を作成することができる。 In Patent Document 1, not only focus detection is performed based on the phase difference of the pupil-divided image, but also all signals from a plurality of photoelectric conversion units sharing the same microlens are added to obtain a plurality of photoelectric conversion units. Is disclosed as one photoelectric conversion unit. This makes it possible to handle signals in the same manner as when one photoelectric conversion unit is provided for one microlens, and it is possible to create an image for recording by a conventional signal processing technique.

特許文献2では、撮像素子の信号読み出し方法として、次のような技術が開示されている。まず、瞳分割された2画素のうち、一方の画素からの第1の焦点検出信号(以下、「A像」と呼ぶ。)を増幅部の入力ノードを介して読み出す。そして、入力ノードをリセットせずに、他方の画素からの第2の焦点検出信号(以下、「B像」と呼ぶ。)を増幅部の入力ノードを介して読み出すことにより、A像とB像が加算された信号(以下、「A+B像」と呼ぶ。)を読み出す。B像は、A+B像からA像を減算することで求める。 Patent Document 2 discloses the following techniques as a signal readout method for an image sensor. First, the first focus detection signal (hereinafter, referred to as “A image”) from one of the two pupil-divided pixels is read out via the input node of the amplification unit. Then, the A image and the B image are read out from the other pixel through the input node of the amplification unit without resetting the input node. Is added to the signal (hereinafter referred to as "A + B image") is read out. The B image is obtained by subtracting the A image from the A + B image.

特開2008−134389号公報Japanese Unexamined Patent Publication No. 2008-134389 特開2013−106194号公報Japanese Unexamined Patent Publication No. 2013-106194

前述したような、A像と、A像とB像を加算したA+B像を撮像信号として出力する撮像素子を備えた撮像装置においては、A+B像を用いて従来の方法により顔検出を行うことができる。しかしながら、A+B像は、焦点深度が浅いため、撮像光学系のデフォーカス量が大きい状態では顔検出が難しい。このため、顔検出を正確に行うためには、撮像光学系内の絞りをある程度絞り込んで焦点深度を深くする必要がある。 In an image pickup device equipped with an image sensor that outputs an A image and an A + B image obtained by adding an A image and a B image as an image pickup signal as described above, face detection can be performed by a conventional method using the A + B image. it can. However, since the depth of focus of the A + B image is shallow, it is difficult to detect the face when the defocus amount of the imaging optical system is large. Therefore, in order to perform face detection accurately, it is necessary to narrow down the aperture in the imaging optical system to some extent to deepen the depth of focus.

また、従来より表示/記録用の画像処理と特定被写体の検出用の画像処理では、互いに異なる画像処理を行っていた。これは主にカメラのシーンモードに応じてホワイトバランスやシェーディング補正、ガンマ補正等の画像処理が、表示/記録用と特定被写体の検出用で異なっているためである。特定被写体の検出用では、検出するために最適な画像処理が求められており、カメラのシーンモードに応じて変更する必要はない。そのため、表示/記録用の画像処理と被写体検出用の画像処理で、別々の画像処理回路が実装されていた。 Further, conventionally, in the image processing for display / recording and the image processing for detecting a specific subject, different image processings have been performed. This is mainly because image processing such as white balance, shading correction, and gamma correction differs depending on the scene mode of the camera between display / recording and detection of a specific subject. For the detection of a specific subject, the optimum image processing for detection is required, and it is not necessary to change it according to the scene mode of the camera. Therefore, separate image processing circuits have been implemented for display / recording image processing and subject detection image processing.

さらに、焦点検出信号(A像/B像)に対しても、焦点検出に適した別の画像処理を行うことにより、回路規模が大きくなったり、消費電力が増えてしまうという課題もあった。 Further, the focus detection signal (A image / B image) also has a problem that the circuit scale is increased and the power consumption is increased by performing another image processing suitable for the focus detection.

本発明は上記問題点を鑑みてなされたものであり、撮像面位相差方式の焦点検出を行いつつ、撮像光学系のデフォーカス量が大きい状態でも特定被写体の検出を行えるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable detection of a specific subject even when the defocus amount of the imaging optical system is large while performing focus detection by the imaging surface phase difference method. And.

上記目的を達成する為に、本発明の信号処理装置は、複数のマイクロレンズそれぞれに対して複数の光電変換部を備えた撮像素子から取得可能な、視差を有する一対の焦点検出信号および画像信号を処理する信号処理装置であって、前記一対の焦点検出信号の少なくとも一方を用いて、予め決められた被写体を検出する被写体検出手段と、前記一対の焦点検出信号を用いて、焦点状態を検出する焦点検出手段と、を有し、前記被写体検出手段により前記被写体が検出された場合に、前記焦点検出手段は、前記一対の焦点検出信号のうち、前記被写体の領域に対応する一対の焦点検出信号を用いて焦点状態を検出することを特徴とする。 In order to achieve the above object, the signal processing device of the present invention has a pair of focal detection signals and image signals having a difference in range that can be acquired from an image pickup device having a plurality of photoelectric conversion units for each of the plurality of microlenses. A signal processing device that processes the above, and detects a focal state by using a subject detecting means for detecting a predetermined subject by using at least one of the pair of focal detection signals and the pair of focal detection signals. When the subject is detected by the subject detection means, the focus detection means has a pair of focus detection signals corresponding to the region of the subject in the pair of focus detection signals. It is characterized by detecting a focal state using a signal.

本発明によれば、撮像面位相差方式の焦点検出を行いつつ、撮像光学系のデフォーカス量が大きい状態でも特定被写体の検出を行えるようにすることができる。 According to the present invention, it is possible to detect a specific subject even when the defocus amount of the imaging optical system is large, while performing focus detection by the imaging surface phase difference method.

本発明の第1の実施形態に係る撮像装置の概略構成を示すブロック図。The block diagram which shows the schematic structure of the image pickup apparatus which concerns on 1st Embodiment of this invention. 実施形態に係る撮像素子の画素配列を説明する図。The figure explaining the pixel arrangement of the image pickup device which concerns on embodiment. 撮像レンズの射出瞳から出た光束が単位画素に入射する概念を示す図。The figure which shows the concept that the light flux emitted from the exit pupil of an image pickup lens is incident on a unit pixel. 位相差AFを説明するための図。The figure for demonstrating the phase difference AF. 実施形態における撮像信号画像処理部の構成を示すブロック図。The block diagram which shows the structure of the image pickup signal image processing part in embodiment. 実施形態における焦点検出信号画像処理部の構成を示すブロック図。The block diagram which shows the structure of the focus detection signal image processing part in embodiment. 実施形態における撮像装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the imaging apparatus in embodiment. 第1の実施形態における顔検出処理を示すフローチャート。The flowchart which shows the face detection process in 1st Embodiment. 第2の実施形態に係る撮像装置の概略構成を示すブロック図。The block diagram which shows the schematic structure of the image pickup apparatus which concerns on 2nd Embodiment. 第2の実施形態における顔の位置(座標)を示す図。The figure which shows the position (coordinates) of a face in 2nd Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

<第1の実施形態>
図1は、本発明の第1の実施形態に係る撮像装置の概略構成を示すブロック図である。本実施形態の撮像装置は、光学系101、撮像素子102、信号処理部103、外部記憶装置104を有する。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an image pickup apparatus according to a first embodiment of the present invention. The image pickup device of this embodiment includes an optical system 101, an image pickup device 102, a signal processing unit 103, and an external storage device 104.

光学系101は、入射光を撮像素子102に導く部分であり、ズームレンズ、絞り、フォーカスレンズ等、少なくとも1つ以上のレンズを有し、光学系駆動部106により駆動される。 The optical system 101 is a portion that guides incident light to the image pickup element 102, has at least one or more lenses such as a zoom lens, an aperture, and a focus lens, and is driven by the optical system drive unit 106.

撮像素子102は、光学系101を介して入射した被写体像を光電変換により電気信号に変換して、出力する。ここで、撮像素子102の画素構成について説明する。 The image sensor 102 converts the subject image incident through the optical system 101 into an electric signal by photoelectric conversion and outputs the image. Here, the pixel configuration of the image pickup device 102 will be described.

図2は、撮像素子102を構成する画素配列を説明する図である。本実施形態では、マイクロレンズアレイを形成する各マイクロレンズ201に対して、複数の光電変換部201A,201Bが対応するように配置されている。図中(0,0)、(1,0)、(0,1)等で示される各領域は、撮像素子102における単位画素202を示し、各単位画素202は、1つのマイクロレンズ201と、複数の光電変換部201A,201Bとから構成される。なお、本実施形態では単位画素202には2つの光電変換部201A,201BがX軸方向に並べられた場合を示しているが、Y軸方向に並べても、また、3つ以上の光電変換部を各マイクロレンズ201に対応するように構成しても良い。 FIG. 2 is a diagram illustrating a pixel array constituting the image pickup device 102. In the present embodiment, a plurality of photoelectric conversion units 201A and 201B are arranged so as to correspond to each microlens 201 forming the microlens array. Each region indicated by (0,0), (1,0), (0,1), etc. in the figure indicates a unit pixel 202 in the image sensor 102, and each unit pixel 202 includes one microlens 201 and one microlens 201. It is composed of a plurality of photoelectric conversion units 201A and 201B. In the present embodiment, the unit pixel 202 shows a case where two photoelectric conversion units 201A and 201B are arranged in the X-axis direction, but even if they are arranged in the Y-axis direction, three or more photoelectric conversion units can be arranged. May be configured to correspond to each microlens 201.

図3は、光学系101から射出された光が1つのマイクロレンズ201を通過して、撮像素子102で受光される様子を光軸Zに対して垂直方向(Y軸方向)から観察した図である。光学系101の射出瞳301,302を通過した光は、光軸Zを中心として単位画素202に入射する。 FIG. 3 is a diagram observing how the light emitted from the optical system 101 passes through one microlens 201 and is received by the image sensor 102 from the direction perpendicular to the optical axis Z (Y-axis direction). is there. The light that has passed through the exit pupils 301 and 302 of the optical system 101 is incident on the unit pixel 202 about the optical axis Z.

図3(a)に示すように瞳領域301を通過する光束はマイクロレンズ201を通して光電変換部201Aで受光され、瞳領域302を通過する光束はマイクロレンズ201を通して光電変換部201Bで受光される。従って、光電変換部201Aと201Bはそれぞれ光学系101の射出瞳の異なる領域を通過した光を受光している。 As shown in FIG. 3A, the luminous flux passing through the pupil region 301 is received by the photoelectric conversion unit 201A through the microlens 201, and the luminous flux passing through the pupil region 302 is received by the photoelectric conversion unit 201B through the microlens 201. Therefore, the photoelectric conversion units 201A and 201B receive light that has passed through different regions of the exit pupil of the optical system 101, respectively.

このように構成された、X軸方向に並ぶ複数の単位画素202のうち、瞳分割された光電変換部201Aの焦点検出用信号群で構成した被写体像をA像、瞳分割された光電変換部201Bの焦点検出用信号群で構成した被写体像をB像とする。そして、A像とB像に対して相関演算を実施することで、像のずれ量(位相差)を検出する。さらに、像のずれ量に対して焦点位置と光学系の特性に応じて決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基に、光学系101に含まれる不図示のフォーカスレンズを制御することで、焦点状態を検出する撮像面位相差AFが可能となる。 Of the plurality of unit pixels 202 arranged in the X-axis direction configured in this way, the subject image composed of the focus detection signal group of the pupil-divided photoelectric conversion unit 201A is the A image, and the pupil-divided photoelectric conversion unit The subject image composed of the focus detection signal group of 201B is defined as the B image. Then, the amount of image shift (phase difference) is detected by performing a correlation calculation on the A image and the B image. Further, by multiplying the amount of image shift by a conversion coefficient determined according to the focal position and the characteristics of the optical system, the focal position corresponding to an arbitrary subject position on the screen can be calculated. By controlling a focus lens (not shown) included in the optical system 101 based on the focus position information calculated here, imaging surface phase-difference AF for detecting the focal state becomes possible.

また、単位画素202毎に光電変換部201Aの信号と光電変換部201Bの信号を加算して出力することで、画像信号(A+B像)を得ることができる。 Further, an image signal (A + B image) can be obtained by adding and outputting the signal of the photoelectric conversion unit 201A and the signal of the photoelectric conversion unit 201B for each unit pixel 202.

このようにして得られた画像信号(A+B像)と焦点検出信号(A像)を、センサ補正部105に出力する。 The image signal (A + B image) and the focus detection signal (A image) thus obtained are output to the sensor correction unit 105.

図3(b)は、光学系101から射出された光が1つのマイクロレンズを通過して1つの光電変換部201A,201Bで受光される様子を垂直方向(Y軸方向)から観察した図である。図3(a)と比較すると、瞳分割されていないため、開口領域が2倍となっている。これは図3(a)の光電変換部201Aと光電変換部201Bとを足し合わせた領域と同じであり、図3(a)の光電変換部201Aまたは光電変換部201Bと比較して、絞りが開いた状態に相当する。すなわち、光電変換部201Aまたは光電変換部201Bから得られた焦点検出信号(A像、B像)は、画像信号に比べて焦点深度が深い。 FIG. 3B is a diagram observing from the vertical direction (Y-axis direction) how the light emitted from the optical system 101 passes through one microlens and is received by one photoelectric conversion unit 201A, 201B. is there. Compared with FIG. 3A, the aperture area is doubled because the pupil is not divided. This is the same as the area where the photoelectric conversion unit 201A and the photoelectric conversion unit 201B in FIG. 3A are added together, and the aperture is smaller than that in the photoelectric conversion unit 201A or the photoelectric conversion unit 201B in FIG. 3A. Corresponds to the open state. That is, the focus detection signals (A image, B image) obtained from the photoelectric conversion unit 201A or the photoelectric conversion unit 201B have a deeper depth of focus than the image signal.

図1の説明に戻り、上述した構成を有する撮像素子102から出力された信号は、信号処理部103に入力する。信号処理部103は、センサ補正部105、光学系駆動部106、加算信号分離部107、撮像素子駆動部108、撮像信号画像処理部109、焦点検出信号画像処理部110、画像表示部111、被写体検出部112、像ずれ量算出部113を有する。また、システム制御部114が信号処理部103に含まれるものとして記載しているが、信号処理部103の外部にあっても良い。 Returning to the description of FIG. 1, the signal output from the image sensor 102 having the above-described configuration is input to the signal processing unit 103. The signal processing unit 103 includes a sensor correction unit 105, an optical system drive unit 106, an addition signal separation unit 107, an image sensor drive unit 108, an image pickup signal image processing unit 109, a focus detection signal image processing unit 110, an image display unit 111, and a subject. It has a detection unit 112 and an image shift amount calculation unit 113. Further, although the system control unit 114 is described as being included in the signal processing unit 103, it may be outside the signal processing unit 103.

センサ補正部105は、撮像素子102から出力されたA+B像とA像に対して欠陥画素補正、固定パターンノイズの除去、スミア補正等の既知のセンサ起因の補正処理を行う。 The sensor correction unit 105 performs correction processing caused by known sensors such as defect pixel correction, fixed pattern noise removal, and smear correction on the A + B image and the A image output from the image sensor 102.

加算信号分離部107は、センサ補正部105から出力されたA+B像とA像を入力とし、A+B像からA像を減算してB像を求める処理を行う。A+B像は、画像信号として撮像信号画像処理部109へ、A像とB像は、視差を有する一対の焦点検出信号として焦点検出信号画像処理部110へ出力される。 The addition signal separation unit 107 takes the A + B image and the A image output from the sensor correction unit 105 as inputs, and subtracts the A image from the A + B image to obtain the B image. The A + B image is output to the image pickup signal image processing unit 109 as an image signal, and the A image and the B image are output to the focus detection signal image processing unit 110 as a pair of focus detection signals having parallax.

撮像信号画像処理部109は、加算信号分離部107から出力されるA+B像に対して、シェーディング補正、ホワイトバランス補正、ガンマ補正、現像処理、符号化処理等の複数の処理を行い、外部記憶装置104及び画像表示部111へ出力する。 The image pickup signal image processing unit 109 performs a plurality of processes such as shading correction, white balance correction, gamma correction, development processing, and coding processing on the A + B image output from the addition signal separation unit 107, and performs an external storage device. Output to 104 and the image display unit 111.

外部記憶装置104は、撮像信号画像処理部109からの出力画像に対して符号化ブロックにより符号化したJPEGやマルチピクチャーフォーマット等の画像データを、メディアカードなどに記録する。 The external storage device 104 records image data such as JPEG or multi-picture format encoded by a coding block on the output image from the image pickup signal image processing unit 109 on a media card or the like.

画像表示部111は、撮像信号画像処理部109で処理された表示画像をライブビュー画像として表示する。なお、後述するように被写体検出部112で顔を検出した場合、システム制御部114で指定された座標に顔検出枠(被写体検出枠)を付加して表示画像を生成し表示する。 The image display unit 111 displays the display image processed by the image pickup signal image processing unit 109 as a live view image. When a face is detected by the subject detection unit 112 as described later, a face detection frame (subject detection frame) is added to the coordinates specified by the system control unit 114 to generate and display a display image.

一方、焦点検出信号画像処理部110は、加算信号分離部107から出力されるA像とB像に対して、シェーディング補正、ホワイトバランス補正、ガンマ補正、輝度信号変換処理等の複数の処理を行い、像ずれ量算出部113へ出力する。また、被写体検出部112へは、A像またはB像(図1ではA像を記載)を出力する。 On the other hand, the focus detection signal image processing unit 110 performs a plurality of processes such as shading correction, white balance correction, gamma correction, and luminance signal conversion processing on the A image and the B image output from the addition signal separation unit 107. , Is output to the image shift amount calculation unit 113. Further, an A image or a B image (A image is described in FIG. 1) is output to the subject detection unit 112.

被写体検出部112は、焦点検出信号画像処理部110から出力されるA像またはB像の輝度信号(Yデータ)に基づいて、顔を検出する被写体検出部である。顔が検出された場合、顔の位置(被写体位置)をシステム制御部114に出力する。なお、顔の検出処理は、パターン認識などの公知の画像認識技術を用いて行われる。 The subject detection unit 112 is a subject detection unit that detects a face based on the luminance signal (Y data) of the A image or the B image output from the focus detection signal image processing unit 110. When a face is detected, the position of the face (subject position) is output to the system control unit 114. The face detection process is performed using a known image recognition technique such as pattern recognition.

像ずれ量算出部113は、焦点検出信号画像処理部110から出力されたA像とB像を用いて位相差方式の焦点検出を行うために相関演算を行い、像ずれ量を算出する。 The image shift amount calculation unit 113 performs a correlation calculation for performing a phase difference type focus detection using the A image and the B image output from the focus detection signal image processing unit 110, and calculates the image shift amount.

システム制御部114は撮像装置全体を制御し、撮影シーンや撮影モードなどから得られる撮影情報に基づいて、ズームや絞りなどの光学系駆動情報を光学系駆動部106に出力する。また、瞳分割指示情報、露光時間等の撮像系駆動情報を撮像素子駆動部108に出力する。また、被写体検出部112で検出した顔位置情報を入力し、その情報に基づいて像ずれ量算出部113に対して像ずれ量を算出する領域を指定する。さらに、像ずれ量算出部113から得られた像ずれ量に対して所定の敏感度を掛けることで、デフォーカス量を算出する。 The system control unit 114 controls the entire imaging device, and outputs optical system drive information such as zoom and aperture to the optical system drive unit 106 based on shooting information obtained from a shooting scene, a shooting mode, and the like. Further, the image pickup system drive information such as pupil division instruction information and exposure time is output to the image sensor drive unit 108. Further, the face position information detected by the subject detection unit 112 is input, and an area for calculating the image shift amount is specified to the image shift amount calculation unit 113 based on the information. Further, the defocus amount is calculated by multiplying the image shift amount obtained from the image shift amount calculation unit 113 by a predetermined sensitivity.

光学系駆動部106は、システム制御部114から出力されるフォーカス情報及び光学系駆動情報に応じて光学系101を制御する。 The optical system drive unit 106 controls the optical system 101 according to the focus information and the optical system drive information output from the system control unit 114.

撮像素子駆動部108は、システム制御部114からの撮像系駆動情報に応じて、撮像素子102を制御する。撮像素子102は電子シャッタ機能を有していてもよく、その場合、撮像素子102は、撮像素子駆動部108から出力される制御信号に応じて所望の露光時間となるように電子シャッタ機能を実行しても良い。 The image sensor drive unit 108 controls the image sensor 102 according to the image pickup system drive information from the system control unit 114. The image sensor 102 may have an electronic shutter function. In that case, the image sensor 102 executes the electronic shutter function so as to have a desired exposure time according to a control signal output from the image sensor drive unit 108. You may.

図4は、本実施形態で用いる位相差AFを説明するグラフである。図4には、前ピン状態(被写体の合焦位置よりも焦点が手前にある状態)における焦点検出信号401(A像)と焦点検出信号402(B像)が示されている。縦軸は信号強度であり、横軸は撮像素子102の画素の水平方向の位置を示している。位相差検出方式による被写体までの距離情報は、焦点検出信号401と焦点検出信号402による像間の距離403(像ずれ量)と、そのときのフォーカスレンズ位置における結像面から射出瞳までの距離から算出することができる。像ずれ量算出部113は、像ずれ量をシステム制御部114へ出力する。システム制御部114は得られた像ずれ量に基づいて、目標となるフォーカスレンズ位置を決定し、現在のフォーカスレンズ位置からの移動方向及び移動量をフォーカス情報として光学系駆動部106に出力する。光学系駆動部106は、フォーカス情報に基づいて光学系101を駆動し、焦点調整を行う。 FIG. 4 is a graph illustrating the phase difference AF used in the present embodiment. FIG. 4 shows a focus detection signal 401 (A image) and a focus detection signal 402 (B image) in a front focus state (a state in which the focus is in front of the in-focus position of the subject). The vertical axis represents the signal strength, and the horizontal axis represents the horizontal position of the pixel of the image sensor 102. The distance information to the subject by the phase difference detection method is the distance 403 (image shift amount) between the images by the focus detection signal 401 and the focus detection signal 402, and the distance from the imaging plane to the ejection pupil at the focus lens position at that time. It can be calculated from. The image shift amount calculation unit 113 outputs the image shift amount to the system control unit 114. The system control unit 114 determines a target focus lens position based on the obtained image shift amount, and outputs the movement direction and the movement amount from the current focus lens position to the optical system drive unit 106 as focus information. The optical system drive unit 106 drives the optical system 101 based on the focus information to adjust the focus.

図5は、撮像信号画像処理部109の構成を示すブロック図である。撮像信号画像処理部109は、図5に示すように、メモリ501、現像処理部502、巡回NR(ノイズ除去)部503、幾何変形部504を有する。また、これらの他にも、不図示ではあるが、シェーディング補正、ホワイトバランス(WB)補正、ガンマ補正、倍率色収差補正、拡縮といったリサイズなどの処理を行う複数の処理部を有する。また、現像処理部502、巡回NR部503、幾何変形部504は、それぞれメモリ501と接続され、それぞれの処理結果を、ワークメモリとしてのメモリ501に一時的に格納する。 FIG. 5 is a block diagram showing the configuration of the image pickup signal image processing unit 109. As shown in FIG. 5, the image pickup signal image processing unit 109 includes a memory 501, a development processing unit 502, a patrol NR (noise removal) unit 503, and a geometric deformation unit 504. In addition to these, although not shown, it has a plurality of processing units that perform processing such as shading correction, white balance (WB) correction, gamma correction, chromatic aberration of magnification correction, and scaling. Further, the development processing unit 502, the cyclic NR unit 503, and the geometric deformation unit 504 are each connected to the memory 501, and the respective processing results are temporarily stored in the memory 501 as a work memory.

現像処理部502は、メモリ501からA+B像を入力して、デモザイク処理、ガンマ補正や輝度・色生成などの処理を行い、処理した画像データをメモリ501または直接巡回NR部503またはその両方へ出力する。この時、現像処理部502の入力データであるA+B像はRAW画像データであり、現像処理(デモザイク処理を含む)を行う事でYUV色空間を表すYUV画像データを生成する。 The development processing unit 502 inputs an A + B image from the memory 501, performs processing such as demosaic processing, gamma correction, and brightness / color generation, and outputs the processed image data to the memory 501, the direct patrol NR unit 503, or both. To do. At this time, the A + B image, which is the input data of the development processing unit 502, is RAW image data, and YUV image data representing the YUV color space is generated by performing development processing (including demosaic processing).

巡回NR部503は、メモリ501、現像処理部502、及び、幾何変形部504と接続される。そして、巡回NR部503は、現像処理部502または幾何変形部504からの画像データと、メモリ501に記憶された巡回NR部503で処理済みの1フレーム前の画像データとを入力して、フレーム間のNR処理(ノイズ除去処理)を行う。巡回NR部503は、NR処理後の画像データをメモリ501へ出力する。 The patrol NR unit 503 is connected to the memory 501, the development processing unit 502, and the geometric deformation unit 504. Then, the patrol NR unit 503 inputs the image data from the development processing unit 502 or the geometric deformation unit 504 and the image data one frame before processed by the patrol NR unit 503 stored in the memory 501 to form a frame. NR processing (noise removal processing) between them is performed. The patrol NR unit 503 outputs the image data after the NR processing to the memory 501.

幾何変形部504は、メモリ501から画像データを入力して、幾何変形処理、例えば光学レンズの歪みを除去する歪補正などの処理を行い、処理後の画像データをメモリ501へ出力する。 The geometric deformation unit 504 inputs image data from the memory 501, performs geometric deformation processing, for example, distortion correction for removing distortion of the optical lens, and outputs the processed image data to the memory 501.

そして、撮像信号画像処理部109は、上述のように処理され、メモリ501に記憶された画像データを、外部記憶装置104及び画像表示部111に出力する。 Then, the image pickup signal image processing unit 109 processes the image data as described above and outputs the image data stored in the memory 501 to the external storage device 104 and the image display unit 111.

図6は、焦点検出信号画像処理部110の構成を示すブロック図である。焦点検出信号画像処理部110は、図6に示すように、メモリ601、シェーディング補正部602、ガンマ補正部603、輝度信号変換部604、並びに、その他の不図示の拡縮といったリサイズなどの処理を行う複数の処理部から構成される。シェーディング補正部602、ガンマ補正部603、輝度信号変換部604は、それぞれメモリ601に接続され、それぞれの処理に必要な補正データや演算途中の信号を、ワークメモリとしてのメモリ601に一時的に格納する。 FIG. 6 is a block diagram showing the configuration of the focus detection signal image processing unit 110. As shown in FIG. 6, the focus detection signal image processing unit 110 performs processing such as memory 601, shading correction unit 602, gamma correction unit 603, luminance signal conversion unit 604, and other resizing such as scaling not shown. It is composed of multiple processing units. The shading correction unit 602, the gamma correction unit 603, and the luminance signal conversion unit 604 are each connected to the memory 601 and temporarily store the correction data required for each processing and the signal in the middle of calculation in the memory 601 as a work memory. To do.

シェーディング補正部602は、A像とB像を入力すると共に、メモリ601から予め格納された補正データを読み出し、シェーディング補正を行い、ガンマ補正部603へ出力する。 The shading correction unit 602 inputs the A image and the B image, reads the correction data stored in advance from the memory 601, performs the shading correction, and outputs the shading correction unit 603 to the gamma correction unit 603.

ガンマ補正部603は、シェーディング補正部602からシェーディング補正されたA像とB像を入力し、メモリ601からは予め格納されたガンマ補正の補正データを読み出して、ガンマ補正処理を行い、輝度信号変換部604へ出力する。 The gamma correction unit 603 inputs the shading-corrected A image and the B image from the shading correction unit 602, reads out the gamma correction correction data stored in advance from the memory 601 and performs the gamma correction processing to convert the luminance signal. Output to unit 604.

輝度信号変換部604は、ガンマ補正部603からガンマ補正されたA像とB像を入力し、メモリ601を利用して、A像及びB像それぞれについて水平方向に2列、垂直方向に2行を加算し、RAW画像データから疑似的な輝度信号(Yデータ)を生成する。 The luminance signal conversion unit 604 inputs the gamma-corrected A image and the B image from the gamma correction unit 603, and uses the memory 601 to form two columns in the horizontal direction and two rows in the vertical direction for each of the A image and the B image. Is added to generate a pseudo luminance signal (Y data) from the RAW image data.

そして、焦点検出信号画像処理部110は、上述のように処理されたA像及びB像の輝度信号を、被写体検出部112及び像ずれ量算出部113に出力する。 Then, the focus detection signal image processing unit 110 outputs the luminance signals of the A image and the B image processed as described above to the subject detection unit 112 and the image shift amount calculation unit 113.

図7は、本発明の撮像装置の撮像動作を示すフローチャートである。図7のフローチャートで示される撮影動作は、不図示の電源スイッチをオンにすることで開始される。 FIG. 7 is a flowchart showing an imaging operation of the imaging apparatus of the present invention. The photographing operation shown in the flowchart of FIG. 7 is started by turning on a power switch (not shown).

まずS701において、システム制御部114は、予備動作を行う。すなわちシステム制御部114は、WBやAEなどのライブビューに関連する公知のパラメーター評価値を検出し、関連ブロックに対して各設定を行う。続いてS702において、システム制御部114は、S701で得られた評価値検出結果に基づいて、撮像素子102などのブロックに対してパラメーターを設定し、ライブビューを開始する。これにより、画像表示部111に、光学系101を介して撮像素子102上に結像している像が表示される。 First, in S701, the system control unit 114 performs a preliminary operation. That is, the system control unit 114 detects known parameter evaluation values related to live view such as WB and AE, and sets each related block. Subsequently, in S702, the system control unit 114 sets parameters for the block such as the image sensor 102 based on the evaluation value detection result obtained in S701, and starts the live view. As a result, the image displayed on the image sensor 102 is displayed on the image display unit 111 via the optical system 101.

次にS703において、被写体検出部112は顔検出を行い、検出した顔の位置をシステム制御部114に通知する。なお、S703の詳細については後述する。続いてS704において、システム制御部114は、不図示のシャッターボタンの例えば半押しによりスイッチSW1がONとなり、本撮影の準備が指示されたかどうかを判定する。スイッチSW1がOFFの場合にはS702に戻り、スイッチSW1がONとなるとS705に進む。 Next, in S703, the subject detection unit 112 detects the face and notifies the system control unit 114 of the detected face position. The details of S703 will be described later. Subsequently, in S704, the system control unit 114 determines whether or not the switch SW1 is turned on by pressing a shutter button (not shown), for example, halfway, and the preparation for the main shooting is instructed. When the switch SW1 is OFF, the process returns to S702, and when the switch SW1 is ON, the process proceeds to S705.

S705において、システム制御部114は、顔の位置(顔検出位置)における像ずれ量を像ずれ量算出部113から取得し、デフォーカス量を算出する。デフォーカス量defの算出方法は公知であり、例えば、像ずれ量d、撮像素子102の各画素間の距離p、及び、レンズの絞り値に応じて一意に決定される値Kの値から、以下の式(1)により求められる。
def=d×p×K …(1)
In S705, the system control unit 114 acquires the image shift amount at the face position (face detection position) from the image shift amount calculation unit 113, and calculates the defocus amount. A method for calculating the defocus amount def is known, and for example, from the image shift amount d, the distance p between each pixel of the image sensor 102, and the value K uniquely determined according to the aperture value of the lens. It is calculated by the following formula (1).
def = d × p × K… (1)

ここでシステム制御部114は、式(1)を用いて算出したデフォーカス量に基づいて光学系101(フォーカスレンズ)を駆動するように、光学系駆動部106に対して制御信号を出力する。これにより、合焦位置を顔の位置に移動させることができる。 Here, the system control unit 114 outputs a control signal to the optical system drive unit 106 so as to drive the optical system 101 (focus lens) based on the defocus amount calculated using the equation (1). As a result, the focusing position can be moved to the position of the face.

次にS706において、システム制御部114は、撮像素子102から出力される信号に基づいて測光動作を行い、被写体の露出情報を取得する。続いてS707において、システム制御部114は、S706で取得した被写体の露出情報に基づいて、撮影時のシャッタ秒時やISO感度などの撮影条件を設定する。 Next, in S706, the system control unit 114 performs a photometric operation based on the signal output from the image sensor 102, and acquires exposure information of the subject. Subsequently, in S707, the system control unit 114 sets shooting conditions such as shutter seconds during shooting and ISO sensitivity based on the exposure information of the subject acquired in S706.

次にS708において、システム制御部114は、不図示のシャッターボタンの例えば全押しによりスイッチSW2がONとなり、静止画の記録が指示されたかどうかを判定する。スイッチSW2がOFFの場合には、S712に進む。一方、スイッチSW2がONの場合には、S709に進む。 Next, in S708, the system control unit 114 determines whether or not the switch SW2 is turned on by, for example, fully pressing a shutter button (not shown), and recording of a still image is instructed. If the switch SW2 is OFF, the process proceeds to S712. On the other hand, when the switch SW2 is ON, the process proceeds to S709.

S709において、システム制御部114は、水平同期信号HD、垂直同期信号VD等の撮像素子102の駆動パルスを出力するように撮像素子駆動部108を制御する。撮像素子102は、この駆動パルスに基づいて露光(電荷の蓄積)を行う。同時に、S707で設定した撮影条件に従い、公知のシャッタ制御を行う。そしてシステム制御部114は、所定のシャッタ時間が経過した場合には露光を終了し、電荷の読み出しを開始するように制御する。 In S709, the system control unit 114 controls the image sensor drive unit 108 so as to output drive pulses of the image sensor 102 such as the horizontal synchronization signal HD and the vertical synchronization signal VD. The image sensor 102 performs exposure (accumulation of electric charge) based on this drive pulse. At the same time, known shutter control is performed according to the imaging conditions set in S707. Then, the system control unit 114 controls so as to end the exposure and start reading out the electric charge when the predetermined shutter time elapses.

次にS710において、撮像信号画像処理部109で各種画像処理が行われる。続いてS711において、S710でメモリ501に出力された画像を外部記憶装置104に対して出力するとともに、記憶された画像を画像表示部111に表示する。 Next, in S710, various image processing is performed by the image pickup signal image processing unit 109. Subsequently, in S711, the image output to the memory 501 in S710 is output to the external storage device 104, and the stored image is displayed on the image display unit 111.

S712において、システム制御部114は、スイッチSW1がOFFされたか否かを判定する。スイッチSW1がONの状態を維持している場合、撮影が継続されるものとしてS708に戻る。一方、スイッチSW1がOFFになった場合には、撮影動作を終了してS713に進む。S713において、システム制御部114は、不図示の電源スイッチ(電源SW)がOFFであるか否かを判定する。電源SWがオンの場合には、S702に戻り、ライブビューで撮影準備状態を継続する。一方、電源SWがオフになった場合には、本発明の撮像装置の電源をオフにする。 In S712, the system control unit 114 determines whether or not the switch SW1 has been turned off. When the switch SW1 is maintained in the ON state, the process returns to S708 assuming that the shooting is continued. On the other hand, when the switch SW1 is turned off, the shooting operation is ended and the process proceeds to S713. In S713, the system control unit 114 determines whether or not the power switch (power switch) (not shown) is OFF. When the power switch is turned on, the process returns to S702 and the shooting preparation state is continued in the live view. On the other hand, when the power switch is turned off, the power of the image pickup apparatus of the present invention is turned off.

次に、図8を参照して、図7のS703で行われる顔検出処理について説明する。図8は、顔検出処理を示すフローチャートである。まずS801において、撮像素子102から出力され、加算信号分離部107により分離された焦点検出信号であるA像及びB像に対して、焦点検出信号画像処理部110により各種信号処理が行われる。被写体検出部112は、焦点検出信号画像処理部110の輝度信号変換部604により輝度信号(Yデータ)に変換されたA像またはB像を入力し、顔が存在するか否かを公知のパターン認識技術にて検出する。顔が検出された場合、顔の位置の座標をシステム制御部114に通知する。 Next, with reference to FIG. 8, the face detection process performed in S703 of FIG. 7 will be described. FIG. 8 is a flowchart showing the face detection process. First, in S801, the focus detection signal image processing unit 110 performs various signal processing on the A image and the B image, which are the focus detection signals output from the image sensor 102 and separated by the addition signal separation unit 107. The subject detection unit 112 inputs an A image or a B image converted into a luminance signal (Y data) by the luminance signal conversion unit 604 of the focus detection signal image processing unit 110, and a pattern known as to whether or not a face exists. Detect with recognition technology. When a face is detected, the system control unit 114 is notified of the coordinates of the position of the face.

次にS802において、システム制御部114は、顔が検出されたか否か、すなわち被写体検出部112から顔の位置の座標が通知されたか否かを判定する。顔が検出されていない場合には、顔検出処理を終了する。一方、顔が検出された場合には、S803に進む。続いてS803において、システム制御部114は、顔が検出された座標範囲を像ずれ量算出部113に通知する。像ずれ量算出部113は、システム制御部114から通知された座標範囲内の像ずれ量(顔の位置における像ずれ量)を算出し、その像ずれ量をシステム制御部114に通知する。 Next, in S802, the system control unit 114 determines whether or not the face has been detected, that is, whether or not the subject detection unit 112 has notified the coordinates of the position of the face. If no face is detected, the face detection process is terminated. On the other hand, if a face is detected, the process proceeds to S803. Subsequently, in S803, the system control unit 114 notifies the image shift amount calculation unit 113 of the coordinate range in which the face is detected. The image shift amount calculation unit 113 calculates the image shift amount (image shift amount at the position of the face) within the coordinate range notified from the system control unit 114, and notifies the system control unit 114 of the image shift amount.

次にS804において、システム制御部114は、像ずれ量算出部113により算出された像ずれ量に基づいて、A像またはB像から検出された顔の位置(被写体位置)を補正し、撮影画像における被写体位置を推定する。このときシステム制御部114は、像ずれ量算出部113から通知された像ずれ量に対して、予め定められた比率に応じて撮影画像内の顔位置を推定し、補正量として画像表示部111に通知する。予め定められた比率とは、像ずれ量を算出するために用いたA像及びB像を出力した光電変換部201A,201Bの開口位置に起因する値である。この値に応じた補正量を用いて、顔の位置を補正する。各光電変換部201A,201Bの開口が光軸中心に対して互いに対称(左右対称)に配置されている場合、像ずれ量dに対して値d/2が撮影画像内の顔位置の中心となる。このとき、補正量は像ずれ量dの半分である。 Next, in S804, the system control unit 114 corrects the face position (subject position) detected from the A image or the B image based on the image shift amount calculated by the image shift amount calculation unit 113, and the captured image. Estimate the subject position in. At this time, the system control unit 114 estimates the face position in the captured image according to a predetermined ratio with respect to the image shift amount notified from the image shift amount calculation unit 113, and the image display unit 111 as a correction amount. Notify to. The predetermined ratio is a value caused by the aperture positions of the photoelectric conversion units 201A and 201B that output the A image and the B image used for calculating the image shift amount. The position of the face is corrected by using the correction amount corresponding to this value. When the openings of the photoelectric conversion units 201A and 201B are arranged symmetrically with respect to the center of the optical axis (left-right symmetry), the value d / 2 with respect to the image shift amount d is the center of the face position in the captured image. Become. At this time, the correction amount is half of the image shift amount d.

次にS805において、画像表示部111は、撮像信号画像処理部109で処理された画像データをメモリ501から読み出す。そして画像表示部111は、システム制御部114により指定された顔の位置に基づいて、顔の位置をユーザーに通知するための枠(被写体検出枠)を描画し、この枠を出力する。このように画像表示部111は、システム制御部114で推定された撮影画像における顔の位置を含む領域に被写体検出枠を表示する。 Next, in S805, the image display unit 111 reads the image data processed by the image pickup signal image processing unit 109 from the memory 501. Then, the image display unit 111 draws a frame (subject detection frame) for notifying the user of the position of the face based on the position of the face designated by the system control unit 114, and outputs this frame. In this way, the image display unit 111 displays the subject detection frame in the area including the position of the face in the captured image estimated by the system control unit 114.

以上の処理により、顔検出処理を終了する。 The face detection process is completed by the above process.

なお、撮影画像が顔位置に合焦していない場合、被写体はボケて広い範囲に広がる。このため、枠を広げる場合には、被写体検出された座標から像ずれ量方向に枠を拡大して表示してもよい。また、像ずれ量方向に拡大する際に、像ずれ量dだけ拡大することで、ボケて広がった分だけ囲むように処理を行ってもよい。このとき、画像表示部111は、システム制御部114で推定された画像データにおける顔の位置を含む領域を拡大して被写体検出枠を表示してもよい。 If the captured image is not in focus at the face position, the subject is blurred and spreads over a wide range. Therefore, when expanding the frame, the frame may be enlarged and displayed in the image deviation amount direction from the coordinates where the subject is detected. Further, when enlarging in the image shift amount direction, the process may be performed so as to surround the blurred and widened portion by enlarging by the image shift amount d. At this time, the image display unit 111 may display the subject detection frame by enlarging the area including the position of the face in the image data estimated by the system control unit 114.

なお本実施形態では、被写体を顔として被写体検出処理を行っているが、これに限定されるものではなく、顔以外の被写体であってもよい。また撮像素子102からA+B像とA像の読み出しを行っているが、撮像素子102からA像とB像を読み出し、後で加算処理によってA+B像の生成を行ってもよく、A像、B像、A+B像がそれぞれ取得可能であれば、読み出し方法にはこだわらない。 In the present embodiment, the subject detection process is performed with the subject as a face, but the present invention is not limited to this, and a subject other than the face may be used. Further, although the A + B image and the A image are read out from the image sensor 102, the A + B image and the B image may be read out from the image sensor 102, and the A + B image may be generated later by the addition process. As long as the A + B images can be obtained, the reading method is not particular.

以上説明したように第1の実施形態によれば、焦点検出信号(A像またはB像)を用いて顔検出を行う。焦点検出信号(A像またはB像)は、画像信号(A+B像)よりも焦点深度が深いため、光学系101のデフォーカス量が大きい場合でも、よりボケの少ない焦点検出信号を用いて顔を検出することができる。 As described above, according to the first embodiment, face detection is performed using the focus detection signal (A image or B image). Since the focus detection signal (A image or B image) has a deeper depth of focus than the image signal (A + B image), even if the defocus amount of the optical system 101 is large, the face is displayed using the focus detection signal with less blur. Can be detected.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。図9は、第2の実施形態における撮像装置の概略構成を示すブロック図である。図9に示す撮像装置と図1に示す撮像装置との違いは、焦点検出信号画像処理部110から、被写体検出部112にA像及びB像を出力する点である。なお、これ以外は図1と同様であるため、同じ参照番号を付して説明を省略する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. FIG. 9 is a block diagram showing a schematic configuration of the image pickup apparatus according to the second embodiment. The difference between the image pickup apparatus shown in FIG. 9 and the image pickup apparatus shown in FIG. 1 is that the focus detection signal image processing unit 110 outputs the A image and the B image to the subject detection unit 112. Since the other parts are the same as those in FIG. 1, the same reference numbers are given and the description thereof will be omitted.

第1の実施形態では、焦点検出信号(A像またはB像)を用いて検出した顔の位置を、像ずれ量によって補正する方法について説明した。これに対し、第2の実施形態では、A像とB像を用いた相関演算を行うことなく、演算により撮像画像に存在する被写体の位置を推定して補正する。 In the first embodiment, a method of correcting the position of the face detected by using the focus detection signal (A image or B image) by the amount of image shift has been described. On the other hand, in the second embodiment, the position of the subject existing in the captured image is estimated and corrected by the calculation without performing the correlation calculation using the A image and the B image.

本実施形態では、焦点検出信号画像処理部110からA像及びB像のそれぞれが被写体検出部112に出力される。被写体検出部112は、入力されたA像およびB像のそれぞれに対して顔検出を行い、それぞれの座標をシステム制御部114に出力する。すなわち被写体検出部112は、A像から第1の被写体位置を検出すると共に、B像から第2の被写体位置を検出する。 In the present embodiment, each of the A image and the B image is output from the focus detection signal image processing unit 110 to the subject detection unit 112. The subject detection unit 112 performs face detection on each of the input A image and B image, and outputs the respective coordinates to the system control unit 114. That is, the subject detection unit 112 detects the first subject position from the A image and the second subject position from the B image.

システム制御部114は、A像とB像からそれぞれ検出された第1の被写体位置の座標と第2の被写体位置の座標の中間位置を顔の位置として、画像表示部111に出力する。すなわちシステム制御部114は、第1の被写体位置及び第2の被写体位置に基づいて被写体位置を推定する。本実施形態において、A像及びB像を出力した光電変換部201A,201Bは、光軸中心に対して互いに対称に配置されている。このため、システム制御部114は、第1の被写体位置及び第2の被写体位置の中間位置を被写体位置(顔の位置)と推定する。 The system control unit 114 outputs to the image display unit 111 the intermediate position between the coordinates of the first subject position and the coordinates of the second subject position detected from the A image and the B image, respectively, as the face position. That is, the system control unit 114 estimates the subject position based on the first subject position and the second subject position. In the present embodiment, the photoelectric conversion units 201A and 201B that output the A image and the B image are arranged symmetrically with respect to the center of the optical axis. Therefore, the system control unit 114 estimates the intermediate position between the first subject position and the second subject position as the subject position (face position).

図10を算出して、中間位置の算出方法について説明する。図10は、本実施形態における顔の位置(座標)を示す図である。図10(a)は、A像の一例を示す。検出された顔位置の矩形枠の座標を、左上部を(lx1、ly1)、右上部を(lx2、ly1)、左下部を(1x1、1y2)、右下部を(lx2、ly2)とする。この場合、顔の領域の範囲を、x方向の2点(lx1、lx2)と、y方向の2点(ly1、ly2)により表すことができる。 FIG. 10 is calculated, and a method of calculating the intermediate position will be described. FIG. 10 is a diagram showing the position (coordinates) of the face in the present embodiment. FIG. 10A shows an example of the A image. The coordinates of the rectangular frame of the detected face position are (lx1, ly1) in the upper left part, (lx2, ly1) in the upper right part, (1x1, 1y2) in the lower left part, and (lx2, ly2) in the lower right part. In this case, the range of the face region can be represented by two points in the x direction (lx1, lp2) and two points in the y direction (ly1, ly2).

図10(b)は、図10(a)に示すA像に対応するB像を示す。同様に、検出された顔位置の矩形枠の座標を、左上部を(rx1、ry1)、右上部を(rx2、ry1)、左下部を(rx1、ry2)、右下部を(rx2、ry2)とする。この場合、顔の領域の範囲を、x方向の2点(rx1、rx2)と、y方向の2点(ry1、ry2)により表すことができる。 FIG. 10 (b) shows a B image corresponding to the A image shown in FIG. 10 (a). Similarly, the coordinates of the rectangular frame of the detected face position are (rx1, ry1) in the upper left part, (rx2, ry1) in the upper right part, (rx1, ry2) in the lower left part, and (rx2, ry2) in the lower right part. And. In this case, the range of the face region can be represented by two points in the x direction (rx1, rx2) and two points in the y direction (ry1, ry2).

図10(c)は、A像とB像を重ね合わせた状態を示す図である。実線はA像から得られた第1の被写体位置、点線はB像から得られた第2の被写体位置を示している。この場合、システム制御部114は、撮像画像の中に存在する顔の領域(座標)の範囲は、太線枠で示されるように、x方向の2点(1x1+rx1)/2、(lx2+rx2)/2と、y方向の2点(ly1+ry1)/2、(ly2+ry2)/2)と推定できる。このように、システム制御部114は、第1の被写体位置と第2の被写体位置との平均を取り、上述した座標で示される枠を画像表示部111に通知する。 FIG. 10 (c) is a diagram showing a state in which the A image and the B image are superimposed. The solid line shows the first subject position obtained from the A image, and the dotted line shows the second subject position obtained from the B image. In this case, the system control unit 114 sets the range of the face region (coordinates) existing in the captured image as two points (1x1 + rx1) / 2 and (lx2 + rx2) / 2 in the x direction as shown by the thick line frame. It can be estimated that there are two points in the y direction (ly1 + ry1) / 2, (ly2 + ry2) / 2). In this way, the system control unit 114 takes the average of the first subject position and the second subject position, and notifies the image display unit 111 of the frame indicated by the above-mentioned coordinates.

上記の通り第2の実施形態によれば、像ずれ量を算出すること無く、第1の実施形態と同様の効果を得ることができる。 As described above, according to the second embodiment, the same effect as that of the first embodiment can be obtained without calculating the image shift amount.

なお、A像とB像のそれぞれに対して検出された座標のみ撮影画像の顔がボケて広がっていることも考えられる。このため、x方向の2点(lx1、rx2)と、y方向の2点(ly1、ry2)により表現される矩形枠に拡大して、撮影画像に存在するボケた顔を囲むように画像表示部111に通知してもよい。 It is also conceivable that the face of the captured image is blurred and spreads only at the coordinates detected for each of the A image and the B image. Therefore, the image is enlarged so as to surround the blurred face existing in the captured image by enlarging it into a rectangular frame represented by two points in the x direction (lx1, rx2) and two points in the y direction (ly1, ry2). The unit 111 may be notified.

さらに、撮影画像はA像とB像を加算した画像である。このため、A像またはB像の光量がシェーディング等の影響で減衰した場合、撮影画像の重心位置は光量の大きい画像の影響を大きく受ける。そこで被写体検出部112は、実際の顔検出の位置を求める式を用いて、A像とB像の光量比に応じて撮影画像における顔の位置を補正してもよい。 Further, the captured image is an image obtained by adding the A image and the B image. Therefore, when the amount of light of the A image or the B image is attenuated due to the influence of shading or the like, the position of the center of gravity of the captured image is greatly affected by the image having a large amount of light. Therefore, the subject detection unit 112 may correct the position of the face in the captured image according to the light amount ratio of the A image and the B image by using the formula for obtaining the actual face detection position.

<他の実施形態>
なお、本発明は、複数の機器(例えばホストコンピュータ、インターフェイス機器、スキャナ、ビデオカメラなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
<Other Embodiments>
Even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a scanner, a video camera, etc.), the present invention is a device composed of one device (for example, a copier, a facsimile machine, etc.). May be applied to.

また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device implement the program. It can also be realized by the process of reading and executing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101:光学系、102:撮像素子、103:信号処理部、104:外部記憶装置、105:センサ補正部、106:光学系駆動部、107:加算信号分離部、108:撮像素子駆動部、109:撮像信号画像処理部、110:焦点検出信号画像処理部、111:画像表示部、112:被写体検出部、113:像ずれ量算出部、114:システム制御部 101: Optical system, 102: Image sensor, 103: Signal processing unit, 104: External storage device, 105: Sensor correction unit, 106: Optical system drive unit, 107: Addition signal separation unit, 108: Image sensor drive unit, 109 : Image sensor image processing unit, 110: Focus detection signal image processing unit, 111: Image display unit, 112: Subject detection unit, 113: Image shift amount calculation unit, 114: System control unit

Claims (12)

複数のマイクロレンズそれぞれに対して複数の光電変換部を備えた撮像素子から取得可能な、視差を有する一対の焦点検出信号および画像信号を処理する信号処理装置であって、
前記一対の焦点検出信号の少なくとも一方を用いて、予め決められた被写体を検出する被写体検出手段と、
前記一対の焦点検出信号を用いて、焦点状態を検出する焦点検出手段と、を有し、
前記被写体検出手段により前記被写体が検出された場合に、前記焦点検出手段は、前記一対の焦点検出信号のうち、前記被写体の領域に対応する一対の焦点検出信号を用いて焦点状態を検出することを特徴とする信号処理装置。
A signal processing device that processes a pair of parallax focus detection signals and image signals that can be acquired from an image sensor equipped with a plurality of photoelectric conversion units for each of the plurality of microlenses.
A subject detection means for detecting a predetermined subject using at least one of the pair of focus detection signals, and a subject detection means.
It has a focus detection means for detecting a focus state using the pair of focus detection signals.
When the subject is detected by the subject detection means, the focus detection means detects the focus state by using the pair of focus detection signals corresponding to the region of the subject among the pair of focus detection signals. A signal processing device characterized by.
前記一対の焦点検出信号を、それぞれ輝度信号に変換する第1の処理手段を更に有し、
前記被写体検出手段および前記焦点検出手段は、前記一対の焦点検出信号の輝度信号を用いて検出を行うことを特徴とする請求項1に記載の信号処理装置。
Further, a first processing means for converting the pair of focus detection signals into luminance signals is further provided.
The signal processing device according to claim 1, wherein the subject detection means and the focus detection means perform detection using the luminance signals of the pair of focus detection signals.
前記被写体検出手段は、前記一対の焦点検出信号の一方を用いて、前記被写体を検出し、
前記被写体が検出された場合に、前記焦点検出手段は、前記焦点状態として、前記被写体の領域に対応する一対の焦点検出信号のずれ量を検出し、
前記ずれ量と、前記複数の光電変換部の開口位置に基づいて、前記画像信号に基づく画像における前記被写体の位置を推定する推定手段を更に有することを特徴とする請求項1または2に記載の信号処理装置。
The subject detection means detects the subject by using one of the pair of focus detection signals.
When the subject is detected, the focus detecting means detects the amount of deviation of the pair of focus detection signals corresponding to the region of the subject as the focal state.
The first or second aspect of the present invention, further comprising an estimation means for estimating the position of the subject in the image based on the image signal based on the deviation amount and the opening positions of the plurality of photoelectric conversion units. Signal processing device.
前記推定手段は、更に、前記ずれ量の方向に、前記ずれ量の大きさ分、前記被写体の領域を拡大することを特徴とする請求項3に記載の信号処理装置。 The signal processing device according to claim 3, wherein the estimation means further expands the area of the subject by the magnitude of the deviation amount in the direction of the deviation amount. 前記被写体検出手段は、前記一対の焦点検出信号をそれぞれ用いて、前記被写体を検出し、
前記一対の焦点検出信号からそれぞれ検出された前記被写体の第1の位置と第2の位置とから、前記画像信号に基づく画像における前記被写体の位置を推定する推定手段を更に有することを特徴とする請求項1または2に記載の信号処理装置。
The subject detection means detects the subject by using the pair of focus detection signals, respectively.
It is characterized by further having an estimation means for estimating the position of the subject in the image based on the image signal from the first position and the second position of the subject detected from the pair of focus detection signals, respectively. The signal processing apparatus according to claim 1 or 2.
前記推定手段は、前記第1の位置と前記第2の位置を平均した位置を、前記画像信号に基づく画像における前記被写体の位置として推定することを特徴とする請求項5に記載の信号処理装置。 The signal processing apparatus according to claim 5, wherein the estimation means estimates a position obtained by averaging the first position and the second position as the position of the subject in an image based on the image signal. .. 前記推定手段は、更に、前記一対の焦点検出信号からそれぞれ検出された前記被写体の領域を合わせた領域を、前記画像信号に基づく画像における前記被写体の領域として推定することを特徴とする請求項5に記載の信号処理装置。 5. The estimation means is further characterized in that the region including the regions of the subject detected from the pair of focus detection signals is estimated as the region of the subject in the image based on the image signal. The signal processing apparatus according to. 前記複数の光電変換部ごとに信号を加算して得られた前記画像信号を処理する第2の処理手段と、
前記第2の処理手段から出力された前記画像信号に基づく画像を表示する表示手段と、を更に有し、
前記被写体検出手段により前記被写体が検出された場合に、前記表示手段は、前記被写体の領域を示す表示を前記画像信号に重畳して行うことを特徴とする請求項1乃至7のいずれか1項に記載の信号処理装置。
A second processing means for processing the image signal obtained by adding signals to each of the plurality of photoelectric conversion units, and
Further, it has a display means for displaying an image based on the image signal output from the second processing means.
Any one of claims 1 to 7, wherein when the subject is detected by the subject detecting means, the display means superimposes a display indicating a region of the subject on the image signal. The signal processing apparatus according to.
請求項1乃至8のいずれか1項に記載の信号処理装置と、
複数のマイクロレンズそれぞれに対して複数の光電変換部を備え、視差を有する一対の焦点検出信号および画像信号を取得可能に出力する撮像素子と
を有することを特徴とする撮像装置。
The signal processing device according to any one of claims 1 to 8.
An image pickup apparatus characterized in that a plurality of photoelectric conversion units are provided for each of the plurality of microlenses, and a pair of focus detection signals having parallax and an image pickup element that can acquire an image signal are provided.
複数のマイクロレンズそれぞれに対して複数の光電変換部を備えた撮像素子から取得可能な、視差を有する一対の焦点検出信号を処理する信号処理方法であって、
被写体検出手段が、前記一対の焦点検出信号の少なくとも一方を用いて、予め決められた被写体を検出する被写体検出工程と、
焦点検出手段が、前記一対の焦点検出信号を用いて、焦点状態を検出する焦点検出工程と、を有し、
前記被写体検出工程で前記被写体が検出された場合に、前記焦点検出工程では、前記一対の焦点検出信号のうち、前記被写体の領域に対応する一対の焦点検出信号を用いて焦点状態を検出することを特徴とする信号処理方法。
A signal processing method for processing a pair of focus detection signals having parallax, which can be acquired from an image sensor provided with a plurality of photoelectric conversion units for each of a plurality of microlenses.
A subject detection step in which the subject detection means detects a predetermined subject by using at least one of the pair of focus detection signals.
The focus detection means includes a focus detection step of detecting a focus state using the pair of focus detection signals.
When the subject is detected in the subject detection step, in the focus detection step, the focus state is detected by using the pair of focus detection signals corresponding to the region of the subject among the pair of focus detection signals. A signal processing method characterized by.
コンピュータを、請求項1乃至8のいずれか1項に記載の信号処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the signal processing device according to any one of claims 1 to 8. 請求項11に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores the program according to claim 11.
JP2019180715A 2019-09-30 2019-09-30 Signal processing apparatus and method, and imaging apparatus Pending JP2021057825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019180715A JP2021057825A (en) 2019-09-30 2019-09-30 Signal processing apparatus and method, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180715A JP2021057825A (en) 2019-09-30 2019-09-30 Signal processing apparatus and method, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2021057825A true JP2021057825A (en) 2021-04-08

Family

ID=75272871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180715A Pending JP2021057825A (en) 2019-09-30 2019-09-30 Signal processing apparatus and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2021057825A (en)

Similar Documents

Publication Publication Date Title
JP5640143B2 (en) Imaging apparatus and imaging method
JP5979961B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
JP5753371B2 (en) Imaging apparatus and control method thereof
JP2012049773A (en) Imaging apparatus and method, and program
JP6678504B2 (en) Imaging device, control method therefor, program, and storage medium
US9967451B2 (en) Imaging apparatus and imaging method that determine whether an object exists in a refocusable range on the basis of distance information and pupil division of photoelectric converters
US20230186501A1 (en) Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method
JP5387341B2 (en) Imaging device
US9693037B2 (en) Imaging apparatus having an imaging element in which a plurality of light receiving elements is arranged with respect to a micro lens and method for controlling same
JP2013160991A (en) Imaging apparatus
JP2023033355A (en) Image processing device and control method therefor
JP5882785B2 (en) Imaging device
US11394899B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium for generating viewpoint movement moving image
JP6005246B2 (en) Imaging apparatus, histogram display method, program, and image processing apparatus
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2021057825A (en) Signal processing apparatus and method, and imaging apparatus
JP2018007205A (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program
JP2014131188A (en) Imaging apparatus, control method of the same, and control program
JP6071748B2 (en) Imaging apparatus and control method thereof
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
JP6702798B2 (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP6613065B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP2015094834A (en) Image capturing device, image capturing system, method of controlling image capturing device, program, and storage medium
JP2022173069A (en) Image processing apparatus and method, and imaging apparatus and method for controlling the same, program, and storage medium
JP2016096389A (en) Imaging apparatus, imaging apparatus control method, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113