JP2010256776A - Image pickup device and electronic apparatus - Google Patents

Image pickup device and electronic apparatus Download PDF

Info

Publication number
JP2010256776A
JP2010256776A JP2009109115A JP2009109115A JP2010256776A JP 2010256776 A JP2010256776 A JP 2010256776A JP 2009109115 A JP2009109115 A JP 2009109115A JP 2009109115 A JP2009109115 A JP 2009109115A JP 2010256776 A JP2010256776 A JP 2010256776A
Authority
JP
Japan
Prior art keywords
pattern
image
defocus
correlation calculation
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009109115A
Other languages
Japanese (ja)
Inventor
Shinichi Imaide
愼一 今出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009109115A priority Critical patent/JP2010256776A/en
Publication of JP2010256776A publication Critical patent/JP2010256776A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device having a high-speed auto-focusing function, and to provide an electronic apparatus. <P>SOLUTION: The image pickup device includes an optical element 10 for imaging and focusing an object Obj; an imaging unit 30 for picking up an image of the object Obj imaged by the optical element 10; and a pattern 20, provided between the optical element 10 and the imaging unit 30 to optically superimpose a pattern image h (x/k) on the image of the object Obj. The image pickup device makes a correlation operation for the image data, obtained from the imaging by the imaging unit 30 with a reference pattern corresponding to the pattern 20. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像装置及び電子機器等に関する。   The present invention relates to an imaging apparatus, an electronic device, and the like.

オートフォーカス機能(例えば、特許文献1、2に開示されるオートフォーカス手法)は、カメラの機能として今や必須の機能となっている。昨今、デジタル一眼レフカメラ(DSLR)の市場が拡大基調にあり、市場ではデジタル一眼レフカメラの高性能化・小型化のニーズが高まっている。これを受けて、高速にオートフォーカス可能でカメラを小型化できるオートフォーカス技術が求められている。   The autofocus function (for example, the autofocus method disclosed in Patent Documents 1 and 2) is now an indispensable function as a camera function. Recently, the market for digital single-lens reflex cameras (DSLR) is on an expanding trend, and there is a growing need for higher performance and smaller size of digital single-lens reflex cameras. In response to this demand, there is a demand for autofocus technology that can autofocus at high speed and can reduce the size of the camera.

例えば、高速性を重視する方式として位相差AF方式がある。位相差AF方式では、光路を2つに分岐し、一方の光路には撮像素子を設け、他方の光路にはAF専用センサを設ける。そして、AF専用センサによってデフォーカス量を検出し、検出されたデフォーカス量を用いてフォーカス制御を行う。しかしながら、この位相差AF方式を用いると、光路を分岐するための構成(例えばミラー)とAF専用センサを配置するスペースが必要となり、カメラの小型化が困難となってしまう。   For example, there is a phase difference AF method as a method that emphasizes high speed. In the phase difference AF method, the optical path is branched into two, an image sensor is provided in one optical path, and an AF dedicated sensor is provided in the other optical path. Then, the defocus amount is detected by the AF dedicated sensor, and focus control is performed using the detected defocus amount. However, when this phase difference AF method is used, a structure for branching the optical path (for example, a mirror) and a space for arranging the AF dedicated sensor are required, and it becomes difficult to reduce the size of the camera.

また、小型化を重視する方式としてイメージャAF方式(コントラスト方式)がある。イメージャAF方式では、通常の撮像を行う撮像素子を用いてフォーカス位置を求める。すなわち、撮像素子で得た画像のコントラストを評価値とし、合焦位置において最もコントラストが高くなることを利用してフォーカス位置を探索的に求める(山登り法)。しかしながら、このイメージャAF方式では、フォーカスレンズを逐次駆動することでコントラストピークを探索するため、高速に合焦させることが困難である。   Further, there is an imager AF method (contrast method) as a method that places importance on miniaturization. In the imager AF method, a focus position is obtained using an image sensor that performs normal imaging. That is, the contrast of the image obtained by the image sensor is used as an evaluation value, and the focus position is searched for using the fact that the contrast is highest at the in-focus position (mountain climbing method). However, in this imager AF method, since the contrast peak is searched by sequentially driving the focus lens, it is difficult to focus at high speed.

特開2000−125177号公報JP 2000-125177 A 特開平8−124838号公報JP-A-8-124838

本発明の幾つかの態様によれば、高速オートフォーカス機能を有する撮像装置及び電子機器等を提供できる。   According to some aspects of the present invention, it is possible to provide an imaging apparatus, an electronic device, and the like having a high-speed autofocus function.

本発明の一態様は、被写体を結像し、合焦するための光学素子と、前記光学素子によって結像された前記被写体の像を撮像する撮像素子と、前記光学素子と前記撮像素子との間に設けられ、前記被写体の像に対してパターン像を光学的に重畳するためのパターンと、前記撮像素子による撮像により得られた画像データと、前記パターンに対応する参照パターンとの相関演算処理を行う相関演算部と、を含む撮像装置に関係する。   One embodiment of the present invention includes an optical element that focuses and focuses a subject, an imaging element that captures an image of the subject imaged by the optical element, and the optical element and the imaging element. Correlation calculation processing between a pattern provided in between for optically superimposing a pattern image on the image of the subject, image data obtained by imaging by the imaging device, and a reference pattern corresponding to the pattern And a correlation calculation unit that performs the processing.

本発明の一態様によれば、光学素子と撮像素子との間にパターンが設けられることで、光学素子によって結像された被写体像にパターン像が重畳される。その被写体像が撮像されることで、パターン像が重畳された被写体像の画像データが取得される。そして、その画像データに対して参照パターンが相関演算処理される。これにより、相関演算処理の処理結果を用いた種々の処理や、種々の機能を実現できる。   According to one aspect of the present invention, by providing a pattern between the optical element and the imaging element, the pattern image is superimposed on the subject image formed by the optical element. By capturing the subject image, image data of the subject image on which the pattern image is superimposed is acquired. The reference pattern is subjected to correlation calculation processing for the image data. Thereby, various processes using the processing result of the correlation calculation process and various functions can be realized.

また、本発明の一態様では、前記相関演算処理により得られた評価値に基づいてデフォーカス情報を取得するデフォーカス情報取得部と、前記デフォーカス情報に基づいてフォーカス制御を行うオートフォーカス制御部と、を含んでもよい。   In one aspect of the present invention, a defocus information acquisition unit that acquires defocus information based on the evaluation value obtained by the correlation calculation process, and an autofocus control unit that performs focus control based on the defocus information And may be included.

このようにすれば、オートフォーカス機能を実現することができる。具体的には、評価値に基づいて取得されたデフォーカス情報に基づいてフォーカス制御されることで、オートフォーカス制御を行うことができる。   In this way, an autofocus function can be realized. Specifically, autofocus control can be performed by performing focus control based on defocus information acquired based on the evaluation value.

また、本発明の一態様では、前記デフォーカス情報取得部は、前記相関演算処理により得られた前記評価値に基づいてデフォーカス方向を判定し、前記フォーカス制御部は、前記デフォーカス情報取得部により判定された前記デフォーカス方向に基づいてフォーカス制御を行ってもよい。   In one aspect of the present invention, the defocus information acquisition unit determines a defocus direction based on the evaluation value obtained by the correlation calculation process, and the focus control unit includes the defocus information acquisition unit. Focus control may be performed based on the defocus direction determined by the above.

このようにすれば、評価値に基づいてデフォーカス方向を判定することで、デフォーカス情報としてデフォーカス方向の情報を取得できる。そして、取得したデフォーカス方向の情報に基づいてフォーカス制御を行うことで、フォーカス駆動の方向を決定できる。   In this way, information on the defocus direction can be acquired as defocus information by determining the defocus direction based on the evaluation value. The focus drive direction can be determined by performing focus control based on the acquired information on the defocus direction.

また、本発明の一態様では、前記相関演算部は、第1の座標軸に沿った第1の方向で空間周波数が単調増加する第1の参照パターンと、前記画像データとの相関演算処理を行って第1の評価値を取得し、前記第1の方向で空間周波数が単調減少する第2の参照パターンと、前記画像データとの相関演算処理を行って第2の評価値を取得し、前記デフォーカス情報取得部は、前記第1、第2の評価値に基づいてデフォーカス情報を取得してもよい。   In the aspect of the invention, the correlation calculation unit performs a correlation calculation process between the first reference pattern in which the spatial frequency monotonously increases in the first direction along the first coordinate axis and the image data. Obtaining a first evaluation value, performing a correlation operation between the second reference pattern in which the spatial frequency monotonously decreases in the first direction and the image data, and obtaining a second evaluation value, The defocus information acquisition unit may acquire defocus information based on the first and second evaluation values.

このようにすれば、第1、第2の評価値に基づいてデフォーカス情報を取得できる。例えば、あるデフォーカス方向において、第1の方向で空間周波数が単調増加するパターン像が被写体像に重畳されるとする。そうすると、第1の参照パターンの方が、パターン像との相関性が高くなる。この相関性の違いにより、第1、第2の評価値がデフォーカス方向に応じて異なるものとなるため、第1、第2の評価値に基づいてデフォーカス方向を判定できる。   In this way, defocus information can be acquired based on the first and second evaluation values. For example, in a certain defocus direction, a pattern image whose spatial frequency monotonously increases in the first direction is superimposed on the subject image. Then, the first reference pattern has a higher correlation with the pattern image. Due to this difference in correlation, the first and second evaluation values differ depending on the defocus direction, so that the defocus direction can be determined based on the first and second evaluation values.

また、本発明の一態様では、前記相関演算部は、前記画像データと、複数のパターン幅縮小率に対応する複数の参照パターンとの相関演算処理を行い、前記デフォーカス情報取得部は、前記相関演算処理により得られた評価値に基づいて、前記複数の参照パターンのうちの前記画像データに重畳された前記パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出し、抽出されたパターン幅縮小率に基づいてデフォーカス量を算出し、前記フォーカス制御部は、前記デフォーカス量に基づいてフォーカス制御を行ってもよい。   In one aspect of the present invention, the correlation calculation unit performs a correlation calculation process between the image data and a plurality of reference patterns corresponding to a plurality of pattern width reduction ratios, and the defocus information acquisition unit Based on the evaluation value obtained by the correlation calculation process, the pattern width reduction rate of the reference pattern having the highest correlation with the pattern image superimposed on the image data of the plurality of reference patterns is extracted and extracted. The defocus amount may be calculated based on the reduced pattern width reduction rate, and the focus control unit may perform focus control based on the defocus amount.

本発明の一態様によれば、パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出し、パターン幅縮小率に基づいてデフォーカス量を算出することで、デフォーカス情報としてデフォーカス量の情報を取得できる。そして、取得したデフォーカス量の情報に基づいてフォーカス制御を行うことで、デフォーカス量に基づいてフォーカス駆動の駆動量を決定できる。   According to one aspect of the present invention, by extracting the pattern width reduction rate of the reference pattern having the highest correlation with the pattern image and calculating the defocus amount based on the pattern width reduction rate, defocus information is obtained. Focus amount information can be acquired. Then, by performing focus control based on the acquired defocus amount information, it is possible to determine the focus drive amount based on the defocus amount.

また、本発明の一態様では、前記相関演算部には、前記複数の参照パターンとして、第1の座標軸に沿った第1の方向で空間周波数が単調増加する複数の第1の参照パターンと、前記第1の方向で空間周波数が単調減少する複数の第2の参照パターンが入力され、前記相関演算部は、前記画像データと前記複数の第1の参照パターンとの相関演算処理を行って複数の第1の評価値を取得し、前記画像データと前記複数の第2の参照パターンとの相関演算処理を行って複数の第2の評価値を取得し、前記デフォーカス情報取得部は、前記複数の第1、第2の評価値に基づいて、前記複数の参照パターンのうちの前記画像データに重畳された前記パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出してもよい。   In one aspect of the present invention, the correlation calculation unit includes, as the plurality of reference patterns, a plurality of first reference patterns whose spatial frequencies monotonously increase in a first direction along a first coordinate axis; A plurality of second reference patterns whose spatial frequencies monotonously decrease in the first direction are input, and the correlation calculation unit performs a correlation calculation process between the image data and the plurality of first reference patterns. The first evaluation value is acquired, a correlation calculation process between the image data and the plurality of second reference patterns is performed to acquire a plurality of second evaluation values, and the defocus information acquisition unit Based on a plurality of first and second evaluation values, a pattern width reduction ratio of a reference pattern having the highest correlation with the pattern image superimposed on the image data among the plurality of reference patterns is extracted. Also good.

このようにすれば、複数の第1、第2の評価値に基づいて、パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出できる。例えば、各パターン幅縮小率に対応する第1、第2の参照パターンが生成される。そして、相関演算処理により、各パターン幅縮小率に対応する第1、第2の評価値が求められる。この第1、第2の評価値は、パターン幅縮小率に応じて異なるため、これらの評価値に基づいて、パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出できる。   In this way, the pattern width reduction rate of the reference pattern having the highest correlation with the pattern image can be extracted based on the plurality of first and second evaluation values. For example, first and second reference patterns corresponding to each pattern width reduction rate are generated. Then, first and second evaluation values corresponding to each pattern width reduction rate are obtained by the correlation calculation process. Since the first and second evaluation values differ depending on the pattern width reduction rate, the pattern width reduction rate of the reference pattern having the highest correlation with the pattern image can be extracted based on these evaluation values.

また、本発明の他の態様は、被写体にスポット光を照射するスポット光生成部と、前記被写体に照射された前記スポット光の像を結像するための光学素子と、前記光学素子による前記スポット光の像を撮像する撮像素子と、前記光学素子と前記撮像素子との間に設けられ、前記スポット光の像に対してパターン像を光学的に重畳するためのパターンと、前記撮像素子による撮像により得られた前記画像データと、前記パターンに対応する参照パターンとの相関演算処理を行う相関演算部と、を含む撮像装置に関係する。   In another aspect of the present invention, a spot light generation unit that irradiates a subject with spot light, an optical element that forms an image of the spot light irradiated on the subject, and the spot by the optical element An image pickup device for picking up an image of light, a pattern provided between the optical device and the image pickup device for optically superimposing a pattern image on the image of the spot light, and image pickup by the image pickup device This relates to an imaging apparatus including a correlation calculation unit that performs a correlation calculation process between the image data obtained by the above and a reference pattern corresponding to the pattern.

本発明の他の態様によれば、被写体にスポット光が照射され、スポット光の像が結像され、そのスポット光の像にパターン像が重畳される。その像が撮像されることで、パターン像が重畳されたスポット光の像の画像データが取得される。そして、その画像データに対して参照パターンが相関演算処理される。これにより、相関演算処理の処理結果を用いた種々の処理や、種々の機能を実現できる。   According to another aspect of the present invention, the subject is irradiated with spot light, an image of the spot light is formed, and the pattern image is superimposed on the spot light image. By capturing the image, image data of the spot light image on which the pattern image is superimposed is acquired. The reference pattern is subjected to correlation calculation processing for the image data. Thereby, various processes using the processing result of the correlation calculation process and various functions can be realized.

例えば、本発明の他の態様では、前記相関演算処理により得られた評価値に基づいてデフォーカス情報を取得するデフォーカス情報取得部と、前記デフォーカス情報に基づいてフォーカス制御を行うフォーカス制御部と、を含んでもよい。   For example, in another aspect of the present invention, a defocus information acquisition unit that acquires defocus information based on the evaluation value obtained by the correlation calculation process, and a focus control unit that performs focus control based on the defocus information And may be included.

このようにすれば、オートフォーカス機能を実現することができる。また、被写体にスポット光を照射することで、自然光等の照明が得られる状況や、得られない状況に関わらずオートフォーカス制御を実現できる。   In this way, an autofocus function can be realized. In addition, by irradiating the subject with spot light, it is possible to realize autofocus control regardless of a situation in which illumination such as natural light is obtained or a situation in which illumination is not obtained.

また、本発明の一態様及び他の態様では、前記パターン、及び前記参照パターンは、チャープ波パターンであってもよい。   In one embodiment and another embodiment of the present invention, the pattern and the reference pattern may be a chirp wave pattern.

このようにすれば、パターン像と参照パターンとの相関性が向上し、デフォーカス情報をより高精度に取得することができる。   In this way, the correlation between the pattern image and the reference pattern is improved, and defocus information can be acquired with higher accuracy.

また、本発明の他の態様は、上記のいずれかに記載の撮像装置を含む電子機器に関係する。   Another aspect of the invention relates to an electronic apparatus including any of the imaging devices described above.

本実施形態の撮像装置の第1の基本構成例。1 is a first basic configuration example of an imaging apparatus according to an embodiment. 相関演算処理の説明図。Explanatory drawing of a correlation calculation process. 相関演算処理の説明図。Explanatory drawing of a correlation calculation process. 相関演算処理の説明図。Explanatory drawing of a correlation calculation process. 相関演算処理の説明図。Explanatory drawing of a correlation calculation process. 透かしパターンの具体的な構成例。A specific configuration example of a watermark pattern. 本実施形態の撮像装置の第1の構成例。1 is a first configuration example of an imaging apparatus according to an embodiment. デフォーカス量の取得手法の説明図。Explanatory drawing of the acquisition method of a defocus amount. デフォーカス量の取得手法の説明図。Explanatory drawing of the acquisition method of a defocus amount. デフォーカス量の取得手法の説明図。Explanatory drawing of the acquisition method of a defocus amount. デフォーカス量の取得手法の説明図。Explanatory drawing of the acquisition method of a defocus amount. 本実施形態の撮像装置の第2の構成例。2 shows a second configuration example of an imaging apparatus according to the present embodiment. 本実施形態の撮像装置の第2の基本構成例。2 shows a second basic configuration example of an imaging apparatus according to the present embodiment. シンク関数の波形例。Waveform example of the sync function. 本実施形態の撮像装置の第3の構成例。3 shows a third configuration example of an imaging apparatus according to the present embodiment. デフォーカス量の取得手法の説明図。Explanatory drawing of the acquisition method of a defocus amount. 第3の構成例の撮像装置の動作説明図。Explanatory drawing of operation | movement of the imaging device of the 3rd structural example. 電子機器の構成例。Configuration example of an electronic device.

以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。   Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.

1.基本構成例
図1に、本実施形態の撮像装置の第1の基本構成例を示す。この撮像装置は、レンズ10(広義には、光学素子、結像光学系)、透かしパターン20(広義には、パターン)、撮像素子30(広義には、光電変換素子)を含む。そして、透かしパターン20によるパターン像を被写体の像に重畳し、その重畳したパターン像を用いることでオートフォーカスを行うための装置である。
1. Basic Configuration Example FIG. 1 shows a first basic configuration example of the imaging apparatus of the present embodiment. This imaging apparatus includes a lens 10 (optical element in a broad sense, an imaging optical system), a watermark pattern 20 (pattern in a broad sense), and an imaging element 30 (a photoelectric conversion element in a broad sense). Then, the pattern image by the watermark pattern 20 is superimposed on the subject image, and the apparatus is used for performing autofocus by using the superimposed pattern image.

レンズ10は、被写体Objの像を結像し、撮像面に焦点をフォーカス(合焦)する。例えば、レンズ10は、対物レンズ・フォーカスレンズ等の複数のレンズにより構成される。そして、フォーカスレンズがレンズ光軸方向に駆動されることで、レンズ10の焦点が撮像素子30の撮像面にフォーカスされる。但し、本実施形態では、レンズ10が単一のレンズで構成され、そのレンズが駆動されることでフォーカスされてもよい。なお、以下では便宜的に、フォーカスレンズの駆動によるフォーカス位置(焦点、合焦点)の移動を、撮像面の光軸方向の移動によって示す。   The lens 10 forms an image of the subject Obj and focuses (focuss) on the imaging surface. For example, the lens 10 includes a plurality of lenses such as an objective lens and a focus lens. Then, the focus lens is driven in the lens optical axis direction so that the focal point of the lens 10 is focused on the imaging surface of the imaging element 30. However, in the present embodiment, the lens 10 may be a single lens and may be focused by driving the lens. In the following, for convenience, the movement of the focus position (focal point, in-focus point) by driving the focus lens is indicated by the movement of the imaging surface in the optical axis direction.

透かしパターン20(特殊パターン、パターン部)は、被写体Objの像にパターン像を重畳する(重ね合わせる)。具体的には、透かしパターン20は、レンズ10と撮像素子30との間に設けられる。そして、被写体Objからの反射光が、レンズ10を介して透かしパターン20に入射されることで、透かしパターン20によるパターン像が被写体Objの像に重畳される。例えば、透かしパターン20は、レンズ10と撮像素子30との中間より少なくともレンズ10側に設けられる。被写体Objの各点に対応する像に対して適切にパターン像を重畳するために、透かしパターン20は、できるだけレンズ10に近い位置(近傍)に設けられることが望ましい。なお、レンズ10が複数のレンズで構成される場合には、透かしパターン20が、レンズとレンズとの間に設けられてもよい。すなわち、透かしパターン20が、複数のレンズのうちの最も対物側のレンズと撮像素子30との間に設けられてもよい。   The watermark pattern 20 (special pattern, pattern portion) superimposes (superimposes) a pattern image on the image of the subject Obj. Specifically, the watermark pattern 20 is provided between the lens 10 and the image sensor 30. Then, the reflected light from the subject Obj is incident on the watermark pattern 20 through the lens 10 so that the pattern image of the watermark pattern 20 is superimposed on the image of the subject Obj. For example, the watermark pattern 20 is provided at least on the lens 10 side from the middle between the lens 10 and the image sensor 30. In order to appropriately superimpose a pattern image on an image corresponding to each point of the subject Obj, it is desirable that the watermark pattern 20 be provided at a position (near) as close to the lens 10 as possible. When the lens 10 is composed of a plurality of lenses, the watermark pattern 20 may be provided between the lenses. In other words, the watermark pattern 20 may be provided between the most objective lens of the plurality of lenses and the image sensor 30.

より具体的には、透かしパターン20は、自己相関性の高いパターン像を被写体Objの像に重畳する。例えば、A5に示すように、透かしパターン20は、2値化されたチャープ波パターンにより構成され、チャープ波パターンのパターン像(図1のA1に示すパターン像)を被写体Objの像に重畳する。この透かしパターン20は、透明な平板・フィルム等(パターン部材)にパターンが形成されることで構成されてもよく、レンズ10上に黒色フィルム・インク等(パターン部材)でパターンが形成されることで構成されてもよい。   More specifically, the watermark pattern 20 superimposes a pattern image with high autocorrelation on the image of the subject Obj. For example, as shown at A5, the watermark pattern 20 is formed by a binarized chirp wave pattern, and a pattern image of the chirp wave pattern (a pattern image shown by A1 in FIG. 1) is superimposed on the image of the subject Obj. The watermark pattern 20 may be configured by forming a pattern on a transparent flat plate, film, or the like (pattern member). The pattern is formed on the lens 10 by black film, ink, or the like (pattern member). It may be constituted by.

透かしパターン20によりパターン像が重畳された被写体Objの像は、撮像素子30の撮像面に結像される。このとき、撮像面におけるパターン像は、撮像面とフォーカス位置との位置関係に応じて幅(パターン幅)や向きが異なる。フォーカス位置が撮像面にあるとき(合焦時)には、パターン像は消失する。例えば、図1のFA1に示すように、デフォーカス位置に撮像面がある場合には、A2に示すように、撮像面上のパターン幅は透かしパターン20のパターン幅よりも縮小された幅となる。FA2に示すように、FA1よりもフォーカス位置に近い位置に撮像面がある場合には、A3に示すように、撮像面上のパターン幅はさらに縮小されたパターン幅となる。そして、FA3に示すように、前ピント状態のデフォーカス位置に撮像面がある場合には、A4に示すように、撮像面上のパターン像は透かしパターン20を反転したパターン像となる。すなわち、レンズ10の光軸に直交する軸をx軸(広義には、第1の座標軸)とし、透かしパターン20(透かしパターン20の透過率)を関数h(x)で表すとすると、FA1、FA2に示す後ピント状態において、パターン像はh(x/k)で表される。また、FA3に示す前ピント状態において、パターン像はh(−x/k)で表される(kは、パターン幅縮小率)。ここで、後ピント状態は、フォーカス位置がレンズ側から見て撮像面後方にある状態であり、前ピント状態は、フォーカス位置がレンズ側から見て撮像面の前方にある状態である。   The image of the subject Obj on which the pattern image is superimposed by the watermark pattern 20 is formed on the imaging surface of the imaging element 30. At this time, the pattern image on the imaging surface has a different width (pattern width) and orientation depending on the positional relationship between the imaging surface and the focus position. When the focus position is on the imaging surface (during focusing), the pattern image disappears. For example, as shown in FA1 of FIG. 1, when the imaging surface is at the defocus position, the pattern width on the imaging surface is a reduced width than the pattern width of the watermark pattern 20, as shown in A2. . As shown in FA2, when the imaging surface is located closer to the focus position than FA1, the pattern width on the imaging surface becomes a further reduced pattern width as shown in A3. As shown in FA3, when the imaging surface is at the defocus position in the previous focus state, the pattern image on the imaging surface is a pattern image obtained by inverting the watermark pattern 20 as shown in A4. That is, if the axis orthogonal to the optical axis of the lens 10 is the x-axis (first coordinate axis in a broad sense) and the watermark pattern 20 (transmittance of the watermark pattern 20) is represented by a function h (x), FA1, In the rear focus state indicated by FA2, the pattern image is represented by h (x / k). In the front focus state indicated by FA3, the pattern image is represented by h (−x / k) (k is the pattern width reduction rate). Here, the rear focus state is a state where the focus position is behind the imaging surface as viewed from the lens side, and the front focus state is a state where the focus position is in front of the imaging surface when viewed from the lens side.

撮像素子30は、透かしパターン20によってパターン像が重畳された被写体Objの像を撮像する。そして、撮像素子30の撮像により得られた画像信号に基づいて画像データが生成される。例えば、撮像素子30は、CCDイメージセンサ、CMOSイメージセンサ等の固体撮像素子により構成できる。これらの撮像素子は、撮像した画像の画像信号(アナログ信号)を出力する。そして、その画像信号がA/D変換処理(Analog to Digital Conversion)され、撮像画像の画像データが生成される。   The image sensor 30 captures an image of the subject Obj on which the pattern image is superimposed by the watermark pattern 20. Then, image data is generated on the basis of an image signal obtained by imaging by the imaging element 30. For example, the image sensor 30 can be configured by a solid-state image sensor such as a CCD image sensor or a CMOS image sensor. These image sensors output an image signal (analog signal) of the captured image. Then, the image signal is subjected to A / D conversion processing (Analog to Digital Conversion), and image data of the captured image is generated.

2.相関演算処理、及びデフォーカス情報の取得手法
図2〜図5を用いて、本実施形態の相関演算処理、及びデフォーカス情報の取得手法について説明する。
2. Correlation Calculation Process and Defocus Information Acquisition Method The correlation calculation process and the defocus information acquisition method of this embodiment will be described with reference to FIGS.

図2に示すように、被写体Objの撮像領域の各点をr〜rとする。そうすると、各点r〜rからの反射光がレンズ10に入射し、各点r〜rに対応する像が撮像素子30の撮像面に結像される。このとき、各点r〜rに対応する像には、それぞれ透かしパターン20によってパターン像が重畳される。そのため、撮像面に結像される像は、被写体Objの像に対してパターン像を光学的にコンボリューションしたものとなる。 As shown in FIG. 2, each point of an imaging region of the object Obj and r 0 ~r n. Then, the reflected light from each point r 0 ~r n is incident on the lens 10, an image corresponding to each point r 0 ~r n is imaged on the imaging surface of the imaging device 30. In this case, the image corresponding to each point r 0 ~r n, the pattern image by the watermark pattern 20, respectively, are superimposed. Therefore, the image formed on the imaging surface is an optical convolution of the pattern image with respect to the image of the subject Obj.

例えば、図2のFB1に示すように、後ピント状態のデフォーカス位置に撮像面があるときには、B1に示すように、被写体Objの像に対して正転のパターン像h(x/k)がコンボリューションされる。一方、FB2に示すように、前ピント状態のデフォーカス位置に撮像面があるときには、B2に示すように、被写体Objの像に対して反転のパターン像h(−x/k)がコンボリューションされる。そして、B3、B4に示すように、パターン像がコンボリューションされた画像の画像データに対して、透かしパターン20に対応する参照パターンhs(x)(参照パターンの関数)が相関演算処理される。   For example, as shown in FB1 of FIG. 2, when the imaging surface is at the defocus position in the rear focus state, as shown in B1, a normal rotation pattern image h (x / k) with respect to the image of the subject Obj is obtained. Convolved. On the other hand, as shown in FB2, when the imaging surface is at the defocus position in the previous focus state, as shown in B2, an inverted pattern image h (−x / k) is convoluted with respect to the image of the subject Obj. The Then, as shown in B3 and B4, the reference pattern hs (x) (a function of the reference pattern) corresponding to the watermark pattern 20 is subjected to correlation calculation processing with respect to the image data of the image obtained by convolving the pattern image.

具体的には、図3のC1に示すように、後ピント状態のデフォーカス位置に撮像面がある場合の像は、被写体Objの反射率分布r(x/m)とパターン像h(x/k)とのコンボリューションにより表される(mは、被写体像の縮小率)。すなわち、下式(1)で表される。ここで、記号“*”は、コンボリューション演算を表す(下式(1)においては、光学的なコンボリューション)。
fB(x,k)=r(x/m)*h(x/k) ・・・ (1)
Specifically, as shown by C1 in FIG. 3, when the imaging surface is at the defocus position in the back focus state, the reflectance distribution r (x / m) of the subject Obj and the pattern image h (x / k) (m is the reduction ratio of the subject image). That is, it is represented by the following formula (1). Here, the symbol “*” represents a convolution operation (in the following equation (1), optical convolution).
fB (x, k) = r (x / m) * h (x / k) (1)

参照パターンhs(x)は、C2に示す第1の参照パターンhs(x/ks)、及びC3に示す第2の参照パターンhs(−x/ks)により構成される(ksは、参照パターンの縮小率)。hs(x/ks)は、正転のパターン像h(x/k)に対応する参照パターンであり、hs(−x/ks)は、反転のパターン像h(−x/k)に対応する参照パターンである。そして、下式(2)に示すように、これらの参照パターンを画像データにコンボリューション演算することで相関演算処理が行われ、評価値V(x)、V(x)が求められる。
(x)=fB(x,k)*hs(x/ks),
(x)=fB(x,k)*hs(−x/ks) ・・・ (2)
The reference pattern hs (x) is configured by a first reference pattern hs (x / ks) indicated by C2 and a second reference pattern hs (-x / ks) indicated by C3 (ks is a reference pattern) Reduction rate). hs (x / ks) is a reference pattern corresponding to the normal pattern image h (x / k), and hs (-x / ks) corresponds to the reverse pattern image h (-x / k). Reference pattern. Then, as shown in the following equation (2), a correlation calculation process is performed by performing a convolution calculation of these reference patterns on image data, and evaluation values V + (x) and V (x) are obtained.
V + (x) = fB (x, k) * hs (x / ks),
V - (x) = fB ( x, k) * hs (-x / ks) ··· (2)

一方、図4に示すように、前ピント状態のデフォーカス位置に撮像面がある場合の像は、下式(3)で表され、評価値V(x)、V(x)は、下式(4)で表される。
fF(x,k)=r(x/m)*h(−x/k) ・・・ (3)
(x)=fF(x,k)*hs(x/ks),
(x)=fF(x,k)*hs(−x/ks) ・・・ (4)
On the other hand, as shown in FIG. 4, the image when the imaging surface is at the defocus position in the front focus state is expressed by the following expression (3), and the evaluation values V + (x) and V (x) are It is represented by the following formula (4).
fF (x, k) = r (x / m) * h (−x / k) (3)
V + (x) = fF (x, k) * hs (x / ks),
V - (x) = fF ( x, k) * hs (-x / ks) ··· (4)

ここで、参照パターンが下式(5)を満たすと仮定する。
hs(x/ks) =h(x/k),
hs(−x/ks)=h(−x/k) ・・・ (5)
Here, it is assumed that the reference pattern satisfies the following expression (5).
hs (x / ks) = h (x / k),
hs (−x / ks) = h (−x / k) (5)

そうすると、後ピント状態において、上式(1)、(2)より、下式(6)が成り立つ。
(x)=r(x/m)*h(x/k)*h(x/k),
(x)=r(x/m)*h(x/k)*h(−x/k) ・・・ (6)
Then, in the rear focus state, the following expression (6) is established from the above expressions (1) and (2).
V + (x) = r (x / m) * h (x / k) * h (x / k),
V - (x) = r ( x / m) * h (x / k) * h (-x / k) ··· (6)

また、前ピント状態において、上式(3)、(4)より、下式(7)が成り立つ。
(x)=r(x/m)*h(−x/k)*h(x/k),
(x)=r(x/m)*h(−x/k)*h(−x/k) ・・・ (7)
In the front focus state, the following expression (7) is established from the above expressions (3) and (4).
V + (x) = r (x / m) * h (−x / k) * h (x / k),
V - (x) = r ( x / m) * h (-x / k) * h (-x / k) ··· (7)

このとき、本願の発明者が、上式(6)、(7)に示すV(x)、V(x)をシミュレーションにより求めたところ、V(x)がV(x)に対してシフトする現象が生じることが判明した。具体的には、図3のC4に示すように、後ピント状態において、V(x)がV(x)に対して、x軸の正方向にシフト量δ(+δ)だけシフトする。また、図4のD1に示すように、前ピント状態において、V(x)がV(x)に対して、x軸の負方向にシフト量δ(−δ)だけシフトする。なお、本願の発明者は、上式(5)が成立しないとき(ks=kでないとき)でも、V(x)がV(x)に対してシフトすることを確認している。 At this time, when the inventors of the present application obtained V + (x) and V (x) shown in the above formulas (6) and (7) by simulation, V (x) was changed to V + (x). On the other hand, it has been found that a shift phenomenon occurs. Specifically, as shown by C4 in FIG. 3, in the rear focus state, V (x) is shifted from V + (x) by the shift amount δ (+ δ) in the positive direction of the x axis. Further, as indicated by D1 in FIG. 4, in the previous focus state, V (x) is shifted from V + (x) by the shift amount δ (−δ) in the negative direction of the x axis. The inventor of the present application has confirmed that V (x) shifts with respect to V + (x) even when the above equation (5) is not satisfied (when ks = k is not satisfied).

図5に示すように、本実施形態では、評価値V(x)と評価値V(x)とが相関演算されて、シフト量δが求められる。具体的には、V(x)・V(x+s)をxで積分する相互相関演算(Cross correlation)により、相関値S(s)が求められる。そして、相関値S(s)の値が最大となるsが求められ、そのsがシフト量δとして設定される。例えば、図5に示すように、V(x)がV(x)に対して+δシフトするときには、相関値S(s)が最大値となるsとしてs=+δが求められ、シフト量s=+δが設定される。 As shown in FIG. 5, in this embodiment, the evaluation value V + (x) and the evaluation value V (x) are subjected to correlation calculation to obtain the shift amount δ. Specifically, the correlation value S (s) is obtained by cross correlation calculation (Cross correlation) that integrates V + (x) · V (x + s) with x. Then, s that maximizes the correlation value S (s) is obtained, and that s is set as the shift amount δ. For example, as shown in FIG. 5, when V (x) shifts by + δ with respect to V + (x), s = + δ is obtained as s where the correlation value S (s) becomes the maximum value, and the shift amount s = + δ is set.

本実施形態では、この評価値V(x)、V(x)のシフトに基づいてデフォーカス情報が取得され、取得されたデフォーカス情報に基づいてフォーカス制御が行われる。例えば、シフト方向に基づいてデフォーカス方向の情報が取得される。具体的には、s>0(シフト方向がx軸の正方向)の場合には、後ピント状態であると判定され、s<0(シフト方向がx軸の負方向)の場合には、前ピント状態であると判定される。また、s=0(s≒0)の場合には、合焦点であると判定される。あるいは、図8等で後述するように、シフト量sの大きさ(絶対値)に基づいてデフォーカス量の情報が取得される。すなわち、シフト量sの大きさに基づいてパターン幅縮小率kが推定され、そのkに基づいて撮像面の位置とフォーカス位置との距離が求められる。 In the present embodiment, defocus information is acquired based on the shift of the evaluation values V + (x) and V (x), and focus control is performed based on the acquired defocus information. For example, information on the defocus direction is acquired based on the shift direction. Specifically, when s> 0 (shift direction is the positive direction of the x axis), it is determined that the rear focus state is established, and when s <0 (shift direction is the negative direction of the x axis), It is determined that the state is the previous focus state. In addition, when s = 0 (s≈0), it is determined that the in-focus point is reached. Alternatively, as will be described later with reference to FIG. 8 and the like, information on the defocus amount is acquired based on the magnitude (absolute value) of the shift amount s. That is, the pattern width reduction rate k is estimated based on the magnitude of the shift amount s, and the distance between the position of the imaging surface and the focus position is obtained based on the k.

3.透かしパターン、参照パターン
図6に、透かしパターンの具体例を示す。図6に示す透かしパターン20は、E1に示すチャープ波パターン(掃引波パターン)を2値化したものである。具体的には、E1に示すように、チャープ波パターンは、x軸の正方向に空間周波数が単調減少(または、単調増加)する三角関数で表される。例えば、E2に示すように、x軸の正方向で空間周波数fxがリニア(直線的、線形)に減少する三角関数で表される。そして、三角関数の値が所定の値以上(例えば、正)となるxの範囲では、高透過率(第1の透過率)とし、三角関数の値が所定の値以下(例えば、負)となるxの範囲では、低透過率(第2の透過率)とすることで、チャープ波パターンを2値化できる。
3. Watermark Pattern and Reference Pattern FIG. 6 shows a specific example of a watermark pattern. The watermark pattern 20 shown in FIG. 6 is a binarized version of the chirp wave pattern (sweep wave pattern) shown in E1. Specifically, as indicated by E1, the chirp wave pattern is represented by a trigonometric function in which the spatial frequency monotonously decreases (or monotonically increases) in the positive direction of the x axis. For example, as indicated by E2, the spatial frequency fx is represented by a trigonometric function that linearly (linearly or linearly) decreases in the positive direction of the x-axis. Then, in the range of x where the trigonometric function value is equal to or greater than a predetermined value (for example, positive), the high transmittance (first transmittance) is set, and the trigonometric function value is equal to or less than the predetermined value (for example, negative). In the range of x, the chirp wave pattern can be binarized by setting a low transmittance (second transmittance).

参照パターンには、この透かしパターン20に対応して、チャープ波パターンが2値化された参照パターンが用いられる。すなわち、参照パターンを関数hs(x)で表すとすると、チャープ波パターンの三角関数の値が所定の値以上となるxの範囲に対して、例えばhs(x)=1(第1の値)が対応する。また、三角関数の値が所定の値以下となるxの範囲に対して、例えばhs(x)=0(第2の値)が対応する。パターン幅縮小率ksに応じた参照パターンは、上記のhs(x)において、xをx/ks又は−x/ksで置き換えてhs(x/ks)又はhs(−x/ks)とすることで求められる。なお、参照パターンの関数hs(x)は、例えば数値テーブルにより実現できる。   As the reference pattern, a reference pattern in which the chirp wave pattern is binarized corresponding to the watermark pattern 20 is used. That is, if the reference pattern is represented by a function hs (x), for example, hs (x) = 1 (first value) for a range of x where the value of the trigonometric function of the chirp wave pattern is equal to or greater than a predetermined value. Corresponds. Further, for example, hs (x) = 0 (second value) corresponds to the range of x where the value of the trigonometric function is equal to or less than a predetermined value. The reference pattern corresponding to the pattern width reduction ratio ks is set to hs (x / ks) or hs (-x / ks) by replacing x with x / ks or -x / ks in the above hs (x). Is required. The reference pattern function hs (x) can be realized by a numerical table, for example.

4.第1の構成例
図7に、本実施形態の撮像装置の第1の構成例を示す。この撮像装置は、撮像部100、参照パターン生成部110、相関演算部120(コンボリューション演算部)、デフォーカス情報取得部130(画像シフト判定部)、レンズ駆動部140、オートフォーカス制御部150(フォーカス制御部)、撮像取込部160、画像記録部170、モニター表示部180を含む。なお、本発明の撮像装置は、図7の構成に限定されず、その構成要素の一部を省略したり他の構成要素を追加したりする等の種々の変形実施が可能である。
4). First Configuration Example FIG. 7 shows a first configuration example of the imaging apparatus of the present embodiment. The imaging apparatus includes an imaging unit 100, a reference pattern generation unit 110, a correlation calculation unit 120 (convolution calculation unit), a defocus information acquisition unit 130 (image shift determination unit), a lens driving unit 140, and an autofocus control unit 150 ( A focus control unit), an image capturing unit 160, an image recording unit 170, and a monitor display unit 180. The imaging apparatus of the present invention is not limited to the configuration shown in FIG. 7, and various modifications such as omitting some of the components or adding other components are possible.

撮像部100は、被写体を撮像し、画像データを出力する。具体的には、撮像部100は、図示しない光学素子、透かしパターン、撮像素子、AFE(Analog Front End)回路を含む。AFE回路は、撮像素子からの画像信号をA/D変換処理し、画像データを生成する。   The imaging unit 100 images a subject and outputs image data. Specifically, the imaging unit 100 includes an optical element, a watermark pattern, an imaging element, and an AFE (Analog Front End) circuit (not shown). The AFE circuit performs A / D conversion processing on the image signal from the image sensor to generate image data.

参照パターン生成部110は、透かしパターンに対応する参照パターンを生成する。具体的には、所定のパターン幅縮小率ks(例えば、ks=2)の参照パターンhs(x/ks)、hs(−x/ks)を生成する。相関演算部120は、相関演算処理を行う。具体的には、撮像部100からの画像データと参照パターンとのコンボリューション演算(畳み込み積分)を行って、評価値V(x)、V(x)を求める。デフォーカス情報取得部130は、評価値V(x)、V(x)に基づいて、デフォーカス情報を取得する。具体的には、評価値V(x)、V(x)のシフト量に基づいて、フォーカスが前ピント状態であるか後ピント状態であるか(デフォーカス方向)を判定する。そして、判定結果に基づいて前ピント・後ピント判定信号(デフォーカス方向判定信号)を出力する。 The reference pattern generation unit 110 generates a reference pattern corresponding to the watermark pattern. Specifically, reference patterns hs (x / ks) and hs (−x / ks) having a predetermined pattern width reduction rate ks (for example, ks = 2) are generated. The correlation calculation unit 120 performs correlation calculation processing. Specifically, a convolution operation (convolution integration) between the image data from the imaging unit 100 and the reference pattern is performed to obtain evaluation values V + (x) and V (x). The defocus information acquisition unit 130 acquires defocus information based on the evaluation values V + (x) and V (x). Specifically, based on the shift amount of the evaluation values V + (x) and V (x), it is determined whether the focus is in the front focus state or the rear focus state (defocus direction). Based on the determination result, a front focus / rear focus determination signal (defocus direction determination signal) is output.

オートフォーカス制御部150は、デフォーカス情報取得部130からのデフォーカス情報に基づいて、オートフォーカス制御及び合焦の検出処理を行う。具体的には、オートフォーカス制御部150は、前ピント・後ピント判定信号が前ピント状態を示す時には、フォーカス位置を後退させる制御を行う。また、前ピント・後ピント判定信号が後ピント状態を示す時には、フォーカス位置を前進させる制御を行う。レンズ駆動部140は、フォーカスレンズの駆動を行う。具体的には、レンズ駆動部140は、オートフォーカス制御部150からの制御信号を受けて、フォーカス位置を前進又は後退させる。撮像取込部160は、合焦時において撮像部100からの画像データを取り込み、取り込んだ画像データを画像記録部170に出力する。具体的には、撮像取込部160は、オートフォーカス制御部150が合焦を検出処理することで生成された合焦確定信号を受けて、画像データを取り込む。   The autofocus control unit 150 performs autofocus control and focus detection processing based on the defocus information from the defocus information acquisition unit 130. Specifically, the autofocus control unit 150 performs control to move the focus position backward when the front focus / rear focus determination signal indicates the front focus state. Further, when the front focus / rear focus determination signal indicates the rear focus state, control for moving the focus position forward is performed. The lens driving unit 140 drives the focus lens. Specifically, the lens driving unit 140 receives a control signal from the autofocus control unit 150 and moves the focus position forward or backward. The image capturing unit 160 captures image data from the image capturing unit 100 at the time of focusing, and outputs the captured image data to the image recording unit 170. Specifically, the image capturing unit 160 receives an in-focus confirmation signal generated by the auto-focus control unit 150 detecting the in-focus, and captures image data.

画像記録部170は、画像取込部160からの画像データを記録する。例えば、画像記録部170は、半導体メモリや、光学式ドライブにより構成できる。モニター表示部180は、撮像取込部160または画像記録部170からの画像データを表示する。例えば、モニター表示部180は、液晶ディスプレイ(LCD)や、EL(Electro-Luminescence)ディスプレイにより構成できる。   The image recording unit 170 records the image data from the image capturing unit 160. For example, the image recording unit 170 can be configured by a semiconductor memory or an optical drive. The monitor display unit 180 displays image data from the image capturing unit 160 or the image recording unit 170. For example, the monitor display unit 180 can be configured by a liquid crystal display (LCD) or an EL (Electro-Luminescence) display.

ここで、デジタル一眼レフカメラ等のデジタルカメラにおいて、小型の構成で高速にオートフォーカスできるオートフォーカス機能が求められているという課題があった。例えば、位相差AF方式では、高速オートフォーカスが可能である反面、光路の分岐手段やAF専用センサが必要なため小型化が困難である。また、イメージャ方式(コントラスト方式)では、小型化が可能である反面、フォーカス位置を探索的に求めるため高速オートフォーカスが困難である。   Here, in a digital camera such as a digital single-lens reflex camera, there is a problem that an autofocus function capable of performing autofocus at high speed with a small configuration is required. For example, in the phase difference AF method, high-speed autofocus is possible, but it is difficult to reduce the size because an optical path branching unit and an AF dedicated sensor are required. In addition, the imager method (contrast method) can be miniaturized, but high-speed autofocus is difficult because the focus position is obtained in an exploratory manner.

この点、本実施形態によれば、レンズ10が被写体Objを結像し、透かしパターン20が、被写体Objの像に対してパターン像を光学的に重畳し、撮像素子30が、パターン像が重畳された被写体Objの像を撮像し、相関演算部120が、撮像により得られた画像データと参照パターンとの相関演算処理を行う。   In this regard, according to the present embodiment, the lens 10 forms an image of the subject Obj, the watermark pattern 20 optically superimposes the pattern image on the image of the subject Obj, and the image sensor 30 superimposes the pattern image. The captured image of the subject Obj is captured, and the correlation calculation unit 120 performs a correlation calculation process between the image data obtained by the imaging and the reference pattern.

また、本実施形態では、デフォーカス情報取得部130が、相関演算処理により得られた評価値に基づいてデフォーカス情報を取得し、オートフォーカス制御部150が、そのデフォーカス情報に基づいてフォーカス制御を行う。   In the present embodiment, the defocus information acquisition unit 130 acquires defocus information based on the evaluation value obtained by the correlation calculation process, and the autofocus control unit 150 performs focus control based on the defocus information. I do.

このようにすれば、評価値に基づいてデフォーカス情報が取得され、そのデフォーカス情報に基づいてフォーカス制御が行われることで、オートフォーカス機能を実現できる。また、本実施形態によれば、位相差AF方式のように光路の分岐手段やAF専用センサを必要としないため、構成をコンパクトにすることができる。これにより、カメラの小型化を図ることができる。   In this way, the defocus information is acquired based on the evaluation value, and the focus control is performed based on the defocus information, whereby the autofocus function can be realized. Further, according to the present embodiment, since the optical path branching means and the AF dedicated sensor are not required unlike the phase difference AF method, the configuration can be made compact. Thereby, size reduction of a camera can be achieved.

また、本実施形態では、デフォーカス情報取得部130が、評価値に基づいてデフォーカス方向を判定し、オートフォーカス制御部150が、そのデフォーカス方向に基づいてフォーカス制御を行う。   In the present embodiment, the defocus information acquisition unit 130 determines the defocus direction based on the evaluation value, and the autofocus control unit 150 performs focus control based on the defocus direction.

このようにすれば、デフォーカス情報としてデフォーカス方向の情報を取得できる。そして、デフォーカス方向に基づいてフォーカス制御を行うことで、フォーカス駆動の方向を直接に決定することができる。これにより、フォーカス駆動の方向を探索的に決定するイメージャ方式に比べて、オートフォーカスを高速化できる。   In this way, defocus direction information can be acquired as defocus information. Then, by performing focus control based on the defocus direction, the focus drive direction can be determined directly. As a result, the autofocus can be speeded up as compared with the imager method in which the focus drive direction is determined in an exploratory manner.

なお、本発明では、参照パターンとして1つの参照パターンを生成し、評価値として1つの評価値を求めてもよく、参照パターンとして複数の参照パターンを生成し、評価値として複数の評価値を求めてもよい。   In the present invention, one reference pattern may be generated as a reference pattern and one evaluation value may be obtained as an evaluation value. A plurality of reference patterns may be generated as a reference pattern and a plurality of evaluation values may be obtained as evaluation values. May be.

例えば、本実施形態では、参照パターンとして第1、第2の参照パターンhs(x/ks)、hs(−x/ks)を生成し、相関演算処理により第1、第2の評価値V(x)、V(x)を求める。このようにすれば、評価値V(x)、V(x)のシフト量δを求めることで、そのシフト量δの符号に基づいてデフォーカス方向を判定できる。 For example, in the present embodiment, first and second reference patterns hs (x / ks) and hs (−x / ks) are generated as reference patterns, and the first and second evaluation values V + are generated by correlation calculation processing. (X) and V (x) are obtained. In this way, by obtaining the shift amount δ of the evaluation values V + (x) and V (x), the defocus direction can be determined based on the sign of the shift amount δ.

また、本実施形態では、図8等で後述するように、デフォーカス情報取得部130が、評価値V(x)、V(x)に基づいてデフォーカス量を算出し、オートフォーカス制御部150が、そのデフォーカス量に基づいてフォーカス制御を行ってもよい。 In this embodiment, as will be described later with reference to FIG. 8 and the like, the defocus information acquisition unit 130 calculates the defocus amount based on the evaluation values V + (x) and V (x), and performs autofocus control. The unit 150 may perform focus control based on the defocus amount.

このようにすれば、デフォーカス情報としてデフォーカス量を取得して、撮像面とフォーカス位置の距離を検出することができる。そのため、デフォーカス量に基づいてフォーカス制御することで、例えば1回のフォーカス駆動でフォーカスレンズを合焦点まで駆動できる。これにより、フォーカス駆動の方向を探索的に決定するイメージャ方式に比べて、オートフォーカスを高速化できる。   In this way, the defocus amount can be acquired as the defocus information, and the distance between the imaging surface and the focus position can be detected. Therefore, by performing focus control based on the defocus amount, for example, the focus lens can be driven to the in-focus point by one focus drive. As a result, the autofocus can be speeded up as compared with the imager method in which the focus drive direction is determined in an exploratory manner.

また、本実施形態では、相関演算部120が、x軸(第1の座標軸)に沿った第1の方向(正方向又は負方向)で空間周波数が単調増加する第1の参照パターンhs(x/ks)と、画像データとの相関演算処理を行って、第1の評価値V(x)を取得する。また、第1の方向で空間周波数が単調減少する第2の参照パターンhs(−x/ks)と、画像データとの相関演算処理を行って第2の評価値V(x)を取得する。そして、デフォーカス情報取得部130は、第1、第2の評価値V(x)、V(x)に基づいてデフォーカス情報を取得する。 In the present embodiment, the correlation calculation unit 120 uses the first reference pattern hs (x (x) in which the spatial frequency monotonously increases in the first direction (positive direction or negative direction) along the x-axis (first coordinate axis). / Ks) and the image data are subjected to correlation calculation processing to obtain the first evaluation value V + (x). In addition, the second reference pattern hs (−x / ks) in which the spatial frequency monotonously decreases in the first direction and image data are subjected to correlation calculation processing to obtain the second evaluation value V (x). . The defocus information acquisition unit 130 acquires defocus information based on the first and second evaluation values V + (x) and V (x).

例えば、図3のC2、C3に示すように、x軸の正方向に空間周波数が単調増加するhs(x/ks)と、x軸の正方向に空間周波数が単調減少するhs(−x/ks)が用いられる。このとき、C1に示すように、パターン像の空間周波数がx軸の正方向に単調増加するとする。そうすると、このパターン像に対して、hs(x/ks)はhs(−x/ks)よりも相関性が高い。そのため、評価値V(x)とV(x)がシフト等の差異を生じ、その差異に基づいてデフォーカス情報を取得することができる。 For example, as indicated by C2 and C3 in FIG. 3, hs (x / ks) in which the spatial frequency monotonously increases in the positive direction of the x axis and hs (−x /) in which the spatial frequency monotonously decreases in the positive direction of the x axis. ks) is used. At this time, it is assumed that the spatial frequency of the pattern image monotonously increases in the positive direction of the x-axis as indicated by C1. Then, hs (x / ks) has a higher correlation than hs (−x / ks) for this pattern image. Therefore, the evaluation values V + (x) and V (x) cause a difference such as a shift, and defocus information can be acquired based on the difference.

本実施形態では、図6で説明したように、このような参照パターンとしてチャープ波パターンが用いられてもよい。このチャープ波パターンは、自己相関性が高いパターンである。すなわち、被写体像や反転パターン等の他のパターンに比べて、自己と同形状のパターンに対して非常に高い相関性を示す。そのため、透かしパターン及び参照パターンにチャープ波パターンを用いることで、hs(x/ks)、hs(−x/ks)の相関性の差がより大きくなり、デフォーカス情報をより高精度に取得できるようになる。   In the present embodiment, as described with reference to FIG. 6, a chirp wave pattern may be used as such a reference pattern. This chirp wave pattern is a pattern with high autocorrelation. That is, the correlation is very high with respect to a pattern having the same shape as that of the self, compared to other patterns such as a subject image and a reverse pattern. Therefore, by using a chirp wave pattern for the watermark pattern and the reference pattern, the difference in correlation between hs (x / ks) and hs (−x / ks) becomes larger, and defocus information can be acquired with higher accuracy. It becomes like this.

5.デフォーカス量の取得手法
図8〜図11を用いて、デフォーカス量の取得手法について具体的に説明する。図8に示すように、F1に示すデフォーカス位置に撮像素子30の撮像面があるものとする。このとき、F2に示すフォーカス位置と撮像面との距離をdとし、パターン20と撮像面との距離をdiとする。距離dは、F1に示すデフォーカス位置におけるデフォーカス量である。また、パターン20と撮像素子30の位置は、撮像装置内部で固定されているため、距離diは既知である。なお以下では、説明を簡単にするために、パターン20のパターン幅を1とする。
5). Defocus Amount Acquisition Method A defocus amount acquisition method will be described in detail with reference to FIGS. As shown in FIG. 8, it is assumed that the imaging surface of the imaging device 30 is at the defocus position indicated by F1. At this time, the distance between the focus position indicated by F2 and the imaging surface is d, and the distance between the pattern 20 and the imaging surface is di. The distance d is a defocus amount at the defocus position indicated by F1. Further, since the positions of the pattern 20 and the image sensor 30 are fixed inside the image pickup apparatus, the distance di is known. In the following, the pattern width of the pattern 20 is set to 1 for the sake of simplicity.

図9に示すように、参照パターンのパターン幅縮小率ksとして、第1〜第nのパターン幅縮小率k1〜kn(複数のパターン幅縮小率。nは自然数)が設定される。k1〜knに対応して、参照パターンhs(x/k1)〜hs(x/kn)、hs(−x/k1)〜hs(−x/kn)が生成される。そして、hs(x/k1)〜hs(x/kn)が、撮像画像データr(x/m)*h(x/k)に対してコンボリューション演算されることで、評価値V1(x)〜Vn(x)が求められる。また、hs(−x/k1)〜hs(−x/kn)が、撮像画像データr(x/m)*h(x/k)に対してコンボリューション演算されることで、評価値V1(x)〜Vn(x)が求められる。 As shown in FIG. 9, first to nth pattern width reduction ratios k1 to kn (a plurality of pattern width reduction ratios, where n is a natural number) are set as the pattern width reduction ratio ks of the reference pattern. Corresponding to k1 to kn, reference patterns hs (x / k1) to hs (x / kn) and hs (−x / k1) to hs (−x / kn) are generated. Then, hs (x / k1) to hs (x / kn) are subjected to a convolution operation on the captured image data r (x / m) * h (x / k), whereby the evaluation value V1 + (x ) To Vn + (x). Further, hs (−x / k1) to hs (−x / kn) are subjected to a convolution operation on the captured image data r (x / m) * h (x / k), so that the evaluation value V1 (x) ~Vn - (x) is obtained.

そして、評価値V1(x)〜Vn(x)、V1(x)〜Vn(x)に基づいて、シフト量+δ1〜+δn(または、−δ1〜−δn)が求められる。例えば、V1(x)のV1(x)に対するシフト量から+δ1が求められ、Vn(x)のVn(x)に対するシフト量から+δnが求められる。 Then, shift amounts + δ1 to + δn (or −δ1 to −δn) are obtained based on the evaluation values V1 + (x) to Vn + (x) and V1 (x) to Vn (x). For example, V1 - from the shift amount + .delta.1 is obtained for V1 + (x) of (x), Vn - is Vn + from the shift amount for (x) + .DELTA.n of (x) are determined.

図10に示すように、パターン幅縮小率k1〜knに応じて異なったシフト量+δ1〜+δnが得られる。これは、参照パターンのパターン幅縮小率が異なると、参照パターンとパターン像との相関性も異なるためである。そして、シフト量δの最大値+δi(iは、1以上n以下の自然数)が検出され、+δiに対応するパターン幅縮小率kiが求められる。参照パターンとパターン像との相関性が最大のとき、シフト量も最大になると考えられることから、kiは、パターン像のパターン幅縮小率kに最も近いパターン幅縮小率となる。このようにして、パターン像のパターン幅縮小率k(=ki)が求められる。   As shown in FIG. 10, different shift amounts + δ1 to + δn are obtained according to the pattern width reduction ratios k1 to kn. This is because the correlation between the reference pattern and the pattern image is different when the pattern width reduction rate of the reference pattern is different. Then, the maximum value + δi (i is a natural number between 1 and n) of the shift amount δ is detected, and the pattern width reduction rate ki corresponding to + δi is obtained. When the correlation between the reference pattern and the pattern image is maximum, it is considered that the shift amount is also maximized. Therefore, ki is the pattern width reduction rate closest to the pattern width reduction rate k of the pattern image. In this way, the pattern width reduction rate k (= ki) of the pattern image is obtained.

図11に、パターン幅縮小率kとデフォーカス量dの関係の説明図を示す。図11では、撮像面の位置とフォーカス位置を、上述の図8と同様の符号F1、F2で示す。図11に示すように、1/kとdが比例することから、下式(8)が成り立つ。
tanθ=(1−1/k)/di=(1/k)/d ・・・ (8)
FIG. 11 is an explanatory diagram showing the relationship between the pattern width reduction ratio k and the defocus amount d. In FIG. 11, the position of the imaging surface and the focus position are indicated by the same symbols F1 and F2 as in FIG. As shown in FIG. 11, since 1 / k is proportional to d, the following equation (8) is established.
tan θ = (1-1 / k) / di = (1 / k) / d (8)

そして、上式(8)から下式(9)が導かれる。
d=di・1/(k−1) ・・・ (9)
上式(9)により、パターン像のパターン幅縮小率kと、既知の距離diに基づいて、デフォーカス量dが求められる。
Then, the following equation (9) is derived from the above equation (8).
d = di · 1 / (k−1) (9)
By the above equation (9), the defocus amount d is obtained based on the pattern width reduction rate k of the pattern image and the known distance di.

6.第2の構成例
図12に、本実施形態の撮像装置の第2の構成例を示す。この撮像装置は、撮像部100、参照パターン生成部110、相関演算部120(コンボリューション演算部)、デフォーカス情報取得部130、レンズ駆動部140、オートフォーカス制御部150、撮像取込部160、画像記録部170、モニター表示部180を含む。なお、図7等で説明したモニター表示部等の構成要素には同一の符号を付し、適宜説明を省略する。
6). Second Configuration Example FIG. 12 shows a second configuration example of the imaging apparatus of the present embodiment. The imaging apparatus includes an imaging unit 100, a reference pattern generation unit 110, a correlation calculation unit 120 (convolution calculation unit), a defocus information acquisition unit 130, a lens driving unit 140, an autofocus control unit 150, an imaging capture unit 160, An image recording unit 170 and a monitor display unit 180 are included. In addition, the same code | symbol is attached | subjected to components, such as a monitor display part demonstrated in FIG. 7, etc., and description is abbreviate | omitted suitably.

第2の構成例の撮像装置は、デフォーカス情報としてデフォーカス量及びデフォーカス方向を取得し、そのデフォーカス量及びデフォーカス方向に基づいてオートフォーカス制御を行うための装置である。   The imaging device of the second configuration example is a device for acquiring a defocus amount and a defocus direction as defocus information and performing autofocus control based on the defocus amount and defocus direction.

具体的には、参照パターン生成部110は、相関演算部120からパターン幅縮小率k1〜knを受けて、k1〜knに対応する参照パターンhs(x/k1)〜hs(x/kn)、hs(−x/k1)〜hs(−x/kn)を生成する。相関演算部120は、撮像部100からの画像データと、参照パターンhs(x/k1)〜hs(x/kn)、hs(−x/k1)〜hs(−x/kn)とのコンボリューション演算を行う。そして、相関演算部120は、コンボリューション演算により得られた評価値V1(x)〜Vn(x)、V1(x)〜Vn(x)に基づいて、シフト量δ1〜δnを求める。 Specifically, the reference pattern generation unit 110 receives the pattern width reduction rates k1 to kn from the correlation calculation unit 120, and the reference patterns hs (x / k1) to hs (x / kn) corresponding to k1 to kn, hs (-x / k1) to hs (-x / kn) are generated. The correlation calculation unit 120 is a convolution of the image data from the imaging unit 100 and the reference patterns hs (x / k1) to hs (x / kn), hs (−x / k1) to hs (−x / kn). Perform the operation. Then, the correlation calculation unit 120 calculates the shift amounts δ1 to δn based on the evaluation values V1 + (x) to Vn + (x) and V1 (x) to Vn (x) obtained by the convolution calculation. Ask.

デフォーカス情報取得部130は、シフト量δ1〜δnに基づいて、デフォーカス量とデフォーカス方向の情報を取得する。具体的には、デフォーカス情報取得部130は、適合パターン幅検出部200、画像シフト判定部210、デフォーカス量算出部220を含む。適合パターン幅検出部200は、シフト量δ1〜δnの最大値δi(絶対値の最大値)を検出処理し、最大値δiに対応するパターン幅縮小率kiを抽出する。画像シフト判定部210は、シフト量δiに基づいてデフォーカス方向を判定し、デフォーカス方向判定信号を出力する。具体的には、画像シフト判定部210は、δi>0のとき後ピント状態、δi<0のとき前ピント状態と判定する。デフォーカス量算出部220は、パターン幅縮小率kiに基づいてデフォーカス量を算出する。具体的には、上式(9)によりデフォーカス量dを求める。   The defocus information acquisition unit 130 acquires information on the defocus amount and the defocus direction based on the shift amounts δ1 to δn. Specifically, the defocus information acquisition unit 130 includes a matching pattern width detection unit 200, an image shift determination unit 210, and a defocus amount calculation unit 220. The adaptive pattern width detection unit 200 detects the maximum value δi (maximum absolute value) of the shift amounts δ1 to δn, and extracts the pattern width reduction rate ki corresponding to the maximum value δi. The image shift determination unit 210 determines the defocus direction based on the shift amount δi, and outputs a defocus direction determination signal. Specifically, the image shift determination unit 210 determines that the rear focus state is satisfied when δi> 0, and the front focus state is satisfied when δi <0. The defocus amount calculation unit 220 calculates the defocus amount based on the pattern width reduction rate ki. Specifically, the defocus amount d is obtained by the above equation (9).

オートフォーカス制御部150は、デフォーカス量dと、デフォーカス方向判定信号を受けて、オートフォーカス制御を行う。具体的には、オートフォーカス制御部150は、デフォーカス方向判定信号に基づいてフォーカス駆動の駆動方向(フォーカス位置の移動方向)を制御し、デフォーカス量dに基づいてフォーカス駆動の駆動量(フォーカス位置の移動距離)を制御する。   The autofocus control unit 150 receives the defocus amount d and the defocus direction determination signal and performs autofocus control. Specifically, the autofocus control unit 150 controls the drive direction of the focus drive (the moving direction of the focus position) based on the defocus direction determination signal, and the focus drive drive amount (focus) based on the defocus amount d. Controls the distance of movement of the position.

このように、本実施形態によれば、画像データに対して、複数のパターン幅縮小率k1〜knに対応する複数の参照パターンが相関演算処理されて、k1〜knに対応する評価値が求められる。そして、その評価値に基づいてパターン像との相関性が最も高い参照パターンのパターン幅縮小率kiが抽出される。   As described above, according to the present embodiment, a plurality of reference patterns corresponding to a plurality of pattern width reduction ratios k1 to kn are subjected to correlation calculation processing on image data, and evaluation values corresponding to k1 to kn are obtained. It is done. Then, the pattern width reduction rate ki of the reference pattern having the highest correlation with the pattern image is extracted based on the evaluation value.

このようにすれば、撮像面におけるパターン像のパターン幅縮小率kを求めることができる。すなわち、k1〜knのうちパターン像のパターン幅縮小率kに最も近いパターン幅縮小率としてkiを抽出できる。これにより、kiに基づいてデフォーカス量dを算出することで、撮像面のデフォーカス量を知ることができる。そして、求めたデフォーカス量dに基づいてフォーカス制御を行うことで、撮像面に対して高速にフォーカス位置を合わせることができる。   In this way, the pattern width reduction rate k of the pattern image on the imaging surface can be obtained. That is, ki can be extracted as the pattern width reduction ratio closest to the pattern width reduction ratio k of the pattern image among k1 to kn. Thereby, the defocus amount d of the imaging surface can be known by calculating the defocus amount d based on ki. Then, by performing focus control based on the obtained defocus amount d, the focus position can be adjusted with respect to the imaging surface at high speed.

なお、本発明では、k1〜knに対応する複数の参照パターンとして、k1〜knの各々について各々1つの参照パターンが生成されてもよく、k1〜knの各々について各々複数の参照パターンが生成されてもよい。   In the present invention, as a plurality of reference patterns corresponding to k1 to kn, one reference pattern may be generated for each of k1 to kn, and a plurality of reference patterns are generated for each of k1 to kn. May be.

例えば、本実施形態では、k1〜knに対応する複数の参照パターンとして、複数の第1の参照パターンhs(x/k1)〜hs(x/kn)と、複数の第2の参照パターンhs(−x/k1)〜hs(−x/ks)が生成される。そして、相関演算処理によって複数の第1の評価値V1(x)〜Vn(x)と、複数の第2の評価値V1(x)〜Vn(x)が取得され、シフト量δ1〜δnが求められる。このようにすれば、δ1〜δnの最大値δiに対応するパターン幅縮小率kiを求めることで、パターン像との相関性が最も高い参照パターンのパターン幅縮小率kiを抽出できる。 For example, in this embodiment, as a plurality of reference patterns corresponding to k1 to kn, a plurality of first reference patterns hs (x / k1) to hs (x / kn) and a plurality of second reference patterns hs ( -X / k1) to hs (-x / ks) are generated. Then, a plurality of first evaluation values V1 + (x) to Vn + (x) and a plurality of second evaluation values V1 (x) to Vn (x) are acquired by the correlation calculation process, and the shift amount δ1 to δn are obtained. In this way, by obtaining the pattern width reduction rate ki corresponding to the maximum value δi of δ1 to δn, the pattern width reduction rate ki of the reference pattern having the highest correlation with the pattern image can be extracted.

7.スポット光による照明
図13に、本実施形態の撮像装置の第2の基本構成例を示す。この撮像装置は、レンズ10、透かしパターン20、撮像素子30、スポット光生成部40を含む。なお、図1等で説明したレンズ等の構成要素には同一の符号を付し、適宜説明を省略する。
7). Illumination with Spot Light FIG. 13 shows a second basic configuration example of the imaging apparatus of the present embodiment. The imaging apparatus includes a lens 10, a watermark pattern 20, an imaging element 30, and a spot light generation unit 40. The components such as the lens described in FIG. 1 and the like are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

スポット光生成部40は、被写体Objにスポット光SP(ポインティングビーム)を照射する。具体的には、スポット光生成部40は、光源50、照射部60を含む。光源50は、スポット光を照射するためのビームを生成し、例えばLEDや半導体レーザによって構成される。照射部60は、光源50からのビームを反射または屈折させて被写体Objに照射する。例えば、照射部60は、ミラーやプリズムによって構成される。スポット光生成部40により照射されるスポット光SPは、図示しない制御回路(例えば、オートフォーカス制御部)によりオン・オフが制御されてもよい。   The spot light generation unit 40 irradiates the subject Obj with a spot light SP (pointing beam). Specifically, the spot light generation unit 40 includes a light source 50 and an irradiation unit 60. The light source 50 generates a beam for irradiating spot light, and is configured by, for example, an LED or a semiconductor laser. The irradiation unit 60 reflects or refracts the beam from the light source 50 and irradiates the subject Obj. For example, the irradiation unit 60 is configured by a mirror or a prism. On / off of the spot light SP irradiated by the spot light generation unit 40 may be controlled by a control circuit (not shown) (for example, an autofocus control unit).

スポット光SPは、例えば、被写体Obj上の1点(または、複数点)を照明する。このとき、レンズ10によりスポット光SPの反射光が結像されることで、撮像素子30の撮像面にスポット光SPに対応する1つのパターン像が結像される。このパターン像は、後ピント状態においてp・h(x/k)で表され、前ピント状態においてp・h(−x/k)で表される。pは、スポット光SPについての被写体Objの反射率である。一方、自然光やアクティブ照明等のスポット光以外の照明による像も撮像面に結像される。この像は、後ピント状態においてr(x/m)*h(x/k)で表され、前ピント状態においてr(x/m)*h(−x/k)で表される。   The spot light SP illuminates one point (or a plurality of points) on the subject Obj, for example. At this time, the reflected light of the spot light SP is imaged by the lens 10, so that one pattern image corresponding to the spot light SP is formed on the imaging surface of the imaging element 30. This pattern image is represented by p · h (x / k) in the rear focus state, and is represented by p · h (−x / k) in the front focus state. p is the reflectance of the subject Obj with respect to the spot light SP. On the other hand, an image by illumination other than spot light such as natural light or active illumination is also formed on the imaging surface. This image is represented by r (x / m) * h (x / k) in the rear focus state and represented by r (x / m) * h (−x / k) in the front focus state.

本実施形態では、スポット光をオフしたときの像と、オンしたときの像が撮像される。例えば、後ピント状態では、スポット光をオフしたときに撮像される像fBN−1(x,k)と、スポット光をオンしたときに撮像される像fB(x,k)は、下式(10)で表される。
fBN−1(x,k)=r(x/m)*h(x/k),
fB(x,k) =r(x/m)*h(x/k)+p・h(x/k)
・・・ (10)
In the present embodiment, an image when the spot light is turned off and an image when the spot light is turned on are captured. For example, in the rear focus state, the image fB N-1 (x, k ) to be captured when the off spot light and the image fB N being imaged when turned on the spot light (x, k), under It is represented by Formula (10).
fB N-1 (x, k) = r (x / m) * h (x / k),
fB N (x, k) = r (x / m) * h (x / k) + p · h (x / k)
(10)

そして、下式(11)に示すように、これらの像を撮像することで得られた画像データの差分が演算され、下式(12)に示すように、その差分と参照パターンとのコンボリューション演算により評価値が求められる。
gB(x,k)=fB(x,k)−fBN−1(x,k) ・・・ (11)
(x)=gB(x,k)*hs(x/ks),
(x)=gB(x,k)*hs(−x/ks) ・・・ (12)
Then, as shown in the following equation (11), the difference between the image data obtained by capturing these images is calculated, and as shown in the following equation (12), the convolution between the difference and the reference pattern is calculated. An evaluation value is obtained by calculation.
gB N (x, k) = fB N (x, k) −fB N−1 (x, k) (11)
V + (x) = gB N (x, k) * hs (x / ks),
V - (x) = gB N (x, k) * hs (-x / ks) ··· (12)

一方、後ピント状態では、スポット光をオフしたときの像fFN−1(x,k)と、スポット光をオンしたときの像fF(x,k)は、下式(13)で表される。そして、差分gF(x,k)は下式(14)で表され、評価値V(x)、V(x)は下式(15)で表される。
fFN−1(x,k)=r(x/m)*h(−x/k),
fF(x,k) =r(x/m)*h(−x/k)+p・h(−x/k)
・・・ (13)
gF(x,k)=fF(x,k)−fFN−1(x,k) ・・・ (14)
(x)=gF(x,k)*hs(x/ks),
(x)=gF(x,k)*hs(−x/ks) ・・・ (15)
Table On the other hand, in the rear focus state, the image fF when the off spot light N-1 (x, k) and the image fF N (x, k) when the on-spot light, the following equation (13) Is done. The difference gF N (x, k) is expressed by the following expression (14), and the evaluation values V + (x) and V (x) are expressed by the following expression (15).
fF N-1 (x, k) = r (x / m) * h (−x / k),
fF N (x, k) = r (x / m) * h (−x / k) + p · h (−x / k)
(13)
gF N (x, k) = fF N (x, k) −fF N−1 (x, k) (14)
V + (x) = gF N (x, k) * hs (x / ks),
V - (x) = gF N (x, k) * hs (-x / ks) ··· (15)

ここで、参照パターンが下式(16)を満たし、透かしパターン及び参照パターンがチャープ波パターンであるものとする。
hs(x/ks) =h(x/k),
hs(−x/ks)=h(−x/k) ・・・ (16)
Here, it is assumed that the reference pattern satisfies the following expression (16), and the watermark pattern and the reference pattern are chirp wave patterns.
hs (x / ks) = h (x / k),
hs (−x / ks) = h (−x / k) (16)

チャープ波パターン同士のコンボリューション演算では、下式(17)の関係が成り立つ。関数sinc(x)は、図14に示すシンク関数である。
h(x/k)*h(x/k)=h(−x/k)*h(−x/k)=sinc(x),
h(x/k)*h(−x/k)=0 ・・・ (17)
In the convolution calculation between chirp wave patterns, the relationship of the following equation (17) is established. The function sinc (x) is a sink function shown in FIG.
h (x / k) * h (x / k) = h (−x / k) * h (−x / k) = sinc (x),
h (x / k) * h (−x / k) = 0 (17)

そうすると、上式(10)〜(17)より、後ピント状態において下式(18)が成り立ち、前ピント状態において下式(19)が成り立つ。また、合焦時にはパターン像が消失することから、下式(20)が成り立つ。
(x)=p・h(x/k)*h(x/k) =p・sinc(x),
(x)=p・h(x/k)*h(−x/k)=0
・・・ (18)
(x)=p・h(−x/k)*h(x/k) =0,
(x)=p・h(−x/k)*h(−x/k)=p・sinc(x)
・・・ (19)
(x)=V(x)=0 ・・・ (20)
Then, from the above equations (10) to (17), the following equation (18) is established in the rear focus state, and the following equation (19) is established in the front focus state. Further, since the pattern image disappears at the time of focusing, the following equation (20) is established.
V + (x) = p · h (x / k) * h (x / k) = p · sinc (x),
V - (x) = p · h (x / k) * h (-x / k) = 0
(18)
V + (x) = p · h (−x / k) * h (x / k) = 0,
V - (x) = p · h (-x / k) * h (-x / k) = p · sinc (x)
(19)
V + (x) = V (x) = 0 (20)

本実施形態では、上式(18)〜(20)に基づいて、V(x)>0、V(x)=0のとき後ピント状態と判定し、V(x)=0、V(x)>0のとき前ピント状態と判定し、V(x)=V(x)=0のときフォーカス位置と判定することで、デフォーカス方向を判定する。なお、画像データの画素値は正のデータであることから、本発明では、上式(18)〜(20)の評価値がオフセットを含む値となってもよい。また、本発明では、透かしパターン及び参照パターンがチャープ波パターン以外のパターンであってもよく、ksがk以外の値であってもよい。このとき、後ピント状態におけるV(x)、前ピント状態におけるV(x)が、p・sinc(x)と異なる関数となってもよい。 In this embodiment, based on the above equations (18) to (20), when V + (x)> 0 and V (x) = 0, it is determined that the rear focus state, V + (x) = 0, V - (x)> is determined that pre-focus state when 0, V + (x) = V - by determining the focus position when the (x) = 0, determines the defocus direction. Since the pixel value of the image data is positive data, in the present invention, the evaluation values of the above formulas (18) to (20) may be values including an offset. In the present invention, the watermark pattern and the reference pattern may be patterns other than the chirp wave pattern, and ks may be a value other than k. At this time, V + at the rear focus state (x), before V in focus state - (x) may be a different function p · sinc (x).

ここで、上記においては、スポット光以外の自然光等によっても被写体Objが照明されている場合について説明した。但し、本発明では、カメラによる夜間撮影や、内視鏡による撮像等のように、スポット光以外の照明が無いときでもオートフォーカス制御を行うことができる。この場合、スポット光照射時において撮像が行われ、撮像画像は下式(21)によって表される。
fB(x,k)=p・h(x/k),
fF(x,k)=p・h(−x/k) ・・・ (21)
Here, the case where the subject Obj is illuminated by natural light other than the spot light has been described above. However, in the present invention, autofocus control can be performed even when there is no illumination other than spot light, such as night photography with a camera or imaging with an endoscope. In this case, imaging is performed at the time of spot light irradiation, and the captured image is expressed by the following equation (21).
fB (x, k) = p · h (x / k),
fF (x, k) = p · h (−x / k) (21)

従って、画像データと参照パターンをコンボリューション演算して評価値を求めることで、上式(18)〜(20)と同様の演算結果が得られる。このようにして、上記と同様の手法によりデフォーカス方向を判定できる。   Accordingly, by calculating the evaluation value by convolution calculation of the image data and the reference pattern, the same calculation results as the above formulas (18) to (20) can be obtained. In this way, the defocus direction can be determined by the same method as described above.

8.第3の構成例
図15に、本実施形態の撮像装置の第3の構成例を示す。この撮像装置は、撮像部100、参照パターン生成部110、相関演算部120(自己相関演算部)、デフォーカス情報取得部130、レンズ駆動部140、オートフォーカス制御部150、撮像取込部160、画像記録部170、モニター表示部180を含む。なお、図7等で説明したモニター表示部等の構成要素には同一の符号を付し、適宜説明を省略する。
8). Third Configuration Example FIG. 15 shows a third configuration example of the imaging apparatus according to the present embodiment. The imaging apparatus includes an imaging unit 100, a reference pattern generation unit 110, a correlation calculation unit 120 (autocorrelation calculation unit), a defocus information acquisition unit 130, a lens driving unit 140, an autofocus control unit 150, an imaging capture unit 160, An image recording unit 170 and a monitor display unit 180 are included. In addition, the same code | symbol is attached | subjected to components, such as a monitor display part demonstrated in FIG. 7, etc., and description is abbreviate | omitted suitably.

第3の構成例の撮像装置は、被写体にスポット光を照射することで得られた被写体像に基づいてデフォーカス情報を取得し、そのデフォーカス情報に基づいてオートフォーカス制御を行うための装置である。   The imaging apparatus of the third configuration example is an apparatus for acquiring defocus information based on a subject image obtained by irradiating a subject with spot light and performing autofocus control based on the defocus information. is there.

撮像部100は、被写体にスポット光を照射するためのスポット光生成部40を含む。参照パターン生成部110は、相関演算部120からのパターン幅縮小率k1〜knを受けて、参照パターンhs(x/k1)〜hs(x/kn)、hs(−x/k1)〜hs(−x/kn)を生成する。相関演算部120は、参照パターンと、撮像部100からの画像データとのコンボリューション演算を行い、評価値V1(x)〜Vn(x)、V1(x)〜Vn(x)を求める。 The imaging unit 100 includes a spot light generation unit 40 for irradiating a subject with spot light. The reference pattern generation unit 110 receives the pattern width reduction ratios k1 to kn from the correlation calculation unit 120 and receives reference patterns hs (x / k1) to hs (x / kn), hs (−x / k1) to hs ( -X / kn). The correlation calculation unit 120 performs a convolution calculation between the reference pattern and the image data from the imaging unit 100, and evaluates values V1 + (x) to Vn + (x), V1 (x) to Vn (x). Ask for.

デフォーカス情報取得部130は、相関演算部120からの評価値に基づいてデフォーカス情報を取得する。具体的には、デフォーカス情報取得部130は、デフォーカス方向検出部230、適合パターン幅検出部200、デフォーカス量算出部220を含む。デフォーカス方向検出部230は、評価値に基づいてデフォーカス方向を判定し、デフォーカス方向判定信号を出力する。例えば、評価値V1(x)〜Vn(x)、V1(x)〜Vn(x)の任意の一組(例えばV1(x)とV1(x))の符号に基づいて前ピント状態・後ピント状態・合焦状態を判定する。適合パターン幅検出部200は、パターン像のパターン幅縮小率kを検出処理する。具体的には、評価値に基づいて、k1〜knに対応するピーク値p1〜pnを求める。すなわち、後ピント状態においてV1(x)〜Vn(x)のピーク値、前ピント状態においてV1(x)〜Vn(x)のピーク値を求める。そして、p1〜pnに基づいて、k1〜knのうちのパターン像のパターン幅縮小率kに最も近いパターン幅縮小率kj(jは、1以上n以下の自然数)を抽出する。デフォーカス量算出部220は、kjに基づいてデフォーカス量を算出する。具体的には、図11等で説明した算出手法によりデフォーカス量dを求める。 The defocus information acquisition unit 130 acquires defocus information based on the evaluation value from the correlation calculation unit 120. Specifically, the defocus information acquisition unit 130 includes a defocus direction detection unit 230, a suitable pattern width detection unit 200, and a defocus amount calculation unit 220. The defocus direction detection unit 230 determines the defocus direction based on the evaluation value, and outputs a defocus direction determination signal. For example, based on the sign of an arbitrary set of evaluation values V1 + (x) to Vn + (x), V1 (x) to Vn (x) (for example, V1 + (x) and V1 (x)). The front focus state, rear focus state, and in-focus state are determined. The adaptive pattern width detection unit 200 detects the pattern width reduction rate k of the pattern image. Specifically, peak values p1 to pn corresponding to k1 to kn are obtained based on the evaluation values. That is, the peak values of V1 + (x) to Vn + (x) are obtained in the rear focus state, and the peak values of V1 (x) to Vn (x) are obtained in the front focus state. Then, based on p1 to pn, a pattern width reduction ratio kj (j is a natural number between 1 and n) closest to the pattern width reduction ratio k of the pattern image among k1 to kn is extracted. The defocus amount calculation unit 220 calculates the defocus amount based on kj. Specifically, the defocus amount d is obtained by the calculation method described in FIG.

図16を用いて、kjの取得手法について具体的に説明する。図16に示すように、p1〜pnとして、k1〜knに応じて異なった値が取得される。そして、適合パターン幅検出部200は、p1〜pnの最大値pjを検出し、pjに対応するパターン幅縮小率kjを抽出することで、パターン像のパターン幅縮小率kに最も近いkjを抽出する。ここで、p1〜pnがk1〜knに応じて異なるのは、k1〜knに応じて参照パターンとパターン像との相関性が異なるためである。参照パターンとパターン像の相関性は、パターン幅縮小率が一致するとき最も高い。また、参照パターンとパターン像の相関性が高いほど評価値のピーク(例えば、チャープ波パターンを用いたときのシンク関数のピーク)は鋭くなる。そのため、p1〜pnの最大値pjを検出することで、パターン像のパターン幅縮小率kに最も近いkjを抽出できる。   The kj acquisition method will be specifically described with reference to FIG. As shown in FIG. 16, different values are acquired as p1 to pn according to k1 to kn. Then, the matching pattern width detection unit 200 detects the maximum value pj of p1 to pn, and extracts the pattern width reduction rate kj corresponding to pj, thereby extracting kj closest to the pattern width reduction rate k of the pattern image. To do. Here, p1 to pn differ according to k1 to kn because the correlation between the reference pattern and the pattern image differs according to k1 to kn. The correlation between the reference pattern and the pattern image is highest when the pattern width reduction ratios match. Further, the higher the correlation between the reference pattern and the pattern image, the sharper the peak of the evaluation value (for example, the peak of the sync function when using a chirp wave pattern). Therefore, kj closest to the pattern width reduction rate k of the pattern image can be extracted by detecting the maximum value pj of p1 to pn.

図17に、本実施形態の撮像装置の動作説明図を示す。図17のG1に示すように、第1のフレームf1においてスポット光が点灯(オン)され、G2に示すように、撮像素子による撮像が行われる。G3に示すように、第2のフレームf2においてスポット光が消灯(オフ)され、G4に示すように、撮像素子による撮像が行われる。そして、f1、f2において撮像された画像に基づいてデフォーカス情報が取得される。デフォーカスと判定された場合には、G5に示すように、フォーカス駆動が行われる。   FIG. 17 is a diagram for explaining the operation of the imaging apparatus according to the present embodiment. As indicated by G1 in FIG. 17, the spot light is turned on (turned on) in the first frame f1, and as shown by G2, imaging by the imaging element is performed. As indicated by G3, the spot light is turned off (turned off) in the second frame f2, and as indicated by G4, imaging by the imaging element is performed. And defocus information is acquired based on the image imaged in f1 and f2. If it is determined to be defocused, focus drive is performed as shown in G5.

同様に、第3のフレームf3において、スポット光が点灯された状態で撮像が行われ、f2、f3において撮像された画像に基づいてデフォーカス情報が取得される。そして、デフォーカスと判定された場合には、再びフォーカス駆動が行われる。このようなフォーカス制御が、合焦に至るまで繰り返される。例えば、G6に示すように、第5のフレームf5において合焦と判定されたとする。そうすると、G7に示すように、合焦確定信号がアクティブにされ、f5において撮像された画像が記録される。   Similarly, in the third frame f3, imaging is performed with the spot light turned on, and defocus information is acquired based on the images captured in f2 and f3. If it is determined to be defocused, focus driving is performed again. Such focus control is repeated until focusing is achieved. For example, assume that it is determined to be in focus in the fifth frame f5 as indicated by G6. Then, as shown in G7, the focus confirmation signal is activated, and the image captured at f5 is recorded.

なお、上記第3の構成例の説明では、複数のパターン幅縮小率に対応する評価値が求められ、その評価値に基づいてデフォーカス量及びデフォーカス方向の情報が取得されるものとして説明した。但し、本発明では、1つのパターン幅縮小率に対応する評価値が求められ、その評価値に基づいてデフォーカス方向の情報のみが取得されてもよい。   In the description of the third configuration example, it is assumed that evaluation values corresponding to a plurality of pattern width reduction ratios are obtained, and information on the defocus amount and the defocus direction is acquired based on the evaluation values. . However, in the present invention, an evaluation value corresponding to one pattern width reduction rate may be obtained, and only information on the defocus direction may be acquired based on the evaluation value.

ここで、本実施形態によれば、スポット光生成部40が、被写体Objにスポット光SPを照射し、レンズ10が、被写体Objに照射されたスポット光SPの像を結像し、透かしパターン20が、スポット光SPの像に対してパターン像を光学的に重畳し、撮像素子30が、そのスポット光SPの像を撮像する。そして、相関演算部110が、撮像により得られた画像データと、透かしパターン20に対応する参照パターンとの相関演算処理を行う。   Here, according to the present embodiment, the spot light generation unit 40 irradiates the subject Obj with the spot light SP, and the lens 10 forms an image of the spot light SP irradiated on the subject Obj. However, the pattern image is optically superimposed on the image of the spot light SP, and the image sensor 30 captures the image of the spot light SP. Then, the correlation calculation unit 110 performs a correlation calculation process between the image data obtained by imaging and the reference pattern corresponding to the watermark pattern 20.

このようにすれば、被写体に照明が当たらない状況であっても、オートフォーカス機能を実現することができる。具体的には、被写体にスポット光を照射することで、パターン像が重畳されたスポット光の像を撮像できる。そして、その撮像により得られた画像データと参照パターンとを相関演算処理することで、デフォーカス情報を取得できる。このようにして、被写体に照明が当たらない状況であってもデフォーカス情報を取得し、オートフォーカス制御を行うことができる。   In this way, the autofocus function can be realized even when the subject is not illuminated. Specifically, by irradiating the subject with spot light, an image of the spot light on which the pattern image is superimposed can be taken. Then, the defocus information can be acquired by performing correlation calculation processing on the image data obtained by the imaging and the reference pattern. In this manner, defocus information can be acquired and autofocus control can be performed even when the subject is not illuminated.

また、本実施形態によれば、デフォーカス情報の取得処理を簡素化できる。例えば、上式(18)〜(20)等で説明したように、評価値V(x)、V(x)の大小関係によりデフォーカス方向を判定できる。このように、評価値V(x)、V(x)をさらに加工することなくデフォーカス方向を判定できる。 Further, according to the present embodiment, the defocus information acquisition process can be simplified. For example, as described in the above formulas (18) to (20), the defocus direction can be determined based on the magnitude relationship between the evaluation values V + (x) and V (x). As described above, the defocus direction can be determined without further processing the evaluation values V + (x) and V (x).

9.電子機器
図18に、本実施形態の撮像装置を含む電子機器の構成例を示す。この電子機器は、カメラモジュール910(撮像装置)、表示制御装置920、ホストコントローラ940、ドライバ950(表示ドライバ)、電気光学パネル960を含む。なお、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
9. Electronic Device FIG. 18 shows a configuration example of an electronic device including the imaging device of the present embodiment. The electronic device includes a camera module 910 (imaging device), a display control device 920, a host controller 940, a driver 950 (display driver), and an electro-optical panel 960. Various modifications such as omission of some of these constituent elements and addition of other constituent elements are possible.

カメラモジュール910は、光学素子、透かしパターン、撮像素子等により構成され、オートフォーカス制御や撮像を行う。表示制御回路920は、カメラモジュール910から供給される画像データや、水平同期信号、垂直同期信号等をドライバ950に対して供給する。ホストコントローラ940は、例えばCPUであり、操作入力部970からの操作情報を受けて、カメラモジュール910、表示制御回路920、ドライバ950を制御する。電気光学パネル960は、例えば液晶パネルやELパネルであり、ドライバ950の駆動により画像を表示する。操作入力部970は、ユーザーが各種情報を入力するためのものであり、各種ボタン、キーボード等により実現される。   The camera module 910 includes an optical element, a watermark pattern, an imaging element, and the like, and performs autofocus control and imaging. The display control circuit 920 supplies the image data supplied from the camera module 910, a horizontal synchronization signal, a vertical synchronization signal, and the like to the driver 950. The host controller 940 is a CPU, for example, and receives the operation information from the operation input unit 970 and controls the camera module 910, the display control circuit 920, and the driver 950. The electro-optical panel 960 is, for example, a liquid crystal panel or an EL panel, and displays an image by driving a driver 950. The operation input unit 970 is for a user to input various information, and is realized by various buttons, a keyboard, and the like.

なお、本実施形態により実現される電子機器としては、例えばデジタルカメラ、デジタルビデオカメラ、携帯型情報端末、携帯電話機、携帯ゲーム端末、WEBカメラ等の種々の機器を想定できる。   In addition, as an electronic device implement | achieved by this embodiment, various apparatuses, such as a digital camera, a digital video camera, a portable information terminal, a mobile telephone, a portable game terminal, a WEB camera, can be assumed, for example.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語(光学素子、パターン、光電変換素子、相関演算、第1の座標軸等)と共に記載された用語(レンズ、透かしパターン、撮像素子、コンボリューション演算、x軸等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また相関演算部、デフォーカス情報取得部、撮像装置、電子機器等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, in the specification or the drawings, terms (lens, watermark pattern, image sensor) described at least once together with different terms (optical element, pattern, photoelectric conversion element, correlation operation, first coordinate axis, etc.) in a broader sense or the same meaning , Convolution operations, x-axis, etc.) can be replaced by the different terms anywhere in the specification or drawings. Further, the configurations and operations of the correlation calculation unit, the defocus information acquisition unit, the imaging device, the electronic device, and the like are not limited to those described in the present embodiment, and various modifications can be made.

10 光学素子、20 パターン、30 撮像素子、40 スポット光生成部、
50 光源、60 照射部、100 撮像部、110 参照パターン生成部、
120 相関演算部、130 デフォーカス情報取得部、140 レンズ駆動部、
150 オートフォーカス制御部、160 撮像取込部、170、画像記録部、
180 モニター表示部、200 適合パターン幅検出部、
210 画像シフト判定部、220 デフォーカス量算出部、
230 デフォーカス方向検出部、910 カメラモジュール、
920 表示制御回路、940 ホストコントローラ、950 ドライバ、
960 電気光学パネル、970 操作入力部、
Obj 被写体、h(x/k) パターン像、hs(x/ks) 参照パターン、
k,ks パターン幅縮小率、V(x) 評価値、d デフォーカス量
10 optical elements, 20 patterns, 30 imaging elements, 40 spot light generation units,
50 light sources, 60 irradiation units, 100 imaging units, 110 reference pattern generation units,
120 correlation calculation unit, 130 defocus information acquisition unit, 140 lens driving unit,
150 autofocus control unit, 160 imaging capture unit, 170, image recording unit,
180 monitor display unit, 200 compatible pattern width detection unit,
210 image shift determination unit, 220 defocus amount calculation unit,
230 defocus direction detection unit, 910 camera module,
920 display control circuit, 940 host controller, 950 driver,
960 electro-optical panel, 970 operation input unit,
Obj subject, h (x / k) pattern image, hs (x / ks) reference pattern,
k, ks pattern width reduction ratio, V + (x) evaluation value, d defocus amount

Claims (10)

被写体を結像し、合焦するための光学素子と、
前記光学素子によって結像された前記被写体の像を撮像する撮像素子と、
前記光学素子と前記撮像素子との間に設けられ、前記被写体の像に対してパターン像を光学的に重畳するためのパターンと、
前記撮像素子による撮像により得られた画像データと、前記パターンに対応する参照パターンとの相関演算処理を行う相関演算部と、
を含むことを特徴とする撮像装置。
An optical element for imaging and focusing a subject;
An image sensor that captures an image of the subject imaged by the optical element;
A pattern provided between the optical element and the imaging element for optically superimposing a pattern image on the image of the subject;
A correlation calculation unit that performs correlation calculation processing between image data obtained by imaging with the imaging element and a reference pattern corresponding to the pattern;
An imaging apparatus comprising:
請求項1において、
前記相関演算処理により得られた評価値に基づいてデフォーカス情報を取得するデフォーカス情報取得部と、
前記デフォーカス情報に基づいてフォーカス制御を行うオートフォーカス制御部と、
を含むことを特徴とする撮像装置。
In claim 1,
A defocus information acquisition unit that acquires defocus information based on the evaluation value obtained by the correlation calculation process;
An autofocus control unit that performs focus control based on the defocus information;
An imaging apparatus comprising:
請求項2において、
前記デフォーカス情報取得部は、
前記相関演算処理により得られた前記評価値に基づいてデフォーカス方向を判定し、
前記フォーカス制御部は、
前記デフォーカス情報取得部により判定された前記デフォーカス方向に基づいてフォーカス制御を行うことを特徴とする撮像装置。
In claim 2,
The defocus information acquisition unit
A defocus direction is determined based on the evaluation value obtained by the correlation calculation process,
The focus control unit
An image pickup apparatus that performs focus control based on the defocus direction determined by the defocus information acquisition unit.
請求項1乃至3のいずれかにおいて、
前記相関演算部は、
第1の座標軸に沿った第1の方向で空間周波数が単調増加する第1の参照パターンと、前記画像データとの相関演算処理を行って第1の評価値を取得し、前記第1の方向で空間周波数が単調減少する第2の参照パターンと、前記画像データとの相関演算処理を行って第2の評価値を取得し、
前記デフォーカス情報取得部は、
前記第1、第2の評価値に基づいてデフォーカス情報を取得することを特徴とする撮像装置。
In any one of Claims 1 thru | or 3,
The correlation calculation unit includes:
The first reference pattern in which the spatial frequency monotonically increases in the first direction along the first coordinate axis and the image data are subjected to correlation calculation processing to obtain a first evaluation value, and the first direction To obtain a second evaluation value by performing a correlation calculation process between the second reference pattern in which the spatial frequency monotonously decreases and the image data,
The defocus information acquisition unit
An imaging apparatus, wherein defocus information is acquired based on the first and second evaluation values.
請求項1乃至3のいずれかにおいて、
前記相関演算部は、
前記画像データと、複数のパターン幅縮小率に対応する複数の参照パターンとの相関演算処理を行い、
前記デフォーカス情報取得部は、
前記相関演算処理により得られた評価値に基づいて、前記複数の参照パターンのうちの前記画像データに重畳された前記パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出し、抽出されたパターン幅縮小率に基づいてデフォーカス量を算出し、
前記フォーカス制御部は、
前記デフォーカス量に基づいてフォーカス制御を行うことを特徴とする撮像装置。
In any one of Claims 1 thru | or 3,
The correlation calculation unit includes:
Performing correlation calculation processing between the image data and a plurality of reference patterns corresponding to a plurality of pattern width reduction rates;
The defocus information acquisition unit
Based on the evaluation value obtained by the correlation calculation process, extract the pattern width reduction rate of the reference pattern having the highest correlation with the pattern image superimposed on the image data of the plurality of reference patterns, Calculate the defocus amount based on the extracted pattern width reduction rate,
The focus control unit
An image pickup apparatus that performs focus control based on the defocus amount.
請求項5において、
前記相関演算部には、
前記複数の参照パターンとして、第1の座標軸に沿った第1の方向で空間周波数が単調増加する複数の第1の参照パターンと、前記第1の方向で空間周波数が単調減少する複数の第2の参照パターンが入力され、
前記相関演算部は、
前記画像データと前記複数の第1の参照パターンとの相関演算処理を行って複数の第1の評価値を取得し、前記画像データと前記複数の第2の参照パターンとの相関演算処理を行って複数の第2の評価値を取得し、
前記デフォーカス情報取得部は、
前記複数の第1、第2の評価値に基づいて、前記複数の参照パターンのうちの前記画像データに重畳された前記パターン像との相関性が最も高い参照パターンのパターン幅縮小率を抽出することを特徴とする撮像装置。
In claim 5,
In the correlation calculation unit,
As the plurality of reference patterns, a plurality of first reference patterns whose spatial frequency monotonically increases in a first direction along a first coordinate axis, and a plurality of second reference patterns whose spatial frequency monotonously decreases in the first direction. Is entered,
The correlation calculation unit includes:
A correlation calculation process between the image data and the plurality of first reference patterns is performed to obtain a plurality of first evaluation values, and a correlation calculation process between the image data and the plurality of second reference patterns is performed. To obtain a plurality of second evaluation values,
The defocus information acquisition unit
Based on the plurality of first and second evaluation values, a pattern width reduction ratio of the reference pattern having the highest correlation with the pattern image superimposed on the image data among the plurality of reference patterns is extracted. An imaging apparatus characterized by that.
被写体にスポット光を照射するスポット光生成部と、
前記被写体に照射された前記スポット光の像を結像するための光学素子と、
前記光学素子による前記スポット光の像を撮像する撮像素子と、
前記光学素子と前記撮像素子との間に設けられ、前記スポット光の像に対してパターン像を光学的に重畳するためのパターンと、
前記撮像素子による撮像により得られた前記画像データと、前記パターンに対応する参照パターンとの相関演算処理を行う相関演算部と、
を含むことを特徴とする撮像装置。
A spot light generator for irradiating the subject with spot light;
An optical element for forming an image of the spot light irradiated on the subject;
An image sensor that captures an image of the spot light by the optical element;
A pattern provided between the optical element and the imaging element for optically superimposing a pattern image on the spotlight image;
A correlation calculation unit that performs a correlation calculation process between the image data obtained by imaging by the imaging element and a reference pattern corresponding to the pattern;
An imaging apparatus comprising:
請求項7において、
前記相関演算処理により得られた評価値に基づいてデフォーカス情報を取得するデフォーカス情報取得部と、
前記デフォーカス情報に基づいてフォーカス制御を行うフォーカス制御部と、
を含むことを特徴とする撮像装置。
In claim 7,
A defocus information acquisition unit that acquires defocus information based on the evaluation value obtained by the correlation calculation process;
A focus control unit that performs focus control based on the defocus information;
An imaging apparatus comprising:
請求項1乃至8において、
前記パターン、及び前記参照パターンは、
チャープ波パターンであることを特徴とする撮像装置。
In claims 1 to 8,
The pattern and the reference pattern are:
An image pickup apparatus having a chirp wave pattern.
請求項1乃至9のいずれかに記載の撮像装置を含むことを特徴とする電子機器。   An electronic apparatus comprising the imaging device according to claim 1.
JP2009109115A 2009-04-28 2009-04-28 Image pickup device and electronic apparatus Withdrawn JP2010256776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009109115A JP2010256776A (en) 2009-04-28 2009-04-28 Image pickup device and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009109115A JP2010256776A (en) 2009-04-28 2009-04-28 Image pickup device and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2010256776A true JP2010256776A (en) 2010-11-11

Family

ID=43317729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009109115A Withdrawn JP2010256776A (en) 2009-04-28 2009-04-28 Image pickup device and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2010256776A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250494A1 (en) * 2019-06-10 2020-12-17 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element, imaging device, and method for controlling solid-state imaging element

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250494A1 (en) * 2019-06-10 2020-12-17 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
US11889207B2 (en) 2019-06-10 2024-01-30 Sony Semiconductor Solutions Corporation Solid-state imaging element, imaging device, and method for controlling solid-state imaging element

Similar Documents

Publication Publication Date Title
US20130194387A1 (en) Image processing method, image processing apparatus and image-pickup apparatus
JP2008026802A (en) Imaging apparatus
JP6220148B2 (en) Imaging apparatus and control method thereof
JP2009044669A (en) Digital camera system
WO2007024709A3 (en) Cellular phone camera with three-dimensional imaging function
US20130278809A1 (en) Image capturing device and image capturing method
JP2009206831A (en) Imaging apparatus, method of generating image, and electronic equipment
JP2010213038A (en) Imaging apparatus
US20140036139A1 (en) Digital photographing apparatus
JP2016157093A (en) Imaging apparatus and method of driving the same
TWI300495B (en)
JP2009092909A (en) Imaging apparatus, focus control method, program and integrated circuit
US9247121B2 (en) Image sensor, electric device using the same and focusing method of the electric device
JP6645711B2 (en) Image processing apparatus, image processing method, and program
US20230177711A1 (en) Distance measurement apparatus, distance detection technique, and imaging apparatus
CN102833484A (en) Image pickup apparatus and control method thereof
JP2010256776A (en) Image pickup device and electronic apparatus
KR100700263B1 (en) Cmos image sensor having capability of auto focus control and apparatus of camera having the same
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP5018932B2 (en) Imaging device
JP2005164983A (en) Digital camera
JP2007213083A (en) Image processing system, image processing method, image processing apparatus, image processing program
JP2018050147A (en) Imaging apparatus, imaging method and program
JP2010224165A (en) Imaging apparatus
JP2018110299A (en) Image processing method, image processing device, and imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703