JP6700818B2 - Image processing device, imaging device, and image processing method - Google Patents

Image processing device, imaging device, and image processing method Download PDF

Info

Publication number
JP6700818B2
JP6700818B2 JP2016019240A JP2016019240A JP6700818B2 JP 6700818 B2 JP6700818 B2 JP 6700818B2 JP 2016019240 A JP2016019240 A JP 2016019240A JP 2016019240 A JP2016019240 A JP 2016019240A JP 6700818 B2 JP6700818 B2 JP 6700818B2
Authority
JP
Japan
Prior art keywords
distance
image
value
distance image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016019240A
Other languages
Japanese (ja)
Other versions
JP2017138199A (en
Inventor
知 小松
知 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016019240A priority Critical patent/JP6700818B2/en
Publication of JP2017138199A publication Critical patent/JP2017138199A/en
Application granted granted Critical
Publication of JP6700818B2 publication Critical patent/JP6700818B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理装置に関連し、特に、異なる解像度の距離画像の合成により高解像度な距離画像を生成する技術に関する。   The present invention relates to an image processing device, and more particularly to a technique for generating a high resolution range image by combining range images having different resolutions.

従来、撮像装置によって取得された画像から撮影シーンの距離を取得する手法としてDepth from Defocus(DFD)法が提案されている。DFD法では撮像光学系の撮影パラメータを制御することでぼけの異なる複数の画像を取得し、互いのぼけの大きさや相関量を算出する。このぼけの大きさや相関量は画像中の被写体の距離に応じて変化するため、その関係を用いて距離を算出できる。DFD法による距離計測は、計測に利用する画像の解像度で距離画像を生成することができ、同じ視点からの鑑賞画像と距離画像を生成することができる。   Conventionally, a depth from focus (DFD) method has been proposed as a method of acquiring the distance of a shooting scene from an image acquired by an imaging device. In the DFD method, a plurality of images with different blurs are acquired by controlling the shooting parameters of the image pickup optical system, and the sizes of blurs and the amounts of correlation are calculated. Since the size of the blur and the correlation amount change according to the distance of the subject in the image, the distance can be calculated using the relationship. Distance measurement by the DFD method can generate a distance image at the resolution of an image used for measurement, and can generate a viewing image and a distance image from the same viewpoint.

撮像装置におけるオートフォーカス(AF)技術で用いられる位相差方式を用い、撮像素子中に距離計測用の画素を配置することで距離画像を取得する技術が提案されている。距離計測専用の画素は撮像素子中に多く配置できないので、得られる距離画像の解像度は低い(画素数が少ない)。   A technique has been proposed in which a phase difference method used in an autofocus (AF) technique in an image pickup apparatus is used to obtain a distance image by arranging pixels for distance measurement in an image pickup device. Since many pixels dedicated to distance measurement cannot be arranged in the image sensor, the resolution of the obtained distance image is low (the number of pixels is small).

また、Time of Flight(TOF)法などのアクティブな距離計測技術も多数提案されている。アクティブ方式は、コントラストの低い被写体であっても安定した距離計測が可能となるが、生成される距離画像の解像度は低い(画素数が少ない)。   In addition, many active distance measurement techniques such as the Time of Flight (TOF) method have been proposed. The active method enables stable distance measurement even for a subject with low contrast, but the resolution of the generated distance image is low (the number of pixels is small).

このような異なる距離計測方式を用いた距離計測方法として、特許文献1がある。特許文献1では、位相差方式で距離計測を行った結果とDFD方式で距離計測を行った結果から、信頼度の高いデフォーカス量あるいは被写体距離を選択することで異なる距離計測方式の距離画像の合成を行う提案がなされている。   As a distance measuring method using such a different distance measuring method, there is Patent Document 1. In Patent Document 1, from the result of distance measurement by the phase difference method and the result of distance measurement by the DFD method, by selecting a highly reliable defocus amount or subject distance, distance images of different distance measurement methods can be obtained. Proposals for synthesis have been made.

また、特許文献2では、TOF方式の距離計測結果を初期値として位相差方式による距離計測の高速化を行う提案がなされている。さらに、位相差方式の距離計測結果をもとにTOF方式の不定性の回避を行う提案もなされている。   Further, in Patent Document 2, a proposal is made to speed up the distance measurement by the phase difference method using the TOF method distance measurement result as an initial value. Further, a proposal has been made to avoid the uncertainty of the TOF method based on the distance measurement result of the phase difference method.

特許文献3では、ステレオ方式とTOF方式を用いてステレオ方式では距離計測できなかった領域をTOF方式による距離計測結果を用いることが提案されている。   Patent Document 3 proposes to use the distance measurement result by the TOF method in the area where the distance cannot be measured by the stereo method using the stereo method and the TOF method.

特開2014−63142号公報JP, 2014-63142, A 特開2008−8687号公報JP, 2008-8687, A 特開2008−116309号公報JP, 2008-116309, A

特許文献1のように、解像度の異なる距離画像の合成を行う際に、領域ごとに距離計測方式の切り替えを行うと、低解像度の距離画像の影響により、距離値がブロック状に変化する領域が生じる可能性がある。   When the distance measurement method is switched for each area when the distance images having different resolutions are combined as in Japanese Patent Laid-Open No. 2004-242, there are areas where the distance value changes in blocks due to the influence of the low-resolution distance image. It can happen.

特許文献2では、位相差方式の距離計測の高速化のためにTOF方式を用いているが、
最終的な距離計測性能は位相差方式に依存するため、コントラストの低い被写体では距離計測が安定しない可能性がある。
In Patent Document 2, the TOF method is used to speed up the distance measurement by the phase difference method.
Since the final distance measurement performance depends on the phase difference method, the distance measurement may not be stable for a subject with low contrast.

特許文献3では、ステレオ方式では距離計測できなかった領域をTOF方式による距離計測結果で補っており、距離計測方式を切り替えて統合している。よって、ステレオ方式による高解像度な距離画像の中で計測できなかった領域は、解像度の低いTOF方式の距離計測結果を用いることにより一様な距離となる可能性がある。   In Patent Document 3, the area that could not be measured by the stereo method is supplemented by the distance measurement result by the TOF method, and the distance measurement method is switched and integrated. Therefore, there is a possibility that a region that cannot be measured in the high-resolution range image of the stereo method will have a uniform distance by using the distance measurement result of the low-resolution TOF method.

このようにいずれの文献においても、異なる測距方式を組み合わせて高精度かつ高解像の距離画像を得るという効果を十分に達成できているとはいえない。   As described above, it cannot be said in any of the documents that the effect of combining different distance measuring methods to obtain a highly accurate and high resolution range image can be sufficiently achieved.

本発明は、異なる距離計測方式により得られた異なる解像度の距離画像から、精度と解像度が両立した距離画像を生成することを目的とする。   An object of the present invention is to generate a distance image having both accuracy and resolution from distance images having different resolutions obtained by different distance measuring methods.

上記課題を解決するために、本発明の第一の態様は、第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理装置であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定手段と、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定手段と、
記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成手段と、
を備える、ことを特徴とする。
In order to solve the above problems, a first aspect of the present invention is to generate a third range image based on a first range image and a second range image having a lower resolution than the first range image. An image processing device for
Representative value determining means for selecting a region of the first distance image corresponding to the target pixel of the second distance image, and determining a representative value of distance values of the first distance image in the region.
Correction value determining means for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image at the target pixel;
A generating means for generating a third range image having a distance value corrected as a pixel value based on the distance value of each pixel before Symbol region on the correction value,
Is provided.

本発明の第二の態様は、第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理方法であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定ステップと、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定ステップと、
前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成ステップと、
を含む、ことを特徴とする。
A second aspect of the present invention is an image processing method for generating a third distance image based on a first distance image and a second distance image having a lower resolution than the first distance image,
A representative value determination step of selecting a region of the first distance image corresponding to the target pixel of the second distance image, and determining a representative value of distance values of the first distance image in the region.
A correction value determination step of determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel,
A generation step of generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the area based on the correction value,
It is characterized by including.

本発明によれば、異なる距離計測方式により得られた異なる解像度の距離画像から、精度と解像度の両立した距離画像を生成可能である。   According to the present invention, it is possible to generate a distance image having both accuracy and resolution from distance images having different resolutions obtained by different distance measuring methods.

第一の実施形態に係る撮像装置の構成を示す図。FIG. 3 is a diagram showing a configuration of an image pickup apparatus according to the first embodiment. 第一の実施形態における撮像素子における画素配置の説明図。FIG. 3 is an explanatory diagram of pixel arrangement in the image sensor according to the first embodiment. 第一の実施形態に係る撮像用画素の構成を示す図。FIG. 3 is a diagram showing a configuration of an image pickup pixel according to the first embodiment. 第一の実施形態に係る距離計測用画素の構成を示す図。The figure which shows the structure of the pixel for distance measurement which concerns on 1st embodiment. 第一の実施形態における撮影処理の流れを示すフローチャート。3 is a flowchart showing the flow of shooting processing according to the first embodiment. 第一の実施形態におけるDFD方式の距離計測を説明する図。The figure explaining distance measurement of the DFD method in a first embodiment. 第一の実施形態における距離補正処理の流れを示すフローチャート。6 is a flowchart showing a flow of distance correction processing in the first embodiment. 第一の実施形態における距離補正処理を説明する図。The figure explaining the distance correction process in 1st embodiment. 第一の実施形態における変形例に係る撮像素子の構成を示す図。FIG. 6 is a diagram showing a configuration of an image sensor according to a modified example of the first embodiment. 第一の実施形態における変形例に係る撮像装置の構成を示す図。The figure which shows the structure of the imaging device which concerns on the modification in 1st embodiment. 第二の実施形態における距離計測の流れを示すフローチャート。The flowchart which shows the flow of the distance measurement in 2nd embodiment.

(第一の実施形態)
<システム構成>
図1(A)は、第一実施形態に係る撮像装置のシステム構成図である。撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、距離計測部14、メモリ15、入力部16、表示部17、記憶部18を有する。
(First embodiment)
<System configuration>
FIG. 1A is a system configuration diagram of the image pickup apparatus according to the first embodiment. The image pickup apparatus 1 includes an image pickup optical system 10, an image pickup element 11, a control unit 12, a signal processing unit 13, a distance measuring unit 14, a memory 15, an input unit 16, a display unit 17, and a storage unit 18.

撮像光学系10は、複数のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。撮像光学系10としては可変焦点の光学系が用いられており、制御部12のオートフォーカス機能により自動焦点合わせが可能である。   The image pickup optical system 10 is an optical system that includes a plurality of lenses and forms incident light on the image plane of the image pickup element 11. A variable focus optical system is used as the imaging optical system 10, and automatic focusing is possible by the autofocus function of the control unit 12.

制御部12は、撮像装置1の各部を制御する機能部である。制御部12の機能としては、例えば、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込み、シャッターやフラッシュ(いずれも不図示)の制御、入力部16や表示部17や記憶部18の制御などがある。   The control unit 12 is a functional unit that controls each unit of the imaging device 1. The functions of the control unit 12 include, for example, automatic focusing by autofocus (AF), focus position change, F value (aperture) change, image capture, shutter and flash (neither is shown) control, and input. There are controls for the unit 16, the display unit 17, and the storage unit 18.

信号処理部13は、撮像素子11から出力された信号に対して処理を行う機能部である。具体的には、アナログ信号のA/D変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正などを行う。信号処理部13から出力されるデジタル画像データは一時的にメモリ15に蓄積された後、表示部17への表示、記憶部18への記録(保存)、距離計測部14などに出力され、所望の処理が行われる。   The signal processing unit 13 is a functional unit that processes a signal output from the image sensor 11. Specifically, A/D conversion of analog signals, noise removal, demosaicing, luminance signal conversion, aberration correction, white balance adjustment, color correction, etc. are performed. The digital image data output from the signal processing unit 13 is temporarily stored in the memory 15, and then displayed on the display unit 17, recorded (stored) in the storage unit 18, output to the distance measuring unit 14, etc. Is processed.

距離計測部14は、画像中の被写体までの奥行き方向の距離を算出する機能である。距離計測部14は、図1(B)に示すように、位相差方式距離画像生成部141、DFD方式距離画像生成部142、代表値決定部(代表値決定手段)143、補正値決定部(補正値決定手段)144、生成部(生成手段)147を含む。生成部147は、補正部145と平滑化処理部146を含む。距離計測部14は、論理回路により構成してもよいし、コンピュータ(プロセッサ)とプログラムとにより構成してもよいし、これらの組み合わせにより構成してもよい。距離計測部14の詳細については後述する。   The distance measuring unit 14 has a function of calculating the distance in the depth direction to the subject in the image. As shown in FIG. 1B, the distance measuring unit 14 includes a phase difference distance image generating unit 141, a DFD method distance image generating unit 142, a representative value determining unit (representative value determining unit) 143, a correction value determining unit ( The correction value determining unit) 144 and the generating unit (generating unit) 147 are included. The generation unit 147 includes a correction unit 145 and a smoothing processing unit 146. The distance measuring unit 14 may be configured by a logic circuit, a computer (processor) and a program, or a combination thereof. Details of the distance measuring unit 14 will be described later.

入力部16は、ユーザが操作し、撮像装置1に対して情報入力や設定変更を行うためのインターフェイスである。例えばダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。   The input unit 16 is an interface that a user operates to input information and change settings for the imaging device 1. For example, dials, buttons, switches, touch panels, etc. can be used.

表示部17は、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部17は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報の表示などに利用される。   The display unit 17 is a display unit including a liquid crystal display or an organic EL display. The display unit 17 is used for confirming the composition at the time of photographing, viewing the photographed/recorded images, displaying various setting screens, message information, and the like.

記憶部18は、撮影された画像データや、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部18としては、高速に読み書きでき、且つ、大容量の記憶媒体を用いることが好ましい。例えばフラッシュメモリなどを好適に用いることができる。   The storage unit 18 is a non-volatile storage medium that stores captured image data, parameter data used in the imaging device 1, and the like. As the storage unit 18, it is preferable to use a large-capacity storage medium that can read and write at high speed. For example, a flash memory can be preferably used.

<撮像素子の構成>
図2は、撮像素子11の構成を説明する図である。撮像素子11の、1つの撮影用画素21は2行2列のベイヤー配列の画素群からなる。さらにこのベイヤー配列の中に、距離計測用画素22H,22Vが規則的に疎に配置される。図2では、10行10列の正方領
域に対して、1組の距離計測用画素が配置されている。ブロックごとに互い違いに、水平方向に瞳分割した距離計測用画素22Hと垂直方向に瞳分割した距離計測用画素22Vが配置される。
<Structure of image sensor>
FIG. 2 is a diagram illustrating the configuration of the image sensor 11. One image-capturing pixel 21 of the image sensor 11 is composed of a pixel group in a Bayer array of 2 rows and 2 columns. Further, the distance measuring pixels 22H and 22V are regularly and sparsely arranged in the Bayer array. In FIG. 2, one set of distance measurement pixels is arranged in a square area of 10 rows and 10 columns. The distance-measuring pixels 22H that are pupil-divided in the horizontal direction and the distance-measuring pixels 22V that are pupil-divided in the vertical direction are arranged alternately for each block.

図3(A)、図3(B)は撮影用画素21を説明する図である。図3(A)に示すように各撮影用画素21は、2行2列の4画素を一組からなる。撮影用画素21は、対角方向の画素にG(緑色)の分光感度を有する画素が配置され、残りの2画素にR(赤色)とB(青色)の分光感度を有数する画素が1画素ずつ配置されたベイヤー配列を有する。   FIG. 3A and FIG. 3B are diagrams for explaining the imaging pixel 21. As shown in FIG. 3A, each photographing pixel 21 is composed of a set of 4 pixels in 2 rows and 2 columns. In the imaging pixel 21, pixels having a spectral sensitivity of G (green) are arranged in diagonal pixels, and one pixel having a spectral sensitivity of R (red) and B (blue) is one pixel in the remaining two pixels. Each has a Bayer array.

図3(B)は、図3(A)におけるS−S’断面図を表す。各画素21の上部にはマイクロレンズMLが配置され、その下部にカラーフィルタCLが配置される。カラーフィルタは各画素21においてRGBのそれぞれの波長を透過するフィルタであり、前述のようなベイヤー配列で配置される。カラーフィルタの下部には、配線層CLがあり、これは撮像素子内における各種信号の伝達を行う信号線を形成する配線層である。その下部には光電変換素子である光電変換部PDが配置される。   FIG. 3B is a sectional view taken along the line S-S′ in FIG. A microlens ML is arranged above each pixel 21, and a color filter CL is arranged below it. The color filter is a filter that transmits each wavelength of RGB in each pixel 21, and is arranged in the Bayer array as described above. Below the color filter, there is a wiring layer CL, which is a wiring layer that forms signal lines for transmitting various signals in the image sensor. A photoelectric conversion unit PD, which is a photoelectric conversion element, is disposed below the photoelectric conversion unit PD.

このようにベイヤー配列で配置された撮影用画素の中に、瞳分割位相差方式による距離検出を行うための距離計測用画素22H,22Vが配置される。距離計測用画素22H,22Vでは、ベイヤー配列の2行2列の画素のうち、G画素は撮影用に残し、R画素位置とB画素位置に距離計測用の画素が配置される。   Distance measuring pixels 22H and 22V for performing distance detection by the pupil division phase difference method are arranged in the photographing pixels arranged in the Bayer array in this way. In the distance measuring pixels 22H and 22V, among the pixels in 2 rows and 2 columns of the Bayer array, G pixels are left for imaging, and distance measuring pixels are arranged at R pixel positions and B pixel positions.

G画素を撮影用画素として残したのは、人間の視覚の感度特性は555nmをピークとするためG波長域に対して感度が高いためである。また視覚特性は、色情報より輝度情報に敏感であり、輝度情報は主にG画素で取得し色情報は主にR画素およびB画素で取得するため、G画素を残す方が画質の劣化が認知され難いためである。   The reason why the G pixel is left as a pixel for photographing is that the sensitivity characteristic of human vision has a peak at 555 nm and thus has high sensitivity to the G wavelength region. The visual characteristics are more sensitive to the luminance information than the color information, and the luminance information is mainly acquired by the G pixel and the color information is mainly acquired by the R pixel and the B pixel. Therefore, leaving the G pixel causes deterioration of the image quality. This is because it is hard to be recognized.

図4(A)、図4(B)は、水平方向に瞳分割を行う距離計測用画素22Hを含む2行2列の画素配列の一例を示すものであり、図4(B)は図4(A)のS−S’断面図で距離計測用画素の断面を表すものである。図4(A)の画素DAおよび画素DBが距離計測用の画素であり、画素DAおよび画素DBにおける塗りつぶし部分は、配線層CLの開口部である。距離計測用画素に照射された光は、この開口部を通って光電変換部PDに入射される。距離計測用の画素を画像生成に用いない場合は、透明膜のフィルタを配置するのが良い。   4A and 4B show an example of a pixel array of 2 rows and 2 columns including distance measurement pixels 22H that perform pupil division in the horizontal direction, and FIG. 4B shows FIG. FIG. 3A is a cross-sectional view taken along line S-S′ of FIG. Pixels DA and pixels DB of FIG. 4A are pixels for distance measurement, and the filled portions of the pixels DA and DB are openings of the wiring layer CL. The light with which the distance measuring pixel is irradiated enters the photoelectric conversion unit PD through this opening. If the pixels for distance measurement are not used for image generation, it is preferable to dispose a transparent film filter.

図4(B)に示すように、画素DA,DBの基本的な構造は撮影用画素21の構造と同一である。相違点は、画素DAに対応する開口部、および画素DBに対応する開口部が、マイクロレンズMLの中心に対して水平方向に偏移させて配置されている点である。これにより、画素DAに入射される光は撮影レンズLの左側の射出瞳EPAを通過した光束となり、画素DBに入射される光は撮影レンズLの右側の射出瞳EPBを通過した光束となる。すなわち、撮像素子による瞳分割が行われる。   As shown in FIG. 4B, the basic structure of the pixels DA and DB is the same as the structure of the imaging pixel 21. The difference is that the opening corresponding to the pixel DA and the opening corresponding to the pixel DB are arranged so as to be displaced in the horizontal direction with respect to the center of the microlens ML. As a result, the light incident on the pixel DA becomes a light flux that has passed through the left exit pupil EPA of the taking lens L, and the light that enters the pixel DB becomes a light flux that has passed through the right exit pupil EPB of the taking lens L. That is, pupil division is performed by the image sensor.

垂直方向に瞳分割を行う距離計測用画素22Vの構造は、開口部が垂直方向にシフトしている点を除けば距離計測用画素22Hの構造と同様であるため説明を省略する。   The structure of the distance measuring pixel 22V that performs pupil division in the vertical direction is the same as the structure of the distance measuring pixel 22H except that the opening is shifted in the vertical direction, and therefore description thereof will be omitted.

本実施形態に示す撮像素子11を用いることで、同じ撮像面からDFD方式の距離画像と位相差方式の距離画像を取得することができる。   By using the image sensor 11 according to the present embodiment, it is possible to acquire a DFD type range image and a phase difference type range image from the same image pickup surface.

<距離計測処理>
次に、撮像装置1が行う距離計測処理について、図面を参照しながら詳細に説明する。図5(A)は距離計測処理の基本的な流れを示すフローチャートである。
<Distance measurement processing>
Next, the distance measurement processing performed by the imaging device 1 will be described in detail with reference to the drawings. FIG. 5A is a flowchart showing the basic flow of distance measurement processing.

ユーザが、入力部16を操作して距離計測の実行を指示し撮影(ステップS11)を開始すると、制御部12が撮影制御を行い、以下の撮影を実行する。図5(B)は撮影処理S11の詳細を示すフローチャートである。   When the user operates the input unit 16 to instruct execution of distance measurement and start photographing (step S11), the control unit 12 performs photographing control and executes the following photographing. FIG. 5B is a flowchart showing details of the photographing process S11.

撮影処理が開始すると、まず、制御部12によって、オートフォーカス(AF)や自動露光制御(AE)が実行され、フォーカス位置と絞り(Fナンバー)、シャッター速度を決定される(ステップS111)。なお、これらの撮影パラメータはユーザが入力することもできる。その後、ステップS112にて撮影が実行され、制御部12は、撮像素子11から画像を取り込みメモリ15に一時的に格納する。   When the photographing process is started, first, the control unit 12 executes auto focus (AF) and automatic exposure control (AE) to determine the focus position, aperture (F number), and shutter speed (step S111). Note that these shooting parameters can also be input by the user. After that, shooting is performed in step S112, and the control unit 12 captures an image from the image sensor 11 and temporarily stores it in the memory 15.

一枚目の撮影が完了すると、制御部12が撮影パラメータを変更する(ステップS113)。変更する撮影パラメータとは、絞り(Fナンバー)、フォーカス位置、焦点距離の少なくとも何れかひとつである。変更後のパラメータの値あるいは変更量は予め保存された値を用いても良いし、入力部16でユーザが入力した情報をもとに決定しても良い。本実施形態では、フォーカス位置を変更して二枚目の画像を撮影する。例えば、一枚目は主被写体に合焦するように撮影を行い、二枚目は主被写体がぼけるようにフォーカス位置を変更して撮影を行う。   When the shooting of the first image is completed, the control unit 12 changes the shooting parameters (step S113). The shooting parameter to be changed is at least one of aperture (F number), focus position, and focal length. The changed parameter value or the changed amount may be a value stored in advance, or may be determined based on the information input by the user through the input unit 16. In the present embodiment, the focus position is changed to capture the second image. For example, the first image is taken so that the main subject is in focus, and the second image is taken while changing the focus position so that the main subject is blurred.

撮影パラメータの変更が完了すると、処理はステップS114に遷移し、制御部12によって二枚目の撮影が行われる。   When the change of the shooting parameter is completed, the process proceeds to step S114, and the control unit 12 shoots the second image.

二枚の画像の撮影が完了すると、一枚目の撮影画像中の距離計測用の画素から視差のある二画像(A像、B像)を生成する(ステップS115)。具体的には、画素DAによって取得された被写体像がA像であり、画素DBによって取得された被写体像がB像である。   When the photographing of the two images is completed, two images (A image and B image) with parallax are generated from the pixels for distance measurement in the first photographed image (step S115). Specifically, the subject image acquired by the pixel DA is the A image, and the subject image acquired by the pixel DB is the B image.

以上の撮影が終了すると、信号処理部13は、撮影および生成した画像が、距離計測に適した画像となるようにそれぞれ処理し、一時的にメモリ15に蓄積する。具体的には現像処理を行うが、信号処理時にぼけが変化しないようにエッジ強調処理などは避ける必要がある。また、以後の距離計測処理に利用する画像は、輝度画像または特定のカラー画像が適している。このとき、撮影した画像のうち少なくとも一枚を、観賞用の画像として信号処理し、メモリ15に蓄積してもよい。   When the above shooting is completed, the signal processing unit 13 processes the shot and generated images so as to be images suitable for distance measurement, and temporarily stores them in the memory 15. Specifically, development processing is performed, but edge enhancement processing or the like must be avoided so that blur does not change during signal processing. Further, a luminance image or a specific color image is suitable for the image used for the distance measurement process thereafter. At this time, at least one of the taken images may be signal-processed as an ornamental image and stored in the memory 15.

<位相差方式による距離計測方法>
次に、距離計測部14の距離画像生成部141が、位相差方式による距離計測(ステップS12)を実行して位相差方式の距離画像(第二の距離画像)DPDを生成する。位相差方式による距離計測処理S12について図5(C)のフローチャートを参照して説明する。
<Distance measuring method by phase difference method>
Next, the distance image generation unit 141 of the distance measurement unit 14 executes the distance measurement by the phase difference method (step S12) and generates the distance image by the phase difference method (second distance image) D PD . The distance measurement processing S12 using the phase difference method will be described with reference to the flowchart in FIG.

位相差方式では、A像とB像の像ずれ量rを検出することで、被写体像のデフォーカス量Defを検出する。したがって、距離画像生成部141は、A像とB像の相関演算により、像ずれ量rの検出を求める(ステップS121)。相関演算は公知の手法を用いることができ、例えば数式1により相関値C(k)を算出し、C(k)=0となるkから、像ずれ量rを算出することをできる。

Figure 0006700818
ここで、A(i)はA像の像信号、B(i)はB像の像信号、iは画素番号、kはA像
とB像の相対シフト量である。mは、相関値C(k)の演算に用いる対象画素範囲を表している。 In the phase difference method, the defocus amount Def of the subject image is detected by detecting the image shift amount r between the A image and the B image. Therefore, the distance image generation unit 141 obtains the detection of the image shift amount r by the correlation calculation of the A image and the B image (step S121). A known method can be used for the correlation calculation. For example, the correlation value C(k) can be calculated by Expression 1, and the image shift amount r can be calculated from k where C(k)=0.
Figure 0006700818
Here, A(i) is the image signal of the A image, B(i) is the image signal of the B image, i is the pixel number, and k is the relative shift amount between the A image and the B image. m represents the target pixel range used for the calculation of the correlation value C(k).

次に、距離画像生成部141は、算出された像ずれ量rを数式2に代入することでデフォーカス量Defを算出する(ステップS122)。

Figure 0006700818
ここでwは基線長(射出瞳EPAと射出瞳EPBの中心間隔)であり、Zは撮像素子から射出瞳までの距離である。 Next, the distance image generation unit 141 calculates the defocus amount Def by substituting the calculated image shift amount r into the mathematical expression 2 (step S122).
Figure 0006700818
Here, w is a base line length (center interval between the exit pupil EPA and the exit pupil EPB), and Z is a distance from the image sensor to the exit pupil.

距離計測に用いるA像、B像の全面に対して同様の処理を行うことで、デフォーカス量を画素値として有する距離画像を生成することができる。また、算出したデフォーカス量を撮影時のパラメータを用いて被写体までの距離に換算し、距離画像を生成することもできる。   By performing similar processing on the entire surfaces of the A image and the B image used for distance measurement, it is possible to generate a distance image having a defocus amount as a pixel value. It is also possible to convert the calculated defocus amount into a distance to a subject using a parameter at the time of shooting and generate a distance image.

距離計測用の画素は、例えば図2に示したように10行10列に対して一つ配置されているため、取得したA像およびB像から算出される距離画像は、撮影画像に対して画素数の少ない距離画像となる。この距離画像を撮像素子の画素数(撮影画像またはDFD方式の距離画像の画素数)に拡大した場合、10行10列のブロック領域Rでは同じ距離値となり、画素数は多いが解像度の低い距離画像となる。   Since one pixel for distance measurement is arranged for 10 rows and 10 columns as shown in FIG. 2, for example, the distance image calculated from the acquired A image and B image is The distance image has a small number of pixels. When this range image is expanded to the number of pixels of the image pickup element (the number of pixels of the range image of the captured image or the DFD method), the same distance value is obtained in the block region R of 10 rows and 10 columns, and the number of pixels is large but the resolution is low. It becomes an image.

<DFD方式による距離計測方法>
次に、距離計測部14の距離画像生成部142が、DFD方式による距離計測(ステップS13)を実行してDFD方式の距離画像(第一の距離画像)DDFDを生成する。DFD方式による距離計測処理S13について、図6(A)〜6(C)を参照して説明する。
<Distance measuring method by DFD method>
Next, the distance image generation unit 142 of the distance measurement unit 14 executes the distance measurement by the DFD method (step S13) to generate the DFD method distance image (first distance image) D DFD . The distance measurement processing S13 by the DFD method will be described with reference to FIGS. 6(A) to 6(C).

DFD方式は、2画像間のぼけの違いから距離を計測する方法である。図6(A)はDFD方式を説明する図である。ぼけの半径をσ、撮像素子までの距離をv、焦点距離をf、F値をFとすると、物体距離sは数式3で表される。

Figure 0006700818
撮像素子までの距離v、焦点距離f、F値は既知なのでぼけの半径σを求めれば物体距離を求めることができる。 The DFD method is a method of measuring a distance from the difference in blur between two images. FIG. 6A is a diagram illustrating the DFD method. When the radius of blur is σ, the distance to the image sensor is v, the focal length is f, and the F value is F, the object distance s is expressed by Equation 3.
Figure 0006700818
Since the distance v to the image pickup element, the focal length f, and the F value are known, the object distance can be obtained by obtaining the blur radius σ.

ここで、撮影条件を変えることでぼけの異なる二画像を取得し、ぼけの違いから距離情報を算出できる。変更する撮影条件は、開口の大きさ、フォーカス位置、焦点距離の少なくともいずれか一つとすることが好ましい。ぼけの大きさは、フォーカス位置を最小としてデフォーカスするにしたがって大きくなるため、二画像のぼけの違いからデフォーカス量を算出することができる。   Here, two images with different blurs can be acquired by changing the shooting conditions, and distance information can be calculated from the difference in blurs. It is preferable that the shooting condition to be changed is at least one of the size of the aperture, the focus position, and the focal length. Since the size of the blur increases as the focus position is minimized and the focus is defocused, the defocus amount can be calculated from the difference in blur between the two images.

本実施形態ではフォーカス位置を変更して撮影した二画像から距離情報を取得する手法を例に説明する。図6(B)はDFD方式による距離計測のフローチャートである。   In the present embodiment, a method of changing the focus position and acquiring distance information from two captured images will be described as an example. FIG. 6B is a flowchart of distance measurement by the DFD method.

まず、距離情報を算出する画像上の座標を決定し、二つの画像において決定した座標位置の周辺の局所領域を選択する(ステップS131)。なお、ここで選択した領域には同
じ被写体像が写っているものとする。二画像撮影中に手振れなどの動きにより画像にずれがあった場合は、二画像間の位置合わせ処理を予め実行しておく必要がある。領域選択を、1画素ずつずらして画像全体に渡り局所領域を設定することで入力画像と同じ画素数の高解像度な距離画像を算出することが可能である。
First, the coordinates on the image for which the distance information is calculated are determined, and the local area around the determined coordinate position in the two images is selected (step S131). It is assumed that the same subject image is captured in the area selected here. If the images are misaligned due to movement such as camera shake during the two-image shooting, it is necessary to perform the alignment process between the two images in advance. By shifting the region selection pixel by pixel and setting a local region over the entire image, it is possible to calculate a high-resolution range image having the same number of pixels as the input image.

次に相関値算出ステップS132では、前記領域選択ステップS131で選択した第一の画像Iの局所領域Irと、第二の画像Iの局所領域Irとの相関を数式4で算出する。

Figure 0006700818
収差が無くデフォーカスした場合のぼけ方がフォーカス位置の前と後で同じ場合、像側においてフォーカスを移動して撮影した2つのフォーカス位置の中間でぼけが同等となり、その位置での相関が最も高い値となる。この中間位置から離れるに従い、二画像のぼけ方は変化し相関が低下していく。つまり、ぼけの大きさが同じ位置をピークとしてその位置から離れるに従い相関が低下する。相関値はデフォーカスによるぼけに応じた値となるため、相関値が分かれば対応するデフォーカス量を知ることができ、フォーカス位置からの相対的な距離を算出することが可能となる。 Next, in the correlation value calculation step S132, calculates a local region Ir 1 of the first image I 1 selected in the region selection step S131, the correlation between the local region Ir 2 of the second image I 2 in the formula 4 ..
Figure 0006700818
If there is no aberration and the blurring is the same before and after the focus position, the blurring is the same between the two focus positions photographed with the focus moved on the image side, and the correlation at that position is the best. It becomes a high value. As the distance from this intermediate position increases, the blurring of the two images changes and the correlation decreases. That is, the correlation is reduced as the position where the blur size is the same is a peak and the position is farther from the position. Since the correlation value is a value according to the blur due to defocus, if the correlation value is known, the corresponding defocus amount can be known, and the relative distance from the focus position can be calculated.

次に距離情報算出ステップS133では、相関演算ステップS132で算出された相関値をフォーカス位置からの像距離(デフォーカス量)に変換する。相関値とデフォーカス量の関係は図6(C)のようになっている。相関値からデフォーカス量に変換する異なる変換テーブルまたは変換式を保持しておき、デフォーカス量に変換する。変換テーブルまたは変換式は、予め計測によって求めるか光学設計情報を利用したシミュレーションによって求めておく。シミュレーションの場合、代表波長を選択してその波長を用いたシミュレーションした結果を適用する。または、複数波長の結果を平均して用いてもよい。   Next, in the distance information calculation step S133, the correlation value calculated in the correlation calculation step S132 is converted into an image distance (defocus amount) from the focus position. The relationship between the correlation value and the defocus amount is as shown in FIG. A different conversion table or conversion formula for converting the correlation value to the defocus amount is held and converted to the defocus amount. The conversion table or conversion formula is obtained in advance by measurement or by simulation using optical design information. In the case of simulation, a representative wavelength is selected and the result of simulation using that wavelength is applied. Alternatively, the results of a plurality of wavelengths may be averaged and used.

本実施形態では演算の方法として数式4を例に説明したが、2つの画像間のぼけの関係を判断できる数式であればよくこの式に限定するものではない。演算に応じた出力値と像面でのフォーカス位置の関係が既知であれば相対距離への変換が可能である。他の演算例としては、以下の数式5などが挙げられる。

Figure 0006700818
In the present embodiment, the calculation method has been described by using the formula 4, but the formula is not limited to this formula as long as the formula can determine the blur relationship between two images. If the relationship between the output value according to the calculation and the focus position on the image plane is known, conversion to a relative distance is possible. As another calculation example, the following formula 5 and the like can be given.
Figure 0006700818

また、フーリエ変換を行い周波数空間での評価値による演算例として数式6が挙げられる。

Figure 0006700818
ここでFはフーリエ変換を表し、OTFは光学伝達関数、Sは撮影シーンのフーリエ変換結果を表している。数式6では、2つの撮影条件における光学伝達関数の比が得られ、予め光学系の設計データからこの値のデフォーカスによる変化を知ることができるため変換が可能となる。 Further, as an example of the calculation by the Fourier transform and the evaluation value in the frequency space, Formula 6 can be cited.
Figure 0006700818
Here, F represents a Fourier transform, OTF represents an optical transfer function, and S represents a Fourier transform result of a shooting scene. In Equation 6, the ratio of the optical transfer functions under the two shooting conditions can be obtained, and the change due to defocus of this value can be known from the design data of the optical system in advance, so that conversion is possible.

以上のステップS12,S13の処理により、二つの距離計測方式によって距離情報を画像として取得することができる。距離情報は被写体までの絶対距離であっても良いし、フォーカス位置から被写体までの相対的な距離(デフォーカス量)であっても良い。しかし、以降の処理で距離補正を行うため、二つの距離情報は同じ情報でなければならず、被写体までの絶対距離またはデフォーカス量に統一している必要がある。本実施形態ではデフォーカス量を画像として取得した場合を例に以降の説明を行う。   The distance information can be acquired as an image by the two distance measuring methods by the processing in steps S12 and S13 described above. The distance information may be an absolute distance to the subject or a relative distance (defocus amount) from the focus position to the subject. However, since distance correction is performed in the subsequent processing, the two pieces of distance information must be the same information, and it is necessary to unify the absolute distance to the subject or the defocus amount. In the present embodiment, the following description will be given by taking the case where the defocus amount is acquired as an image as an example.

<距離補正>
距離補正ステップS14では、位相差方式による距離画像(第二の距離画像)DPDとDFD方式による距離画像(第一の距離画像)DDFDを統合して、安定性が高く高解像度な距離画像(第三の距離画像)D3を生成する。なお、本実施形態では、距離画像DDFDの各画素における距離値(画素値)を、距離画像DPDおよび距離画像DDFDに基づいて補正することによって、距離画像D3を生成する。本実施形態では、距離画像D3のことを補正距離画像とも称する。
<Distance correction>
In the distance correction step S14, by integrating the distance image (a first distance image) D DFD by the distance image (a second distance image) D PD and the DFD using the phase difference method, high stability high resolution range image (Third distance image) D3 is generated. In the present embodiment, the distance image D distance value at each pixel in the DFD (pixel value), by correcting on the basis of the distance image D PD and the distance image D DFD, generates a distance image D3. In the present embodiment, the distance image D3 is also referred to as a corrected distance image.

具体的な処理内容を説明する前に、まず本実施形態による二つの距離計測方式によって得た距離画像を、解像度の観点から比較する。位相差方式による距離画像DPDは、距離計測用の画素が撮像素子11において図2のように疎に配置されているため、画像面内の解像度が距離画像DDFDに比べて低い。距離画像DPDを距離画像DDFDと同じ画素数(撮像素子の画素数)になるように拡大した場合は、ブロック単位で同じ距離値を有する距離画像となる。図8(A)に位相差方式による距離計測結果の一次元方向の例を示す。一方、DFD方式による距離画像DDFDは、画素ごとに相関演算が行われ、画素ごとに距離が求められる。したがって、距離画像DDFDは、図8(B)に示すように撮像素子11の画素数と同等の画素数を持つ。すなわち、DFD方式による距離画像DDFDは、位相差方式による距離画像DPDよりも高精細な(解像度が高い)距離画像である。 Before explaining specific processing contents, first, distance images obtained by the two distance measuring methods according to the present embodiment are compared from the viewpoint of resolution. In the distance image D PD by the phase difference method, the pixels for distance measurement are sparsely arranged in the image sensor 11 as shown in FIG. 2, and therefore the resolution in the image plane is lower than that of the distance image D DFD . When the distance image D PD is enlarged to have the same number of pixels (the number of pixels of the image sensor) as the distance image D DFD , the distance image has the same distance value in block units. FIG. 8A shows an example of the one-dimensional direction of the distance measurement result by the phase difference method. On the other hand, in the distance image D DFD by the DFD method, the correlation calculation is performed for each pixel, and the distance is obtained for each pixel. Therefore, the distance image D DFD has the same number of pixels as the number of pixels of the image sensor 11 as shown in FIG. That is, the distance image D DFD by the DFD method is a higher-definition (higher resolution) distance image than the distance image D PD by the phase difference method.

次に距離計測の安定性の観点から二方式を比較する。DFD方式は、数式4のように二画像中の選択領域の相関値を直接デフォーカス量と関連付けている方式の場合、ノイズや被写体の影響を受けやすい傾向にあり、距離計測の安定性が低い。一方、位相差方式の場合は、像ずれ量を算出の際に相関値による探索を行い、相関値の変化から最も比較する領域が一致する領域を得るため、DFD方式に比べノイズなどに頑健である。   Next, we compare the two methods from the viewpoint of stability of distance measurement. When the DFD method is a method in which the correlation value of the selected area in the two images is directly associated with the defocus amount as in Expression 4, the DFD method tends to be easily affected by noise and the subject, and the stability of distance measurement is low. . On the other hand, in the case of the phase difference method, a search is performed by the correlation value when calculating the image shift amount, and the area to be most compared is obtained from the change in the correlation value. is there.

これらの長所短所を利用し、測距安定性の高い位相差方式による距離画像DPDを用い、DFD方式による画面内解像度の高い距離画像DDFDを補正することで、高安定性と高い画面内解像度を両立させる。 Utilizing these advantages and disadvantages, by using the range image D PD by the phase difference method with high ranging stability and correcting the range image D DFD with high in-screen resolution by the DFD method, high stability and high in-screen Make resolution compatible.

距離補正ステップS14の処理の流れを示すフローチャートを図7に示す。   FIG. 7 is a flowchart showing the flow of the process of the distance correction step S14.

まず、ステップS141において、代表値決定部143が、距離画像DPDから1つの画素を選択する。ステップS142において、距離画像DPDの選択対象画素に対応する、距離画像DDFDの領域を選択する。上述のように、距離画像DPDの方が距離画像DDFDよりも解像度が低いので、距離画像DPDの1画素は距離画像DDFDの複数画素に対応する。本実施形態では、距離画像DPDの1画素は、距離画像DDFDの10画素×10画素の領域に対応する。 First, in step S141, the representative value determination unit 143 selects one pixel from the distance image D PD . In step S142, the area of the distance image D DFD corresponding to the selection target pixel of the distance image D PD is selected. As described above, towards the distance image D PD is has a lower resolution than the distance image D DFD, 1 pixel of the distance image D PD corresponds to a plurality of pixels of the distance image D DFD. In the present embodiment, one pixel of the distance image D PD corresponds to the area of 10 pixels×10 pixels of the distance image D DFD .

ステップS143において、代表値決定部143は、選択された領域における距離画像DDFD(高解像度距離画像)のデフォーカス量(距離値)の代表値を決定する。この代表値を以下では代表デフォーカス量DHrepとも称する。代表デフォーカス量DHrepは、領域内のデフォーカス量の平均値や中央値とすることが好適である。 In step S143, the representative value determination unit 143 determines the representative value of the defocus amount (distance value) of the distance image D DFD (high-resolution distance image) in the selected area. Hereinafter, this representative value is also referred to as a representative defocus amount DH rep . The representative defocus amount DH rep is preferably the average value or the median value of the defocus amounts in the area.

ステップS144において、補正値決定部144は、距離画像DDFD(低解像度距離画像)の選択画素におけるデフォーカス量DL(距離値)を取得する。 In step S144, the correction value determination unit 144 acquires the defocus amount DL (distance value) in the selected pixel of the distance image D DFD (low resolution distance image).

図8(A)の距離画像DPDの画素RPiに対応する距離画像DDFDの領域は、図8(B)に示す領域RDiである。図8(B)における破線lbは距離画像DDFDの各領域における代表デフォーカス量を示し、破線ldは距離画像DPDの対応する画素でのデフォーカス量を示す。一般に、これら2つのデフォーカス量は異なる値となる。 The area of the distance image D DFD corresponding to the pixel RPi of the distance image D PD of FIG. 8A is the area RDi shown in FIG. 8B. The broken line lb in FIG. 8B indicates the representative defocus amount in each area of the distance image D DFD , and the broken line ld indicates the defocus amount at the corresponding pixel of the distance image D PD . Generally, these two defocus amounts have different values.

ステップS145において、補正値決定部144は、距離画像DDFDから得られる代表デフォーカス量DLと距離画像DPDから得られるデフォーカス量DHrepに基づいて、補正値DCを数式7にしたがって決定する。

Figure 0006700818
ここで、αは位相差方式による距離計測の安定度とDFD方式による距離計測の安定度の比を表す。2つの安定度の和が1となるように規格化した場合に、αが位相差方式による距離計測の安定度であり、1−αがDFD方式による距離計測の安定度である。 In step S145, the correction value determination unit 144 determines the correction value DC according to Equation 7 based on the representative defocus amount DL obtained from the distance image D DFD and the defocus amount DH rep obtained from the distance image D PD. ..
Figure 0006700818
Here, α represents the ratio of the stability of distance measurement by the phase difference method and the stability of distance measurement by the DFD method. When normalized so that the sum of two stability is 1, α is the stability of distance measurement by the phase difference method, and 1-α is the stability of distance measurement by the DFD method.

本実施形態では、補正値DCは、距離画像DDFDの代表デフォーカス量DHrepと距離画像DPDのデフォーカス量DLの距離計測安定度に基づく加重平均値から、距離画像DDFDの代表デフォーカス量DHrepを減算した値と定義される。 In the present embodiment, the correction value DC is calculated from the weighted average value based on the distance measurement stability of the representative defocus amount DH rep of the distance image D DFD and the defocus amount DL of the distance image D PD to the representative defocus amount of the distance image D DFD . It is defined as a value obtained by subtracting the focus amount DH rep .

距離計測の安定度は、距離計測方式や撮影時の条件によって定まる。例えば、二つの距離計測方式で既知の距離を計測した場合の正答率や誤差量に応じて距離計側方式ごとの安定度を決定できる。また、撮影時の条件を考慮する場合は、二つの距離計測方式で既知の距離を種々の撮影条件で計測し、撮影条件ごとの正答率や誤差量に基づいて安定度を決定できる。後者の場合、補正値決定部144は、撮影時の条件に応じた安定度αを採用する。   The stability of distance measurement depends on the distance measurement method and shooting conditions. For example, the stability for each rangefinder-side method can be determined according to the correct answer rate and the amount of error when a known distance is measured by the two distance measuring methods. Further, in the case of considering the conditions at the time of shooting, the known distances can be measured under various shooting conditions by the two distance measuring methods, and the stability can be determined based on the correct answer rate and the error amount for each shooting condition. In the latter case, the correction value determination unit 144 adopts the stability α according to the conditions at the time of shooting.

位相差方式による距離計測は、DFD方式に比べ低い空間周波数で演算し、更に像ずれ量算出時の相関演算で最適像ずれ量を選択するためDFD方式よりも安定度が高い。よって、位相差方式の安定度αは0.5より大きい値となる。   The distance measurement by the phase difference method is more stable than the DFD method because it is calculated at a lower spatial frequency than the DFD method and the optimum image deviation amount is selected by the correlation calculation when calculating the image deviation amount. Therefore, the stability α of the phase difference method becomes a value larger than 0.5.

次にステップS146において、補正部145は、ステップS141で算出したデフォーカス量補正値DCを領域RDの各画素のデフォーカス量に加算することでDFD方式の距離画像の補正を行う。具体的には、距離画像DDFDの補正前の距離値をDとしたとき、補正後の距離値D’は以下の数式8により決定される。

Figure 0006700818
Next, in step S146, the correction unit 145 corrects the distance image of the DFD method by adding the defocus amount correction value DC calculated in step S141 to the defocus amount of each pixel in the region RD i . Specifically, assuming that the distance value before correction of the distance image D DFD is D, the corrected distance value D′ is determined by the following formula 8.
Figure 0006700818

この補正により領域RDの代表デフォーカス量がブロック領域RPのデフォーカス量と近づき、図8(C)に示すように破線lbと点線ldの差が図8(B)よりも小さくなる。 By this correction, the representative defocus amount of the region RD i becomes closer to the defocus amount of the block region RP i , and the difference between the broken line lb and the dotted line ld becomes smaller than that in FIG. 8B as shown in FIG. 8C.

このとき、補正対象のブロック領域とそれに隣接するブロック領域(隣接領域)の間で補正値DCの差が大きい場合は、ブロック領域の境界で大きな段差が生じることがある。したがって、補正部145は、補正対象のブロック領域と隣接するブロック領域の間での
補正値DCの差が閾値以上の場合は、数式8による補正の代わりに、補正対象領域の補正値と隣接領域の補正値の重み付け平均を加算する補正を行うことも好ましい。この場合は、これにより、領域間の急激な段差を抑制できる。この重み付け平均における重み付け係数は、予め定められた値を採用できる。
At this time, if there is a large difference in the correction value DC between the block area to be corrected and the block area (adjacent area) adjacent thereto, a large step may occur at the boundary of the block areas. Therefore, when the difference in the correction value DC between the block area to be corrected and the adjacent block area is greater than or equal to the threshold value, the correction unit 145 replaces the correction value of the correction target area with the adjacent area, instead of the correction according to Expression 8. It is also preferable to perform the correction by adding the weighted average of the correction values. In this case, this can suppress a sharp step between the regions. A predetermined value can be adopted as the weighting coefficient in this weighted average.

ステップS147では、全ての画素(領域)に対して上記の処理を行ったか判定し、未処理の画素がある場合にはステップS141に戻って上記の処理を繰り返す。全ての画素に対して上記の処理を行うことで、DFD方式の距離画像DDFDを補正し、補正距離画像D3が得られる。補正処理画像D3は、距離画像DDFDの各画素の距離値Dをデフォーカス量補正値DCに基づいて補正して得られる距離値を画素値として有する距離画像である。 In step S147, it is determined whether the above process has been performed for all pixels (regions). If there is an unprocessed pixel, the process returns to step S141 and the above process is repeated. By performing the above process on all the pixels, the distance image D DFD of the DFD method is corrected, and the corrected distance image D3 is obtained. The correction processing image D3 is a distance image having a distance value obtained by correcting the distance value D of each pixel of the distance image D DFD based on the defocus amount correction value DC as a pixel value.

得られた補正距離画像D3は、ブロック領域ごとにデフォーカス量補正値が異なるため、図8(C)に示すように隣接ブロック間でデフォーカス量の段差が生じる。そのため、ステップS148において、平滑化処理部146が、ブロック領域境界に沿って、例えば4×4画素の平均化処理を行う。これにより、補正によって生じたデフォーカス量の段差が目立たなくなる。この処理により、図8(D)のようにブロック境界での段差が目立たなくなり、滑らかな距離画像を生成することができる。   In the obtained corrected distance image D3, since the defocus amount correction value differs for each block area, a step of the defocus amount occurs between adjacent blocks as shown in FIG. 8C. Therefore, in step S148, the smoothing processing unit 146 performs an averaging process of, for example, 4×4 pixels along the block region boundary. As a result, the step of the defocus amount caused by the correction becomes inconspicuous. By this processing, the step at the block boundary becomes inconspicuous as shown in FIG. 8D, and a smooth distance image can be generated.

以上の補正処理を実施することで、解像度が高い距離画像を、安定度の高い距離画像を用いて補正し、解像度が高く安定度の高い距離画像を求めることができる。なお、算出した距離画像をそのまま出力しても良いし、焦点距離および物体側におけるフォーカス距離を用いて物体距離に変換して出力してもよい。   By performing the above correction processing, it is possible to correct a range image with high resolution using a range image with high stability and obtain a range image with high resolution and high stability. Note that the calculated distance image may be output as it is, or may be output after being converted into an object distance using the focal length and the focus distance on the object side.

本実施形態によれば、距離計測の安定度が高く撮像素子面内における解像度が低い距離情報画像と、前記安定度は劣るが前記解像度が高い距離情報画像を合成することで、前記安定度と前記解像度を両立した距離情報画像を生成することが可能となる。   According to the present embodiment, by combining a distance information image having a high stability of distance measurement and a low resolution in the image sensor plane and a distance information image having a low stability but a high resolution, the stability is improved. It is possible to generate a distance information image that is compatible with the resolution.

<変形例1>
撮像素子11の別の形態として図9(A)〜9(C)に示すような構成としても良い。図9(A)に、2行×2列の画素を画素群201及び画素群202を示す。画素群201内には、対角方向に緑画素201Gvが配置され、もう一方の対角方向に赤画素201Rvと青画素201Bvが配置されている。同様に画素群202内にも、対角方向に緑画素202Ghが、他方には赤画素202Rhと青画素2020Bhが配置されている。これらの二種類の画素群が撮像素子11上に市松模様状に配置されている。
<Modification 1>
As another form of the image pickup element 11, a configuration as shown in FIGS. 9A to 9C may be adopted. FIG. 9A shows a pixel group 201 and a pixel group 202 having 2 rows×2 columns of pixels. In the pixel group 201, green pixels 201Gv are arranged in a diagonal direction, and red pixels 201Rv and blue pixels 201Bv are arranged in the other diagonal direction. Similarly, in the pixel group 202, green pixels 202Gh are arranged diagonally, and red pixels 202Rh and blue pixels 2020Bh are arranged on the other side. These two types of pixel groups are arranged on the image sensor 11 in a checkered pattern.

図9(B)は、画素群201におけるV−V’概略断面図を示す。画素群201内の各画素は、マイクロレンズ201ML、カラーフィルタ201CF、光電変換部201A
201Bを備える。図9(C)は、画素群202におけるH−H’概略断面図を示す。画素分202内の各画素は、マイクロレンズ202ML、カラーフィルタ202CF、光電変換部202A、202Bを備える。また、図9(B)及び9(C)において、受光面210は、光電変換部の光入射側のxy面(+z側の面)である。
FIG. 9B is a schematic cross-sectional view taken along line VV′ of the pixel group 201. Each pixel in the pixel group 201 includes a microlens 201ML, a color filter 201CF, and a photoelectric conversion unit 201A.
201B is provided. FIG. 9C is a schematic sectional view taken along line HH′ in the pixel group 202. Each pixel in the pixel portion 202 includes a microlens 202ML, a color filter 202CF, and photoelectric conversion units 202A and 202B. Further, in FIGS. 9B and 9C, the light receiving surface 210 is an xy surface (+z side surface) on the light incident side of the photoelectric conversion unit.

本変形例の撮像素子11では、1つの画素(緑画素などの各画素)内に光電変換部を2つ配置し、受光面210と射出瞳が光学的に共役関係になるようにマイクロレンズ201ML、202MLのパワーを設定している。このような配置とすることで、光電変換部201Aと201B(及び202Aと202B)では、それぞれ、射出瞳の異なる領域を通過した光束を受光することができる。また、画素群201と画素群202では、2つの光電変換部の配置が90°回転している。このような構成とすることで、画素群201と画素群202では射出瞳を異なる方向に分割した領域を通過した光束を光電変換部で受光す
ることとなる。これにより、画素群201と画素群202では異なる方向にコントラスト変化のある被写体に対して被写体距離の検出を行うことができる。
In the image sensor 11 of this modified example, two photoelectric conversion units are arranged in one pixel (each pixel such as a green pixel), and the microlens 201ML is arranged so that the light receiving surface 210 and the exit pupil have an optically conjugate relationship. , 202 ML power is set. With such an arrangement, the photoelectric conversion units 201A and 201B (and 202A and 202B) can respectively receive the light fluxes that have passed through the regions having different exit pupils. Further, in the pixel group 201 and the pixel group 202, the arrangement of the two photoelectric conversion units is rotated by 90°. With such a configuration, in the pixel group 201 and the pixel group 202, the light flux that has passed through the regions obtained by dividing the exit pupil in different directions is received by the photoelectric conversion unit. This allows the pixel group 201 and the pixel group 202 to detect the subject distance with respect to the subject whose contrast changes in different directions.

本変形例においては、各画素群201,202における2つの光電変換部で受光した光から生成される像信号をそれぞれA像、B像として取得する。このA像およびB像は、撮像素子の画素と同数の解像度を持つため、高精細な距離画像を取得することが可能である。ここでの距離画像の算出はステップS12と同様の処理である。しかし、解像度が高い画像を用いて位相差方式による距離計測を実行する場合、像ずれ量算出時にノイズや周期被写体による像ずれ量算出エラーが生じる可能性が高くなる。そこで、本変形例においては、A像およびB像をそのまま用いた位相差方式の距離計測に加えて、A像およびB像を縮小した低周波成分の画像を用いた位相差方式の距離計測も行う。縮小したA像およびB像で距離計測した場合、ノイズや周期被写体による像ずれ量算出エラーは低減される。   In this modification, the image signals generated from the light received by the two photoelectric conversion units in each of the pixel groups 201 and 202 are acquired as an A image and a B image, respectively. Since the A image and the B image have the same number of resolutions as the pixels of the image sensor, it is possible to obtain a high-definition range image. The calculation of the distance image here is the same as that in step S12. However, when performing distance measurement by the phase difference method using an image with high resolution, there is a high possibility that noise or an image shift amount calculation error due to a periodic subject will occur when calculating the image shift amount. Therefore, in this modification, in addition to the phase difference distance measurement using the A image and the B image as they are, the phase difference distance measurement using the low frequency component image obtained by reducing the A image and the B image is also performed. To do. When the distance is measured with the reduced A image and B image, the image shift amount calculation error due to noise or a periodic subject is reduced.

上記の理由から、本変形例においては、解像度の異なる2つの距離画像が得られる。一方は高解像度だが安定度が低く、他方は低解像度だが安定度が高い。したがって、本変形例においても、上記と同様の処理により、高解像度の距離画像を、低解像度の距離画像を用いて補正することで、高解像度かつ高安定度の距離画像を得ることができる。具体的には、低解像度の距離画像を実施例1における位相差方式による距離画像として扱い、高解像度の距離画像を実施例1におけるDFD方式による距離画像として扱って、同様の距離補正処理を行えばよい。   For the above reason, in this modification, two range images having different resolutions can be obtained. One has high resolution but low stability, and the other has low resolution but high stability. Therefore, also in this modification, a high-resolution range image can be obtained by correcting the high-resolution range image using the low-resolution range image by the same processing as described above. Specifically, the low-resolution range image is treated as a phase-difference range image in the first embodiment, and the high-resolution range image is treated as a DFD system range image in the first embodiment to perform similar distance correction processing. I'll do it.

このように、全面で位相差方式による距離計測ができる撮像素子を用いた場合であっても、より安定度が高く高精細な距離画像を生成することが可能となる。   As described above, even when the image pickup device capable of measuring the distance by the phase difference method is used on the entire surface, it is possible to generate a highly accurate distance image with higher stability.

<変形例2>
別の変形例として、アクティブ距離計測方式であるTOF方式(Time−of−Flight方式)による距離計測と、DFD方式による距離計測を行う構成を採用することができる。図10は本変形例に係る撮像装置2の構成を示す。本変形例に係る撮像装置2は、実施例1の撮像装置1の構成に加え照明部19、ホットミラー20、撮像素子21が追加されている。また、撮像素子11は距離計測用の画素を配置しない、一般に用いられる撮像素子であってよい。
<Modification 2>
As another modification, it is possible to adopt a configuration in which the distance measurement by the TOF method (Time-of-Flight method) which is an active distance measurement method and the distance measurement by the DFD method are performed. FIG. 10 shows the configuration of the image pickup apparatus 2 according to this modification. The imaging device 2 according to the present modification example includes an illumination unit 19, a hot mirror 20, and an imaging element 21 in addition to the configuration of the imaging device 1 according to the first embodiment. The image sensor 11 may be a generally used image sensor in which pixels for distance measurement are not arranged.

この構成では、撮影時に制御部12で照明部19を制御し、変調した近赤外光を照明する。近赤外光と可視光を分離するために光路内にホットミラー20を設置する。照明した近赤外光が被写体で反射し撮像光学系により集光され、ホットミラー20で近赤外光のみ反射され、撮像素子21上に結像される。一方、可視光はホットミラー20を透過し、撮像素子11上に結像される。   In this configuration, the illumination unit 19 is controlled by the control unit 12 at the time of photographing to illuminate the modulated near infrared light. A hot mirror 20 is installed in the optical path to separate near infrared light and visible light. The illuminated near-infrared light is reflected by the subject and condensed by the imaging optical system, and only the near-infrared light is reflected by the hot mirror 20, and an image is formed on the imaging device 21. On the other hand, visible light passes through the hot mirror 20 and is imaged on the image sensor 11.

撮像素子12では、変調照明光に対して位相を90°ずらしたタイミングで4回の露光を行い、被写体からの反射光の位相差を算出する。算出した位相差と変調周波数fmおよび光速を用いることで被写体までの距離を算出することが可能である。   The image sensor 12 performs four exposures at a timing with the phase shifted by 90° with respect to the modulated illumination light, and calculates the phase difference of the reflected light from the subject. It is possible to calculate the distance to the subject by using the calculated phase difference, modulation frequency fm, and speed of light.

このTOF方式のようなアクティブな距離計測手法は、一般に被写体に対する依存性が少なく安定した距離計測が行える。その反面、距離計測の画素数が少なく、VGA程度の画素数の距離画像しか得られない。よって、TOF方式による距離画像を用いて、DFD方式による距離画像を距離補正ステップS14で補正することで、安定度が高く高精細な距離画像を生成することが可能となる。   An active distance measuring method such as the TOF method generally has little dependence on a subject and can perform stable distance measurement. On the other hand, the number of pixels for distance measurement is small, and only a distance image having a pixel number of VGA is obtained. Therefore, by correcting the distance image of the DFD method in the distance correction step S14 using the distance image of the TOF method, it is possible to generate a highly accurate distance image with high stability.

本変形例の撮像装置によって得られるDFD方式の距離画像とTOF方式の距離画像は、異なる視点の画像となる。したがって、距離計測部14は、2つの距離画像が同一視点
となるようにいずれか一方の距離画像または両方の距離画像に対して変形処理を施す距離画像変形部(変形手段)を備えることが好ましい。
The DFD type range image and the TOF type range image obtained by the image pickup apparatus of the present modification are images of different viewpoints. Therefore, it is preferable that the distance measuring unit 14 includes a distance image transforming unit (transforming unit) that performs transforming processing on one of the distance images or both of the distance images so that the two distance images have the same viewpoint. ..

ここではアクティブ距離計測方式の代表例としてTOF方式を用いて説明したが、他のレーザースキャン方式(レーザースキャナ方式)などのアクティブ距離計測方式を用いても同様の処理を行うことが可能である。   Here, the TOF method is used as a representative example of the active distance measuring method, but the same processing can be performed using an active distance measuring method such as another laser scanning method (laser scanner method).

(第二の実施形態)
次に、本発明の第二実施形態について説明する。第二実施形態は、二つの距離計測を実行した際に距離情報(画像)の信頼性を表す信頼度情報(画像)を同時に演算し、その信頼度画像を利用して距離補正を実行する点が第一の実施形態と相違する。本実施形態に係る撮像装置の構成は第一実施形態のものと同様のため、同一の符号を用いて説明を行う。
(Second embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, the reliability information (image) indicating the reliability of the distance information (image) is calculated at the same time when the two distance measurements are executed, and the distance correction is executed using the reliability image. Is different from the first embodiment. The configuration of the image pickup apparatus according to the present embodiment is the same as that of the first embodiment, and therefore the description will be given using the same reference numerals.

以下、第一の実施形態との処理の相違点について説明する。図11(A)、11(B)は、第二の実施形態における、各距離計測方式の流れを示した図である。図11(A)は位相差方式による距離計測S12のフローチャートである。第1の実施形態(図5(A))と比較して、信頼度情報算出ステップS123が追加されている。   Hereinafter, differences in processing from the first embodiment will be described. 11(A) and 11(B) are diagrams showing the flow of each distance measurement method in the second embodiment. FIG. 11A is a flowchart of the distance measurement S12 by the phase difference method. Compared with the first embodiment (FIG. 5A), a reliability information calculation step S123 is added.

信頼度情報算出ステップS123では、算出した距離情報がどの程度信頼できるかを表す距離計測の信頼度情報を算出する。この信頼度情報は、距離情報算出に用いた画像の輝度情報やコントラスト情報、像ずれ量算出時の相関値ピークの数などを用いて算出するもので、被写体によって変化する値である。   In the reliability information calculation step S123, the reliability information of the distance measurement indicating how reliable the calculated distance information is is calculated. This reliability information is calculated using the brightness information and contrast information of the image used for calculating the distance information, the number of correlation value peaks at the time of calculating the image shift amount, and the value that changes depending on the subject.

像ずれ量を算出する際に演算範囲において画像が黒潰れや白飛びを起こしていた場合は正しい像ずれ量を算出できないため、被写体像の輝度値(輝度情報)を信頼度情報の指標とすることができる。   When the image shift amount is calculated, if the image has blackout or whiteout in the calculation range, the correct image shift amount cannot be calculated, and therefore the brightness value (brightness information) of the subject image is used as an index of reliability information. be able to.

また、演算範囲において画像のコントラストが低い場合は像ずれ量算出の際の相関演算においてピーク値の算出に誤差が生じるため、コントラスト情報を信頼度情報の指標として用いることができる。   Further, when the contrast of the image is low in the calculation range, an error occurs in the calculation of the peak value in the correlation calculation when calculating the image shift amount, so that the contrast information can be used as an index of the reliability information.

像ずれ量算出時の相関値ピークの数は、像ずれ量算出時の演算範囲において周期的な被写体が存在すると多数の相関値ピークが生じる。このとき、最も小さい(大きい)ピークが必ずしも正しい像ずれ位置とは限らないため、相関値のピークが多数生じた場合は距離計測の信頼度が低いとみなすことができる。したがって、被写体像の周期性情報を信頼度情報の指標とすることもできる。   Regarding the number of correlation value peaks when calculating the image shift amount, a large number of correlation value peaks occur when a periodic subject exists in the calculation range when calculating the image shift amount. At this time, the smallest (largest) peak is not always the correct image shift position, and therefore, when a large number of correlation value peaks occur, it can be considered that the reliability of distance measurement is low. Therefore, the periodicity information of the subject image can be used as an index of the reliability information.

図11(B)はDFD方式による距離計測のフローチャートである。第1の実施形態(図8(B))と比較して、上記と同様に信頼度情報算出ステップS134が追加されている。DFD方式における信頼度情報算出の指標としては、被写体像の輝度値、被写体像のコントラスト、被写体の周期性情報、撮像時の被写体の動き情報、距離計測範囲情報、距離エッジ情報、位置ずれ情報などが利用できる。   FIG. 11B is a flowchart of distance measurement by the DFD method. Compared to the first embodiment (FIG. 8B), the reliability information calculation step S134 is added in the same manner as above. As the index for calculating the reliability information in the DFD method, the brightness value of the subject image, the contrast of the subject image, the periodicity information of the subject, the movement information of the subject at the time of imaging, the distance measurement range information, the distance edge information, the positional deviation information, etc. Is available.

演算に用いる領域に黒潰れや白飛びが生じているとぼけの違いを正しく検出することができないため、被写体像の輝度値(輝度情報)は、信頼度情報の指標として利用可能である。   Since the difference in blur cannot be correctly detected when blackening or whiteout occurs in the area used for calculation, the brightness value (brightness information) of the subject image can be used as an index of reliability information.

コントラストが低いとぼけの違いを正しく検出することができない上に、ノイズによる影響が距離計測において支配的になるため、被写体像のコントラスト情報も信頼度情報の指標として用いることができる。   If the contrast is low, the difference in blur cannot be correctly detected, and the influence of noise becomes dominant in the distance measurement. Therefore, the contrast information of the subject image can also be used as an index of the reliability information.

距離計測範囲情報は、精度良く距離計測できる範囲を示す情報である。距離計測範囲情報によって指定される範囲外の領域の信頼度は低いと判断できる。例えば、数式4を利用して距離計測を行った場合など、ぼけが大きくなると二画像のぼけの違いが区別しにくくなり、再び相関が高くなるということが生じる。その領域は、フォーカス近傍の相関が高い領域とは異なるため、信頼できない領域とする必要がある。   The distance measurement range information is information indicating a range in which distance measurement can be accurately performed. It can be determined that the reliability of the area outside the range specified by the distance measurement range information is low. For example, when the distance is measured using Expression 4, when the blur becomes large, it becomes difficult to distinguish the difference between the two images, and the correlation becomes high again. Since the area is different from the area having a high correlation near the focus, it needs to be an unreliable area.

DFD方式は撮影パラメータを変えて二画像を取得する必要があるため、撮影タイミングが異なることにより二画像間で位置ずれが生じる。位置合わせ処理を行うことで同じ領域のぼけの比較を行うことができるが、被写体の動きを合わせることは難しい。このため、二画像の演算領域の画素ごとの差分二乗和や差分絶対値和などの動き情報を演算し、動き情報が閾値以上の場合は位置ずれが大きいと判断して信頼度を低くすることができる。   In the DFD method, since it is necessary to change two shooting parameters to acquire two images, a difference in shooting timing causes a positional shift between the two images. By performing the alignment processing, it is possible to compare the blurs in the same area, but it is difficult to match the movement of the subject. Therefore, the motion information such as the sum of squared differences and the sum of absolute differences for each pixel in the calculation area of the two images is calculated, and when the motion information is equal to or larger than the threshold value, it is determined that the positional deviation is large and the reliability is lowered. You can

以上のように、距離計測方式によって信頼度情報を求める方法は多数あり、ここで述べた方法以外にも考えられるが、ここでは信頼度情報を算出する方法を限定するものではない。また信頼度情報は、算出した距離情報が信頼できるかできないかを表す二値の情報としても良いし、多値として多段階の信頼度情報としてもよい。   As described above, there are many methods of obtaining reliability information by the distance measurement method, and other methods than the method described here are conceivable, but the method of calculating reliability information is not limited here. The reliability information may be binary information indicating whether the calculated distance information is reliable or not, or may be multi-valued and multi-level reliability information.

また、算出した複数種類の信頼度情報を統合して一つの信頼度情報として出力しても良い。統合の際は、それぞれの信頼度情報算出に用いた情報が距離計測への与える影響の大きさを考慮して合成することが望ましい。例えば、演算領域中を黒潰れもしくは白飛びの一方が全て占めていた場合は、アクティブ方式を含むどの距離計測方式においても距離計測できないためこの信頼度情報の重みを大きくして加重平均により信頼度情報の統合を行う。位相差方式においては、次にコントラストの低下や周期被写体が距離計測における誤差要因として影響が大きい。DFD方式においては、撮影タイミングの違いによる位置ずれの影響が黒潰れ・白飛びの次に影響が高く、その後に距離計測範囲やコントラストの影響が続く。   Further, the calculated plurality of types of reliability information may be integrated and output as one reliability information. At the time of integration, it is desirable to combine the information used to calculate the reliability information in consideration of the magnitude of the influence on the distance measurement. For example, if one of the black areas or white areas occupies the entire calculation area, the distance cannot be measured by any of the distance measuring methods including the active method, so that the weight of the reliability information is increased and the reliability is calculated by the weighted average. Integrate information. In the phase difference method, the next decrease in contrast and the periodic subject have a great influence as error factors in distance measurement. In the DFD method, the influence of the positional shift due to the difference in the shooting timing has the next largest influence after the blackout and the whiteout, and the influence of the distance measurement range and the contrast continues thereafter.

次に、各距離計測方式で算出した距離情報および信頼度情報を用いた距離補正に関して説明する。距離補正処理の基本的な流れは図7に示すフローチャートと同様である。しかしながら、補正値算出ステップS145の動作が異なる。   Next, the distance correction using the distance information and the reliability information calculated by each distance measuring method will be described. The basic flow of the distance correction processing is the same as the flowchart shown in FIG. 7. However, the operation of the correction value calculation step S145 is different.

第一の実施形態では、DFD方式の距離画像DDFDの中で選択した領域RDにおいて、代表デフォーカス量を算出する際に平均値や中央値を用いた。本実施形態では、数式9のように距離画像DDFDの画素ごとに算出した信頼度情報CMDFDを重み係数としたデフォーカス量DHの加重平均値を代表デフォーカス量DHrepとして算出する。

Figure 0006700818
In the first embodiment, the average value or the median value is used when calculating the representative defocus amount in the region RD i selected in the DFD range image D DFD . In the present embodiment, the weighted average value of the defocus amounts DH using the reliability information CM DFD calculated for each pixel of the distance image D DFD as a weighting coefficient as in Expression 9 is calculated as the representative defocus amount DH rep .
Figure 0006700818

信頼度情報CMDFDが二値の情報の場合は、信頼できるデフォーカス量のみを用いて代表デフォーカス量DHrepを算出することになり、信頼度情報CMDFDが多値の情報の場合は、加重平均により代表デフォーカス量DHrepを算出することになる。この代表デフォーカス量DHrepを数式7に代入することで補正値DCを算出する。 When the reliability information CM DFD is binary information, the representative defocus amount DH rep is calculated using only the reliable defocus amount. When the reliability information CM DFD is multivalued information, The representative defocus amount DH rep is calculated by the weighted average. The correction value DC is calculated by substituting the representative defocus amount DH rep into Expression 7.

これにより、DFD方式で演算された距離画像DDFDにおいて距離計測誤差が大きいと推測される値の影響を抑えることができ、より正確な代表デフォーカス量を算出するこ
とでより正解な補正値の算出が可能となる。
As a result, it is possible to suppress the influence of a value that is estimated to have a large distance measurement error in the distance image D DFD calculated by the DFD method, and it is possible to calculate a more accurate representative defocus amount to obtain a correct correction value. Calculation is possible.

数式9を用いた補正ではDFD方式の信頼度情報のみを用いて補正を行ったが、位相差方式の信頼度情報も使用する方法を以下に説明する。   In the correction using Expression 9, the correction is performed using only the reliability information of the DFD method, but a method of using the reliability information of the phase difference method will be described below.

まず、位相差方式により計測された距離画像において画素RPの信頼度情報CMPDを取得し、同様にDFD方式により計測された距離画像からブロック領域RPに対応する領域RDの信頼度情報CMDFDを取得する。DFD方式の距離画像DDFDでは、領域RD内でデフォーカス量も信頼度情報CMDFDも一定ではない。そこで、領域RDの信頼度情報の平均値を代表信頼度情報CMDFD_REPとして算出する(CM
FD_REP=Average(CMDFD))。このDFD方式の代表信頼度情報CMDFD_REPと位相差方式の信頼度情報CMPDを用いて数式10により、位相差方式
の信頼度情報の比率βを算出する。

Figure 0006700818
First, the reliability information CM PD of the pixel RP i in the distance image measured by the phase difference method is acquired, and the reliability information of the area RD i corresponding to the block area RP i is also obtained from the distance image measured by the DFD method. Get CM DFD . In the range image D DFD of the DFD method, the defocus amount and the reliability information CM DFD are neither constant in the region RD i . Therefore, the average value of the reliability information of the region RD i is calculated as the representative reliability information CM DFD_REP (CM D
FD_REP = Average (CM DFD )). Using the representative reliability information CM DFD_REP of the DFD method and the reliability information CM PD of the phase difference method, the ratio β of the reliability information of the phase difference method is calculated by Expression 10.
Figure 0006700818

位相差方式の信頼度情報の比率βは、最大値が1で最小値が0であり、位相差方式とDFD方式の信頼度情報の比率の和が1となるように規格化した値である。   The ratio β of the reliability information of the phase difference method has a maximum value of 1 and a minimum value of 0, and is a value normalized so that the sum of the ratios of the reliability information of the phase difference method and the DFD method is 1. .

本実施形態では、信頼度情報の比率βと安定度αを用い、数式7を変形した数式11によってデフォーカス量補正値DCを算出する。ただし、安定度αは数式7と同様に1≧α>0.5を満たすものとする。

Figure 0006700818
ここで、距離計測方式の安定度αは被写体とは無関係に決定されるもので主に撮像装置側(距離計測装置側)で決定される値であり、信頼度情報の比率βは被写体側に依存して決定される値である。 In the present embodiment, the defocus amount correction value DC is calculated by Expression 11 which is a modification of Expression 7 using the reliability information ratio β and the stability α. However, it is assumed that the stability α satisfies 1≧α>0.5 similarly to the mathematical expression 7.
Figure 0006700818
Here, the stability α of the distance measurement method is determined irrespective of the subject and is mainly a value determined by the imaging device side (distance measuring device side), and the reliability information ratio β is determined by the subject side. It is a value that is determined depending on.

また、信頼度情報の比率βのみを用いた数式12でデフォーカス量補正値DCを算出することもできる。

Figure 0006700818
Further, the defocus amount correction value DC can be calculated by Expression 12 using only the ratio β of the reliability information.
Figure 0006700818

本実施形態では、位相差方式とDFD方式の距離計測結果と信頼度情報を用いる場合を例に示したが、他の距離計測方式でも各方式の特徴に応じた信頼度情報を用いて同様の補正を行うことが可能であり、距離計測方式を限定するものではない。   In the present embodiment, the case where the distance measurement result and the reliability information of the phase difference method and the DFD method are used has been described as an example, but other distance measurement methods also use the reliability information according to the characteristics of each method and the same. It is possible to make a correction, and the distance measuring method is not limited.

本実施形態によれば、被写体に依存しない距離計測方式の安定度に加え、被写体に依存した距離計測の信頼度情報を用いることで、より正確なデフォーカス量の補正値を算出す
ることが可能となる。これにより、より正確で安定度が高く高解像度な距離情報を生成することが可能となる。
According to the present embodiment, in addition to the stability of the distance measurement method that does not depend on the subject, by using the reliability information of the distance measurement that depends on the subject, a more accurate correction value of the defocus amount can be calculated. Becomes As a result, it is possible to generate more accurate distance information with high stability and high resolution.

<変形例>
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない距離計測装置として実施することもできる。また、距離計測方法として実施することもできるし、当該距離計測方法を距離計測装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Modification>
It should be noted that the description of each embodiment is an exemplification for explaining the present invention, and the present invention can be implemented by being appropriately modified or combined without departing from the spirit of the invention. For example, the present invention can be implemented as an imaging device including at least a part of the above processing, or can be implemented as a distance measuring device that does not have an imaging unit. Further, it may be implemented as a distance measuring method, or may be implemented as an image processing program that causes the distance measuring device to execute the distance measuring method. The above processes and means can be freely combined and implemented as long as no technical contradiction occurs.

上記の説明では、高解像度の距離画像の各画素における距離値を補正することによって、高解像度かつ高安定度の距離画像を生成している。しかしながら、高解像度の距離画像と低解像度の距離画像を統合して高解像度かつ高安定度の距離画像を生成すればよく、例えば、高解像度および低解像度の距離画像は保持したまま、新しい距離画像を生成しても構わない。すなわち、高解像度かつ高安定度の距離画像を生成する方法は、既存の距離画像を補正する処理に限られない。   In the above description, by correcting the distance value in each pixel of the high-resolution distance image, a high-resolution distance image with high stability is generated. However, the high-resolution range image and the low-resolution range image may be integrated to generate a high-resolution and high-stability range image. For example, the high-resolution range image and the low-resolution range image may be retained and a new range image may be retained. May be generated. That is, the method of generating a high-resolution and highly stable range image is not limited to the process of correcting an existing range image.

また、実施形態で説明した各要素技術は、任意に組み合わせてもよい。   In addition, the element technologies described in the embodiments may be combined arbitrarily.

本発明を異なる距離計測装置で取得された距離情報を統合する画像処理装置として実施する際は、異なる距離情報画像間の位置合わせ処理を追加する必要がある。位置合わせを行った二つの距離情報画像に対して、本発明の距離補正手段を実行することにより高安定かつ高解像度な距離情報画像を生成することができる。   When the present invention is implemented as an image processing device that integrates distance information acquired by different distance measuring devices, it is necessary to add alignment processing between different distance information images. By executing the distance correction means of the present invention for the two distance information images that have been aligned, a highly stable and high resolution distance information image can be generated.

<実装例>
上述した本発明の距離計測技術は、例えば、デジタルカメラやデジタルカムコーダなどの撮像装置、あるいは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明を適用することができる。
<Implementation example>
The distance measuring technique of the present invention described above can be preferably applied to, for example, an image pickup apparatus such as a digital camera or a digital camcorder, or an image processing apparatus or a computer that performs image processing on image data obtained by the image pickup apparatus. Further, the present invention can be applied to various electronic devices (including mobile phones, smartphones, slate type terminals, personal computers) that incorporate such an imaging device or image processing device.

また、実施形態の説明では、撮像装置本体に距離計測の機能を組み込んだ構成を示したが、距離計測は撮像装置以外で行ってもよい。たとえば、撮像装置を有するコンピュータに距離計測の機能を組み込み、撮像装置で撮影した画像をコンピュータが取得して、距離の算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに距離計測の機能を組み込み、当該コンピュータがネットワークを介して複数枚の画像を取得し、距離計測を行うようにしてもよい。   In the description of the embodiments, the configuration in which the distance measurement function is incorporated in the image pickup apparatus main body has been described, but the distance measurement may be performed by a device other than the image pickup device. For example, the distance measurement function may be incorporated in a computer having an imaging device, and the computer may acquire an image captured by the imaging device to calculate the distance. Further, it is also possible to incorporate a distance measurement function into a computer that can access the network by wire or wirelessly, and the computer can acquire a plurality of images via the network and measure the distance.

得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ボケ効果のエミュレーションなどの各種画像処理に利用することができる。   The obtained distance information can be used for various image processing such as image area division, stereoscopic image and depth image generation, and emulation of blur effect.

なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、撮像装置や画像処理装置に内蔵されたコンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明の目的を達成するための各種処理を実現してもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。   It should be noted that the specific implementation on the device may be either software (program) implementation or hardware implementation. For example, by storing a program in a memory of a computer (microcomputer, FPGA, etc.) built in an imaging device or an image processing device and causing the computer to execute the program, various processes for achieving the object of the present invention are realized. You may. It is also preferable to provide a dedicated processor such as an ASIC that realizes all or part of the processing of the present invention by a logic circuit.

この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体はいずれも本発明の範疇に含まれる。   For this purpose, the program may be stored in the computer through a network or from various types of recording media that can serve as the storage device (that is, a computer-readable recording medium that holds data non-temporarily). Provided to. Therefore, the computer (including devices such as CPU and MPU), the method, the program (including program code and program product), and the computer-readable recording medium holding the program non-temporarily are all included in the present invention. It is included in the category of.

14:距離計測部
143:代表値決定部
144:補正値決定部
147:生成部
14: distance measurement unit 143: representative value determination unit 144: correction value determination unit 147: generation unit

Claims (19)

第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理装置であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定手段と、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定手段と、
記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成手段と、
を備える、画像処理装置。
An image processing device for generating a third distance image based on a second distance image having a lower resolution than the first distance image and the first distance image,
Representative value determining means for selecting a region of the first distance image corresponding to the target pixel of the second distance image, and determining a representative value of distance values of the first distance image in the region.
Correction value determining means for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image at the target pixel;
A generating means for generating a third range image having a distance value corrected as a pixel value based on the distance value of each pixel before Symbol region on the correction value,
An image processing apparatus comprising:
前記補正値決定手段は、前記第一の距離画像の距離計測の安定度と前記第二の距離画像の距離計測の安定度との比に基づく重み係数を用いて前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均を求め、当該加重平均から前記代表値を減算した値を前記補正値として決定する、
請求項1に記載の画像処理装置。
The correction value determining means uses the weighting factor based on the ratio of the stability of distance measurement of the first distance image and the stability of distance measurement of the second distance image to the representative value and the target pixel. Obtaining a weighted average with the distance value of the second distance image, the value obtained by subtracting the representative value from the weighted average is determined as the correction value,
The image processing apparatus according to claim 1.
前記補正値決定手段は、前記領域内の前記第一の距離画像の各画素における距離値の代表信頼度と前記第二の距離画像の前記対象画素における距離値の信頼度との比に基づく重み係数を用いて前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均を求め、当該加重平均から前記代表値を減算した値を前記補正値として決定する、
請求項1または2に記載の画像処理装置。
The correction value determining means is a weight based on a ratio of a representative reliability of a distance value in each pixel of the first distance image in the area and a reliability of a distance value in the target pixel of the second distance image. A weighted average of the representative value and the distance value of the second distance image in the target pixel is obtained using a coefficient, and the value obtained by subtracting the representative value from the weighted average is determined as the correction value.
The image processing apparatus according to claim 1.
前記代表値決定手段は、前記領域内の前記第一の距離画像の距離値の中央値または平均値を前記代表値として決定する、
請求項1から3のいずれか1項に記載の画像処理装置。
The representative value determining means determines a median value or an average value of the distance values of the first distance image in the region as the representative value,
The image processing apparatus according to claim 1.
前記代表値決定手段は、前記第一の距離画像の各画素における距離値の信頼度も用いて前記代表値を決定する、
請求項1から4のいずれか1項に記載の画像処理装置。
The representative value determining means determines the representative value also using reliability of a distance value in each pixel of the first distance image,
The image processing device according to claim 1.
前記代表値決定手段は、前記第一の距離画像の各画素における距離値の信頼度を重み係数とする、前記領域内の前記第一の距離画像の距離値の加重平均値を、前記代表値として決定する、
請求項5に記載の画像処理装置。
The representative value determination means uses the reliability of the distance value in each pixel of the first distance image as a weighting coefficient, and the weighted average value of the distance values of the first distance image in the region is the representative value. Decide as,
The image processing apparatus according to claim 5.
前記信頼度は、被写体像のコントラスト、被写体像の輝度値、被写体の周期性情報、被写体および撮像時の動き情報、距離計測範囲情報の少なくとも何れか一つを用いて決定される、
請求項3、5、6のいずれか1項に記載の画像処理装置。
The reliability is determined using at least one of the contrast of the subject image, the brightness value of the subject image, the periodicity information of the subject, the movement information at the time of the subject and imaging, and the distance measurement range information.
The image processing apparatus according to any one of claims 3, 5, and 6.
前記生成手段は、記領域内の各画素の距離値に前記補正値を加算した値を距離値を画素値として有する第三の距離画像を生成する、
請求項1から7のいずれか1項に記載の画像処理装置。
It said generating means generates a third distance image has a value obtained by adding the correction value to the distance value of each pixel before Symbol region distance value as the pixel value,
The image processing apparatus according to claim 1.
前記生成手段は、記領域内の各画素の距離値に、当該領域に対して決定される補正値と当該領域に隣接する隣接領域に対して決定される補正値との加重平均値を加算した値を距離値を画素値として有する第三の距離画像を生成する、
請求項1から7のいずれか1項に記載の画像処理装置。
Said generating means, the distance value of each pixel before Symbol area, adding the weighted average value of the correction value determined for the adjacent region adjacent to the correction value and the area determined for the region Generate a third distance image having the distance value as the pixel value,
The image processing apparatus according to claim 1.
前記生成手段は、前記第三の距離画像の、前記第二の距離画像の隣接する画素に対応する隣接する領域の境界に対して平滑化処理を施す、
請求項1から9のいずれか1項に記載の画像処理装置。
The generation means performs a smoothing process on a boundary of an adjacent region of the third distance image corresponding to an adjacent pixel of the second distance image,
The image processing apparatus according to claim 1.
前記第一の距離画像と前記第二の距離画像は、同じ撮像面から取得される、
請求項1から10のいずれか1項に記載の画像処理装置。
The first distance image and the second distance image are acquired from the same imaging surface,
The image processing device according to claim 1.
前記第一の距離画像は、異なる撮影条件で撮影された複数の画像から、ぼけの違いに基づいて距離が検出された距離画像である、
請求項1から11のいずれか1項に記載の画像処理装置。
The first distance image is a distance image in which a distance is detected based on a difference in blur from a plurality of images photographed under different photographing conditions,
The image processing apparatus according to claim 1.
前記第二の距離画像は、視差のある複数の画像の位相差に基づいて距離が検出された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second distance image is a distance image whose distance is detected based on the phase difference of a plurality of images with parallax,
The image processing device according to claim 1.
前記第二の距離画像は、Time of Flight方式により取得された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second range image is a range image acquired by the Time of Flight method.
The image processing device according to claim 1.
前記第二の距離画像は、レーザースキャン方式により取得された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second distance image is a distance image acquired by a laser scanning method,
The image processing device according to claim 1.
前記第一の距離画像と前記第二の距離画像が同一視点の画像となるように、前記第一の距離画像と前記第二の距離画像の少なくとも一方を変形する変形手段をさらに備える、
請求項1から15のいずれか1項に記載の画像処理装置。
In order that the first distance image and the second distance image are images of the same viewpoint, a deforming unit that deforms at least one of the first distance image and the second distance image is further provided.
The image processing device according to claim 1.
撮像素子と、
前記撮像素子により撮影された画像から、前記第一の距離画像および前記第二の距離画像を生成する距離画像生成手段と、
請求項1から16のいずれか1項に記載の画像処理装置と、
を備える、撮像装置。
An image sensor,
Distance image generating means for generating the first distance image and the second distance image from the image captured by the image sensor,
An image processing apparatus according to any one of claims 1 to 16,
An imaging device comprising:
第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理方法であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定ステップと、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定ステップと、
前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成ステップと、
を含む、画像処理方法。
An image processing method for generating a third distance image based on a second distance image having a lower resolution than the first distance image and the first distance image,
A representative value determination step of selecting a region of the first distance image corresponding to the target pixel of the second distance image, and determining a representative value of distance values of the first distance image in the region.
A correction value determination step of determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel,
A generation step of generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the area based on the correction value,
An image processing method including:
請求項18に記載の方法の各ステップをコンピュータに実行させるプログラム。   A program that causes a computer to execute each step of the method according to claim 18.
JP2016019240A 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method Active JP6700818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016019240A JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016019240A JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Publications (2)

Publication Number Publication Date
JP2017138199A JP2017138199A (en) 2017-08-10
JP6700818B2 true JP6700818B2 (en) 2020-05-27

Family

ID=59566756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016019240A Active JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Country Status (1)

Country Link
JP (1) JP6700818B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7111497B2 (en) * 2018-04-17 2022-08-02 株式会社東芝 Image processing device, image processing method, distance measurement device, and distance measurement system
JP7107191B2 (en) * 2018-11-28 2022-07-27 株式会社Jvcケンウッド Imaging control device, imaging device, and imaging control program
JP7255513B2 (en) * 2020-02-18 2023-04-11 株式会社デンソー OBJECT DETECTION DEVICE, LIGHT SENSOR, AND CONTROL METHOD OF OBJECT DETECTION DEVICE
JP7113327B1 (en) 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448617B2 (en) * 2008-08-19 2014-03-19 パナソニック株式会社 Distance estimation device, distance estimation method, program, integrated circuit, and camera
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device

Also Published As

Publication number Publication date
JP2017138199A (en) 2017-08-10

Similar Documents

Publication Publication Date Title
RU2585235C2 (en) Image capture devices
JP5825817B2 (en) Solid-state imaging device and imaging apparatus
JP6516429B2 (en) Distance measuring device, imaging device, and distance measuring method
JP2012049773A (en) Imaging apparatus and method, and program
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
JP6700818B2 (en) Image processing device, imaging device, and image processing method
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
US9060119B2 (en) Image capturing apparatus and control method for image capturing apparatus
US10187564B2 (en) Focus adjustment apparatus, imaging apparatus, focus adjustment method, and recording medium storing a focus adjustment program thereon
US9602716B2 (en) Focus-detection device, method for controlling the same, and image capture apparatus
US20220082370A1 (en) Electronic apparatus, control method thereof and computer readable storage medium
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP2015031743A (en) Exposure control device, control method for the same, and control program, and imaging device
JP6555990B2 (en) Distance measuring device, imaging device, and distance measuring method
JP6346484B2 (en) Image processing apparatus and control method thereof
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2021127998A (en) Distance information acquisition device and distance information acquisition method
KR101940481B1 (en) Camera module and method for driving the same
JP2016099432A (en) Focus detection device, and method, program and storage medium
US20180084201A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP6016567B2 (en) Correlation calculation device, imaging device, correlation calculation method, program, and storage medium
JP2022012301A (en) Information processing apparatus, imaging apparatus, control method, and program
JP5981898B2 (en) Imaging apparatus and control method thereof
JP2016009024A (en) Focus detector, control method of the same, and imaging apparatus
JP2015204579A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151