JP2017138199A - Image processing device, imaging device, and image processing method - Google Patents

Image processing device, imaging device, and image processing method Download PDF

Info

Publication number
JP2017138199A
JP2017138199A JP2016019240A JP2016019240A JP2017138199A JP 2017138199 A JP2017138199 A JP 2017138199A JP 2016019240 A JP2016019240 A JP 2016019240A JP 2016019240 A JP2016019240 A JP 2016019240A JP 2017138199 A JP2017138199 A JP 2017138199A
Authority
JP
Japan
Prior art keywords
distance
image
value
distance image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016019240A
Other languages
Japanese (ja)
Other versions
JP6700818B2 (en
Inventor
知 小松
Satoru Komatsu
知 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016019240A priority Critical patent/JP6700818B2/en
Publication of JP2017138199A publication Critical patent/JP2017138199A/en
Application granted granted Critical
Publication of JP6700818B2 publication Critical patent/JP6700818B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a distance image having high stability and high resolution from a distance image having different resolution.SOLUTION: An image processing device for generating a third distance image on the basis of a first distance image and a second distance image having resolution lower than that of the first distance image includes: representative value determination means for selecting an area of the first distance image corresponding to an object pixel of the second distance image, and determining a representative value of distance values of the first distance image in the area; correction value determination means for determining a correction value on the basis of a weighted average between the representative value and a distance value of the second distance image in the object pixel; and generation means for generating a third distance image with a correction value obtained by correcting the distance value of each pixel in the area of the second distance image on the basis of the correction value as a pixel value.SELECTED DRAWING: Figure 7

Description

本発明は画像処理装置に関連し、特に、異なる解像度の距離画像の合成により高解像度な距離画像を生成する技術に関する。   The present invention relates to an image processing apparatus, and more particularly to a technique for generating a high-resolution distance image by combining distance images with different resolutions.

従来、撮像装置によって取得された画像から撮影シーンの距離を取得する手法としてDepth from Defocus(DFD)法が提案されている。DFD法では撮像光学系の撮影パラメータを制御することでぼけの異なる複数の画像を取得し、互いのぼけの大きさや相関量を算出する。このぼけの大きさや相関量は画像中の被写体の距離に応じて変化するため、その関係を用いて距離を算出できる。DFD法による距離計測は、計測に利用する画像の解像度で距離画像を生成することができ、同じ視点からの鑑賞画像と距離画像を生成することができる。   Conventionally, a depth from focus (DFD) method has been proposed as a method for acquiring the distance of a shooting scene from an image acquired by an imaging device. In the DFD method, a plurality of images with different blurs are acquired by controlling shooting parameters of the imaging optical system, and the magnitude and correlation amount of each other are calculated. Since the size of the blur and the correlation amount change according to the distance of the subject in the image, the distance can be calculated using the relationship. Distance measurement by the DFD method can generate a distance image with the resolution of an image used for measurement, and can generate an appreciation image and a distance image from the same viewpoint.

撮像装置におけるオートフォーカス(AF)技術で用いられる位相差方式を用い、撮像素子中に距離計測用の画素を配置することで距離画像を取得する技術が提案されている。距離計測専用の画素は撮像素子中に多く配置できないので、得られる距離画像の解像度は低い(画素数が少ない)。   A technique for acquiring a distance image by using a phase difference method used in an autofocus (AF) technique in an imaging apparatus and arranging pixels for distance measurement in an imaging element has been proposed. Since many pixels dedicated to distance measurement cannot be arranged in the image sensor, the resolution of the obtained distance image is low (the number of pixels is small).

また、Time of Flight(TOF)法などのアクティブな距離計測技術も多数提案されている。アクティブ方式は、コントラストの低い被写体であっても安定した距離計測が可能となるが、生成される距離画像の解像度は低い(画素数が少ない)。   Many active distance measurement techniques such as Time of Flight (TOF) method have also been proposed. The active method enables stable distance measurement even for a low-contrast subject, but the resolution of the generated distance image is low (the number of pixels is small).

このような異なる距離計測方式を用いた距離計測方法として、特許文献1がある。特許文献1では、位相差方式で距離計測を行った結果とDFD方式で距離計測を行った結果から、信頼度の高いデフォーカス量あるいは被写体距離を選択することで異なる距離計測方式の距離画像の合成を行う提案がなされている。   As a distance measuring method using such a different distance measuring method, there is Patent Document 1. In Patent Document 1, distance images of different distance measurement methods are selected by selecting a highly reliable defocus amount or subject distance from the results of distance measurement using the phase difference method and the results of distance measurement using the DFD method. Proposals have been made to synthesize.

また、特許文献2では、TOF方式の距離計測結果を初期値として位相差方式による距離計測の高速化を行う提案がなされている。さらに、位相差方式の距離計測結果をもとにTOF方式の不定性の回避を行う提案もなされている。   Further, in Patent Document 2, a proposal has been made to increase the speed of distance measurement by the phase difference method using the distance measurement result of the TOF method as an initial value. Furthermore, proposals have been made to avoid indefiniteness of the TOF method based on the distance measurement result of the phase difference method.

特許文献3では、ステレオ方式とTOF方式を用いてステレオ方式では距離計測できなかった領域をTOF方式による距離計測結果を用いることが提案されている。   In Patent Document 3, it is proposed to use a distance measurement result by the TOF method for an area that cannot be measured by the stereo method using the stereo method and the TOF method.

特開2014−63142号公報JP 2014-63142 A 特開2008−8687号公報JP 2008-8687 A 特開2008−116309号公報JP 2008-116309 A

特許文献1のように、解像度の異なる距離画像の合成を行う際に、領域ごとに距離計測方式の切り替えを行うと、低解像度の距離画像の影響により、距離値がブロック状に変化する領域が生じる可能性がある。   When synthesizing distance images with different resolutions as in Patent Document 1, if the distance measurement method is switched for each area, an area in which the distance value changes in a block shape due to the influence of the low-resolution distance image. It can happen.

特許文献2では、位相差方式の距離計測の高速化のためにTOF方式を用いているが、
最終的な距離計測性能は位相差方式に依存するため、コントラストの低い被写体では距離計測が安定しない可能性がある。
In Patent Document 2, the TOF method is used for speeding up the distance measurement of the phase difference method.
Since the final distance measurement performance depends on the phase difference method, the distance measurement may not be stable for a subject with low contrast.

特許文献3では、ステレオ方式では距離計測できなかった領域をTOF方式による距離計測結果で補っており、距離計測方式を切り替えて統合している。よって、ステレオ方式による高解像度な距離画像の中で計測できなかった領域は、解像度の低いTOF方式の距離計測結果を用いることにより一様な距離となる可能性がある。   In Patent Document 3, an area that cannot be measured by the stereo method is supplemented by a distance measurement result by the TOF method, and the distance measurement method is switched and integrated. Therefore, an area that could not be measured in the high-resolution distance image by the stereo method may become a uniform distance by using the distance measurement result of the low-resolution TOF method.

このようにいずれの文献においても、異なる測距方式を組み合わせて高精度かつ高解像の距離画像を得るという効果を十分に達成できているとはいえない。   As described above, in any document, it cannot be said that the effect of obtaining a high-accuracy and high-resolution range image by combining different ranging methods is not sufficiently achieved.

本発明は、異なる距離計測方式により得られた異なる解像度の距離画像から、精度と解像度が両立した距離画像を生成することを目的とする。   An object of the present invention is to generate a distance image having both accuracy and resolution from distance images of different resolutions obtained by different distance measurement methods.

上記課題を解決するために、本発明の第一の態様は、第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理装置であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定手段と、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定手段と、
前記第二の距離画像の前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成手段と、
を備える、ことを特徴とする。
In order to solve the above-mentioned problem, a first aspect of the present invention generates a third distance image based on a first distance image and a second distance image having a lower resolution than the first distance image. An image processing apparatus that
Representative value determining means for selecting a region of the first distance image corresponding to the target pixel of the second distance image and determining a representative value of the distance value of the first distance image in the region;
Correction value determining means for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel;
Generating means for generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the region of the second distance image based on the correction value as a pixel value;
It is characterized by comprising.

本発明の第二の態様は、第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理方法であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定ステップと、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定ステップと、
前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成ステップと、
を含む、ことを特徴とする。
A second aspect of the present invention is an image processing method for generating a third distance image based on a first distance image and a second distance image having a lower resolution than the first distance image,
A representative value determining step of selecting a region of the first distance image corresponding to the target pixel of the second distance image and determining a representative value of the distance value of the first distance image in the region;
A correction value determining step for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel;
Generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the region based on the correction value as a pixel value;
It is characterized by including.

本発明によれば、異なる距離計測方式により得られた異なる解像度の距離画像から、精度と解像度の両立した距離画像を生成可能である。   According to the present invention, it is possible to generate a distance image having both accuracy and resolution from distance images having different resolutions obtained by different distance measurement methods.

第一の実施形態に係る撮像装置の構成を示す図。1 is a diagram illustrating a configuration of an imaging apparatus according to a first embodiment. 第一の実施形態における撮像素子における画素配置の説明図。Explanatory drawing of the pixel arrangement | positioning in the image pick-up element in 1st embodiment. 第一の実施形態に係る撮像用画素の構成を示す図。The figure which shows the structure of the imaging pixel which concerns on 1st embodiment. 第一の実施形態に係る距離計測用画素の構成を示す図。The figure which shows the structure of the pixel for distance measurement which concerns on 1st embodiment. 第一の実施形態における撮影処理の流れを示すフローチャート。5 is a flowchart showing a flow of imaging processing in the first embodiment. 第一の実施形態におけるDFD方式の距離計測を説明する図。The figure explaining the distance measurement of the DFD system in 1st embodiment. 第一の実施形態における距離補正処理の流れを示すフローチャート。The flowchart which shows the flow of the distance correction process in 1st embodiment. 第一の実施形態における距離補正処理を説明する図。The figure explaining the distance correction process in 1st embodiment. 第一の実施形態における変形例に係る撮像素子の構成を示す図。The figure which shows the structure of the image pick-up element which concerns on the modification in 1st embodiment. 第一の実施形態における変形例に係る撮像装置の構成を示す図。The figure which shows the structure of the imaging device which concerns on the modification in 1st embodiment. 第二の実施形態における距離計測の流れを示すフローチャート。The flowchart which shows the flow of distance measurement in 2nd embodiment.

(第一の実施形態)
<システム構成>
図1(A)は、第一実施形態に係る撮像装置のシステム構成図である。撮像装置1は、撮像光学系10、撮像素子11、制御部12、信号処理部13、距離計測部14、メモリ15、入力部16、表示部17、記憶部18を有する。
(First embodiment)
<System configuration>
FIG. 1A is a system configuration diagram of the imaging apparatus according to the first embodiment. The imaging apparatus 1 includes an imaging optical system 10, an imaging element 11, a control unit 12, a signal processing unit 13, a distance measurement unit 14, a memory 15, an input unit 16, a display unit 17, and a storage unit 18.

撮像光学系10は、複数のレンズから構成され、入射する光を撮像素子11の像面上に結像させる光学系である。撮像光学系10としては可変焦点の光学系が用いられており、制御部12のオートフォーカス機能により自動焦点合わせが可能である。   The imaging optical system 10 is an optical system that includes a plurality of lenses and forms incident light on the image plane of the imaging element 11. As the imaging optical system 10, a variable focus optical system is used, and automatic focusing is possible by the autofocus function of the control unit 12.

制御部12は、撮像装置1の各部を制御する機能部である。制御部12の機能としては、例えば、オートフォーカス(AF)による自動焦点合わせ、フォーカス位置の変更、F値(絞り)の変更、画像の取り込み、シャッターやフラッシュ(いずれも不図示)の制御、入力部16や表示部17や記憶部18の制御などがある。   The control unit 12 is a functional unit that controls each unit of the imaging apparatus 1. Functions of the control unit 12 include, for example, automatic focusing by autofocus (AF), change of focus position, change of F value (aperture), image capture, control of shutter and flash (both not shown), input There are control of the unit 16, the display unit 17, and the storage unit 18.

信号処理部13は、撮像素子11から出力された信号に対して処理を行う機能部である。具体的には、アナログ信号のA/D変換やノイズ除去、デモザイキング、輝度信号変換、収差補正、ホワイトバランス調整、色補正などを行う。信号処理部13から出力されるデジタル画像データは一時的にメモリ15に蓄積された後、表示部17への表示、記憶部18への記録(保存)、距離計測部14などに出力され、所望の処理が行われる。   The signal processing unit 13 is a functional unit that performs processing on a signal output from the image sensor 11. Specifically, analog signal A / D conversion, noise removal, demosaicing, luminance signal conversion, aberration correction, white balance adjustment, color correction, and the like are performed. The digital image data output from the signal processing unit 13 is temporarily stored in the memory 15, and then displayed on the display unit 17, recorded (stored) in the storage unit 18, and output to the distance measurement unit 14 and the like. Is performed.

距離計測部14は、画像中の被写体までの奥行き方向の距離を算出する機能である。距離計測部14は、図1(B)に示すように、位相差方式距離画像生成部141、DFD方式距離画像生成部142、代表値決定部(代表値決定手段)143、補正値決定部(補正値決定手段)144、生成部(生成手段)147を含む。生成部147は、補正部145と平滑化処理部146を含む。距離計測部14は、論理回路により構成してもよいし、コンピュータ(プロセッサ)とプログラムとにより構成してもよいし、これらの組み合わせにより構成してもよい。距離計測部14の詳細については後述する。   The distance measuring unit 14 is a function that calculates the distance in the depth direction to the subject in the image. As shown in FIG. 1B, the distance measuring unit 14 includes a phase difference type distance image generating unit 141, a DFD type distance image generating unit 142, a representative value determining unit (representative value determining means) 143, a correction value determining unit ( Correction value determination means) 144 and generation unit (generation means) 147. The generation unit 147 includes a correction unit 145 and a smoothing processing unit 146. The distance measuring unit 14 may be configured by a logic circuit, may be configured by a computer (processor) and a program, or may be configured by a combination thereof. Details of the distance measuring unit 14 will be described later.

入力部16は、ユーザが操作し、撮像装置1に対して情報入力や設定変更を行うためのインターフェイスである。例えばダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。   The input unit 16 is an interface that is operated by the user to input information and change settings on the imaging apparatus 1. For example, dials, buttons, switches, touch panels, etc. can be used.

表示部17は、液晶ディスプレイや有機ELディスプレイなどで構成される表示手段である。表示部17は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報の表示などに利用される。   The display unit 17 is a display unit configured by a liquid crystal display, an organic EL display, or the like. The display unit 17 is used for composition confirmation at the time of photographing, browsing of photographed / recorded images, display of various setting screens and message information, and the like.

記憶部18は、撮影された画像データや、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部18としては、高速に読み書きでき、且つ、大容量の記憶媒体を用いることが好ましい。例えばフラッシュメモリなどを好適に用いることができる。   The storage unit 18 is a non-volatile storage medium that stores captured image data, parameter data used by the imaging apparatus 1, and the like. The storage unit 18 is preferably a high-capacity storage medium that can read and write at high speed. For example, a flash memory can be suitably used.

<撮像素子の構成>
図2は、撮像素子11の構成を説明する図である。撮像素子11の、1つの撮影用画素21は2行2列のベイヤー配列の画素群からなる。さらにこのベイヤー配列の中に、距離計測用画素22H,22Vが規則的に疎に配置される。図2では、10行10列の正方領
域に対して、1組の距離計測用画素が配置されている。ブロックごとに互い違いに、水平方向に瞳分割した距離計測用画素22Hと垂直方向に瞳分割した距離計測用画素22Vが配置される。
<Configuration of image sensor>
FIG. 2 is a diagram illustrating the configuration of the image sensor 11. One imaging pixel 21 of the image sensor 11 is composed of a 2 × 2 Bayer array pixel group. Further, the distance measurement pixels 22H and 22V are regularly and sparsely arranged in the Bayer array. In FIG. 2, one set of distance measurement pixels is arranged for a 10 × 10 square area. The distance measurement pixels 22H divided in the horizontal direction and the distance measurement pixels 22V divided in the vertical direction are alternately arranged for each block.

図3(A)、図3(B)は撮影用画素21を説明する図である。図3(A)に示すように各撮影用画素21は、2行2列の4画素を一組からなる。撮影用画素21は、対角方向の画素にG(緑色)の分光感度を有する画素が配置され、残りの2画素にR(赤色)とB(青色)の分光感度を有数する画素が1画素ずつ配置されたベイヤー配列を有する。   FIGS. 3A and 3B are diagrams for explaining the imaging pixel 21. As shown in FIG. 3A, each photographing pixel 21 is composed of a set of 4 pixels in 2 rows and 2 columns. The photographing pixel 21 is a pixel having G (green) spectral sensitivity as a diagonal pixel, and the remaining two pixels having one pixel having R (red) and B (blue) spectral sensitivity. It has a Bayer arrangement arranged one by one.

図3(B)は、図3(A)におけるS−S’断面図を表す。各画素21の上部にはマイクロレンズMLが配置され、その下部にカラーフィルタCLが配置される。カラーフィルタは各画素21においてRGBのそれぞれの波長を透過するフィルタであり、前述のようなベイヤー配列で配置される。カラーフィルタの下部には、配線層CLがあり、これは撮像素子内における各種信号の伝達を行う信号線を形成する配線層である。その下部には光電変換素子である光電変換部PDが配置される。   FIG. 3B illustrates an S-S ′ cross-sectional view in FIG. A microlens ML is disposed above each pixel 21, and a color filter CL is disposed below the microlens ML. The color filter is a filter that transmits each wavelength of RGB in each pixel 21 and is arranged in the Bayer arrangement as described above. Below the color filter is a wiring layer CL, which is a wiring layer for forming signal lines for transmitting various signals in the image sensor. A photoelectric conversion unit PD, which is a photoelectric conversion element, is disposed below the photoelectric conversion unit PD.

このようにベイヤー配列で配置された撮影用画素の中に、瞳分割位相差方式による距離検出を行うための距離計測用画素22H,22Vが配置される。距離計測用画素22H,22Vでは、ベイヤー配列の2行2列の画素のうち、G画素は撮影用に残し、R画素位置とB画素位置に距離計測用の画素が配置される。   The distance measurement pixels 22H and 22V for performing distance detection by the pupil division phase difference method are arranged in the imaging pixels arranged in the Bayer array in this way. In the distance measurement pixels 22H and 22V, among the pixels in 2 rows and 2 columns of the Bayer array, the G pixel is left for photographing, and the distance measurement pixels are arranged at the R pixel position and the B pixel position.

G画素を撮影用画素として残したのは、人間の視覚の感度特性は555nmをピークとするためG波長域に対して感度が高いためである。また視覚特性は、色情報より輝度情報に敏感であり、輝度情報は主にG画素で取得し色情報は主にR画素およびB画素で取得するため、G画素を残す方が画質の劣化が認知され難いためである。   The reason why the G pixel is left as a photographing pixel is that the sensitivity characteristic of human vision has a peak at 555 nm, and thus the sensitivity is high in the G wavelength range. Further, the visual characteristics are more sensitive to luminance information than color information, and luminance information is acquired mainly by G pixels, and color information is acquired mainly by R pixels and B pixels. This is because it is difficult to be recognized.

図4(A)、図4(B)は、水平方向に瞳分割を行う距離計測用画素22Hを含む2行2列の画素配列の一例を示すものであり、図4(B)は図4(A)のS−S’断面図で距離計測用画素の断面を表すものである。図4(A)の画素DAおよび画素DBが距離計測用の画素であり、画素DAおよび画素DBにおける塗りつぶし部分は、配線層CLの開口部である。距離計測用画素に照射された光は、この開口部を通って光電変換部PDに入射される。距離計測用の画素を画像生成に用いない場合は、透明膜のフィルタを配置するのが良い。   4A and 4B show an example of a 2 × 2 pixel array including distance measurement pixels 22H that perform pupil division in the horizontal direction, and FIG. The cross-sectional view taken along the line SS ′ in FIG. The pixel DA and the pixel DB in FIG. 4A are distance measurement pixels, and the filled portions in the pixel DA and the pixel DB are openings of the wiring layer CL. The light irradiated to the distance measurement pixel enters the photoelectric conversion unit PD through the opening. When the distance measurement pixels are not used for image generation, it is preferable to arrange a transparent film filter.

図4(B)に示すように、画素DA,DBの基本的な構造は撮影用画素21の構造と同一である。相違点は、画素DAに対応する開口部、および画素DBに対応する開口部が、マイクロレンズMLの中心に対して水平方向に偏移させて配置されている点である。これにより、画素DAに入射される光は撮影レンズLの左側の射出瞳EPAを通過した光束となり、画素DBに入射される光は撮影レンズLの右側の射出瞳EPBを通過した光束となる。すなわち、撮像素子による瞳分割が行われる。   As shown in FIG. 4B, the basic structure of the pixels DA and DB is the same as that of the photographing pixel 21. The difference is that the opening corresponding to the pixel DA and the opening corresponding to the pixel DB are arranged shifted in the horizontal direction with respect to the center of the microlens ML. As a result, light incident on the pixel DA becomes a light beam that has passed through the left exit pupil EPA of the photographic lens L, and light incident on the pixel DB becomes a light beam that has passed through the right exit pupil EPB of the photographic lens L. That is, pupil division by the image sensor is performed.

垂直方向に瞳分割を行う距離計測用画素22Vの構造は、開口部が垂直方向にシフトしている点を除けば距離計測用画素22Hの構造と同様であるため説明を省略する。   The structure of the distance measurement pixel 22V that divides the pupil in the vertical direction is the same as the structure of the distance measurement pixel 22H except that the opening is shifted in the vertical direction, and thus the description thereof is omitted.

本実施形態に示す撮像素子11を用いることで、同じ撮像面からDFD方式の距離画像と位相差方式の距離画像を取得することができる。   By using the image sensor 11 shown in the present embodiment, a DFD range image and a phase difference range image can be acquired from the same imaging plane.

<距離計測処理>
次に、撮像装置1が行う距離計測処理について、図面を参照しながら詳細に説明する。図5(A)は距離計測処理の基本的な流れを示すフローチャートである。
<Distance measurement processing>
Next, distance measurement processing performed by the imaging apparatus 1 will be described in detail with reference to the drawings. FIG. 5A is a flowchart showing the basic flow of distance measurement processing.

ユーザが、入力部16を操作して距離計測の実行を指示し撮影(ステップS11)を開始すると、制御部12が撮影制御を行い、以下の撮影を実行する。図5(B)は撮影処理S11の詳細を示すフローチャートである。   When the user operates the input unit 16 to instruct the execution of distance measurement and starts shooting (step S11), the control unit 12 performs shooting control and executes the following shooting. FIG. 5B is a flowchart showing details of the photographing process S11.

撮影処理が開始すると、まず、制御部12によって、オートフォーカス(AF)や自動露光制御(AE)が実行され、フォーカス位置と絞り(Fナンバー)、シャッター速度を決定される(ステップS111)。なお、これらの撮影パラメータはユーザが入力することもできる。その後、ステップS112にて撮影が実行され、制御部12は、撮像素子11から画像を取り込みメモリ15に一時的に格納する。   When the photographing process starts, first, the control unit 12 executes autofocus (AF) and automatic exposure control (AE), and determines the focus position, aperture (F number), and shutter speed (step S111). These shooting parameters can also be input by the user. Thereafter, photographing is performed in step S <b> 112, and the control unit 12 captures an image from the image sensor 11 and temporarily stores it in the memory 15.

一枚目の撮影が完了すると、制御部12が撮影パラメータを変更する(ステップS113)。変更する撮影パラメータとは、絞り(Fナンバー)、フォーカス位置、焦点距離の少なくとも何れかひとつである。変更後のパラメータの値あるいは変更量は予め保存された値を用いても良いし、入力部16でユーザが入力した情報をもとに決定しても良い。本実施形態では、フォーカス位置を変更して二枚目の画像を撮影する。例えば、一枚目は主被写体に合焦するように撮影を行い、二枚目は主被写体がぼけるようにフォーカス位置を変更して撮影を行う。   When the first image capturing is completed, the control unit 12 changes the image capturing parameters (step S113). The imaging parameter to be changed is at least one of an aperture (F number), a focus position, and a focal length. The parameter value or change amount after the change may be a value stored in advance, or may be determined based on information input by the user through the input unit 16. In this embodiment, the focus position is changed and a second image is taken. For example, the first image is shot so as to focus on the main subject, and the second image is shot while changing the focus position so that the main subject is blurred.

撮影パラメータの変更が完了すると、処理はステップS114に遷移し、制御部12によって二枚目の撮影が行われる。   When the change of the shooting parameter is completed, the process proceeds to step S114, and the second shooting is performed by the control unit 12.

二枚の画像の撮影が完了すると、一枚目の撮影画像中の距離計測用の画素から視差のある二画像(A像、B像)を生成する(ステップS115)。具体的には、画素DAによって取得された被写体像がA像であり、画素DBによって取得された被写体像がB像である。   When the photographing of the two images is completed, two images (A image and B image) with parallax are generated from the distance measurement pixels in the first photographed image (step S115). Specifically, the subject image acquired by the pixel DA is an A image, and the subject image acquired by the pixel DB is a B image.

以上の撮影が終了すると、信号処理部13は、撮影および生成した画像が、距離計測に適した画像となるようにそれぞれ処理し、一時的にメモリ15に蓄積する。具体的には現像処理を行うが、信号処理時にぼけが変化しないようにエッジ強調処理などは避ける必要がある。また、以後の距離計測処理に利用する画像は、輝度画像または特定のカラー画像が適している。このとき、撮影した画像のうち少なくとも一枚を、観賞用の画像として信号処理し、メモリ15に蓄積してもよい。   When the above shooting is completed, the signal processing unit 13 processes the shot and generated images so as to be images suitable for distance measurement, and temporarily stores them in the memory 15. Specifically, development processing is performed, but it is necessary to avoid edge enhancement processing or the like so that blur does not change during signal processing. In addition, a luminance image or a specific color image is suitable as an image used for the subsequent distance measurement processing. At this time, at least one of the captured images may be signal-processed as an ornamental image and stored in the memory 15.

<位相差方式による距離計測方法>
次に、距離計測部14の距離画像生成部141が、位相差方式による距離計測(ステップS12)を実行して位相差方式の距離画像(第二の距離画像)DPDを生成する。位相差方式による距離計測処理S12について図5(C)のフローチャートを参照して説明する。
<Distance measurement method by phase difference method>
Next, the distance image generation unit 141 of the distance measurement unit 14 performs distance measurement by the phase difference method (step S12) to generate a phase difference method distance image (second distance image) DPD . The distance measurement process S12 by the phase difference method will be described with reference to the flowchart of FIG.

位相差方式では、A像とB像の像ずれ量rを検出することで、被写体像のデフォーカス量Defを検出する。したがって、距離画像生成部141は、A像とB像の相関演算により、像ずれ量rの検出を求める(ステップS121)。相関演算は公知の手法を用いることができ、例えば数式1により相関値C(k)を算出し、C(k)=0となるkから、像ずれ量rを算出することをできる。

Figure 2017138199
ここで、A(i)はA像の像信号、B(i)はB像の像信号、iは画素番号、kはA像
とB像の相対シフト量である。mは、相関値C(k)の演算に用いる対象画素範囲を表している。 In the phase difference method, the defocus amount Def of the subject image is detected by detecting the image shift amount r between the A image and the B image. Therefore, the distance image generation unit 141 obtains the detection of the image shift amount r by the correlation calculation between the A image and the B image (step S121). A known method can be used for the correlation calculation. For example, the correlation value C (k) is calculated by Equation 1, and the image shift amount r can be calculated from k where C (k) = 0.
Figure 2017138199
Here, A (i) is an image signal of A image, B (i) is an image signal of B image, i is a pixel number, and k is a relative shift amount between the A image and the B image. m represents the target pixel range used for the calculation of the correlation value C (k).

次に、距離画像生成部141は、算出された像ずれ量rを数式2に代入することでデフォーカス量Defを算出する(ステップS122)。

Figure 2017138199
ここでwは基線長(射出瞳EPAと射出瞳EPBの中心間隔)であり、Zは撮像素子から射出瞳までの距離である。 Next, the distance image generation unit 141 calculates the defocus amount Def by substituting the calculated image shift amount r into Equation 2 (step S122).
Figure 2017138199
Here, w is a base line length (a center distance between the exit pupil EPA and the exit pupil EPB), and Z is a distance from the image sensor to the exit pupil.

距離計測に用いるA像、B像の全面に対して同様の処理を行うことで、デフォーカス量を画素値として有する距離画像を生成することができる。また、算出したデフォーカス量を撮影時のパラメータを用いて被写体までの距離に換算し、距離画像を生成することもできる。   By performing the same processing on the entire surface of the A image and the B image used for distance measurement, a distance image having a defocus amount as a pixel value can be generated. In addition, the calculated defocus amount can be converted into a distance to the subject using a parameter at the time of shooting, and a distance image can be generated.

距離計測用の画素は、例えば図2に示したように10行10列に対して一つ配置されているため、取得したA像およびB像から算出される距離画像は、撮影画像に対して画素数の少ない距離画像となる。この距離画像を撮像素子の画素数(撮影画像またはDFD方式の距離画像の画素数)に拡大した場合、10行10列のブロック領域Rでは同じ距離値となり、画素数は多いが解像度の低い距離画像となる。   For example, as shown in FIG. 2, one pixel for distance measurement is arranged for 10 rows and 10 columns. Therefore, the distance image calculated from the acquired A image and B image is the same as the captured image. The distance image has a small number of pixels. When this distance image is enlarged to the number of pixels of the image sensor (the number of pixels of the captured image or the distance image of the DFD method), the same distance value is obtained in the block region R of 10 rows and 10 columns, and the distance is large but the resolution is low. It becomes an image.

<DFD方式による距離計測方法>
次に、距離計測部14の距離画像生成部142が、DFD方式による距離計測(ステップS13)を実行してDFD方式の距離画像(第一の距離画像)DDFDを生成する。DFD方式による距離計測処理S13について、図6(A)〜6(C)を参照して説明する。
<Distance measurement method by DFD method>
Next, the distance image generation unit 142 of the distance measurement unit 14 performs distance measurement by the DFD method (step S13) to generate a DFD method distance image (first distance image) D DFD . The distance measurement process S13 using the DFD method will be described with reference to FIGS. 6 (A) to 6 (C).

DFD方式は、2画像間のぼけの違いから距離を計測する方法である。図6(A)はDFD方式を説明する図である。ぼけの半径をσ、撮像素子までの距離をv、焦点距離をf、F値をFとすると、物体距離sは数式3で表される。

Figure 2017138199
撮像素子までの距離v、焦点距離f、F値は既知なのでぼけの半径σを求めれば物体距離を求めることができる。 The DFD method is a method of measuring a distance from a difference in blur between two images. FIG. 6A illustrates the DFD method. When the blur radius is σ, the distance to the image sensor is v, the focal length is f, and the F value is F, the object distance s is expressed by Equation 3.
Figure 2017138199
Since the distance v to the image sensor, the focal length f, and the F value are known, the object distance can be obtained by obtaining the blur radius σ.

ここで、撮影条件を変えることでぼけの異なる二画像を取得し、ぼけの違いから距離情報を算出できる。変更する撮影条件は、開口の大きさ、フォーカス位置、焦点距離の少なくともいずれか一つとすることが好ましい。ぼけの大きさは、フォーカス位置を最小としてデフォーカスするにしたがって大きくなるため、二画像のぼけの違いからデフォーカス量を算出することができる。   Here, two images with different blurs are acquired by changing the shooting conditions, and distance information can be calculated from the difference in blurs. The imaging condition to be changed is preferably at least one of the size of the aperture, the focus position, and the focal length. Since the size of the blur increases as the focus position is minimized and defocusing is performed, the defocus amount can be calculated from the difference in blur between the two images.

本実施形態ではフォーカス位置を変更して撮影した二画像から距離情報を取得する手法を例に説明する。図6(B)はDFD方式による距離計測のフローチャートである。   In the present embodiment, a method for acquiring distance information from two images taken by changing the focus position will be described as an example. FIG. 6B is a flowchart of distance measurement by the DFD method.

まず、距離情報を算出する画像上の座標を決定し、二つの画像において決定した座標位置の周辺の局所領域を選択する(ステップS131)。なお、ここで選択した領域には同
じ被写体像が写っているものとする。二画像撮影中に手振れなどの動きにより画像にずれがあった場合は、二画像間の位置合わせ処理を予め実行しておく必要がある。領域選択を、1画素ずつずらして画像全体に渡り局所領域を設定することで入力画像と同じ画素数の高解像度な距離画像を算出することが可能である。
First, the coordinates on the image for calculating the distance information are determined, and a local region around the determined coordinate position in the two images is selected (step S131). It is assumed that the same subject image appears in the area selected here. If there is a shift in the image due to movement such as camera shake during the two-image shooting, it is necessary to execute the alignment process between the two images in advance. By shifting the region selection one pixel at a time and setting a local region over the entire image, it is possible to calculate a high-resolution distance image having the same number of pixels as the input image.

次に相関値算出ステップS132では、前記領域選択ステップS131で選択した第一の画像Iの局所領域Irと、第二の画像Iの局所領域Irとの相関を数式4で算出する。

Figure 2017138199
収差が無くデフォーカスした場合のぼけ方がフォーカス位置の前と後で同じ場合、像側においてフォーカスを移動して撮影した2つのフォーカス位置の中間でぼけが同等となり、その位置での相関が最も高い値となる。この中間位置から離れるに従い、二画像のぼけ方は変化し相関が低下していく。つまり、ぼけの大きさが同じ位置をピークとしてその位置から離れるに従い相関が低下する。相関値はデフォーカスによるぼけに応じた値となるため、相関値が分かれば対応するデフォーカス量を知ることができ、フォーカス位置からの相対的な距離を算出することが可能となる。 Next, in the correlation value calculation step S132, calculates a local region Ir 1 of the first image I 1 selected in the region selection step S131, the correlation between the local region Ir 2 of the second image I 2 in the formula 4 .
Figure 2017138199
If there is no aberration and the defocus is the same before and after the focus position, the blur is equivalent between the two focus positions taken by moving the focus on the image side, and the correlation at that position is the most. High value. As the distance from the intermediate position increases, the blurring of the two images changes and the correlation decreases. That is, the correlation decreases with increasing distance from the position where the blur is at the same position. Since the correlation value is a value corresponding to the blur due to defocus, if the correlation value is known, the corresponding defocus amount can be known, and the relative distance from the focus position can be calculated.

次に距離情報算出ステップS133では、相関演算ステップS132で算出された相関値をフォーカス位置からの像距離(デフォーカス量)に変換する。相関値とデフォーカス量の関係は図6(C)のようになっている。相関値からデフォーカス量に変換する異なる変換テーブルまたは変換式を保持しておき、デフォーカス量に変換する。変換テーブルまたは変換式は、予め計測によって求めるか光学設計情報を利用したシミュレーションによって求めておく。シミュレーションの場合、代表波長を選択してその波長を用いたシミュレーションした結果を適用する。または、複数波長の結果を平均して用いてもよい。   Next, in the distance information calculation step S133, the correlation value calculated in the correlation calculation step S132 is converted into an image distance (defocus amount) from the focus position. The relationship between the correlation value and the defocus amount is as shown in FIG. A different conversion table or conversion expression for converting the correlation value into the defocus amount is held and converted into the defocus amount. The conversion table or the conversion formula is obtained in advance by measurement or by simulation using optical design information. In the case of simulation, a representative wavelength is selected and the result of simulation using that wavelength is applied. Or you may average and use the result of multiple wavelengths.

本実施形態では演算の方法として数式4を例に説明したが、2つの画像間のぼけの関係を判断できる数式であればよくこの式に限定するものではない。演算に応じた出力値と像面でのフォーカス位置の関係が既知であれば相対距離への変換が可能である。他の演算例としては、以下の数式5などが挙げられる。

Figure 2017138199
In the present embodiment, Formula 4 has been described as an example of the calculation method, but any formula can be used as long as it can determine the blur relationship between two images, and is not limited to this formula. If the relationship between the output value according to the calculation and the focus position on the image plane is known, conversion to a relative distance is possible. As another calculation example, the following Expression 5 is given.
Figure 2017138199

また、フーリエ変換を行い周波数空間での評価値による演算例として数式6が挙げられる。

Figure 2017138199
ここでFはフーリエ変換を表し、OTFは光学伝達関数、Sは撮影シーンのフーリエ変換結果を表している。数式6では、2つの撮影条件における光学伝達関数の比が得られ、予め光学系の設計データからこの値のデフォーカスによる変化を知ることができるため変換が可能となる。 Further, Formula 6 is given as an example of calculation using the evaluation value in the frequency space by performing Fourier transform.
Figure 2017138199
Here, F represents the Fourier transform, OTF represents the optical transfer function, and S represents the Fourier transform result of the shooting scene. In Expression 6, the ratio of the optical transfer function under the two imaging conditions is obtained, and the change due to defocus of this value can be known from the design data of the optical system in advance, so that conversion is possible.

以上のステップS12,S13の処理により、二つの距離計測方式によって距離情報を画像として取得することができる。距離情報は被写体までの絶対距離であっても良いし、フォーカス位置から被写体までの相対的な距離(デフォーカス量)であっても良い。しかし、以降の処理で距離補正を行うため、二つの距離情報は同じ情報でなければならず、被写体までの絶対距離またはデフォーカス量に統一している必要がある。本実施形態ではデフォーカス量を画像として取得した場合を例に以降の説明を行う。   Through the processes in steps S12 and S13 described above, distance information can be acquired as an image by two distance measurement methods. The distance information may be an absolute distance to the subject or a relative distance (defocus amount) from the focus position to the subject. However, since distance correction is performed in the subsequent processing, the two distance information must be the same information, and it is necessary to unify the absolute distance to the subject or the defocus amount. In the present embodiment, the following description will be given using an example in which the defocus amount is acquired as an image.

<距離補正>
距離補正ステップS14では、位相差方式による距離画像(第二の距離画像)DPDとDFD方式による距離画像(第一の距離画像)DDFDを統合して、安定性が高く高解像度な距離画像(第三の距離画像)D3を生成する。なお、本実施形態では、距離画像DDFDの各画素における距離値(画素値)を、距離画像DPDおよび距離画像DDFDに基づいて補正することによって、距離画像D3を生成する。本実施形態では、距離画像D3のことを補正距離画像とも称する。
<Distance correction>
In the distance correction step S14, by integrating the distance image (a first distance image) D DFD by the distance image (a second distance image) D PD and the DFD using the phase difference method, high stability high resolution range image (Third distance image) D3 is generated. In the present embodiment, the distance image D distance value at each pixel in the DFD (pixel value), by correcting on the basis of the distance image D PD and the distance image D DFD, generates a distance image D3. In the present embodiment, the distance image D3 is also referred to as a corrected distance image.

具体的な処理内容を説明する前に、まず本実施形態による二つの距離計測方式によって得た距離画像を、解像度の観点から比較する。位相差方式による距離画像DPDは、距離計測用の画素が撮像素子11において図2のように疎に配置されているため、画像面内の解像度が距離画像DDFDに比べて低い。距離画像DPDを距離画像DDFDと同じ画素数(撮像素子の画素数)になるように拡大した場合は、ブロック単位で同じ距離値を有する距離画像となる。図8(A)に位相差方式による距離計測結果の一次元方向の例を示す。一方、DFD方式による距離画像DDFDは、画素ごとに相関演算が行われ、画素ごとに距離が求められる。したがって、距離画像DDFDは、図8(B)に示すように撮像素子11の画素数と同等の画素数を持つ。すなわち、DFD方式による距離画像DDFDは、位相差方式による距離画像DPDよりも高精細な(解像度が高い)距離画像である。 Before describing specific processing contents, first, distance images obtained by the two distance measurement methods according to the present embodiment are compared from the viewpoint of resolution. In the distance image DPD by the phase difference method, since the pixels for distance measurement are sparsely arranged in the image sensor 11 as shown in FIG. 2, the resolution in the image plane is lower than that of the distance image DDFD . Distance image D PD the distance image D DFD same number of pixels as if the enlarged so that the (number of pixels of the image sensor) is a range image having the same distance values in blocks. FIG. 8A shows an example of the one-dimensional direction of the distance measurement result by the phase difference method. On the other hand, the distance image D DFD by the DFD method is subjected to correlation calculation for each pixel, and a distance is obtained for each pixel. Accordingly, the distance image DDFD has the same number of pixels as the number of pixels of the image sensor 11 as shown in FIG. That is, the distance image D DFD according to the DFD method is a distance image with higher definition (higher resolution) than the distance image D PD according to the phase difference method.

次に距離計測の安定性の観点から二方式を比較する。DFD方式は、数式4のように二画像中の選択領域の相関値を直接デフォーカス量と関連付けている方式の場合、ノイズや被写体の影響を受けやすい傾向にあり、距離計測の安定性が低い。一方、位相差方式の場合は、像ずれ量を算出の際に相関値による探索を行い、相関値の変化から最も比較する領域が一致する領域を得るため、DFD方式に比べノイズなどに頑健である。   Next, the two methods are compared from the viewpoint of the stability of distance measurement. In the case of the DFD method in which the correlation value of the selected area in the two images is directly associated with the defocus amount as in Expression 4, the DFD method tends to be easily influenced by noise and the subject, and the stability of the distance measurement is low. . On the other hand, in the case of the phase difference method, a search based on the correlation value is performed when calculating the image shift amount, and a region where the most compared region is the same is obtained from the change in the correlation value. is there.

これらの長所短所を利用し、測距安定性の高い位相差方式による距離画像DPDを用い、DFD方式による画面内解像度の高い距離画像DDFDを補正することで、高安定性と高い画面内解像度を両立させる。 Utilizing these advantages and disadvantages, ranging using the distance image D PD by highly stable phase difference method, by correcting the high distance image D DFD of screen resolution by the DFD, high stability and high screen Make both resolutions compatible.

距離補正ステップS14の処理の流れを示すフローチャートを図7に示す。   FIG. 7 shows a flowchart showing the flow of processing in the distance correction step S14.

まず、ステップS141において、代表値決定部143が、距離画像DPDから1つの画素を選択する。ステップS142において、距離画像DPDの選択対象画素に対応する、距離画像DDFDの領域を選択する。上述のように、距離画像DPDの方が距離画像DDFDよりも解像度が低いので、距離画像DPDの1画素は距離画像DDFDの複数画素に対応する。本実施形態では、距離画像DPDの1画素は、距離画像DDFDの10画素×10画素の領域に対応する。 First, in step S141, the representative value determining unit 143 selects one pixel from the distance image DPD . In step S142, the range of the distance image D DFD corresponding to the selection target pixel of the distance image D PD is selected. As described above, towards the distance image D PD is it has a lower resolution than the distance image D DFD, 1 pixel of the distance image D PD corresponds to a plurality of pixels of the distance image D DFD. In the present embodiment, one pixel of the distance image D PD corresponds to a region of 10 pixels × 10 pixels of the distance image D DFD.

ステップS143において、代表値決定部143は、選択された領域における距離画像DDFD(高解像度距離画像)のデフォーカス量(距離値)の代表値を決定する。この代表値を以下では代表デフォーカス量DHrepとも称する。代表デフォーカス量DHrepは、領域内のデフォーカス量の平均値や中央値とすることが好適である。 In step S143, the representative value determining unit 143 determines a representative value of the defocus amount (distance value) of the distance image D DFD (high resolution distance image) in the selected region. Hereinafter, this representative value is also referred to as a representative defocus amount DH rep . The representative defocus amount DH rep is preferably an average value or a median value of the defocus amounts in the region.

ステップS144において、補正値決定部144は、距離画像DDFD(低解像度距離画像)の選択画素におけるデフォーカス量DL(距離値)を取得する。 In step S144, the correction value determination unit 144 acquires the defocus amount DL (distance value) at the selected pixel of the distance image D DFD (low resolution distance image).

図8(A)の距離画像DPDの画素RPiに対応する距離画像DDFDの領域は、図8(B)に示す領域RDiである。図8(B)における破線lbは距離画像DDFDの各領域における代表デフォーカス量を示し、破線ldは距離画像DPDの対応する画素でのデフォーカス量を示す。一般に、これら2つのデフォーカス量は異なる値となる。 The region of the distance image D DFD corresponding to the pixel RPi of the distance image D PD in FIG. 8A is a region RDi shown in FIG. Dashed lb in FIG. 8 (B) shows a representative amount of defocus in each region of the distance image D DFD, dashed ld shows the defocus amount at the corresponding pixel of the distance image D PD. Generally, these two defocus amounts are different values.

ステップS145において、補正値決定部144は、距離画像DDFDから得られる代表デフォーカス量DLと距離画像DPDから得られるデフォーカス量DHrepに基づいて、補正値DCを数式7にしたがって決定する。

Figure 2017138199
ここで、αは位相差方式による距離計測の安定度とDFD方式による距離計測の安定度の比を表す。2つの安定度の和が1となるように規格化した場合に、αが位相差方式による距離計測の安定度であり、1−αがDFD方式による距離計測の安定度である。 In step S145, the correction value determination section 144, a distance image based on the defocus amount DH rep obtained from the representative defocus amount DL and the distance image D PD obtained from the D DFD, to determine a correction value DC according to Equation 7 .
Figure 2017138199
Here, α represents the ratio between the stability of distance measurement by the phase difference method and the stability of distance measurement by the DFD method. When normalization is performed such that the sum of two stability levels is 1, α is the stability of distance measurement by the phase difference method, and 1-α is the stability of distance measurement by the DFD method.

本実施形態では、補正値DCは、距離画像DDFDの代表デフォーカス量DHrepと距離画像DPDのデフォーカス量DLの距離計測安定度に基づく加重平均値から、距離画像DDFDの代表デフォーカス量DHrepを減算した値と定義される。 In the present embodiment, the correction value DC is from the distance image D weighted average value based on the distance measurement stability of the defocus amount DL representative defocus amount DH rep and the distance image D PD of DFD, representative data of the distance image D DFD It is defined as a value obtained by subtracting the focus amount DH rep .

距離計測の安定度は、距離計測方式や撮影時の条件によって定まる。例えば、二つの距離計測方式で既知の距離を計測した場合の正答率や誤差量に応じて距離計側方式ごとの安定度を決定できる。また、撮影時の条件を考慮する場合は、二つの距離計測方式で既知の距離を種々の撮影条件で計測し、撮影条件ごとの正答率や誤差量に基づいて安定度を決定できる。後者の場合、補正値決定部144は、撮影時の条件に応じた安定度αを採用する。   The stability of distance measurement is determined by the distance measurement method and shooting conditions. For example, the stability for each distance meter side method can be determined according to the correct answer rate and the error amount when a known distance is measured by two distance measurement methods. In addition, when taking into account the conditions at the time of shooting, it is possible to measure a known distance using various distance measurement methods under various shooting conditions, and to determine the stability based on the correct answer rate and the error amount for each shooting condition. In the latter case, the correction value determination unit 144 employs the stability α corresponding to the shooting conditions.

位相差方式による距離計測は、DFD方式に比べ低い空間周波数で演算し、更に像ずれ量算出時の相関演算で最適像ずれ量を選択するためDFD方式よりも安定度が高い。よって、位相差方式の安定度αは0.5より大きい値となる。   The distance measurement by the phase difference method is performed at a lower spatial frequency than the DFD method, and further, the optimum image shift amount is selected by the correlation calculation at the time of calculating the image shift amount, so that the stability is higher than that of the DFD method. Therefore, the stability α of the phase difference method is a value larger than 0.5.

次にステップS146において、補正部145は、ステップS141で算出したデフォーカス量補正値DCを領域RDの各画素のデフォーカス量に加算することでDFD方式の距離画像の補正を行う。具体的には、距離画像DDFDの補正前の距離値をDとしたとき、補正後の距離値D’は以下の数式8により決定される。

Figure 2017138199
In step S146, the correction unit 145 corrects the DFD method distance image by adding the defocus amount correction value DC calculated in step S141 to the defocus amount of each pixel in the region RD i . Specifically, when the distance value before correction of the distance image DDFD is D, the corrected distance value D ′ is determined by the following Equation 8.
Figure 2017138199

この補正により領域RDの代表デフォーカス量がブロック領域RPのデフォーカス量と近づき、図8(C)に示すように破線lbと点線ldの差が図8(B)よりも小さくなる。 By this correction, the representative defocus amount in the region RD i approaches the defocus amount in the block region RP i , and the difference between the broken line lb and the dotted line ld becomes smaller than that in FIG. 8B as shown in FIG.

このとき、補正対象のブロック領域とそれに隣接するブロック領域(隣接領域)の間で補正値DCの差が大きい場合は、ブロック領域の境界で大きな段差が生じることがある。したがって、補正部145は、補正対象のブロック領域と隣接するブロック領域の間での
補正値DCの差が閾値以上の場合は、数式8による補正の代わりに、補正対象領域の補正値と隣接領域の補正値の重み付け平均を加算する補正を行うことも好ましい。この場合は、これにより、領域間の急激な段差を抑制できる。この重み付け平均における重み付け係数は、予め定められた値を採用できる。
At this time, if there is a large difference in the correction value DC between the block area to be corrected and the block area adjacent thereto (adjacent area), a large step may occur at the boundary of the block area. Therefore, when the difference in the correction value DC between the block area to be corrected and the adjacent block area is equal to or greater than the threshold value, the correction unit 145 replaces the correction value in the correction target area with the adjacent area instead of the correction according to Equation 8. It is also preferable to perform correction by adding a weighted average of the correction values. In this case, this makes it possible to suppress a sudden step between the regions. A predetermined value can be adopted as the weighting coefficient in this weighted average.

ステップS147では、全ての画素(領域)に対して上記の処理を行ったか判定し、未処理の画素がある場合にはステップS141に戻って上記の処理を繰り返す。全ての画素に対して上記の処理を行うことで、DFD方式の距離画像DDFDを補正し、補正距離画像D3が得られる。補正処理画像D3は、距離画像DDFDの各画素の距離値Dをデフォーカス量補正値DCに基づいて補正して得られる距離値を画素値として有する距離画像である。 In step S147, it is determined whether the above processing has been performed for all pixels (regions). If there are unprocessed pixels, the processing returns to step S141 and the above processing is repeated. By performing the above processing on all the pixels, the DFD distance image DDFD is corrected, and a corrected distance image D3 is obtained. The correction processing image D3 is a distance image having a distance value obtained by correcting the distance value D of each pixel of the distance image DDFD based on the defocus amount correction value DC as a pixel value.

得られた補正距離画像D3は、ブロック領域ごとにデフォーカス量補正値が異なるため、図8(C)に示すように隣接ブロック間でデフォーカス量の段差が生じる。そのため、ステップS148において、平滑化処理部146が、ブロック領域境界に沿って、例えば4×4画素の平均化処理を行う。これにより、補正によって生じたデフォーカス量の段差が目立たなくなる。この処理により、図8(D)のようにブロック境界での段差が目立たなくなり、滑らかな距離画像を生成することができる。   Since the obtained correction distance image D3 has a different defocus amount correction value for each block region, a step of the defocus amount occurs between adjacent blocks as shown in FIG. 8C. Therefore, in step S148, the smoothing processing unit 146 performs an averaging process of, for example, 4 × 4 pixels along the block region boundary. Thereby, the step of the defocus amount caused by the correction becomes inconspicuous. By this process, the step at the block boundary becomes inconspicuous as shown in FIG. 8D, and a smooth distance image can be generated.

以上の補正処理を実施することで、解像度が高い距離画像を、安定度の高い距離画像を用いて補正し、解像度が高く安定度の高い距離画像を求めることができる。なお、算出した距離画像をそのまま出力しても良いし、焦点距離および物体側におけるフォーカス距離を用いて物体距離に変換して出力してもよい。   By performing the above correction processing, it is possible to correct a distance image with high resolution using a distance image with high stability, and obtain a distance image with high resolution and high stability. The calculated distance image may be output as it is, or may be converted into an object distance and output using the focal distance and the object-side focus distance.

本実施形態によれば、距離計測の安定度が高く撮像素子面内における解像度が低い距離情報画像と、前記安定度は劣るが前記解像度が高い距離情報画像を合成することで、前記安定度と前記解像度を両立した距離情報画像を生成することが可能となる。   According to the present embodiment, the stability information is synthesized by synthesizing the distance information image with high stability of distance measurement and low resolution within the image sensor surface and the distance information image with low stability but high resolution. It becomes possible to generate a distance information image having both resolutions.

<変形例1>
撮像素子11の別の形態として図9(A)〜9(C)に示すような構成としても良い。図9(A)に、2行×2列の画素を画素群201及び画素群202を示す。画素群201内には、対角方向に緑画素201Gvが配置され、もう一方の対角方向に赤画素201Rvと青画素201Bvが配置されている。同様に画素群202内にも、対角方向に緑画素202Ghが、他方には赤画素202Rhと青画素2020Bhが配置されている。これらの二種類の画素群が撮像素子11上に市松模様状に配置されている。
<Modification 1>
As another form of the imaging element 11, it is good also as a structure as shown to FIG. 9 (A)-9 (C). FIG. 9A shows a pixel group 201 and a pixel group 202, which are pixels of 2 rows × 2 columns. In the pixel group 201, a green pixel 201Gv is arranged in the diagonal direction, and a red pixel 201Rv and a blue pixel 201Bv are arranged in the other diagonal direction. Similarly, in the pixel group 202, a green pixel 202Gh is arranged diagonally, and a red pixel 202Rh and a blue pixel 2020Bh are arranged on the other side. These two types of pixel groups are arranged on the image sensor 11 in a checkered pattern.

図9(B)は、画素群201におけるV−V’概略断面図を示す。画素群201内の各画素は、マイクロレンズ201ML、カラーフィルタ201CF、光電変換部201A
201Bを備える。図9(C)は、画素群202におけるH−H’概略断面図を示す。画素分202内の各画素は、マイクロレンズ202ML、カラーフィルタ202CF、光電変換部202A、202Bを備える。また、図9(B)及び9(C)において、受光面210は、光電変換部の光入射側のxy面(+z側の面)である。
FIG. 9B is a schematic cross-sectional view taken along the line VV ′ in the pixel group 201. Each pixel in the pixel group 201 includes a micro lens 201ML, a color filter 201CF, and a photoelectric conversion unit 201A.
201B. FIG. 9C is a schematic cross-sectional view of HH ′ in the pixel group 202. Each pixel in the pixel portion 202 includes a microlens 202ML, a color filter 202CF, and photoelectric conversion units 202A and 202B. In FIGS. 9B and 9C, the light receiving surface 210 is an xy surface (+ z side surface) on the light incident side of the photoelectric conversion unit.

本変形例の撮像素子11では、1つの画素(緑画素などの各画素)内に光電変換部を2つ配置し、受光面210と射出瞳が光学的に共役関係になるようにマイクロレンズ201ML、202MLのパワーを設定している。このような配置とすることで、光電変換部201Aと201B(及び202Aと202B)では、それぞれ、射出瞳の異なる領域を通過した光束を受光することができる。また、画素群201と画素群202では、2つの光電変換部の配置が90°回転している。このような構成とすることで、画素群201と画素群202では射出瞳を異なる方向に分割した領域を通過した光束を光電変換部で受光す
ることとなる。これにより、画素群201と画素群202では異なる方向にコントラスト変化のある被写体に対して被写体距離の検出を行うことができる。
In the imaging device 11 of this modification, two photoelectric conversion units are arranged in one pixel (each pixel such as a green pixel), and the microlens 201ML is arranged so that the light receiving surface 210 and the exit pupil are optically conjugate. , 202ML power is set. With such an arrangement, the photoelectric conversion units 201A and 201B (and 202A and 202B) can receive light beams that have passed through different regions of the exit pupil. In the pixel group 201 and the pixel group 202, the arrangement of the two photoelectric conversion units is rotated by 90 °. With such a configuration, in the pixel group 201 and the pixel group 202, a light beam that has passed through an area obtained by dividing the exit pupil in different directions is received by the photoelectric conversion unit. As a result, the subject distance can be detected for subjects whose contrast changes in different directions between the pixel group 201 and the pixel group 202.

本変形例においては、各画素群201,202における2つの光電変換部で受光した光から生成される像信号をそれぞれA像、B像として取得する。このA像およびB像は、撮像素子の画素と同数の解像度を持つため、高精細な距離画像を取得することが可能である。ここでの距離画像の算出はステップS12と同様の処理である。しかし、解像度が高い画像を用いて位相差方式による距離計測を実行する場合、像ずれ量算出時にノイズや周期被写体による像ずれ量算出エラーが生じる可能性が高くなる。そこで、本変形例においては、A像およびB像をそのまま用いた位相差方式の距離計測に加えて、A像およびB像を縮小した低周波成分の画像を用いた位相差方式の距離計測も行う。縮小したA像およびB像で距離計測した場合、ノイズや周期被写体による像ずれ量算出エラーは低減される。   In this modification, image signals generated from the light received by the two photoelectric conversion units in each of the pixel groups 201 and 202 are acquired as an A image and a B image, respectively. Since the A and B images have the same number of resolutions as the pixels of the image sensor, it is possible to acquire a high-definition distance image. The calculation of the distance image here is the same process as in step S12. However, when distance measurement is performed using a phase difference method using an image with high resolution, there is a high possibility that noise or an image shift amount calculation error due to a periodic subject will occur when calculating the image shift amount. Therefore, in this modification, in addition to the phase difference method distance measurement using the A image and the B image as they are, the phase difference method distance measurement using the low-frequency component image obtained by reducing the A image and the B image is also performed. Do. When distance measurement is performed using the reduced A and B images, noise and image shift amount calculation errors due to periodic subjects are reduced.

上記の理由から、本変形例においては、解像度の異なる2つの距離画像が得られる。一方は高解像度だが安定度が低く、他方は低解像度だが安定度が高い。したがって、本変形例においても、上記と同様の処理により、高解像度の距離画像を、低解像度の距離画像を用いて補正することで、高解像度かつ高安定度の距離画像を得ることができる。具体的には、低解像度の距離画像を実施例1における位相差方式による距離画像として扱い、高解像度の距離画像を実施例1におけるDFD方式による距離画像として扱って、同様の距離補正処理を行えばよい。   For the above reason, in this modification, two distance images having different resolutions are obtained. One is high resolution but low stability, the other is low resolution but high stability. Therefore, also in this modification, a high-resolution and high-stability distance image can be obtained by correcting a high-resolution distance image using a low-resolution distance image by the same process as described above. Specifically, the low-resolution distance image is treated as a distance image by the phase difference method in the first embodiment, and the high-resolution distance image is treated as a distance image by the DFD method in the first embodiment. Just do it.

このように、全面で位相差方式による距離計測ができる撮像素子を用いた場合であっても、より安定度が高く高精細な距離画像を生成することが可能となる。   As described above, even when an imaging element capable of measuring a distance by the phase difference method is used on the entire surface, it is possible to generate a high-definition distance image with higher stability.

<変形例2>
別の変形例として、アクティブ距離計測方式であるTOF方式(Time−of−Flight方式)による距離計測と、DFD方式による距離計測を行う構成を採用することができる。図10は本変形例に係る撮像装置2の構成を示す。本変形例に係る撮像装置2は、実施例1の撮像装置1の構成に加え照明部19、ホットミラー20、撮像素子21が追加されている。また、撮像素子11は距離計測用の画素を配置しない、一般に用いられる撮像素子であってよい。
<Modification 2>
As another modification, it is possible to employ a configuration that performs distance measurement by the TOF method (Time-of-Flight method), which is an active distance measurement method, and distance measurement by the DFD method. FIG. 10 shows a configuration of the imaging apparatus 2 according to this modification. In the imaging apparatus 2 according to this modification, an illumination unit 19, a hot mirror 20, and an imaging element 21 are added to the configuration of the imaging apparatus 1 of the first embodiment. In addition, the image sensor 11 may be a commonly used image sensor that does not include pixels for distance measurement.

この構成では、撮影時に制御部12で照明部19を制御し、変調した近赤外光を照明する。近赤外光と可視光を分離するために光路内にホットミラー20を設置する。照明した近赤外光が被写体で反射し撮像光学系により集光され、ホットミラー20で近赤外光のみ反射され、撮像素子21上に結像される。一方、可視光はホットミラー20を透過し、撮像素子11上に結像される。   In this configuration, the control unit 12 controls the illumination unit 19 during imaging to illuminate the modulated near infrared light. In order to separate near infrared light and visible light, a hot mirror 20 is installed in the optical path. Illuminated near-infrared light is reflected by the subject, collected by the imaging optical system, and only the near-infrared light is reflected by the hot mirror 20 to form an image on the image sensor 21. On the other hand, visible light passes through the hot mirror 20 and forms an image on the image sensor 11.

撮像素子12では、変調照明光に対して位相を90°ずらしたタイミングで4回の露光を行い、被写体からの反射光の位相差を算出する。算出した位相差と変調周波数fmおよび光速を用いることで被写体までの距離を算出することが可能である。   The image sensor 12 performs exposure four times at a timing shifted by 90 ° with respect to the modulated illumination light, and calculates the phase difference of the reflected light from the subject. The distance to the subject can be calculated by using the calculated phase difference, modulation frequency fm, and speed of light.

このTOF方式のようなアクティブな距離計測手法は、一般に被写体に対する依存性が少なく安定した距離計測が行える。その反面、距離計測の画素数が少なく、VGA程度の画素数の距離画像しか得られない。よって、TOF方式による距離画像を用いて、DFD方式による距離画像を距離補正ステップS14で補正することで、安定度が高く高精細な距離画像を生成することが可能となる。   An active distance measurement method such as the TOF method generally has a low dependency on a subject and can perform stable distance measurement. On the other hand, the number of pixels for distance measurement is small, and only a distance image with the number of pixels about VGA can be obtained. Therefore, it is possible to generate a high-definition distance image with high stability by correcting the distance image based on the DFD method in the distance correction step S14 using the distance image based on the TOF method.

本変形例の撮像装置によって得られるDFD方式の距離画像とTOF方式の距離画像は、異なる視点の画像となる。したがって、距離計測部14は、2つの距離画像が同一視点
となるようにいずれか一方の距離画像または両方の距離画像に対して変形処理を施す距離画像変形部(変形手段)を備えることが好ましい。
The DFD-type distance image and the TOF-type distance image obtained by the imaging apparatus of the present modification are images of different viewpoints. Therefore, it is preferable that the distance measurement unit 14 includes a distance image deformation unit (deformation unit) that performs a deformation process on one or both distance images so that the two distance images have the same viewpoint. .

ここではアクティブ距離計測方式の代表例としてTOF方式を用いて説明したが、他のレーザースキャン方式(レーザースキャナ方式)などのアクティブ距離計測方式を用いても同様の処理を行うことが可能である。   Although the TOF method has been described here as a representative example of the active distance measurement method, the same processing can be performed using an active distance measurement method such as another laser scan method (laser scanner method).

(第二の実施形態)
次に、本発明の第二実施形態について説明する。第二実施形態は、二つの距離計測を実行した際に距離情報(画像)の信頼性を表す信頼度情報(画像)を同時に演算し、その信頼度画像を利用して距離補正を実行する点が第一の実施形態と相違する。本実施形態に係る撮像装置の構成は第一実施形態のものと同様のため、同一の符号を用いて説明を行う。
(Second embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, reliability information (image) representing the reliability of distance information (image) is calculated simultaneously when two distance measurements are executed, and distance correction is performed using the reliability image. Is different from the first embodiment. Since the configuration of the imaging apparatus according to this embodiment is the same as that of the first embodiment, description will be made using the same reference numerals.

以下、第一の実施形態との処理の相違点について説明する。図11(A)、11(B)は、第二の実施形態における、各距離計測方式の流れを示した図である。図11(A)は位相差方式による距離計測S12のフローチャートである。第1の実施形態(図5(A))と比較して、信頼度情報算出ステップS123が追加されている。   Hereinafter, differences in processing from the first embodiment will be described. FIGS. 11A and 11B are diagrams illustrating the flow of each distance measurement method in the second embodiment. FIG. 11A is a flowchart of the distance measurement S12 by the phase difference method. Compared to the first embodiment (FIG. 5A), a reliability information calculation step S123 is added.

信頼度情報算出ステップS123では、算出した距離情報がどの程度信頼できるかを表す距離計測の信頼度情報を算出する。この信頼度情報は、距離情報算出に用いた画像の輝度情報やコントラスト情報、像ずれ量算出時の相関値ピークの数などを用いて算出するもので、被写体によって変化する値である。   In the reliability information calculation step S123, distance measurement reliability information indicating how reliable the calculated distance information is is calculated. The reliability information is calculated using the luminance information and contrast information of the image used for calculating the distance information, the number of correlation value peaks when calculating the image shift amount, and the like, and is a value that varies depending on the subject.

像ずれ量を算出する際に演算範囲において画像が黒潰れや白飛びを起こしていた場合は正しい像ずれ量を算出できないため、被写体像の輝度値(輝度情報)を信頼度情報の指標とすることができる。   When the image displacement amount is calculated, if the image is blacked out or whiteout in the calculation range, the correct image displacement amount cannot be calculated. Therefore, the luminance value (luminance information) of the subject image is used as an index of reliability information. be able to.

また、演算範囲において画像のコントラストが低い場合は像ずれ量算出の際の相関演算においてピーク値の算出に誤差が生じるため、コントラスト情報を信頼度情報の指標として用いることができる。   Further, when the contrast of the image is low in the calculation range, an error occurs in the calculation of the peak value in the correlation calculation at the time of calculating the image shift amount, so that the contrast information can be used as an index of reliability information.

像ずれ量算出時の相関値ピークの数は、像ずれ量算出時の演算範囲において周期的な被写体が存在すると多数の相関値ピークが生じる。このとき、最も小さい(大きい)ピークが必ずしも正しい像ずれ位置とは限らないため、相関値のピークが多数生じた場合は距離計測の信頼度が低いとみなすことができる。したがって、被写体像の周期性情報を信頼度情報の指標とすることもできる。   The number of correlation value peaks at the time of calculating the image shift amount is a large number of correlation value peaks if there is a periodic subject in the calculation range at the time of image shift amount calculation. At this time, since the smallest (large) peak is not necessarily the correct image shift position, it can be considered that the reliability of distance measurement is low when a large number of correlation value peaks occur. Therefore, the periodicity information of the subject image can be used as an index of reliability information.

図11(B)はDFD方式による距離計測のフローチャートである。第1の実施形態(図8(B))と比較して、上記と同様に信頼度情報算出ステップS134が追加されている。DFD方式における信頼度情報算出の指標としては、被写体像の輝度値、被写体像のコントラスト、被写体の周期性情報、撮像時の被写体の動き情報、距離計測範囲情報、距離エッジ情報、位置ずれ情報などが利用できる。   FIG. 11B is a flowchart of distance measurement by the DFD method. Compared to the first embodiment (FIG. 8B), a reliability information calculation step S134 is added as described above. As an index for calculating reliability information in the DFD method, the luminance value of the subject image, the contrast of the subject image, the periodicity information of the subject, the motion information of the subject at the time of imaging, the distance measurement range information, the distance edge information, the positional deviation information, etc. Is available.

演算に用いる領域に黒潰れや白飛びが生じているとぼけの違いを正しく検出することができないため、被写体像の輝度値(輝度情報)は、信頼度情報の指標として利用可能である。   Since the difference in blur cannot be detected correctly when blackout or whiteout occurs in the area used for calculation, the luminance value (luminance information) of the subject image can be used as an index of reliability information.

コントラストが低いとぼけの違いを正しく検出することができない上に、ノイズによる影響が距離計測において支配的になるため、被写体像のコントラスト情報も信頼度情報の指標として用いることができる。   If the contrast is low, the difference in blur cannot be detected correctly, and the influence of noise becomes dominant in distance measurement. Therefore, the contrast information of the subject image can also be used as an index of reliability information.

距離計測範囲情報は、精度良く距離計測できる範囲を示す情報である。距離計測範囲情報によって指定される範囲外の領域の信頼度は低いと判断できる。例えば、数式4を利用して距離計測を行った場合など、ぼけが大きくなると二画像のぼけの違いが区別しにくくなり、再び相関が高くなるということが生じる。その領域は、フォーカス近傍の相関が高い領域とは異なるため、信頼できない領域とする必要がある。   The distance measurement range information is information indicating a range in which distance measurement can be performed with high accuracy. It can be determined that the reliability of the area outside the range specified by the distance measurement range information is low. For example, when distance measurement is performed using Equation 4, when the blur increases, the difference between the blurs of the two images becomes difficult to distinguish, and the correlation increases again. Since this area is different from the area with high correlation near the focus, it is necessary to make the area unreliable.

DFD方式は撮影パラメータを変えて二画像を取得する必要があるため、撮影タイミングが異なることにより二画像間で位置ずれが生じる。位置合わせ処理を行うことで同じ領域のぼけの比較を行うことができるが、被写体の動きを合わせることは難しい。このため、二画像の演算領域の画素ごとの差分二乗和や差分絶対値和などの動き情報を演算し、動き情報が閾値以上の場合は位置ずれが大きいと判断して信頼度を低くすることができる。   In the DFD method, since it is necessary to change the shooting parameters to acquire two images, a positional shift occurs between the two images due to different shooting timings. By performing the alignment process, it is possible to compare the blur in the same area, but it is difficult to match the movement of the subject. For this reason, motion information such as the sum of squares of differences and the sum of absolute differences for each pixel in the calculation area of two images is calculated, and if the motion information is equal to or greater than a threshold, it is determined that the positional deviation is large and the reliability is lowered. Can do.

以上のように、距離計測方式によって信頼度情報を求める方法は多数あり、ここで述べた方法以外にも考えられるが、ここでは信頼度情報を算出する方法を限定するものではない。また信頼度情報は、算出した距離情報が信頼できるかできないかを表す二値の情報としても良いし、多値として多段階の信頼度情報としてもよい。   As described above, there are many methods for obtaining the reliability information by the distance measurement method, and other methods than those described here can be considered. However, the method for calculating the reliability information is not limited here. The reliability information may be binary information indicating whether the calculated distance information is reliable or not, or may be multi-level reliability information.

また、算出した複数種類の信頼度情報を統合して一つの信頼度情報として出力しても良い。統合の際は、それぞれの信頼度情報算出に用いた情報が距離計測への与える影響の大きさを考慮して合成することが望ましい。例えば、演算領域中を黒潰れもしくは白飛びの一方が全て占めていた場合は、アクティブ方式を含むどの距離計測方式においても距離計測できないためこの信頼度情報の重みを大きくして加重平均により信頼度情報の統合を行う。位相差方式においては、次にコントラストの低下や周期被写体が距離計測における誤差要因として影響が大きい。DFD方式においては、撮影タイミングの違いによる位置ずれの影響が黒潰れ・白飛びの次に影響が高く、その後に距離計測範囲やコントラストの影響が続く。   Further, the calculated plural types of reliability information may be integrated and output as one reliability information. At the time of integration, it is desirable to combine the information used for calculating reliability information in consideration of the magnitude of influence on distance measurement. For example, if either one of the blacked out areas or overexposed areas occupies the calculation area, the distance cannot be measured by any distance measurement method including the active method. Integrate information. In the phase difference method, a contrast reduction or a periodic subject has the largest influence as an error factor in distance measurement. In the DFD method, the influence of the position shift due to the difference in the photographing timing has the next highest influence after blackout and whiteout, followed by the influence of the distance measurement range and contrast.

次に、各距離計測方式で算出した距離情報および信頼度情報を用いた距離補正に関して説明する。距離補正処理の基本的な流れは図7に示すフローチャートと同様である。しかしながら、補正値算出ステップS145の動作が異なる。   Next, distance correction using distance information and reliability information calculated by each distance measurement method will be described. The basic flow of the distance correction process is the same as the flowchart shown in FIG. However, the operation of the correction value calculation step S145 is different.

第一の実施形態では、DFD方式の距離画像DDFDの中で選択した領域RDにおいて、代表デフォーカス量を算出する際に平均値や中央値を用いた。本実施形態では、数式9のように距離画像DDFDの画素ごとに算出した信頼度情報CMDFDを重み係数としたデフォーカス量DHの加重平均値を代表デフォーカス量DHrepとして算出する。

Figure 2017138199
In the first embodiment, the average value or the median value is used when calculating the representative defocus amount in the region RD i selected in the DFD distance image D DFD . In the present embodiment, the weighted average value of the defocus amount DH using the reliability information CM DFD calculated for each pixel of the distance image D DFD as represented by Expression 9 is used as the representative defocus amount DH rep .
Figure 2017138199

信頼度情報CMDFDが二値の情報の場合は、信頼できるデフォーカス量のみを用いて代表デフォーカス量DHrepを算出することになり、信頼度情報CMDFDが多値の情報の場合は、加重平均により代表デフォーカス量DHrepを算出することになる。この代表デフォーカス量DHrepを数式7に代入することで補正値DCを算出する。 When the reliability information CM DFD is binary information, the representative defocus amount DH rep is calculated using only reliable defocus amounts. When the reliability information CM DFD is multi-value information, The representative defocus amount DH rep is calculated by the weighted average. The correction value DC is calculated by substituting this representative defocus amount DH rep into Equation 7.

これにより、DFD方式で演算された距離画像DDFDにおいて距離計測誤差が大きいと推測される値の影響を抑えることができ、より正確な代表デフォーカス量を算出するこ
とでより正解な補正値の算出が可能となる。
As a result, the influence of the value estimated to have a large distance measurement error in the distance image DDFD calculated by the DFD method can be suppressed, and a more accurate correction value can be obtained by calculating a more accurate representative defocus amount. Calculation is possible.

数式9を用いた補正ではDFD方式の信頼度情報のみを用いて補正を行ったが、位相差方式の信頼度情報も使用する方法を以下に説明する。   In the correction using Expression 9, correction is performed using only the reliability information of the DFD method, but a method using the reliability information of the phase difference method will be described below.

まず、位相差方式により計測された距離画像において画素RPの信頼度情報CMPDを取得し、同様にDFD方式により計測された距離画像からブロック領域RPに対応する領域RDの信頼度情報CMDFDを取得する。DFD方式の距離画像DDFDでは、領域RD内でデフォーカス量も信頼度情報CMDFDも一定ではない。そこで、領域RDの信頼度情報の平均値を代表信頼度情報CMDFD_REPとして算出する(CM
FD_REP=Average(CMDFD))。このDFD方式の代表信頼度情報CMDFD_REPと位相差方式の信頼度情報CMPDを用いて数式10により、位相差方式
の信頼度情報の比率βを算出する。

Figure 2017138199
First, the reliability information CM PD of the pixel RP i is acquired in the distance image measured by the phase difference method, and the reliability information of the region RD i corresponding to the block region RP i from the distance image similarly measured by the DFD method. Get CM DFD . In the range image D DFD of the DFD method, the defocus amount and the reliability information CM DFD are not constant in the region RD i . Therefore, the average value of the reliability information of the region RD i is calculated as the representative reliability information CM DFD_REP (CM D
FD_REP = Average (CM DFD )). The ratio β of the phase difference reliability information is calculated by Equation 10 using the DFD representative reliability information CM DFD_REP and the phase difference reliability information CM PD .
Figure 2017138199

位相差方式の信頼度情報の比率βは、最大値が1で最小値が0であり、位相差方式とDFD方式の信頼度情報の比率の和が1となるように規格化した値である。   The ratio β of the reliability information of the phase difference method is a value normalized so that the maximum value is 1 and the minimum value is 0, and the sum of the ratios of the reliability information of the phase difference method and the DFD method is 1. .

本実施形態では、信頼度情報の比率βと安定度αを用い、数式7を変形した数式11によってデフォーカス量補正値DCを算出する。ただし、安定度αは数式7と同様に1≧α>0.5を満たすものとする。

Figure 2017138199
ここで、距離計測方式の安定度αは被写体とは無関係に決定されるもので主に撮像装置側(距離計測装置側)で決定される値であり、信頼度情報の比率βは被写体側に依存して決定される値である。 In the present embodiment, the defocus amount correction value DC is calculated using Equation 11 obtained by transforming Equation 7 using the reliability information ratio β and stability α. However, the stability α is assumed to satisfy 1 ≧ α> 0.5 similarly to Equation 7.
Figure 2017138199
Here, the stability α of the distance measurement method is determined regardless of the subject and is a value mainly determined on the imaging device side (distance measurement device side), and the reliability information ratio β is on the subject side. It is a value determined depending on.

また、信頼度情報の比率βのみを用いた数式12でデフォーカス量補正値DCを算出することもできる。

Figure 2017138199
Also, the defocus amount correction value DC can be calculated by Expression 12 using only the reliability information ratio β.
Figure 2017138199

本実施形態では、位相差方式とDFD方式の距離計測結果と信頼度情報を用いる場合を例に示したが、他の距離計測方式でも各方式の特徴に応じた信頼度情報を用いて同様の補正を行うことが可能であり、距離計測方式を限定するものではない。   In this embodiment, the case where the distance measurement result and reliability information of the phase difference method and the DFD method are used is shown as an example, but the same information is also used in other distance measurement methods using reliability information according to the characteristics of each method. Correction can be performed, and the distance measurement method is not limited.

本実施形態によれば、被写体に依存しない距離計測方式の安定度に加え、被写体に依存した距離計測の信頼度情報を用いることで、より正確なデフォーカス量の補正値を算出す
ることが可能となる。これにより、より正確で安定度が高く高解像度な距離情報を生成することが可能となる。
According to the present embodiment, in addition to the stability of the distance measurement method that does not depend on the subject, it is possible to calculate a more accurate defocus amount correction value by using the reliability information of the distance measurement that depends on the subject. It becomes. Thereby, it is possible to generate distance information with higher accuracy, higher stability, and higher resolution.

<変形例>
なお、各実施形態の説明は本発明を説明する上での例示であり、本発明は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、本発明は、上記処理の少なくとも一部を含む撮像装置として実施することもできるし、撮像手段を有さない距離計測装置として実施することもできる。また、距離計測方法として実施することもできるし、当該距離計測方法を距離計測装置に実行させる画像処理プログラムとして実施することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Modification>
The description of each embodiment is an exemplification for explaining the present invention, and the present invention can be implemented with appropriate modifications or combinations without departing from the spirit of the invention. For example, the present invention can be implemented as an imaging apparatus that includes at least a part of the above processing, or can be implemented as a distance measuring apparatus that does not include an imaging unit. Moreover, it can also implement as a distance measurement method, and can also be implemented as an image processing program which makes a distance measurement apparatus perform the said distance measurement method. The above processes and means can be freely combined and implemented as long as no technical contradiction occurs.

上記の説明では、高解像度の距離画像の各画素における距離値を補正することによって、高解像度かつ高安定度の距離画像を生成している。しかしながら、高解像度の距離画像と低解像度の距離画像を統合して高解像度かつ高安定度の距離画像を生成すればよく、例えば、高解像度および低解像度の距離画像は保持したまま、新しい距離画像を生成しても構わない。すなわち、高解像度かつ高安定度の距離画像を生成する方法は、既存の距離画像を補正する処理に限られない。   In the above description, a high-resolution and high-stability distance image is generated by correcting the distance value at each pixel of the high-resolution distance image. However, it is only necessary to integrate a high-resolution distance image and a low-resolution distance image to generate a high-resolution and high-stability distance image, for example, a new distance image while retaining the high-resolution and low-resolution distance images. May be generated. That is, the method for generating a high-resolution and high-stability distance image is not limited to the process of correcting an existing distance image.

また、実施形態で説明した各要素技術は、任意に組み合わせてもよい。   In addition, the elemental technologies described in the embodiments may be arbitrarily combined.

本発明を異なる距離計測装置で取得された距離情報を統合する画像処理装置として実施する際は、異なる距離情報画像間の位置合わせ処理を追加する必要がある。位置合わせを行った二つの距離情報画像に対して、本発明の距離補正手段を実行することにより高安定かつ高解像度な距離情報画像を生成することができる。   When the present invention is implemented as an image processing device that integrates distance information acquired by different distance measuring devices, it is necessary to add a positioning process between different distance information images. A highly stable and high-resolution distance information image can be generated by executing the distance correction means of the present invention on the two distance information images that have been aligned.

<実装例>
上述した本発明の距離計測技術は、例えば、デジタルカメラやデジタルカムコーダなどの撮像装置、あるいは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明を適用することができる。
<Example of implementation>
The above-described distance measurement technique of the present invention can be preferably applied to, for example, an imaging apparatus such as a digital camera or a digital camcorder, or an image processing apparatus or computer that performs image processing on image data obtained by the imaging apparatus. Further, the present invention can also be applied to various electronic devices (including mobile phones, smartphones, slate terminals, and personal computers) incorporating such an imaging device or image processing device.

また、実施形態の説明では、撮像装置本体に距離計測の機能を組み込んだ構成を示したが、距離計測は撮像装置以外で行ってもよい。たとえば、撮像装置を有するコンピュータに距離計測の機能を組み込み、撮像装置で撮影した画像をコンピュータが取得して、距離の算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに距離計測の機能を組み込み、当該コンピュータがネットワークを介して複数枚の画像を取得し、距離計測を行うようにしてもよい。   In the description of the embodiment, the configuration in which the distance measurement function is incorporated in the imaging apparatus main body is shown. However, the distance measurement may be performed by other than the imaging apparatus. For example, a distance measurement function may be incorporated into a computer having an imaging device, and the computer may acquire an image captured by the imaging device and calculate the distance. Alternatively, a distance measurement function may be incorporated in a computer that can be accessed via a wired or wireless network, and the computer may acquire a plurality of images via the network and perform distance measurement.

得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ボケ効果のエミュレーションなどの各種画像処理に利用することができる。   The obtained distance information can be used, for example, for various image processing such as image segmentation, generation of stereoscopic images and depth images, and emulation of blur effects.

なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、撮像装置や画像処理装置に内蔵されたコンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明の目的を達成するための各種処理を実現してもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。   It should be noted that the specific mounting on the device can be either software (program) mounting or hardware mounting. For example, various processes for achieving the object of the present invention are realized by storing a program in a memory of a computer (microcomputer, FPGA, etc.) built in an imaging apparatus or an image processing apparatus and causing the computer to execute the program. May be. It is also preferable to provide a dedicated processor such as an ASIC that implements all or part of the processing of the present invention with a logic circuit.

この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体はいずれも本発明の範疇に含まれる。   For this purpose, the program is stored in the computer from, for example, various types of recording media that can serve as the storage device (ie, computer-readable recording media that holds data non-temporarily). Provided to. Therefore, any of the computer (including devices such as CPU and MPU), the method, the program (including program code and program product), and the computer-readable recording medium that holds the program in a non-temporary manner is used in the present invention. Included in the category.

14:距離計測部
143:代表値決定部
144:補正値決定部
147:生成部
14: Distance measurement unit 143: Representative value determination unit 144: Correction value determination unit 147: Generation unit

Claims (19)

第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理装置であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定手段と、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定手段と、
前記第二の距離画像の前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成手段と、
を備える、画像処理装置。
An image processing device that generates a third distance image based on a first distance image and a second distance image having a lower resolution than the first distance image,
Representative value determining means for selecting a region of the first distance image corresponding to the target pixel of the second distance image and determining a representative value of the distance value of the first distance image in the region;
Correction value determining means for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel;
Generating means for generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the region of the second distance image based on the correction value as a pixel value;
An image processing apparatus comprising:
前記補正値決定手段は、前記第一の距離画像の距離計測の安定度と前記第二の距離画像の距離計測の安定度との比に基づく重み係数を用いて前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均を求め、当該加重平均から前記代表値を減算した値を前記補正値として決定する、
請求項1に記載の画像処理装置。
The correction value determining means uses the weighting factor based on the ratio between the stability of the distance measurement of the first distance image and the stability of the distance measurement of the second distance image to determine the representative value and the target pixel. A weighted average with the distance value of the second distance image is obtained, and a value obtained by subtracting the representative value from the weighted average is determined as the correction value.
The image processing apparatus according to claim 1.
前記補正値決定手段は、前記領域内の前記第一の距離画像の各画素における距離値の代表信頼度と前記第二の距離画像の前記対象画素における距離値の信頼度との比に基づく重み係数を用いて前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均を求め、当該加重平均から前記代表値を減算した値を前記補正値として決定する、
請求項1または2に記載の画像処理装置。
The correction value determining means is a weight based on a ratio between a representative reliability of the distance value in each pixel of the first distance image in the region and a reliability of the distance value in the target pixel of the second distance image. A weighted average of the representative value and the distance value of the second distance image in the target pixel is obtained using a coefficient, and a value obtained by subtracting the representative value from the weighted average is determined as the correction value.
The image processing apparatus according to claim 1.
前記代表値決定手段は、前記領域内の前記第一の距離画像の距離値の中央値または平均値を前記代表値として決定する、
請求項1から3のいずれか1項に記載の画像処理装置。
The representative value determining means determines a median value or an average value of distance values of the first distance image in the region as the representative value.
The image processing apparatus according to claim 1.
前記代表値決定手段は、前記第一の距離画像の各画素における距離値の信頼度も用いて前記代表値を決定する、
請求項1から4のいずれか1項に記載の画像処理装置。
The representative value determining means determines the representative value using the reliability of the distance value in each pixel of the first distance image;
The image processing apparatus according to claim 1.
前記代表値決定手段は、前記第一の距離画像の各画素における距離値の信頼度を重み係数とする、前記領域内の前記第一の距離画像の距離値の加重平均値を、前記代表値として決定する、
請求項5に記載の画像処理装置。
The representative value determining means uses a weighted average value of the distance values of the first distance image in the region, using the reliability of the distance value in each pixel of the first distance image as a weighting factor. As determined,
The image processing apparatus according to claim 5.
前記信頼度は、被写体像のコントラスト、被写体像の輝度値、被写体の周期性情報、被写体および撮像時の動き情報、距離計測範囲情報の少なくとも何れか一つを用いて決定される、
請求項3、5、6のいずれか1項に記載の画像処理装置。
The reliability is determined using at least one of the contrast of the subject image, the luminance value of the subject image, the periodicity information of the subject, the subject and the movement information at the time of imaging, and the distance measurement range information.
The image processing apparatus according to claim 3.
前記生成手段は、前記第二の距離画像の前記領域内の各画素の距離値に前記補正値を加算した値を距離値を画素値として有する第三の距離画像を生成する、
請求項1から7のいずれか1項に記載の画像処理装置。
The generating means generates a third distance image having a distance value as a pixel value, which is a value obtained by adding the correction value to the distance value of each pixel in the region of the second distance image.
The image processing apparatus according to claim 1.
前記生成手段は、前記第二の距離画像の前記領域内の各画素の距離値に、当該領域に対して決定される補正値と当該領域に隣接する隣接領域に対して決定される補正値との加重平均値を加算した値を距離値を画素値として有する第三の距離画像を生成する、
請求項1から7のいずれか1項に記載の画像処理装置。
The generation means includes a correction value determined for the area and a correction value determined for an adjacent area adjacent to the area in the distance value of each pixel in the area of the second distance image. Generating a third distance image having a distance value as a pixel value obtained by adding a weighted average value of
The image processing apparatus according to claim 1.
前記生成手段は、前記第三の距離画像の、前記第二の距離画像の隣接する画素に対応する隣接する領域の境界に対して平滑化処理を施す、
請求項1から9のいずれか1項に記載の画像処理装置。
The generation means performs a smoothing process on a boundary of an adjacent region corresponding to an adjacent pixel of the second distance image of the third distance image.
The image processing apparatus according to claim 1.
前記第一の距離画像と前記第二の距離画像は、同じ撮像面から取得される、
請求項1から10のいずれか1項に記載の画像処理装置。
The first distance image and the second distance image are acquired from the same imaging surface.
The image processing apparatus according to claim 1.
前記第一の距離画像は、異なる撮影条件で撮影された複数の画像から、ぼけの違いに基づいて距離が検出された距離画像である、
請求項1から11のいずれか1項に記載の画像処理装置。
The first distance image is a distance image in which a distance is detected based on a difference in blur from a plurality of images shot under different shooting conditions.
The image processing apparatus according to claim 1.
前記第二の距離画像は、視差のある複数の画像の位相差に基づいて距離が検出された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second distance image is a distance image in which a distance is detected based on a phase difference between a plurality of images having parallax.
The image processing apparatus according to claim 1.
前記第二の距離画像は、Time of Flight方式により取得された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second distance image is a distance image acquired by the Time of Flight method.
The image processing apparatus according to claim 1.
前記第二の距離画像は、レーザースキャン方式により取得された距離画像である、
請求項1から12のいずれか1項に記載の画像処理装置。
The second distance image is a distance image acquired by a laser scanning method.
The image processing apparatus according to claim 1.
前記第一の距離画像と前記第二の距離画像が同一視点の画像となるように、前記第一の距離画像と前記第二の距離画像の少なくとも一方を変形する変形手段をさらに備える、
請求項1から15のいずれか1項に記載の画像処理装置。
Deformation means for deforming at least one of the first distance image and the second distance image so that the first distance image and the second distance image are images of the same viewpoint,
The image processing apparatus according to claim 1.
撮像素子と、
前記撮像素子により撮影された画像から、前記第一の距離画像および前記第二の距離画像を生成する距離画像生成手段と、
請求項1から16のいずれか1項に記載の画像処理装置と、
を備える、撮像装置。
An image sensor;
A distance image generating means for generating the first distance image and the second distance image from an image captured by the image sensor;
The image processing apparatus according to any one of claims 1 to 16,
An imaging apparatus comprising:
第一の距離画像と前記第一の距離画像よりも解像度の低い第二の距離画像とに基づいて第三の距離画像を生成する画像処理方法であって、
前記第二の距離画像の対象画素に対応する前記第一の距離画像の領域を選択して、当該領域内の前記第一の距離画像の距離値の代表値を決定する代表値決定ステップと、
前記代表値と前記対象画素における前記第二の距離画像の距離値との加重平均に基づいて補正値を決定する補正値決定ステップと、
前記領域内の各画素の距離値を前記補正値に基づいて補正した距離値を画素値として有する第三の距離画像を生成する生成ステップと、
を含む、画像処理方法。
An image processing method for generating a third distance image based on a first distance image and a second distance image having a lower resolution than the first distance image,
A representative value determining step of selecting a region of the first distance image corresponding to the target pixel of the second distance image and determining a representative value of the distance value of the first distance image in the region;
A correction value determining step for determining a correction value based on a weighted average of the representative value and the distance value of the second distance image in the target pixel;
Generating a third distance image having a distance value obtained by correcting the distance value of each pixel in the region based on the correction value as a pixel value;
Including an image processing method.
請求項18に記載の方法の各ステップをコンピュータに実行させるプログラム。   The program which makes a computer perform each step of the method of Claim 18.
JP2016019240A 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method Active JP6700818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016019240A JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016019240A JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Publications (2)

Publication Number Publication Date
JP2017138199A true JP2017138199A (en) 2017-08-10
JP6700818B2 JP6700818B2 (en) 2020-05-27

Family

ID=59566756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016019240A Active JP6700818B2 (en) 2016-02-03 2016-02-03 Image processing device, imaging device, and image processing method

Country Status (1)

Country Link
JP (1) JP6700818B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110389334A (en) * 2018-04-17 2019-10-29 株式会社东芝 Image processing apparatus, image processing method and Range Measurement System
JP2020086216A (en) * 2018-11-28 2020-06-04 株式会社Jvcケンウッド Imaging control device, imaging apparatus and imaging control program
WO2021166542A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Object detection device, light reception unit, and object detection device control method
JP7113327B1 (en) 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera
WO2012137434A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Stereoscopic imaging device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110389334A (en) * 2018-04-17 2019-10-29 株式会社东芝 Image processing apparatus, image processing method and Range Measurement System
CN110389334B (en) * 2018-04-17 2023-05-16 株式会社东芝 Image processing device, image processing method, and distance measuring system
JP2020086216A (en) * 2018-11-28 2020-06-04 株式会社Jvcケンウッド Imaging control device, imaging apparatus and imaging control program
JP7107191B2 (en) 2018-11-28 2022-07-27 株式会社Jvcケンウッド Imaging control device, imaging device, and imaging control program
WO2021166542A1 (en) * 2020-02-18 2021-08-26 株式会社デンソー Object detection device, light reception unit, and object detection device control method
JP2021131229A (en) * 2020-02-18 2021-09-09 株式会社デンソー Object detection device, light receiving unit, and control method of object detection device
JP7255513B2 (en) 2020-02-18 2023-04-11 株式会社デンソー OBJECT DETECTION DEVICE, LIGHT SENSOR, AND CONTROL METHOD OF OBJECT DETECTION DEVICE
JP7113327B1 (en) 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device
JP2023011279A (en) * 2021-07-12 2023-01-24 パナソニックIpマネジメント株式会社 Imaging device

Also Published As

Publication number Publication date
JP6700818B2 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
RU2585235C2 (en) Image capture devices
JP5825817B2 (en) Solid-state imaging device and imaging apparatus
JP4699995B2 (en) Compound eye imaging apparatus and imaging method
US9531960B2 (en) Imaging apparatus for generating HDR image from images captured at different viewpoints and method for controlling imaging apparatus
US9407812B2 (en) Image pickup apparatus capable of performing autofocus control in response to output of image pickup device, control method therefor, and storage medium storing control program therefor
US20150042839A1 (en) Distance measuring apparatus, imaging apparatus, and distance measuring method
JP6220148B2 (en) Imaging apparatus and control method thereof
JP2016061609A (en) Distance measuring device, imaging apparatus, and distance measuring method
JP2017208641A (en) Imaging device using compression sensing, imaging method, and imaging program
JP2016038414A (en) Focus detection device, control method thereof, and imaging apparatus
US9413952B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
JP6700818B2 (en) Image processing device, imaging device, and image processing method
JP7380777B2 (en) Control devices, control methods, computer programs and electronic equipment
JP6555990B2 (en) Distance measuring device, imaging device, and distance measuring method
US11812137B2 (en) Measurement apparatus, image capturing apparatus, control method, and recording medium
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP2017208642A (en) Imaging device using compression sensing, imaging method, and imaging program
JP2022012301A (en) Information processing apparatus, imaging apparatus, control method, and program
JP2021127998A (en) Distance information acquisition device and distance information acquisition method
JP2018074362A (en) Image processing apparatus, image processing method, and program
JP2021004762A (en) Measurement device, imaging device, measurement system, control method, program and recording medium
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6566800B2 (en) Imaging apparatus and imaging method
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200501

R151 Written notification of patent or utility model registration

Ref document number: 6700818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151