JP7065761B2 - Distance measuring device and distance measuring method - Google Patents

Distance measuring device and distance measuring method Download PDF

Info

Publication number
JP7065761B2
JP7065761B2 JP2018242875A JP2018242875A JP7065761B2 JP 7065761 B2 JP7065761 B2 JP 7065761B2 JP 2018242875 A JP2018242875 A JP 2018242875A JP 2018242875 A JP2018242875 A JP 2018242875A JP 7065761 B2 JP7065761 B2 JP 7065761B2
Authority
JP
Japan
Prior art keywords
pattern
distance
evaluation index
measuring device
complex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018242875A
Other languages
Japanese (ja)
Other versions
JP2020106301A (en
Inventor
啓太 山口
悠介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018242875A priority Critical patent/JP7065761B2/en
Priority to PCT/JP2019/043827 priority patent/WO2020137185A1/en
Publication of JP2020106301A publication Critical patent/JP2020106301A/en
Application granted granted Critical
Publication of JP7065761B2 publication Critical patent/JP7065761B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、距離計測装置および距離計測方法に関する。 The present invention relates to a distance measuring device and a distance measuring method.

特許文献1には、撮影後のフォーカス調整(リフォーカス)、オートフォーカス、測距等を行う高機能な撮像装置を実現するための構成として、「撮像面にアレイ状に配列された複数の画素に取り込まれた光学像を画像信号に変換して出力する画像センサと、前記画像センサの受光面に設けられ、光の強度を変調する変調器と、前記画像センサから出力される画像信号を一時的に格納する画像記憶部と、前記画像記憶部から出力される画像信号の画像処理を行う信号処理部と、を具備し、前記変調器は、複数の同心円から構成される第1の格子パターンを有し、前記信号処理部は、前記画像センサから出力される画像信号を、複数の同心円から構成される第2の格子パターンで変調することでモアレ縞画像を生成する」ことを特徴とする撮像装置が開示されている。 Patent Document 1 describes "a plurality of pixels arranged in an array on the image pickup surface" as a configuration for realizing a high-performance image pickup device that performs focus adjustment (refocus), auto focus, distance measurement, etc. after shooting. An image sensor that converts the optical image captured in the image into an image signal and outputs it, a modulator provided on the light receiving surface of the image sensor to modulate the light intensity, and an image signal output from the image sensor temporarily. The modulator includes a first grid pattern composed of a plurality of concentric circles, comprising an image storage unit for storing the image and a signal processing unit for performing image processing of the image signal output from the image storage unit. The signal processing unit generates a moire fringe image by modulating the image signal output from the image sensor with a second lattice pattern composed of a plurality of concentric circles. " The imaging device is disclosed.

国際公開第2017/149687号International Publication No. 2017/149678

特許文献1に記載の撮像装置では、距離計測を行うため、撮像結果のコントラストの高低を基に距離情報を抽出している。しかし、当該発明の撮像装置の構成では、正確な距離情報を生成することが困難である。 In the image pickup apparatus described in Patent Document 1, in order to measure the distance, the distance information is extracted based on the high and low contrast of the image pickup result. However, in the configuration of the image pickup apparatus of the present invention, it is difficult to generate accurate distance information.

本発明は、このような状況に鑑みてなされたものであり、撮像装置等の距離計測演算において、正確な距離情報を生成できるようにすることを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to enable accurate distance information to be generated in a distance measurement calculation of an image pickup device or the like.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明の一態様に係る距離計測装置は、光を電気信号に変換し、センサ画像を生成する画像センサと、撮影用パターンに基づいて上記画像センサ上に投影される光の強度を変調する変調器と、上記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像生成部と、上記複素センサ画像の位相情報を基に評価指標配列を生成する評価指標配列生成部と、上記評価指標配列を用いて距離情報を生成する距離情報生成部と、を有し、上記評価指標配列生成部は、ピント距離に応じた複数の互いに異なる現像用パターンを含む評価用パターンを生成し、上記複素センサ画像と複数の上記現像用パターンとの相互相関演算を行って複数の現像画像を生成し、上記複数の現像画像をピント距離が近い順に積層させることで平面および奥行き方向を有する三次元の複素情報配列を生成し、上記複素情報配列について上記三次元の少なくとも一つの方向に所定の範囲で平滑化して二次元配列を複数生成し、該二次元配列を上記積層方向に積層させた三次元配列を上記評価指標配列とすることを特徴とする。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows. In order to solve the above problems, the distance measuring device according to one aspect of the present invention is projected onto the image sensor based on an image sensor that converts light into an electric signal and generates a sensor image and an imaging pattern. A modulator that modulates the light intensity, a complex sensor image generator that generates a complex sensor image having a complex number from the sensor image, and an evaluation index array generation that generates an evaluation index array based on the phase information of the complex sensor image. The evaluation index sequence generation unit includes an evaluation pattern including a plurality of different development patterns according to the focus distance, and a distance information generation unit that generates distance information using the evaluation index sequence. Is generated, a plurality of developed images are generated by performing a mutual correlation calculation between the complex sensor image and the plurality of developed patterns, and the plurality of developed images are laminated in order of close focus distance in the plane and depth directions. A three-dimensional complex information sequence having a It is characterized in that the stacked three-dimensional array is used as the evaluation index array.

本発明によれば、正確な距離情報を生成することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, accurate distance information can be generated. Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.

本発明に係る第1の実施形態である距離計測装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the distance measuring apparatus which is 1st Embodiment which concerns on this invention. 撮像部の構成例を示す図である。It is a figure which shows the structural example of the image pickup part. 撮像部の他の構成例を示す図である。It is a figure which shows the other structural example of the image pickup part. 撮影用パターンまたは現像用パターンの一例を示す図である。It is a figure which shows an example of the pattern for photography or the pattern for development. 撮影用パターンまたは現像用パターンの一例を示す図である。It is a figure which shows an example of the pattern for photography or the pattern for development. 斜め入射平行光によるパターン基板表面から画像センサへの射影像が面内ずれを生じさせることを説明するための図である。It is a figure for demonstrating that the projection image from the surface of a pattern substrate by diagonally incident parallel light to an image sensor causes in-plane deviation. 撮影用パターンの一例の投影像を示す図である。It is a figure which shows the projection image of an example of a pattern for photography. 現像用パターンの一例を示す図である。It is a figure which shows an example of the development pattern. 相関現像方式による現像画像の一例を示す図である。It is a figure which shows an example of the developed image by a correlation development method. フリンジスキャンにおける初期位相の組合せの例を示す図である。It is a figure which shows the example of the combination of the initial phase in a fringe scan. 撮影用パターンの一例を示す図である。It is a figure which shows an example of a pattern for photography. 時分割フリンジスキャンの場合の距離計測装置の構成例を示す図である。It is a figure which shows the configuration example of the distance measuring apparatus in the case of a time division fringe scan. 空間分割フリンジスキャンの場合の距離計測装置の構成例を示す図である。It is a figure which shows the configuration example of the distance measuring apparatus in the case of a space division fringe scan. 物体が無限距離にある場合に撮影用パターンが投影されることを示す図である。It is a figure which shows that the pattern for photography is projected when the object is at an infinite distance. 物体が有限距離にある場合に撮影用パターンが拡大されることを示す図である。It is a figure which shows that the pattern for photography is enlarged when an object is at a finite distance. 複素センサ画像の生成方法を示す図である。It is a figure which shows the generation method of a complex sensor image. 複素センサ画像の例を示す図である。It is a figure which shows the example of the complex sensor image. 評価用パターンの例を示す図である。It is a figure which shows the example of the evaluation pattern. 距離計測の一例を示す図である。It is a figure which shows an example of a distance measurement. 評価指標配列の例を示す図である。It is a figure which shows the example of the evaluation index arrangement. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。It is a figure which shows an example of how the value of the array element of an evaluation index array changes according to the pitch of an evaluation pattern. 距離計測処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a distance measurement process. 評価指標配列をサンプリングする様子の一例を示す図である。It is a figure which shows an example of the state of sampling an evaluation index array. 距離情報をデータ変換した距離画像の一例を示す図である。It is a figure which shows an example of the distance image which data-converted the distance information. 複素センサ画像生成方法の一例を示す図である。It is a figure which shows an example of the complex sensor image generation method. 本発明に係る第2の実施形態である距離計測装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the distance measuring apparatus which is 2nd Embodiment which concerns on this invention. 複素情報配列の虚部絶対値とサンプリング点の様子の一例を示す図である。It is a figure which shows an example of the state of the imaginary part absolute value and a sampling point of a complex information array. 複素情報配列の虚部絶対値とサンプリング点の様子の一例を示す図である。It is a figure which shows an example of the state of the imaginary part absolute value and a sampling point of a complex information array. 複素情報配列の虚部絶対値とサンプリング点の様子の一例を示す図である。It is a figure which shows an example of the state of the imaginary part absolute value and a sampling point of a complex information array. 複素センサ画像と評価用パターンの相互相関演算結果の位相角をピッチ係数β’に対してプロットした結果の一例を示す図である。It is a figure which shows an example of the result of plotting the phase angle of the cross-correlation operation result of a complex sensor image and the evaluation pattern with respect to the pitch coefficient β'. 評価指標配列生成部の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the evaluation index sequence generation part. 複素情報配列の生成方法の一例を示す図である。It is a figure which shows an example of the generation method of a complex information array. 評価指標配列変換部の構成の一例を示す図である。It is a figure which shows an example of the structure of the evaluation index array conversion part. モアレ現像方式によるモアレ縞の一例を示す図である。It is a figure which shows an example of the moire fringe by the moire development method. 撮影用パターンおよび評価指標配列生成用パターンの一例を示す図である。It is a figure which shows an example of the pattern for photography and the pattern for generation of an evaluation index array. 撮影用パターンおよび評価指標配列生成用パターンの一例を示す図である。It is a figure which shows an example of the pattern for photography and the pattern for generation of an evaluation index array. 液晶表示素子における透明電極の一例を示す図である。It is a figure which shows an example of the transparent electrode in the liquid crystal display element. 液晶表示素子における透明電極の電圧印加パターンの一例を示す図である。It is a figure which shows an example of the voltage application pattern of a transparent electrode in a liquid crystal display element. 液晶表示素子における透明電極の電圧印加パターンの一例を示す図である。It is a figure which shows an example of the voltage application pattern of a transparent electrode in a liquid crystal display element. 液晶表示素子における透明電極の電圧印加パターンの一例を示す図である。It is a figure which shows an example of the voltage application pattern of a transparent electrode in a liquid crystal display element. 液晶表示素子における透明電極の電圧印加パターンの一例を示す図である。It is a figure which shows an example of the voltage application pattern of a transparent electrode in a liquid crystal display element. 評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。It is a figure which shows an example of how the value of the array element of an evaluation index array changes according to the pitch of an evaluation pattern. 評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。It is a figure which shows an example of how the value of the array element of an evaluation index array changes according to the pitch of an evaluation pattern. 平滑化パターン生成の様子の一例を示す図である。It is a figure which shows an example of the state of the smoothing pattern generation. 平滑化されていない評価用パターンを用いた場合の複素情報配列の一例を示す図である。It is a figure which shows an example of the complex information array when the evaluation pattern which is not smoothed is used. 平滑化パターンを用いた場合の複素情報配列の一例を示す図である。It is a figure which shows an example of the complex information array when the smoothing pattern is used. 加重平滑化パターン生成の様子の一例を示す図である。It is a figure which shows an example of the state of the weighted smoothing pattern generation. 加重平滑化パターン生成の重み付けの一例を示す図である。It is a figure which shows an example of the weighting of a weighted smoothing pattern generation. 距離計測ソフトウェアのユーザーインターフェースの一例を示す図である。It is a figure which shows an example of the user interface of the distance measurement software. 奥行き方向の平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the smoothing pattern generation in the depth direction. 奥行き方向の平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the smoothing pattern generation in the depth direction. 奥行き方向の平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the smoothing pattern generation in the depth direction. 奥行き方向の平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the smoothing pattern generation in the depth direction. 奥行き方向の平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the smoothing pattern generation in the depth direction. 複素現像画像のプロファイルを示す図である。It is a figure which shows the profile of the complex development image. 平滑化カーネルの一例を示す図である。It is a figure which shows an example of a smoothing kernel. 平滑化カーネルのカーネル幅の一例を示す図である。It is a figure which shows an example of the kernel width of a smoothing kernel. 複素現像画像のプロファイルの一例を示す図である。It is a figure which shows an example of the profile of a complex developed image. 複素現像画像のプロファイルを微分した一例を示す図である。It is a figure which shows an example which differentiated the profile of a complex development image. 複素微分パターン生成の一例を示す図である。It is a figure which shows an example of the complex differential pattern generation. 面内平滑化による距離計測処理の一例を説明するフローチャートである。It is a flowchart explaining an example of the distance measurement processing by in-plane smoothing. 微分平滑化パターン生成の一例を示す図である。It is a figure which shows an example of the differential smoothing pattern generation. 距離計測処理の一例を説明するフローチャートである。It is a flowchart explaining an example of a distance measurement process. 微分パターンの他の例を示す図である。It is a figure which shows another example of a differential pattern.

以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。
また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。
In the following embodiments, when necessary for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, one of which is the other. It is related to some or all of the modified examples, details, supplementary explanations, etc.
Further, in the following embodiments, when the number of elements (including the number, numerical value, quantity, range, etc.) is referred to, when it is specified in particular, or when it is clearly limited to a specific number in principle, etc. Except for this, the number is not limited to the specific number, and may be more than or less than the specific number.

さらに、各実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。また、各実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 Furthermore, it goes without saying that, in each embodiment, the components (including element steps and the like) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. stomach. Similarly, in the following embodiments, when the shape, positional relationship, etc. of the constituent elements are referred to, the shape is substantially the same, except when it is clearly stated or when it is considered that it is not clearly the case in principle. Etc., etc. shall be included. This also applies to the above numerical values and ranges. Further, in all the drawings for explaining each embodiment, the same members are designated by the same reference numerals in principle, and the repeated description thereof will be omitted.

以下、本発明の実施例について図面を用いて説明する。 Hereinafter, examples of the present invention will be described with reference to the drawings.

<第一の実施の形態>
<無限遠物体の撮影原理>
図1は、本発明に係る第一の実施の形態である距離計測装置101の構成例を示している。
<First embodiment>
<Principle of shooting infinity objects>
FIG. 1 shows a configuration example of the distance measuring device 101 according to the first embodiment of the present invention.

距離計測装置101は、結像させるレンズを用いることなく、外界の物体の画像を取得するものであり、図1に示すように、撮像部102、画像処理部106、コントローラ107、および距離計測変数設定部111から構成されている。 The distance measuring device 101 acquires an image of an object in the outside world without using a lens to form an image, and as shown in FIG. 1, the image pickup unit 102, the image processing unit 106, the controller 107, and the distance measuring variable. It is composed of a setting unit 111.

画像処理部106は、複素センサ画像生成部108、評価指標配列生成部109、及び距離情報生成部110を有する。 The image processing unit 106 includes a complex sensor image generation unit 108, an evaluation index sequence generation unit 109, and a distance information generation unit 110.

図2は、撮像部の構成例を示す図である。撮像部102は、画像センサ103、パターン基板104、撮影用パターン105から構成されている。 FIG. 2 is a diagram showing a configuration example of the imaging unit. The image pickup unit 102 includes an image sensor 103, a pattern substrate 104, and a shooting pattern 105.

パターン基板104は、その一方の平面が画像センサ103の受光面に密着して固定されており、他方の平面には撮影用パターン105が形成されている。パターン基板104は、例えばガラスやプラスティックなどの可視光に対して透明な材料からなる。 One of the planes of the pattern substrate 104 is fixed in close contact with the light receiving surface of the image sensor 103, and the pattern 105 for photographing is formed on the other plane. The pattern substrate 104 is made of a material transparent to visible light such as glass and plastic.

撮影用パターン105は、例えば半導体プロセスに用いられるスパッタリング法などによってアルミニウム、クロムなどの金属を蒸着することによって形成される。アルミニウムが蒸着されたパターンと蒸着されていないパターンによって濃淡がつけられる。 The photographing pattern 105 is formed by depositing a metal such as aluminum or chromium by, for example, a sputtering method used in a semiconductor process. Light and shade are added by the aluminum-deposited pattern and the non-deposited pattern.

なお、撮影用パターン105の形成はこれに限定されるものでなく、例えばインクジェットプリンタなどによる印刷などによって濃淡をつけるなど、透過率の変調を実現できる手段であればどのように形成してもよい。また、ここでは可視光を例に説明したが、例えば遠赤外線の撮影を行う際には、パターン基板104は例えばゲルマニウム、シリコン、カルコゲナイドなどの遠赤外線に対して透明な材料とするなど、撮影対象となる波長に対して透明な材料を用い、撮影用パターン105は遮断する材料を用いればよい。 The formation of the photographing pattern 105 is not limited to this, and any means may be used as long as it can realize modulation of the transmittance, for example, by printing with an inkjet printer or the like to add light and shade. .. Further, although visible light has been described as an example here, for example, when photographing far infrared rays, the pattern substrate 104 is a material to be photographed, for example, a material transparent to far infrared rays such as germanium, silicon, and chalcogenide. A material that is transparent to the wavelength to be used may be used, and a material that blocks the photographing pattern 105 may be used.

なお、ここでは撮影用パターン105をパターン基板104に形成する方法について述べたが、図3に示すように形成してもよい。 Although the method of forming the photographing pattern 105 on the pattern substrate 104 has been described here, it may be formed as shown in FIG.

図3は、撮像部の他の構成例を示す図である。撮像部102は、撮影用パターン105を薄膜に形成し、支持部材301により保持されている。なお、距離計測装置101において、撮影画角はパターン基板104の厚さによって変更可能である。よって、例えばパターン基板104が図3の構成であり支持部材301の長さを変更可能な機能を有していれば、撮影時に画角を変更して撮影することも可能となる。 FIG. 3 is a diagram showing another configuration example of the imaging unit. The imaging unit 102 forms an imaging pattern 105 on a thin film and is held by a support member 301. In the distance measuring device 101, the shooting angle of view can be changed by the thickness of the pattern substrate 104. Therefore, for example, if the pattern substrate 104 has the configuration shown in FIG. 3 and has a function of changing the length of the support member 301, it is possible to change the angle of view at the time of shooting.

画像センサ103の表面には、受光素子である画素103aが格子状に規則的に配置されている。この画像センサ103は、画素103aが受光した光画像を電気信号である画像信号に変換する。画像センサ103から出力された画像信号は、画像処理部である画像処理部106によって画像処理されて出力される。 Pixels 103a, which are light receiving elements, are regularly arranged in a grid pattern on the surface of the image sensor 103. The image sensor 103 converts an optical image received by the pixel 103a into an image signal which is an electric signal. The image signal output from the image sensor 103 is image-processed and output by the image processing unit 106, which is an image processing unit.

以上の構成において、撮影する場合には、撮影用パターン105を透過する光は、そのパターンによって光強度が変調され、透過した光は画像センサ103にて受光される。画像センサ103から出力された画像信号は、画像処理部106によって画像処理されたデータがコントローラ107に出力される。コントローラ107は、画像処理部106の出力をホストコンピュータや外部記録媒体に出力する場合には、USB等のインターフェイスに適合するようデータ形式を変換し出力する。 In the above configuration, when photographing, the light intensity of the light transmitted through the photographing pattern 105 is modulated by the pattern, and the transmitted light is received by the image sensor 103. As for the image signal output from the image sensor 103, the data processed by the image processing unit 106 is output to the controller 107. When the output of the image processing unit 106 is output to a host computer or an external recording medium, the controller 107 converts the data format so as to be compatible with an interface such as USB and outputs the data.

続いて、距離計測装置101における画像撮影原理について説明する。まず、撮影用パターン105は、中心からの半径に対して反比例してピッチが細かくなる同心円状のパターンである。ここで、撮影用パターン105を、同心円の中心である基準座標からの半径r、ピッチ係数βを用いて、次式(1)のように定義する。 Subsequently, the image capturing principle in the distance measuring device 101 will be described. First, the photographing pattern 105 is a concentric pattern in which the pitch becomes finer in inverse proportion to the radius from the center. Here, the photographing pattern 105 is defined as the following equation (1) by using the radius r from the reference coordinates which are the centers of the concentric circles and the pitch coefficient β.

Figure 0007065761000001
Figure 0007065761000001

撮影用パターン105は、式(1)に比例して透過率変調されているものとする。 It is assumed that the photographing pattern 105 is transmittance-modulated in proportion to the equation (1).

撮影用パターン105のような縞を持つプレートは、ガボールゾーンプレートやフレネルゾーンプレートと呼ばれる。図4に式(1)のガボールゾーンプレート、図5に式(1)を閾値1で2値化したフレネルゾーンプレートの例を示す。 Plates with stripes such as the photographing pattern 105 are called Gabor zone plates or Fresnel zone plates. FIG. 4 shows an example of a Gabor zone plate of the formula (1), and FIG. 5 shows an example of a Fresnel zone plate obtained by binarizing the formula (1) with a threshold value of 1.

なお、ここより以降、簡単化のためにx軸方向についてのみ数式で説明するが、同様にy軸方向について考慮することで2次元に展開して考えることが可能である。 From here onward, for the sake of simplicity, only the x-axis direction will be described by a mathematical formula, but it is possible to expand and think in two dimensions by similarly considering the y-axis direction.

撮影用パターン105が形成された厚さdのパターン基板104に、図6に示すようにx軸方向に角度θで平行光が入射したとする。パターン基板104中の屈折角をθとして幾何光学的には、表面の格子の透過率が乗じられた光が、k=d・tanθだけずれて画像センサ103に入射する。このとき、次式(2)に示されるような強度分布を持つ当映像が画像センサ103上で検出される。 As shown in FIG. 6, it is assumed that parallel light is incident on the pattern substrate 104 having a thickness d on which the photographing pattern 105 is formed at an angle θ 0 in the x-axis direction. Geometrically, with the refraction angle in the pattern substrate 104 as θ, the light multiplied by the transmittance of the lattice on the surface is incident on the image sensor 103 with a deviation of k = d · tan θ. At this time, the image having an intensity distribution as shown in the following equation (2) is detected on the image sensor 103.

Figure 0007065761000002
Figure 0007065761000002

なお、Φは式(1)の透過率分布の初期位相を示す。この撮影用パターン105の投影像は式(2)のようにkシフトして投影される。これが撮像部102の出力となる。 Note that Φ indicates the initial phase of the transmittance distribution in the equation (1). The projected image of the photographing pattern 105 is projected with a k-shift as shown in the equation (2). This is the output of the image pickup unit 102.

撮影した画像の現像では、撮影用パターン105の投影像(図7)と現像用パターン801(図8)との相互相関関数を演算することにより、シフト量kの輝点(図9)を得る。 In the development of the captured image, a bright spot (FIG. 9) having a shift amount k is obtained by calculating a cross-correlation function between the projected image of the photographing pattern 105 (FIG. 7) and the developing pattern 801 (FIG. 8). ..

なお、一般的に相互相関演算を2次元畳込み演算で行うと演算量が大きくなってしまうので、演算量が少ないフーリエ変換を用いて演算する例について、数式を用いて原理を説明する。 In general, if the cross-correlation operation is performed by a two-dimensional convolution operation, the amount of calculation becomes large. Therefore, an example of using a Fourier transform with a small amount of calculation will be described using a mathematical formula.

まず、現像用パターン801は、撮影用パターン105と同様にガボールゾーンプレートやフレネルゾーンプレートを用いるため、現像用パターン801は、初期位相Φを用いて、次式(3)のように表すことができる。 First, since the developing pattern 801 uses a Gabor zone plate or a Fresnel zone plate like the photographing pattern 105, the developing pattern 801 can be expressed by the following equation (3) using the initial phase Φ. can.

Figure 0007065761000003
Figure 0007065761000003

現像用パターン801は、画像処理部106による画像処理で使用されるため、式(1)のように1でオフセットさせる必要はなく、負の値を有していても問題ない。 Since the development pattern 801 is used in the image processing by the image processing unit 106, it is not necessary to offset it by 1 as in the equation (1), and there is no problem even if it has a negative value.

式(2)、(3)のフーリエ変換は、それぞれ次式(4)、(5)のようになる。 The Fourier transforms of the equations (2) and (3) are as shown in the following equations (4) and (5), respectively.

Figure 0007065761000004
Figure 0007065761000004

Figure 0007065761000005
Figure 0007065761000005

ここで、Fはフーリエ変換の演算を表し、uはx方向の周波数座標、括弧を伴うδはデルタ関数である。式(4)、(5)で重要なことは、フーリエ変換後の式もまたフレネルゾーンプレートやガボールゾーンプレートとなっている点である。よって、式(4)、(5)に基づいてフーリエ変換後の現像用パターンを直接的に生成してもよい。これにより演算量を低減することが可能である。 Here, F represents the operation of the Fourier transform, u is the frequency coordinate in the x direction, and δ with parentheses is the delta function. What is important in the equations (4) and (5) is that the equation after the Fourier transform is also a Fresnel zone plate or a Gabor zone plate. Therefore, the development pattern after the Fourier transform may be directly generated based on the equations (4) and (5). This makes it possible to reduce the amount of calculation.

次に、式(4)と式(5)を乗算して次式(6)を得る。 Next, the following equation (6) is obtained by multiplying the equation (4) and the equation (5).

Figure 0007065761000006
Figure 0007065761000006

式(6)における指数関数で表された項exp(-iku)が信号成分であり、この項をフーリエ変換すると、次式(7)のように変換され、元のx軸においてkの位置に輝点を得ることができる。 The term exp (-iku) expressed by the exponential function in the equation (6) is a signal component, and when this term is Fourier transformed, it is transformed as in the following equation (7), and the position is k at the original x-axis. You can get a bright spot.

Figure 0007065761000007
Figure 0007065761000007

この輝点が無限遠の光束を示しており、距離計測装置101による撮影像となる。 This bright spot indicates a luminous flux at infinity, and is an image taken by the distance measuring device 101.

なお、相関現像方式では、パターンの自己相関関数が単一のピークを有するものであれば、フレネルゾーンプレートやガボールゾーンプレートに限定されないパターン、例えばランダムなパターンで実現してもよい。 In the correlation development method, as long as the autocorrelation function of the pattern has a single peak, it may be realized by a pattern not limited to the Fresnel zone plate or the Gabor zone plate, for example, a random pattern.

〈ノイズキャンセル〉
ところで、上述した式(6)から式(7)への変換については、信号成分に着目して説明したが、実際には信号成分以外の項が現像を阻害してノイズを生じさせてしまう。そこで、フリンジスキャンに基づくノイズキャンセルを行う。具体的には、三角関数の直交性を利用して、次式(8)に示されるように、式(6)の乗算結果を初期位相Φに関して積分すると、ノイズ項がキャンセルされて、信号項の定数倍だけを残すことができる。
<Noise cancellation>
By the way, the conversion from the above-mentioned equation (6) to the equation (7) has been described focusing on the signal component, but in reality, the terms other than the signal component hinder the development and cause noise. Therefore, noise cancellation based on fringe scan is performed. Specifically, when the multiplication result of the equation (6) is integrated with respect to the initial phase Φ as shown in the following equation (8) by using the orthogonality of the trigonometric function, the noise term is canceled and the signal term is canceled. Only a constant multiple of can be left.

Figure 0007065761000008
Figure 0007065761000008

なお、式(8)は積分の形で示しているが、実際には、図10に示す複数種類(同図の場合4種類)の初期位相Φ(Φ=0,Φ=π/2,Φ=π,Φ=3π/2)の組合せの総和を計算することによっても同様の効果が得られる。この組合せのように、位相Φは、0~2πの間の角度を等分するように設定すればよい。 Although the equation (8) is shown in the form of integration, in reality, the initial phases Φ (Φ = 0, Φ = π / 2, Φ) of a plurality of types (4 types in the case of the same figure) shown in FIG. 10 are shown. The same effect can be obtained by calculating the sum of the combinations of = π, Φ = 3π / 2). Like this combination, the phase Φ may be set so as to equally divide the angle between 0 and 2π.

以上で説明したフリンジスキャンでは、撮影用パターン105として初期位相Φが異なる複数のパターンを使用する必要がある。これを実現するには時分割でパターンを切り替える方法と、空間分割でパターンを切り替える方法がある。 In the fringe scan described above, it is necessary to use a plurality of patterns having different initial phases Φ as the photographing pattern 105. To achieve this, there are a method of switching patterns by time division and a method of switching patterns by spatial division.

時分割でパターンを切り替えてフリンジスキャンを実現する場合の距離計測装置101の構成を図12に示す。撮影用パターン1201としては、図10に示された複数の初期位相Φを電気的に切り替えて表示することが可能な液晶表示素子などを用いればよい。この液晶表示素子の切替タイミングと画像センサ103のシャッタタイミングを変調器制御部1202で同期して制御し、4枚の画像を取得後、フリンジスキャン演算を実施する。 FIG. 12 shows the configuration of the distance measuring device 101 when the pattern is switched by time division to realize the fringe scan. As the photographing pattern 1201, a liquid crystal display element or the like capable of electrically switching and displaying a plurality of initial phases Φ shown in FIG. 10 may be used. The switching timing of the liquid crystal display element and the shutter timing of the image sensor 103 are controlled in synchronization with the modulator control unit 1202, and after acquiring four images, a fringe scan operation is performed.

なお、液晶表示素子を用いてフリンジスキャンを行う場合、液晶表示素子を駆動する電極は、例えば図42に示すように構成すればよい。該電極は、撮影用パターン105の1周期を4分割するように同心円状透明電極が構成されており、内側から4本おきに外側の電極と結線されて、最終的に端子部4201では電極の駆動端子として4本の電極が出力されている。なお、撮影用パターン105の1周期は図4で示した撮影用パターンの白い円環と隣り合う黒い円環(もしくは黒い円)の一セット分にあたる。これらに所定の電圧を印加して実際に初期位相を可変するには、4つの電極に印加する電圧状態を“0”と“1”の2つの状態で時間的に切り替え、図43に示す初期位相Φ=0の状態、図44に示す初期位相Φ=π/2の状態、図45に示す初期位相Φ=πの状態、図46に示す初期位相Φ=3π/2の状態を表示し、液晶表示素子における光透過率を変化させることで実現している。 When performing a fringe scan using a liquid crystal display element, the electrodes for driving the liquid crystal display element may be configured as shown in FIG. 42, for example. The electrode is configured as a concentric transparent electrode so as to divide one cycle of the photographing pattern 105 into four, and is connected to the outer electrode every four from the inside, and finally the terminal portion 4201 of the electrode. Four electrodes are output as drive terminals. One cycle of the photographing pattern 105 corresponds to one set of a black ring (or a black circle) adjacent to the white ring of the photographing pattern shown in FIG. In order to actually change the initial phase by applying a predetermined voltage to these, the voltage states applied to the four electrodes are temporally switched between two states of "0" and "1", and the initial phase shown in FIG. 43 is shown. The state of phase Φ = 0, the state of initial phase Φ = π / 2 shown in FIG. 44, the state of initial phase Φ = π shown in FIG. 45, and the state of initial phase Φ = 3π / 2 shown in FIG. 46 are displayed. This is achieved by changing the light transmission rate of the liquid crystal display element.

対して、空間分割でパターンを切り替えてフリンジスキャンを実現する場合の距離計測装置101の構成を図13に示す。撮影用パターン1301としては、図11に示す複数の初期位相を有する撮影用パターン1301を使用すればよい。そして、1枚の画像を取得後、画像分割部1302においてそれぞれの初期位相のパターンに対応して4枚に分割した後、フリンジスキャン演算を実施する。 On the other hand, FIG. 13 shows the configuration of the distance measuring device 101 in the case where the pattern is switched by spatial division to realize the fringe scan. As the photographing pattern 1301, the photographing pattern 1301 having a plurality of initial phases shown in FIG. 11 may be used. Then, after acquiring one image, the image segmentation unit 1302 divides the image into four images corresponding to the pattern of each initial phase, and then performs a fringe scan operation.

<距離計測原理>
図14は、これまで述べた被写体が遠い場合(物体が無限距離にある場合)における撮影用パターン105の画像センサ103への射影の様子を示している。遠方の物体を構成する点1401からの球面波は、十分に長い距離を伝搬する間に平面波となり撮影用パターン105を照射し、その投影像1402が画像センサ103に投影される場合、投影像は撮影用パターン105とほぼ同じ形状となる。よって、投影像1402に対して、現像用パターン801を用いて現像処理を行うことにより、単一の輝点を得ることが可能である。続けて、有限距離の物体に対する撮像について説明する。
<Distance measurement principle>
FIG. 14 shows the projection of the photographing pattern 105 onto the image sensor 103 when the subject is far away (when the object is at an infinite distance) described above. When the spherical wave from the point 1401 constituting the distant object becomes a plane wave while propagating a sufficiently long distance and irradiates the photographing pattern 105, and the projected image 1402 is projected on the image sensor 103, the projected image is It has almost the same shape as the photographing pattern 105. Therefore, it is possible to obtain a single bright spot by performing a developing process on the projected image 1402 using the developing pattern 801. Next, imaging of a finite-distance object will be described.

図15は、撮像する物体が有限距離にある場合に、撮影用パターン105の画像センサ103への射影が撮影用パターン105より拡大されることを示す図である。物体を構成する点1501からの球面波が撮影用パターン105を照射し、その投影像1502が画像センサ103に投影される場合、投影像はほぼ一様に拡大される。なお、投影像と撮影用パターンのサイズ比αは、撮影用パターン105から点1501までの距離fを用いて、次式(9)のように算出できる。 FIG. 15 is a diagram showing that when the object to be imaged is at a finite distance, the projection of the photographing pattern 105 on the image sensor 103 is magnified more than that of the photographing pattern 105. When a spherical wave from a point 1501 constituting an object illuminates the photographing pattern 105 and the projected image 1502 is projected onto the image sensor 103, the projected image is magnified almost uniformly. The size ratio α between the projected image and the photographing pattern can be calculated by the following equation (9) using the distance f from the photographing pattern 105 to the point 1501.

Figure 0007065761000009
Figure 0007065761000009

そのため、平行光に対して設計された現像用パターン801をそのまま用いて現像処理したのでは、ピントの合った画像が現像できない。そこで、一様に拡大された撮影用パターン105の投影像に合わせて、現像用パターン801に次式(10)に示すピッチ係数β’を乗算して拡大させれば、ピントの合った画像の現像が可能となる。 Therefore, if the development process is performed using the development pattern 801 designed for parallel light as it is, an in-focus image cannot be developed. Therefore, if the development pattern 801 is multiplied by the pitch coefficient β'expressed in the following equation (10) to be magnified according to the projected image of the uniformly enlarged image shooting pattern 105, the image in focus can be obtained. Development becomes possible.

Figure 0007065761000010
Figure 0007065761000010

したがって、現像時にピントの合った画像が再生できる現像用パターン801の拡大率αを求めることで、撮影対象までの距離を計測することが可能となる。 Therefore, it is possible to measure the distance to the image pickup target by obtaining the enlargement ratio α 2 of the development pattern 801 that can reproduce the image in focus at the time of development.

通常のカメラで撮影した画像のピントのボケを基に距離計測を行うレンズ焦点法では、主に画像のコントラストが高くなるピント位置を算出することで距離情報を抽出するが、距離計測装置101では、点広がり関数が通常のカメラのようなガウス関数型形状でなく、正負に振動するSinc関数型の形状をしている。このため、単純に画像のコントラストを基に距離情報を抽出する方法では、抽出した距離情報に含まれる誤差が大きくなり、高精度な距離計測が出来ない。 In the lens focus method, which measures the distance based on the out-of-focus of the image taken by a normal camera, the distance information is extracted mainly by calculating the focus position where the contrast of the image becomes high, but the distance measuring device 101 uses the distance measuring device 101. The point spread function is not a Gaussian function type shape like a normal camera, but a Sinc function type shape that vibrates positively and negatively. Therefore, in the method of simply extracting the distance information based on the contrast of the image, the error included in the extracted distance information becomes large, and high-precision distance measurement cannot be performed.

そこで、距離計測装置101では、現像画像のコントラストとは異なる評価指標を用いてピントの合う現像用パターン801の拡大率αを求め、その拡大率αを基に距離情報を抽出するようにする。 Therefore, in the distance measuring device 101, the enlargement ratio α 2 of the developing pattern 801 in focus is obtained by using an evaluation index different from the contrast of the developed image, and the distance information is extracted based on the enlargement ratio α 2 . do.

以上のように構成される距離計測装置101による距離計測方法を説明する。距離計測装置101では、画像センサ103で生成したセンサ画像(画像信号)を画像処理部106に供給し、所定の画像処理によって距離情報を生成する。なお、図12に示した時分割フリンジスキャンを行う場合の構成では、変調器制御部1202で撮影用パターン1201に、図10に示された複数の初期位相Φを切り替えて表示して4枚の画像を撮影し、画像処理部106に4枚のセンサ画像を供給する。 A distance measuring method using the distance measuring device 101 configured as described above will be described. The distance measuring device 101 supplies the sensor image (image signal) generated by the image sensor 103 to the image processing unit 106, and generates distance information by predetermined image processing. In the configuration for performing the time-division fringe scan shown in FIG. 12, the modulator control unit 1202 switches and displays a plurality of initial phases Φ shown in FIG. 10 on the photographing pattern 1201 to display four images. An image is taken and four sensor images are supplied to the image processing unit 106.

一方、図13に示した空間分割フリンジスキャンを行う場合の構成では、画像分割部1302で、1枚のセンサ画像を4つの領域に分割して、図10に示された複数の初期位相Φで撮影したセンサ画像を生成した後に画像処理部106へとセンサ画像を供給する。 On the other hand, in the configuration in which the spatial division fringe scan shown in FIG. 13 is performed, one sensor image is divided into four regions by the image segmentation unit 1302, and the plurality of initial phases Φ shown in FIG. 10 are used. After generating the captured sensor image, the sensor image is supplied to the image processing unit 106.

画像処理部106は、複素センサ画像生成部108、評価指標配列生成部109、及び距離情報生成部110が順次、所定の処理を実施する。すなわち、複素センサ画像生成部108は、画像センサ103の出力であるセンサ画像1601に基づいて、複素センサ画像1602を生成する。 In the image processing unit 106, the complex sensor image generation unit 108, the evaluation index sequence generation unit 109, and the distance information generation unit 110 sequentially perform predetermined processing. That is, the complex sensor image generation unit 108 generates the complex sensor image 1602 based on the sensor image 1601 which is the output of the image sensor 103.

図16は、複素センサ画像の生成方法を示す図である。ここで、4つのセンサ画像をIS1、IS2、IS3、IS4、各センサ画像に対応した撮影用パターン105の初期位相をΦ、Φ、Φ、Φ、とする。たとえば、図10や図11に示した撮影用パターンを使用する場合は、Φ=0、Φ=π/2、Φ=π、Φ=3π/2としうる。複素センサ画像生成部108は、画像センサ103の出力である4つのセンサ画像1601に基づいて、複素センサ画像1602を生成する。そして、次式(11)に示すように、各センサ画像にそれぞれexp(iΦ)、exp(iΦ)、exp(iΦ)、exp(iΦ)を乗算した結果を加算することで複素センサ画像1602を生成する。 FIG. 16 is a diagram showing a method of generating a complex sensor image. Here, the four sensor images are IS1 , IS2 , IS3, IS4 , and the initial phases of the photographing pattern 105 corresponding to each sensor image are Φ1 , Φ2, Φ3, and Φ4. For example, when the shooting patterns shown in FIGS. 10 and 11 are used, Φ 1 = 0, Φ 2 = π / 2, Φ 3 = π, and Φ 4 = 3π / 2 can be used. The complex sensor image generation unit 108 generates the complex sensor image 1602 based on the four sensor images 1601 which are the outputs of the image sensor 103. Then, as shown in the following equation (11), the complex is obtained by adding the results of multiplying each sensor image by exp (iΦ 1 ), exp (iΦ 2 ), exp (iΦ 3 ), and exp (iΦ 4 ), respectively. Generate a sensor image 1602.

Figure 0007065761000011
Figure 0007065761000011

次に、評価指標配列生成部109は、複素センサ画像生成部108の出力である複素センサ画像1602に基づいて、評価指標配列1603を生成する。評価指標配列1603の生成方法について、図17、図18、図20~25、図36、図37を参照して説明する。 Next, the evaluation index array generation unit 109 generates the evaluation index array 1603 based on the complex sensor image 1602 which is the output of the complex sensor image generation unit 108. The method of generating the evaluation index sequence 1603 will be described with reference to FIGS. 17, 18, 20, 25, 36, and 37.

図17は、複素センサ画像の例を示す図である。被写体が点光源であった場合、複素センサ画像1602は、実部と虚部からなる情報となる。 FIG. 17 is a diagram showing an example of a complex sensor image. When the subject is a point light source, the complex sensor image 1602 becomes information including a real part and an imaginary part.

拡大率αで撮影用パターン105を拡大した場合のピッチ係数をβ’とした場合、評価指標配列生成部109では、図18に示すようにβ’を変化させながら(β’>β0,β’=β0,β’<β0)評価指標配列生成用パターン1801と、複素センサ画像1602との相互相関演算を行う。図21乃至図25は、その相互相関演算結果の例を示している。 When the pitch coefficient when the photographing pattern 105 is enlarged at the enlargement ratio α 2 is set to β', the evaluation index sequence generation unit 109 changes β'as shown in FIG. 18 (β'> β 0, β). '= β0, β'<β0) Cross-correlation calculation is performed between the evaluation index sequence generation pattern 1801 and the complex sensor image 1602. 21 to 25 show an example of the cross-correlation calculation result.

図36は、評価指標配列生成部の構成の一例を示すブロック図である。評価指標配列生成部109は、評価用パターン生成部3601と、評価用パターン格納部3602と、相互相関演算部3603と、評価指標配列変換部3604と、を含む。 FIG. 36 is a block diagram showing an example of the configuration of the evaluation index sequence generation unit. The evaluation index sequence generation unit 109 includes an evaluation pattern generation unit 3601, an evaluation pattern storage unit 3602, a cross-correlation calculation unit 3603, and an evaluation index sequence conversion unit 3604.

評価用パターン生成部3601は、評価用に、異なるピッチ係数β’の現像用パターン801を複数枚生成する。この評価用の複数の現像用パターンは、評価指標配列生成用パターン(以後、評価用パターンと称呼することもある)1801である。なお、評価用パターン生成部3601は、距離計測変数設定部111からの入力を用いて、現像用パターン801のピッチ係数β’を決定する。 The evaluation pattern generation unit 3601 generates a plurality of development patterns 801 having different pitch coefficients β'for evaluation. The plurality of development patterns for evaluation are evaluation index sequence generation patterns (hereinafter, may be referred to as evaluation patterns) 1801. The evaluation pattern generation unit 3601 determines the pitch coefficient β'of the development pattern 801 by using the input from the distance measurement variable setting unit 111.

評価用パターン生成部3601は、生成された評価用パターン1801を評価用パターン格納部3602に格納する。評価用パターン格納部3602は、読み書き可能な記憶領域であり、例えば不揮発性記憶素子により実現されうる。 The evaluation pattern generation unit 3601 stores the generated evaluation pattern 1801 in the evaluation pattern storage unit 3602. The evaluation pattern storage unit 3602 is a readable / writable storage area, and can be realized by, for example, a non-volatile storage element.

相互相関演算部3603は、複素センサ画像生成部108から入力された複素センサ画像1602が入力される都度、評価用パターン格納部3602から評価用パターン1801を読み込む。 The cross-correlation calculation unit 3603 reads the evaluation pattern 1801 from the evaluation pattern storage unit 3602 each time the complex sensor image 1602 input from the complex sensor image generation unit 108 is input.

図37は、複素情報配列の生成方法の一例を示す図である。相互相関演算部3603は、図37に示すように、複素センサ画像1602ごとに、評価用パターン1801内のすべてのパターンとの相互相関演算を行い、複素現像画像を生成し、複素現像画像の配列である複素情報配列3701を生成する。 FIG. 37 is a diagram showing an example of a method for generating a complex information array. As shown in FIG. 37, the cross-correlation calculation unit 3603 performs a cross-correlation calculation with all the patterns in the evaluation pattern 1801 for each complex sensor image 1602 to generate a complex developed image, and arranges the complex developed image. Generates a complex information array 3701.

たとえば、評価用パターン1801がN(Nは自然数)枚のパターン(ピッチ係数がそれぞれβ’、β’、・・・、β’)からなる場合、相互相関演算部3603は一つの複素センサ画像1602に対してN枚の評価用パターン1801との相互相関演算を都合N回行い、N枚の複素現像画像を生成する。相互相関演算部3603は、N枚の複素現像画像を奥行き方向(距離計測装置101からみた被写体1901の方向の延長上にて距離計測装置101からのピント距離が近い順に積層させた積層方向)にスタック(積層)した3次元の複素情報配列3701として出力する。 For example, when the evaluation pattern 1801 consists of N (N is a natural number) patterns (pitch coefficients are β'1 , β'2 , ..., β'N , respectively), the cross-correlation calculation unit 3603 is one complex number. The sensor image 1602 is subjected to cross-correlation calculation with N evaluation patterns 1801 N times for convenience, and N complex developed images are generated. The mutual correlation calculation unit 3603 superimposes N complex developed images in the depth direction (stacking direction in which the focus distances from the distance measuring device 101 are stacked in order of increasing focus distance on the extension of the direction of the subject 1901 as seen from the distance measuring device 101). It is output as a stacked three-dimensional complex information array 3701.

評価指標配列変換部3604は、複素情報配列3701を用いて、距離計測の評価指標として使用される評価指標配列1603を生成し出力する。評価指標配列1603は、図20にその例が示されている。 The evaluation index array conversion unit 3604 generates and outputs an evaluation index array 1603 used as an evaluation index for distance measurement using the complex information array 3701. An example of the evaluation index sequence 1603 is shown in FIG.

図20は、評価指標配列の例を示す図である。評価指標配列1603は、奥行き方向の情報に応じて2次元の画像情報の評価配列を有する、3次元配列である。 FIG. 20 is a diagram showing an example of an evaluation index array. The evaluation index array 1603 is a three-dimensional array having an evaluation array of two-dimensional image information according to the information in the depth direction.

図18に示すように、評価用パターン生成部3601が生成する異なるピッチ係数β’の現像用パターン801に関して、ピッチ係数βは、センサ画像1601に投影された撮影用パターン投影像の係数である。図21乃至図25に示された相互相関演算の結果で注目すべきは、ピッチ係数β’がピッチ係数βと一致する場合には、破線で示した相互相関演算結果の虚数成分がゼロになり、ピッチ係数の差が増加するにつれて虚数成分の振幅が増加する点である。よって、この虚数成分がゼロとなるピッチ係数β’を探索することが、後述する距離情報生成部110における処理となる。 As shown in FIG. 18, with respect to the development pattern 801 having a different pitch coefficient β'generated by the evaluation pattern generation unit 3601, the pitch coefficient β 0 is a coefficient of the image shooting pattern projected image projected on the sensor image 1601. .. It should be noted in the results of the intercorrelation calculation shown in FIGS. 21 to 25 that when the pitch coefficient β'matches the pitch coefficient β 0 , the imaginary component of the intercorrelation calculation result shown by the broken line becomes zero. Therefore, the amplitude of the imaginary component increases as the difference in pitch coefficients increases. Therefore, searching for the pitch coefficient β'where the imaginary number component becomes zero is a process in the distance information generation unit 110, which will be described later.

そこで、評価指標配列変換部3604では、複素情報配列3701の虚部絶対値を評価指標配列1603に格納、出力する。なお、複素情報配列3701内の各複素現像画像の画素数がL×Mであるとすると、図20に示す通り、評価指標配列1603はN枚のL×Mの2次元配列から構成される3次元配列となる。 Therefore, the evaluation index array conversion unit 3604 stores and outputs the imaginary absolute value of the complex information array 3701 in the evaluation index array 1603. Assuming that the number of pixels of each complex developed image in the complex information array 3701 is L × M, as shown in FIG. 20, the evaluation index array 1603 is composed of N L × M two-dimensional arrays 3 It becomes a dimensional array.

最後に、距離情報生成部110は、評価指標配列変換部3604の出力である評価指標配列1603に基づいて距離情報2901を生成する。前述したように評価指標配列1603はピッチ係数β’がピッチ係数βと一致する場合にゼロとなるが、一般の被写体の場合にはゼロにはならないことがある。 Finally, the distance information generation unit 110 generates the distance information 2901 based on the evaluation index array 1603 which is the output of the evaluation index array conversion unit 3604. As described above, the evaluation index array 1603 becomes zero when the pitch coefficient β'matches the pitch coefficient β 0 , but may not be zero in the case of a general subject.

図26は、評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。いいかえると、図26は、評価指標配列1603のある要素における、ピッチ係数β’依存性を示している。 FIG. 26 is a diagram showing an example of how the values of the array elements of the evaluation index array change according to the pitch of the evaluation pattern. In other words, FIG. 26 shows the pitch coefficient β'dependence in some element of the evaluation index array 1603.

図26は、図20に示されたN枚のL×M配列の中から、それぞれ(l、m)番目の配列要素2001、2002、2003を抜き出し、これらN個の配列要素をプロットすることで作成する。 In FIG. 26, the (l, m) th sequence elements 2001, 2002, and 2003 are extracted from the N L × M sequences shown in FIG. 20, and these N sequence elements are plotted. create.

図26から、周囲の要素の影響により、評価指標配列1603の配列要素はゼロにならないが、β’=βとなる条件で最小値を示すことを読み取ることができる。このように、評価指標配列1603の配列要素が最小値となる点のβ’から、式(10)を満たす拡大率αが求まり、式(9)から被写体1901までの距離fを算出することが出来る。 From FIG. 26, it can be read that the array elements of the evaluation index array 1603 do not become zero due to the influence of the surrounding elements, but show the minimum value under the condition that β'= β 0 . In this way, the enlargement factor α 2 satisfying the equation (10) is obtained from β'at the point where the array element of the evaluation index array 1603 is the minimum value, and the distance f from the equation (9) to the subject 1901 is calculated. Can be done.

コントローラ107は、距離情報生成部110の出力である距離情報2901を用途に応じたデータ変換を行なって出力する。例えば、図19に示すように、被写体1901を撮影したセンサ画像を基に距離情報2901を生成し、ディスプレイに距離画像を表示する場合、図29のような距離画像にデータ変換して出力する。この場合、図29の距離画像のうち、被写体1901に対応する領域2902の距離情報は被写体までの距離fとして出力される。なお、図29に示したように、コントローラ107は出力する距離画像として、距離情報2901と撮影対象を撮影した通常画像をオーバーラップしたものを出力してもよい。また、距離情報2901を機械装置の制御に用いる場合は、距離情報2901から目的とする制御量を達成するための操作量を算出し、算出した操作量を出力してもよい。また、ユーザーインターフェースを介して距離計測変数を距離計測変数設定部111に入力し、その入力変数に応じてコントローラ107から出力されるデータのデータ形式を変更しても良い。 The controller 107 outputs the distance information 2901, which is the output of the distance information generation unit 110, after performing data conversion according to the intended use. For example, as shown in FIG. 19, when the distance information 2901 is generated based on the sensor image of the subject 1901 and the distance image is displayed on the display, the data is converted into the distance image as shown in FIG. 29 and output. In this case, in the distance image of FIG. 29, the distance information of the area 2902 corresponding to the subject 1901 is output as the distance f to the subject. As shown in FIG. 29, the controller 107 may output a distance image that overlaps the distance information 2901 and the normal image obtained by shooting the shooting target. When the distance information 2901 is used for controlling the mechanical device, the operation amount for achieving the target control amount may be calculated from the distance information 2901, and the calculated operation amount may be output. Further, the distance measurement variable may be input to the distance measurement variable setting unit 111 via the user interface, and the data format of the data output from the controller 107 may be changed according to the input variable.

図27は、距離計測処理の一例を説明するフローチャートである。距離計測処理が開始されると、はじめに、ステップ2701において、評価用パターン生成部3601は、β’の異なるN個の現像用パターン801からなる評価用パターン1801を生成する。 FIG. 27 is a flowchart illustrating an example of the distance measurement process. When the distance measurement process is started, first, in step 2701, the evaluation pattern generation unit 3601 generates an evaluation pattern 1801 composed of N development patterns 801 having different β's.

次に、ステップ2702において、画像センサ103がセンサ画像1601を取得する。そして、ステップ2703において、複素センサ画像生成部108は、ステップ2702で取得したセンサ画像1601を基に複素センサ画像1602を生成する。 Next, in step 2702, the image sensor 103 acquires the sensor image 1601. Then, in step 2703, the complex sensor image generation unit 108 generates the complex sensor image 1602 based on the sensor image 1601 acquired in step 2702.

そして、ステップ2704において、相互相関演算部3603は、ステップ2703で生成された複素センサ画像1602と、ステップ2701で生成された評価用パターン1801と、の間で図37のように相互相関演算を行い、複素現像画像を複数含む複素情報配列3701を生成する。 Then, in step 2704, the cross-correlation calculation unit 3603 performs a cross-correlation calculation between the complex sensor image 1602 generated in step 2703 and the evaluation pattern 1801 generated in step 2701 as shown in FIG. 37. , Generates a complex information array 3701 containing a plurality of complex developed images.

そして、ステップ2705において、評価指標配列変換部3604は、複素情報配列3701を基に評価指標配列1603を生成する。評価指標配列1603は図20に示すような3次元配列として生成される。 Then, in step 2705, the evaluation index sequence conversion unit 3604 generates the evaluation index sequence 1603 based on the complex information sequence 3701. The evaluation index array 1603 is generated as a three-dimensional array as shown in FIG.

そして、ステップ2706において、距離情報生成部110は、ステップ2705で生成された評価指標配列1603を基に距離情報2901を生成し、距離情報2901をコントローラ107に出力して、距離計測処理を終了する。 Then, in step 2706, the distance information generation unit 110 generates distance information 2901 based on the evaluation index array 1603 generated in step 2705, outputs the distance information 2901 to the controller 107, and ends the distance measurement process. ..

なお、図26に曲線で示した評価指標配列1603の配列要素の値は、ステップ2701で生成した評価用パターン1801に含まれる現像用パターン801の枚数Nと、同数のN点のサンプリング点でサンプリングされるため、図28に黒い点で示すように、β’に対して離散的に評価指標の値が求まる。ステップ2706では、サンプリングを行ったN個のβ’の中で評価指標が最小となるβ’を探索しても良い。また、図28のデータ点数に対してカーブフィッティングや補間処理を行うことで、距離情報2901の精度を高めてもよい。 The values of the array elements of the evaluation index array 1603 shown by the curve in FIG. 26 are sampled at the same number of sampling points N as the number N of the development patterns 801 included in the evaluation pattern 1801 generated in step 2701. Therefore, as shown by the black dots in FIG. 28, the value of the evaluation index can be obtained discretely with respect to β'. In step 2706, β'with the smallest evaluation index among the N sampled β's may be searched for. Further, the accuracy of the distance information 2901 may be improved by performing curve fitting or interpolation processing on the number of data points in FIG. 28.

なお、後述の説明では、センサ画像1601として4枚の画像を用いたが、図30に示すように、少なくとも2枚の画像があれば、距離計測ができる。この場合、例えば、複素センサ画像生成部108は、センサ画像1601の2枚の画像からそれぞれの画像の低周波成分3001、3002を除去したセンサ画像3003を生成した後に、複素センサ画像1602を生成する。低周波成分3001、低周波成分3002の除去は、例えばセンサ画像1601の平均輝度をオフセット除去することで行っても良いし、センサ画像1601にハイパスフィルター処理を行い、低周波成分を除去することで行っても良い。 In the description described later, four images are used as the sensor image 1601, but as shown in FIG. 30, if there are at least two images, the distance can be measured. In this case, for example, the complex sensor image generation unit 108 generates the complex sensor image 1602 after generating the sensor image 3003 from which the low frequency components 3001 and 3002 of the respective images are removed from the two images of the sensor image 1601. .. The low frequency component 3001 and the low frequency component 3002 may be removed by, for example, offset removing the average luminance of the sensor image 1601 or by performing a high-pass filter process on the sensor image 1601 to remove the low frequency component. You may go.

2枚のセンサ画像1601から距離計測を行うようにすれば、時分割フリンジスキャンの場合は、センサ画像の取得時間を短縮することが可能となり、空間分割フリンジスキャンの場合は、センサ画像の分割数を少なくすることで分割後のセンサ画像の解像度が向上し、距離情報2901の解像度を高めることが可能となる。 By measuring the distance from two sensor images 1601, it is possible to shorten the acquisition time of the sensor image in the case of time-divided fringe scan, and in the case of spatially divided fringe scan, the number of divisions of the sensor image. By reducing the number of, the resolution of the sensor image after division is improved, and the resolution of the distance information 2901 can be increased.

なお、3枚のセンサ画像1601から距離計測を行っても良いし、5枚以上の画像を用いることでノイズをより低減させるようにしても良い。 The distance may be measured from the three sensor images 1601, or the noise may be further reduced by using five or more images.

なお、低周波成分とは、センサ画像中に含まれる信号成分の空間周波数よりも低い周波数成分を指す。 The low frequency component refers to a frequency component lower than the spatial frequency of the signal component included in the sensor image.

また、上述した説明では、複素情報配列3701の虚部絶対値を最小とするピッチ係数β’を求めたが、このほかにも、例えば、評価指標配列1603に、複素情報配列3701の虚部絶対値と実部絶対値の比を距離情報2901生成時の指標として用いても良い。この場合、評価指標配列1603の配列要素が最大もしくは最小となるピッチ係数β’をもとに距離情報2901が生成できる。 Further, in the above description, the pitch coefficient β'that minimizes the absolute value of the imaginary part of the complex information sequence 3701 is obtained. The ratio of the value to the absolute value of the real part may be used as an index at the time of generating the distance information 2901. In this case, the distance information 2901 can be generated based on the pitch coefficient β'where the array elements of the evaluation index array 1603 are the maximum or the minimum.

また、複素情報配列3701の虚部絶対値の代わりに、複素情報配列3701の虚部を評価指標配列1603に格納しても良い。このようにすることで、評価指標配列1603の配列要素は正負の符号を有する値となり、一枚のL×M配列から、撮影対象の位置がピント位置に対して手前もしくは奥にあるなどの位置関係を判定することが可能となる。 Further, instead of the imaginary part absolute value of the complex information array 3701, the imaginary part of the complex information array 3701 may be stored in the evaluation index array 1603. By doing so, the array elements of the evaluation index array 1603 become values having positive and negative signs, and the position of the object to be photographed is located in front of or behind the focus position from one L × M array. It becomes possible to determine the relationship.

また、評価用パターン1801内の現像用パターン801生成に用いる複数のβ’の決定方法は、ユーザーインターフェースを介して距離計測変数設定部111に入力された距離計測レンジと距離計測分解能を基に、評価指標配列生成部109がβ’を選択し、図28で示したサンプリング点の個数、間隔を決定しても良い。 Further, the method of determining a plurality of β'used for generating the development pattern 801 in the evaluation pattern 1801 is based on the distance measurement range and the distance measurement resolution input to the distance measurement variable setting unit 111 via the user interface. The evaluation index sequence generation unit 109 may select β'and determine the number and intervals of sampling points shown in FIG. 28.

また、評価指標配列1603の生成では、複素センサ画像1602と現像用パターン801の相互相関演算を用いたが、複素センサ画像1602に対して、現像用パターン801を掛け合わせて図39に示すようなモアレ縞を生成した後にモアレ縞のフーリエ変換を行うことで、評価指標配列1603を生成しても良い。 Further, in the generation of the evaluation index array 1603, the cross-correlation calculation between the complex sensor image 1602 and the development pattern 801 was used, but the complex sensor image 1602 is multiplied by the development pattern 801 as shown in FIG. 39. The evaluation index sequence 1603 may be generated by performing the Fourier transform of the moire fringes after generating the moire fringes.

また、撮影用パターン105や現像用パターン801として、図4や図5に示したガボールゾーンプレートやフレネルゾーンプレートを用いる構成で説明したが、図40に示した楕円状のパターンを、撮影用パターン105や現像用パターン801として用いても良い。このような構成とすることで、画像センサ103として長方形のセンサを用いた場合でも、センサの縦横方向のサイズ、解像度に対して最適なピッチのパターンで撮影できるようになり、距離情報2901の解像度を最適化することが出来る。なお、楕円状のパターンで時分割フリンジスキャンを行う場合は、図42で示した同心円状の透明電極パターンを楕円状のものに置き換えればよい。 Further, the configuration using the Gabor zone plate and the Fresnel zone plate shown in FIGS. 4 and 5 as the photographing pattern 105 and the developing pattern 801 has been described, but the elliptical pattern shown in FIG. 40 is used as the photographing pattern. It may be used as 105 or a development pattern 801. With such a configuration, even when a rectangular sensor is used as the image sensor 103, it becomes possible to shoot with a pattern of the optimum pitch for the size and resolution of the sensor in the vertical and horizontal directions, and the resolution of the distance information 2901. Can be optimized. When performing time-division fringe scan with an elliptical pattern, the concentric transparent electrode pattern shown in FIG. 42 may be replaced with an elliptical one.

また、図41に示すランダムパターンを撮影用パターン105や評価用パターン1801として用いても良い。このような構成とすることで、距離計測を行うための評価用パターン1801を秘匿化し、セキュリティを高めることが可能になる。 Further, the random pattern shown in FIG. 41 may be used as the photographing pattern 105 or the evaluation pattern 1801. With such a configuration, it is possible to conceal the evaluation pattern 1801 for measuring the distance and enhance the security.

以上に説明した構成・方法によれば、図1に示した簡単な構成の距離計測装置101において、被写体の距離情報を計測することができる。 According to the configuration / method described above, the distance information of the subject can be measured by the distance measuring device 101 having a simple configuration shown in FIG.

<第二の実施の形態>
<非探索型測距 最小値算出型>
図31は、本発明に係る第二の実施形態である距離計測装置の構成例を示すブロック図である。第二の実施形態に係る距離計測装置101では、第一の実施形態に係る距離計測装置101と基本的に同一であるが、一部相違がある。具体的には、その相違は、第二の実施形態に係る距離計測装置101には、距離計測レンジ入力部3101が追加されており、評価指標配列が所定の条件を満たす評価指標配列生成用パターン1801のピッチ係数β’を非探索的に算出する。これにより高速に距離情報2901を生成するため、非探索型の距離計測を行うことができる。
<Second embodiment>
<Non-search type ranging minimum value calculation type>
FIG. 31 is a block diagram showing a configuration example of the distance measuring device according to the second embodiment of the present invention. The distance measuring device 101 according to the second embodiment is basically the same as the distance measuring device 101 according to the first embodiment, but there are some differences. Specifically, the difference is that the distance measurement range input unit 3101 is added to the distance measurement device 101 according to the second embodiment, and the evaluation index array is an evaluation index array generation pattern that satisfies a predetermined condition. The pitch coefficient β'of 1801 is calculated non-searchably. As a result, the distance information 2901 is generated at high speed, so that non-search type distance measurement can be performed.

第二の実施の形態に係る距離計測装置101では、距離計測レンジ入力部3101は、ユーザーが入力する距離計測レンジを受け付けて距離計測変数設定部111に供給する。ユーザーは、例えば距離計測レンジのうち、最近距離Lと、最遠距離Lとを指定することにより距離計測レンジを入力する。 In the distance measuring device 101 according to the second embodiment, the distance measuring range input unit 3101 receives the distance measuring range input by the user and supplies it to the distance measuring variable setting unit 111. The user inputs the distance measurement range by, for example, specifying the latest distance RN and the farthest distance LF among the distance measurement ranges.

距離計測変数設定部111は、最近距離Lと最遠距離Lに基づいて評価用パターン生成部3601で生成する評価用パターン1801に含まれる複数の現像用パターン801のピッチ係数を決定し、評価指標配列生成部109に出力する。 The distance measurement variable setting unit 111 determines the pitch coefficients of a plurality of development patterns 801 included in the evaluation pattern 1801 generated by the evaluation pattern generation unit 3601 based on the recent distance L N and the farthest distance LF . It is output to the evaluation index sequence generation unit 109.

評価指標配列生成部109では、決定されたピッチ係数に応じて評価用パターン生成部3601で評価用パターン1801を生成し、評価用パターン格納部3602に格納する。相互相関演算部3603は入力された複素センサ画像と評価用パターン1801内の各現像用パターン801の相互相関演算により、複素情報配列3701を生成し出力する。評価指標配列変換部3604は複素情報配列3701を基に評価指標配列1603を生成し出力する。 In the evaluation index array generation unit 109, the evaluation pattern generation unit 3601 generates the evaluation pattern 1801 according to the determined pitch coefficient, and stores the evaluation pattern 1801 in the evaluation pattern storage unit 3602. The cross-correlation calculation unit 3603 generates and outputs a complex information array 3701 by the cross-correlation calculation of the input complex sensor image and each development pattern 801 in the evaluation pattern 1801. The evaluation index array conversion unit 3604 generates and outputs the evaluation index array 1603 based on the complex information array 3701.

距離情報生成部110は、評価指標配列生成部109の出力である評価指標配列1603を基に距離情報2901を生成する。 The distance information generation unit 110 generates distance information 2901 based on the evaluation index array 1603, which is the output of the evaluation index array generation unit 109.

図32は、複素情報配列3701の虚部絶対値とサンプリング点の様子の一例を示す図である。 FIG. 32 is a diagram showing an example of the state of the imaginary part absolute value and the sampling point of the complex information array 3701.

距離情報生成部110は、サンプリング点3201~3204のみから距離情報2901を算出する。サンプリング点3201,3202における値は、f<Lとなるようなβ’の現像用パターン801と複素センサ画像1602の相互相関演算で生成した複素現像画像の虚部絶対値であり、サンプリング点3203,3204の値は、f>Lとなるようなβ’の現像用パターン801と複素センサ画像1602の相互相関演算で生成した複素現像画像の虚部絶対値である。 The distance information generation unit 110 calculates the distance information 2901 only from the sampling points 3201 to 3204. The values at the sampling points 3201 and 3202 are the imaginary absolute values of the complex developed image generated by the mutual correlation calculation between the development pattern 801 of β'so that f <L N and the complex sensor image 1602, and the sampling points 3203. The values of, 3204 are imaginary absolute values of the complex developed image generated by the mutual correlation calculation between the development pattern 801 of β'and the complex sensor image 1602 such that f > LF.

距離情報生成部110は、これら4点の値を基に複素現像画像の虚部絶対値が最小になるβ’を算出する。例えば、サンプリング点3201,3202を通る直線3205を算出するとともに、サンプリング点3203,3204を通過する直線3206を算出し、直線3205と直線3206の交点を算出することで、複素現像画像の虚部絶対値が最小になるβ’を導出し、距離情報2901を生成してもよい。 The distance information generation unit 110 calculates β'that minimizes the absolute value of the imaginary part of the complex developed image based on the values of these four points. For example, by calculating the straight line 3205 passing through the sampling points 3201 and 3202, calculating the straight line 3206 passing through the sampling points 3203 and 3204, and calculating the intersection of the straight line 3205 and the straight line 3206, the imaginary part of the complex developed image is absolute. The distance information 2901 may be generated by deriving β'that minimizes the value.

図33は、複素情報配列の虚部絶対値とサンプリング点の様子の一例を示す図である。図33に示すようにサンプリング点を3点に減らし、サンプリング点3301,3302を通過する直線3304を算出した後、直線3304の傾きの符号を反転させた傾きを持ち、点3303を通過する直線3305を算出し、直線3304と直線3305の交点から距離情報2901を生成してもよい。 FIG. 33 is a diagram showing an example of the state of the imaginary part absolute value and the sampling point of the complex information array. As shown in FIG. 33, the number of sampling points is reduced to three, a straight line 3304 passing through the sampling points 3301 and 3302 is calculated, and then the straight line 3305 having a slope obtained by reversing the slope sign of the straight line 3304 and passing through the point 3303. May be calculated and the distance information 2901 may be generated from the intersection of the straight line 3304 and the straight line 3305.

図34は、複素情報配列の虚部絶対値とサンプリング点の様子の一例を示す図である。図34に示すように、距離計測変数設定部111で、L<f<Lとなるような3つのβ’を選んだのち、距離情報生成部110で、3点の評価指標であるサンプリング点3401~3403に対して放物線3404でカーブフィッティングを行うことで、距離情報2901を生成してもよい。 FIG. 34 is a diagram showing an example of the state of the imaginary absolute value and the sampling point of the complex information array. As shown in FIG. 34, after the distance measurement variable setting unit 111 selects three β'that L N < f <LF, the distance information generation unit 110 performs sampling, which is an evaluation index of three points. Distance information 2901 may be generated by performing curve fitting on points 3401 to 3403 with a parabola 3404.

以上説明したように、距離計測装置101は、図32、図33、図34のようにサンプリング点を減らすことにより、図28に示すような5点以上のサンプリング点による距離計測よりも精度は低下するものの、より高速に距離情報を生成することが可能となる。 As described above, the distance measuring device 101 has lower accuracy than the distance measurement using five or more sampling points as shown in FIG. 28 by reducing the sampling points as shown in FIGS. 32, 33, and 34. However, it is possible to generate distance information at a higher speed.

なお、非探索型測距により粗い精度の距離情報を生成した後に、高精度な探索型の距離情報生成を、非探索型測距により得られた狭い距離計測レンジ内で行うことで、距離情報生成速度と精度の向上を両立させてもよい。 In addition, after the distance information with coarse accuracy is generated by the non-search type distance measurement, the distance information is generated by performing the high accuracy search type distance information generation within the narrow distance measurement range obtained by the non-search type distance measurement. The generation speed and the improvement of the accuracy may be compatible.

<第三の実施の形態>
<非探索型測距 ゼロ交差算出型>
本発明に係る第三の実施の形態である距離計測装置について説明する。第三の実施の形態である距離計測装置は、距離計測装置101(図1)と同様に構成されるが、評価指標配列の位相角を基に距離情報を生成する点が異なる。
<Third embodiment>
<Non-search type ranging zero intersection calculation type>
The distance measuring device according to the third embodiment of the present invention will be described. The distance measuring device according to the third embodiment is configured in the same manner as the distance measuring device 101 (FIG. 1), except that distance information is generated based on the phase angle of the evaluation index array.

非探索型測距よりもさらに少ないサンプリング点で距離情報2901を生成するためには、図35に示すようなピッチ係数β’に対して線形に変化する評価指標配列を使用することが考えられる。 In order to generate the distance information 2901 with fewer sampling points than the non-search type distance measurement, it is conceivable to use an evaluation index array that changes linearly with respect to the pitch coefficient β'as shown in FIG. 35.

図35は、複素センサ画像1602と評価用パターン1801の相互相関演算結果の位相角を、評価用パターン1801のピッチ係数β’に対してプロットした結果を示す図である。 FIG. 35 is a diagram showing the results of plotting the phase angle of the cross-correlation calculation result of the complex sensor image 1602 and the evaluation pattern 1801 with respect to the pitch coefficient β'of the evaluation pattern 1801.

たとえば、複素センサ画像1602と現像用パターン801の相互相関演算による複素現像画像の虚数成分および位相角は、β’=βを中心とした一定の領域でピッチ係数β’に対して線形に変化する。 For example, the imaginary component and the phase angle of the complex developed image obtained by the cross-correlation calculation between the complex sensor image 1602 and the developing pattern 801 change linearly with respect to the pitch coefficient β'in a certain region centered on β'= β 0 . do.

このため、評価指標配列生成部109において、複素センサ画像1602と任意の2つのβ’の現像用パターン801からなる評価用パターン1801の相互相関演算で得た複素情報配列3701の虚数成分もしくは位相角を評価指標配列1603とし、図35に示すようにサンプリング点3501,3502の2点間を通過する直線3503を算出する。その後、直線3503がゼロと交差するβ’を算出し、距離情報2901を生成する。 Therefore, in the evaluation index array generation unit 109, the imaginary component or the phase angle of the complex information array 3701 obtained by the cross-correlation calculation of the evaluation pattern 1801 consisting of the complex sensor image 1602 and the development pattern 801 of two arbitrary β's. Is set as the evaluation index array 1603, and as shown in FIG. 35, a straight line 3503 passing between the two sampling points 3501 and 3502 is calculated. After that, β'where the straight line 3503 intersects zero is calculated, and the distance information 2901 is generated.

以上のように距離情報を生成すれば、評価指標配列1603生成に用いるピッチ係数β’を2つにまで低減することができ、高速な距離情報生成が可能となる。 If the distance information is generated as described above, the pitch coefficient β'used for generating the evaluation index array 1603 can be reduced to two, and high-speed distance information generation becomes possible.

なお、距離情報生成部110は、評価指標配列要素の値を、ピッチ係数β’の代わりに、拡大率αや距離fに対して線形に変化する値に変換し、拡大率αを基に距離情報2901を生成して演算量を減らしてもよい。 The distance information generation unit 110 converts the value of the evaluation index array element into a value that changes linearly with respect to the enlargement ratio α 2 or the distance f instead of the pitch coefficient β', and bases the enlargement ratio α 2 . The distance information 2901 may be generated to reduce the amount of calculation.

<第四の実施の形態>
<奥行き方向平滑化パターン>
本発明に係る第四の実施の形態である距離計測装置について説明する。第四の実施の形態である距離計測装置は、距離計測装置101(図1)と同様に構成されるが、奥行き方向(被写体方向)の現像用パターンを重ねた平滑化パターンを用いることで、ピント位置の範囲を拡大する点において異なる。
<Fourth Embodiment>
<Depth smoothing pattern>
A distance measuring device according to a fourth embodiment of the present invention will be described. The distance measuring device according to the fourth embodiment is configured in the same manner as the distance measuring device 101 (FIG. 1), but by using a smoothing pattern in which development patterns in the depth direction (subject direction) are superimposed. It differs in that it expands the range of focus positions.

図47は、評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。このように、評価指標配列1603の配列要素の値は、ピッチ係数β’、すなわちピント位置を変更すると所定の関数を描くように変化する。なお、当該グラフでは、実線は評価指標配列1603として複素情報配列3701の虚部を用いた場合を示し、破線は複素情報配列3701の虚部の絶対値を用いた場合を示している。 FIG. 47 is a diagram showing an example of how the values of the array elements of the evaluation index array change according to the pitch of the evaluation pattern. In this way, the values of the array elements of the evaluation index array 1603 change so as to draw a predetermined function when the pitch coefficient β', that is, the focus position is changed. In the graph, the solid line shows the case where the imaginary part of the complex information array 3701 is used as the evaluation index array 1603, and the broken line shows the case where the absolute value of the imaginary part of the complex information array 3701 is used.

最小値の探索を行う場合において、複素情報配列3701の中に、f以下(fより近接)もしくはf2以上(fより遠隔)の位置にピントを合わせた複素現像画像が含まれている場合は、評価指標配列1603の配列要素の値はf以下もしくはf以上の領域でほぼゼロになる。そのため、最小値がf以下もしくはf以上の領域で発見されると、誤った距離情報2901を出力してしまう可能性がある。 When searching for the minimum value, the complex information array 3701 contains a complex developed image focused at a position of f 1 or less (closer to f 1 ) or f 2 or more (remote than f 2 ). If so, the value of the array element of the evaluation index array 1603 becomes almost zero in the region of f1 or less or f2 or more . Therefore, if the minimum value is found in the region of f 1 or less or f 2 or more, erroneous distance information 2901 may be output.

また、上述のゼロ交差算出型の場合には、複素情報配列3701に含まれる2つの複素現像画像のピント位置がf3との間の範囲外にあると、本来の合焦位置と無関係の位置でゼロ交差してしまう。そのため、本来の被写体距離と異なる距離情報2901が生成されてしまう可能性がある。 Further, in the case of the above-mentioned zero intersection calculation type, if the focus positions of the two complex developed images included in the complex information array 3701 are outside the range between f 3 and f 4 , it is irrelevant to the original in-focus position. Zero crosses at the position of. Therefore, there is a possibility that distance information 2901 different from the original subject distance will be generated.

これらの可能性を考慮して、本実施形態では、測距演算に使用可能なピント位置の範囲を拡大することで、より高精度な距離計測を実現する。 In consideration of these possibilities, in the present embodiment, more accurate distance measurement is realized by expanding the range of the focus position that can be used for the distance measurement calculation.

第四の実施形態では、評価用パターン1801を構成する複数の現像用パターンとして、撮影用パターンと相似形で、ピッチ係数β’が異なる複数のパターンを加算して生成した平滑化パターンを用いる。これについて、図49を用いて説明する。 In the fourth embodiment, as the plurality of developing patterns constituting the evaluation pattern 1801, a smoothing pattern generated by adding a plurality of patterns similar to the photographing pattern but having different pitch coefficients β'is used. This will be described with reference to FIG. 49.

図49は、平滑化パターン生成の様子の一例を示す図である。評価用パターン1801の現像用パターン801の実部として、撮影用パターン105と相似形であって、ピッチ係数β’が互いに異なる複数のパターン4901~4904を足し合わせた平滑化パターン4905を用いる。 FIG. 49 is a diagram showing an example of the state of smoothing pattern generation. As the actual part of the developing pattern 801 of the evaluation pattern 1801, a smoothing pattern 4905 which is similar to the photographing pattern 105 and has a plurality of patterns 4901 to 4904 having different pitch coefficients β'are added.

また、評価用パターン1801の現像用パターン801の虚部として、撮影用パターン105と相似形であって、ピッチ係数β’が互いに異なる複数のパターン4906~4909を足し合わせた平滑化パターン4910を用いる。 Further, as the imaginary part of the developing pattern 801 of the evaluation pattern 1801, a smoothing pattern 4910 which is similar to the photographing pattern 105 and is obtained by adding a plurality of patterns 4906 to 4909 having different pitch coefficients β'is used. ..

なお、ここでは実部、虚部ともにそれぞれ4枚のパターンを加算して平滑化パターンを作成する例を示したが、加算するパターンの数は4に限らず、2以上であれば何枚でもよい。また、複数のパターンの加算ではなく、式(3)をβについて積分した式から直接、平滑化パターンを生成して演算効率を高めてもよい。 Here, an example of creating a smoothing pattern by adding four patterns for both the real part and the imaginary part is shown, but the number of patterns to be added is not limited to four, and any number of two or more can be added. good. Further, instead of adding a plurality of patterns, a smoothing pattern may be generated directly from the equation obtained by integrating the equation (3) with respect to β to improve the calculation efficiency.

このような平滑化パターン4905、4910のそれぞれと、複素センサ画像1602との相互相関演算によって生成される複素現像画像は、図18で示した評価用パターン1801を用いて生成した複素情報配列3701を奥行き方向に平滑化したものと同一となる。 The complex developed image generated by the cross-correlation calculation between each of the smoothing patterns 4905 and 4910 and the complex sensor image 1602 has a complex information array 3701 generated by using the evaluation pattern 1801 shown in FIG. It is the same as the one smoothed in the depth direction.

なお、距離計測変数設定部111における、平滑化パターン作成に用いるβ’の決定方法としては、複数の方法が考えられ、いずれも効果を奏する。 As a method for determining β'used for creating a smoothing pattern in the distance measurement variable setting unit 111, a plurality of methods can be considered, and all of them are effective.

図55は、奥行き方向の平滑化パターン生成の一例を示す図である。図55では、評価用パターンがN枚の平滑化パターンで構成される場合のβ’の選択方法の一例が示されている。図55は、縦軸にサンプリング番号(1~N)、横軸に被写体までのフォーカス距離をとり、各サンプリング番号に一つのフォーカス距離の範囲を示す領域が設定されていることを示す。第一の領域5501、第二の領域5502、第三の領域5503、第四の領域5504は、それぞれ1、2、3、N番目のサンプリング番号に対応している。 FIG. 55 is a diagram showing an example of smoothing pattern generation in the depth direction. FIG. 55 shows an example of a β'selection method when the evaluation pattern is composed of N smoothing patterns. FIG. 55 shows that a sampling number (1 to N) is set on the vertical axis and a focus distance to the subject is set on the horizontal axis, and a region indicating one focus distance range is set for each sampling number. The first region 5501, the second region 5502, the third region 5503, and the fourth region 5504 correspond to the first, second, third, and Nth sampling numbers, respectively.

つまり、第一の領域5501、第二の領域5502、第三の領域5503、第四の領域5504は、それぞれが、奥行き方向の平滑化パターンに含まれるフォーカス距離fの範囲を示す。撮影用パターンと相似形であって、ピッチ係数β’が互いに異なる複数のパターンが各領域において加算され、平滑化パターンが作成される。すなわち、各範囲は、ピント位置の範囲を示す。 That is, the first region 5501, the second region 5502, the third region 5503, and the fourth region 5504 each indicate the range of the focus distance f included in the smoothing pattern in the depth direction. A plurality of patterns similar to the shooting pattern but having different pitch coefficients β'are added in each region to create a smoothing pattern. That is, each range indicates the range of the focus position.

図48は、評価指標配列の配列要素の値が評価用パターンのピッチに応じて変化する様子の一例を示す図である。以上のように奥行き方向に平滑化した評価用パターンを用いることで、最小値探索による距離計測で使用可能なピント範囲はf’~f’に拡大され、ゼロ交差点算出による距離計測で使用可能なピント範囲もf’~f’に拡大させることができる。また、以上のような平滑化パターンを使用することで、相互相関演算と同時に奥行き方向の平滑化が実行できるため、複素現像画像生成後に奥行き方向で平滑化する場合に比べ1フレームあたりの演算処理の負荷・時間を低減することが可能である。 FIG. 48 is a diagram showing an example of how the values of the array elements of the evaluation index array change according to the pitch of the evaluation pattern. By using the evaluation pattern smoothed in the depth direction as described above, the focus range that can be used for distance measurement by minimum value search is expanded to f 1'to f 2 ' , and it is used for distance measurement by zero intersection calculation. The possible focus range can also be expanded to f 3'to f 4 '. In addition, by using the above smoothing pattern, smoothing in the depth direction can be performed at the same time as the cross-correlation calculation. Therefore, compared to the case of smoothing in the depth direction after generating a complex developed image, the calculation processing per frame It is possible to reduce the load and time.

ここで、点光源を撮影した場合の複素情報配列を図37の奥行き方向に広がる面3702に沿って切出した場合の等高線プロットを、図50と図51に示す。 Here, FIGS. 50 and 51 show contour plots when the complex information array when the point light source is photographed is cut out along the plane 3702 extending in the depth direction of FIG. 37.

図50は、平滑化されていない評価用パターンを用いた場合の複素情報配列の一例を示す図である。図50が示すように、撮影用パターンと相似形の単一のパターンを現像用パターンとして使用すると、デフォーカスに応じた点光源の広がりは図50のように急峻なものとなる。 FIG. 50 is a diagram showing an example of a complex information array when an unsmoothed evaluation pattern is used. As shown in FIG. 50, when a single pattern similar to the photographing pattern is used as the developing pattern, the spread of the point light source according to the defocus becomes steep as shown in FIG. 50.

図51は、平滑化パターンを用いた場合の複素情報配列の一例を示す図である。図51に示すように、平滑化パターンを現像用パターンとして使用すると、デフォーカスに応じた点光源の広がりは緩慢になる。このため、平滑化パターンの使用によって、距離計測に使用可能なピント範囲が広がるだけでなく、面内の他ピクセルからのボケの伝搬の影響も抑制することができ、距離計測結果の外乱を抑制することが可能となる効果がある。 FIG. 51 is a diagram showing an example of a complex information array when a smoothing pattern is used. As shown in FIG. 51, when the smoothing pattern is used as a developing pattern, the spread of the point light source according to the defocus becomes slow. Therefore, by using the smoothing pattern, not only the focus range that can be used for distance measurement is expanded, but also the influence of blur propagation from other pixels in the plane can be suppressed, and the disturbance of the distance measurement result is suppressed. There is an effect that makes it possible to do.

<奥行き方向の平滑化パターン作成時の重み付け>
図49では、平滑化パターン生成の際に、複数のパターン4901~4904および複数のパターン4906~4909をそれぞれ同じ重みで加算した。しかし、これに限られるものではなく、図52に示した通り、それぞれのパターンに異なる重みづけ係数W1(5201)~W4(5204)を乗算するようにしてもよい。
<Weighting when creating a smoothing pattern in the depth direction>
In FIG. 49, a plurality of patterns 4901 to 4904 and a plurality of patterns 4906 to 4909 are added with the same weight when the smoothing pattern is generated. However, the present invention is not limited to this, and as shown in FIG. 52, each pattern may be multiplied by different weighting coefficients W1 (5201) to W4 (5204).

図53は、加重平滑化パターン生成の重み付けの一例を示す図である。重みづけ係数W1(5201)~W4(5204)のそれぞれは、例えば、図53に示すようにガウス関数型の重み5301に沿った値を取ることにより、平滑化範囲を広くとった場合でも、評価指標配列の配列要素の値がピント位置に対して単調増加でなくなることを防ぐことができる。また、非対称な重み5302に沿った重みづけ係数W1(5201)~W4(5204)を付加すれば、評価指標配列の要素の値がゼロと交差する位置がずれることを抑制できる。 FIG. 53 is a diagram showing an example of weighting for weighted smoothing pattern generation. Each of the weighting coefficients W1 (5201) to W4 (5204) is evaluated even when the smoothing range is widened by taking a value along the Gaussian function type weight 5301 as shown in FIG. 53, for example. It is possible to prevent the values of the array elements of the index array from not increasing monotonically with respect to the focus position. Further, by adding the weighting coefficients W1 (5201) to W4 (5204) along the asymmetrical weight 5302, it is possible to suppress the position where the value of the element of the evaluation index array intersects with zero.

<奥行き方向の平滑化パターンの担当範囲の多様化>
平滑化パターンの平滑化レンジの取り方は図55に示したように第一の領域5501、第二の領域5502、第三の領域5503、第四の領域5504のそれぞれは等距離を等間隔で範囲とするものに限らない。
<Diversification of the range of responsibility for smoothing patterns in the depth direction>
As shown in FIG. 55, the method of taking the smoothing range of the smoothing pattern is that the first region 5501, the second region 5502, the third region 5503, and the fourth region 5504 are equidistant at equal intervals. It is not limited to the range.

図56は、奥行き方向の平滑化パターン生成の一例を示す図である。図56に示すように、平滑化パターンの領域同士で平滑化レンジが重なっていてもよい。つまり、図56では、第一の領域5501と第二の領域5502、第二の領域5502と第三の領域5503、のそれぞれの間で、重複するフォーカス位置の現像用パターンが含まれることになるが、その場合であっても問題なく採用できる。 FIG. 56 is a diagram showing an example of smoothing pattern generation in the depth direction. As shown in FIG. 56, the smoothing ranges may overlap between the regions of the smoothing pattern. That is, in FIG. 56, a developing pattern of overlapping focus positions is included between the first region 5501 and the second region 5502, and the second region 5502 and the third region 5503, respectively. However, even in that case, it can be adopted without any problem.

図57は、奥行き方向の平滑化パターン生成の一例を示す図である。図57に示すように、フォーカス位置の遠隔化に応じて徐々に平滑化範囲を広げてもよい。すなわち、フォーカス位置が手前にあるほど、平滑化の範囲を狭くするようにしてもよい。一般的にフォーカス位置が遠くにあるほど、現像画像の被写界深度は深くなるため、このような平滑化範囲の取り方によって、近距離の物体、遠距離の物体ともに同程度の平滑化効果をもたらすことが可能となる。 FIG. 57 is a diagram showing an example of smoothing pattern generation in the depth direction. As shown in FIG. 57, the smoothing range may be gradually expanded according to the remoteness of the focus position. That is, the smoothing range may be narrowed as the focus position is closer to the front. Generally, the farther the focus position is, the deeper the depth of field of the developed image is. Therefore, depending on how to take such a smoothing range, the smoothing effect of the same degree is obtained for both short-distance and long-distance objects. Can be brought about.

また、フォーカス位置の近接化に応じて徐々に平滑化範囲を広げてもよい。一般的にフォーカス位置が近くにあるほど、より細かなフォーカス位置の検出が必要となることが多いためである。 Further, the smoothing range may be gradually expanded according to the proximity of the focus position. This is because, in general, the closer the focus position is, the more detailed detection of the focus position is often required.

図58は、奥行き方向の平滑化パターン生成の一例を示す図である。図58に示すように、平滑化パターン同士の間隔を対数スケールで等間隔な場合、平滑化範囲も対数スケールで等しい長さになるように選択してもよい。 FIG. 58 is a diagram showing an example of smoothing pattern generation in the depth direction. As shown in FIG. 58, when the intervals between the smoothing patterns are evenly spaced on a logarithmic scale, the smoothing range may be selected so as to have the same length on the logarithmic scale.

図59は、奥行き方向の平滑化パターン生成の一例を示す図である。図59に示すように、平滑化範囲内に負のピント位置が含まれる場合、すなわちピント位置が撮影用パターン105よりもセンサ面側にある場合(距離f-averaging range<0の場合)には、ピッチ係数が無限に発散してしまいエラーとなる可能性がある。この場合でも、第一の領域5501のうち、破線で囲んだ部分(負のfの値となる場合)については平滑化パターンに含まないようにすることでエラーを回避することができる。 FIG. 59 is a diagram showing an example of smoothing pattern generation in the depth direction. As shown in FIG. 59, when a negative focus position is included in the smoothing range, that is, when the focus position is closer to the sensor surface than the photographing pattern 105 (when the distance f-averaging range <0). , The pitch coefficient diverges infinitely, which may result in an error. Even in this case, the error can be avoided by not including the portion surrounded by the broken line (when the value is negative f) in the first region 5501 in the smoothing pattern.

図54は、距離計測ソフトウェアのユーザーインターフェースの一例を示す図である。このユーザーインターフェースは、距離計測装置101のディスプレイまたはこれに付随するコンピュータのディスプレイに表示される画面である。距離計測装置101は、この画面を介して距離計測範囲の最小値(Depth Min)、最大値(Depth Max)、平滑化パターンの平滑化レンジ(Depth Averaging Range)および平滑化解像度(Depth Resolution)の入力を受け付ける。なお、距離計測範囲(距離計測レンジ)は、距離計測範囲の最小値(Depth Min)から最大値(Depth Max)までの距離である。 FIG. 54 is a diagram showing an example of a user interface of the distance measurement software. This user interface is a screen displayed on the display of the distance measuring device 101 or the display of a computer associated therewith. The distance measuring device 101 uses this screen to determine the minimum value (Deepth Min), maximum value (Deptth Max), smoothing range (Deepth Averaging Range), and smoothing resolution (Deepth Resolution) of the distance measurement range. Accept input. The distance measurement range (distance measurement range) is the distance from the minimum value (Deepth Min) to the maximum value (Deptth Max) of the distance measurement range.

入力された最小値、最大値、平滑化レンジおよび平滑化解像度は、距離計測変数設定部111が評価指標配列生成部109に受け渡す。評価指標配列生成部109は、入力された値を基に評価用パターン1801の現像用画像生成に使用するピッチ係数β’を選択する。たとえば、最小値探索を行う場合は、評価指標配列生成部109は、N枚の現像用パターンのうち1枚目は最小値以下のピント位置に対応するように選択し、N枚目は最大値以上のピント位置に対応するように任意のあるいは所定の値を選択する。なお、入力された距離計測範囲の最小値(Depth Min)は、ピント距離が最短となる平滑化範囲の中央値であり、距離計測範囲の最大値(Depth Max)は、ピント距離が最長となる平滑化範囲の中央値である。 The input minimum value, maximum value, smoothing range, and smoothing resolution are passed to the evaluation index sequence generation unit 109 by the distance measurement variable setting unit 111. The evaluation index sequence generation unit 109 selects the pitch coefficient β'used for generating the development image of the evaluation pattern 1801 based on the input value. For example, when searching for the minimum value, the evaluation index sequence generation unit 109 selects the first of the N development patterns so as to correspond to the focus position below the minimum value, and the Nth sheet is the maximum value. Select an arbitrary or predetermined value so as to correspond to the above focus position. The input minimum value of the distance measurement range (Depth Min) is the median value of the smoothing range in which the focus distance is the shortest, and the maximum value of the distance measurement range (Depth Max) is the longest in the focus distance. It is the median value of the smoothing range.

また、ゼロ交差算出処理を行う場合は、評価指標配列生成部109は、2枚の現像用パターンのうち1枚目は最小値以下のピント位置に対応するように選択し、2枚目は最大値以上のピント位置に対応するように選択する。また、平滑化範囲(各領域が担当するフォーカス幅)については、評価指標配列生成部109は、入力された平滑化レンジ(Depth Averaging Range)を使用する。また、平滑化範囲の重なり具合、つまり各平滑化範囲の中央値間の距離については、評価指標配列生成部109は、入力された平滑化解像度(Depth Resolution)を使用する。 Further, when performing the zero intersection calculation process, the evaluation index sequence generation unit 109 selects the first of the two development patterns so as to correspond to the focus position below the minimum value, and the second is the maximum. Select to correspond to the focus position above the value. Further, for the smoothing range (focus width in charge of each region), the evaluation index sequence generation unit 109 uses the input smoothing range (Deptth Averaging Range). Further, the evaluation index sequence generation unit 109 uses the input smoothing resolution (Depth Resolution) for the degree of overlap of the smoothing ranges, that is, the distance between the medians of the smoothing ranges.

なお、評価指標配列生成部109は、入力する平滑化レンジはピント範囲そのものの値以外にも、ピント位置に対する割合等のピント範囲を特定する値を受け付けることで、図57や図58に示したような平滑化範囲で平滑化パターンを作成してもよい。 In addition to the value of the focus range itself, the evaluation index sequence generation unit 109 accepts a value that specifies the focus range, such as a ratio to the focus position, as the smoothing range to be input, and is shown in FIGS. 57 and 58. A smoothing pattern may be created in such a smoothing range.

このように、平滑化を積層方向についての平滑化として、評価指標配列を構成する二次元配列は、奥行き方向(積層方向)の平滑化範囲が互いに異なるようにしても良いし、積層方向の平滑化範囲が、ピント距離が近いほど狭いものとしても良いし、ピント距離が近いほど広いものとしてもよい。 In this way, the smoothing is defined as smoothing in the stacking direction, and the two-dimensional arrays constituting the evaluation index array may have different smoothing ranges in the depth direction (stacking direction), or may be smoothed in the stacking direction. The closer the focus distance is, the narrower the range is, or the closer the focus distance is, the wider the range is.

上述のように、第四の実施の形態によれば、奥行き方向(被写体方向)の現像用パターンを重ねた平滑化パターンを用いることで、ピント位置の範囲を拡大することが可能となり、より高精度な距離計測を実現することができる。 As described above, according to the fourth embodiment, by using a smoothing pattern in which development patterns in the depth direction (subject direction) are superimposed, it is possible to expand the range of the focus position, which is higher. Accurate distance measurement can be realized.

<第五の実施の形態>
<面内平滑化>
本発明に係る第五の実施の形態である距離計測装置について説明する。第五の実施の形態である距離計測装置は、距離計測装置101(図1)と同様に構成されるが、複素情報配列の平面内での平滑化を行う点が異なる。
<Fifth Embodiment>
<In-plane smoothing>
The distance measuring device according to the fifth embodiment of the present invention will be described. The distance measuring device according to the fifth embodiment is configured in the same manner as the distance measuring device 101 (FIG. 1), except that the complex information array is smoothed in a plane.

図60は、複素現像画像のプロファイルを示す図である。図60では、線6001により、点光源撮影時のβ’>βとなる現像用パターンで現像した複素現像画像の虚部の断面プロットを示す。 FIG. 60 is a diagram showing a profile of a complex developed image. FIG. 60 shows a cross-sectional plot of an imaginary part of a complex developed image developed with a development pattern in which β'> β 0 at the time of shooting with a point light source by line 6001.

複素現像画像の虚部は、中心部から離れるにつれ振動し、符号が反転する特性があるため、ピントが合っていない状態でも値がゼロになる画素(以下、ゼロ点)が面内に存在する。これらのゼロ点に相当する画素は、距離計測結果に誤差をもたらすおそれがあるため、ゼロ点の影響を抑制するのが望ましい。 Since the imaginary part of the complex developed image vibrates as it moves away from the center part and the sign is inverted, there are pixels in the plane whose value becomes zero even when the image is out of focus (hereinafter referred to as the zero point). .. Since the pixels corresponding to these zero points may cause an error in the distance measurement result, it is desirable to suppress the influence of the zero point.

図38は、評価指標配列変換部内の構成の一例を示す。評価指標配列生成部109の評価指標配列変換部3604は、平滑化カーネル生成部3801と、平滑化カーネル格納部3802と、虚部絶対値変換部3803と、面内平滑化演算部3804と、を含む。 FIG. 38 shows an example of the configuration in the evaluation index array conversion unit. The evaluation index array conversion unit 3604 of the evaluation index sequence generation unit 109 includes a smoothing kernel generation unit 3801, a smoothing kernel storage unit 3802, an imaginary part absolute value conversion unit 3803, and an in-plane smoothing calculation unit 3804. include.

相互相関演算部3603から入力された複素情報配列3701は、虚部絶対値変換部3803へと入力される。虚部絶対値変換部3803は、複素情報配列3701内の各複素現像画像の虚部の絶対値を出力する。 The complex information array 3701 input from the cross-correlation calculation unit 3603 is input to the imaginary part absolute value conversion unit 3803. The imaginary part absolute value conversion unit 3803 outputs the absolute value of the imaginary part of each complex developed image in the complex information array 3701.

このことを図60のグラフを用いて説明する。図60の線6001に示した複素現像画像が、虚部絶対値変換部3803に入力されると、虚部絶対値変換部3803は、図60に示した線6002に示す虚部絶対値配列を出力する。線6002の出力には依然、ゼロ点が存在しうる。そのため、面内平滑化演算部3804が平滑化カーネル格納部3802に格納されている平滑化カーネルを用いて演算により面内の平滑化を行い、図60の線6003に示す、ゼロ点を除去した虚部絶対値平滑化配列を評価指標配列1603として出力する。 This will be described with reference to the graph of FIG. When the complex developed image shown by the line 6001 in FIG. 60 is input to the imaginary part absolute value conversion unit 3803, the imaginary part absolute value conversion unit 3803 displays the imaginary part absolute value array shown in the line 6002 shown in FIG. 60. Output. There may still be a zero point at the output of line 6002. Therefore, the in-plane smoothing calculation unit 3804 performed in-plane smoothing by calculation using the smoothing kernel stored in the smoothing kernel storage unit 3802, and the zero point shown by the line 6003 in FIG. 60 was removed. The imaginary absolute value smoothing array is output as the evaluation index array 1603.

以上のように複素情報配列について、平面内で絶対値変換後に平滑化を行う構成により、ゼロ点を除去して、距離情報の誤差を抑制することができる。 As described above, the complex information array is smoothed after the absolute value transformation in the plane, so that the zero point can be removed and the error of the distance information can be suppressed.

なお、面内平滑化演算部3804での平滑化に使用する平滑化カーネルは、距離計測変数設定部111から入力された平滑化カーネル幅に応じて平滑化カーネル生成部3801で生成されたのち、平滑化カーネル格納部3802に格納され、面内平滑化演算部3804での平滑化処理に合わせて面内平滑化演算部3804へと受け渡される。 The smoothing kernel used for smoothing in the in-plane smoothing calculation unit 3804 is generated by the smoothing kernel generation unit 3801 according to the smoothing kernel width input from the distance measurement variable setting unit 111. It is stored in the smoothing kernel storage unit 3802, and is passed to the in-plane smoothing calculation unit 3804 in accordance with the smoothing process in the in-plane smoothing calculation unit 3804.

また、平滑化カーネル生成部3801で生成されるカーネル関数の形状は距離計測変数設定部111からの入力に基づいて決定しうる。たとえば、平滑化カーネル生成部3801は、図61の例のように平滑化カーネルを決定する。 Further, the shape of the kernel function generated by the smoothing kernel generation unit 3801 can be determined based on the input from the distance measurement variable setting unit 111. For example, the smoothing kernel generation unit 3801 determines the smoothing kernel as shown in the example of FIG.

図61は、平滑化カーネルの一例を示す図である。平滑化カーネル生成部3801は、断面プロット6101に示すような矩形型もしくは円柱型カーネル関数を決定するようにしてもよいし、断面プロット6102に示すような錐型のカーネル関数を決定するようにしてもよいし、断面プロット6103に示すようなガウス関数型のカーネル関数を決定するようにしてもよい。 FIG. 61 is a diagram showing an example of a smoothing kernel. The smoothing kernel generator 3801 may determine a rectangular or cylindrical kernel function as shown in the cross section plot 6101, or may determine a cone kernel function as shown in the cross section plot 6102. Alternatively, a Gaussian function type kernel function as shown in the cross section plot 6103 may be determined.

また、平滑化カーネルのカーネル幅についても、平滑化カーネル生成部3801は、図62の例のように距離計測変数設定部111からの入力に基づいて決定する。 Further, the kernel width of the smoothing kernel is also determined by the smoothing kernel generation unit 3801 based on the input from the distance measurement variable setting unit 111 as in the example of FIG. 62.

図62は、平滑化カーネルのカーネル幅の一例を示す図である。図60に示した複素現像画像の線6001の幅は、一般的に現像用パターンのピッチ係数β’に対して反比例の関係にある。そのため、評価用パターン生成部3601で生成される複数の現像用パターンのβ’に対して、それぞれ図62に示すカーネル幅の平滑化カーネルを作成すればよい。 FIG. 62 is a diagram showing an example of the kernel width of the smoothed kernel. The width of the line 6001 of the complex developed image shown in FIG. 60 is generally inversely proportional to the pitch coefficient β'of the developing pattern. Therefore, a kernel-width smoothing kernel shown in FIG. 62 may be created for each of the β'of the plurality of development patterns generated by the evaluation pattern generation unit 3601.

なお、現像用パターンとして第四の実施形態における平滑化パターン(奥行き方向の平滑化パターン)を使用する場合には、平滑化カーネル生成部3801は、平滑化範囲中の代表的なβ’を基にカーネル幅を決定すればよい。なお、すべての複素現像画像の虚部絶対値に対して同一の平滑化カーネルパターンによる平滑化を行ってもよい。 When the smoothing pattern (smoothing pattern in the depth direction) in the fourth embodiment is used as the development pattern, the smoothing kernel generation unit 3801 is based on a typical β'in the smoothing range. Just determine the kernel width. It should be noted that the same smoothing kernel pattern may be used for smoothing the absolute values of the imaginary parts of all the complex developed images.

図66は、面内平滑化による距離計測処理の一例を説明するフローチャートである。ステップ6601では、評価用パターン生成部3601が、評価用パターン1801を生成する。 FIG. 66 is a flowchart illustrating an example of a distance measurement process by in-plane smoothing. In step 6601, the evaluation pattern generation unit 3601 generates the evaluation pattern 1801.

そして、ステップ6602では、平滑化カーネル生成部3801が、平滑化カーネルを生成し、平滑化カーネル格納部3802に格納する。そして、ステップ6603では、画像センサ103が、センサ画像を取得する。画像センサ103により取得されたセンサ画像を用いて、ステップ6604において複素センサ画像生成部108が複素センサ画像1602を生成する。 Then, in step 6602, the smoothing kernel generation unit 3801 generates a smoothing kernel and stores it in the smoothing kernel storage unit 3802. Then, in step 6603, the image sensor 103 acquires the sensor image. Using the sensor image acquired by the image sensor 103, the complex sensor image generation unit 108 generates the complex sensor image 1602 in step 6604.

ステップ6605では、複素センサ画像1602と評価用パターン1801の相互相関演算を相互相関演算部3603で行い、複素情報配列3701を生成する。 In step 6605, the cross-correlation calculation unit 3603 performs a cross-correlation calculation between the complex sensor image 1602 and the evaluation pattern 1801 to generate a complex information array 3701.

ステップ6606では、虚部絶対値変換部3803が、複素情報配列3701の虚部絶対値を抽出し、面内平滑化演算部3804が、複素情報配列3701の虚部絶対値をステップ6602で生成した平滑化カーネルを用いて平滑化し、評価指標配列1603を生成する。 In step 6606, the imaginary part absolute value conversion unit 3803 extracted the imaginary part absolute value of the complex information sequence 3701, and the in-plane smoothing calculation unit 3804 generated the imaginary part absolute value of the complex information sequence 3701 in step 6602. Smoothing is performed using a smoothing kernel to generate an evaluation index sequence 1603.

ステップ6607では、距離情報生成部110が、評価指標配列1603を用いて距離情報を生成し出力する。 In step 6607, the distance information generation unit 110 generates and outputs distance information using the evaluation index array 1603.

以上が、平滑化カーネルを用いて面内平滑化を行う場合の距離計測処理の一例である。面内平滑化を行うことにより、エッジ内外での測距誤差を小さくすることができる。なお、ステップ6601で生成する評価用パターン1801を構成する現像用パターンは、撮影用パターンと相似形のパターンであってもよいし、第四の実施形態において説明した、撮影用パターンと相似形のパターンを複数枚足し合わせた平滑化パターンであってもよい。 The above is an example of the distance measurement process when performing in-plane smoothing using the smoothing kernel. By performing in-plane smoothing, it is possible to reduce the distance measurement error inside and outside the edge. The developing pattern constituting the evaluation pattern 1801 generated in step 6601 may be a pattern similar to the photographing pattern, or may be similar to the photographing pattern described in the fourth embodiment. It may be a smoothing pattern in which a plurality of patterns are added together.

平滑化パターンを現像用パターンとして生成することにより、第四の実施形態において説明した奥行き方向の平滑化による測距レンジ拡大効果と、第五の実施形態において説明した面内方向の平滑化による測距精度向上効果と、の両方を得られる。 By generating the smoothing pattern as a development pattern, the effect of expanding the range-finding range by the smoothing in the depth direction described in the fourth embodiment and the measurement by the smoothing in the in-plane direction described in the fifth embodiment are performed. Both the effect of improving the distance accuracy and the effect can be obtained.

また、ステップ6602の平滑化カーネル生成のタイミングは、ステップ6601の直後に実施するに限られず、ステップ6606の実施前であれば、いつ行っても構わない。 Further, the timing of generating the smoothed kernel in step 6602 is not limited to immediately after step 6601, and may be performed at any time before the execution of step 6606.

<第六の実施の形態 微分>
本発明に係る第六の実施の形態である距離計測装置について説明する。第六の実施の形態である距離計測装置は、距離計測装置101(図1)と同様に構成されるが、複素現像画像に対して面内の微分演算を行う点において異なる。
<Sixth Embodiment Differentiation>
The distance measuring device according to the sixth embodiment of the present invention will be described. The distance measuring device according to the sixth embodiment is configured in the same manner as the distance measuring device 101 (FIG. 1), but differs in that an in-plane differential operation is performed on the complex developed image.

図63は、複素現像画像のプロファイルの一例を示す図である。このプロファイルは、一般的な被写体(風景等)を撮影した場合の複素現像画像虚部の様子を示す。被写体中にステップ応答6301のような輝度変化がある場合、β’<βにおける複素現像画像の虚部は、プロット6302に示すように、左右非対称な形状になる。一方、β’>βにおける複素現像画像の虚部は、プロット6303に示す通り、プロット6302と左右が反転した非対称な形状になる。なお、一般被写体の場合、ステップ応答6301の左側領域は必ずしもゼロではないため、複素現像画像虚部にはフロアとしてオフセット成分6304が加算される。 FIG. 63 is a diagram showing an example of a profile of a complex developed image. This profile shows the appearance of the imaginary part of the complex developed image when a general subject (landscape, etc.) is photographed. When there is a change in luminance such as step response 6301 in the subject, the imaginary part of the complex developed image at β'<β 0 has a left-right asymmetric shape as shown in plot 6302. On the other hand, the imaginary part of the complex developed image at β'> β 0 has an asymmetrical shape with the left and right sides inverted from the plot 6302, as shown in the plot 6303. In the case of a general subject, since the left region of the step response 6301 is not necessarily zero, the offset component 6304 is added as a floor to the imaginary portion of the complex developed image.

その結果、そのままではステップ応答6301のエッジ部分(図の縦の破線)では複素現像画像の値がβ’に対して変化しないため、前述の最小値探索およびゼロ交差点の算出による距離情報生成は行えない。また、エッジの外側(左側)では、オフセット成分6304の影響を受け、最小値探索およびゼロ交差点の算出のいずれを用いた場合も、距離情報の値が実際の距離よりも大きくなる。一方で、エッジの内側(右側)では、オフセット成分6304の影響を受け、最小値探索およびゼロ交差点の算出のいずれを用いた場合も、距離情報の値が実際の距離よりも小さくなる。 As a result, since the value of the complex developed image does not change with respect to β'at the edge portion (vertical broken line in the figure) of the step response 6301 as it is, the distance information can be generated by the above-mentioned minimum value search and zero intersection calculation. not. Further, on the outside (left side) of the edge, the value of the distance information becomes larger than the actual distance regardless of whether the minimum value search or the calculation of the zero intersection is used under the influence of the offset component 6304. On the other hand, on the inside (right side) of the edge, the value of the distance information becomes smaller than the actual distance regardless of whether the minimum value search or the calculation of the zero intersection is used under the influence of the offset component 6304.

以上をまとめると、一般被写体の場合、エッジ部分そのものでは距離情報の生成が行えず、エッジの外側では実際よりも遠方に被写体があり、エッジの内側では実際よりも近くに被写体があることを示す距離情報が生成されてしまう。つまり、異なる二色で構成された被写体は、等距離にあるにも関わらず、色の部分により異なる距離が算出されることがある。 To summarize the above, in the case of a general subject, it is shown that distance information cannot be generated at the edge part itself, the subject is farther than it actually is outside the edge, and the subject is closer than it actually is inside the edge. Distance information will be generated. That is, even though the subjects composed of two different colors are equidistant, different distances may be calculated depending on the color portion.

図64は、複素現像画像のプロファイルを微分した一例を示す図である。図64に示すように、図63に示した一般被写体のプロファイルであっても、複素現像画像を微分することで、複素現像画像のエッジ部分の非対称性とオフセット成分を除去することができる。そのため、エッジ部分での距離情報の生成とエッジ内外での距離情報の誤差を同時に解決することができる。 FIG. 64 is a diagram showing an example of differentiating the profile of a complex developed image. As shown in FIG. 64, even in the profile of the general subject shown in FIG. 63, the asymmetry and the offset component of the edge portion of the complex developed image can be removed by differentiating the complex developed image. Therefore, it is possible to simultaneously solve the error of the distance information generation at the edge portion and the distance information inside and outside the edge.

このような微分処理を適用するために、相互相関演算部3603において、複素微分パターンと複素センサ画像とを用いて相互相関演算を行うことが考えられる。このような複素微分パターンの生成方法について、図65を用いて説明する。 In order to apply such a differential process, it is conceivable that the cross-correlation calculation unit 3603 performs a cross-correlation calculation using the complex differential pattern and the complex sensor image. A method of generating such a complex differential pattern will be described with reference to FIG. 65.

図65は、複素微分パターン生成の一例を示す図である。複素微分パターンは評価用パターン1801の現像用パターン801の一例ともいえる。評価用パターン生成部3601は、現像用パターンの実部として、撮影用パターン105と相似形のピッチ係数β’のパターン6501と、パターン6501と同ピッチ係数のパターン6502との差を用いて、複素微分パターン6503を生成する。ただし、パターン6501とパターン6502のパターン中心は、いずれかの方向に少なくとも1ピクセル以上ずれている。 FIG. 65 is a diagram showing an example of complex differential pattern generation. The complex differential pattern can be said to be an example of the development pattern 801 of the evaluation pattern 1801. The evaluation pattern generation unit 3601 uses the difference between the pattern 6501 having a pitch coefficient β'similar to the photographing pattern 105 and the pattern 6502 having the same pitch coefficient as the pattern 6501 as the actual part of the developing pattern, and is complex. Generate a differential pattern 6503. However, the pattern centers of the pattern 6501 and the pattern 6502 are displaced by at least one pixel or more in either direction.

評価用パターン生成部3601は、現像用パターンの虚部として、撮影用パターン105と相似形のピッチ係数β’のパターン6504と、パターン6504と同ピッチ係数のパターン6505との差を用いて、複素微分パターン6506を生成する。ただし、虚部のパターン6504のパターン中心は、実部のパターン6501のパターン中心と一致し、虚部のパターン6505のパターン中心は、実部のパターン6502のパターン中心と一致するものとする。 The evaluation pattern generation unit 3601 uses the difference between the pattern 6504 with a pitch coefficient β'similar to the photographing pattern 105 and the pattern 6504 with the same pitch coefficient as the imaginary part of the development pattern, and is complex. Generate a differential pattern 6506. However, it is assumed that the pattern center of the pattern 6504 of the imaginary part coincides with the pattern center of the pattern 6501 of the real part, and the pattern center of the pattern 6505 of the imaginary part coincides with the pattern center of the pattern 6502 of the real part.

以上のようにして生成された複素微分パターン6503、6506からなる複素微分パターンを用いて、複素センサ画像1602との相互相関演算を相互相関演算部3603が行うことで、図64で示すようなプロファイルを有する複素現像画像を生成できる。そして、微分された複素現像画像を用いて評価指標配列1603を生成させることで、距離情報生成部110において生成される距離情報の精度、とくにエッジ部の距離情報の精度を向上させることが可能となる。なお、以上のように複素微分パターンを用いて相互相関演算を行うことにより、複素現像画像を生成後に微分フィルタをかける処理を省略することができる。つまり、1フレームごとの処理の負荷・時間を低減することができる。 Using the complex differential pattern consisting of the complex differential patterns 6503 and 6506 generated as described above, the cross-correlation calculation unit 3603 performs a cross-correlation operation with the complex sensor image 1602, whereby the profile as shown in FIG. 64 is performed. It is possible to generate a complex developed image having. Then, by generating the evaluation index array 1603 using the differentiated complex developed image, it is possible to improve the accuracy of the distance information generated by the distance information generation unit 110, particularly the accuracy of the distance information of the edge portion. Become. By performing the cross-correlation operation using the complex differential pattern as described above, it is possible to omit the process of applying the differential filter after generating the complex developed image. That is, it is possible to reduce the processing load and time for each frame.

上記の複素微分パターンを用いる距離計測フローは、図27に示したフローと基本的に同様である。一部相違する点は、ステップ2701において生成する評価用パターン1801が、複素微分パターンである点である。なお、複素微分パターンを用いて相互相関演算を行う処理においては、平滑化パターンを用いた相互相関演算による奥行き方向の平滑化と、平滑化カーネルを用いた面内方向平滑化とのいずれかまたは両方を組み合わせて適用してもよい。 The distance measurement flow using the above complex differential pattern is basically the same as the flow shown in FIG. 27. The partial difference is that the evaluation pattern 1801 generated in step 2701 is a complex differential pattern. In the process of performing cross-correlation calculation using a complex differential pattern, either smoothing in the depth direction by cross-correlation calculation using a smoothing pattern or in-plane smoothing using a smoothing kernel is performed. Both may be applied in combination.

<第七の実施の形態 奥行き方向平滑化と微分>
第七の実施の形態は、第四の実施の形態における平滑化パターンによる奥行き方向の平滑化と、第六の実施の形態における複素微分パターンによる演算と、を組み合わせる距離計測装置に係る実施の形態である。第七の実施の形態に係る距離計測装置が実施する評価用パターンの生成方法について、以下に説明する。
<Seventh Embodiment: Smoothing in the depth direction and differentiation>
The seventh embodiment relates to an embodiment relating to a distance measuring device that combines smoothing in the depth direction by a smoothing pattern in the fourth embodiment and calculation by a complex differential pattern in the sixth embodiment. Is. The method of generating the evaluation pattern carried out by the distance measuring device according to the seventh embodiment will be described below.

第七の実施の形態に係る評価用パターンは、図27に示したステップ2701において、評価用パターン生成部3601により生成される。具体的には、評価用パターン生成部3601は、図67に示すように、評価用パターン1801の実部および虚部ともに、異なるピッチ係数β´を有するパターンから生成された複素微分パターンを複数加算して、微分平滑化パターンを生成する。 The evaluation pattern according to the seventh embodiment is generated by the evaluation pattern generation unit 3601 in step 2701 shown in FIG. 27. Specifically, as shown in FIG. 67, the evaluation pattern generation unit 3601 adds a plurality of complex differential patterns generated from patterns having different pitch coefficients β'in both the real part and the imaginary part of the evaluation pattern 1801. To generate a differential smoothing pattern.

図67は、微分平滑化パターン生成の一例を示す図である。微分平滑化パターン生成においては、評価用パターン生成部3601は、評価用パターン1801の現像用パターンの実部として、複素微分パターンの実部6701~6704を加算して生成した微分平滑化パターン6705を生成する。同様に、評価用パターン生成部3601は、評価用パターン1801の現像用パターンの虚部として、複素微分パターンの虚部6706~6709を加算して生成した微分平滑化パターン6710を生成する。 FIG. 67 is a diagram showing an example of differential smoothing pattern generation. In the differential smoothing pattern generation, the evaluation pattern generation unit 3601 generates the differential smoothing pattern 6705 by adding the real parts 6701 to 6704 of the complex differential pattern as the real part of the development pattern of the evaluation pattern 1801. Generate. Similarly, the evaluation pattern generation unit 3601 generates a differential smoothing pattern 6710 generated by adding the imaginary parts 6706 to 6709 of the complex differential pattern as the imaginary part of the development pattern of the evaluation pattern 1801.

なお、複素微分パターン6701~6704のそれぞれの作成に用いる2つのパターンのピッチ係数は、複素微分パターン6701~6704のそれぞれで互いに異なる。また、実部の複素微分パターン6701と対応する虚部の複素微分パターン6706は、同じピッチ係数のパターンから生成されている。複素微分パターン6702~6704と、複素微分パターン6707~6709についても、同様である。 The pitch coefficients of the two patterns used to create the complex differential patterns 6701 to 6704 are different from each other in the complex differential patterns 6701 to 6704. Further, the complex differential pattern 6706 of the imaginary part corresponding to the complex differential pattern 6701 of the real part is generated from the pattern of the same pitch coefficient. The same applies to the complex differential patterns 6702 to 6704 and the complex differential patterns 6707 to 6709.

なお、第四の実施形態においても説明した通り、微分平滑化パターン6705と、微分平滑化パターン6710との生成に用いる微分パターンはそれぞれ4枚に限られず、2枚以上であれば何枚使用しても構わない。また、式(3)をβについて積分し、微分処理することで直接的に微分平滑化パターンを生成してもよい。このようにすることで、演算量を抑制することができる。 As described in the fourth embodiment, the differential pattern used to generate the differential smoothing pattern 6705 and the differential smoothing pattern 6710 is not limited to four, and any number of two or more are used. It doesn't matter. Further, the differential smoothing pattern may be directly generated by integrating Eq. (3) with respect to β and performing differential processing. By doing so, the amount of calculation can be suppressed.

以上が、第七の実施の形態に係る距離計測装置である。第七の実施の形態に係る距離計測装置によれば、ピント位置の範囲を拡大するとともに、エッジがある場合でも精度の高い距離を計測することができる。 The above is the distance measuring device according to the seventh embodiment. According to the distance measuring device according to the seventh embodiment, the range of the focus position can be expanded and the distance can be measured with high accuracy even if there is an edge.

<第八の実施の形態 奥行き方向平滑化、面内平滑化および微分>
第八の実施の形態は、第四の実施の形態における奥行き方向の平滑化と、第五の実施の形態における平滑化カーソルを用いた平滑化フィルタによる面内平滑化と、第六の実施の形態における複素微分パターンによる演算と、を組み合わせる距離計測装置に係る実施の形態である。第八の実施の形態に係る距離計測装置が実施する評価用パターンの生成方法について、図66を用いて以下に説明する。
<Eighth Embodiment: Depth smoothing, in-plane smoothing and differentiation>
The eighth embodiment includes smoothing in the depth direction in the fourth embodiment, in-plane smoothing by a smoothing filter using a smoothing cursor in the fifth embodiment, and sixth embodiment. It is an embodiment relating to a distance measuring device that combines an operation based on a complex differential pattern in a form. The method of generating the evaluation pattern carried out by the distance measuring device according to the eighth embodiment will be described below with reference to FIG. 66.

第八の実施の形態に係る距離計測方法では、基本的には図66に示した第五の実施の形態に係る距離計測装置と同様の処理を行う。ただし、第八の実施の形態に係る評価用パターンは、図66に示したステップ6601において、評価用パターン生成部3601により、複素微分パターンまたは微分平滑化パターンとして生成される。具体的には、評価用パターン生成部3601は、評価用パターン1801の実部および虚部ともに、同じピッチ係数β´を有するパターンの中心を一ピクセル以上所定の方向にずらして差分を取った複素微分パターンを生成する。もしくは、評価用パターン生成部3601は、評価用パターン1801の実部および虚部ともに、異なるピッチ係数β´を有するパターンから生成された複素微分パターンを複数加算して、微分平滑化パターンを生成する。 In the distance measuring method according to the eighth embodiment, basically the same processing as that of the distance measuring device according to the fifth embodiment shown in FIG. 66 is performed. However, the evaluation pattern according to the eighth embodiment is generated as a complex differential pattern or a differential smoothing pattern by the evaluation pattern generation unit 3601 in step 6601 shown in FIG. Specifically, the evaluation pattern generation unit 3601 is a complex number obtained by shifting the center of a pattern having the same pitch coefficient β'by one pixel or more in a predetermined direction in both the real part and the imaginary part of the evaluation pattern 1801. Generate a differential pattern. Alternatively, the evaluation pattern generation unit 3601 generates a differential smoothing pattern by adding a plurality of complex differential patterns generated from patterns having different pitch coefficients β'in both the real part and the imaginary part of the evaluation pattern 1801. ..

また、複素微分パターンは、図65に示した方法以外にも、たとえば図69に示すような方法を採用できる。図69は、微分パターンの他の例を示す図である。評価用パターン生成部3601は、縦方向に一ピクセル以上ずらして2枚のパターンの差分を取るように生成してもよいし、斜め方向に一ピクセル以上ずらして2枚のパターンの差分を取るように生成してもよい。あるいは、評価用パターン生成部3601は、下式(12),(13)に示したラプラシアンカーネルとの畳み込み演算によって生成するようにしてもよい。 Further, as the complex differential pattern, in addition to the method shown in FIG. 65, for example, a method as shown in FIG. 69 can be adopted. FIG. 69 is a diagram showing another example of the differential pattern. The evaluation pattern generation unit 3601 may be generated so as to shift by one pixel or more in the vertical direction to obtain the difference between the two patterns, or to shift by one pixel or more in the diagonal direction to obtain the difference between the two patterns. May be generated in. Alternatively, the evaluation pattern generation unit 3601 may be generated by a convolution operation with the Laplacian kernel shown in the following equations (12) and (13).

Figure 0007065761000012
Figure 0007065761000012

Figure 0007065761000013
Figure 0007065761000013

このように、第八の実施の形態に係る距離計測装置によれば、演算量を抑制しつつ、高速かつ正確に距離を計測することができる。 As described above, according to the distance measuring device according to the eighth embodiment, it is possible to measure the distance quickly and accurately while suppressing the amount of calculation.

<第九の実施の形態 複数の評価用パターンの統合>
第九の実施の形態は、第一の実施の形態~第八の実施の形態に示した各実施の形態に係る距離計億装置において、複数の評価用パターンによる演算の結果得られる距離情報を統合して距離情報を得る距離計測装置に係る実施の形態である。第九の実施の形態に係る距離計測装置が実施する距離計測方法について、図68を用いて以下に説明する。
<Integration of a plurality of evaluation patterns in the ninth embodiment>
The ninth embodiment is the distance information obtained as a result of the calculation by a plurality of evaluation patterns in the rangefinder billion device according to each embodiment shown in the first embodiment to the eighth embodiment. It is an embodiment related to a distance measuring device that integrates and obtains distance information. The distance measuring method carried out by the distance measuring device according to the ninth embodiment will be described below with reference to FIG. 68.

第九の実施の形態に係る距離計測装置の距離計測方法は、基本的に第一の実施形態に係る距離計測装置の距離計測方法と同様であるが、一部に相違がある。以下、相違点を中心に説明する。 The distance measuring method of the distance measuring device according to the ninth embodiment is basically the same as the distance measuring method of the distance measuring device according to the first embodiment, but there are some differences. Hereinafter, the differences will be mainly described.

図68は、距離計測処理の一例を説明するフローチャートである。まず、評価用パターン生成部3601は、ステップ6801において、評価用パターンを2つ以上(例えば、2種類)生成し、ステップ6803~ステップ6806においてそのうちの一つと、複素センサ画像1602と、を用いて相互相関演算を行って距離情報1を算出する。同様に、ステップ6807~ステップ6809において残る一つと、複素センサ画像1602と、を用いて相互相関演算を行って距離情報2を算出する。それ以上の評価用パターンがある場合には、その残りの評価用パターンについても同様に距離情報を算出する。 FIG. 68 is a flowchart illustrating an example of the distance measurement process. First, the evaluation pattern generation unit 3601 generates two or more evaluation patterns (for example, two types) in step 6801, and uses one of them and the complex sensor image 1602 in steps 6803 to 6806. The distance information 1 is calculated by performing a cross-correlation calculation. Similarly, the distance information 2 is calculated by performing a cross-correlation calculation using the remaining one in steps 6807 to 6809 and the complex sensor image 1602. If there are more evaluation patterns, the distance information is calculated for the remaining evaluation patterns in the same manner.

ステップ6810において、距離情報1と距離情報2とを統合し、一つの距離情報として出力する。その統合方法は、例えば、距離情報1と距離情報2の同一画素における平均値を計算する方法が考えられる。距離情報が複数得られた場合には、同様に平均値、最頻値、中央値等の各種統計的な値を用いて統合することができる。 In step 6810, the distance information 1 and the distance information 2 are integrated and output as one distance information. As the integration method, for example, a method of calculating the average value of the distance information 1 and the distance information 2 in the same pixel can be considered. When a plurality of distance information is obtained, it can be integrated by using various statistical values such as a mean value, a mode value, and a median value in the same manner.

なお、評価用パターン生成部3601は、ステップ6801において、面内方向の互いに異なる方向について微分した複数の評価用パターンを生成するようにしてもよい。 In addition, the evaluation pattern generation unit 3601 may generate a plurality of evaluation patterns differentiated in different directions in the in-plane direction in step 6801.

以上が、第九の実施の形態に係る距離計測装置の例である。第九の実施の形態に係る距離計測装置によれば、より精度の高い距離情報を得ることができる。 The above is an example of the distance measuring device according to the ninth embodiment. According to the distance measuring device according to the ninth embodiment, more accurate distance information can be obtained.

なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形が可能である。例えば、上記した各実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 The present invention is not limited to the above-described embodiment, and various modifications are possible. For example, each of the above-described embodiments has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations.

また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えたり、追加したりすることが可能である。 Further, it is possible to replace or add a part of the configuration of one embodiment to the configuration of another embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means and the like may be realized by hardware by designing a part or all of them by, for example, an integrated circuit. Further, each of the above configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Information such as programs, tables, and files that realize each function can be placed in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 In addition, the control lines and information lines indicate what is considered necessary for explanation, and do not necessarily indicate all the control lines and information lines in the product. In practice, it can be considered that almost all configurations are interconnected.

101・・・距離計測装置、102・・・撮像部、103・・・画像センサ、103a・・・画素、104・・・パターン基板、105・・・撮影用パターン、106・・・画像処理部、107・・・コントローラ、108・・・複素センサ画像生成部、109・・・評価指標配列生成部、110・・・距離情報生成部、111・・・距離計測変数設定部、801・・・現像用パターン、1201・・・撮影用パターン、1202・・・変調器制御部、1301・・・撮影用パターン、1302・・・画像分割部、1401・・・点、1402・・・投影像、1501・・・点、1502・・・投影像、1601・・・センサ画像、1602・・・複素センサ画像、1603・・・評価指標配列、1801・・・評価用パターン、1901・・・被写体、2901・・・距離情報、3101・・・距離計測レンジ入力部、3601・・・評価用パターン生成部、3602・・・評価用パターン格納部、3603・・・相互相関演算部、3604・・・評価指標配列変換部、3701・・・複素情報配列、3801・・・平滑化カーネル生成部、3802・・・平滑化カーネル格納部、3803・・・虚部絶対値変換部、3804・・・面内平滑化演算部 101 ... Distance measuring device, 102 ... Imaging unit, 103 ... Image sensor, 103a ... Pixel, 104 ... Pattern board, 105 ... Shooting pattern, 106 ... Image processing unit , 107 ... Controller, 108 ... Complex sensor image generation unit, 109 ... Evaluation index array generation unit, 110 ... Distance information generation unit, 111 ... Distance measurement variable setting unit, 801 ... Development pattern, 1201 ... Shooting pattern, 1202 ... Modulator control unit, 1301 ... Shooting pattern, 1302 ... Image division unit, 1401 ... Point, 1402 ... Projected image, 1501 ... Point, 1502 ... Projection image, 1601 ... Sensor image, 1602 ... Complex sensor image, 1603 ... Evaluation index array, 1801 ... Evaluation pattern, 1901 ... Subject, 2901 ... Distance information, 3101 ... Distance measurement range input unit, 3601 ... Evaluation pattern generation unit, 3602 ... Evaluation pattern storage unit, 3603 ... Mutual correlation calculation unit, 3604 ... Evaluation index array conversion unit, 3701 ... complex information array, 3801 ... smoothing kernel generation unit, 3802 ... smoothing kernel storage unit, 3803 ... imaginary part absolute value conversion unit, 3804 ... surface Internal smoothing calculation unit

Claims (15)

光を電気信号に変換し、センサ画像を生成する画像センサと、
撮影用パターンに基づいて前記画像センサ上に投影される光の強度を変調する変調器と、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像生成部と、
前記複素センサ画像の位相情報を基に評価指標配列を生成する評価指標配列生成部と、
前記評価指標配列を用いて距離情報を生成する距離情報生成部と、を有し、
前記評価指標配列生成部は、
ピント距離に応じた複数の互いに異なる現像用パターンを含む評価用パターンを生成し、
前記複素センサ画像と複数の前記現像用パターンとの相互相関演算を行って複数の現像画像を生成し、
前記複数の現像画像をピント距離が近い順に積層させることで平面および奥行き方向を有する三次元の複素情報配列を生成し、
前記複素情報配列について前記三次元の少なくとも一つの方向に所定の範囲で平滑化して二次元配列を複数生成し、該二次元配列を前記積層方向に積層させた三次元配列を前記評価指標配列とする、
ことを特徴とする距離計測装置。
An image sensor that converts light into an electrical signal and generates a sensor image,
A modulator that modulates the intensity of light projected onto the image sensor based on a shooting pattern, and
A complex sensor image generator that generates a complex sensor image having a complex number from the sensor image,
An evaluation index array generation unit that generates an evaluation index array based on the phase information of the complex sensor image,
It has a distance information generation unit that generates distance information using the evaluation index array, and has.
The evaluation index sequence generation unit is
Generates an evaluation pattern that includes multiple different development patterns according to the focus distance.
A plurality of developed images are generated by performing a cross-correlation operation between the complex sensor image and the plurality of the developing patterns.
By stacking the plurality of developed images in order of close focus distance, a three-dimensional complex information array having a plane and a depth direction is generated.
The complex information array is smoothed in at least one direction of the three dimensions in a predetermined range to generate a plurality of two-dimensional arrays, and the three-dimensional array obtained by laminating the two-dimensional arrays in the stacking direction is referred to as the evaluation index array. do,
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンと相似形であり、
前記距離情報生成部は、前記現像用パターンの前記撮影用パターンからの拡大率を用いて前記距離情報を生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is similar to the photographing pattern and has a similar shape.
The distance information generation unit generates the distance information using the enlargement ratio of the development pattern from the photographing pattern.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンと相似形であって拡大率が互いに異なる複数のパターンを足し合わせて生成されたものであり、
前記評価指標配列生成部は、
前記現像用パターンと相互相関演算を行うことで、前記複素情報配列の前記積層方向の平滑化を行う、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is generated by adding a plurality of patterns that are similar to the photographing pattern but have different enlargement ratios.
The evaluation index sequence generation unit is
By performing a cross-correlation operation with the development pattern, the complex information array is smoothed in the stacking direction.
A distance measuring device characterized by this.
請求項3に記載の距離計測装置であって、
前記評価指標配列生成部は、前記拡大率が互いに異なる複数のパターンをそれぞれ異なる重みづけにより前記現像用パターンを生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 3.
The evaluation index sequence generation unit generates the development pattern by weighting a plurality of patterns having different enlargement ratios with different weights.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記平滑化は積層方向についての平滑化であり、
前記評価指標配列を構成する前記二次元配列は、前記積層方向の平滑化範囲が互いに異なる、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The smoothing is smoothing in the stacking direction.
The two-dimensional array constituting the evaluation index array has different smoothing ranges in the stacking direction.
A distance measuring device characterized by this.
請求項5に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンと相似形であって拡大率が互いに異なる複数のパターンを足し合わせて生成されたものであり、
前記評価指標配列生成部は、
前記現像用パターンと相互相関演算を行うことで、前記複素情報配列の前記積層方向の平滑化を行う、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 5.
The developing pattern is generated by adding a plurality of patterns that are similar to the photographing pattern but have different enlargement ratios.
The evaluation index sequence generation unit is
By performing a cross-correlation operation with the development pattern, the complex information array is smoothed in the stacking direction.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンと相似形であって、
前記評価指標配列生成部は、
前記複素情報配列の虚部絶対値について、前記平面の面内方向に平滑化を行う、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is similar to the photographing pattern and has a similar shape.
The evaluation index sequence generation unit is
The imaginary absolute value of the complex information array is smoothed in the in-plane direction of the plane.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンと相似形であって、
前記評価指標配列生成部は、
前記複素情報配列の虚部絶対値について、前記平面の面内方向に平滑化を行い、
前記平滑化に用いる平滑化カーネルのカーネル幅を、前記現像用パターンの前記撮影用パターンからの拡大率を用いて特定する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is similar to the photographing pattern and has a similar shape.
The evaluation index sequence generation unit is
The absolute value of the imaginary part of the complex information array is smoothed in the in-plane direction of the plane.
The kernel width of the smoothing kernel used for the smoothing is specified by using the enlargement ratio of the development pattern from the shooting pattern.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記評価指標配列生成部は、
前記複素情報配列について前記平面内の少なくとも一方向について微分演算を行った結果を用いて、前記評価指標配列を生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The evaluation index sequence generation unit is
The evaluation index array is generated using the result of performing a differential operation on the complex information array in at least one direction in the plane.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記評価指標配列生成部は、
前記複素情報配列について前記平面内の少なくとも一方向について微分演算を行った結果を用いて、前記評価指標配列を生成するものであり、
前記撮影用パターンと相似形のパターンであって互いに少なくとも1画素以上平行移動した位置ずれを有する少なくとも二つのパターンの差を、前記現像用パターンとして生成し、
前記現像用パターンを用いて前記複素センサ画像と相互相関演算を行うことで、前記微分演算を行う、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The evaluation index sequence generation unit is
The evaluation index array is generated by using the result of performing a differential operation on the complex information array in at least one direction in the plane.
A difference between at least two patterns that are similar to the photographing pattern and have a positional deviation that is translated by at least one pixel or more from each other is generated as the developing pattern.
The differential operation is performed by performing a cross-correlation operation with the complex sensor image using the development pattern.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記評価指標配列生成部は、
面内方向の互いに異なる方向について微分する複数の前記評価用パターンを生成することで複数の前記評価指標配列を生成し、
前記距離情報生成部は、
複数の前記評価指標配列を用いて複数の前記距離情報を生成し、
前記複数の距離情報を統合することで前記距離情報を生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The evaluation index sequence generation unit is
A plurality of the evaluation index arrays are generated by generating a plurality of the evaluation patterns that differentiate in different directions in the in-plane direction.
The distance information generation unit is
Using the plurality of evaluation index sequences, the plurality of distance information is generated, and the plurality of distance information is generated.
The distance information is generated by integrating the plurality of distance information.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記評価指標配列の各配列要素は正負の値を取りうる数値の集合であり、
前記現像用パターンは、前記撮影用パターンを所定の拡大率で拡大した相似形であり、
前記距離情報生成部は、前記各配列要素がゼロになる前記拡大率を特定して該拡大率に応じて前記距離情報を生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
Each array element of the evaluation index array is a set of numerical values that can take positive and negative values.
The developing pattern is a similar figure obtained by enlarging the photographing pattern at a predetermined magnification.
The distance information generation unit specifies the enlargement ratio at which each of the array elements becomes zero, and generates the distance information according to the enlargement ratio.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンを所定の拡大率で拡大した相似形であり、
前記評価指標配列の各配列要素は、前記拡大率に比例して変化する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is a similar figure obtained by enlarging the photographing pattern at a predetermined magnification.
Each sequence element of the evaluation index sequence changes in proportion to the enlargement ratio.
A distance measuring device characterized by this.
請求項1に記載の距離計測装置であって、
前記現像用パターンは、前記撮影用パターンを所定の拡大率で拡大した相似形であり、
距離計測対象までの距離に応じて、距離計測範囲と距離計測分解能とを設定する距離計測変数設定部を有し、
前記評価指標配列生成部は、前記距離計測範囲と前記距離計測分解能とに応じて前記現像用パターンの前記撮影用パターンからの拡大率を選択して前記評価用パターンを生成する、
ことを特徴とする距離計測装置。
The distance measuring device according to claim 1.
The developing pattern is a similar figure obtained by enlarging the photographing pattern at a predetermined magnification.
It has a distance measurement variable setting unit that sets the distance measurement range and the distance measurement resolution according to the distance to the distance measurement target.
The evaluation index sequence generation unit generates the evaluation pattern by selecting the enlargement ratio of the development pattern from the photographing pattern according to the distance measurement range and the distance measurement resolution.
A distance measuring device characterized by this.
光を電気信号に変換し、センサ画像を生成するセンサ画像生成ステップと、
撮影用パターンに基づいて前記画像センサ上に投影される光の強度を変調する変調ステップと、
前記センサ画像から複素数を有する複素センサ画像を生成する複素センサ画像生成ステップと、
前記複素センサ画像の位相情報を基に評価指標配列を生成する評価指標配列ステップと、
前記評価指標配列を用いて距離情報を生成する距離情報生成ステップを有し、
前記評価指標配列生成ステップでは、ピント距離に応じた複数の互いに異なる現像用パターンを含む評価用パターンを生成し、
前記複素センサ画像と複数の前記現像用パターンとの相互相関演算を行って複数の現像画像を生成し、
前記複数の現像画像をピント距離が近い順に積層させることで平面および奥行き方向を有する三次元の複素情報配列を生成し、
前記複素情報配列について前記三次元の少なくとも一つの方向に所定の範囲で平滑化して二次元配列を複数生成し、該二次元配列を前記積層方向に積層させた三次元配列を前記評価指標配列とする、
ことを特徴とする距離計測方法。
A sensor image generation step that converts light into an electrical signal and generates a sensor image,
A modulation step that modulates the intensity of the light projected onto the image sensor based on the imaging pattern.
A complex sensor image generation step of generating a complex sensor image having a complex number from the sensor image,
An evaluation index array step that generates an evaluation index array based on the phase information of the complex sensor image, and
It has a distance information generation step for generating distance information using the evaluation index array.
In the evaluation index sequence generation step, an evaluation pattern including a plurality of different development patterns according to the focus distance is generated.
A plurality of developed images are generated by performing a cross-correlation operation between the complex sensor image and the plurality of the developing patterns.
By stacking the plurality of developed images in order of close focus distance, a three-dimensional complex information array having a plane and a depth direction is generated.
The complex information array is smoothed in at least one direction of the three dimensions in a predetermined range to generate a plurality of two-dimensional arrays, and the three-dimensional array obtained by laminating the two-dimensional arrays in the stacking direction is referred to as the evaluation index array. do,
A distance measurement method characterized by this.
JP2018242875A 2018-12-26 2018-12-26 Distance measuring device and distance measuring method Active JP7065761B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018242875A JP7065761B2 (en) 2018-12-26 2018-12-26 Distance measuring device and distance measuring method
PCT/JP2019/043827 WO2020137185A1 (en) 2018-12-26 2019-11-08 Distance measuring device and distance measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018242875A JP7065761B2 (en) 2018-12-26 2018-12-26 Distance measuring device and distance measuring method

Publications (2)

Publication Number Publication Date
JP2020106301A JP2020106301A (en) 2020-07-09
JP7065761B2 true JP7065761B2 (en) 2022-05-12

Family

ID=71129007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018242875A Active JP7065761B2 (en) 2018-12-26 2018-12-26 Distance measuring device and distance measuring method

Country Status (2)

Country Link
JP (1) JP7065761B2 (en)
WO (1) WO2020137185A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150219808A1 (en) 2013-08-28 2015-08-06 Rambus Inc. Patchwork fresnel zone plates for lensless imaging
WO2018221019A1 (en) 2017-06-01 2018-12-06 富士フイルム株式会社 Image processing device, imaging system, image processing method, and recording medium
WO2018221025A1 (en) 2017-06-01 2018-12-06 富士フイルム株式会社 Imaging device, image processing device, imaging system, image processing method, and recording medium
JP2019105466A (en) 2017-12-11 2019-06-27 株式会社日立製作所 Distance measurement device and distance measurement method
JP2019176214A (en) 2018-03-27 2019-10-10 株式会社日立製作所 Imaging apparatus, imaging module, and imaging method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688716B2 (en) * 2016-10-04 2020-04-28 株式会社日立製作所 Imaging device and imaging method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150219808A1 (en) 2013-08-28 2015-08-06 Rambus Inc. Patchwork fresnel zone plates for lensless imaging
WO2018221019A1 (en) 2017-06-01 2018-12-06 富士フイルム株式会社 Image processing device, imaging system, image processing method, and recording medium
WO2018221025A1 (en) 2017-06-01 2018-12-06 富士フイルム株式会社 Imaging device, image processing device, imaging system, image processing method, and recording medium
JP2019105466A (en) 2017-12-11 2019-06-27 株式会社日立製作所 Distance measurement device and distance measurement method
JP2019176214A (en) 2018-03-27 2019-10-10 株式会社日立製作所 Imaging apparatus, imaging module, and imaging method

Also Published As

Publication number Publication date
WO2020137185A1 (en) 2020-07-02
JP2020106301A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
JP6571266B2 (en) Imaging device
US10551532B2 (en) Imaging device and imaging method
BE1010346A5 (en) Not expressly oriented device and use thereof for the automatic adjustment of the projector.
JP2018098623A (en) Imaging device
JPWO2017145348A1 (en) Imaging device
JP7061883B2 (en) Image display device and image display method
JP2011523238A (en) Image processing apparatus and image processing method
JP6920974B2 (en) Distance measuring device and distance measuring method
CN110324513B (en) Image pickup apparatus, image pickup module, and image pickup method
JP7097787B2 (en) Imaging device and imaging method
JP7065761B2 (en) Distance measuring device and distance measuring method
JP2018098758A (en) Imaging device
JP6807281B2 (en) Imaging device, imaging system, and imaging method
JP2019149674A (en) Imaging apparatus, imaging method, and image processing apparatus
JP2023016864A (en) Imaging apparatus and method
JP2019029681A (en) Imaging device and imaging method
JP4091455B2 (en) Three-dimensional shape measuring method, three-dimensional shape measuring apparatus, processing program therefor, and recording medium
JP7278454B2 (en) image display device
JP6814762B2 (en) Imaging device
US11740468B2 (en) Distance measuring apparatus, imaging device, distance measuring system, distance measuring method, and imaging method
Šorel Multichannel blind restoration of images with space-variant degradations
Chen A Thin and Functional Camera System Based on Computational Imaging
JP2021005743A (en) Imaging apparatus
Nagahara et al. Computational photography using programmable aperture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R151 Written notification of patent or utility model registration

Ref document number: 7065761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151