JPH09119829A - Apparatus and method for measurement of distance - Google Patents

Apparatus and method for measurement of distance

Info

Publication number
JPH09119829A
JPH09119829A JP27596395A JP27596395A JPH09119829A JP H09119829 A JPH09119829 A JP H09119829A JP 27596395 A JP27596395 A JP 27596395A JP 27596395 A JP27596395 A JP 27596395A JP H09119829 A JPH09119829 A JP H09119829A
Authority
JP
Japan
Prior art keywords
data
sensor
sensor data
value
phase difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP27596395A
Other languages
Japanese (ja)
Inventor
Kazuhiro Kawajiri
和廣 川尻
Kiyotaka Sato
清隆 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Microdevices Co Ltd
Original Assignee
Fujifilm Microdevices Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Microdevices Co Ltd filed Critical Fujifilm Microdevices Co Ltd
Priority to JP27596395A priority Critical patent/JPH09119829A/en
Publication of JPH09119829A publication Critical patent/JPH09119829A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure a distance at high speed by eliminating a bad influence due to a bias level difference by a method wherein sensor data which is constituted of a plurality of pixels is inverted by making use of a prescribed pixel position as an axis and the phase difference of a pixel position in which a symmetric peak obtained by an addition operation becomes a maximum value is detected. SOLUTION: A right-sensor-data intake part 4R and a left-sensor-data intake part 4L take into electric signals generated by optical sensors 3R, 3L as right and left sensor data. Inversion processing parts 5R, 5L perform an inversion processing operation regarding the right and left sensor data DR, DL. Adders 6R, 6L add the left sensor data DL to right sensor data DR'. A peak-value detection part 27 finds the peak value of the data DL+DR', and it finds a phase difference on the basis of the peak value. A measured-distance-value computing part 8 computes a measured distance value on the basis of the phase difference so as to be output.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、測距に関し、特に
三角測距方式を用いた測距技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to distance measuring, and more particularly to distance measuring technology using a triangular distance measuring method.

【0002】[0002]

【従来の技術】図14(A)は、位相差検出型測距装置
の外光三角方式光学系を説明するための概略図である。
測距対象物133から発せられる光ビーム134B,1
34Rは、2つのレンズ131B,131Rを通して、
2組の光センサ132B,132R上に写し出される。
2. Description of the Related Art FIG. 14A is a schematic view for explaining an external light triangular optical system of a phase difference detection type distance measuring device.
Light beams 134B, 1 emitted from the distance measurement object 133
34R passes through two lenses 131B and 131R,
It is projected on the two sets of optical sensors 132B and 132R.

【0003】基準レンズ131Bを通る光ビーム134
Bは、基準光センサ132B上に結像され、測距対象物
133の像が写し出される。参照レンズ131Rを通る
光ビーム134Rは、参照光センサ132R上に結像さ
れ、測距対象物133の像が写し出される。測距対象物
133の像は、基準光センサ132B上と参照光センサ
132R上にそれぞれ写し出される。
Light beam 134 passing through reference lens 131B
B is imaged on the reference optical sensor 132B, and the image of the distance measurement object 133 is projected. The light beam 134R passing through the reference lens 131R is imaged on the reference light sensor 132R, and the image of the distance measurement object 133 is projected. The image of the distance measurement object 133 is projected on the reference light sensor 132B and the reference light sensor 132R, respectively.

【0004】測距対象物133がレンズ131から無限
遠に位置すれば、基準光センサ132B上に結像される
像と参照光センサ132R上に結像される像との間隔
は、基線長Bとなる。図に示すように測距対象物133
がレンズ131から距離Lだけ離れている場合には、基
準光センサ132B上に結像される像と参照光センサ1
32R上に結像される像の間隔は、B+xの距離とな
る。つまり、基線長Bに加え位相差xの長さだけ離れ
て、光センサ132上に結像される。
If the distance measuring object 133 is located at infinity from the lens 131, the distance between the image formed on the standard light sensor 132B and the image formed on the reference light sensor 132R is the baseline length B. Becomes As shown in FIG.
Is separated from the lens 131 by a distance L, the image formed on the reference optical sensor 132B and the reference optical sensor 1
The distance between the images formed on 32R is B + x. That is, an image is formed on the optical sensor 132 with a distance of the phase difference x in addition to the baseline length B.

【0005】レンズ・センサ間距離fは、レンズ131
から、測距対象物133の光像が写し出される光センサ
132の面までの長さである。測距距離Lは、測距対象
物133からレンズ131までの距離であり、この距離
が測距装置から測距対象物までの距離として測定され
る。
The distance f between the lens and the sensor is determined by the lens 131.
To the surface of the optical sensor 132 on which the optical image of the distance measurement object 133 is projected. The distance measuring distance L is the distance from the distance measuring object 133 to the lens 131, and this distance is measured as the distance from the distance measuring device to the distance measuring object.

【0006】図に示すように、測距対象物133が基準
レンズ131Bの光軸上にあるとする。この時参照レン
ズ131Rの光軸、測距対象物133から参照レンズ1
31Rの中心を通る光線、測距対象物133を含む物平
面、光センサ132上の像平面が作る2つの三角形は相
似となり、 L/B=f/x ・・・(1) の関係が成り立つ。
As shown in the figure, it is assumed that the distance measuring object 133 is on the optical axis of the reference lens 131B. At this time, the optical axis of the reference lens 131R, the reference lens 1
The two triangles formed by the ray passing through the center of 31R, the object plane including the distance measurement object 133, and the image plane on the optical sensor 132 are similar, and the relationship of L / B = f / x (1) holds. .

【0007】すなわち、図14(B)に示すように L=B・f/x ・・・(2) が成立する。That is, as shown in FIG. 14B, L = B · f / x (2) holds.

【0008】xをセンサピッチpの数nで表すと L=B・f/(n・p) ・・・(3) となる。When x is represented by the number n of sensor pitches p, L = B · f / (n · p) (3)

【0009】センサピッチpは、光センサを構成する複
数の受光素子の間隔であり、例えば20[μm]程度の
値をとる。この時は、分母はセンサピッチpの整数倍の
精度で表わされる。
The sensor pitch p is an interval between a plurality of light receiving elements forming an optical sensor, and takes a value of, for example, about 20 [μm]. At this time, the denominator is represented with an accuracy of an integral multiple of the sensor pitch p.

【0010】センサピッチpをさらに補間法を用いてk
分割して、その小区分でxを表したときi個に相当する
とすれば、x=i(p/k)となり、 L=B・f/(i/k)p ・・・(4) となる。つまり、補間法により分母をp/kの整数倍の
精度で表すことができ、式(3)よりも高精度の測距距
離Lが得られる。
The sensor pitch p is further converted into k by using an interpolation method.
When it is divided and when x is represented by the subdivision, it corresponds to i, x = i (p / k), and L = B · f / (i / k) p (4) Become. In other words, the denominator can be represented by the interpolation method with an accuracy that is an integral multiple of p / k, and the distance measurement distance L that is more accurate than Expression (3) is obtained.

【0011】次に、基準光センサ132B上の像と参照
光センサ132R上の像との位相差xを求めるために行
う相関演算について説明する。図15は、相関演算によ
る位相差検出について説明するための概念図である。
Next, the correlation calculation performed to obtain the phase difference x between the image on the standard light sensor 132B and the image on the reference light sensor 132R will be described. FIG. 15 is a conceptual diagram for explaining the phase difference detection by the correlation calculation.

【0012】図15(A)は、光センサ上に結像される
像を表す。光センサ132B,132Rは、フォトダイ
オードを1次元に複数個配置したラインセンサである。
光センサ132を構成するフォトダイオードの数は、光
センサ132上に結像される画像の画素数に相当する。
参照光センサ132Rの画素数は、基準光センサ132
Bの画素数に比べて同じかそれよりも多い。
FIG. 15A shows an image formed on the photosensor. The optical sensors 132B and 132R are line sensors in which a plurality of photodiodes are arranged one-dimensionally.
The number of photodiodes forming the photosensor 132 corresponds to the number of pixels of the image formed on the photosensor 132.
The number of pixels of the reference light sensor 132R is the standard light sensor 132R.
The number of pixels of B is equal to or more than that.

【0013】基準光センサ132Bには、基準レンズ1
31Bを介して測距対象物の画像が結像されている。ま
た、基準光センサ132Bと基線長水平方向に離された
参照光センサ132Rには、参照レンズ131Rを介し
て測距対象物の画像が結像されている。
The reference optical sensor 132B includes a reference lens 1
An image of the object for distance measurement is formed via 31B. An image of the object to be measured is formed on the reference light sensor 132R separated from the reference light sensor 132B in the horizontal direction of the base line via the reference lens 131R.

【0014】測距対象物が無限遠位置にあるときは、基
準光センサ132Bと参照光センサ132Rの対応する
フォトダイオードの受光素子には同一の画像が結像され
る。測距対象物が無限遠位置になければ、光センサ13
2B,132R上の画像は水平方向に変位する。すなわ
ち、測距対象物が近付けば画像間の距離は広がり、測距
対象物が遠ざかれば画像間の距離は近付く。この画像間
の距離の変動を検出するために、参照光センサ132R
は基準光センサ132Bよりも画素数が多く設定されて
いる場合が多い。
When the object to be measured is at the infinity position, the same image is formed on the light receiving elements of the photodiodes corresponding to the standard light sensor 132B and the reference light sensor 132R. If the object to be measured is not at infinity, the optical sensor 13
The images on 2B and 132R are displaced in the horizontal direction. That is, the distance between the images increases as the object to be measured approaches, and the distance between the images decreases as the object to measure distance increases. In order to detect the variation in the distance between the images, the reference light sensor 132R
In many cases, the number of pixels is set to be larger than that of the reference light sensor 132B.

【0015】基準光センサ132B上の画像と参照光セ
ンサ132R上の画像間の距離の変動を検出するため
に、相関演算による位相差検出法が用いられている。相
関演算による位相差検出は、次式(5)に基づく演算に
より光センサ132B,132R上の一対の結像の相関
値H(n)を求め、相関値が最小となるまでのこれらの
結像の相対移動値(位相差)を求める。
In order to detect the variation in the distance between the image on the standard light sensor 132B and the image on the reference light sensor 132R, a phase difference detection method by a correlation calculation is used. In the phase difference detection by the correlation calculation, the correlation value H (n) of the pair of image formations on the optical sensors 132B and 132R is obtained by the calculation based on the following equation (5), and these image formations are performed until the correlation value becomes the minimum. The relative movement value (phase difference) of is calculated.

【0016】 H(n)=Σ(j=1〜i)|B(j)−R(j+n)| ‥‥(5) ただし、Σ(j=1〜i)はjが1からiまでの関数の
和を表す。jは基準光センサ132B内の画素を指定す
る。また、nはたとえば−6から6までの整数で、参照
光センサ内の上記の相対移動量を示す。
H (n) = Σ (j = 1 to i) | B (j) −R (j + n) | (5) where Σ (j = 1 to i) is from j to 1 Represents the sum of functions. j designates a pixel in the reference light sensor 132B. Further, n is an integer from -6 to 6, for example, and indicates the relative movement amount in the reference light sensor.

【0017】B(j)は基準光センサ132Bの各画素
より時系列的に出力される電気信号であり、R(j+
n)は参照光センサ132Rの画素より時系列的に出力
される電気信号である。
B (j) is an electrical signal output from each pixel of the reference photosensor 132B in time series, and R (j +
n) is an electric signal output from the pixel of the reference light sensor 132R in time series.

【0018】図15(B)は、画素シフト量と相関値の
関係を示す。画素シフト量nを−6から6まで順次変化
させる毎に上記式(5)の演算を行えば、図に示すよう
な相関値H(−6)、H(−5)、・・・、H(6)が
得られる。例えば、相関値H(0)が最小値となる場合
に測距対象物までの距離が所定の値になるようにあらか
じめ設定しておく。これよりずれた位置での相関値が最
小値となれば、そのずれ量によって測距対象物の所定位
置からのずれ、すなわち測距対象物までの距離を検出す
ることができる。
FIG. 15B shows the relationship between the pixel shift amount and the correlation value. When the calculation of the above equation (5) is performed every time the pixel shift amount n is sequentially changed from −6 to 6, correlation values H (−6), H (−5), ..., H as shown in FIG. (6) is obtained. For example, it is set in advance so that the distance to the object to be measured becomes a predetermined value when the correlation value H (0) becomes the minimum value. When the correlation value at the position deviated from this is the minimum value, the deviation of the object to be measured from the predetermined position, that is, the distance to the object to be measured can be detected by the amount of deviation.

【0019】ところで、基準光センサ132B、参照光
センサ132Rの受光素子は、例えば20[μm]のピ
ッチで配置されている。相関値は画像面において20
[μm]を単位とした距離毎に演算される。測距対象物
までの距離が、受光素子のピッチの中間位置に相当する
ときは、図の破線で示すように相関値の極値の右側の相
関値と左側の相関値の値が異なるようになる。このよう
な場合、補間演算を行うことによってピッチ間隔以上の
解像度を得ることができる。
By the way, the light receiving elements of the standard light sensor 132B and the reference light sensor 132R are arranged at a pitch of 20 [μm], for example. The correlation value is 20 on the image plane.
It is calculated for each distance in units of [μm]. When the distance to the object to be measured corresponds to the middle position of the pitch of the light receiving element, make sure that the correlation value on the right side of the extreme value of the correlation value and the correlation value on the left side are different as shown by the broken line in the figure. Become. In such a case, it is possible to obtain a resolution equal to or greater than the pitch interval by performing interpolation calculation.

【0020】図15(C)は、3点補間の方法を説明す
るための概略図である。極小の相関値の得られた位置を
x2とし、その両側のサンプル位置をx1、x3とす
る。実際に演算で得られた相関値を黒丸で示す。図で示
すように、x3における相関値y3がx1における相関
値y1より低い場合、真の極小値はx2からx3に幾分
進んだところに存在すると考えられる。
FIG. 15C is a schematic diagram for explaining the method of three-point interpolation. The position where the minimum correlation value is obtained is defined as x2, and the sample positions on both sides thereof are defined as x1 and x3. The correlation value actually obtained by calculation is shown by a black circle. As shown in the figure, when the correlation value y3 at x3 is lower than the correlation value y1 at x1, it is considered that the true minimum value exists somewhere in advance from x2 to x3.

【0021】もし、極小値が正確にx2の位置にある場
合、相関値曲線は破線g1で示すようにx2で折れ曲が
り、左右対称に立ち上がるとすればx3における相関値
y3aはx1における相関値y1と等しくなる。
If the minimum value is exactly at the position of x2, the correlation value curve is bent at x2 as shown by the broken line g1, and if it rises symmetrically, the correlation value y3a at x3 is the correlation value y1 at x1. Will be equal.

【0022】一方、x2とx3の中点が真の最小相関値
の位置であるとすれば、相関値曲線は破線g2で示すよ
うにx2とx3の中点で折れ曲がり、x2における相関
値y2とx3における相関値y3bは等しくなる。図に
示すように、これら2つの場合における相関値の差(y
3a−y3b)はx1とx2の間の相関値の差(y1−
y2)に等しい。すなわち、半ピッチ進むことによって
1単位の相関値が変化する。そこで、実際に演算で得ら
れた相関値が上に述べた2つの場合のどの中間位置にあ
るかを調べることにより、真の相関値最小の位置を得る
ことができる。x2からのずれ量dは、隣接するサンプ
ル点間の距離を1としたとき、 d=(y1−y3)/2(y1−y2) ・・・(6) で与えられる。
On the other hand, if the midpoint of x2 and x3 is the position of the true minimum correlation value, the correlation value curve is bent at the midpoint of x2 and x3 as shown by the broken line g2, and the correlation value y2 at x2 becomes The correlation value y3b at x3 becomes equal. As shown in the figure, the difference (y
3a-y3b) is the difference in correlation value between x1 and x2 (y1-
equal to y2). That is, the correlation value of one unit changes as the pitch advances by half a pitch. Therefore, the true correlation value minimum position can be obtained by checking which intermediate position of the above-mentioned two cases the correlation value actually obtained by the calculation is. The shift amount d from x2 is given by d = (y1-y3) / 2 (y1-y2) (6) when the distance between adjacent sample points is 1.

【0023】[0023]

【発明が解決しようとする課題】現在、多数の画素を有
する測距装置が、望まれている。例えば、2次元の画素
領域を有する測距装置がある。2次元の測距装置は、2
次元領域内において複数のエリアについての測距値を検
出することができる。測距に用いる相関演算は、式
(5)に示すように、画素数が多くなるほど、多くの演
算を必要とするので、測距値を得るのに長時間を要す
る。
At present, a distance measuring device having a large number of pixels is desired. For example, there is a distance measuring device having a two-dimensional pixel area. Two-dimensional distance measuring device is 2
It is possible to detect distance measurement values for a plurality of areas within the dimensional area. As shown in Expression (5), the correlation calculation used for distance measurement requires more calculation as the number of pixels increases, and thus it takes a long time to obtain the distance measurement value.

【0024】また、センサに接続されるアンプとA/D
変換器が、基準センサ用のものと参照センサ用のものに
分けて設けられている等の場合、2つのセンサによるセ
ンサデータは、バイアスレベルが異なってしまう。バイ
アスレベルが異なると、相関演算に悪影響を与える。
Further, an amplifier and an A / D connected to the sensor
When the converter is provided separately for the standard sensor and the reference sensor, the sensor data from the two sensors will have different bias levels. If the bias level is different, the correlation calculation is adversely affected.

【0025】本発明の目的は、バイアスレベル差による
悪影響をなくし、高速に測距を行うことができる測距装
置を提供することである。
An object of the present invention is to provide a distance measuring device which eliminates the adverse effect of a bias level difference and can perform distance measurement at high speed.

【0026】[0026]

【課題を解決するための手段】本発明の測距装置は、そ
れぞれ複数画素によって構成される第1および第2の光
センサが出力する第1および第2のセンサデータを受け
取るデータ入力端子と、第2のセンサデータについて、
所定の画素位置を軸にして反転した反転センサデータを
生成し、第1のセンサデータと第2の光センサの反転セ
ンサデータを加算し対称形ピークを生成する反転加算手
段と、対称形ピークが極大値となる画素位置を検出し、
第1の光センサ上の画像と第2の光センサ上の画像との
位相差を検出するピーク値検出手段と、ピーク値検出手
段により検出される位相差に応じて測距値を演算する測
距値演算手段とを有する。
A distance measuring apparatus according to the present invention includes a data input terminal for receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels. For the second sensor data,
Inversion adding means for generating inverted sensor data which is inverted around a predetermined pixel position and adding the first sensor data and the inverted sensor data of the second optical sensor to generate a symmetrical peak, and a symmetrical peak Detects the maximum pixel position,
Peak value detecting means for detecting a phase difference between the image on the first optical sensor and the image on the second optical sensor, and measuring for calculating a distance measuring value according to the phase difference detected by the peak value detecting means. Distance value calculating means.

【0027】対称形ピークを生成し測距値を求めるの
で、第1の光センサによるセンサデータと第2の光セン
サによるセンサデータとの間にバイアスレベルの差があ
っても、その差を打ち消すことができる。
Since the symmetrical peak is generated and the distance measurement value is obtained, even if there is a bias level difference between the sensor data obtained by the first optical sensor and the sensor data obtained by the second optical sensor, the difference is canceled. be able to.

【0028】また、対称形ピークが極大値となる画素位
置を検出して位相差を検出することにより、センサデー
タの相関演算を行い位相差を検出する場合よりも、演算
量が少なくなり、高速な測距が可能になる。
Further, by detecting the pixel position where the symmetrical peak has the maximum value and detecting the phase difference, the amount of calculation is smaller and the operation speed is higher than in the case where the correlation calculation of the sensor data is performed and the phase difference is detected. It is possible to measure various distances.

【0029】[0029]

【発明の実施の形態】図1は、本発明の第1の実施例に
よる測距装置の機能を説明するための図である。
1 is a view for explaining the function of a distance measuring device according to a first embodiment of the present invention.

【0030】センサユニットは、右センサユニット1R
と左センサユニット1Lからなる。右センサユニット1
Rは、右用レンズ2Rと2次元光センサ3Rを有する。
左センサユニット1Lは、左用レンズ2Lと2次元光セ
ンサ3Lを有する。光センサ3R,3Lは、それぞれレ
ンズ2R,2Lを介して入射される光の量を電気信号に
変換する。
The sensor unit is the right sensor unit 1R.
And the left sensor unit 1L. Right sensor unit 1
R has a right lens 2R and a two-dimensional optical sensor 3R.
The left sensor unit 1L has a left lens 2L and a two-dimensional optical sensor 3L. The optical sensors 3R and 3L convert the amount of light incident through the lenses 2R and 2L into electric signals.

【0031】右センサデータ取り込み部4Rは、光セン
サ3Rにより生成される電気信号を右センサデータとし
て取り込む。左センサデータ取り込み部4Lは、光セン
サ3Lにより生成される電気信号を左センサデータとし
て取り込む。
The right sensor data fetching section 4R fetches the electric signal generated by the optical sensor 3R as right sensor data. The left sensor data capturing unit 4L captures the electric signal generated by the optical sensor 3L as left sensor data.

【0032】図2に、センサデータの具体例を示す。横
軸は画素位置であり、縦軸はセンサデータである。セン
サデータは、2次元データであるが、ラインデータ毎に
処理を行うので、以下、ラインデータについて説明す
る。
FIG. 2 shows a specific example of sensor data. The horizontal axis is the pixel position, and the vertical axis is the sensor data. Although the sensor data is two-dimensional data, since the processing is performed for each line data, the line data will be described below.

【0033】DRは、右センサデータ取り込み部4Rに
より取り込まれる右センサデータである。DLは、左セ
ンサデータ取り込み部4Lにより取り込まれる左センサ
データである。右センサデータDRと左センサデータD
Lのずれ量(位相差)は、dである。右センサで生成さ
れるデータa1は、左センサにおいてはdだけずれ、a
2として取り込まれる。
DR is the right sensor data captured by the right sensor data capturing section 4R. DL is the left sensor data captured by the left sensor data capturing unit 4L. Right sensor data DR and left sensor data D
The shift amount (phase difference) of L is d. The data a1 generated by the right sensor is shifted by d in the left sensor,
Taken in as 2.

【0034】図1において、右センサデータ反転処理部
5Rは、右センサデータDRについて反転処理を行う。
左センサデータ反転処理部5Lは、左センサデータDL
について反転処理を行う。
In FIG. 1, the right sensor data inversion processing section 5R inverts the right sensor data DR.
The left sensor data inversion processing unit 5L uses the left sensor data DL
Inversion processing is performed for.

【0035】反転処理部5R,5Lは、1ライン毎に処
理を行う。1ライン中のある位置(例えば真ん中)を軸
として、画素位置について反転したセンサデータを生成
する。
The inversion processing units 5R and 5L perform processing line by line. The sensor data inverted with respect to the pixel position is generated with a certain position (for example, the middle) in one line as an axis.

【0036】図3に、反転センサデータの具体例を示
す。DR’は、右センサデータDR(図2)について軸
Aで反転した反転センサデータである。センサデータD
Rにおいて軸Aの左に位置していたデータa1は、セン
サデータDR’においてはデータa1’として軸Aの右
に位置している。
FIG. 3 shows a specific example of the inverted sensor data. DR ′ is inverted sensor data obtained by inverting the right sensor data DR (FIG. 2) on the axis A. Sensor data D
The data a1 located on the left of the axis A in R is located on the right of the axis A as the data a1 ′ in the sensor data DR ′.

【0037】DL’は、左センサデータDL(図2)に
ついて軸Aで反転した反転センサデータである。センサ
データDLにおいて軸Aの右に位置していたデータa2
は、センサデータDL’においてはデータa2’として
軸Aの左に位置している。
DL 'is inverted sensor data obtained by inverting the left sensor data DL (FIG. 2) along the axis A. Data a2 located to the right of axis A in sensor data DL
Is located on the left of the axis A as the data a2 ′ in the sensor data DL ′.

【0038】反転センサデータDR’とDL’の間のず
れ量は、dである。しかし、センサデータを反転してい
るため、センサデータDRとDLの場合(図2)に比
べ、ずれ方向が逆である。
The shift amount between the inverted sensor data DR 'and DL' is d. However, since the sensor data is inverted, the shift direction is opposite to that in the case of the sensor data DR and DL (FIG. 2).

【0039】図1において、加算器6Rは、左センサデ
ータDLと右反転センサデータDR’を加算する。加算
器6Lは、右センサデータDRと左反転センサデータD
L’を加算する。
In FIG. 1, the adder 6R adds the left sensor data DL and the right inverted sensor data DR '. The adder 6L has the right sensor data DR and the left inverted sensor data D.
Add L '.

【0040】図4に、加算器6R,6Lの加算結果であ
るセンサデータDR+DL’とセンサデータDL+D
R’の例を示す。センサデータDR+DL’は、データ
DR(図2)とデータDL’(図3)を加算したデータ
である。センサデータDL+DR’は、データDL(図
2)とデータDR’(図3)を加算したデータである。
In FIG. 4, sensor data DR + DL 'and sensor data DL + D, which are the addition results of the adders 6R and 6L, are shown.
An example of R'is shown. The sensor data DR + DL ′ is data obtained by adding the data DR (FIG. 2) and the data DL ′ (FIG. 3). The sensor data DL + DR ′ is data obtained by adding the data DL (FIG. 2) and the data DR ′ (FIG. 3).

【0041】センサデータDR+DL’中のデータc1
は、データa1(図2)とデータa2’(図3)の加算
値である。センサデータDL+DR’中のデータc2
は、データa2(図2)とデータa1’(図3)の加算
値である。
Data c1 in the sensor data DR + DL '
Is an added value of the data a1 (FIG. 2) and the data a2 ′ (FIG. 3). Data c2 in the sensor data DL + DR '
Is an added value of the data a2 (FIG. 2) and the data a1 ′ (FIG. 3).

【0042】センサデータDR+DL’とセンサデータ
DL+DR’の間のずれ量は、dである。図1におい
て、相関演算部7は、センサデータDR+DL’とセン
サデータDL+DR’との間で、式(5)を用いて、相
関演算を行う。相関演算は、全部のセンサデータについ
て行う必要はない。図4において、軸Aよりも左のセン
サデータについてのみ行えばよい。軸Aが全センサの真
ん中に位置するとすると、半分の相関演算量で済む。な
お、軸Aよりも右のセンサデータについてのみ相関演算
を行ってもよい。
The amount of deviation between the sensor data DR + DL 'and the sensor data DL + DR' is d. In FIG. 1, the correlation calculation unit 7 performs the correlation calculation between the sensor data DR + DL ′ and the sensor data DL + DR ′ using the equation (5). The correlation calculation does not need to be performed on all sensor data. In FIG. 4, only the sensor data on the left of the axis A needs to be performed. If the axis A is located at the center of all the sensors, half the amount of correlation calculation is required. The correlation calculation may be performed only on the sensor data on the right side of the axis A.

【0043】センサデータDR+DL’とセンサデータ
DL+DR’は、それぞれ軸Aを境界とした左の領域に
全てのセンサ情報が入っている。右の領域についても、
全てのセンサ情報が入っている。したがって、全ての領
域について相関演算を行わなくても、右または左のいず
れかの領域について相関演算を行えば十分である。
The sensor data DR + DL 'and the sensor data DL + DR' each include all sensor information in the left area with the axis A as a boundary. Also for the right area,
Contains all sensor information. Therefore, it is sufficient to perform the correlation calculation on either the right or left region without performing the correlation calculation on all the regions.

【0044】また、センサデータDR+DL’とセンサ
データDL+DR’は、いずれも右センサの情報と左セ
ンサの情報が加算されたデータであるので、バイアスレ
ベルが同じになる。例えば、右センサのバイアスレベル
をr1とし、左センサのバイアスレベルをr2とする
と、右センサデータと左センサデータは、それぞれ、 DR(n)+r1 DL(n)+r2 で表される。ここで、nは画素位置である。
Further, since the sensor data DR + DL 'and the sensor data DL + DR' are both data obtained by adding the information of the right sensor and the information of the left sensor, they have the same bias level. For example, assuming that the bias level of the right sensor is r1 and the bias level of the left sensor is r2, the right sensor data and the left sensor data are respectively expressed by DR (n) + r1 DL (n) + r2. Here, n is a pixel position.

【0045】右反転センサデータと左反転センサデータ
は、それぞれ、 DR(n)’+r1 DL(n)’+r2 で表される。
The right inverted sensor data and the left inverted sensor data are represented by DR (n) '+ r1 DL (n)' + r2, respectively.

【0046】加算器6R,6Lで加算されるデータは、
それぞれ、 DL(n)+DR(n)’+r1+r2 DR(n)+DL(n)’+r1+r2 で表される。いずれも、バイアスレベルはr1+r2に
なる。この2つのデータについて相関演算を行えば、バ
イアスレベルは打ち消される。
The data added by the adders 6R and 6L is
Each is represented by DL (n) + DR (n) ′ + r1 + r2 DR (n) + DL (n) ′ + r1 + r2. In both cases, the bias level is r1 + r2. The bias level is canceled by performing the correlation calculation on these two data.

【0047】図1において、相関演算部7は、式(5)
の相関演算を行った後、式(6)の3点補間演算を行
い、最小の相関値を求める。測距値演算部8は、求めら
れた最小の相関値を基にして、式(4)により測距値L
を求め、出力する。
In FIG. 1, the correlation calculation unit 7 uses the equation (5)
After performing the correlation calculation of, the three-point interpolation calculation of Expression (6) is performed to obtain the minimum correlation value. The distance measurement value calculation unit 8 calculates the distance measurement value L by the formula (4) based on the obtained minimum correlation value.
And output.

【0048】図5は、以上の演算過程のデータを簡単化
したモデルである。右データDRは、画素データα1と
画素データα2を有する。左データDLは、画素データ
β1と画素データβ2を有する。同一の対象物が、右セ
ンサ上にデータα1,α2として、左センサ上にデータ
β1,β2として表される。右データα1,α2と左デ
ータβ1,β2のずれ量(位相差)は、dである。
FIG. 5 is a model in which the data of the above-described calculation process is simplified. The right data DR has pixel data α1 and pixel data α2. The left data DL has pixel data β1 and pixel data β2. The same object is represented as data α1, α2 on the right sensor and data β1, β2 on the left sensor. The shift amount (phase difference) between the right data α1 and α2 and the left data β1 and β2 is d.

【0049】右反転データDR’は、右データDRを軸
Aで反転したデータである。左反転データDL’は、左
データDLを軸Aで反転したデータである。右データα
1,α2と左データβ1,β2の位相差は、やはりdで
ある。
The right inverted data DR 'is data obtained by inverting the right data DR on the axis A. The left inverted data DL ′ is data obtained by inverting the left data DL on the axis A. Right data α
The phase difference between 1 and α2 and the left data β1 and β2 is still d.

【0050】データDR+DL’は、右データDRと左
反転データDL’を加算したデータである。データDL
+DR’は、左データDLと右反転データDR’を加算
したデータである。軸Aを境界にして、データDR+D
L’の左側の領域にはデータα1,β2が含まれてい
る。データDL+DR’の左側の領域にはデータβ1,
α2が含まれている。
The data DR + DL 'is data obtained by adding the right data DR and the left inverted data DL'. Data DL
+ DR ′ is data obtained by adding the left data DL and the right inverted data DR ′. Data DR + D with axis A as the boundary
The area on the left side of L'includes data α1 and β2. In the area on the left side of the data DL + DR ′, the data β1,
α2 is included.

【0051】つまり、データDR+DL’の左側の領域
とデータDL+DR’の左側の領域との間における相関
値を演算すれば、全てのデータα1,α2,β1,β2
が反映されることになる。この時の位相差はdである。
That is, if the correlation value between the area on the left side of the data DR + DL 'and the area on the left side of the data DL + DR' is calculated, all the data α1, α2, β1, β2.
Will be reflected. The phase difference at this time is d.

【0052】左側の領域について相関演算を行えば、必
ずしも右側の領域について相関演算を行う必要はない。
なお、データDR+DL’とデータDL+DR’のそれ
ぞれの右側の領域についても、全てのデータα1,α
2,β1,β2が含まれているので、右側の領域につい
てのみ相関演算を行うようにしてもよい。
If the correlation calculation is performed on the left side area, it is not always necessary to perform the correlation calculation on the right side area.
It should be noted that the data DR + DL ′ and the data DL + DR ′ on the right-hand side of the respective areas also have all the data α1, α.
Since 2, β1 and β2 are included, the correlation calculation may be performed only for the right area.

【0053】次に、センサデータの加算原理について説
明する。右センサデータDRと左センサデータDLの間
における相関演算を行えば、正しい位相差dが得られる
ことは、図15(A)〜(C)で示した通りである。本
実施例では、それに代わり、データDR+DL’とデー
タDL+DR’の間における相関演算を行うことを示し
た。この場合においても、正しい位相差dが得られるこ
とを説明する。つまり、センサデータの加算を行ったデ
ータDR+DL’とDL+DR’の間においても、位相
差dが保存される。
Next, the principle of addition of sensor data will be described. As shown in FIGS. 15A to 15C, the correct phase difference d can be obtained by performing the correlation calculation between the right sensor data DR and the left sensor data DL. In the present embodiment, instead of this, it is shown that the correlation calculation between the data DR + DL ′ and the data DL + DR ′ is performed. It will be described that the correct phase difference d can be obtained even in this case. That is, the phase difference d is stored even between the data DR + DL ′ and DL + DR ′ obtained by adding the sensor data.

【0054】図6は、一般的な基本関数f(x),f
(x−d),g(x),g(x−d)を示す。関数f
(x)と関数g(x)は、相互に独立である。関数f
(x−d)は、関数f(x)に対してdだけずれた関数
である。関数g(x−d)は、関数g(x)に対してd
だけずれた関数である。
FIG. 6 shows general basic functions f (x), f
(X-d), g (x), g (x-d) are shown. Function f
(X) and the function g (x) are independent of each other. Function f
(X-d) is a function deviated from the function f (x) by d. The function g (x-d) is d with respect to the function g (x).
It is a function that is deviated.

【0055】ここで、関数f(x)はデータDRに相当
し、関数f(x−d)はデータDLに相当する。関数g
(x)はデータDL’に相当し、関数g(x−d)はデ
ータDR’に相当する。
Here, the function f (x) corresponds to the data DR, and the function f (x-d) corresponds to the data DL. Function g
(X) corresponds to the data DL ′, and the function g (x−d) corresponds to the data DR ′.

【0056】図7は、基本関数を加算した関数H
(x),H(x−d)を示す。関数H(x)を、 H(x)=f(x)+g(x) で表すと、関数H(x−d)は、 H(x−d)=f(x−d)+g(x−d) で表すことができる。
FIG. 7 shows a function H obtained by adding basic functions.
(X) and H (x-d) are shown. When the function H (x) is represented by H (x) = f (x) + g (x), the function H (x-d) is H (x-d) = f (x-d) + g (x- d) can be represented.

【0057】この際、関数H(x)と関数H(x−d)
との間においても、位相差dは保存されることが証明さ
れる。したがって、関数H(x)と関数H(x−d)の
間において相関演算を行っても、正しい位相差dを検出
することができる。
At this time, the function H (x) and the function H (x-d)
It is proved that the phase difference d is also preserved between and. Therefore, even if the correlation calculation is performed between the function H (x) and the function H (x-d), the correct phase difference d can be detected.

【0058】以上より、データDR+DL’とデータD
L+DR’の間で相関演算を行った場合にも、正しい位
相差dを検出することができる。なお、データDR+D
L’,DL+DR’は、それぞれ距離の異なる対象物に
ついてのセンサデータが加算されることになるので、そ
の点に問題がないか否かが問題となる。
From the above, data DR + DL 'and data D
Even when the correlation calculation is performed between L + DR ′, the correct phase difference d can be detected. The data DR + D
Since sensor data of objects having different distances are added to L ′ and DL + DR ′, there is a problem in that respect.

【0059】しかし、元来、センサ上に投影される2次
元画像は、遠近の対象物が混在したものであり、遠近の
混在は当初から是認されている。したがって、センサデ
ータについても、距離情報の異なるデータを加算しても
特別な問題は生じない。
However, originally, the two-dimensional image projected on the sensor is a mixture of objects in perspective and perspective, and the mixture of perspective is approved from the beginning. Therefore, regarding the sensor data, no special problem occurs even if data with different distance information is added.

【0060】図8は、本実施例による測距装置の全体構
成を示す。センサユニットは、右センサユニット1Rと
左センサユニット1Lからなる。右センサユニット1R
は、右用レンズ2Rと2次元光センサ3Rを有し、左セ
ンサユニット1Lは、左用レンズ2Lと2次元光センサ
3Lを有する。光センサ3R,3Lは、それぞれレンズ
2R,2Lを介して入射される光の量を電気信号に変換
する。
FIG. 8 shows the overall structure of the distance measuring device according to this embodiment. The sensor unit includes a right sensor unit 1R and a left sensor unit 1L. Right sensor unit 1R
Has a right lens 2R and a two-dimensional optical sensor 3R, and the left sensor unit 1L has a left lens 2L and a two-dimensional optical sensor 3L. The optical sensors 3R and 3L convert the amount of light incident through the lenses 2R and 2L into electric signals.

【0061】システムコントローラ14は、例えばマイ
コンであり、センサ制御系12が生成するタイミングパ
ルスを受け取り、センサ制御信号をセンサ制御系12へ
返す。センサ制御系12は、センサ制御信号を基に、駆
動パルスを駆動回路11R,11Lに供給する。
The system controller 14 is, for example, a microcomputer, receives a timing pulse generated by the sensor control system 12, and returns a sensor control signal to the sensor control system 12. The sensor control system 12 supplies a drive pulse to the drive circuits 11R and 11L based on the sensor control signal.

【0062】駆動回路11R,11Lは、駆動パルスに
応じて、センサ3R,3Lを駆動する。センサ3R,3
Lからセンサデータ量子化部13へ、センサデータが供
給される。センサデータ量子化部13は、センサデータ
の量子化を行う。
The drive circuits 11R and 11L drive the sensors 3R and 3L according to the drive pulse. Sensor 3R, 3
The sensor data is supplied from L to the sensor data quantization unit 13. The sensor data quantizer 13 quantizes sensor data.

【0063】システムコントローラ14は、書き込み制
御信号と書き込みアドレスを画像メモリ15に供給す
る。画像メモリ15は、例えばSRAMであり、書き込
み制御信号に応じて、センサデータ量子化部13で量子
化された量子化データを記憶する。
The system controller 14 supplies the write control signal and the write address to the image memory 15. The image memory 15 is, for example, an SRAM, and stores the quantized data quantized by the sensor data quantization unit 13 according to the write control signal.

【0064】演算部16は、例えばRISCマイコンで
あり、転送制御信号をパラレル入出力回路(パラレルI
O)18に供給する。パラレル入出力回路18は、測距
を行いたいエリア等の条件を外部機器19から取り込
み、データ転送メモリ17に転送する。データ転送メモ
リ17は、例えばSRAMである。
The arithmetic unit 16 is, for example, a RISC microcomputer, and sends a transfer control signal to a parallel input / output circuit (parallel I
O) supply to 18. The parallel input / output circuit 18 takes in conditions such as an area for which distance measurement is desired from an external device 19 and transfers it to the data transfer memory 17. The data transfer memory 17 is, for example, SRAM.

【0065】また、演算部16は、読み出し書き込み制
御信号およびアドレスを、画像メモリ15またはデータ
転送メモリ17へ供給する。演算部16は、画像メモリ
15からセンサデータDR,DLを読み出して、センサ
データの反転処理を行い、反転データDR’,DL’を
生成する。
The arithmetic unit 16 also supplies the read / write control signal and the address to the image memory 15 or the data transfer memory 17. The calculation unit 16 reads the sensor data DR, DL from the image memory 15, performs an inversion process on the sensor data, and generates inverted data DR ′, DL ′.

【0066】その後、加算処理を行い、データDR+D
L’,DL+DR’を生成し、データDR+DL’とデ
ータDL+DR’の間における相関演算を行う。相関演
算の後、3点補間を行い、高精度の位相差dを求める。
位相差dを求めた後、測距値を演算する。
After that, addition processing is performed and data DR + D
L ′, DL + DR ′ are generated, and the correlation calculation between the data DR + DL ′ and the data DL + DR ′ is performed. After the correlation calculation, three-point interpolation is performed to obtain a highly accurate phase difference d.
After obtaining the phase difference d, the distance measurement value is calculated.

【0067】演算部16は、求めらた測距値をデータ転
送メモリ17に書き込む。パラレル入出力回路18は、
演算部16から転送制御信号を受けて、データ転送メモ
リ17に記憶されている測距値を外部機器19に転送す
る。
The arithmetic section 16 writes the obtained distance measurement value in the data transfer memory 17. The parallel input / output circuit 18 is
Upon receiving a transfer control signal from the arithmetic unit 16, the distance measurement value stored in the data transfer memory 17 is transferred to the external device 19.

【0068】図9は、本実施例による測距装置の処理手
順を示すフローチャートである。測距装置は、2次元領
域中の複数エリアにおいて、各エリアにおける測距値を
検出することができる。
FIG. 9 is a flow chart showing the processing procedure of the distance measuring apparatus according to this embodiment. The distance measuring device can detect the distance measuring value in each area in a plurality of areas in the two-dimensional area.

【0069】ステップS1では、光センサ3R,3Lか
ら得られるセンサデータを、2次元の画像データとして
画像メモリ15へ書き込む。ステップS1の処理は、シ
ステムコントローラ14が行う。この後の処理は、演算
部16が行う。
In step S1, the sensor data obtained from the optical sensors 3R and 3L is written in the image memory 15 as two-dimensional image data. The system controller 14 performs the process of step S1. The calculation unit 16 performs the subsequent processing.

【0070】ステップS2では、外部機器19から得ら
れる諸条件を、データ転送メモリ17へ取り込む。諸条
件とは、例えば、測距を行いたいエリアの指定や、エリ
アの大きさの指定を含み、後に測距値演算を行う際に用
いられる。
In step S2, various conditions obtained from the external device 19 are loaded into the data transfer memory 17. The various conditions include, for example, designation of an area for which distance measurement is desired and designation of the size of the area, and are used when performing a distance measurement value calculation later.

【0071】ステップS3では、全ラインの処理が終了
したか否かを判定する。2次元画像データは、複数のラ
インからなり、ライン毎に処理を行う。全てのラインに
ついての演算処理が終了していないときには、ステップ
S4へ進む。
In step S3, it is determined whether or not the processing of all lines has been completed. The two-dimensional image data consists of a plurality of lines, and processing is performed for each line. If the arithmetic processing has not been completed for all lines, the process proceeds to step S4.

【0072】ステップS4では、画像メモリ15から1
ラインのデータを取り込む。ステップS5では、取り込
んだラインデータの前処理を行う。この前処理が本実施
例における重要な処理である。
In step S4, the image memory 15
Capture line data. In step S5, preprocessing of the captured line data is performed. This pretreatment is an important treatment in this embodiment.

【0073】演算部16は、画像メモリ15から取り込
んだセンサデータDR,DLについて、反転処理を行
い、反転データDR’,DL’を生成する。その後、加
算処理を行い、データDR+DL’,DL+DR’を生
成する。
The calculation section 16 performs inversion processing on the sensor data DR, DL fetched from the image memory 15 to generate inverted data DR ', DL'. After that, addition processing is performed to generate data DR + DL ′ and DL + DR ′.

【0074】ステップS6では、全エリアの処理が終了
したか否かを判定する。ラインデータは、複数のエリア
を含む。ラインデータ中の全てのエリアについて、演算
処理を行っていないときには、ステップS7へ進む。
In step S6, it is determined whether or not the processing for all areas has been completed. The line data includes a plurality of areas. When the arithmetic processing is not performed for all areas in the line data, the process proceeds to step S7.

【0075】ステップS7では、1エリアの相関演算を
行う。相関演算は、データDR+DL’とデータDL+
DR’の間において行う。その後、式(6)による3点
補間を行い、高精度の位相差dを求める。そして、式
(4)を用いて、距離演算を行い、測距値を求める。
In step S7, the correlation calculation for one area is performed. Correlation calculation is performed by data DR + DL ′ and data DL +
Perform during DR '. After that, three-point interpolation according to the equation (6) is performed to obtain a highly accurate phase difference d. Then, the distance calculation is performed using the equation (4) to obtain the distance measurement value.

【0076】ステップS8では、求めた測距値のデータ
を転送メモリ17へ書き込む。その後、ステップS6へ
戻り、次のエリアについての測距値を求める。ステップ
S6において、ラインデータ中の全てのエリアについて
の演算が終了したと判断されたときには、ステップS3
へ戻り、次のラインについての処理を繰り返す。
In step S8, the data of the obtained distance measurement value is written in the transfer memory 17. After that, the process returns to step S6 to obtain the distance measurement value for the next area. When it is determined in step S6 that the calculation has been completed for all areas in the line data, step S3
Return to and repeat the process for the next line.

【0077】ステップS3において、全てのラインにつ
いての演算が終了したと判断されたときには、処理を終
了する。図10は、本発明の第2の実施例による測距装
置の機能を説明するための図である。
If it is determined in step S3 that the calculation has been completed for all lines, the process is ended. FIG. 10 is a diagram for explaining the function of the distance measuring device according to the second embodiment of the present invention.

【0078】センサユニット1R,1L、センサデータ
取り込み部4R,4L、センサデータ反転処理部5R,
5L、加算器6R,6Lは、第1の実施例(図1)と同
じである。加算器6Rは、データDL+DR’を出力
し、加算器6Lは、データDR+DL’を出力する。
The sensor units 1R and 1L, the sensor data fetching units 4R and 4L, the sensor data inversion processing unit 5R,
5L and adders 6R and 6L are the same as in the first embodiment (FIG. 1). The adder 6R outputs data DL + DR ', and the adder 6L outputs data DR + DL'.

【0079】ピーク値検出部27は、データDL+D
R’のピーク値を求める。そして、このピーク値を基
に、位相差dを求める。つまり、相関演算の代わりにピ
ーク値検出を行い、位相差dを求める。詳細は、後に説
明する。なお、データDL+DR’の代わりに、データ
DR+DL’のピーク値を求めるようにしてもよい。
The peak value detector 27 uses the data DL + D
Find the peak value of R '. Then, the phase difference d is obtained based on this peak value. That is, the peak value is detected instead of the correlation calculation, and the phase difference d is obtained. Details will be described later. Note that the peak value of the data DR + DL ′ may be obtained instead of the data DL + DR ′.

【0080】測距値演算部8は、位相差dを基に測距値
を演算し、出力する。図11は、図10のピーク値検出
部27が位相差dを検出する方法を示すグラフである。
The distance measurement value calculation unit 8 calculates and outputs the distance measurement value based on the phase difference d. FIG. 11 is a graph showing a method of detecting the phase difference d by the peak value detecting unit 27 of FIG.

【0081】横軸は画素位置nであり、縦軸は関数P
(n)である。関数P(n)は、 P(n)=DL(n)+DR(n)’ であり、加算器6Rの出力値を示す。
The horizontal axis is the pixel position n, and the vertical axis is the function P.
(N). The function P (n) is P (n) = DL (n) + DR (n) 'and indicates the output value of the adder 6R.

【0082】軸Aは、センサデータ反転処理部5R,5
Lにおいてセンサデータの反転を行った際の軸である。
軸Bは、関数P(n)のピーク値を表す軸である。軸A
の位置は、既知である。軸Bの位置は、ピーク検出によ
り求めるべきパラメータである。
The axis A is for the sensor data inversion processing units 5R and 5R.
This is the axis when the sensor data is inverted at L.
The axis B is an axis representing the peak value of the function P (n). Axis A
The position of is known. The position of the axis B is a parameter to be obtained by peak detection.

【0083】関数P(n)は、軸Bを軸にしてほぼ左右
対称になる。軸Bの付近は、凸部を形成する。軸Aと軸
Bの間隔は、位相差dの半分のd/2である。このこと
は、図4、図5を見ても明らかである。
The function P (n) is substantially symmetrical about the axis B. The vicinity of the axis B forms a convex portion. The distance between the axis A and the axis B is d / 2, which is half the phase difference d. This is clear even if FIG. 4 and FIG. 5 are seen.

【0084】軸Aの位置は分かっているので、軸Bの位
置さえ検出できれば、位相差dを求めることができる。
位相差dを求めれば、測距値を求めることができる。次
に、軸Bの位置、すなわち関数P(n)のピーク値の検
出方法を示す。
Since the position of the axis A is known, the phase difference d can be obtained if only the position of the axis B can be detected.
If the phase difference d is obtained, the distance measurement value can be obtained. Next, a method of detecting the position of the axis B, that is, the peak value of the function P (n) will be described.

【0085】図12は、関数P(n)のピーク値を検出
する方法を示すグラフである。横軸は画素位置nであ
り、縦軸は関数S(n)である。関数S(n)は、 S(n)=P(n)−P(n+k) ・・・(7) である。図のグラフは、kが2の場合を示す。
FIG. 12 is a graph showing a method for detecting the peak value of the function P (n). The horizontal axis represents the pixel position n, and the vertical axis represents the function S (n). The function S (n) is S (n) = P (n) -P (n + k) ... (7). The graph in the figure shows the case where k is 2.

【0086】軸Aの画素位置n(横軸)は予め分かって
いる。関数S(n)が0になる画素位置をZRとする。
軸Aとゼロ点ZRの間隔は、 d/2+k/2 である。ゼロ点ZRは、軸Bの位置に対応する。
The pixel position n (horizontal axis) of the axis A is known in advance. The pixel position where the function S (n) becomes 0 is ZR.
The distance between the axis A and the zero point ZR is d / 2 + k / 2. The zero point ZR corresponds to the position of the axis B.

【0087】したがって、ゼロ点ZRを検出することに
より、位相差dを求めることができる。この方法によ
り、位相差dを求めれば、相関演算を行わずに済み、演
算時間がかなり短くなる。高速で測距値を求めることが
できる。また、関数P(n)=DL(n)+DR
(n)’を基にしているので、前述のように、左右のセ
ンサのバイアスレベル差による悪影響を受けることはな
い。
Therefore, the phase difference d can be obtained by detecting the zero point ZR. By this method, if the phase difference d is obtained, it is not necessary to perform the correlation calculation, and the calculation time is considerably shortened. The distance measurement value can be obtained at high speed. Also, the function P (n) = DL (n) + DR
Since it is based on (n) ', as described above, it is not adversely affected by the bias level difference between the left and right sensors.

【0088】なお、本実施例では、式(7)においてk
が2である場合について述べたが、kは他の値でもよ
い。関数P(n)のピークが鋭い凸部になっているとき
には、kの値を小さくし、ピークが平坦部を含むなだら
かな凸部になっているときには、kの値を大きくするの
が望ましい。そこで、前処理として、凸部の形状を調べ
てからkの値を決めてもよい。
In this embodiment, k in equation (7)
However, k may be another value. It is desirable to reduce the value of k when the peak of the function P (n) has a sharp convex portion, and to increase the value of k when the peak has a gentle convex portion including a flat portion. Therefore, as a preprocessing, the value of k may be determined after examining the shape of the convex portion.

【0089】また、式(7)の関数S(n)を用いて位
相差dを検出する場合のみならず、他の方法により、図
11のピークを示す軸Bの位置を検出して、位相差dを
検出するようにしてもよい。
Further, not only when the phase difference d is detected using the function S (n) of the equation (7), but also by another method, the position of the axis B showing the peak in FIG. The phase difference d may be detected.

【0090】ピーク検出の対称となる関数P(n)=D
L(n)+DR(n)’を生成する際、一般的にセンサ
の真ん中の画素位置を軸として、センサデータDR
(n)の反転を行い、反転データDR’(n)を生成す
ることが好ましい。
A symmetric function P (n) = D for peak detection
When L (n) + DR (n) ′ is generated, sensor data DR is generally set with the pixel position in the center of the sensor as an axis.
It is preferable to invert (n) and generate inverted data DR ′ (n).

【0091】ただし、センサデータDR(n)が高周波
である場合は、軸の位置によって正しい位相差dを検出
できない場合がある。次に、その際の対処方法を説明す
る。図13は、高周波のセンサデータDR,DLを基に
位相差dを求める方法を示すグラフである。横軸は画素
位置であり、縦軸はセンサデータである。
However, when the sensor data DR (n) has a high frequency, the correct phase difference d may not be detected depending on the position of the axis. Next, a coping method in that case will be described. FIG. 13 is a graph showing a method of obtaining the phase difference d based on the high frequency sensor data DR and DL. The horizontal axis is the pixel position, and the vertical axis is the sensor data.

【0092】右センサデータDRと左センサデータDL
の位相差は、dである。右センサで生成されるピークデ
ータa1は、左センサにおいてはdだけずれ、a2とし
て表される。
Right sensor data DR and left sensor data DL
The phase difference of is d. The peak data a1 generated by the right sensor is deviated by d in the left sensor and is represented as a2.

【0093】軸Cは、センサの真ん中の画素位置を示
す。センサデータDRとDLは、共に軸Cよりも左にピ
ークa1,a2を有する。この場合は、軸Cを基に反転
データを生成し、データDR+DL’を求めてもピーク
が2つできてしまい、正しい位相差dを求めることがで
きない。
Axis C shows the pixel position in the middle of the sensor. Both the sensor data DR and DL have peaks a1 and a2 to the left of the axis C. In this case, even if the inverted data is generated based on the axis C and the data DR + DL ′ is obtained, two peaks are formed and the correct phase difference d cannot be obtained.

【0094】そこで、ピークa1とピークa2の間の画
素位置に軸Aを設定し、反転データDR’とDL’を生
成する。右反転データDR’は、右センサデータDRを
軸Aで反転したデータである。センサデータDRのピー
クデータa1は、センサデータDR’においてはデータ
a1’として表される。
Therefore, the axis A is set at the pixel position between the peak a1 and the peak a2, and the inverted data DR 'and DL' are generated. The right inverted data DR ′ is data obtained by inverting the right sensor data DR on the axis A. The peak data a1 of the sensor data DR is represented as data a1 ′ in the sensor data DR ′.

【0095】左反転データDL’は、左センサデータD
Lを軸Aで反転したデータである。センサデータDLの
ピークデータa2は、センサデータDL’においてはデ
ータa2’として表される。反転センサデータDR’と
DL’の間の位相差は、dである。
The left inverted data DL 'is the left sensor data D.
It is data obtained by inverting L on the axis A. The peak data a2 of the sensor data DL is represented as data a2 'in the sensor data DL'. The phase difference between the inverted sensor data DR 'and DL' is d.

【0096】センサデータDR+DL’は、右データD
Rと左反転データDL’を加算したデータである。セン
サデータDL+DR’は、左データDLと右反転データ
DR’を加算したデータである。
The sensor data DR + DL 'is the right data D
This is data obtained by adding R and the left inverted data DL ′. The sensor data DL + DR ′ is data obtained by adding the left data DL and the right inverted data DR ′.

【0097】ピーク検出は、データDR+DL’または
データDL+DR’のいずれか一方について行えばよ
い。ピーク検出により、検出されるピークの画素位置を
軸Bとすると、軸Bと反転軸Aの間隔はd/2で表され
る。
Peak detection may be performed on either data DR + DL 'or data DL + DR'. Assuming that the pixel position of the peak detected by peak detection is axis B, the interval between axis B and inversion axis A is represented by d / 2.

【0098】以上のように、データDRのピーク値とデ
ータDLのピーク値を検出し、そのピーク値に対応する
画素位置に応じて、軸Aの位置を決めることにより、正
しい位相差dを検出することができる。
As described above, by detecting the peak value of the data DR and the peak value of the data DL and determining the position of the axis A according to the pixel position corresponding to the peak value, the correct phase difference d is detected. can do.

【0099】このように、2つのセンサデータの一方を
反転して他方に加算した時、対応するピークが重なり、
1つのピークを形成するように反転軸を選べば高周波デ
ータにも対応できる。例えば、対応するピークのシフト
範囲内に反転軸を選ぶ。
Thus, when one of the two sensor data is inverted and added to the other, the corresponding peaks overlap,
High frequency data can be handled by selecting the inversion axis so as to form one peak. For example, choose an inversion axis within the shift range of the corresponding peak.

【0100】また、光学系をデフォーカスすることによ
り、センサデータの波長(ピクセル数)が、検出できる
最大シフト数を越えないようにしてもよい。言い換えれ
ば、センサデータを低周波に変換するようにすればよ
い。
Further, by defocusing the optical system, the wavelength (pixel number) of the sensor data may not exceed the maximum shift number that can be detected. In other words, the sensor data may be converted into low frequency.

【0101】第2の実施例によれば、左右のセンサデー
タのバイアスレベル差により悪影響を受けることがな
い。また、相関演算の代わりにピーク検出を行い、位相
差dを検出するので、演算時間をかなり短縮することが
でき、高速な測距を行うことができる。
According to the second embodiment, there is no adverse effect due to the bias level difference between the left and right sensor data. In addition, instead of the correlation calculation, peak detection is performed and the phase difference d is detected, so that the calculation time can be considerably shortened and high-speed distance measurement can be performed.

【0102】なお、本実施例による測距装置は、一般カ
メラ用にも車載用にも用いることができる。車載用に用
いれば、高速に多点測距を行うことができ、そのメリッ
トは大きい。
The distance measuring device according to this embodiment can be used for both a general camera and a vehicle. If it is used for vehicles, it can perform multi-point distance measurement at high speed, which is a great advantage.

【0103】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
The present invention has been described in connection with the preferred embodiments.
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0104】[0104]

【発明の効果】以上説明したように、本発明によれば、
第1の光センサによるセンサデータと第2の光センサに
よるセンサデータとの間にバイアスレベルの差があって
も、対称形ピークを生成し測距値を求めるので、その差
を打ち消すことができる。
As described above, according to the present invention,
Even if there is a bias level difference between the sensor data obtained by the first optical sensor and the sensor data obtained by the second optical sensor, a symmetrical peak is generated and the distance measurement value is obtained, so that the difference can be canceled. .

【0105】また、対称形ピークが極大値となる画素位
置を検出して位相差を検出することにより、センサデー
タの相関演算を行い位相差を検出する場合よりも、演算
量が少なくなり、高速な測距が可能になる。
Further, by detecting the pixel position where the symmetric peak has the maximum value and detecting the phase difference, the amount of calculation is smaller than that in the case where the correlation calculation of the sensor data is performed and the phase difference is detected. It is possible to measure various distances.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例による測距装置の機能を
説明するためのブロック図である。
FIG. 1 is a block diagram for explaining a function of a distance measuring device according to a first embodiment of the present invention.

【図2】センサデータDR,DLの具体例を示すグラフ
である。
FIG. 2 is a graph showing a specific example of sensor data DR and DL.

【図3】反転センサデータDR’,DL’の具体例を示
すグラフである。
FIG. 3 is a graph showing a specific example of inverted sensor data DR ′ and DL ′.

【図4】加算センサデータDR+DL’,DL+DR’
の例を示すグラフである。
FIG. 4 is an addition sensor data DR + DL ′, DL + DR ′.
It is a graph which shows the example of.

【図5】本実施例の演算過程のデータを簡単化した概略
図である。
FIG. 5 is a schematic diagram in which data in the calculation process of the present embodiment is simplified.

【図6】一般的な基本関数f(x),f(x−d),g
(x),g(x−d)を示すグラフである。
FIG. 6 shows general basic functions f (x), f (x-d), g
It is a graph which shows (x) and g (x-d).

【図7】基本関数を加算した関数H(x),H(x−
d)を示すグラフである。
FIG. 7 shows functions H (x) and H (x−, which are obtained by adding basic functions.
It is a graph which shows d).

【図8】本実施例による測距装置の全体構成を示すブロ
ック図である。
FIG. 8 is a block diagram showing an overall configuration of a distance measuring device according to the present embodiment.

【図9】本実施例による測距装置の処理手順を示すフロ
ーチャートである。
FIG. 9 is a flowchart showing a processing procedure of the distance measuring apparatus according to the present embodiment.

【図10】本発明の第2の実施例による測距装置の機能
を説明するためのブロック図である。
FIG. 10 is a block diagram for explaining the function of the distance measuring device according to the second embodiment of the present invention.

【図11】図10のピーク値検出部が位相差を検出する
方法を示すグラフである。
FIG. 11 is a graph showing a method of detecting a phase difference by the peak value detection unit of FIG.

【図12】関数P(n)のピーク値を検出する方法を示
すグラフである。
FIG. 12 is a graph showing a method for detecting a peak value of a function P (n).

【図13】高周波のセンサデータを基に位相差を求める
方法を示すグラフである。
FIG. 13 is a graph showing a method for obtaining a phase difference based on high-frequency sensor data.

【図14】測距距離の計測方法を説明するための概略図
である。図14(A)は、位相差検出型測距装置の外光
三角方式光学系の概略図であり、図14(B)は、測距
距離を算出するための演算式である。
FIG. 14 is a schematic diagram for explaining a measuring method of a distance measuring distance. FIG. 14A is a schematic diagram of an external light triangulation optical system of the phase difference detection type distance measuring device, and FIG. 14B is an arithmetic expression for calculating the distance measuring distance.

【図15】相関演算による位相差検出を説明するための
図である。図15(A)は基準部と参照部に得られる画
像信号を示すグラフ、図15(B)は得られる相関値曲
線を示すグラフ、図15(C)は3点補間の方法を説明
するための概略図である。
FIG. 15 is a diagram for explaining phase difference detection by correlation calculation. FIG. 15A is a graph showing image signals obtained in the reference part and the reference part, FIG. 15B is a graph showing obtained correlation value curves, and FIG. 15C is for explaining a three-point interpolation method. FIG.

【符号の説明】[Explanation of symbols]

1 センサユニット 2 レンズ 3 光センサ 4 センサデータ取り込み部 5 センサデータ反転処理部 6 加算器 7 相関演算部 8 測距値演算部 11 駆動回路 12 センサ制御系 13 センサデータ量子化部 14 システムコントローラ 15 画像メモリ 16 演算部 17 データ転送メモリ 18 パラレル入出力回路 19 外部機器 27 ピーク値検出部 1 Sensor Unit 2 Lens 3 Optical Sensor 4 Sensor Data Importer 5 Sensor Data Inversion Processor 6 Adder 7 Correlation Calculator 8 Distance Measurement Calculator 11 Drive Circuit 12 Sensor Control System 13 Sensor Data Quantizer 14 System Controller 15 Image Memory 16 Calculation unit 17 Data transfer memory 18 Parallel input / output circuit 19 External device 27 Peak value detection unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取るデータ入力端子と、 前記第2のセンサデータについて、所定の画素位置を軸
にして反転した反転センサデータを生成し、前記第1の
センサデータと前記第2の光センサの反転センサデータ
を加算し対称形ピークを生成する反転加算手段(5R,
6R)と、 前記対称形ピークが極大値となる画素位置を検出し、第
1の光センサ上の画像と第2の光センサ上の画像との位
相差を検出するピーク値検出手段(27)と、 前記ピーク値検出手段により検出される位相差に応じて
測距値を演算する測距値演算手段(8)とを有する測距
装置。
1. A data input terminal for receiving first and second sensor data output from first and second photosensors each having a plurality of pixels, and a predetermined pixel position for the second sensor data. Inverting and adding means (5R, 5R, which generates inverted symmetrical sensor data by inverting with respect to the axis, and adds the first sensor data and the inverted sensor data of the second optical sensor to generate a symmetrical peak.
6R), and a peak value detecting means (27) for detecting a pixel position where the symmetrical peak has a maximum value and detecting a phase difference between the image on the first photosensor and the image on the second photosensor. And a distance measuring value calculating means (8) for calculating a distance measuring value according to the phase difference detected by the peak value detecting means.
【請求項2】 それぞれ複数画素によって構成される第
1および第2の光センサが出力する第1および第2のセ
ンサデータを受け取る工程と、 前記第2のセンサデータについて、所定の画素位置を軸
にして反転した反転センサデータを生成し、前記第1の
センサデータと前記第2の光センサの反転センサデータ
を加算し対称形ピークを生成する工程と、 前記対称形ピークが極大値となる画素位置を検出し、第
1の光センサ上の画像と第2の光センサ上の画像との位
相差を検出する工程と、 前記ピーク検出により検出される位相差に応じて測距値
を演算する工程とを含む測距方法。
2. A step of receiving first and second sensor data output from first and second photosensors each composed of a plurality of pixels, and an axis of a predetermined pixel position for the second sensor data. Generating inverted sensor data that has been inverted and then adding the first sensor data and the inverted sensor data of the second photosensor to generate a symmetrical peak; and a pixel in which the symmetrical peak has a maximum value. A step of detecting the position and detecting a phase difference between the image on the first optical sensor and the image on the second optical sensor; and calculating a distance measurement value according to the phase difference detected by the peak detection. A distance measuring method including a process.
JP27596395A 1995-10-24 1995-10-24 Apparatus and method for measurement of distance Withdrawn JPH09119829A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27596395A JPH09119829A (en) 1995-10-24 1995-10-24 Apparatus and method for measurement of distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27596395A JPH09119829A (en) 1995-10-24 1995-10-24 Apparatus and method for measurement of distance

Publications (1)

Publication Number Publication Date
JPH09119829A true JPH09119829A (en) 1997-05-06

Family

ID=17562867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27596395A Withdrawn JPH09119829A (en) 1995-10-24 1995-10-24 Apparatus and method for measurement of distance

Country Status (1)

Country Link
JP (1) JPH09119829A (en)

Similar Documents

Publication Publication Date Title
JP3205477B2 (en) Inter-vehicle distance detection device
US7600875B2 (en) Image display apparatus, image display method, and recording medium
JPH10253351A (en) Range finder
JPH09113223A (en) Non-contacting method and instrument for measuring distance and attitude
JP3463967B2 (en) Distance measuring device and method
JPH09119829A (en) Apparatus and method for measurement of distance
JPH09138125A (en) Distance measuring apparatus
JPH09138124A (en) Distance measuring device
JPH1151644A (en) Distance measuring instrument for vehicle
US4883951A (en) Method and system for detecting whether an optical system is in focus using an improved interpolation technique
JP2005043085A (en) Angle detector and projector equipped with the same
JP2002031511A (en) Three-dimensional digitizer
JP3354448B2 (en) Vehicle distance measuring device
JP3430746B2 (en) Passive triangulation distance meter
JP3065699B2 (en) Focus position detection device
JP3819555B2 (en) Vehicle distance measuring device
JPH0933248A (en) Passive triangulation-type range finder
JP3721803B2 (en) Ranging device
JPS63222247A (en) Correction of image distortion
JP3923181B2 (en) Vehicle distance measuring device
JP2021162305A (en) Distance measuring system, distance measuring method, and distance measuring program
JP3556076B2 (en) Image position error measuring device
CN117956127A (en) Pattern image output method, projector, and recording medium
JPH09121268A (en) Picture element position error correction device and document scanning speed correction device
JPH10122855A (en) Rangefinder

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030107