JP2001004367A - Distance measurement computing device - Google Patents

Distance measurement computing device

Info

Publication number
JP2001004367A
JP2001004367A JP11175520A JP17552099A JP2001004367A JP 2001004367 A JP2001004367 A JP 2001004367A JP 11175520 A JP11175520 A JP 11175520A JP 17552099 A JP17552099 A JP 17552099A JP 2001004367 A JP2001004367 A JP 2001004367A
Authority
JP
Japan
Prior art keywords
data
distance
pair
pixel data
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11175520A
Other languages
Japanese (ja)
Inventor
Shusuke Kobayashi
秀典 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP11175520A priority Critical patent/JP2001004367A/en
Publication of JP2001004367A publication Critical patent/JP2001004367A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To heighten the accuracy and speed of distance measurement without increasing the scale of an arithmetic circuit in such a way that the number of pieces of corresponding pixel data to be housed in memory is 256 pieces when the number of pixels for every one line sensor is increased, for example, to 1024 pieces in a device for transmitting exposure data to the memory of a distance detecting part corresponding to a pair of line sensors for every cycle of exposure from a light receiving means provided with image sensors comprised of a pair of line sensors above the image forming plane of a pair of lenses and measuring distances within the visual field of each line sensor. SOLUTION: For measuring distances in the area of the whole angle of visibility of line sensors, a data processing part 100 first converts four pixels of exposure data S20 by averaging, etc., into one pixel of data to form 256 pieces of data for every one line sensor. Then by transmitting the data to a distance detecting part, a part 90A for extracting an object of distance measurement obtains the location of a partial angle of visibility in which the object is present within the whole angle of visibility and transmits location information S90F to a processing part 100. Then the processing part 100 selects the 256 pieces of data for every line sensor on the location of the partial angle of visibility from the exposure data S20 and transmits it to the distance detecting part.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は自動車の衝突防止等
のために少なくとも1対のイメージセンサによる光強度
データ対から、イメージセンサの視界内に存在する先行
自動車等である対象物の距離を検出するに適する測距演
算装置であって、特にイメージセンサの光センサ(画
素)の密度を高めながらも、集積回路内の測距演算回路
の規模や動作周波数を増大せずに、測距精度の向上と測
距時間の高速化との両立を計った測距演算装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects the distance of an object such as a preceding vehicle existing in the field of view of an image sensor from a pair of light intensity data by at least one image sensor for preventing collision of the vehicle. This is a distance measuring arithmetic device suitable for performing a distance measuring operation without increasing the scale and operating frequency of a distance measuring arithmetic circuit in an integrated circuit, particularly while increasing the density of optical sensors (pixels) of an image sensor. The present invention relates to a distance measurement arithmetic device that achieves both improvement and speed-up of distance measurement time.

【0002】[0002]

【従来の技術】従来から自動焦点カメラでは1対のイメ
ージセンサにより被写体である対象を捉えて、その1対
の映像が持つ光学的ないわゆる視差から対象までの距離
を正確に検出する技術が知られており、カメラの場合に
はそのファインダの正面に捕らえた対象の距離を検出す
るのが通例であるが、さらに正面から所定の角度方向に
ある対象についても距離を検出する技術が特開平3−1
413ll号公報に本件出願人により開示されている。
以下、図13を参照しながらその概要を説明する。
2. Description of the Related Art Conventionally, in an autofocus camera, a technique is known in which a pair of image sensors is used to capture a subject as an object and accurately detect the distance to the target from the so-called optical parallax of the pair of images. In the case of a camera, it is customary to detect the distance of an object captured in front of the viewfinder. -1
No. 41311 is disclosed by the present applicant.
Hereinafter, the outline will be described with reference to FIG.

【0003】同図において、1対のレンズ11と12
は、いわゆる基線長bを隔てて配置されており、基線長
bの中点から見て角度θの方向にある被写体としての対
象1までの距離dを検出するものとする。
In FIG. 1, a pair of lenses 11 and 12 are provided.
Are arranged at a so-called base line length b, and detect a distance d to a target 1 as a subject in a direction of an angle θ when viewed from the midpoint of the base line length b.

【0004】21と22は、例えばそれぞれ画素である
複数個のホトダイオードなどの光センサがライン状に配
列され、各光センサの受光量(光強度データ,映像デー
タ,画素データ,センサデータともいう)が各光センサ
に付設されたCCD素子によってシフトレジスタ状に読
出されるように構成された、いわゆるCCDリニアセン
サアレイからなる1対のイメージセンサである。
Each of the light-receiving elements 21 and 22 has a plurality of photosensors such as photodiodes, each of which is a pixel, arranged in a line, and the amount of light received by each photosensor (also referred to as light intensity data, video data, pixel data, and sensor data). Are a pair of image sensors composed of a so-called CCD linear sensor array configured to be read out in a shift register form by a CCD element attached to each optical sensor.

【0005】イメージセンサ21と22は対応するレン
ズ11と12から焦点距離fだけ離れた位置に置かれて
おり、それらの上に対象1の映像I1とI2がレンズ1
1と12により互いに異なる光路L1とL2を介してそ
れぞれ結像される。
[0005] The image sensors 21 and 22 are located at a position separated from the corresponding lenses 11 and 12 by a focal length f, and images I1 and I2 of the object 1 are placed on the lenses 1 and 12 respectively.
1 and 12 form images via different optical paths L1 and L2, respectively.

【0006】いま、対象1が無限遠点にあるものとする
と、映像I1とI2はレンズ11と12の光軸から角度
θだけ傾いた位置P1とP2に結像されるが、対象1が
有限の距離dにある時は、映像I1とI2はこれらの基
準位置P1とP2からそれぞれσ1とσ2だけずれた位
置に結像される。σ=σ1+σ2とおくと、三角測距法
の原理から対象1の距離dは角度θに無関係に次式で表
される。
Now, assuming that the object 1 is located at the point at infinity, the images I1 and I2 are imaged at positions P1 and P2 inclined by an angle θ from the optical axes of the lenses 11 and 12, but the object 1 is finite. At the distance d, the images I1 and I2 are formed at positions shifted from these reference positions P1 and P2 by σ1 and σ2, respectively. If σ = σ1 + σ2, the distance d of the object 1 is expressed by the following equation irrespective of the angle θ from the principle of triangulation.

【0007】[0007]

【数1】 d=bf/σ (1) ここで基線長bと焦点距離fは定数なので、角度θに対
応する位置P1とP2からの映像I1とI2のずれの和
σを検出すれば距離dが求まる。なお、実際には距離d
のかわりにσをその指標として利用する。なお、対象1
の方向を示す角度θをとる原点を図13のように基線長
bの中点とすればσ1=σ2になる。
D = bf / σ (1) Here, since the base line length b and the focal length f are constants, if the sum σ of the shifts of the images I1 and I2 from the positions P1 and P2 corresponding to the angle θ is detected, the distance becomes d is obtained. Note that the distance d is actually
Is used as the index instead of. Object 1
If the origin at which the angle θ indicating the direction is taken is the midpoint of the base line length b as shown in FIG. 13, σ1 = σ2.

【0008】イメージセンサ21と22の下側には、そ
れらの各光センサの受光量を表す、例えば8ビット構成
のデータの集合である映像データD1とD2が模式的に
示されている。
Below the image sensors 21 and 22, image data D1 and D2, each of which is a set of data of, for example, 8-bit data, representing the amount of light received by each of the optical sensors are schematically shown.

【0009】角度θの方向にある対象1の距離指標σを
求めるには、これらの映像データD1とD2から対象1
を捉えるに適する視野に対応する視野部分Dp1とDp
2を下側に示すようにそれぞれ抽出し、さらにこれらの
視野部分Dp1とDp2から、それぞれ部分群d1とd
2を、普通は光強度データの1個分ずつ交互にずらせな
がら抽出して組み合わせCk(k=0〜km)を順次作
って行き、各組み合わせCkごとに両部分群d1とd2
間の相関を検定する。
In order to determine the distance index σ of the object 1 in the direction of the angle θ, the object 1 is calculated from these video data D1 and D2.
Field parts Dp1 and Dp corresponding to the field of view suitable for capturing
2 are extracted as shown at the bottom, and further, from these visual field portions Dp1 and Dp2, subgroups d1 and dp, respectively.
2 are extracted while normally shifting the light intensity data one by one to form combinations Ck (k = 0 to km) sequentially, and for each combination Ck, both subgroups d1 and d2
Test the correlation between

【0010】このように映像I1とI2を表す光強度デ
ータを含んだ部分群d1とd2を互いにずらせながら、
両者が最大相関を示す組み合わせ番号kを求めると、こ
の番号kと、視野部分Dp1とDp2の角度θに対応す
る基準位置P1とP2に対する抽出位置とから、求める
距雉指標σをごく簡単な加減算によって算出することが
できる。
Thus, while shifting the subgroups d1 and d2 containing the light intensity data representing the images I1 and I2 from each other,
When the combination number k indicating the maximum correlation between them is obtained, the distance khi index σ to be obtained is very simply added / subtracted from this number k and the extraction positions with respect to the reference positions P1 and P2 corresponding to the angle θ between the visual field portions Dp1 and Dp2. Can be calculated by

【0011】自動焦点カメラの場合には、このようにし
て得られる距離指標σに応じて撮像レンズの位置を調整
することにより、ファインダの正面から特定の角度θの
方向にある対象1に焦点合わせすることができる。
In the case of an autofocus camera, the position of the imaging lens is adjusted in accordance with the distance index σ obtained in this manner, thereby focusing on the object 1 at a specific angle θ from the front of the finder. can do.

【0012】しかし上述のような従来技術では、角度θ
を指定してその方向にある対象1の距離を検出すること
はできるが、例えば自勤車の衝突防止のため不特定の方
向に存在する先行自動車等の対象1を見付けることはで
きず、ましてその角度方向や距離を検出することができ
ない。
However, in the prior art as described above, the angle θ
Can be specified to detect the distance of the object 1 in that direction, but it is not possible to find the object 1 such as a leading car in an unspecified direction, for example, in order to prevent collision of a self-operating vehicle. The angle direction and distance cannot be detected.

【0013】衝突防止の場合は、運転者に検出対象を特
定する負担を掛けることなく未知の対象を検出できるこ
とが必要である。また、イメージセンサ21や22が持
つ視界内には遠近の位置にある背景や道路や複数台の自
動車が混在するのが普通であるから、先行自動車等であ
る対象1をそれらとできるだけ明確に識別しながら見付
け、且つそれまでの距離を混在物に惑わされることなく
正確に検出できることが必要である。さらに、衝突を確
実に防止するには対象1を可能な限り短時間内に検出で
きることが望ましい。
In the case of collision prevention, it is necessary that an unknown object can be detected without imposing a burden on the driver to specify the object to be detected. In addition, since it is common for the backgrounds of the image sensors 21 and 22 to have backgrounds, roads, and a plurality of vehicles at a distance from each other, the subject 1 such as a leading vehicle is clearly identified from them. It is necessary that the distance can be detected while the distance can be accurately detected without being misled by the mixture. Furthermore, in order to reliably prevent a collision, it is desirable that the object 1 can be detected within as short a time as possible.

【0014】本出願人の先願になる特開平9−7353
9号には、この課題を解決するための技術が開示されて
いる。以下、図面を用いてその概要を説明する。図14
は検出対象を捉えるべき視野の設定要領を示すイメージ
センサ手段20と先行自動車1の関係を示す模式図であ
る。図の左側に示す自動車3の先頭部分に円内に拡大し
て示すレンズ11と12を備える光学手段10と、イメ
ージセンサ21と22を備えるイメージセンサ手段20
とが小形のモジュールの形で搭載されており、はぼ垂直
方向に配置されたイメージセンサ21と22の対はその
ほぼ垂直な視界内に正面前方にある先行自動車である検
出対象1を捉える。
Japanese Patent Application Laid-Open No. 9-7353 filed by the applicant of the present invention
No. 9 discloses a technique for solving this problem. The outline will be described below with reference to the drawings. FIG.
FIG. 3 is a schematic diagram showing the relationship between the image sensor means 20 and the preceding vehicle 1 showing how to set the field of view to capture the detection target. An optical unit 10 having lenses 11 and 12 shown in an enlarged circle at a head portion of a car 3 shown on the left side of the figure, and an image sensor unit 20 having image sensors 21 and 22.
Are mounted in the form of a small module, and a pair of image sensors 21 and 22 arranged in a substantially vertical direction captures a detection target 1 which is a preceding vehicle in front of the vehicle in a substantially vertical view.

【0015】図15は諸手段の構成例をイメージセンサ
手段20上に映像を結像させる光学手段と共に示す模式
図である。図15の上部に示す光学手段10とイメージ
センサ手段20は実際には図14のように垂直に置かれ
るが、図示の都合から水平な姿勢で示されている。
FIG. 15 is a schematic view showing an example of the configuration of various means together with optical means for forming an image on the image sensor means 20. Although the optical means 10 and the image sensor means 20 shown in the upper part of FIG. 15 are actually placed vertically as shown in FIG. 14, they are shown in a horizontal posture for convenience of illustration.

【0016】各イメージセンサ手段20内のイメージセ
ンサ21や22は光学手段10の対応するレンズ11,
12を介して受光し、その各光センサから順次取り出さ
れるアナログの光検出信号は増幅器23により増幅さ
れ、かつA/D変換器24によってディジタルのデータ
に変換されてメモリ25に一時記憶され、さらに後述の
距離検出手段70内に1対の映像データDlとD2とし
て読み込まれる。
The image sensors 21 and 22 in each image sensor means 20 correspond to the corresponding lens 11,
An analog light detection signal received through the optical sensor 12 and sequentially taken out from each of the optical sensors is amplified by an amplifier 23, converted into digital data by an A / D converter 24, and temporarily stored in a memory 25. The data is read as a pair of video data D1 and D2 into a distance detection unit 70 described later.

【0017】イメージセンサ21や22が持つ垂直な視
野内の対象を捉えるために複数個設定される視野の一つ
が光学手段10の方に視野角φで示されており、その方
向は図14に示すように水平方向に対して角度(方向
角)θをなすものとする。
One of a plurality of visual fields set for capturing an object in a vertical visual field of the image sensors 21 and 22 is indicated by a visual field angle φ toward the optical means 10, and its direction is shown in FIG. As shown in the figure, an angle (direction angle) θ is formed with respect to the horizontal direction.

【0018】距離検出手段70は複数の視野方向に対す
る距離検出速度を高めるためにハードウェアないしは電
子回路で構成するのが良く、図15の例では上述の映像
データDlやD2を記憶するメモリ71と、並行動作す
る複数個の単位距離検出回路72等を集積化し、例えば
いわゆるゲートアレイである集積回路をこれに用いる。
The distance detecting means 70 may be constituted by hardware or an electronic circuit in order to increase the distance detecting speed in a plurality of visual field directions. In the example of FIG. 15, a memory 71 for storing the above-mentioned video data D1 and D2 is provided. A plurality of unit distance detection circuits 72 and the like operating in parallel are integrated, and for example, an integrated circuit that is a so-called gate array is used for this.

【0019】各単位距離検出回路72は図13を参照し
て説明したような要領で各視野方向について距離を検出
するもので、各映像データDlやD2からそれぞれ視野
部分DPlやDP2を抽出して対とし、それから部分群
dl,d2をそれぞれ逐次抽出していきながら部分群対
毎に相関を検定した上で、最高相関を示した部分群d
l,d2の視野部分DPl,DP2からの抽出位置のず
れから各視野方向に対する距離を普通はその指標σの形
で計算する。
Each unit distance detection circuit 72 detects a distance in each viewing direction in the manner described with reference to FIG. 13, and extracts the viewing portions DP1 and DP2 from the video data D1 and D2, respectively. The subgroups d and d2 were extracted sequentially, and the correlation was tested for each subgroup pair while sequentially extracting the subgroups dl and d2.
From the shift of the extraction positions of l and d2 from the visual field portions DPl and DP2, the distance for each visual field direction is usually calculated in the form of the index σ.

【0020】なお、この方法の特長を活かすには複数個
の視野でイメージセンサ21や22の垂直視野内の所望
の範囲を漏れなく覆うよう、即ち隣合う視野が少なくと
も重なり合うようにするのが良く、実際には各視野の角
度を比較的狭めに設定して視野の数を多くとり、視野間
の重なり合いも大きく設定するのが良い。例えば、イメ
ージセンサの数百個の光センサ中20〜30個分の広さ
をもつ視野を光センサ1個分ずつずらして多数個設定す
るのが望ましい。
In order to take advantage of the features of this method, it is preferable that a plurality of visual fields cover a desired range in the vertical visual field of the image sensors 21 and 22 without omission, that is, that adjacent visual fields at least overlap. Actually, it is preferable to set the angle of each visual field to be relatively narrow to increase the number of visual fields and to set the overlap between the visual fields to be large. For example, it is desirable to set a large number of visual fields having a width of 20 to 30 out of several hundred optical sensors of the image sensor by shifting one optical sensor at a time.

【0021】各単位距離検出回路72は距離指標σの計
算に際してメモリ71内の映像データDlとD2から、
関わる視野に相当する視野部分DPlとDP2または部
分群dlとd2を切り取ってデータ毎に順次ないしは纏
めて読み込むが、図ではかかるメモリ71と単位距離検
出回路72の関連が両者を紀ぶ細線で簡略に示されてい
る。
Each unit distance detection circuit 72 calculates the distance index σ from the video data Dl and D2 in the memory 71,
The visual field portions DPl and DP2 or the partial groups dl and d2 corresponding to the relevant visual field are cut out and sequentially or collectively read for each data. In the figure, the relationship between the memory 71 and the unit distance detection circuit 72 is simply represented by a thin line that shows both. Is shown in

【0022】対象検出手段80は距離検出手段70の検
出結果、図示の例ではその単位距離検出回路72により
計算された複数の距離指標σから対象1を検出するもの
で、図示のように小形のプロセッサ90にソフトウェア
としてあらかじめ装荷しておき、そのメモリ91に距離
検出手段70から複数の距離指標σを読み込んで一旦記
憶した上でこれに与えるようにするのがよい。
The object detecting means 80 detects the object 1 from the detection results of the distance detecting means 70, in the example shown, from a plurality of distance indices σ calculated by the unit distance detecting circuit 72. It is preferable that the processor 90 is loaded in advance as software, a plurality of distance indices σ are read from the distance detecting means 70 in the memory 91, temporarily stored, and given to this.

【0023】この対象検出手段80に各視野の方向につ
いての距離検出手段70による検出距離が所期値、例え
ば図14に示すように角度θの視野方向に対する路面上
の距離Dより近い距離を連続して示す場合に限り、かか
る視野方向の範囲に検出対象1が実際に存在するものと
判定させる。
The distance detected by the distance detecting means 70 in the direction of each visual field is continuously transmitted to the target detecting means 80 by a desired value, for example, a distance shorter than the distance D on the road surface with respect to the visual field direction at an angle θ as shown in FIG. Only when the detection target 1 is shown, it is determined that the detection target 1 actually exists in the range in the visual field direction.

【0024】また、上記距離検出においては、映像デー
タDlとD2から抽出した部分群dlとd2の対間の相
関値を対応データの差の絶対値の和の形で計算するよう
にし、かつ単位距離検出回路72に計算させる各相関値
をその隣の単位回路による相関値に対する相関値の差分
だけの加減算により求めるようにするのが非常に有利で
ある。以下に図16を参照して説明する。
In the distance detection, a correlation value between a pair of subgroups dl and d2 extracted from the video data D1 and D2 is calculated in the form of a sum of absolute values of differences between corresponding data. It is very advantageous to obtain each correlation value calculated by the distance detection circuit 72 by adding or subtracting only the difference between the correlation value and the correlation value of the unit circuit adjacent thereto. This will be described below with reference to FIG.

【0025】図16(a)は映像データDlとD2から
各視野に相当する視野部分DPlとDP2の対を抽出
し、且つそれらから相関値を計算すべき部分群dlとd
2の対を抽出する様子を示すものである。図の各2個の
視野部分DPlとDP2は隣合う2個の視野に対するも
ので、例えば光センサ1個ずつ互いにずれている。各2
個の部分群dlとd2中のハッチング部分に関する相関
値の計算が共通な点に着目して計算を簡単化する。
FIG. 16A shows a pair of sub-groups dl and d from which pairs of visual field portions DP1 and DP2 corresponding to each visual field are extracted from video data D1 and D2, and a correlation value is to be calculated from them.
FIG. 6 shows how two pairs are extracted. The two visual field portions DPl and DP2 in the figure are for two adjacent visual fields, and are shifted from each other by, for example, one optical sensor. Each 2
The calculation is simplified by paying attention to the point that the calculation of the correlation value regarding the hatched portion in the subgroups dl and d2 is common.

【0026】図16(b)はかかる簡易化計算のための
回路例の要部を示すもので、図の上部に示す映像データ
DlとD2には、それらから上述の各2個の部分群dl
とd2が抽出される位置が示されている。図の右下部に
単位距離検出回路72の要部が2個分示されおり、その
左側に共通計算回路73が示されている。共通計算部分
を読み取って対応するデータの差の絶対値の和Σを計算
するもので、右側の小円を付した入力は各入力データの
補数の加算によって差をとることを意味している。
FIG. 16 (b) shows a main part of a circuit example for such a simplified calculation. The video data D1 and D2 shown at the top of the figure are used to convert the two subgroups dl described above from each other.
And the position from which d2 is extracted. In the lower right part of the figure, two main parts of the unit distance detection circuit 72 are shown, and on the left side, a common calculation circuit 73 is shown. The common calculation portion is read to calculate the sum 絶 対 of the absolute value of the difference between the corresponding data. An input with a small circle on the right side means that the difference is obtained by adding the complement of each input data.

【0027】単位距離検出回路72の図示の部分は加算
回路から構成されており、入力の一方に小円が付された
加算回路72aと72bは上と同様にデータの補数の加
算により差をとる実際には減算用であり、入力に小円が
ない加算回路72Cはそのまま加算用であることを意味
するものとする。
The illustrated portion of the unit distance detection circuit 72 is composed of an addition circuit, and the addition circuits 72a and 72b each having a small circle on one of its inputs take the difference by adding the complement of the data in the same manner as above. The addition circuit 72C, which is actually for subtraction and has no small circle in the input, means that it is for addition as it is.

【0028】また、図16(b)中の2個の単位距離検
出回路72の内の左側は同図(a)の上側の部分群の対
について,右側は下側の剖分群の対についてそれぞれ相
関値を計算するためのものである。
Also, the left side of the two unit distance detection circuits 72 in FIG. 16B is for the pair of upper subgroups in FIG. 16A, and the right side is for the pair of autopsy groups on the lower side. This is for calculating a correlation value.

【0029】左側の単位距離検出回路72の加算回路7
2aは上側の部分群対の内の左側の非共通部分である光
センサ1個分のデータを入力して差の絶対値をとり、加
算回路72Cはこれを共通計算回路73の計算結果に加
算して上側の部分群の対に関する相関値を作る。
Addition circuit 7 of left unit distance detection circuit 72
2a receives the data of one photosensor, which is the non-common part on the left side of the upper subgroup pair, takes the absolute value of the difference, and the adding circuit 72C adds this to the calculation result of the common calculating circuit 73. To produce a correlation value for the upper subgroup pair.

【0030】この左側の単位距離検出回路72により計
算された相関値と、その加算回路72aによる減算結果
は右側の単位距離検出回路72の加算回路72bに与え
られて両者の差が作られる。
The correlation value calculated by the left unit distance detecting circuit 72 and the result of the subtraction by the adding circuit 72a are given to the adding circuit 72b of the right unit distance detecting circuit 72 to generate a difference between the two.

【0031】右側の単位距離検出回路72内の加算回路
72aは下側の部分群の対の右側の非共通部分である光
センサ1個分のデータを入力して差の絶対値をとり、加
算回路72Cはこの結果を加算回路72bの減算結果に
対して加算することにより下側の部分群の対に関する相
関値を作る。
The addition circuit 72a in the unit distance detection circuit 72 on the right side receives the data of one photosensor, which is the right non-common part of the pair of the lower subgroup, takes the absolute value of the difference, and adds the data. The circuit 72C adds this result to the subtraction result of the addition circuit 72b to generate a correlation value for the pair of the lower subgroup.

【0032】以上から容易にわかるように、右側の単位
距離検出回路72と同じ回路をさらに繰り返して設ける
ことにより、順次に方向がずらされる視野方向に対する
図16(a)の視野部分DPlとDP2の対から抽出す
る同じk番目の組み合わせCkの部分群の対に関する相
関値を計算できる。
As can be easily understood from the above, by providing the same circuit as the unit distance detecting circuit 72 on the right side further repeatedly, the visual field portions DP1 and DP2 in FIG. Correlation values can be calculated for pairs of subgroups of the same k-th combination Ck extracted from the pair.

【0033】部分群対のその他の組み合わせについても
もちろん同様である。このように、図16の態様によれ
ば各単位距離検出回路72の相関値の計算部分を加算回
路の簡単な組み合わせで構成できる。
The same applies to other combinations of the subgroup pairs. As described above, according to the aspect of FIG. 16, the calculation part of the correlation value of each unit distance detection circuit 72 can be configured by a simple combination of the addition circuits.

【0034】[0034]

【発明が解決しようとする課題】上述の先願技術を使用
することで全視野方向の距離計算をする場合にも計算負
荷を大幅に軽減し、高速な測距が可能になる。ところ
で、特に高速道路において走行車などの測距を行う場
合、数十メートルから百数十メートル先に走行する自動
車を正確に検出し、同時に自車との相対速度を測定する
ため高速に測距を繰り返さなければならない。この場
合、計算負荷を軽くするために、測距する視野を狭くす
ることは、他車線からの車の急な進入や自車の車線変更
などの場合に必要な車を検出することが難しくなるた
め、困難である。
By using the above-mentioned prior art, even when calculating the distance in all directions of view, the calculation load is greatly reduced, and high-speed ranging can be performed. By the way, especially when measuring the distance of a traveling vehicle on a highway, it accurately detects a car traveling several tens to hundreds of meters ahead, and at the same time measures the distance at high speed to measure the relative speed with the own vehicle. Must be repeated. In this case, narrowing the field of view for distance measurement in order to reduce the calculation load makes it difficult to detect a necessary vehicle when the vehicle suddenly enters from another lane or when the own vehicle changes lanes. Because it is difficult.

【0035】測距の精度や速度を高めるには、図15の
ような構成の回路を大規模化し、イメージセンサの画素
数を増加して映像の分解能を高める一方、動作周波数を
高め測距演算を高速化することが考えられる。
In order to increase the accuracy and speed of the distance measurement, the circuit having the configuration as shown in FIG. 15 is increased in scale and the number of pixels of the image sensor is increased to increase the resolution of the image. It is possible to increase the speed.

【0036】しかしながら、回路のこのままの大規模化
はコストアップにつながり、動作周波数の上昇は信頼性
に悪影響を与える可能性があることなどからあまり望ま
しくない。
However, an increase in the size of the circuit as it is leads to an increase in cost, and an increase in the operating frequency is not desirable because the reliability may be adversely affected.

【0037】そこで本発明は、イメージセンサの画素密
度(従って画素数)を増加しながらも、距離検出手段の
回路規模をイメージセンサに比して相対的に小規模と
し、且つ回路の動作周波数の増大を抑えることで、コス
卜や信頼性上の問題なく、しかも測距精度の向上と測距
速度の高速化との両立を計ることができる測距演算装置
を提供することを課題とする。
Therefore, according to the present invention, while increasing the pixel density (and thus the number of pixels) of the image sensor, the circuit scale of the distance detecting means is made relatively small as compared with the image sensor, and the operating frequency of the circuit is reduced. It is an object of the present invention to provide a distance measurement arithmetic device capable of suppressing an increase in the cost and reliability without a problem, and capable of achieving both an improvement in distance measurement accuracy and an increase in distance measurement speed.

【0038】[0038]

【課題を解決するための手段】前記の課題を解決するた
めに、請求項1の測距演算装置は、光軸が互いに平行で
同一平面上に結像する対のレンズ(11,12)の結像
面上に、一列又は複数列のラインセンサ(21a〜21
n,または22a〜22n)を持つ対の受光手段(20
A)が、それぞれのレンズに対応し、対となるラインセ
ンサの列同士がそれぞれ同一直線上にあるように配置さ
れ、対の受光手段が対のラインセンサの各1ライン分の
画素データ列を、対となる画素相互の視野方向が一致す
るように同期してラインセンサの一端側から他端側に向
けて(A/D変換器24,1画素分メモリ25等を介
し)順次出力し、さらにこの出力を(ラインセンサセレ
クタ26を介し)対のラインセンサの配列順に全列行う
ことを露光周期(T)毎に繰り返し、ラインセンサの1
ライン分の画素数(例えば1024個)より少なく、こ
の1ラインに対応する全視野角領域内の測距対象物が存
在し得る一部視野角領域を少なくとも検出できる所定の
第1の画素数(例えば256個)の画素データ(センサ
データD1,D2)を収容する対の画素データ記憶手段
(センサデータメモリ71)と、この対の画素データ記
憶手段に収容された画素データを用いて、この画素デー
タ記憶手段の画素データに対応する全視野の各方向毎の
測距を行う距離検出手段(距離検出回路72S)とを持
つ第1及び1又は複数個の第2の測距分担手段(全視野
角分担の距離検出部70V及び一部視野角分担の距離検
出部70A(70A1,70A2等))と、対の受光手
段の各ラインセンサに対応する全視野角領域の測距を行
うために、対の受光手段より出力される画素データか
ら、画素データの選択,変換等の処理により、ラインセ
ンサ1ライン当たりの画素データ数が前記第1の画素数
に等しい対のラインセンサ全列分の画素データ(以下、
転送単位画面データという)のこの1単位分又は複数単
位分(例えば2つ又は4つ分)をそれぞれ一括又は分割
生成し、この各転送単位画面データを露光周期毎に1単
位分ずつ第1の測距分担手段に与える第1のデータ加工
手段(データ加工部100)と、第1の測距分担手段が
この第1のデータ加工手段から1又は複数露光周期にわ
たり与えられた各転送単位画面データについて行った各
対のラインセンサに対応する画素データごとの測距の情
報から各ラインセンサの全視野角領域内の、前記1又は
複数個の第2の測距分担手段にそれぞれ対応する一部視
野角領域の位置を検出する一部視野角領域抽出手段(測
距対象抽出部90A)と、この一部視野角領域抽出手段
の位置検出情報(測距対象位置情報S90F)に基づ
き、対の受光手段より1露光周期分として出力される全
画素データから、それぞれ前記の検出された第2の測距
分担手段別の一部視野角領域の位置にある前記転送単位
画面データを選択し、1露光周期にそれぞれ対応する第
2の測距分担手段に与える第2のデータ加工手段(デー
タ加工部100)と、第2の各測距分担手段がそれぞれ
第2のデータ加工手段より与えられた転送単位画面デー
タについて行った各対のラインセンサに対応する画像デ
ータごとの測距の情報から、各一部視野角領域内の測距
対象物の距離を検出する手段(測距対象抽出部90A)
とを備えたものとする。
According to a first aspect of the present invention, there is provided a distance measuring apparatus comprising a pair of lenses (11, 12) having optical axes parallel to each other and forming an image on the same plane. On the imaging plane, one or more lines of line sensors (21a to 21a)
n, or a pair of light receiving means (20
A) corresponds to each lens, and the rows of line sensors forming a pair are arranged so as to be on the same straight line, respectively. Are sequentially output from one end side of the line sensor to the other end side (via the A / D converter 24 and the memory 25 for one pixel) so that the viewing directions of the pixels forming a pair match each other, Further, this output (via the line sensor selector 26) is repeated for every line in the arrangement order of the pair of line sensors for each exposure cycle (T), and one line sensor is output.
A predetermined first number of pixels (eg, less than the number of pixels for a line (for example, 1024) and at least capable of detecting a partial viewing angle area where a distance measurement target within the entire viewing angle area corresponding to this one line may exist). Using a pair of pixel data storage means (sensor data memory 71) for storing pixel data (sensor data D1, D2) of 256 pixels, for example, and using the pixel data stored in the pair of pixel data storage means, First and / or a plurality of second distance measurement sharing means (full field of view) having distance detection means (distance detection circuit 72S) for performing distance measurement in each direction of the entire field of view corresponding to pixel data in the data storage means In order to measure the distance in the entire viewing angle region corresponding to each line sensor of the pair of light receiving means, and the distance detecting unit 70V for sharing the angle and the distance detecting units 70A (70A1, 70A2, etc.) for partially sharing the viewing angle, Pair receiving From the pixel data output from the means, by performing processing such as selection and conversion of pixel data, the pixel data of all pairs of line sensors (hereinafter referred to as the line sensor) in which the number of pixel data per line sensor line is equal to the first pixel number. ,
One unit or a plurality of units (for example, two or four units) of the transfer unit screen data are collectively or separately generated, and each of the transfer unit screen data is converted into a first unit by one unit for each exposure cycle. First data processing means (data processing unit 100) provided to the distance measuring and sharing means, and each transfer unit screen data provided by the first data measuring and sharing means from the first data processing means over one or a plurality of exposure periods. From the distance measurement information for each pair of pixel data corresponding to each pair of line sensors, a part corresponding to the one or more second distance measurement sharing means in the entire viewing angle region of each line sensor. Based on the partial viewing angle area extraction means (distance measurement target extraction unit 90A) for detecting the position of the viewing angle area, and the position detection information (distance measurement target position information S90F) of the partial viewing angle area extraction means, a pair of Light receiving means From all the pixel data output for one exposure cycle, the transfer unit screen data at the position of the partial viewing angle area for each of the detected second distance measurement sharing means is selected, and Second data processing means (data processing unit 100) to be provided to the corresponding second distance measuring and sharing means, and transfer unit screen data provided by the second data processing means to each of the second distance measuring and sharing means. For detecting the distance of the object to be measured in each partial viewing angle region from the information on the distance measurement for each pair of line sensors performed for the pair of line sensors (distance measurement target extraction unit 90A)
And

【0039】また、請求項2の測距演算装置は、請求項
1に記載の測距演算装置において、前記第1のデータ加
工手段が(100(112)となって)、対の受光手段
の全画素に対応する画素データを、対の受光手段より露
光周期順にそれぞれ出力される各全画素データ又は1露
光周期に出力されて一時記憶手段(メモリ101)に記
憶された全画素データから、露光周期毎に前記転送単位
画面データの1単位分ずつを画素配列の順に分割選択す
ることを繰り返すことにより複数単位分(例えば4つ)
の転送単位画面データとして生成し、この生成した各転
送単位画面データを露光周期毎に順次第1の測距分担手
段に与えるようにする。
According to a second aspect of the present invention, the first data processing means is (100 (112)) and the pair of light receiving means is provided. The pixel data corresponding to all the pixels is subjected to exposure from all the pixel data output from the pair of light receiving units in the order of the exposure cycle or from all the pixel data output in one exposure cycle and stored in the temporary storage unit (memory 101). By repeating the division and selection of one unit of the transfer unit screen data in the order of the pixel arrangement in each cycle, a plurality of units (for example, four units) are obtained.
Is generated as transfer unit screen data, and the generated transfer unit screen data is sequentially provided to the first distance measuring and sharing means for each exposure cycle.

【0040】また請求項3の測距演算装置は、請求項1
に記載の測距演算装置において、前記第1のデータ加工
手段が(100(122)となって)、対の受光手段か
ら1露光周期分として出力される全画素データに対し、
画素配列の順に所定の複数(例えば4つの)画素分毎の
平均又は間引き選択を行うことにより、この各複数画素
分の画素データをそれぞれ1画素分ずつの画素データに
変換して前記転送単位画面データの1単位分を生成し、
この生成した転送単位画面データを1露光周期に第1の
測距分担手段に与えるようにする。
Further, the distance calculation apparatus according to the third aspect is the first aspect of the invention.
Wherein the first data processing means (100 (122)) converts all the pixel data output as one exposure cycle from the pair of light receiving means.
By performing averaging or thinning selection for each of a plurality of (for example, four) pixels in the order of the pixel arrangement, the pixel data for each of the plurality of pixels is converted into pixel data for each one pixel, and the transfer unit screen is displayed. Generate one unit of data,
The generated transfer unit screen data is provided to the first distance measuring and sharing means in one exposure cycle.

【0041】また請求項4の測距演算装置は、請求項1
に記載の測距演算装置において、対の受光手段から1露
光周期分として出力される全画素データに対し、画素配
列の順に所定の複数(例えば2つの)画素分毎の平均又
は間引き選択を行うことにより、この各複数画素分の画
素データをそれぞれ1画素分ずつの画素データに変換
し、ラインセンサ1ライン当たりの画素数が、その全画
素数より少なく前記第1の画素数より多い第2の画素数
(例えば512個)であるようにした画素データを1次
変換画素データと呼ぶとき、前記第1のデータ加工手段
が(100(132)となって)、対の受光手段の全1
次変換画素データに対応する画素データを、対の受光手
段より露光周期順にそれぞれ出力される各全画素データ
から得られる各全1次変換画素データ、又は対の受光手
段より1露光周期分として出力された全画素データから
前記のように変換されて一時記憶手段(メモリ101)
に記憶された全1次変換画素データから、露光周期毎に
前記転送単位画面データの1単位分の1次変換画素デー
タずつを、画素配列の順に分割選択することを繰り返す
ことにより複数単位分(例えば2つ)の転送単位画面デ
ータとして生成し、この生成した各転送単位画面データ
を露光周期毎に順次第1の測距分担手段に与えるように
する。
Further, the distance calculation apparatus according to the fourth aspect is the first aspect of the invention.
In the distance measurement arithmetic device described in (1), an average or thinning selection is performed for every predetermined plurality (for example, two) of pixels in the order of pixel arrangement for all pixel data output from the pair of light receiving means as one exposure cycle. Thus, the pixel data of each of the plurality of pixels is converted into pixel data of one pixel, and the number of pixels per line sensor line is smaller than the total number of pixels and larger than the first pixel number. When the pixel data having the number of pixels (e.g., 512) is referred to as primary conversion pixel data, the first data processing means becomes 100 (132), and all the light receiving means of the pair of light receiving means become 100 (132).
Pixel data corresponding to the next converted pixel data is output as all the primary converted pixel data obtained from all the pixel data respectively output from the pair of light receiving means in the order of the exposure cycle or as one exposure cycle from the pair of light receiving means. Temporary memory means (memory 101) which is converted from all the pixel data
By repeating the divisional selection of the primary conversion pixel data for one unit of the transfer unit screen data for each exposure cycle from the total primary conversion pixel data stored in For example, two (2) transfer unit screen data are generated, and each generated transfer unit screen data is sequentially provided to the first distance measuring and sharing unit for each exposure cycle.

【0042】また請求項5の測距演算装置は、請求項1
ないし4のいずれかに記載の測距演算装置において、前
記第1の測距分担手段が(距離検出部70となって)第
2の測距分担手段の機能を兼ねるようにする。
Further, the distance measuring arithmetic unit according to the fifth aspect is the first aspect of the invention.
In the distance measurement arithmetic device according to any one of the first to fourth aspects, the first distance measuring and sharing means (acting as the distance detecting unit 70) also functions as the second distance measuring and sharing means.

【0043】即ち本発明では、イメージセンサについて
は、1ライン(1本)ずつのイメージセンサ(ラインセ
ンサ)の画素数を増加し画素配列の密度を高めて画像検
出の分解能を高める。一方、距離検出手段は、測距のた
めに露光周期毎に取り込む1ラインセンサ当たりの画素
データ(センサデータ)の数を、1ラインセンサ分の画
素数より少なくし、露光周期毎一度に全視野角の領域
(つまり、図15にてイメージセンサ21又は22の全
体で見渡すことができる視野角φの領域)を測距するに
は足りないが、測距対象物が存在すると推定される一部
の視野角領域のみを測距するには充分な数とすること
で、距離検出手段の回路の規模をイメージセンサに比べ
小さくし、計算負荷、装置コスト、動作周波数等の増大
を抑える。
That is, in the present invention, with respect to the image sensor, the number of pixels of the image sensor (line sensor) for each line (one line) is increased, the density of the pixel array is increased, and the resolution of image detection is increased. On the other hand, the distance detecting means sets the number of pixel data (sensor data) per line sensor to be taken for each exposure cycle for distance measurement to be smaller than the number of pixels for one line sensor, so that the entire field of view is once every exposure cycle. Although it is not sufficient to measure a corner area (that is, an area having a viewing angle φ that can be seen over the entire image sensor 21 or 22 in FIG. 15), it is estimated that a distance measurement target exists. By making the number sufficient to measure the distance only in the viewing angle region, the scale of the circuit of the distance detecting means is made smaller than that of the image sensor, and increase in calculation load, device cost, operating frequency and the like are suppressed.

【0044】そして、先ず全視野角領域の測距情報から
測距対象が存在し得る一部視野角領域の位置(方向)を
検出したのち、次にこの一部視野角領域内のみの測距を
行うという一連の動作を繰り返すが、全視野角領域内の
測距については、測距点が多く計算負荷が大きくなり高
速の測距が困難になることを防ぐため、次に述べるよう
に時間的分解能または空間的分解能(なお、空間的分解
能は距離の遠近の間隔にも対応するので距離の測定精度
(距離の分解能)にも対応する)を低くした測距を行
う。
Then, first, the position (direction) of a partial viewing angle area where a distance measurement target can exist is detected from the ranging information of the entire viewing angle area, and then the distance measurement is performed only in the partial viewing angle area. The distance measurement in the entire viewing angle area is repeated as described below. The distance measurement is performed with low spatial resolution or spatial resolution (the spatial resolution also corresponds to the distance between distances, and therefore also corresponds to the distance measurement accuracy (distance resolution)).

【0045】他方、一部視野角領域内の測距について
は、露光周期毎に(つまり最高の測定速度で)空間的に
も時間的にも最高の精度(分解能)の測距を行うこと
で、高い測距の精度,速度の両立を計る。
On the other hand, the distance measurement in the partial viewing angle region is performed by performing the distance measurement with the highest accuracy (resolution) both spatially and temporally at each exposure cycle (that is, at the highest measurement speed). , High ranging accuracy and speed.

【0046】このような全視野角領域と一部視野角領域
の異なる方式の測距演算を高速で行うために、イメージ
センサと距離検出手段との間にセンサデータを加工する
手段100を追加し、このデータ加工手段がイメージセ
ンサからのセンサデータに対して、全視野角領域測距用
と一部視野角領域測距用とで異なる加工を行い、加工さ
れた異なる加工のセンサデータを周期的に切替えて出力
したり、並列に出力して距離検出手段に与えるようにす
る。
In order to perform such a high-speed distance measurement operation in a different view angle area and a full view angle area, a means 100 for processing sensor data is added between the image sensor and the distance detection means. This data processing means performs different processing on the sensor data from the image sensor for the entire viewing angle area distance measurement and for the partial viewing angle area distance measurement, and periodically processes the processed sensor data of the different processing. And outputs the signals in parallel or outputs the signals in parallel to the distance detecting means.

【0047】なお、これらのセンサデータの加工は、セ
ンサデータの選択とか、非常に単純な平均や間引きとな
るため、センサデータ加工手段100を単純な小規模の
電子回路で実現することができる。
Since the processing of the sensor data involves selection of the sensor data and very simple averaging and thinning, the sensor data processing means 100 can be realized by a simple small-scale electronic circuit.

【0048】ところで、全視野角領域内について分解能
を下げた測距を行うといっても測距対象や測距の用途に
より、下げてもよい分解能に対する許容条件が異なるの
で、本発明では測距の態様を次のように3つの場合に分
ける。
By the way, even though distance measurement with reduced resolution is performed in the entire viewing angle area, the allowable condition for the resolution that can be reduced differs depending on the object to be measured and the purpose of distance measurement. Is divided into three cases as follows.

【0049】(1)全視野角領域内の測距対象の検出に
複数露光周期掛かっても空間的に高密度(高分解能)の
測距を行う必要がある場合(つまり時間的分解能より空
間的分解能が必要な場合) 、(2)全視野角領域内の測
距対象の検出に精度が粗くなっても1露光周期で測距を
終える必要がある場合(つまり各露光周期毎(高速)に
全視野角領域内の測距を繰り返さなければならないよう
な、空間的分解能より時間的分解能が必要な場合)、
(3)上記(1),(2)の中間の場合で、全視野角領
域内の測距対象の検出に程々の精度と速度が必要な場合
( つまり程々に空間的分解能も時間的分解能も必要な場
合)。
(1) Even if it takes a plurality of exposure cycles to detect the object to be measured in the entire viewing angle area, it is necessary to perform high-density (high-resolution) distance measurement spatially (that is, more spatially than temporal resolution). (When resolution is required), (2) When distance measurement needs to be completed in one exposure cycle even if the accuracy of detection of the distance measurement target in the entire viewing angle area becomes low (that is, every exposure cycle (high speed)) If you need more time resolution than spatial resolution, such as the need to repeat ranging within the entire viewing angle area),
(3) In the middle of the above cases (1) and (2), a case where moderate accuracy and speed are required to detect the distance measurement target within the entire viewing angle area.
(That is, if you need both spatial and temporal resolution.)

【0050】図3,4は上記(1),(2)の概念の説
明図である。この両図において、Vwはイメージセンサ
21,22が複数列からなる場合における、各列のイメ
ージセンサから捉える全視野角領域の全て(全列分)と
しての視界、Voは各列のイメージセンサから捉える全
視野角領域内の測距対象物が存在すると推定される一部
視野角領域の全て(全列分)からなる注目領域で、この
2つの領域Vw,Vo内の各点Pmは視界Vwや注目領
域Vo中に測距される各点としての測距点である。そし
て、注目領域Voにおける測距点Pmはイメージセンサ
の画素1点ずつに対応する最高の密度であり、この注目
領域Vo内の各点Pmの測距は露光周期毎に行われるも
のとする。
FIGS. 3 and 4 are illustrations of the concepts (1) and (2). In both figures, Vw is the field of view as the entire viewing angle region (all columns) captured from the image sensors of each column when the image sensors 21 and 22 are composed of a plurality of columns, and Vo is the field of view from the image sensors of each column. This is a region of interest consisting of all of the partial viewing angle regions (all columns) in which it is assumed that the object to be measured in the entire viewing angle region exists, and each point Pm in these two regions Vw and Vo has a field of view Vw. And distance measuring points as points measured in the attention area Vo. The distance measuring points Pm in the attention area Vo have the highest density corresponding to each pixel of the image sensor, and the distance measurement of each point Pm in the attention area Vo is performed for each exposure cycle.

【0051】図3は上記(1)の場合の測距の概念を示
し、視界Vwと注目領域Voでの測距点Pmの密度は同
様に高密度である。この場合、視界Vw領域の各点Pm
の測距は複数の露光周期を掛けて行われる。
FIG. 3 shows the concept of distance measurement in the above case (1), and the density of the distance measurement points Pm in the field of view Vw and the attention area Vo is similarly high. In this case, each point Pm in the field of view Vw
Is performed by multiplying a plurality of exposure cycles.

【0052】他方、図4は上記(2)の場合の測距の概
念を示し、視界Vwの領域の測距点Pmの密度は注目領
域Voでの測距点Pmの密度に比べ粗である。この場
合、視界Vw領域の各点Pmの測距は露光周期毎に行わ
れるが、この各点はイメージセンサの複数画素分に相当
し、この複数画素毎に1個の画素のデータを間引き又は
平均化によって求め、測距に用いる。以下では上記
(1),(2),(3)の各場合を、それぞれ発明の実
施の形態の1,2,3として説明する。
On the other hand, FIG. 4 shows the concept of distance measurement in the case of the above (2). The density of the distance measurement points Pm in the area of the field of view Vw is coarser than the density of the distance measurement points Pm in the attention area Vo. . In this case, the distance measurement of each point Pm in the field of view Vw is performed for each exposure cycle, but each point corresponds to a plurality of pixels of the image sensor, and data of one pixel is thinned out for each of the plurality of pixels. Determined by averaging and used for ranging. Hereinafter, each of the above cases (1), (2), and (3) will be described as embodiments 1, 2, and 3 of the present invention, respectively.

【0053】[0053]

【発明の実施の形態】(実施の形態1)先ず、全視野角
領域内の測距において、時間的分解能より空間的分解能
が必要な場合の実施の形態を説明する。本形態では視界
Vwから測距対象物が存在し得る注目領域Voを検出す
る処理(換言すれば、全視野角領域内から一部全視野角
領域を検出する処理)に複数露光周期(本例では4露光
周期)を掛け、全てのイメージセンサの画素データ(セ
ンサデータ)を使用し1画素の間隔で測距する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (Embodiment 1) First, an embodiment in which a spatial resolution is required rather than a temporal resolution in distance measurement in the entire viewing angle region will be described. In the present embodiment, a plurality of exposure cycles (in this example, a process of detecting a region of interest Vo where a distance measurement target may exist from the field of view Vw (in other words, a process of detecting a part of the entire viewing angle region from the entire viewing angle region)). In this case, the distance is measured at intervals of one pixel by using pixel data (sensor data) of all image sensors.

【0054】しかし、一部視野角領域内の測距には、そ
の一部分のセンサデータしか使用しないことで、測距に
用いるセンサデータ数を減らして測距時間を速め、1露
光周期毎に測距を行って測距対象の時間的変化を捉えや
すくする。この測距方式は全視野角領域内の測距にも精
度が必要で、かつ測距対象の高速な測距が必要な場合に
有効である。
However, only a part of the sensor data is used for the distance measurement in a part of the viewing angle area, so that the number of sensor data used for the distance measurement is reduced, the distance measurement time is shortened, and the distance is measured every exposure cycle. The distance is measured to make it easier to catch the temporal change of the object to be measured. This distance measurement method is effective when accuracy is required for distance measurement within the entire viewing angle range and when high-speed distance measurement of a distance measurement target is required.

【0055】以下では全視野角領域内の測距と一部視野
角領域内の測距を1つの距離検出手段で行う場合(実施
例1−1)と2つの距離検出手段がそれぞれを分担する
場合(実施例1−2)に分けて説明する。
In the following, the distance measurement in the entire viewing angle area and the distance measurement in the partial viewing angle area are performed by one distance detecting means (Embodiment 1-1), and the two distance detecting means share each other. A description will be given of each case (Example 1-2).

【0056】(実施例1−1)図1のデータ加工部10
0を100(111)としたものが、本実施例1−1に
おける測距演算装置の構成を示すブロック図である。こ
の図1の図15に対する相違点、又は補足すべき点を述
べると、21と22はそれぞれ並設された複数の個別の
イメージセンサ21a〜21nと22a〜22nからな
るイメージセンサで、以下ではこの1ライン(1本)ず
つの個別のイメージセンサをラインセンサとも呼んで区
別する。なお、ラインセンサ上の光センサ(画素)の配
列をセンサラインともいう。ここで、ラインセンサ21
aと22a、・・・、21nと22nはそれぞれ対にな
っている。
(Embodiment 1-1) The data processing unit 10 shown in FIG.
FIG. 1 is a block diagram showing a configuration of the distance measurement arithmetic device according to the embodiment 1-1, where 0 is set to 100 (111). The difference between FIG. 1 and FIG. 15 or points to be supplemented is described below. Reference numerals 21 and 22 denote image sensors composed of a plurality of individual image sensors 21a to 21n and 22a to 22n, respectively. Individual image sensors for one line (one line) are also referred to as line sensors for distinction. Note that the arrangement of the optical sensors (pixels) on the line sensor is also called a sensor line. Here, the line sensor 21
a and 22a,..., 21n and 22n are each a pair.

【0057】また、26は、対のラインセンサを同時に
1対ずつ順次選択し、露光周期ごとに全てのラインセン
サ21a〜21n及び22a〜22nを選択することを
繰り返すラインセンサセレクタである。
A line sensor selector 26 repeatedly selects one pair of line sensors at a time and sequentially selects all the line sensors 21a to 21n and 22a to 22n for each exposure cycle.

【0058】なお、各ラインセンサは本例では1024
個の画素(光センサ)からなるものとし、各画素の受光
量(画素データ,センサデータ,映像データ,光強度デ
ータ)は、対のラインセンサ上の対となる当該画素同士
の視野の方向が一致するように、ラインセンサの一端か
ら他端(本例では右端から左端)へ向かいクロックに同
期して順次転送され、セレクタ26,増幅器23を経て
A/D変換器24に入る。
Each line sensor is 1024 in this example.
The number of pixels (optical sensors) and the amount of received light (pixel data, sensor data, video data, and light intensity data) of each pixel is determined by the direction of the field of view of the paired pixels on a pair of line sensors. In order to match, the line sensor is sequentially transferred from one end to the other end (in this example, from the right end to the left end) in synchronization with the clock, and enters the A / D converter 24 via the selector 26 and the amplifier 23.

【0059】そしてA/D変換器24により1画素分ず
つ8ビットのデジタルデータに変換され、1画素分のメ
モリ25を経て露光センサデータS20として次段のデ
ータ加工部100に送られる。
Then, the data is converted into 8-bit digital data for each pixel by the A / D converter 24 and sent to the next stage data processing unit 100 as exposure sensor data S20 via the memory 25 for one pixel.

【0060】従って、イメージセンサ21,22内の全
てのセンサデータは露光周期ごとにデータ加工部100
に送られることになる。なお、図1では21〜26の各
手段を一括して受光手段20Aと呼ぶ。
Accordingly, all the sensor data in the image sensors 21 and 22 are stored in the data processing section 100 every exposure cycle.
Will be sent to In FIG. 1, the units 21 to 26 are collectively referred to as a light receiving unit 20A.

【0061】データ加工部100(111、後述の12
1,131も同様)は、イメージセンサ側から入力した
露光センサデータS20に対して、全視野角領域測距モ
ード,一部視野角領域測距モードのモード別に、後述の
ように当該データ加工部100の種類(111〜13
1)に応じた加工を施し、加工済センサデータS100
として距離検出部70に送る。
The data processing unit 100 (111, 12
1 and 131) for the exposure sensor data S20 input from the image sensor side, according to the full viewing angle area ranging mode and the partial viewing angle area ranging mode, as described later. 100 types (111-13
Processing according to 1) is performed, and processed sensor data S100
Is sent to the distance detection unit 70.

【0062】距離検出部70は、図15に示された距離
検出手段70と基本的には同構成であるが、本実施例1
−1(なお、後述の実施例2−1,3−1でも同様)で
は、最低一部視野角領域内を測距するに必要な、この例
では対のラインセンサに対応する256バイトずつの対
のセンサデータ(画素データ,映像データ)D1,D2
をそれぞれ格納するセンサデータメモリ71と、1画素
の間隔で図16に示す視野部分DP1,DP2の設定が
できる(従って1画素間隔で視野方向毎の測距ができ
る)ように多数の並行動作する単位距離検出回路72か
らなる距離検出回路72Sとを備えるものとする。
The distance detecting section 70 has basically the same configuration as the distance detecting means 70 shown in FIG.
-1 (the same applies to later-described embodiments 2-1 and 3-1), a distance of at least 256 bytes corresponding to a pair of line sensors is required to measure the distance in at least a part of the viewing angle area. Pair of sensor data (pixel data, video data) D1, D2
And a plurality of parallel operations so that the visual field portions DP1 and DP2 shown in FIG. 16 can be set at intervals of one pixel (thus, distance measurement can be performed for each visual field direction at an interval of one pixel). And a distance detection circuit 72S including a unit distance detection circuit 72.

【0063】そして距離検出部70は、本実施例1−1
(後述の実施例2−1,3−1も同様)では、データ加
工部100から送出される全視野角領域分又は一部視野
角領域分の加工済センサデータS100(S100V又
はS100A)に応じ、それぞれ当該センサデータS1
00を用いた測距演算により全視野角領域内又は一部視
野角領域内の視野方向毎の距離を検出し、それぞれ距離
データS70(S70V又はS70A)として出力す
る。
Then, the distance detecting unit 70 according to the present embodiment 1-1
In the later-described embodiments 2-1 and 3-1 as well, according to the processed sensor data S100 (S100V or S100A) corresponding to the entire viewing angle region or the partial viewing angle region transmitted from the data processing unit 100. , Respectively, the sensor data S1
The distance for each viewing direction within the entire viewing angle area or a part of the viewing angle area is detected by distance measurement using 00, and is output as distance data S70 (S70V or S70A).

【0064】90Aはプロセッサからなる測距対象抽出
部で、全視野角領域測距モードでは距離検出部70から
1又は複数(本実施例1−1では4つ、なお後述の実施
例2−1では1つ、実施例3−1では2つ)の露光周期
にわたり出力される、全視野角領域分の距離データS7
0Vから詳しく見たい部分、つまり実際に測距すペき対
象(例えば自車の走行する道路の前方にある車のうち最
も至近距離にある車)が存在すると推定される一部視野
角領域の位置(方向)を検出し、測距対象位置情報S9
0Fとしてデータ加工部100へ知らせる。
Numeral 90A denotes a distance measuring object extracting unit comprising a processor. In the full viewing angle area distance measuring mode, one or more distance detecting units 70 (four in the present embodiment 1-1, and four in the later-described embodiment 2-1). In this case, one distance data S7 is output over the exposure cycle of Example 3-1.
A part to be viewed in detail from 0V, that is, a part of the viewing angle area where it is estimated that there is an object to be actually measured (for example, a car located closest to the road ahead of the road on which the vehicle runs) The position (direction) is detected, and distance measurement target position information S9 is detected.
Notify to the data processing unit 100 as 0F.

【0065】また、本実施例1−1(なお、後述の実施
例2−1,3−1も同様)では測距対象抽出部90Aは
データ加工部100に対しこの他、全視野角領域測距モ
ードと一部視野角領域測距モードの切替え指令も送るも
のとする。
In the embodiment 1-1 (the same applies to the embodiments 2-1 and 3-1 to be described later), the distance measuring object extracting unit 90A sends the data processing unit 100 a full view angle area measurement. A command to switch between the distance mode and the partial viewing angle area distance measurement mode is also sent.

【0066】また測距対象抽出部90Aは、一部視野角
領域測距モードでは距離検出部70から1露光周期毎に
出力される一部視野角領域分の距離データS70Aから
測距対象の距離を検出し測距対象距離データS90とし
て(例えば運転者もしくは自動車の制御部へ)出力す
る。
In the partial-viewing-angle area ranging mode, the distance-measuring target extracting section 90A calculates the distance to be measured from the distance data S70A for the partial viewing-angle area output from the distance detecting section 70 for each exposure cycle. And outputs it as distance measurement target distance data S90 (for example, to a driver or a control unit of an automobile).

【0067】図5は本実施例において、図1の各手段間
を流れるデータとその切換わり状況の概略を示す。図7
は本実施例1−1におけるデータ加工部100(11
1)の構成と、その入出力センサデータである露光セン
サデータS20と加工済センサデータS100の流れの
例を示す。データ加工部100は測距対象抽出部90A
よりの指示に従って、全視野角領域測距モードと一部視
野角領域測距モードとで出力する加工済センサデータS
100をそれぞれS100VとS100Aに切り換え
る。
FIG. 5 schematically shows the data flowing between the means of FIG. 1 and the switching status thereof in this embodiment. FIG.
Is the data processing unit 100 (11
The configuration of 1) and an example of the flow of exposure sensor data S20 and processed sensor data S100, which are input / output sensor data, are shown. The data processing unit 100 includes a distance measurement target extraction unit 90A.
Processed sensor data S output in the full viewing angle area ranging mode and the partial viewing angle area ranging mode in accordance with the above instruction.
100 is switched to S100V and S100A, respectively.

【0068】なお、図7(なお、図8〜図12も同様)
において、広幅矢印で示されるデータ加工部100の入
出力センサデータの、矢印内に記された#1〜#12の
番号は、説明の便宜上、そのセンサデータがイメージセ
ンサ21または22の露光によって取得されたのち、デ
ータ加工部100に入力するときの露光周期の番号を意
味するものとし、また、矢印の長さの尺度Tは1露光周
期分に相当するものとする。
FIG. 7 (the same applies to FIGS. 8 to 12).
In the input / output sensor data of the data processing unit 100 indicated by the wide arrow, the numbers # 1 to # 12 described in the arrows are acquired by exposing the image sensor 21 or 22 for convenience of explanation. After that, it means the number of the exposure cycle when inputting to the data processing unit 100, and the scale T of the length of the arrow corresponds to one exposure cycle.

【0069】本例ではイメージセンサ21又は22は、
各ラインセンサ1ライン当たり1024画素で構成され
ており、1画素分のデータはデジタル値1バイトで表現
される。ここで、イメージセンサ21,22のラインセ
ンサの対数をm対とすると、イメージセンサ21,22
からはそれぞれT/1024×m秒ごとに対の各1画素
分の1バイトデータが出力され、よってT/m秒毎にラ
インセンサの1対のセンサデータが送信され、イメージ
センサ21又は22の全センサデータとしてのラインセ
ンサm対分の送信はT秒で終了し、T秒毎に新しく露光
した全センサデータ(m対)がS20としてデータ加工
部100へ送信されることになる。
In this example, the image sensor 21 or 22
Each line sensor is composed of 1024 pixels per line, and data of one pixel is represented by one byte of digital value. Here, assuming that the logarithm of the line sensors of the image sensors 21 and 22 is m, the image sensors 21 and 22
Outputs one byte of data for each pixel of the pair every T / 1024 × m seconds, so that one pair of sensor data of the line sensor is transmitted every T / m seconds. The transmission for m pairs of line sensors as all sensor data ends in T seconds, and every sensor data (m pairs) newly exposed every T seconds is transmitted to the data processing unit 100 as S20.

【0070】距離検出部70内の計算機能部分である距
離検出回路72SはT/m秒ごとに、256画素分の対
のセンサデータを用いた距離計算処理能力しかなく、対
のセンサデータメモリ71の容量も各々256バイトで
あり、距離検出部70はデータ加工部100からはT/
m秒間にlラインセンサ当たり256画素分の対の加工
済センサデータS100しか受け取らないものとする。
The distance detection circuit 72S, which is a calculation function part in the distance detection unit 70, has only a distance calculation processing capability using a pair of sensor data of 256 pixels every T / m seconds. Are 256 bytes each, and the distance detection unit 70 sends a T /
It is assumed that only processed sensor data S100 corresponding to 256 pixels per 1 line sensor is received in m seconds.

【0071】図7では、全視野角領域測距モードでは、
測距対象抽出部90Aの指令により、データ加工部11
1は、露光周期#1にイメージセンサ21,22から到
来したラインセンサ1ライン当たり1024バイト分の
m対の露光センサデータS20を一旦メモリ101に格
納し、このメモリ101から露光周期#1〜#4の間、
T秒毎に画素配列のアドレス順に、ラインセンサ1ライ
ン当たり256バイトずつのm対のセンサデータを取り
出し、加工済センサデータS100Vとして送出するこ
とを4露光周期繰り返し、計4T秒かけて全視野角分の
センサデータS100Vを距離検出部70に送信する。
よって露光周期#2〜#4の間、イメージセンサ21,
22からデータ加工部111に到来する露光センサデー
タS20は無視されることになる。
In FIG. 7, in the entire viewing angle area ranging mode,
The data processing unit 11 receives a command from the distance measurement target extraction unit 90A.
1 temporarily stores m pairs of exposure sensor data S20 of 1024 bytes per line sensor line from the image sensors 21 and 22 in the exposure period # 1 in the memory 101, and stores the exposure periods # 1 to # During four,
Taking out m pairs of sensor data of 256 bytes per line sensor line in the order of the address of the pixel array every T seconds and sending it as processed sensor data S100V are repeated for four exposure cycles, and the total viewing angle takes a total of 4T seconds The minute sensor data S100V is transmitted to the distance detection unit 70.
Therefore, during the exposure cycles # 2 to # 4, the image sensors 21 and
Exposure sensor data S20 arriving at data processing unit 111 from 22 will be ignored.

【0072】距離検出部70は、データ加工部111か
ら送信されるラインセンサ1ライン当たり256バイト
分の対のセンサデータS100Vを受信するつど、その
256バイト分の視野角内の測距を行い、測距データを
全視野角分の距離データS70Vとして測距対象抽出部
90Aに送る。
Whenever the pair of sensor data S100V of 256 bytes per line sensor transmitted from the data processing unit 111 is received from the data processing unit 111, the distance detecting unit 70 measures the distance within the viewing angle of 256 bytes. The distance measurement data is sent to the distance measurement target extraction unit 90A as distance data S70V for all viewing angles.

【0073】これにより、測距対象抽出部90Aは計4
T秒の間に受け取る全視野角分距離データS70Vから
測距対象物が存在すると推定される一部の視野角の位置
(方向)を検出し、露光周期#4中にその位置を測距対
象位置情報S90Fとしてデータ加工部111の通信部
105に伝える。
As a result, the distance measurement target extraction unit 90A has a total of four
The position (direction) of a part of the viewing angle at which the object to be measured is estimated to be present is detected from the distance data S70V for all viewing angles received during T seconds, and the position is detected during the exposure period # 4. The position information is transmitted to the communication unit 105 of the data processing unit 111 as position information S90F.

【0074】いま、測距対象抽出部90Aが、距離検出
部70から入力した全視野角分距離データS70Vか
ら、仮に或るラインセンサの1ライン1024個の画素
中の256番目の画素を中心に対象物が写っていること
を検出したとすると、この中心画素の番号を測距対象位
置情報S90Fとしてデータ加工部100に送信する。
Now, based on the distance data S70V for all viewing angles input from the distance detection unit 70, the distance measurement target extraction unit 90A temporarily sets the 256th pixel out of 1024 pixels per line of a certain line sensor as the center. If it is detected that an object is captured, the center pixel number is transmitted to the data processing unit 100 as distance measurement target position information S90F.

【0075】これによりデータ加工部111は一部視野
角領域測距モードの動作に移り、続く露光周期#5〜#
8の間は露光周期T秒毎に、イメージセンサから入力し
た露光センサデータS20内の測距対象位置情報S90
Fによって指定された位置にあるラインセンサ1ライン
当たり256バイトの対のセンサデータのm対分(前記
の例では当該のラインセンサについては画素256番目
を中心に256バイト分、具体的には128番目から3
83番目までの画素のデータ)を取り出し一部視野角分
センサデータS100Aとして距離検出部70へ送信す
ることを繰り返す。
As a result, the data processing section 111 shifts to the operation in the partial viewing angle area ranging mode, and the subsequent exposure periods # 5 to #
During the exposure period 8, the distance measurement target position information S90 in the exposure sensor data S20 input from the image sensor is set every exposure cycle T seconds.
M pairs of sensor data of 256 bytes per line sensor line at the position designated by F (in the above example, 256 bytes around the 256th pixel of the line sensor, specifically 128 From the third
The process of extracting the data of the pixels up to the 83rd pixel) and transmitting it to the distance detecting unit 70 as partial viewing angle sensor data S100A is repeated.

【0076】このように露光周期#5〜#8の間の一部
視野角分データS100Aの4回の送信が行われると、
再び露光周期#9から次回の全視野角領域測距モードの
動作に移行する。
As described above, when the partial viewing angle data S100A is transmitted four times during the exposure periods # 5 to # 8,
The operation shifts again from the exposure cycle # 9 to the next operation in the full viewing angle area ranging mode.

【0077】データ加工部111は、その構成手段とし
て図7に示すように、全視野角領域分の1露光周期分の
露光センサデータS20(本例ではラインセンサ1ライ
ン当たり1024バイトのm対分)を距離検出部70へ
送信する間、記憶するためのメモリ101と、露光周期
T/m毎の距離検出部70への送信データ(本例では2
56バイトの1対分ずつ)の領域指定のためにそのメモ
リ101のアドレスを制御するための制御部103と、
一部視野角領域測距モードの場合に、イメージセンサか
らT/m秒毎に到来する、ラインセンサ1ライン当たり
1024バイトの1対分ずつの露光センサデータS20
内の測距対象物の存在し得る一部視野角領域の位置のセ
ンサデータ(前記の例では当該ラインセンサについては
128番画素〜383番画素のデータ)だけを選択して
出力するための選択器102と、メモリ101からの出
力と選択器102からの出力を測距モード毎に切替える
ための切替え器104と、測距対象抽出部90Aから一
部視野角領域としてどの視野方向を見るかの指示として
の測距対象位置情報S90F等を受け取るための通信部
105等によって構成される。
As shown in FIG. 7, the data processing section 111 includes exposure sensor data S20 for one exposure cycle for the entire viewing angle region (in this example, m pairs of 1024 bytes per line sensor). ) Is transmitted to the distance detection unit 70, and transmission data (2 in this example) to the distance detection unit 70 for each exposure cycle T / m is stored.
A control unit 103 for controlling an address of the memory 101 to specify an area of (each pair of 56 bytes);
In the case of the partial view angle area ranging mode, 1024 bytes of exposure sensor data S20 arrived from the image sensor every T / m seconds, which is 1024 bytes per line sensor line.
Selection for selecting and outputting only sensor data (in the above example, data of the 128th pixel to 383th pixel for the line sensor in the above example) at the position of the partial viewing angle area where the object to be measured may exist. Device 102, a switch 104 for switching the output from the memory 101 and the output from the selector 102 for each ranging mode, and determining which viewing direction is to be viewed as a partial viewing angle region from the ranging object extraction unit 90A. The communication unit 105 is configured to receive distance measurement target position information S90F and the like as an instruction.

【0078】(実施例1−2)図2のデータ加工部10
0を100(112)としたものが、本実施例1−2に
おける測距演算装置の構成を示すブロック図である。図
2においては距離検出部を70Vと70Aの2つ並列に
設け、図1の距離検出部70の全視野角領域の測距の機
能を70Vに、一部視野角領域の測距の機能を70Aに
それぞれ分担させるようにし、測距演算の高速化を計っ
たものである。
(Embodiment 1-2) The data processing unit 10 shown in FIG.
FIG. 1 is a block diagram showing a configuration of the distance measurement arithmetic device according to the embodiment 1-2, where 0 is set to 100 (112). In FIG. 2, two distance detection units 70V and 70A are provided in parallel, and the distance measurement function of the distance detection unit 70 of FIG. 70A is assigned to each of them, thereby speeding up the distance measurement calculation.

【0079】なお、この実施例1−2でも(なお、実施
例2−2,3−2でも同様)、距離検出部70Vと70
Aの構成を実施例1−1で述べた距離検出部70の構成
と同じとする。
In the embodiment 1-2 (the same applies to the embodiments 2-2 and 3-2), the distance detectors 70V and 70V
The configuration of A is the same as the configuration of the distance detection unit 70 described in the embodiment 1-1.

【0080】図6は本実施例1−2において図2の各手
段間を流れるデータの概略を示す。但し図6では一部視
野角領域内の測距を分担する距離検出部70Aを複数設
け、測距対象物が存在し得る一部視野角領域が複数ある
場合にも、それぞれの一部視野角領域内の測距を距離検
出部70A1,70A2・・・によって分担できるよう
した例を示す。
FIG. 6 shows an outline of data flowing between the units shown in FIG. 2 in the embodiment 1-2. However, in FIG. 6, a plurality of distance detection units 70 </ b> A sharing distance measurement in a partial viewing angle region are provided, and even when there are a plurality of partial viewing angle regions where a distance measurement target can exist, each partial viewing angle An example in which the distance measurement in the area can be shared by the distance detection units 70A1, 70A2,.

【0081】図6では図5のように距離検出部の測距モ
ードを全視野角領域と一部視野角領域に切り換える必要
がないので、流れるデータにも測距モード別の切替えは
生じない。
In FIG. 6, there is no need to switch the distance measuring mode of the distance detecting section between the full viewing angle area and a part of the viewing angle area as shown in FIG. 5, so that there is no switching of flowing data depending on the distance measuring mode.

【0082】図8は本実施例1−2におけるデータ加工
部112の構成とその入出力センサデータS20,S1
00の流れの例を示す。本例ではデータ加工部112
は、距離検出部70Vに対しては、露光周期#1にメモ
リ101へ取り込んだイメージセンサからのラインセン
サ1ライン当たり1024バイトのm対の露光センサデ
ータS20を、露光周期#1〜#4までの間、画素配列
順に1露光周期毎にラインセンサ1ライン当たり256
バイトのm対ずつのセンサデータに分割し、計4露光周
期(4T秒)かけて、全視野角分の加工済センサデータ
S100Vとして送り、露光周期#5〜#8に再び、つ
まり4露光周期ごとに同様な動作を繰り返す。
FIG. 8 shows the structure of the data processing unit 112 and its input / output sensor data S20 and S1 in the embodiment 1-2.
An example of the flow of 00 is shown. In this example, the data processing unit 112
In the distance detection unit 70V, m pairs of exposure sensor data S20 of 1024 bytes per line sensor line from the image sensor taken into the memory 101 in the exposure cycle # 1 are stored in the exposure cycle # 1 to the exposure cycles # 1 to # 4. , 256 pixels per line sensor per exposure cycle in the pixel array order.
The sensor data is divided into m pairs of sensor data of bytes and sent as processed sensor data S100V for the entire viewing angle over a total of 4 exposure cycles (4T seconds), and again to exposure cycles # 5 to # 8, ie, 4 exposure cycles The same operation is repeated every time.

【0083】また、距離検出部70Vは256バイトの
1対の加工済センサデータS100Vを受信するつど、
直ちにその受信データについての測距を行い、その測距
結果を全視野角分の距離データS70Vとして測距対象
抽出部90Aに送る。
Whenever the distance detecting section 70V receives a pair of processed sensor data S100V of 256 bytes,
Immediately, distance measurement is performed on the received data, and the distance measurement result is sent to the distance measurement target extraction unit 90A as distance data S70V for all viewing angles.

【0084】測距対象抽出部90Aは4露光周期分の全
ての全視野角分距離データS70Vから直ちに測距対象
物の存在位置を検出し、4露光周期毎の露光周期#4,
#8,・・・中にデータ加工部112へ測距対象位置情
報S90Fを送信する。
The distance measuring object extraction unit 90A immediately detects the position of the object to be measured from all the viewing angle distance data S70V for the four exposure cycles, and determines the exposure cycle # 4 for every four exposure cycles.
The distance measurement target position information S90F is transmitted to the data processing unit 112 during # 8,.

【0085】従って、データ加工部112は、距離検出
部70Aに対しては、露光周期#1〜#4の間は、露光
周期毎に入力するラインセンサ1ライン当たり1024
バイトのm対の露光センサデータS20の内、図外の露
光周期#0においてデータ加工部112へ送信された測
距対象位置情報S90Fによって指定された位置にあ
る、ラインセンサ1ライン当たり256バイトのm対の
センサデータをそれぞれ当該の1露光周期#1,#2,
・・・#4毎に一部視野角分の加工済センサデータS1
00Aとして送信する。
Therefore, the data processing unit 112 supplies the distance detection unit 70A with 1024 signals per line sensor input for each exposure cycle during the exposure cycles # 1 to # 4.
Of the m pairs of byte exposure sensor data S20, 256 bytes per line sensor line at the position specified by the distance measurement target position information S90F transmitted to the data processing unit 112 in the exposure cycle # 0 (not shown). The m pairs of sensor data are respectively assigned to the respective one exposure periods # 1, # 2,
... Processed sensor data S1 for a part of the viewing angle every # 4
Transmit as 00A.

【0086】同様に露光周期#5〜#8の間は、露光周
期#4においてデータ加工部112へ送信された測距対
象位置情報S90Fによって指定された位置にある、一
部視野角分の加工済センサデータS100Aを各露光周
期#5,#6,・・・#8毎に送信するというように、
4露光周期毎に、新たな測距対象位置情報S90Fによ
って指定される位置の加工済センサデータS100Aの
送信に切り換えることを繰り返す。
Similarly, during exposure periods # 5 to # 8, processing for a part of the viewing angle at the position designated by distance measurement target position information S90F transmitted to data processing unit 112 in exposure period # 4. ... # 8 for each of the exposure cycles # 5, # 6,.
The switching to the transmission of the processed sensor data S100A at the position designated by the new distance measurement target position information S90F is repeated every four exposure cycles.

【0087】このようにして、実施例1−1では組とな
る全視野角領域の測距及び一部視野角領域の測距が8露
光周期ごとに繰り返されたのに対し、実施例1−2では
4露光周期ごとに繰り返され、時間的分解能が2倍にな
っている。なお、図8におけるデータ加工部112の構
成については、図7から切替器104をは省いた構成と
なる。
As described above, in the embodiment 1-1, the distance measurement of the entire viewing angle region and the distance measurement of the partial viewing angle region are repeated every eight exposure cycles. In the case of 2, it is repeated every four exposure cycles, and the temporal resolution is doubled. Note that the configuration of the data processing unit 112 in FIG. 8 is a configuration in which the switch 104 is omitted from FIG.

【0088】(実施の形態2)次に、全視野角領域内の
測距において、空間的分解能より時間的分解能が必要な
場合の実施の形態を説明する。本形態では視界Vwから
測距対象物が存在し得る注目領域Voを検出する処理
(換言すれば、全視野角領域内から一部全視野角領域を
検出する処理)を1露光周期に(つまり最高速で)行
う。
(Embodiment 2) Next, an embodiment in a case where a temporal resolution is required rather than a spatial resolution in distance measurement in the entire viewing angle region will be described. In the present embodiment, the process of detecting a region of interest Vo where a distance measurement target may exist from the field of view Vw (in other words, the process of detecting a part of the entire viewing angle region from the entire viewing angle region) is performed in one exposure cycle (that is, At the highest speed).

【0089】このため、全視野角領域内の測距には露光
周期毎に出力されるイメージセンサのラインごとのセン
サデータ列から一定の個数間引いたセンサデータ、もし
くは一定の個数ずつ平均したセンサデータを使用するこ
とで、測距に用いるセンサデータ数を減らして計算負荷
を軽減する。但し一部視野角領域内の測距には間引いて
いないセンサデータを使用する。
For this reason, in the distance measurement in the entire viewing angle area, a fixed number of sensor data, or a fixed number of sensor data averaged out from a sensor data string for each line of the image sensor output for each exposure cycle, is used. Is used, the number of sensor data used for distance measurement is reduced, and the calculation load is reduced. However, sensor data that is not thinned out is used for distance measurement in a part of the viewing angle area.

【0090】以下では全視野角領域内の測距と一部視野
角領域内の測距を1つの距離検出手段で行う場合(実施
例2−1)と2つの距離検出手段がそれぞれを分担する
場合(実施例2−2)に分けて説明する。
In the following, the case where the distance measurement in the entire viewing angle region and the distance measurement in the partial viewing angle region are performed by one distance detecting means (Embodiment 2-1) and the two distance detecting means share each other. A description will be given separately for the case (Example 2-2).

【0091】(実施例2−1)図1のデータ加工部10
0を100(121)としたものが、本実施例2−1に
おける測距演算装置の構成を示すブロック図である。図
5は本実施例においても同様に当てはまる。
(Embodiment 2-1) Data processing unit 10 in FIG.
FIG. 2 is a block diagram showing a configuration of the distance measurement arithmetic device according to the embodiment 2-1 where 0 is set to 100 (121). FIG. 5 similarly applies to this embodiment.

【0092】図9は本実施例2−1におけるデータ加工
部121の構成とその入出力センサデータS20,S1
00の流れの例を示す。本例ではデータ加工部121は
全視野角領域内の測距の場合、露光周期毎に出力される
イメージセンサ21,22からのラインセンサの1ライ
ン毎1024バイトのm対の露光センサデータS20の
各列のセンサデータの各1ライン上において、順に並ぶ
4画素分のデータ4バイトずつを、それぞれ平均し1バ
イトずつのセンサデータに変換する。
FIG. 9 shows the structure of the data processing unit 121 and its input / output sensor data S20 and S1 in the embodiment 2-1.
An example of the flow of 00 is shown. In this example, the data processing unit 121 outputs m pairs of exposure sensor data S20 of 1024 bytes for each line of the line sensor from the image sensors 21 and 22 output for each exposure cycle in the case of distance measurement within the entire viewing angle area. On each line of the sensor data in each column, four bytes of data of four pixels arranged in order are averaged and converted into sensor data of one byte.

【0093】(なお、4画素分のデータ4バイトずつを
1バイトずつに変換する方法としては、この他、単に元
の1画素間隔の画素データ列を間引いて4画素間隔の画
素データのみを取出す方法も考えられる。)結果として
全視野角領域の測距に用いる画素データはラインセンサ
1ライン毎256バイトになるので、データ加工部12
1はT/m秒毎にラインセンサ1ライン毎256バイト
の1対ずつ、1露光周期に全m対分を、図9の黒く塗り
込まれた広幅矢印のような平均全視野角分センサデータ
S100Vmとして距離検出部70に送信する。
(Note that, as a method of converting 4 bytes of data for 4 pixels into 1 byte, other than that, the original pixel data string of 1 pixel interval is simply decimated to extract only pixel data of 4 pixel intervals. As a result, the pixel data used for distance measurement in the entire viewing angle area is 256 bytes for each line of the line sensor.
1 is a line sensor for every T / m second, 256 bytes per line, one pair for all m pairs in one exposure cycle, and the average full view angle sensor data as shown by the black wide arrows in FIG. The data is transmitted to the distance detection unit 70 as S100Vm.

【0094】本例では露光周期#1にデータ加工部12
1に入力された露光センサデータS20が上記のように
直ちに加工されて、露光周期#1内に平均全視野角分セ
ンサデータS100Vmとして距離検出部70に送ら
れ、距離検出部70は、このセンサデータS100Vm
を用いた測距結果から、この露光周期#1内に測距対象
位置情報S90Fをデータ加工部100へ送る。
In this example, the data processing section 12 is set to the exposure cycle # 1.
1 is immediately processed as described above, and sent to the distance detecting section 70 as the average full viewing angle sensor data S100Vm within the exposure period # 1, and the distance detecting section 70 Data S100Vm
The distance measurement target position information S90F is sent to the data processing unit 100 within this exposure cycle # 1 based on the distance measurement result using

【0095】これによりデータ加工部121は、イメー
ジセンサから入力する続く3つの露光周期#2,#3,
#4にそれぞれ到来するラインセンサ1ライン毎102
4バイトのm対の露光センサデータS20内の、露光周
期#1内に測距対象位置情報S90Fにより指定された
位置にあるラインセンサ1ライン毎256バイトのm対
の一部視野角分センサデータS100Aを距離検出部7
0へ送る。
As a result, the data processing unit 121 performs the following three exposure cycles # 2, # 3,
102 for each line sensor line arriving at # 4
In the 4-byte m pairs of exposure sensor data S20, 256 bytes of m pairs of partial view angle sensor data for each line sensor at a position designated by the distance measurement target position information S90F within the exposure cycle # 1 in the exposure cycle # 1 S100A is the distance detector 7
Send to 0.

【0096】データ加工部121は、以後の露光周期#
5〜#8の露光センサデータS20にも、それぞれ露光
周期#1〜#4の露光センサデータS20と同様な処理
を繰り返す。
The data processing section 121 performs the following exposure cycle #
The same processing as the exposure sensor data S20 of the exposure periods # 1 to # 4 is repeated for the exposure sensor data S20 of the fifth to # 8, respectively.

【0097】この場合のデータ加工部121の構成とし
ては、図7のメモリ101が、全視野角領域内の測距の
場合に前記平均全視野角分センサデータS100Vmを
作るための、図外の加算器と1バイト分もしくは4バイ
ト分のレジスタとによって実現できる平均回路106に
置き換わった構成となる。
The configuration of the data processing unit 121 in this case is as follows. The memory 101 in FIG. 7 is used to generate the average full-viewing-angle sensor data S100Vm in the case of distance measurement in the entire viewing-angle area. The configuration is such that the averaging circuit 106 can be realized by an adder and a register for one byte or four bytes.

【0098】(実施例2−2)図2のデータ加工部10
0を100(122)としたものが、本実施例2−2に
おける測距演算装置の構成を示すブロック図である。図
6は本実施例においても同様に当てはまる。
(Embodiment 2-2) Data processing unit 10 in FIG.
FIG. 2 is a block diagram showing the configuration of the distance measurement arithmetic device according to the embodiment 2-2 where 0 is set to 100 (122). FIG. 6 similarly applies to this embodiment.

【0099】図10は本実施例2−2におけるデータ加
工部122の構成とその入出力センサデータS20,S
100の流れの例を示す。本例ではデータ加工部122
は、全視野角領域分担の距離検出部70Vに対しては、
露光周期#1,#2,#3,・・・の各露光センサデー
タS20を実施例2−1の露光周期#1,#5,・・・
の各露光センサデータS20と同様に加工してラインセ
ンサ1ライン毎256バイトのm対の平均全視野角分セ
ンサデータS100Vmとして送り、距離検出部70V
はこの送信されたセンサデータS100Vmを用いた測
距結果により、各当該の露光周期#1,#2,#3,・
・・内に測距対象位置情報S90Fをデータ加工部10
0に送る。
FIG. 10 shows the structure of the data processing unit 122 and its input / output sensor data S20 and S20 in the embodiment 2-2.
100 shows an example of the flow. In this example, the data processing unit 122
Is for the distance detection unit 70V that is responsible for all viewing angle areas.
The exposure sensor data S20 of the exposure periods # 1, # 2, # 3,...
Is processed in the same manner as the respective exposure sensor data S20, and is sent as sensor data S100Vm for the average total viewing angle of m pairs of 256 bytes for each line of the line sensor.
, Based on the distance measurement result using the transmitted sensor data S100Vm, the respective exposure periods # 1, # 2, # 3,.
..Distance measurement target position information S90F in data processing unit 10
Send to 0.

【0100】これにより、データ加工部122は、各露
光周期#2,#3,#4,・・・毎のラインセンサ1ラ
イン毎1024バイトのm対の入力センサデータS20
内の、それぞれ1つ前の露光周期#1,#2,#3内に
測距対象位置情報S90Fで指定された位置にあるライ
ンセンサ1ライン毎256バイトのm対を、一部視野角
分センサデータS100Aとして距離検出部70Aに送
る。この場合のデータ加工部122の構成としては、図
8のメモリ101が、図9と同様な平均回路106に置
き換わった構成となる。
Thus, the data processing unit 122 outputs m pairs of input sensor data S20 of 1024 bytes per line sensor for each of the exposure cycles # 2, # 3, # 4,.
The m pairs of 256 bytes for each line sensor at the position specified by the distance measurement target position information S90F in the immediately preceding exposure periods # 1, # 2, and # 3 are partially divided by the viewing angle. The data is sent to the distance detection unit 70A as sensor data S100A. In this case, the configuration of the data processing unit 122 is such that the memory 101 in FIG. 8 is replaced with an averaging circuit 106 similar to that in FIG.

【0101】(実施の形態3)次に、全視野角領域内の
測距において、ある程度の時間的分解能も空間的分解能
も必要な場合の実施の形態を説明する。本形態では、例
えば視界Vwから測距対象物が存在し得る注目領域Vo
を検出する処理(換言すれば、全視野角領域内から一部
全視野角領域を検出する処理)の露光周期の数を実施の
形態1と2の中間で(本例では2露光周期毎に)、また
画素の間引き又は平均化する間隔も実施の形態1と2の
中間で(本例では2画素間隔で)行う。但し一部視野角
領域内の測距には間引いていないセンサデータを使用す
る。
(Embodiment 3) Next, an embodiment in which a certain degree of temporal resolution and spatial resolution are required for distance measurement in the entire viewing angle region will be described. In the present embodiment, for example, the attention area Vo in which the distance measurement target may exist from the field of view Vw
(In other words, the process of detecting a part of the entire viewing angle area from within the entire viewing angle area) is set between the first and second embodiments (in this example, every two exposure cycles). In addition, the intervals for thinning out or averaging pixels are also intermediate between the first and second embodiments (in this example, at intervals of two pixels). However, sensor data that is not thinned out is used for distance measurement in a part of the viewing angle area.

【0102】以下でも全視野角領域の測距と一部視野角
領域の測距を1つの距離検出手段で行う場合(実施例3
−1)と2つの距離検出手段がそれぞれを分担する場合
(実施例3−2)に分けて説明する。
In the following, the distance measurement in the entire viewing angle region and the distance measurement in the partial viewing angle region are performed by one distance detecting means (third embodiment).
-1) and a case where the two distance detecting means share each (Example 3-2).

【0103】(実施例3−1)図1のデータ加工部10
0を100(131)としたものが、本実施例3−1に
おける測距演算装置の構成を示すブロック図である。図
5は本実施例においても同様に当てはまる。
(Embodiment 3-1) Data processing unit 10 in FIG.
A case where 0 is set to 100 (131) is a block diagram showing a configuration of the distance measurement arithmetic device in the embodiment 3-1. FIG. 5 similarly applies to this embodiment.

【0104】図11は本実施例3−1におけるデータ加
工部131の構成とその入出力センサデータS20,S
100の流れの例を示す。本例ではデータ加工部131
は全視野角領域内の測距の場合、露光周期毎にイメージ
センサ21,22から出力されるラインセンサ1ライン
毎1024バイトのm対の露光センサデータS20内
の、センサデータ1ライン毎の列上において、順に並ぶ
2画素分のデータ2バイトずつをそれぞれ平均し1バイ
トずつのセンサデータに変換する。
FIG. 11 shows the structure of the data processing section 131 and its input / output sensor data S20 and S20 in the embodiment 3-1.
100 shows an example of the flow. In this example, the data processing unit 131
Is a column for each line of sensor data in m pairs of exposure sensor data S20 of 1024 bytes for each line sensor output from the image sensor 21 or 22 for each exposure cycle in the case of distance measurement within the entire viewing angle area. In the above, two bytes of data for two pixels arranged in order are averaged and converted into sensor data of one byte.

【0105】(なお、2画素分のデータ2バイトずつを
1バイトずつに変換する方法としては、この他、単に元
の1画素間隔の画素データ列を間引いて2画素間隔の画
素データのみを取出す方法も考えられる。) 結果として全視野角領域内の測距に用いる画素データは
ラインセンサ1ライン毎512バイトのm対になるの
で、データ加工部131はこのラインセンサ1ライン毎
512バイトのm対分のデータを、1露光周期に1ライ
ン毎256バイトのm対分ずつ、2露光周期かけて平均
全視野角分センサデータS100Vmとして距離検出部
70に送信する。
(Note that, as a method of converting two bytes of data for two pixels into one byte at a time, the original pixel data string of one pixel interval is simply decimated to extract only pixel data of two pixel intervals. As a result, the pixel data used for distance measurement in the entire viewing angle area is m pairs of 512 bytes for each line sensor line, and the data processing unit 131 has 512 bytes of m for each line sensor line. The data for the pair is transmitted to the distance detection unit 70 as sensor data S100Vm for the average total viewing angle over two exposure cycles, with m pairs of 256 bytes per line in one exposure cycle.

【0106】本例ではデータ加工部131は、イメージ
センサから露光周期#1に到来したセンサデータS20
を平均回路106を介して直ちに上記のように加工して
メモリ101に格納し、この格納されたラインセンサ1
ライン毎512バイトのm対のデータのうちの画素配列
の順に並ぶ256バイトのm対分を露光周期#1に、残
りの256バイトを露光周期#2に平均全視野角分セン
サデータS100Vmとして距離検出部70に送る。従
ってイメージセンサから露光周期#2にデータ加工部1
00に入力されるべき露光センサデータS20は無視さ
れる。
In this example, the data processing section 131 detects the sensor data S20 that has arrived at the exposure cycle # 1 from the image sensor.
Is processed as described above through the averaging circuit 106 and stored in the memory 101, and the stored line sensor 1
Of the m pairs of data of 512 bytes for each line, m pairs of 256 bytes arranged in the pixel arrangement order are set to the exposure cycle # 1, and the remaining 256 bytes are set to the exposure cycle # 2 as the sensor data S100Vm for the average total viewing angle. This is sent to the detection unit 70. Therefore, the data processing unit 1 is switched from the image sensor to the exposure cycle # 2.
The exposure sensor data S20 to be input to 00 is ignored.

【0107】距離検出部70はこの2露光周期かけて受
信したセンサデータS100Vmを用いた測距結果か
ら、露光周期#2内に測距対象位置情報S90Fをデー
タ加工部131へ送る。
The distance detection unit 70 sends the distance measurement target position information S90F to the data processing unit 131 within the exposure cycle # 2 based on the distance measurement result using the sensor data S100Vm received over the two exposure cycles.

【0108】これにより、データ加工部131は続く露
光周期#3,#4に到来するラインセンサ1ライン毎1
024バイトのm対の露光センサデータS20内におけ
る、露光周期#2内に測距対象位置情報S90Fで指定
された位置にあるラインセンサ1ライン毎256バイト
のm対の露光センサデータS20を一部視野角分センサ
データS100Aとして距離検出部70Aに送る。
As a result, the data processing section 131 sets one for each line of the line sensor arriving at the subsequent exposure periods # 3 and # 4.
In the m pairs of exposure sensor data S20 of 024 bytes, the m pairs of exposure sensor data S20 of 256 bytes for each line sensor line at the position specified by the distance measurement target position information S90F within the exposure cycle # 2 are partially It is sent to the distance detection unit 70A as the viewing angle sensor data S100A.

【0109】本実施例3−1におけるデータ加工部13
1の構成としては図7と図9の組み合わせとなり、図1
1は図9のデータ加工部111の平均回路106の次段
にセンサデータを一部記憶するためのメモリ101を加
えた構成となる。
Data processing unit 13 in the embodiment 3-1
1 is a combination of FIG. 7 and FIG.
1 has a configuration in which a memory 101 for partially storing sensor data is added to the next stage of the averaging circuit 106 of the data processing unit 111 in FIG.

【0110】(実施例3−2)図2のデータ加工部10
0を100(132)としたものが、本実施例3−2に
おける測距演算装置の構成を示すブロック図である。図
6は本実施例においても同様に当てはまる。
(Embodiment 3-2) Data processing unit 10 in FIG.
The case where 0 is set to 100 (132) is a block diagram showing the configuration of the distance measurement arithmetic device in the embodiment 3-2. FIG. 6 similarly applies to this embodiment.

【0111】図12は本実施例3−2におけるデータ加
工部132の構成とその入出力センサデータS20,S
100の流れの例を示す。本例ではデータ加工部132
は、全視野角領域分担の距離検出部70Vに対しては、
露光周期#1に到来したラインセンサ1ライン毎102
4バイトのm対の露光センサデータS20を、平均回路
106を介し、実施例3−1の露光周期#1の入力セン
サデータS20で述べたようなラインセンサ1ライン毎
512バイトのm対の平均全視野角分センサデータS1
00Vmに加工して、メモリ101に記憶したうえ、ラ
インセンサ1ライン毎256バイトのm対ずつ2つの露
光周期#1,#2にわけて送信し、同様に露光周期#3
に到来した露光センサデータS20を加工し、露光周期
#3,#4にわけて送るという動作を2露光周期の間隔
で繰り返す。
FIG. 12 shows the structure of the data processing unit 132 and the input / output sensor data S20 and S20 in the embodiment 3-2.
100 shows an example of the flow. In this example, the data processing unit 132
Is for the distance detection unit 70V that is responsible for all viewing angle areas.
102 for each line sensor line that arrived at exposure cycle # 1
The average of the 4-byte m pairs of exposure sensor data S20 is averaged to the 512-byte m-pairs of each line sensor line as described in the input sensor data S20 of the exposure period # 1 of the embodiment 3-1 via the averaging circuit 106. Sensor data S1 for all viewing angles
00Vm, stored in the memory 101, and transmitted in two exposure periods # 1 and # 2 for each pair of m lines of 256 bytes per line sensor.
The processing of processing the exposure sensor data S20 arriving at the above and sending it in the exposure cycles # 3 and # 4 is repeated at intervals of two exposure cycles.

【0112】そこで、距離検出部70Vは2露光周期の
間に受け取ったラインセンサ1ライン毎512バイトの
m対分の平均全視野角分センサデータS100Vmにつ
いての、2露光周期分の測距結果に基づく測距対象位置
情報S90Fを、それぞれ露光周期#2,#4,・・・
中にデータ加工部132へ送信する。
Therefore, the distance detecting unit 70V calculates the distance measurement results for two exposure cycles for the average total view angle sensor data S100Vm for m pairs of 512 bytes per line sensor received during the two exposure cycles. The distance measurement target position information S90F based on the exposure cycles # 2, # 4,.
During the transmission, the data is transmitted to the data processing unit 132.

【0113】これにより、データ加工部132は一部視
野角領域分担の距離検出部70Aに対しては、露光周期
#3,#4にイメージセンサから到来したラインセンサ
1ライン毎1024バイトのm対の露光センサデータS
20からは、露光周期#2中に距離検出部70Vから受
信した測距対象位置情報S90Fによって指定された位
置にあるラインセンサ1ライン毎256バイトのm対の
一部視野角分センサデータS100Aを取り出して、そ
れぞれ当該の露光周期#3,#4に送り、同様に露光周
期#5,#6にイメージセンサから到来した露光センサ
データS20からは、露光周期#4中に距離検出部70
Vから受信した測距対象位置情報S90Fによって指定
された位置にある一部視野角分センサデータS100A
を取り出し、それぞれ当該の露光周期#5,#6に送る
という動作を2露光周期の間隔で繰り返す。
Thus, the data processing unit 132 instructs the distance detection unit 70A, which is partly responsible for the viewing angle area, to set the m / m of 1024 bytes per line sensor coming from the image sensor in the exposure periods # 3 and # 4. Exposure sensor data S
20, the m pairs of partial viewing angle sensor data S100A of 256 bytes per line sensor at the position specified by the distance measurement target position information S90F received from the distance detection unit 70V during the exposure cycle # 2. The exposure sensor data S20 received from the image sensor in the exposure cycles # 5 and # 6 is taken out from the exposure sensor data S20 in the exposure cycles # 5 and # 6.
V of the partial view angle sensor data S100A at the position specified by the distance measurement target position information S90F received from V.
Are taken out and sent to the exposure cycles # 5 and # 6, respectively, at intervals of two exposure cycles.

【0114】本実施例3−2におけるデータ加工部13
2の構成としては、図12では図10のデータ加工部1
22の平均回路106の次段にセンサデータを一部記憶
するためのメモリ101を加えた構成となる。
Data processing unit 13 in Embodiment 3-2
12, the data processing unit 1 shown in FIG.
A configuration in which a memory 101 for partially storing sensor data is added to the next stage of the averaging circuit 106 of FIG.

【0115】なお、図8,10,12では距離検出部が
2つの場合を示したが、距離検出部70Vが測距対象物
が存在し得る一部視野角領域を、予め定めた複数個検出
できるようにした場合にも、データ加工部112,12
2,132において、それぞれイメージセンサより到来
した露光センサデータS20から一部視野角分センサデ
ータS100Aを選択する選択器102を増やすこと
で、図6のように複数設けた一部視野角領域の測距を分
担する距離検出部70A1,70A2・・・に、それぞ
れに対応する一部視野角分センサデータS100A1,
S100A2・・・を送って測距を行わせること(つま
り図3,4において注目領域Voを複数個設定するこ
と)も可能である。
Although FIGS. 8, 10 and 12 show the case where there are two distance detecting units, the distance detecting unit 70V detects a plurality of predetermined viewing angle regions where a distance measuring object can exist, by detecting a plurality of predetermined viewing angle regions. When the data processing units 112 and 12
2 and 132, by increasing the number of selectors 102 for selecting sensor data S100A corresponding to a partial viewing angle from the exposure sensor data S20 arriving from the image sensor, measurement of a plurality of partial viewing angle regions provided as shown in FIG. , Which are responsible for the distances, have partial viewing angle sensor data S100A1,
It is also possible to send S100A2... To perform distance measurement (that is, to set a plurality of attention areas Vo in FIGS. 3 and 4).

【0116】[0116]

【発明の効果】本発明によれば、対のレンズの結像面上
に、一列又は複数列のラインセンサからなる対のイメー
ジセンサを配置し、対のイメージセンサ上のセンサデー
タからイメージセンサの視界内の各視野方向の測距を行
い、対象物の距離を検出する装置において、ラインセン
サの画素密度(従って画素数)を増加して測距の分解能
を高める一方、距離検出手段が測距のために露光周期毎
に一度に取り込むラインセンサ1ラインあたりのセンサ
データ数を、ラインセンサ1ライン分の画素数より少な
く、露光周期毎一度に全視野角領域内を測距するには足
りないが、測距対象物が存在し得る一部視野角領域内の
みを測距するには充分な数とし、イメージセンサと距離
検出手段との間にイメージセンサが露光周期毎に出力す
るセンサデータを加工する手段を設け、距離検出手段
が、先ず、測距点が多い全視野角領域に対して計算負荷
が少なくなるよう、センサデータの取込み時間を複数露
光周期として長く(時間的分解能を低く)したり、1露
光周期に取り込むセンサデータの数を全視野角領域分の
センサデータから間引き又は平均化により減らして(空
間的分解能(従って距離分解能)を低くして)測距を行
い、その測距情報から測距すべき対象が存在し得る一部
視野角領域の位置を検出したのち、この一部視野角領域
内のみを時間的にも空間的にも最高の分解能で測距する
一連の動作を繰り返すようにしたので、次のような効果
を得ることができる。
According to the present invention, a pair of image sensors consisting of one or more lines of line sensors is arranged on the image plane of the pair of lenses, and the image data of the image sensor is obtained from the sensor data on the pair of image sensors. In a device that measures the distance in each visual field direction in the field of view and detects the distance to the object, the resolution of the distance measurement is increased by increasing the pixel density (accordingly, the number of pixels) of the line sensor, while the distance detection unit measures the distance Therefore, the number of sensor data per line sensor taken at one time for each exposure cycle is smaller than the number of pixels for one line sensor, and it is not enough to measure the distance within the entire viewing angle area at once for each exposure cycle. However, it is sufficient to measure the distance only in a part of the viewing angle area where the object to be measured can exist, and sensor data output by the image sensor for each exposure cycle is provided between the image sensor and the distance detecting means. First, the distance detection means sets the sensor data acquisition time as a plurality of exposure cycles so as to reduce the calculation load for the entire viewing angle area where there are many ranging points (lower temporal resolution). The distance is measured by thinning out or averaging the number of sensor data taken in one exposure cycle from the sensor data for the entire viewing angle area (by lowering the spatial resolution (hence, the distance resolution)), and measuring the distance. After detecting the position of the partial viewing angle area where the object to be distanced can exist from the distance information, a series of steps to measure only the partial viewing angle area with the highest temporal and spatial resolution. Since the operation is repeated, the following effects can be obtained.

【0117】(1)測距演算装置の回路規模や回路の動
作速度を極端に上げること無く、測距対象物を高速かつ
高精度に測距することができる。 (2)センサデータを加工する手段を電子回路で実現す
る場合、従来の測距演算回路部分をほとんど変更するこ
となく実現することができる。
(1) The object to be measured can be measured at high speed and with high accuracy without extremely increasing the circuit scale or the operating speed of the circuit of the distance measuring device. (2) When the means for processing the sensor data is realized by an electronic circuit, it can be realized with almost no change in the conventional distance calculation circuit.

【0118】(3)従来の単純な全視野角領域内のみを
測距し、一部視野角領域を区別せぬ装置に対し、センサ
データを加工する手段だけ付け加えるだけで本発明の測
距演算装置を実現することができる。
(3) Distance measurement according to the present invention can be performed by adding only a means for processing sensor data to a conventional device that measures distance only in the entire viewing angle region and does not distinguish the partial viewing angle region. The device can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項5に関わる発明の実施例としての測距演
算装置の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a distance measurement arithmetic device as an embodiment of the invention according to claim 5;

【図2】請求項1〜4に関わる発明の実施例としての測
距演算装置の構成を示すブロック図
FIG. 2 is a block diagram showing a configuration of a distance measurement arithmetic device as an embodiment of the invention according to claims 1 to 4;

【図3】主として請求項2に関わる発明の概念図FIG. 3 is a conceptual diagram of the invention mainly relating to claim 2;

【図4】主として請求項3,4に関わる発明の概念図FIG. 4 is a conceptual diagram of the invention mainly relating to claims 3 and 4;

【図5】図1における各部の入出力データの流れの例を
示す図
FIG. 5 is a diagram showing an example of the flow of input / output data of each unit in FIG. 1;

【図6】図2における各部の入出力データの流れの例を
示す図
FIG. 6 is a diagram showing an example of the flow of input / output data of each unit in FIG. 2;

【図7】実施例1−1におけるデータ加工部の構成と入
出力センサデータの流れの例を示す図
FIG. 7 is a diagram illustrating an example of a configuration of a data processing unit and a flow of input / output sensor data according to the embodiment 1-1.

【図8】実施例1−2におけるデータ加工部の構成と入
出力センサデータの流れの例を示す図
FIG. 8 is a diagram illustrating a configuration of a data processing unit and an example of a flow of input / output sensor data according to the embodiment 1-2.

【図9】実施例2−1におけるデータ加工部の構成と入
出力センサデータの流れの例を示す図
FIG. 9 is a diagram illustrating a configuration of a data processing unit and an example of a flow of input / output sensor data according to the embodiment 2-1.

【図10】実施例2−2におけるデータ加工部の構成と
入出力センサデータの流れの例を示す図
FIG. 10 is a diagram illustrating a configuration of a data processing unit and an example of a flow of input / output sensor data according to the embodiment 2-2.

【図11】実施例3−1におけるデータ加工部の構成と
入出力センサデータの流れの例を示す図
FIG. 11 is a diagram illustrating a configuration of a data processing unit and an example of a flow of input / output sensor data according to the embodiment 3-1.

【図12】実施例3−2におけるデータ加工部の構成と
入出力センサデータの流れの例を示す図
FIG. 12 is a diagram illustrating a configuration of a data processing unit and an example of a flow of input / output sensor data according to the embodiment 3-2.

【図13】従来の距離検出方法を示す模式図FIG. 13 is a schematic diagram showing a conventional distance detection method.

【図14】従来の検出対象を捉えるべき視野の設定要領
を示すイメージセンサ手段と先行自動車の関係を示す模
式図
FIG. 14 is a schematic diagram showing a conventional relationship between an image sensor unit and a preceding vehicle showing how to set a field of view to capture a detection target.

【図15】従来の諸手段の構成をイメージセンサ手段上
に映像を結像させる光学手段と共に示す模式図
FIG. 15 is a schematic diagram showing the configuration of various conventional means together with optical means for forming an image on an image sensor means.

【図16】従来の距離検出手段の有利な態様を示し、
(a)はその説明のための映像データと視野部分と部分
群の関連を示す模式図、(b)は単位距離検出回路の要
部構成を部分群と関連させて示す回路図である。
FIG. 16 shows an advantageous mode of a conventional distance detecting means;
FIG. 3A is a schematic diagram illustrating the relationship between video data, a visual field portion, and a subgroup for the purpose of explanation, and FIG. 3B is a circuit diagram illustrating a main configuration of a unit distance detection circuit in association with the subgroup.

【符号の説明】[Explanation of symbols]

10 光学手段 11,12 レンズ 20A 受光手段 21(21a〜21n),22(22a〜22n)
イメージセンサ 21a〜21n,22a〜22n ラインセンサ 23 増幅器 24 A/D変換器 25 1画素分メモリ 26 ラインセンサセレクタ 70(70V,70A) 距離検出部 70V 全視野角分担距離検出部 70A 一部視野角分担距離検出部 71 センサデータメモリ 72S 距離検出回路 90A 測距対象抽出部 100(111,112,121,122,131,1
32) データ加工部 D1,D2 センサデータメモリ71内のセンサデ
ータ S20 イメージセンサからの露光センサデー
タ S70(S70V,S70A) 距離データ S70V 全視野角分距離データ S70A(S70A1,S70A2,・・・) 一部
視野角分距離データ S90 測距対象距離データ S90F 測距対象の位置情報 S100(S100V,S100A) 加工済センサ
データ S100V 全視野角分加工済センサデータ S100A(S100A1,S100A2,・・・)一
部視野角分加工済センサデータ
DESCRIPTION OF SYMBOLS 10 Optical means 11, 12 Lens 20A Light receiving means 21 (21a-21n), 22 (22a-22n)
Image Sensors 21a to 21n, 22a to 22n Line Sensor 23 Amplifier 24 A / D Converter 25 Memory for One Pixel 26 Line Sensor Selector 70 (70V, 70A) Distance Detector 70V Full View Angle Allocated Distance Detector 70A Partial View Angle Allocated distance detection unit 71 Sensor data memory 72S Distance detection circuit 90A Distance measurement target extraction unit 100 (111, 112, 121, 122, 131, 1)
32) Data processing section D1, D2 Sensor data in sensor data memory 71 S20 Exposure sensor data from image sensor S70 (S70V, S70A) Distance data S70V Distance data for all viewing angles S70A (S70A1, S70A2, ...) Partial view angle distance data S90 Distance measurement target data S90F Distance measurement target position information S100 (S100V, S100A) Processed sensor data S100V Processed sensor data for all view angles S100A (S100A1, S100A2,...) Sensor data processed for the viewing angle

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA02 AA06 BB05 BB15 CC11 DD03 DD06 FF05 FF09 FF24 FF44 HH02 HH13 JJ02 JJ05 JJ09 JJ25 LL04 QQ03 QQ23 QQ25 QQ42 UU05 2F112 AC06 BA05 BA06 CA05 CA12 DA28 DA32 FA03 FA07 FA21 ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 2F065 AA02 AA06 BB05 BB15 CC11 DD03 DD06 FF05 FF09 FF24 FF44 HH02 HH13 JJ02 JJ05 JJ09 JJ25 LL04 QQ03 QQ23 QQ25 QQ42 UU05 2F112 AC06 BA05 BA06 FA05

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】光軸が互いに平行で同一平面上に結像する
対のレンズの結像面上に、一列又は複数列のラインセン
サを持つ対の受光手段が、それぞれのレンズに対応し、
対となるラインセンサの列同士がそれぞれ同一直線上に
あるように配置され、 対の受光手段が対のラインセンサの各1ライン分の画素
データ列を、対となる画素相互の視野方向が一致するよ
うに同期してラインセンサの一端側から他端側に向けて
順次出力し、さらにこの出力を対のラインセンサの配列
順に全列行うことを露光周期毎に繰り返し、 ラインセンサの1ライン分の画素数より少なく、この1
ラインに対応する全視野角領域内の測距対象物が存在し
得る一部視野角領域を少なくとも検出できる所定の第1
の画素数の画素データを収容する対の画素データ記憶手
段と、この対の画素データ記憶手段に収容された画素デ
ータを用いて、この画素データ記憶手段の画素データに
対応する全視野の各方向毎の測距を行う距離検出手段と
を持つ第1及び1又は複数個の第2の測距分担手段と、 対の受光手段の各ラインセンサに対応する全視野角領域
の測距を行うために、対の受光手段より出力される画素
データから、画素データの選択,変換等の処理により、
ラインセンサ1ライン当たりの画素データ数が前記第1
の画素数に等しい対のラインセンサ全列分の画素データ
(以下、転送単位画面データという)のこの1単位分又
は複数単位分をそれぞれ一括又は分割生成し、この各転
送単位画面データを露光周期毎に1単位分ずつ第1の測
距分担手段に与える第1のデータ加工手段と、 第1の測距分担手段がこの第1のデータ加工手段から1
又は複数露光周期にわたり与えられた各転送単位画面デ
ータについて行った各対のラインセンサに対応する画素
データごとの測距の情報から各ラインセンサの全視野角
領域内の、前記1又は複数個の第2の測距分担手段にそ
れぞれ対応する一部視野角領域の位置を検出する一部視
野角領域抽出手段と、 この一部視野角領域抽出手段の位置検出情報に基づき、
対の受光手段より1露光周期分として出力される全画素
データから、それぞれ前記の検出された第2の測距分担
手段別の一部視野角領域の位置にある前記転送単位画面
データを選択し、1露光周期にそれぞれ対応する第2の
測距分担手段に与える第2のデータ加工手段と、 第2の各測距分担手段がそれぞれ第2のデータ加工手段
より与えられた転送単位画面データについて行った各対
のラインセンサに対応する画像データごとの測距の情報
から、各一部視野角領域内の測距対象物の距離を検出す
る手段とを備えたことを特徴とする測距演算装置。
1. A pair of light receiving means having one or more lines of line sensors on an imaging plane of a pair of lenses whose optical axes are parallel to each other and form an image on the same plane, corresponding to each lens,
The lines of the paired line sensors are arranged so as to be on the same straight line, respectively. The output is sequentially performed from one end of the line sensor to the other end thereof in synchronization with each other, and this output is performed for all rows in the arrangement order of the pair of line sensors in each exposure cycle. Less than the number of pixels
The first predetermined range which can at least detect a partial viewing angle region where a distance measurement target within the entire viewing angle region corresponding to the line may exist.
A pair of pixel data storing means for storing pixel data of the number of pixels, and using the pixel data stored in the pair of pixel data storing means, each direction of the entire field of view corresponding to the pixel data of the pixel data storing means. A first and / or a plurality of second distance measurement sharing means having distance detection means for performing distance measurement for each, and a distance measurement in an entire viewing angle region corresponding to each line sensor of a pair of light receiving means. In addition, from the pixel data output from the pair of light receiving means, processing such as selection and conversion of pixel data is performed.
The number of pixel data per line sensor line is the first
This one unit or a plurality of units of pixel data (hereinafter referred to as transfer unit screen data) for all lines of a pair of line sensors equal to the number of pixels are collectively or separately generated, and each transfer unit screen data is subjected to an exposure cycle. A first data processing means provided to the first distance measuring and sharing means by one unit each time, and a first distance measuring and sharing means which is one bit from the first data processing means;
Or, from the information on the distance measurement for each pixel data corresponding to each pair of line sensors performed on each transfer unit screen data given over a plurality of exposure cycles, the one or more of the one or more A partial viewing angle area extracting means for detecting a position of a partial viewing angle area corresponding to each of the second distance measuring and sharing means, based on position detection information of the partial viewing angle area extracting means,
From the whole pixel data output from the pair of light receiving means as one exposure cycle, the transfer unit screen data at the position of the partial viewing angle area for each of the detected second distance measuring sharing means is selected. A second data processing means provided to a second distance-sharing means respectively corresponding to one exposure cycle, and transfer unit screen data provided by the second data processing means to each of the second distance-sharing means. Means for detecting the distance of the object to be measured in each partial viewing angle region from information on the distance measurement performed for each image data corresponding to each pair of line sensors. apparatus.
【請求項2】請求項1に記載の測距演算装置において、 前記第1のデータ加工手段が、対の受光手段の全画素に
対応する画素データを、対の受光手段より露光周期順に
それぞれ出力される各全画素データ又は1露光周期に出
力されて一時記憶手段に記憶された全画素データから、
露光周期毎に前記転送単位画面データの1単位分ずつを
画素配列の順に分割選択することを繰り返すことにより
複数単位分の転送単位画面データとして生成し、この生
成した各転送単位画面データを露光周期毎に順次第1の
測距分担手段に与えるようにしたことを特徴とする測距
演算装置。
2. The distance measuring apparatus according to claim 1, wherein said first data processing means outputs pixel data corresponding to all pixels of said pair of light receiving means from said pair of light receiving means in the order of exposure cycle. From all the pixel data to be output or from all the pixel data output in one exposure cycle and stored in the temporary storage means,
By repeatedly selecting and dividing one unit of the transfer unit screen data for each exposure cycle in the order of the pixel arrangement, transfer unit screen data for a plurality of units is generated. A distance measurement arithmetic unit which is sequentially provided to a first distance measurement sharing unit every time.
【請求項3】請求項1に記載の測距演算装置において、 前記第1のデータ加工手段が、対の受光手段から1露光
周期分として出力される全画素データに対し、画素配列
の順に所定の複数画素分毎の平均又は間引き選択を行う
ことにより、この各複数画素分の画素データをそれぞれ
1画素分ずつの画素データに変換して前記転送単位画面
データの1単位分を生成し、この生成した転送単位画面
データを1露光周期に第1の測距分担手段に与えるよう
にしたことを特徴とする測距演算装置。
3. The distance measuring arithmetic device according to claim 1, wherein said first data processing means determines a predetermined pixel order for all pixel data output as one exposure cycle from a pair of light receiving means. By performing averaging or thinning selection for each of the plurality of pixels, the pixel data for each of the plurality of pixels is converted into pixel data for each one pixel to generate one unit of the transfer unit screen data. A distance measurement calculation device wherein the generated transfer unit screen data is provided to a first distance measurement sharing means in one exposure cycle.
【請求項4】請求項1に記載の測距演算装置において、 対の受光手段から1露光周期分として出力される全画素
データに対し、画素配列の順に所定の複数画素分毎の平
均又は間引き選択を行うことにより、この各複数画素分
の画素データをそれぞれ1画素分ずつの画素データに変
換し、ラインセンサ1ライン当たりの画素数が、その全
画素数より少なく前記第1の画素数より多い第2の画素
数であるようにした画素データを1次変換画素データと
呼ぶとき、 前記第1のデータ加工手段が、対の受光手段の全1次変
換画素データに対応する画素データを、対の受光手段よ
り露光周期順にそれぞれ出力される各全画素データから
得られる各全1次変換画素データ、又は対の受光手段よ
り1露光周期分として出力された全画素データから前記
のように変換されて一時記憶手段に記憶された全1次変
換画素データから、 露光周期毎に前記転送単位画面データの1単位分の1次
変換画素データずつを、画素配列の順に分割選択するこ
とを繰り返すことにより複数単位分の転送単位画面デー
タとして生成し、この生成した各転送単位画面データを
露光周期毎に順次第1の測距分担手段に与えるようにし
たことを特徴とする測距演算装置。
4. The distance measuring arithmetic device according to claim 1, wherein all pixel data output as one exposure cycle from the pair of light receiving means is averaged or thinned for a predetermined plurality of pixels in the order of pixel arrangement. By performing the selection, the pixel data for each of the plurality of pixels is converted into pixel data for each one pixel, and the number of pixels per line sensor line is smaller than the total number of pixels and smaller than the first pixel number. When the pixel data having the larger number of second pixels is referred to as primary conversion pixel data, the first data processing unit converts pixel data corresponding to all the primary conversion pixel data of the pair of light receiving units into: As described above, all the primary converted pixel data obtained from all the pixel data respectively output from the pair of light receiving means in the order of the exposure cycle, or all the pixel data output as one exposure cycle from the pair of light receiving means. From the total primary conversion pixel data converted to the temporary storage means and dividing and selecting the primary conversion pixel data for one unit of the transfer unit screen data for each exposure cycle in the order of the pixel arrangement. A distance calculating unit for generating transfer unit screen data for a plurality of units by repeating the transfer unit screen data, and sequentially providing the generated transfer unit screen data to the first distance measuring and sharing unit for each exposure cycle; .
【請求項5】請求項1ないし4のいずれかに記載の測距
演算装置において、 前記第1の測距分担手段が第2の測距分担手段の機能を
兼ねるようにしたことを特徴とする測距演算装置。
5. The distance measuring operation device according to claim 1, wherein said first distance measuring and sharing means also functions as a second distance measuring and sharing means. Distance measurement calculation device.
JP11175520A 1999-06-22 1999-06-22 Distance measurement computing device Pending JP2001004367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11175520A JP2001004367A (en) 1999-06-22 1999-06-22 Distance measurement computing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11175520A JP2001004367A (en) 1999-06-22 1999-06-22 Distance measurement computing device

Publications (1)

Publication Number Publication Date
JP2001004367A true JP2001004367A (en) 2001-01-12

Family

ID=15997505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11175520A Pending JP2001004367A (en) 1999-06-22 1999-06-22 Distance measurement computing device

Country Status (1)

Country Link
JP (1) JP2001004367A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279031A (en) * 2003-03-12 2004-10-07 Toyota Central Res & Dev Lab Inc Apparatus and method for detecting distance distribution
JP2009180663A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
JP2009180662A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device
JP2009180661A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
CN101995697A (en) * 2009-08-20 2011-03-30 凸版印刷株式会社 Liquid crystal display device, black matrix substrate and color filter substrate
JP7036423B2 (en) 2016-02-01 2022-03-15 ソニーグループ株式会社 Controls, control methods and control programs

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004279031A (en) * 2003-03-12 2004-10-07 Toyota Central Res & Dev Lab Inc Apparatus and method for detecting distance distribution
JP2009180663A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
JP2009180662A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device
JP2009180661A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
CN101995697A (en) * 2009-08-20 2011-03-30 凸版印刷株式会社 Liquid crystal display device, black matrix substrate and color filter substrate
CN101995697B (en) * 2009-08-20 2014-08-27 凸版印刷株式会社 Liquid crystal display device, black matrix substrate and color filter substrate
JP7036423B2 (en) 2016-02-01 2022-03-15 ソニーグループ株式会社 Controls, control methods and control programs

Similar Documents

Publication Publication Date Title
JP3205477B2 (en) Inter-vehicle distance detection device
JP5615441B2 (en) Image processing apparatus and image processing method
JP3059035B2 (en) Distance measuring device
WO2002075350A1 (en) Method and device for determining an angular position of a reflector
KR19980018429A (en) Distance detection method using image
WO2019146510A1 (en) Image processing device
JP2006322795A (en) Image processing device, image processing method and image processing program
JP2509386B2 (en) Distance detection device
CN106559618A (en) Focus detection device and Forecasting Methodology
JP3570198B2 (en) Image processing method and apparatus
JP2001004367A (en) Distance measurement computing device
JPH0812073B2 (en) Inter-vehicle distance detector
JP4605582B2 (en) Stereo image recognition apparatus and method
KR101649181B1 (en) Flight information estimator and estimation method of the flying objects
JPH0618779A (en) Automatic focus detecting device
EP0140972B1 (en) Three-dimensional distance-measuring device
JPH11153749A (en) Distance detector
JP3632315B2 (en) Distance detector
KR20000017208A (en) Distance measurement calculating apparatus and distance measurement calculating method using the same
US20240185458A1 (en) Object distance detecting device
JP3054011B2 (en) Camera ranging device
JPH0996524A (en) Distance-measuring apparatus
US6177996B1 (en) Sensor unit and distance measurement apparatus
JP2765285B2 (en) Displacement gauge
JPH0933248A (en) Passive triangulation-type range finder