JP3269222B2 - Distance measuring device - Google Patents

Distance measuring device

Info

Publication number
JP3269222B2
JP3269222B2 JP27850593A JP27850593A JP3269222B2 JP 3269222 B2 JP3269222 B2 JP 3269222B2 JP 27850593 A JP27850593 A JP 27850593A JP 27850593 A JP27850593 A JP 27850593A JP 3269222 B2 JP3269222 B2 JP 3269222B2
Authority
JP
Japan
Prior art keywords
pixel
edge
peak
data
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27850593A
Other languages
Japanese (ja)
Other versions
JPH07128017A (en
Inventor
好克 木村
弘 森部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP27850593A priority Critical patent/JP3269222B2/en
Publication of JPH07128017A publication Critical patent/JPH07128017A/en
Application granted granted Critical
Publication of JP3269222B2 publication Critical patent/JP3269222B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、距離測定装置に係り、
特に、工業用部品などの対象物体を3次元形状認識する
画像処理装置に適用して好適な距離測定装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device,
In particular, the present invention relates to a distance measurement device suitable for application to an image processing device that recognizes a three-dimensional shape of a target object such as an industrial part.

【0002】[0002]

【従来技術】従来より、自立走行車の障害物認識やファ
クトリーオートメーション分野における物体の形状認識
等のため、画像中の物体の距離情報を得る方法及び装置
が種々開発されている。即ち、2次元情報である画像情
報から3次元情報を得ようというのである。
2. Description of the Related Art Conventionally, various methods and apparatuses for obtaining distance information of an object in an image have been developed for the purpose of recognizing an obstacle of a self-supporting vehicle, the shape of an object in the field of factory automation, and the like. That is, three-dimensional information is to be obtained from image information that is two-dimensional information.

【0003】従来、画像から物体までの距離情報を得る
にはステレオ視が最も一般的に用いられていた。このス
テレオ視は、2つの離れた位置にあるTVカメラで撮影
した画像を入力し、その2つの画像中から同じ物体の同
一部分が写っている位置を求め(対応点探索)、その2
点の位置の差と2つのTVカメラの位置の関係から、三
角測量の原理により物体までの距離を求めるものであ
る。しかしながら、三角測量の原理で距離を求める方法
は、次のような、相反する問題を内包している。即ち、 2つのカメラ位置が離れているほど距離計測精度はよ
くなる反面、2つのカメラが離れていると左右画像での
物体の変形、明るさの違い、また左画像では見えるが右
画像では見えないというオクルージョンの問題などがあ
り、左右画像中で同一部分を見つけだす対応点探索を行
うことは非常に困難であり。 2つのカメラ位置が近いと対応点探索は比較的容易な
反面、距離計測精度が悪くなる。
Conventionally, stereo vision has been most commonly used to obtain distance information from an image to an object. In this stereo vision, an image captured by a TV camera located at two separate positions is input, and a position where the same part of the same object is captured is obtained from the two images (corresponding point search).
The distance to the object is obtained from the relationship between the point positions and the positions of the two TV cameras by the principle of triangulation. However, the method of obtaining a distance based on the principle of triangulation involves the following contradictory problems. In other words, while the distance between the two cameras increases, the distance measurement accuracy improves. On the other hand, if the two cameras separate, the deformation of the object in the left and right images, the difference in brightness, and the left image can be seen but not the right image It is very difficult to perform a corresponding point search for finding the same part in the left and right images. If the two camera positions are close to each other, the corresponding point search is relatively easy, but the distance measurement accuracy deteriorates.

【0004】左右の濃淡画像中の対応関係を求め、対応
する左右同一部分から視差を検出して奥行き、即ち距離
画像を得るパッシブステレオ方式は種々研究され、例え
ば、Y.C.Kim とJ.K.Aggarwalによる「Positioning Tree
-Dime nsional Object UsingStereo 」IEEE J.Robotics
and Automation,RA3,4,1987,pp.362-373(参考文献
1)、D.MarrとT.Poggioによる「A Computational Theo
ry of Human Stereo Vision 」Rpoc.R.Lond.,B204,pp.3
01-328(参考文献2)、太田、金出による「走査線間の
整合性を考慮した2段の動的計画法によるステレオ対応
探索」(参考文献3)、「ステレオ画像における区間対
応探索処理の高速化について」(参考文献4)などの様
々な研究がなされている。それらの中で用いられる手法
は領域ベース法と特徴ベース法に大別できる。以下に、
これらの従来法についてそれぞれ簡単に説明する。 領域ベース法によるものは、画面上のある領域間の濃
淡値の相関をとることにより対応領域を求める方法であ
る。この方法では、相関をとる領域が大きいと分解能の
低下や計算コストの増大をまねき、逆に小さいと複数の
領域と対応する多対応問題を生じる。また、対象面が画
面と並行でない場合には左右の領域内のパターンが正確
には一致しないことなどが挙げられる。 特徴ベース法は、画像から特徴を抽出し、特徴同士の
対応付けを行う方法である。抽出する特徴は、ある程度
の長さを持ったエッジセグメントとエッジセグメントよ
り短い点単位の特徴に大別される。エッジセグメントの
場合、左右画像でのセグメントの形状の類似性が対応付
けの大きな問題となるが、対象が複雑になると左右画像
でセグメントの形状が一致するとは限らない。点単位の
特徴は局所的であるのでそのような問題は生じないが、
類似した特徴が複数現われるために多対応問題が生じ
る。動的計画法を利用して照合を行う手法(参考文献
3、4参照)では部分領域の順番が逆転する画像では有
効ではない。また、確率的弛緩法による手法(参考文献
1参照)は、適合性を示す明確な基準がないため計算量
が膨大になり解の範囲を狭めることはできるが解が得ら
れるとは限らない。また、初期値に依存するため最終的
に求められた対応が最適解である保証がないなどの問題
もある。粗密探索法による手法(参考文献2参照)は、
誤対応を減らすために、まず強く平滑化した低解像度の
画像でマッチングが行われ、その結果を用いて高解像度
でのマッチング範囲を制限しながら視差を求めるもので
ある。しかし、画像によっては高分解能から対応をつけ
なければならない場合もある。
[0004] Various studies have been made of a passive stereo system that obtains a depth, that is, a distance image by detecting a correspondence relationship between left and right gray-scale images and detecting parallax from the corresponding left and right same portions.
-Dimensional Object UsingStereo `` IEEE J. Robotics
and Automation, RA3, 4, 1987, pp. 362-373 (Reference 1), "A Computational Theo" by D. Marr and T. Poggio
ry of Human Stereo Vision '' Rpoc.R.Lond., B204, pp.3
01-328 (Reference 2), "Stereo correspondence search by two-step dynamic programming considering the consistency between scanning lines" (Reference 3), "Segment correspondence search processing in stereo images" Various studies have been made, such as "Speeding up" (Ref. 4). The methods used in these methods can be broadly divided into region-based methods and feature-based methods. less than,
Each of these conventional methods will be briefly described. The method based on the area-based method is a method of obtaining a corresponding area by correlating a gray value between certain areas on a screen. In this method, if the area to be correlated is large, the resolution is reduced and the calculation cost is increased. Conversely, if the area is small, a multi-correspondence problem corresponding to a plurality of areas occurs. Further, when the target surface is not parallel to the screen, the patterns in the left and right regions do not exactly match. The feature-based method is a method of extracting features from an image and associating the features with each other. The features to be extracted are roughly classified into edge segments having a certain length and features in point units shorter than the edge segments. In the case of an edge segment, the similarity of the shape of the segment in the left and right images is a major problem in association, but when the target is complicated, the shape of the segment in the left and right images does not always match. Such a problem does not occur because the point-by-point feature is local,
A multi-response problem arises because a plurality of similar features appear. The technique of performing matching using the dynamic programming (see References 3 and 4) is not effective for images in which the order of partial regions is reversed. Further, the method based on the stochastic relaxation method (see Reference Document 1) does not have a clear criterion indicating suitability, so the amount of calculation becomes enormous and the range of the solution can be narrowed, but the solution is not always obtained. There is also a problem that the correspondence finally obtained is not guaranteed to be the optimal solution because it depends on the initial value. The method using the coarse / fine search method (see Reference Document 2)
In order to reduce erroneous correspondence, matching is first performed on a strongly-smoothed low-resolution image, and the parallax is obtained by using the result to restrict the matching range in high-resolution. However, depending on the image, it may be necessary to take correspondence from a high resolution.

【0005】[0005]

【発明が解決しようとする課題】上述した従来技術は、
いずれも左右の画像の対応探索を各種アルゴリズムによ
り解決しようとするものであるが、このような2次元情
報から3次元情報を復元する逆問題、即ち不良設定問題
を完全に解く手法は現在に至るも知られていない。これ
に加えて、自立走行車の障害物認識やファクトリーオー
トメーション分野における物体の形状認識等の分野で
は、実時間性が要求されるため、従来のステレオパッシ
ブ方式では、対応点探索が不可欠であることから十分に
対応することができないという不都合もあった。
The prior art described above is
In both cases, the correspondence search between the left and right images is to be solved by various algorithms. However, the inverse problem of restoring the three-dimensional information from the two-dimensional information, that is, the method of completely solving the defect setting problem has been developed up to the present. Not even known. In addition, real-time performance is required in fields such as obstacle recognition of autonomous vehicles and object shape recognition in the field of factory automation. There was also an inconvenience that it was not possible to respond sufficiently.

【0006】本発明は、かかる事情の下になされたもの
で、その目的は、上述した不良設定問題、即ち左右画像
の輪郭エッジの対応問題を解かなくても画像中の距離情
報をを得ることができる距離測定装置を提供することに
ある。
The present invention has been made under such circumstances, and an object thereof is to obtain distance information in an image without solving the above-described defect setting problem, that is, a problem of correspondence between outline edges of right and left images. It is an object of the present invention to provide a distance measuring device capable of measuring the distance.

【0007】[0007]

【課題を解決するための手段】本発明に係る距離測定装
置は、所定間隔で撮像位置を変更しながら対象物を撮像
し各撮像位置に対応する所定間隔毎のフレームの画像信
号を出力する撮像手段と、前記撮像手段からの各フレー
ムの画像信号を順次平滑化処理した後、エッジ強調処理
により平滑化処理後の各フレームの画素毎のエッジ強度
及びグラジェント角を演算し出力するエッジ強調処理手
段と、前記各フレーム毎のエッジ検出の対象となる画素
の前記グラジェント角により定まる領域内の画素のエッ
ジ強度に基づき当該領域内の画素の内エッジ強度が極大
値を有するピーク画素を抽出するピーク抽出手段と、前
記抽出されたピーク画素と前記エッジ強調処理手段の出
力とに基づき各ピーク画素毎にエッジ位置の画素中心か
らのオフセット量及び前記グラジェント角から成るサブ
ピクセルレベルのエッジ位置情報を各フレーム毎に出力
するサブピクセル位置検出手段と、フレーム毎に前記サ
ブピクセル位置情報に基づき画素毎に前記グラジェント
角と前記画素中心からのオフセット量とにより定まる前
記ピーク画素の領域内のエッジ直線を生成する線画生成
手段と、前記線画生成手段から出力される隣接するフレ
ーム間の前記エッジ直線の移動距離を算出し、このエッ
ジ直線の移動距離より対象物までの距離を演算する距離
演算手段と、を有する。
A distance measuring apparatus according to the present invention captures an image of an object while changing the image capturing position at predetermined intervals and outputs image signals of frames at predetermined intervals corresponding to each image capturing position. Means for sequentially smoothing an image signal of each frame from the imaging means, and calculating and outputting edge strength and gradient angle for each pixel of each frame after the smoothing processing by edge enhancement processing. Means for extracting a peak pixel whose inner edge intensity of a pixel in the region has a maximum value based on the edge intensity of the pixel in the region determined by the gradient angle of the pixel to be subjected to edge detection for each frame. A peak extracting unit, and an offset amount from the pixel center of an edge position for each peak pixel based on the extracted peak pixel and an output of the edge enhancement processing unit. Sub-pixel position detecting means for outputting, for each frame, edge position information at the sub-pixel level comprising the gradient angle and the gradient angle, and for each pixel based on the gradient angle and the pixel center based on the sub-pixel position information for each frame. A line drawing generating means for generating an edge straight line in the area of the peak pixel determined by the offset amount, and calculating a moving distance of the edge straight line between adjacent frames output from the line drawing generating means. Distance calculating means for calculating the distance to the object from the moving distance.

【0008】[0008]

【作用】本発明によれば、撮像手段により所定間隔で撮
像位置を変更しながら対象物が撮像され各撮像位置に対
応するフレーム毎の画像信号が出力される。エッジ強調
処理手段では,各フレームの画像信号を順次平滑化処理
した後、エッジ強調処理により平滑化処理後の各フレー
ムの画素毎のエッジ強度及びグラジェント角を演算し出
力する。ピーク抽出手段では、エッジ検出処理手段から
出力されるエッジ強度及びグラジェント角を入力し各フ
レーム毎のエッジ検出の対象となる画素のグラジェント
角により定まる領域内の画素のエッジ強度に基づきエッ
ジ強度が極大値を有するピーク画素を抽出する。サブピ
クセル位置検出手段では、ピーク抽出手段により抽出さ
れたピーク画素とエッジ強調処理手段の出力とに基づき
各ピーク画素毎にエッジ位置の画素中心からのオフセッ
ト量及びグラジェント角から成るサブピクセルレベルの
エッジ位置情報を各フレーム毎に出力する。線画生成手
段では、フレーム毎にサブピクセル位置情報に基づき画
素毎にグラジェント角と画素中心からのオフセット量と
により定まるピーク画素の領域内のエッジ直線を生成す
る。距離演算手段では、線画生成手段から出力される隣
接するフレーム間のエッジ直線の移動距離を算出し、こ
のエッジ直線の移動距離より対象物までの距離を演算す
る。
According to the present invention, the object is imaged while the image pickup means changes the image pickup position at predetermined intervals, and an image signal for each frame corresponding to each image pickup position is output. The edge enhancement processing means sequentially smoothes the image signal of each frame, and then calculates and outputs the edge intensity and the gradient angle of each pixel of each frame after the smoothing processing by the edge enhancement processing. In the peak extracting means, the edge strength and the gradient angle output from the edge detection processing means are inputted, and the edge strength is determined based on the edge strength of the pixel within the area determined by the gradient angle of the pixel to be subjected to edge detection for each frame. Extracts the peak pixel having the maximum value. In the sub-pixel position detecting means, based on the peak pixel extracted by the peak extracting means and the output of the edge enhancement processing means, the sub-pixel level of the offset amount from the pixel center of the edge position and the gradient angle for each peak pixel. Edge position information is output for each frame. The line drawing generation means generates an edge straight line in a region of a peak pixel determined by a gradient angle and an offset amount from a pixel center for each pixel based on sub-pixel position information for each frame. The distance calculating means calculates a moving distance of an edge straight line between adjacent frames output from the line drawing generating means, and calculates a distance to the object from the moving distance of the edge straight line.

【0009】従って、本発明によれば、左右画像の輪郭
エッジの対応問題を解かなくても、画素間にもサブピク
セルデータをもつ真のエッジ位置情報を得ることがで
き、真のエッジ位置の差(従来技術では視差に相当す
る)から奥行き情報、即ち距離情報を求めることができ
る。
Therefore, according to the present invention, true edge position information having sub-pixel data between pixels can be obtained without solving the problem of the correspondence between the outline edges of the left and right images, and the true edge position information can be obtained. Depth information, that is, distance information can be obtained from the difference (corresponding to parallax in the related art).

【0010】[0010]

【実施例】【Example】

《第1実施例》以下、本発明の第1実施例を図1ないし
図16に基づいて説明する。
<< First Embodiment >> A first embodiment of the present invention will be described below with reference to FIGS.

【0011】図1には、第1実施例に係る距離測定装置
10の全体構成が概略的に示されている。
FIG. 1 schematically shows the entire configuration of a distance measuring apparatus 10 according to a first embodiment.

【0012】この距離測定装置10は、CCDカメラ1
2と、光路選択手段14と、A/D(アナログ−ディジ
タル)変換手段16と、エッジ検出処理手段としての平
滑・微分手段18と、ピーク抽出手段20と、サブピク
セル位置検出手段22と、線画生成手段24と、距離演
算手段26とを有している。
The distance measuring device 10 includes a CCD camera 1
2, an optical path selecting means 14, an A / D (analog-digital) converting means 16, a smoothing / differentiating means 18 as an edge detecting means, a peak extracting means 20, a sub-pixel position detecting means 22, a line drawing It has a generation unit 24 and a distance calculation unit 26.

【0013】これをさらに詳述すると、CCDカメラ1
2は、対象物を撮像し画像信号(512画素×512画
素)を出力する。光路選択手段14は、所定時間毎、例
えば33ms (ビデオレートとも言われ、通常のテレビ
の1フレームの処理時間に相当する)毎に、微小距離
(撮像画面上の1〜2画素に相当する距離)の間隔を持
った光路L1、L2を選択するためのもので、例えば、
図20に示される如く構成される。即ち、図20(A)
に示されるように、この光路選択手段14は、CCDカ
メラ12に向かう光路L2上に当該光路L2対し45°
傾斜した面上で回転する回転ミラー90と、この回転ミ
ラー90の回転面に略平行に配置された固定ミラー92
とを含んで構成される。回転ミラー90は、図20
(A)の矢印A方向から見ると、図20(B)に示され
るように、円形の枠90Aと、この円形の枠90A内に
固着された略半円形のミラー90Bとから成り、モータ
94によって前記所定時間(33ms)に同期して回転
させられる。従って、この光路選択手段14では、例え
ばミラー90Bが図20(A)に示される位置にある時
は、光路L2がミラー90Bによって妨げられるが、光
路L1が固定ミラー92とミラー90BとによってCC
Dカメラ12に導かれ、例えばミラー90Bが図20
(A)に示される位置から180°回転した位置にある
場合には、光路L1,L2ともに枠90A内部の空間を
通過し、光路L2がCCDカメラ12に導かれる。この
ようにして、CCDカメラ12には所定時間毎(33m
s毎)に光路L1とL2とが交互に導かれる。
More specifically, the CCD camera 1
2 images an object and outputs an image signal (512 pixels × 512 pixels). The optical path selecting unit 14 sets a small distance (a distance corresponding to 1 to 2 pixels on the image pickup screen) every predetermined time, for example, every 33 ms (also referred to as a video rate, which corresponds to a processing time of one frame of a normal television). ) For selecting the optical paths L1 and L2 with an interval of, for example,
The configuration is as shown in FIG. That is, FIG.
As shown in the figure, the optical path selecting means 14 is arranged on the optical path L2 toward the CCD camera 12 at 45 ° with respect to the optical path L2.
A rotating mirror 90 that rotates on an inclined surface, and a fixed mirror 92 that is disposed substantially parallel to the rotating surface of the rotating mirror 90
It is comprised including. The rotating mirror 90 is shown in FIG.
When viewed from the direction of arrow A in FIG. 20A, as shown in FIG. 20B, the motor 94 includes a circular frame 90A and a substantially semicircular mirror 90B fixed in the circular frame 90A. Thus, the motor is rotated in synchronization with the predetermined time (33 ms). Therefore, in the optical path selecting means 14, for example, when the mirror 90B is at the position shown in FIG. 20A, the optical path L2 is blocked by the mirror 90B, but the optical path L1 is blocked by the fixed mirror 92 and the mirror 90B.
The mirror 90B is guided to the D camera 12, for example, as shown in FIG.
When the optical path is rotated by 180 degrees from the position shown in FIG. 2A, both the optical paths L1 and L2 pass through the space inside the frame 90A, and the optical path L2 is guided to the CCD camera 12. In this way, the CCD camera 12 is moved to the CCD camera 12 every predetermined time (33 m
s), the optical paths L1 and L2 are alternately guided.

【0014】本実施例では、この光路選択手段14とC
CDカメラ12とによって撮像位置を33ms 毎に変
更、ここでは光路L1、L2を切り換え選択する撮像手
段11が構成されている。即ち、CCDカメラ12と光
路選択手段14との組合せにより、走査線間の対応がな
されている微小距離間隔(1〜2画素程度、例えば数m
m)を持った2台のカメラから画像を33ms 毎に切替
えながら撮像するのと同等の対象物の撮像が可能とな
り、33ms 毎に当該対象物の濃淡画像が1フレーム得
られる。
In this embodiment, the optical path selecting means 14 and C
An imaging unit 11 that changes the imaging position with the CD camera 12 every 33 ms, and switches and selects the optical paths L1 and L2 is configured here. That is, the combination of the CCD camera 12 and the optical path selecting means 14 causes a minute distance interval (approximately 1 to 2 pixels, for example, several m) corresponding between the scanning lines.
m), it is possible to capture an image of an object equivalent to the case of imaging while switching images every 33 ms from one camera to another, and one frame image of the object is obtained every 33 ms.

【0015】A/D変換手段16は、撮像手段12から
出力されるアナログ信号である画像信号S1をディジタ
ル画像信号S2に変換する変換手段である。
The A / D conversion means 16 is a conversion means for converting an image signal S1 which is an analog signal output from the imaging means 12 into a digital image signal S2.

【0016】平滑・微分手段18は、フレーム毎の濃淡
画像データであるディジタル画像信号S2を入力し、当
該ディジタル画像信号S2を順次平滑化して画像信号の
雑音を除去した後、空間微分して雑音除去後の画素毎の
エッジ強度(これについては後述する)及びグラジェン
ト角(これについては、後述する)を演算する手段であ
る。
The smoothing / differentiating means 18 receives a digital image signal S2 which is gray-scale image data for each frame, sequentially smoothes the digital image signal S2 to remove noise of the image signal, and spatially differentiates the noise to remove noise. This is a means for calculating the edge strength (which will be described later) and the gradient angle (which will be described later) for each pixel after removal.

【0017】この平滑・微分手段18は、具体的には、
図2に示されるように、平滑化手段28、3×3の画素
から成るウインドウ30、X方向微分手段32、Y方向
微分手段34、エッジ強度グラジェント演算手段36、
ルックアップテーブル(以下「LUT」という)38,
40、及びラッチ回路42,44を含んで構成されてい
る。ここで、この平滑・微分手段18の構成各部につい
て更に詳細に説明する。
The smoothing / differentiating means 18 is, specifically,
As shown in FIG. 2, a smoothing means 28, a window 30 composed of 3 × 3 pixels, an X direction differentiating means 32, a Y direction differentiating means 34, an edge intensity gradient calculating means 36,
Look-up table (hereinafter referred to as “LUT”) 38,
40, and latch circuits 42 and 44. Here, each component of the smoothing / differentiating means 18 will be described in more detail.

【0018】平滑化手段28は、A/D変換手段16か
らの出力データである画像信号S2を入力とし、ガウス
の分布関数により得られる8×8のコンボリューション
をS2に施して雑音成分を除去した16ビットの画像デ
ータS3(fs (x, y))を出力する。なお、コンボ
リューションのマスクサイズの大きさは8×8より大き
くても構わない。
The smoothing means 28 receives the image signal S2, which is output data from the A / D conversion means 16, and applies an 8 × 8 convolution obtained by a Gaussian distribution function to S2 to remove noise components. image data S3 (f s (x, y )) of 16 bits and outputs a. Note that the size of the convolution mask size may be larger than 8 × 8.

【0019】この画像データ(濃度、輝度等の画素値の
データ)S3が、3×3のウインドウ30の中心位置の
画素に入力され、このウインドウ30では、x方向,y
方向の両隣(即ち、前後左右)のデータS4(fs (x
+1, y)),データS5(fs (x−1, y)),デ
ータS6(fs (x, y+1)),データS7(f
s(x, y−1))を求め、これらのデータを図示のよ
うに出力する。
This image data (data of pixel values such as density and luminance) S3 is input to a pixel at the center of a 3 × 3 window 30.
Data S4 in the direction of both sides (i.e., front, rear, right and left) (f s (x
+1, y)), the data S5 (f s (x-1 , y)), data S6 (f s (x, y + 1)), data S7 (f
s (x, y-1)), and outputs these data as shown.

【0020】X方向の微分手段32,Y方向の微分手段
34では、それぞれS4とS5,S6とS7をそれぞれ
微分(実際には、差分)して次式(1),(2)で示さ
れるデータS8(gx (x, y)),データS9(gy
(x, y))をそれぞれ出力する。
In the X-direction differentiating means 32 and the Y-direction differentiating means 34, S4 and S5 and S6 and S7 are respectively differentiated (actually, differences) and expressed by the following equations (1) and (2). Data S8 (g x (x, y)) and data S9 (g y
(X, y)).

【0021】[0021]

【数1】 (Equation 1)

【0022】エッジ強度グラジェント演算手段36で
は、データS8、S9が入力されると、各(x,y)に
おけるエッジ強度データS10(cont(x,y))及び
グラジェント角データS11(orient(x,y))をそ
れぞれ次式(3),(4)に従って算出し出力する。
When the data S8 and S9 are input to the edge intensity gradient calculating means 36, the edge intensity data S10 (cont (x, y)) and the gradient angle data S11 (orient ( x, y)) according to the following equations (3) and (4).

【0023】[0023]

【数2】 (Equation 2)

【0024】ここで、エッジ強度データとは、X方向微
分手段32,Y方向微分手段34の出力であるS8,S
9をx方向成分,y方向成分とするベクトル,即ち画像
データS3の空間一次微分ベクトル(グラジェントベク
トル)の大きさcont(x, y)をいい、グラジェント角
データとは、当該グラジェントベクトルの方向データor
ient(x, y)を意味する。
Here, the edge intensity data are the outputs of the X-direction differentiating means 32 and the Y-direction differentiating means 34, S8 and S8.
9 is a vector having an x-direction component and a y-direction component, that is, a magnitude cont (x, y) of a spatial first derivative vector (gradient vector) of the image data S3, and the gradient angle data is the gradient vector Direction data or
ient (x, y).

【0025】データS10,S11は、それぞれ16ビ
ット,12ビットのデータとして出力される。
The data S10 and S11 are output as 16-bit and 12-bit data, respectively.

【0026】LUT38,40は、これらのデータS1
0,S11をそれぞれ8ビットデータS12,S13に
変換する回路で、当該LUT38,40には任意の関数
を設定することができる。これによって、データS1
0,S11のある特定範囲の強調、データ圧縮が可能と
なる。これらのLUT38,40は、後段のピーク抽出
手段20,サブピクセル位置検出手段22の大規模化を
防ぐものとして効果がある。
The LUTs 38 and 40 store these data S1
This circuit converts 0 and S11 into 8-bit data S12 and S13, respectively, and an arbitrary function can be set in the LUTs 38 and 40. Thereby, the data S1
It is possible to emphasize a specific range of 0 and S11 and compress data. These LUTs 38 and 40 are effective in preventing the peak extracting means 20 and the sub-pixel position detecting means 22 in the subsequent stage from increasing in scale.

【0027】ここでは、一例としてLUT38,40
に、以下のような式(5),(6)でそれぞれ定義され
る関数が設定されているものとする。
Here, as an example, the LUTs 38, 40
It is assumed that functions defined by the following equations (5) and (6) are set in the following.

【0028】[0028]

【数3】 (Equation 3)

【0029】ここで、E(x,y)はエッジ強度データ
cont(x,y)の出力、G(x,y)はグラジェント角
データorient(x,y)の出力を、それぞれ指す。
Here, E (x, y) is edge strength data.
The output of cont (x, y) and G (x, y) indicate the output of gradient angle data orient (x, y), respectively.

【0030】ラッチ回路42,43では、これらのデー
タS12,S13を一旦ラッチし、8ビットのエッジ強
度データE(x,y),グラジェント角データG(x,
y)を出力する。
In the latch circuits 42 and 43, these data S12 and S13 are temporarily latched, and 8-bit edge intensity data E (x, y) and gradient angle data G (x,
y) is output.

【0031】本実施例では、平滑・微分手段18では、
33ms毎に入力されるフレーム毎の画像信号に対し、
上述した一連の処理を行い、8ビットのエッジ強度デー
タE(x,y),グラジェント角データG(x,y)を
ビデオレートで出力する。
In this embodiment, the smoothing / differentiating means 18
For an image signal for each frame input every 33 ms,
A series of processes described above are performed, and 8-bit edge intensity data E (x, y) and gradient angle data G (x, y) are output at a video rate.

【0032】前記ピーク抽出手段20は、各フレーム毎
にエッジ検出の対象となる画素(以下、「対象画素」と
いう)のグラジェント角により定まる領域内の画素のエ
ッジ強度に基づきエッジ強度が極大値を有するピーク画
素を抽出するもので、より詳しくは、対象画素(注目画
素)のエッジ強度を回り8つの最近接画素(「8近傍画
素」ともいう)のエッジ強度に比べてピークになってい
るかどうかを判定し、もしピークならばその対象画素に
エッジが存在すると判定する手段である(図7参照)。
The peak extracting means 20 calculates a maximum value of the edge intensity based on the edge intensity of a pixel within a region determined by a gradient angle of a pixel to be subjected to edge detection (hereinafter, referred to as a “target pixel”) for each frame. Is extracted. More specifically, is the peak intensity around the edge intensity of the target pixel (target pixel) compared to the edge intensity of the eight nearest pixels (also referred to as “eight neighboring pixels”)? This is a means for determining whether an edge exists at the target pixel if a peak is present (see FIG. 7).

【0033】このピーク抽出手段20は、具体的には、
図3に示されるように、最近接画素エッジ強度選択手段
46と、ピーク比較判定手段48とを含んで構成されて
いる。ここで、これら構成各部について更に詳細に説明
すると、最近接画素エッジ強度選択手段46では、平滑
・微分手段18の最終出力であるエッジ強度データE,
グラジェント角データGを入力とし、図7に示されるよ
うに、全ての画素に対し3×3のウインドウ上のエッジ
強度E0 〜E8 を出力する。この際、グラジェント角デ
ータGは、図7に示されるように、0°≦G<360°
の範囲では、337.5°≦G<360°及び0°≦G
<22.5°又は157.5°≦G<202.5°の領
域(1)で0、22.5°≦G<67.5°又は20
2.5°≦G<247.5°の領域(2)で1、67.
5°≦G<112.5°又は247.5°≦G<29
2.5°の領域(3)で2、112.5°≦G<15
7.5°又は292.5°≦G<337.5°の領域
(4)で3と設定され、45゜間隔の4方位を示すよう
にデコードされる。
This peak extracting means 20 is, specifically,
As shown in FIG. 3, it is configured to include a nearest pixel edge strength selecting means 46 and a peak comparison judging means 48. Here, these components will be described in more detail. In the nearest pixel edge intensity selecting means 46, edge intensity data E, which is the final output of the smoothing / differentiating means 18, is output.
The gradient angle data G is input, and as shown in FIG. 7, edge intensities E 0 to E 8 on a 3 × 3 window are output for all pixels. At this time, the gradient angle data G is 0 ° ≦ G <360 ° as shown in FIG.
337.5 ° ≦ G <360 ° and 0 ° ≦ G
0, 22.5 ° G <67.5 ° or 20 in the area (1) where <22.5 ° or 157.5 ° ≦ G <202.5 °
In the region (2) where 2.5 ° ≦ G <247.5 °, 1,67.
5 ° ≦ G <112.5 ° or 247.5 ° ≦ G <29
2, 112.5 ° ≦ G <15 in 2.5 ° region (3)
In the region (4) where 7.5 ° or 292.5 ° ≦ G <337.5 °, 3 is set, and decoding is performed so as to indicate four directions at 45 ° intervals.

【0034】即ち、図3中のデータS14は、エッジ強
度E0 〜E8 と、対象画素のデコードされたグランジェ
ント角データgo を含むデータである。
[0034] That is, the data S14 in in Figure 3, the edge intensity E 0 to E 8, a data including a ground stringent angle data g o the decoded target pixel.

【0035】ピーク比較判定手段48では、データS1
4中のgo の値に基づき8近傍画素の中からグラジェン
トベクトルの方向、およびその反対方向に存在する2つ
のデータを特定する。そして、対象画素の、回りの8つ
の最近接画素のエッジデータE1 〜E8 のうちからエッ
ジ方向に直交する両側の2つの画素のエッジ強度データ
i ,Ei+4 (i=1,2,3,4 )を決定し、その後、エッ
ジ強度E0 とEi 、E 0 とEi+4 のそれぞれの大小関係
を比較し、ピーク位置を決定する。ここで、同レベルの
エッジ強度がエッジ方向に垂直な方向で連続する場合で
も、上記の比較のうち一方に等号を含める(例えばEi
≦E0 <Ei+4 )ことで、エッジ方向と直交する方向に
必ず一つの画素だけをピークとして選択することが可能
となる。従って、輪郭線の途切れを防ぐことができる。
In the peak comparing / deciding means 48, the data S1
G in 4oGradient from 8 neighboring pixels based on the value of
Two in the direction of the vector and the opposite direction
Identify data. And the eight surrounding pixels
Edge data E of the nearest pixel of1~ E8Out of
Edge intensity data of two pixels on both sides orthogonal to the direction
Ei, Ei + 4(I = 1,2,3,4), and then
J strength E0And Ei, E 0And Ei + 4The relationship of each
And determine the peak position. Here, at the same level
When the edge strength is continuous in the direction perpendicular to the edge direction
Also include an equal sign in one of the above comparisons (eg, Ei
≦ E0<Ei + 4), In the direction orthogonal to the edge direction
Only one pixel can be selected as peak
Becomes Therefore, it is possible to prevent the contour line from being interrupted.

【0036】ピーク比較判定手段48での比較の結果、
ピーク候補画素マーク信号が出力されるが、これは、対
象画素E0 が隣接画素に対してピークと判定したときに
出力される信号であり、実際には、ノイズにより誤って
ピークが抽出されることがないように一定レベル以下の
データをピーク抽出の対象から除外するため、対象画素
のエッジ強度Eが一定の閾値(Th )以上の時にそれぞ
れピーク候補画素マーク信号Pを出力するようにするこ
とが望ましく、本実施例でもそのようにしている。更
に、本実施例では、閾値としてハイレベルのHthとそれ
よりローレベルのLthとを設けてピーク候補画素マーク
信号Pとして、エッジ強度の大きなピーク画素マーク信
号「HPEAK」とエッジ強度の小さなピーク画素マー
ク信号「LPEAK」の2つの信号を得るようにしてい
る。2つの閾値Hth,Lthを設けることにより、より微
細なピーク検出が可能となるからである。また、ピーク
画素マーク信号「HPEAK」、「LPEAK」を利用
したピーク延長(ヒステリシス閾値処理)にも応用でき
る。
As a result of the comparison by the peak comparison judging means 48,
A peak candidate pixel mark signal is output. This signal is output when the target pixel E 0 is determined to be a peak with respect to an adjacent pixel. In practice, a peak is erroneously extracted due to noise. The peak candidate pixel mark signal P is output when the edge strength E of the target pixel is equal to or higher than a predetermined threshold (Th) in order to exclude data below a certain level from the target of the peak extraction so as not to cause a problem. Is desirable, and this is the same in the present embodiment. Further, in this embodiment, the L th of the high-level H th and it than the low level as a peak candidate pixel mark signal P is provided as the threshold, it small for a large peak pixel mark signal "HPEAK" the edge intensity of the edge strength Two signals of a peak pixel mark signal "LPEAK" are obtained. This is because the provision of the two thresholds H th and L th enables finer peak detection. Further, the present invention can be applied to peak extension (hysteresis threshold processing) using the peak pixel mark signals “HPEAK” and “LPEAK”.

【0037】以上に述べた動作を全画素に対し実行する
ことにより、「HPEAK」、「LPEAK」により濃
淡画素のエッジピーク、即ち、輪郭を抽出できることに
なる。また、「HPEAK」、「LPEAK」は8ビッ
ト構成のピーク画素データの7ビット目、6ビット目に
割り当てられており(他のビットは全て1)、モニター
で表示した場合、一番白い(輝度の高い)部分がエッジ
強度の大きなピーク画素、やや暗く白い(輝度が低い)
部分がエッジ強度の小さなピーク画素として表示され
る。
By executing the above-described operation for all the pixels, it is possible to extract the edge peak, that is, the contour, of the grayscale pixel by "HPEAK" and "LPEAK". “HPEAK” and “LPEAK” are assigned to the 7th and 6th bits of the 8-bit peak pixel data (all other bits are 1). Part) is a peak pixel with a large edge intensity, slightly dark white (low brightness)
The portion is displayed as a peak pixel having a small edge intensity.

【0038】ピーク抽出手段20では、上記の処理を各
フレーム毎に行い、各フレーム毎のピーク候補画素マー
ク信号Pをビデオレートで出力する。
The peak extracting means 20 performs the above-described processing for each frame, and outputs a peak candidate pixel mark signal P for each frame at a video rate.

【0039】前記サブピクセル位置検出手段22は、抽
出されたピーク画素に基づき平滑・微分手段18の出力
の各画素間を内挿補間し各画素毎に、エッジ位置の画素
中心からのオフセット量及びグラジェント角から成るサ
ブピクセルレベルのエッジ位置情報を出力する手段、即
ち、ピーク抽出手段20の出力Pよりピーク画素におけ
る輪郭エッジの真のピーク位置までの変位座標ベクトル
IPを求める手段である。このサブピクセル位置検出手
段22における内挿補間までの上述した一連のエッジ検
出は、J.F.Canny による「”Finding edges and lines
in images ”,M.I.T .Artificial Intell.Lob.,Camb
ridge,MA,Rep.AI-TR-720,1983.」で発表された公知のCa
nny のエッジファインダーをハードウエア化したもので
ある。
The sub-pixel position detecting means 22 interpolates between the pixels of the output of the smoothing / differentiating means 18 on the basis of the extracted peak pixels, and for each pixel, the offset amount of the edge position from the pixel center and This is a means for outputting edge position information at a sub-pixel level consisting of a gradient angle, that is, a means for obtaining a displacement coordinate vector IP from the output P of the peak extracting means 20 to a true peak position of a contour edge in a peak pixel. The above-described series of edge detection up to the interpolation in the sub-pixel position detection means 22 is performed by “Finding edges and lines” by JFCanny.
in images ", MIT. Artificial Intell. Lob., Camb
ridge, MA, Rep. AI-TR-720, 1983.
It is a hardware version of nny's edge finder.

【0040】このサブピクセル位置検出手段22は、具
体的には、図4に示されるように、最近接画素のエッジ
データE1 〜E8 の中から内挿補間対象となる4つのエ
ッジ強度データを取り出す最近接内挿エッジ強度データ
選択手段50と、対象画素におけるグラジェント角デー
タGより、x方向、y方向でのエッジ強度の補間Ea
b を求めるエッジ強度内挿補間手段52と、対象画素
におけるグラジェント角データGと前段の出力であるE
a ,Eb と対象画素E0 より関数の当てはめにより、真
のピーク位置を検出しx方向、y方向のオフセット量Δ
x,Δyを求めるサブピクセルエッジ位置演算手段54
とを含んで構成されている。このサブピクセル位置検出
手段22は、本実施例では、対象画素の回りの8つの最
近接画素のエッジ強度からまずx、またはy方向に一次
関数による内挿補間を行い、その結果とピーク画素とで
放物線近似し、その極大値を真のエッジの位置としてサ
ブピクセルレベル(例えば、CCDセンサ12の分解能
1画素の1/10オーダの分解能をいう)のデータとし
てΔx,Δyを求める。この処理は各フレーム毎の全画
素に対してビデオレートでなされる。
As shown in FIG. 4, the sub-pixel position detecting means 22 specifically selects four edge intensity data to be interpolated from the edge data E 1 to E 8 of the nearest pixel. the nearest interpolation edge intensity data selection means 50 to take out, from the gradient angle data G in the target pixel, x-direction, interpolation E a of the edge intensities in the y direction,
Edge intensity interpolation and interpolation means 52 for obtaining E b , gradient angle data G at the target pixel, and E which is the output of the preceding stage
a, the fitting function than E b and pixel E 0, x-direction to detect the true peak position, offset in the y-direction Δ
sub-pixel edge position calculating means 54 for obtaining x and Δy
It is comprised including. In the present embodiment, the sub-pixel position detecting means 22 first performs an interpolation by a linear function in the x or y direction from the edge intensities of the eight nearest pixels around the target pixel. , And Δx and Δy are obtained as data at the subpixel level (for example, a resolution of 1/10 of one pixel of the CCD sensor 12) with the maximum value as the position of the true edge. This process is performed at the video rate for all pixels in each frame.

【0041】これをさらに詳述すると、最近接内挿エッ
ジ強度データ選択手段50では、図7に示されるよう
に、45゜間隔の対称性を考慮した4方位を示すグラジ
ェント角データよりピーク方向に垂直な方向の4つの最
近接画素のエッジ強度を選択する。例えば、図8で示さ
れるように、エッジに垂直な方向dが(0≦θ0 <45
゜)の場合には、それぞれE1,E2,E5,E6が選
択されデータS15として出力される。この選択はグラ
ジェントベクトルの方向に応じて行われる。
More specifically, as shown in FIG. 7, the nearest interpolation edge intensity data selecting means 50 calculates the peak direction from the gradient angle data indicating the four directions considering the symmetry at 45 ° intervals. The edge intensity of the four closest pixels in the direction perpendicular to. For example, as shown in FIG. 8, the direction d perpendicular to the edge is (0 ≦ θ 0 <45).
In the case of ゜), E1, E2, E5, and E6 are selected and output as data S15. This selection is made according to the direction of the gradient vector.

【0042】エッジ強度内挿補間手段52では、一次関
数による内分の補間を行う。即ち、図9に示されるよう
に、エッジに垂直な方向が(0≦θ0 <45゜)場合に
は2つの内分の補間点Ea ,Eb はtan (θ0 )によっ
てEm 、En を内分する点のエッジ強度であるから、次
式(7),(8)で表される。
The edge intensity interpolation interpolating means 52 performs internal interpolation using a linear function. That is, as shown in FIG. 9, the interpolation point of the two internal division when edges are perpendicular (0 ≦ θ 0 <45 °) E a, E b is E m by tan (θ 0), since the edge intensity of a point which internally divides the E n, the following equation (7), represented by (8).

【0043】[0043]

【数4】 (Equation 4)

【0044】このエッジ強度内挿補間手段52の出力S
16は上記のEa ,Eb である。サブピクセルエッジ位
置演算手段54では、図10に示されるように、曲線y
=ax2 +bx+cをEa ,E0 ,Eb にフィッティン
グさせ、その曲線の極大値を求めることにより対象画素
からのオフセット量を求め、さらに対象画素におけるグ
ラジェント角データよりx,y方向のオフセット量Δ
x,Δyを求める。
The output S of the edge strength interpolation interpolation means 52
Reference numeral 16 denotes Ea and Eb described above. In the sub-pixel edge position calculating means 54, as shown in FIG.
= Ax 2 + bx + c is fitted to E a , E 0 , and E b , the maximum value of the curve is obtained, the offset amount from the target pixel is obtained, and the offset in the x and y directions is obtained from the gradient angle data at the target pixel. Quantity Δ
x and Δy are obtained.

【0045】ここで、オフセット量Δx,Δyを求める
ためのアルゴリズムについて説明する。ここでは、一例
として、(0≦θ0 <45゜)の場合について説明す
る。
Here, an algorithm for obtaining the offset amounts Δx and Δy will be described. Here, the case of (0 ≦ θ 0 <45 °) will be described as an example.

【0046】3点(−1/cos(θ0),Eb ),(0,E
0 ),(1/cos(θ0),Ea )が、曲線y=ax2 +b
x+c上にあることからa,b,cは次式(9)で表さ
れる。
The three points (−1 / cos (θ 0 ), E b ), (0, E
0 ), (1 / cos (θ 0 ), E a ) is the curve y = ax 2 + b
Since they are on x + c, a, b, and c are represented by the following equation (9).

【0047】[0047]

【数5】 (Equation 5)

【0048】点Ep では、[0048] In point E p,

【0049】[0049]

【数6】 (Equation 6)

【0050】であるから、E0 からのEp のオフセット
量Δは、
[0050] a since, the offset Δ of E p from E 0,

【0051】[0051]

【数7】 (Equation 7)

【0052】で表される。Δを(x,y)からのオフセ
ット量(Δx,Δy)で表す,即ち成分表示すると、Δ
x=Δcos(θ0),Δy=Δsin(θ0)であるから、以上を
まとめると、
Is represented by Δ is represented by an offset amount (Δx, Δy) from (x, y), that is, when a component is displayed, Δ
Since x = Δcos (θ 0 ) and Δy = Δsin (θ 0 ), the above can be summarized as follows:

【0053】[0053]

【数8】 (Equation 8)

【0054】同様の方法で他の場合に対しても出力S1
7(Δx,Δy)が求められる。この出力S17は7ビ
ット符号つき表現のデータ構造である。ピーク抽出手段
20で抽出された画素マーク信号の存在する位置に、真
のピーク位置との変位座標ベクトルIP(Δx,Δy)
が求められる(他の角度についても同様に求めることが
できる)。ハードウエアの最小分解能は1/128の性
能を持つが、実験の結果、一般のエッジに対しては0.03
〜0.04の分解能であることが確認された。
In the same manner, the output S1 is output for other cases.
7 (Δx, Δy) is obtained. The output S17 has a data structure of a 7-bit signed expression. At the position where the pixel mark signal extracted by the peak extracting means 20 exists, a displacement coordinate vector IP (Δx, Δy) from the true peak position is provided.
Is obtained (the same applies to other angles). Although the minimum resolution of the hardware is 1/128, the experimental result shows that 0.03
It was confirmed that the resolution was about 0.04.

【0055】前記線画生成手段24は、各フレーム毎に
S17(サブピクセルエッジ位置情報IP)に基づき画
素毎にグラジェント角により定まる領域内の画素のエッ
ジ直線を生成する手段で、画素間にもエッジ位置データ
を生成する。
The line image generating means 24 generates an edge straight line of a pixel within a region determined by a gradient angle for each pixel based on S17 (sub-pixel edge position information IP) for each frame. Generate edge position data.

【0056】この線画生成手段24は、具体的には、図
5に示されるように、小領域を取り込み16倍に拡大し
て出力するダブルバッファメモリ56と、予め線画参照
マップが格納された線画参照テーブルメモリ58と、線
画パターン生成メモリ60と、(x,y)指定回路62
及びカウンター64とを含んで構成されている。
Specifically, as shown in FIG. 5, the line drawing generating means 24 includes a double buffer memory 56 for taking in a small area and enlarging it by 16 times and outputting it, and a line drawing storing a line drawing reference map in advance. Reference table memory 58, line drawing pattern generation memory 60, and (x, y) designating circuit 62
And a counter 64.

【0057】図5において、入力データS20は、サブ
ピクセル位置検出手段22の出力であるピーク画素にお
ける輪郭エッジの真のピーク位置までの変位座標ベクト
ルIPと平滑・微分手段18の出力であるグラジェント
角データGから選択された1ワード(16ビット)で構
成されたデータである。
In FIG. 5, input data S 20 is a displacement coordinate vector IP to the true peak position of the contour edge at the peak pixel output from the sub-pixel position detecting means 22 and a gradient output output from the smoothing / differentiating means 18. This is data composed of one word (16 bits) selected from the corner data G.

【0058】図11(a)に示すように、このデータS
20の下位バイトはサブピクセル位置検出手段22によ
り求められるx,y方向のサブピクセルエッジ位置デー
タΔx,Δyの上位4ビットから構成されるdx,dy
であり、これらは2の補数表現で表されている。また、
図11(b)に示すように、このデータS20の上位バ
イトはピーク抽出手段20により求められるエッジ位置
画素マーカビットと平滑・微分手段18によるグラジェ
ント角データGの上位7ビットから構成されている。
As shown in FIG. 11A, this data S
The lower 20 bytes are dx and dy composed of the upper 4 bits of the subpixel edge position data Δx and Δy in the x and y directions obtained by the subpixel position detecting means 22.
Which are represented in two's complement notation. Also,
As shown in FIG. 11B, the upper byte of the data S20 is composed of the edge position pixel marker bits obtained by the peak extracting means 20 and the upper 7 bits of the gradient angle data G by the smoothing / differentiating means 18. .

【0059】ダブルバッファメモリ56は、撮像された
512×512の画像での1画素のものを16画素で表
現する仕組みを持っている。即ち、(x,y)指定回路
62で指定される任意のx,yの指定とそのx,yを始
点とし32×32の領域を入力データS20から取り出
す機構によりダブルバッファメモリ56への書き込みが
行われ(図12参照)、カウンター64による一方の出
力S21が動作中のときにダブルバッファメモリ56か
らの読み出しが行われる。さらに、本実施例では、図示
しないダブルバッファ機構により33ms ごとに使用す
るメモリを切替えることにより33ms で16倍に拡大
された出力S22が得られるようになっている。
The double buffer memory 56 has a mechanism of expressing one pixel in a captured 512 × 512 image by 16 pixels. That is, writing to the double buffer memory 56 is performed by a mechanism for designating arbitrary x and y designated by the (x, y) designating circuit 62 and extracting a 32 × 32 area from the input data S20 with the x and y as starting points. (See FIG. 12), and reading from the double buffer memory 56 is performed when one output S21 by the counter 64 is operating. Further, in the present embodiment, the output S22 enlarged 16 times in 33 ms can be obtained by switching the memory to be used every 33 ms by a double buffer mechanism (not shown).

【0060】カウンター64は、水平(x)方向と垂直
(y)方向をそれぞれ512ずつカウントするもので、
この一方の出力S21は、それらのうち上位5ビットの
出力であり、他方の出力S23は下位4ビットの出力で
ある。
The counter 64 counts 512 in the horizontal (x) direction and 512 in the vertical (y) direction, respectively.
The one output S21 is an output of the upper 5 bits among them, and the other output S23 is an output of the lower 4 bits.

【0061】線画参照テーブルメモリ58は、入力とな
るデータS22が16ビットであるのに対し、現在市販
のメモリでは作成できる線画テンプレートの数が212
あることから、できるだけ連続で滑らかに見えるような
データにデータを圧縮するメモリである。
In the line drawing reference table memory 58, since the input data S22 is 16 bits, the number of line drawing templates that can be created with currently available memories is 2 12 , so that the line drawing reference memory 58 looks as continuous and smooth as possible. It is a memory that compresses data into simple data.

【0062】ここで、このデータ圧縮について、具体的
にその一例を説明すると、エッジ位置画素マーカビット
が1の時、上位バイトは128〜255までの値をと
る。上位バイトの値をupbyteとするとマップに利用され
るグラジェントigは次のような式(12)により4ビ
ットに削減される。
Here, a specific example of the data compression will be described. When the edge position pixel marker bit is 1, the upper byte takes a value from 128 to 255. Assuming that the value of the upper byte is upbyte, the gradient ig used for the map is reduced to 4 bits by the following equation (12).

【0063】[0063]

【数9】 (Equation 9)

【0064】ただし、ig>15の時はig=0とす
る。igは360゜を0から15までの16の領域に分
けることを意味する。dx,dyはそれぞれ4ビットず
つ下位バイトでマップされる。従って、dx,dyの値
よりマッピングされる関数は
However, when ig> 15, ig = 0. ig means that 360 ° is divided into 16 regions from 0 to 15. dx and dy are each mapped by the lower byte by 4 bits. Therefore, the function mapped from the values of dx and dy is

【0065】[0065]

【数10】 (Equation 10)

【0066】として定義できる。このLlabelで示される
ラベル値がデータS24として出力される。なお、ピー
クでない画素には線画パターン生成メモリ60の線分を
表示しないラベル値Llabelを割り当てておく。これによ
り角度分解能11.25 ゜で線分が表現できるようになる。
Can be defined as The label value indicated by Llabel is output as data S24. Note that a label value Llabel that does not display a line segment in the line drawing pattern generation memory 60 is assigned to a pixel that is not a peak. As a result, a line segment can be expressed with an angular resolution of 11.25 °.

【0067】この点に関し、本実施例では、線画表示パ
ターン生成メモリ60として1MB(メガバイト)のも
のを使用しているが、これよりも大容量のメモリが実現
できれば線画参照マップで角度情報を圧縮することなく
割り当てることも可能となる。出力データS24は12
ビットのデータとなる。
In this regard, in this embodiment, the line drawing display pattern generation memory 60 uses a memory of 1 MB (megabyte). However, if a memory having a larger capacity can be realized, the angle information is compressed by the line drawing reference map. It is also possible to assign without doing. The output data S24 is 12
It becomes bit data.

【0068】線画パターン生成メモリ60は、データS
3により指定されたラベルにより予め作成しておいた線
画のパターンを参照することにより線画を生成する。ま
た、カウンター64によるx,y方向の下位の4ビット
により16×16の領域のパターンを描く。
The line drawing pattern generation memory 60 stores the data S
The line drawing is generated by referring to the line drawing pattern created in advance by the label designated by the number 3. Also, a pattern of a 16 × 16 area is drawn by the lower 4 bits in the x and y directions by the counter 64.

【0069】線画参照テーブルメモリ58で割り当てら
れるように作成される方向パターンは、図13に示され
るように16パターンである。それらを、dx,dy方
向にずらしたパターンを予め用意しておく。例えば、i
g=4,dx=2,dx=2つまりLlabel=1058の
時は図14のように表される。これを実際の部品に適用
して表現したものが第15図である。同図(a)は電子
部品であるコネクタを512×512の大きさでのピー
ク画素を表したものである。同図(b)はコネクターの
右上の穴部分を線画生成手段24により表したものであ
る。ピーク画素を16倍に拡大すると16×16の領域
が塗りつぶされガタガタな曲線に表現されるが、1点に
おけるサブピクセルデータから線画を生成することによ
り曲線が滑らかにつながって表現できる。この方法によ
り、従来技術では得ることが不可能であった、画素と画
素の間にもエッジ線画を生成することが可能となった。
The direction patterns created so as to be assigned in the line drawing reference table memory 58 are 16 patterns as shown in FIG. A pattern in which they are shifted in the dx and dy directions is prepared in advance. For example, i
When g = 4, dx = 2, dx = 2, that is, when Llabel = 1058, it is represented as shown in FIG. FIG. 15 shows a representation obtained by applying this to actual parts. FIG. 3A shows a peak pixel of a connector as an electronic component in a size of 512 × 512. FIG. 2B shows the upper right hole of the connector by the line drawing generating means 24. When the peak pixel is enlarged 16 times, the 16 × 16 area is painted out and is represented as a rattling curve. However, by generating a line drawing from the sub-pixel data at one point, the curves can be connected smoothly. With this method, it is possible to generate an edge line image between pixels, which cannot be obtained by the conventional technology.

【0070】なお、この線画生成手段24は、上記の一
連の処理を各フレーム毎に行い、出力であるデータS2
6をビデオレート(33ms )で出力する。
The line drawing generating means 24 performs the above series of processing for each frame, and outputs the data S2
6 is output at a video rate (33 ms).

【0071】前記距離演算手段26は、入力となるデー
タS26の1フレーム(33ms )毎の差を求めること
により視差を求め、その視差より三角測量の原理から距
離を演算する手段である。
The distance calculating means 26 is a means for obtaining a parallax by obtaining a difference of the input data S26 for each frame (33 ms), and calculating a distance from the parallax based on the principle of triangulation.

【0072】この距離演算手段26は、具体的には、図
6に示されるように、1フレーム遅延手段66と、クロ
スバースイッチ68と、サブピクセルピーク位置抽出手
段70と、イメージ展開手段72と、論理積演算手段7
4と、距離演算メモリ76とを含んで構成されている。
As shown in FIG. 6, the distance calculating means 26 includes a one-frame delay means 66, a crossbar switch 68, a sub-pixel peak position extracting means 70, and an image developing means 72. AND operation means 7
4 and a distance calculation memory 76.

【0073】ここで、構成各部について説明すると、1
フレーム遅延手段66は、線画生成手段24の出力デー
タS26を入力とし、1フレーム(画像1画面分の時間
で33ms )遅延されたデータS28を出力すると同時
に次のフレームの書き込みができるメモリを用いて構成
されている。時間的位相の調整されたデータS26とS
28とを重ね合わせると最終的に図16に示されるよう
な2本のサブピクセルエッジ線画を持つ画像がビデオレ
ート(33ms )で得られる。
Here, each component will be described.
The frame delay unit 66 receives the output data S26 of the line drawing generation unit 24 as input, outputs data S28 delayed by one frame (33 ms corresponding to one image screen time), and uses a memory capable of writing the next frame at the same time. It is configured. Time-phase adjusted data S26 and S
Finally, an image having two subpixel edge line drawings as shown in FIG. 16 is obtained at a video rate (33 ms).

【0074】クロスバースイッチ68は、これら2本の
サブピクセルエッジ線画の左右関係を一定にするために
設けられ、必ず画像中で左側にあるものを基準エッジ線
画S30とし且つ右側にあるものを参照エッジ線画S3
2とするように、切替えるスイッチである。
The crossbar switch 68 is provided to keep the left-right relationship between these two sub-pixel edge line drawings constant. The cross bar switch 68 always uses the one on the left side of the image as the reference edge line drawing S30 and refers to the one on the right side. Edge line drawing S3
It is a switch that switches to 2, for example.

【0075】サブピクセルピーク位置抽出手段70は、
基準エッジ線画S30のサブピクセルピーク位置を抽出
する回路である。
The sub-pixel peak position extracting means 70
This is a circuit for extracting a sub-pixel peak position of the reference edge line image S30.

【0076】イメージ展開手段72は、ラインメモリと
シフトレジスタとから構成され、シフトレジスタには上
記サブピクセルエッジ点とサブピクセルエッジ点の幅が
mの時、mの位置に信号S34を出力する。例えば、撮
像画像上でピーク画素位置がn画素以上離れている場合
には、ラインメモリによりL=16×n+mに相当する
位置にS34が出力される。
The image developing means 72 comprises a line memory and a shift register. When the width of the sub-pixel edge point is m, the shift register outputs a signal S34 at the position of m. For example, when the peak pixel position is separated by n pixels or more on the captured image, S34 is output from the line memory to a position corresponding to L = 16 × n + m.

【0077】論理積演算手段74は、サブピクセルピー
ク位置抽出手段70の出力とイメージ展開手段72の出
力との論理積を取る回路であり、ラインメモリに対応し
て設けられた複数のアンドゲートにより構成される。こ
の論理積演算手段74では、上記のLに相当する位置に
出力が得られる。
The logical product calculating means 74 is a circuit for obtaining the logical product of the output of the sub-pixel peak position extracting means 70 and the output of the image developing means 72, and includes a plurality of AND gates provided corresponding to the line memories. Be composed. In the AND operation means 74, an output is obtained at a position corresponding to the above L.

【0078】距離演算メモリ76では、論理積演算手段
74の出力により、そのLに対する距離を求めるための
次式(14)が予め記憶されている。
In the distance calculation memory 76, the following equation (14) for obtaining the distance to L from the output of the AND operation means 74 is stored in advance.

【0079】[0079]

【数11】 [Equation 11]

【0080】三角測量の原理により光路L1,L2の微
小距離間隔δと撮像手段12の焦点距離f、撮像面上で
の1画素の実寸Lp および、撮像面から対象物体までの
距離をZとすると実際カメラ撮像面では1/16画素移
動していることから上式でZを求めることができる。
[0080] and the focal length f of the optical path L1, L2 minute distance interval δ and the imaging means 12 by the principle of triangulation, 1 pixel exact L p and on the imaging surface, the distance from the imaging surface to the object Z Then, since the camera is actually moved by 1/16 pixel on the imaging plane, Z can be obtained by the above equation.

【0081】このようにして検出された距離情報S36
が、距離演算メモリ72から出力される。図16に示さ
れるようにサブピクセルエッジ線画間の幅をLとすると
式(14)で計算される距離ZL が基準エッジ線画の画
素に対し距離情報S36として出力される。
The distance information S36 thus detected
Is output from the distance calculation memory 72. As shown in FIG. 16, assuming that the width between subpixel edge line drawings is L, the distance Z L calculated by Expression (14) is output as distance information S36 to the pixels of the reference edge line image.

【0082】この場合において、エッジ点などの途切れ
を防ぐためにサブピクセルピーク位置抽出手段70を3
×3のパターンで判定し、イメージ展開手段72もライ
ンメモリ及びシフトレジスタを3列並べた構成とするこ
とにより、安定に距離情報を得ることができる。これ
は、ビデオレート(33ms )で実現できる。
In this case, the sub-pixel peak position extracting means 70 is provided with three
Judgment is made with a pattern of × 3, and the image developing means 72 also has a configuration in which the line memories and the shift registers are arranged in three rows, so that distance information can be obtained stably. This can be achieved at a video rate (33 ms).

【0083】以上説明したように、本第1実施例による
と、輪郭エッジの真のピーク位置までの変位座標ベクト
ル出力からビデオレート線画生成し、33ms 毎に1〜
2画素に相当する微小距離間隔ずれた対象物の濃淡画像
を撮像できる光路選択手段14とを設けることにより、
対応点探索をすることなく距離情報をビデオレートで求
めることができる。 従って、本実施例によると、多大
な時間と計算コストを要する対応点探索の必要としない
ので、ビデオレートで対象物体の輪郭エッジの3次元座
標情報を抽出する画像処理装置を構築することができ
る。
As described above, according to the first embodiment, a video rate line drawing is generated from the displacement coordinate vector output up to the true peak position of the contour edge, and 1 to 33 ms is generated.
By providing the optical path selecting means 14 capable of capturing a grayscale image of an object shifted by a small distance interval corresponding to two pixels,
Distance information can be obtained at a video rate without searching for corresponding points. Therefore, according to the present embodiment, since it is not necessary to search for a corresponding point that requires a great deal of time and calculation cost, it is possible to construct an image processing apparatus that extracts three-dimensional coordinate information of a contour edge of a target object at a video rate. .

【0084】《第2実施例》次に、本発明の第2実施例
について図17ないし図19に基づいて説明する。ここ
で、前述した第1実施例と同一又は同等の構成部分につ
いては同一の符号を付すと共にその説明を省略又は簡略
する。
<< Second Embodiment >> Next, a second embodiment of the present invention will be described with reference to FIGS. Here, components that are the same as or equivalent to those of the above-described first embodiment are given the same reference numerals, and descriptions thereof are omitted or simplified.

【0085】図17には、第2実施例に係る距離測定装
置80の全体構成が示されている。この距離測定装置8
0では、CCDカメラ12が図示しないモータを含んで
構成される撮像位置変更手段により、図17の矢印Aで
示されるように移動ガイド82に沿って移動可能に構成
されている点、及び線画生成手段24と距離演算手段2
6との間に記憶手段84が設けられている点に特徴を有
する。
FIG. 17 shows the overall configuration of a distance measuring device 80 according to the second embodiment. This distance measuring device 8
0, the point at which the CCD camera 12 is configured to be movable along the movement guide 82 as shown by the arrow A in FIG. Means 24 and distance calculation means 2
6 in that a storage means 84 is provided between them.

【0086】即ち、CCDカメラ12と撮像位置変更手
段とにより、撮像位置を変更しつつ対象物を撮像し、フ
レーム毎の画像信号を出力する撮像手段81が構成され
ており、撮像位置変更手段では、CCDカメラ12を微
小距離(撮像画像上で1/16画素に相当する距離)間
隔ずつ一方から他方へ順次移動させ、この微小距離移動
(撮像位置の変更)の度に対象物の撮像が行われ、画像
信号がCCDカメラ12から出力されるようになってい
る。
That is, the CCD camera 12 and the image pickup position changing means constitute an image pickup means 81 for picking up an image of an object while changing the image pickup position and outputting an image signal for each frame. Then, the CCD camera 12 is sequentially moved from one side to the other at intervals of a minute distance (a distance corresponding to 1/16 pixel on a captured image), and an image of an object is taken every time the minute distance moves (change of the imaging position). The image signal is output from the CCD camera 12.

【0087】また、記憶手段84では、撮像手段12が
微小距離移動する度に入力データS26を記憶し移動開
始位置から移動終了位置までのデータを重ね合わせて記
憶し、データS26´を出力する。この記憶手段84の
出力データ26´は、移動間隔を極めて短くして、複数
回撮像することにより、図18に示されるようなエッジ
線画の動いた領域が一定値で埋められた画像のデータ、
即ちエッジ線画の軌跡がある幅wを持った二値画像のデ
ータとなる。例えば、移動開始位置から移動終了位置ま
で5画素動かすと、5×16=80回の撮像によるデー
タの重ね合わせとして所定幅の二値画像データが得られ
る。
The storage means 84 stores the input data S26 every time the imaging means 12 moves by a small distance, stores the data from the movement start position to the movement end position in a superimposed manner, and outputs the data S26 '. The output data 26 ′ of the storage unit 84 is obtained by taking an image at a plurality of times with the movement interval being extremely short, and as shown in FIG.
That is, it becomes binary image data having a certain width w in the trajectory of the edge line drawing. For example, when five pixels are moved from the movement start position to the movement end position, binary image data of a predetermined width is obtained as superposition of data obtained by imaging 5 × 16 = 80 times.

【0088】距離検出手段26では、入力データS26
´に基づきまず撮像開始点における線画のエッジ位置に
ついての移動開始から移動終了位置までの距離wを算出
する(水平方向にこのwを計測する)ことにより視差が
もとまる。具体的には、水平方向にスキャンしゼロでな
い画素値を持つアドレスを記憶しておき、画素値ゼロを
持つアドレスまでカウンターをインクリメントし、記憶
しておいたアドレスにそのインクリメント値を書き込
む。このインクリメント値がwに相当し、視差はw/1
6に相当するので、対応点を求めることなく視差が得ら
れることになる。
In the distance detecting means 26, the input data S26
First, the parallax is obtained by calculating the distance w from the movement start to the movement end position of the edge position of the line image at the imaging start point (measuring this w in the horizontal direction). Specifically, scanning is performed in the horizontal direction, an address having a pixel value other than zero is stored, a counter is incremented to an address having a pixel value of zero, and the increment value is written to the stored address. This increment value corresponds to w, and the parallax is w / 1.
Since this corresponds to 6, parallax can be obtained without finding a corresponding point.

【0089】三角測量の原理により、撮像手段12の微
小移動量をε、撮像手段12の焦点距離をf、撮像面上
での1画素の実寸をLp 、撮像面から対象物体までの距
離をZとすると、次式により移動開始のエッジ線画位置
にZを求めることができる。
According to the principle of triangulation, the minute movement amount of the imaging means 12 is ε, the focal length of the imaging means 12 is f, the actual size of one pixel on the imaging surface is L p , and the distance from the imaging surface to the target object is Assuming that Z, Z can be obtained at the edge line drawing position at the start of movement by the following equation.

【0090】[0090]

【数12】 (Equation 12)

【0091】距離演算手段26を構成する距離演算メモ
リ72には、上式が予め記憶されており、距離Zをデー
タS36´として出力する。このS36´は図19のよ
うになり幅wとすると式(15)で計算される距離Zw
が移動開始のエッジ線画の画素に対し出力される。幅v
の場合には、距離Zv が移動開始のエッジ線画の画素に
対し出力される。
The above equation is stored in advance in a distance calculation memory 72 constituting the distance calculation means 26, and the distance Z is output as data S36 '. This S36 'is as shown in FIG. 19, and when the width is w, the distance Z w calculated by the equation (15) is obtained.
Is output to the pixel of the edge line image at the start of movement. Width v
In the case of, the distance Zv is output to the pixel of the edge line image at the start of movement.

【0092】従って、本第2実施例によれば、微小距離
間隔毎のエッジ線画を重ね合わせることにより、撮像手
段の移動範囲を黒(又は白)の一定値で埋められた二値
画像データで表しているので、移動する撮像手段の視差
(w/16)が二値画像データにおける移動方向の幅
(w)として表現され、視差を直接的に抽出できる。
Therefore, according to the second embodiment, the moving range of the image pickup means is made up of the binary image data filled with a constant value of black (or white) by superimposing the edge line images at every minute distance interval. Therefore, the parallax (w / 16) of the moving imaging unit is expressed as the width (w) in the moving direction in the binary image data, and the parallax can be directly extracted.

【0093】従って、対象物の形状を表す2次元データ
に容易に距離情報を持たせることができる。
Therefore, two-dimensional data representing the shape of the object can easily have distance information.

【0094】[0094]

【発明の効果】以上説明したように、本発明によれば、
左右画像の輪郭エッジの対応問題を解かなくても、画素
間にもサブピクセルデータをもつ真のエッジ位置情報を
得ることができ、真のエッジ位置の差(従来技術では視
差に相当する)から奥行き情報、即ち距離情報を求める
ことができるという従来にない優れた効果がある。
As described above, according to the present invention,
Even without solving the correspondence problem of the contour edges of the left and right images, true edge position information having subpixel data between pixels can be obtained, and a difference between true edge positions (corresponding to parallax in the related art) can be obtained. There is an unprecedented excellent effect that depth information, that is, distance information can be obtained.

【0095】従って、本発明によれば、ビデオレートで
対象物体の輪郭エッジの3次元座標情報を抽出する画像
処理装置を構築することができる。
Therefore, according to the present invention, it is possible to construct an image processing apparatus for extracting three-dimensional coordinate information of a contour edge of a target object at a video rate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施例の全体構成を概略的に示す
ブロック図である。
FIG. 1 is a block diagram schematically showing an overall configuration of a first embodiment of the present invention.

【図2】図1の平滑・微分手段の具体的構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a specific configuration of a smoothing / differentiating means of FIG.

【図3】図1のピーク抽出手段の具体的構成を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating a specific configuration of a peak extracting unit in FIG. 1;

【図4】図1のサブピクセル位置検出手段の具体的構成
を示すブロック図である。
FIG. 4 is a block diagram showing a specific configuration of a sub-pixel position detecting unit of FIG.

【図5】図1の線画生成手段の具体的構成を示すブロッ
ク図である。
FIG. 5 is a block diagram illustrating a specific configuration of a line drawing generation unit in FIG. 1;

【図6】図1の距離演算手段の具体的構成を示すブロッ
ク図である。
FIG. 6 is a block diagram showing a specific configuration of a distance calculation unit in FIG. 1;

【図7】ピーク抽出を行う際の方向領域を示した図であ
る。
FIG. 7 is a diagram showing a direction area when performing peak extraction.

【図8】内挿補間を説明するための図である。FIG. 8 is a diagram for explaining interpolation.

【図9】エッジ強度内挿補間手段の作用を説明するため
の図である。
FIG. 9 is a diagram for explaining the operation of the edge intensity interpolation and interpolation means.

【図10】サブピクセルエッジ位置演算手段の作用を説
明するための図である。
FIG. 10 is a diagram for explaining an operation of a sub-pixel edge position calculating means.

【図11】線画生成手段への入力データのフォーマット
を説明するための図である。
FIG. 11 is a diagram for explaining a format of input data to a line drawing generation unit.

【図12】線画生成手段による小領域抽出を説明するた
めの図である。
FIG. 12 is a diagram for describing extraction of a small area by a line drawing generation unit.

【図13】線画パターンの方向の分解能を説明するため
の図である。
FIG. 13 is a diagram for explaining the resolution in the direction of a line drawing pattern.

【図14】1画素に相当する線画パターンの表示例を示
す図である。
FIG. 14 is a diagram illustrating a display example of a line drawing pattern corresponding to one pixel.

【図15】(a)は電子部品であるコネクタを512×
512の大きさでのピーク画素で表した図、(b)はコ
ネクタの一部を線画生成手段により表した図である。
FIG. 15 (a) shows a connector which is an electronic component at 512 ×
FIG. 5B is a diagram showing a peak pixel at a size of 512, and FIG. 5B is a diagram showing a part of the connector by line drawing generating means.

【図16】距離演算手段の作用を説明するための図であ
る。
FIG. 16 is a diagram for explaining the operation of the distance calculation means.

【図17】本発明の第2実施例の全体構成を概略的に示
すブロック図である。
FIG. 17 is a block diagram schematically showing an overall configuration of a second embodiment of the present invention.

【図18】記憶手段の出力データの一例を示す図であ
る。
FIG. 18 is a diagram illustrating an example of output data of a storage unit.

【図19】第2実施例の距離演算手段の作用を説明する
ための図である。
FIG. 19 is a diagram for explaining the operation of the distance calculation means of the second embodiment.

【図20】光路選択手段の一例を示す図である。FIG. 20 is a diagram illustrating an example of an optical path selection unit.

【符号の説明】[Explanation of symbols]

10 距離測定装置 11 撮像手段 18 平滑・微分手段(エッジ強調処理手段) 20 ピーク抽出手段 22 サブピクセル位置検出手段 24 線画生成手段 26 距離演算手段 80 距離測定装置 81 撮像手段 REFERENCE SIGNS LIST 10 distance measuring device 11 imaging means 18 smoothing / differentiating means (edge enhancement processing means) 20 peak extracting means 22 subpixel position detecting means 24 line drawing generating means 26 distance calculating means 80 distance measuring means 81 imaging means

フロントページの続き (56)参考文献 特開 平6−102027(JP,A) 特開 平5−216534(JP,A) 特開 平5−141930(JP,A) 特開 昭63−250508(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 102 G01C 3/00 - 3/32 G06T 1/00 G06T 7/00 G06T 7/60 Continuation of the front page (56) References JP-A-6-102027 (JP, A) JP-A-5-216534 (JP, A) JP-A-5-141930 (JP, A) JP-A-63-250508 (JP) , A) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 102 G01C 3/00-3/32 G06T 1/00 G06T 7/00 G06T 7/60

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 所定間隔で撮像位置を変更しながら対象
物を撮像し各撮像位置に対応する所定間隔毎のフレーム
の画像信号を出力する撮像手段と、 前記撮像手段からの各フレームの画像信号を順次平滑化
処理した後、エッジ強調のため平滑化処理後の各フレー
ムの画素毎のエッジ強度及びグラジェント角を演算し出
力するエッジ強調処理手段と、 前記各フレーム毎のエッジ検出の対象となる画素の前記
グラジェント角により定まる領域内の画素のエッジ強度
に基づき当該領域内の画素の内エッジ強度が極大値を有
するピーク画素を抽出するピーク抽出手段と、 前記抽出されたピーク画素と前記エッジ強調処理手段の
出力とに基づき各ピーク画素毎にエッジ位置の画素中心
からのオフセット量及び前記グラジェント角から成るサ
ブピクセルレベルのエッジ位置情報を各フレーム毎に出
力するサブピクセル位置検出手段と、 フレーム毎に前記サブピクセル位置情報に基づき画素毎
に前記グラジェント角と前記画素中心からのオフセット
量とにより定まる前記ピーク画素の領域内のエッジ直線
を生成する線画生成手段と、 前記線画生成手段から出力される隣接するフレーム間の
前記エッジ直線の移動距離を算出し、このエッジ直線の
移動距離より対象物までの距離を演算する距離演算手段
と、 を有する距離測定装置。
1. An image pickup means for picking up an image of an object while changing an image pickup position at a predetermined interval and outputting an image signal of a frame at a predetermined interval corresponding to each image pickup position, and an image signal of each frame from the image pickup means After sequentially performing smoothing processing, edge enhancement processing means for calculating and outputting the edge intensity and gradient angle of each pixel of each frame after the smoothing processing for edge enhancement, and an object of edge detection for each frame Peak extracting means for extracting a peak pixel having a maximum value of the inner edge intensity of the pixel in the region based on the edge intensity of the pixel in the region determined by the gradient angle of the pixel, and the extracted peak pixel and Based on the output of the edge enhancement processing means, the sub-pixel level comprising the offset amount of the edge position from the pixel center and the gradient angle for each peak pixel. Sub-pixel position detecting means for outputting edge position information of each pixel for each frame, and the peak pixel determined by the gradient angle and the offset amount from the pixel center for each pixel based on the sub-pixel position information for each frame A line drawing generating means for generating an edge straight line in the area of, and calculating a moving distance of the edge straight line between adjacent frames output from the line drawing generating means, and calculating a distance to the object from the moving distance of the edge straight line. And a distance calculating means for calculating the distance.
JP27850593A 1993-11-08 1993-11-08 Distance measuring device Expired - Fee Related JP3269222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27850593A JP3269222B2 (en) 1993-11-08 1993-11-08 Distance measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27850593A JP3269222B2 (en) 1993-11-08 1993-11-08 Distance measuring device

Publications (2)

Publication Number Publication Date
JPH07128017A JPH07128017A (en) 1995-05-19
JP3269222B2 true JP3269222B2 (en) 2002-03-25

Family

ID=17598254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27850593A Expired - Fee Related JP3269222B2 (en) 1993-11-08 1993-11-08 Distance measuring device

Country Status (1)

Country Link
JP (1) JP3269222B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4813787B2 (en) * 2003-10-17 2011-11-09 パナソニック株式会社 Image processing apparatus and method
JP4039423B2 (en) * 2004-12-14 2008-01-30 日産自動車株式会社 Edge position calculation device, obstacle detection system
JP4876676B2 (en) * 2006-03-30 2012-02-15 株式会社豊田中央研究所 POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM
KR100791389B1 (en) 2006-12-26 2008-01-07 삼성전자주식회사 Apparatus and method for measuring distance using structured light
JP5271031B2 (en) 2008-08-09 2013-08-21 株式会社キーエンス Image data compression method, pattern model positioning method in image processing, image processing apparatus, image processing program, and computer-readable recording medium
JP5301239B2 (en) 2008-08-09 2013-09-25 株式会社キーエンス Pattern model positioning method, image processing apparatus, image processing program, and computer-readable recording medium in image processing
JP2010097438A (en) 2008-10-16 2010-04-30 Keyence Corp Outline information extraction method using image processing, creation method for pattern model in image processing, positioning method for pattern model in image processing, image processor, image processing program and computer-readable recording medium
JP5241423B2 (en) 2008-10-16 2013-07-17 株式会社キーエンス Image data reduction rate determination method in image processing, pattern model positioning method in image processing, pattern model creation method in image processing, image processing apparatus, image processing program, and computer-readable recording medium
JP6009903B2 (en) * 2012-10-24 2016-10-19 シャープ株式会社 Image processing device

Also Published As

Publication number Publication date
JPH07128017A (en) 1995-05-19

Similar Documents

Publication Publication Date Title
US8089515B2 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
KR101722803B1 (en) Method, computer program, and device for hybrid tracking of real-time representations of objects in image sequence
JP3167752B2 (en) Vehicle distance detection device
JP7209115B2 (en) Detection, 3D reconstruction and tracking of multiple rigid objects moving in relatively close proximity
WO2023024697A1 (en) Image stitching method and electronic device
JPH0935061A (en) Image processing method
CN103500452A (en) Scenic spot scenery moving augmented reality method based on space relationship and image analysis
CN113793382A (en) Video image splicing seam searching method and video image splicing method and device
JP3269222B2 (en) Distance measuring device
CN110517211A (en) A kind of image interfusion method based on gradient domain mapping
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
JPH10269362A (en) Object recognition method and device therefor
US7006706B2 (en) Imaging apparatuses, mosaic image compositing methods, video stitching methods and edgemap generation methods
CN112435223A (en) Target detection method, device and storage medium
CN114926508B (en) Visual field boundary determining method, device, equipment and storage medium
JPWO2020244717A5 (en)
JP6276504B2 (en) Image detection apparatus, control program, and image detection method
Asif et al. MPEG-7 motion descriptor extraction for panning camera using sprite generated
KR102480209B1 (en) Multi-camera image synthesis method and multi-camera image synthesis apparatus
JPH1194527A (en) Stereo measuring method and device using image processing
JP2004177295A (en) Distance information selection means and distance information selection device
Beumier et al. Real-time Image Registration with Region Matching.
Lee et al. Fast panoramic image generation method using morphological corner detection
Chen et al. Planar region depth filling using edge detection with embedded confidence technique and Hough transform
JPH08272929A (en) Moving body three-dimensional position extraction device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees