JPH0636196B2 - Obstacle detection device - Google Patents

Obstacle detection device

Info

Publication number
JPH0636196B2
JPH0636196B2 JP63261435A JP26143588A JPH0636196B2 JP H0636196 B2 JPH0636196 B2 JP H0636196B2 JP 63261435 A JP63261435 A JP 63261435A JP 26143588 A JP26143588 A JP 26143588A JP H0636196 B2 JPH0636196 B2 JP H0636196B2
Authority
JP
Japan
Prior art keywords
edge
obstacle
image
matching
stereo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63261435A
Other languages
Japanese (ja)
Other versions
JPH02109179A (en
Inventor
睦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP63261435A priority Critical patent/JPH0636196B2/en
Publication of JPH02109179A publication Critical patent/JPH02109179A/en
Publication of JPH0636196B2 publication Critical patent/JPH0636196B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、例えば原子力発電施設の保守・点検や、宇宙
空間での組立て作業等を行なう自律移動ロボットのよう
な移動体に搭載される障害物検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Industrial field of application) The present invention relates to obstacles mounted on a moving body such as an autonomous mobile robot that performs maintenance / inspection of a nuclear power generation facility, assembly work in outer space, and the like. The present invention relates to an object detection device.

(従来の技術) 原子力発電施設や宇宙空間などの、人間の到達が困難な
場所では人間に代わって様々な作業を行なう自律移動ロ
ボットが要求される。これらのロボットを安全に作業場
所まで移動させるためには、移動環境に存在する障害物
を検出する機能が不可欠である。
(Prior Art) An autonomous mobile robot that performs various tasks on behalf of human beings is required in places where it is difficult for humans to reach, such as nuclear power generation facilities and outer space. In order to safely move these robots to the work place, the function of detecting obstacles in the moving environment is essential.

このような障害物検出のために、従来では超音波等を用
いた近接センサが用いられてきたが、近年は視覚センサ
の小型・軽量化、画像処理装置の高速化に伴なって、移
動ロボットにITVカメラを搭載し、より高度の情報処
理を行なわせる試みが盛んになってきた。
In order to detect such obstacles, proximity sensors using ultrasonic waves have been used in the past, but in recent years, mobile robots have become smaller and lighter in visual sensors and image processing devices have become faster. Attempts to mount an ITV camera on the computer and perform more advanced information processing have become popular.

この際、ITVカメラにより得られる画像全体を処理・
認識して障害物の検出処理を繰返すのは、効率が悪く実
用的でない。そこで、ITVカメラを2台用いてステレ
オ画像を取得し、そのステレオ画像から各々エッジを検
出した後、これからロボットが進行しようとする空間ま
での距離(障害物検出距離)に対応する左右画像間のず
れ(視差)を有するエッジを照合エッジとして抽出し、
それらの照合エッジを組合わせることにより、障害物領
域を切出す手法がM.Watanabe et,al.,“Obstacle Detec
tion Method with Stereo Vision",Proc.of 5th SCIA,v
ol.1,pp325-334(1987)によって提案されている。
At this time, the entire image obtained by the ITV camera is processed.
Recognizing and repeating the obstacle detection process is inefficient and impractical. Therefore, a stereo image is acquired by using two ITV cameras, edges are detected from the stereo images, and then the left and right images corresponding to the distance (obstacle detection distance) to the space where the robot is going to move from now on are detected. An edge having a shift (parallax) is extracted as a matching edge,
The method of cutting out the obstacle area by combining these matching edges is M. Watanabe et, al., “Obstacle Detec
tion Method with Stereo Vision ", Proc.of 5th SCIA, v
ol.1, pp325-334 (1987).

しかしながら、この方法はエッジの抽出は容易である反
面、照合エッジを組合わせるのにそれらのエッジの連結
関係を求めなければならず、その処理に多くに時間がか
かる。
However, although this method can easily extract the edges, in order to combine the matching edges, it is necessary to obtain the connection relationship between the edges, and the processing takes a lot of time.

また、障害物が例えば人間のように曲面的なエッジ形状
を持つためにエッジが途切れて抽出された場合には、照
合エッジを組合わせることができず、障害物を検出し損
なうという問題がある。
Further, when the obstacle has a curved edge shape like a human, for example, when the edge is discontinuously extracted, the collation edges cannot be combined, and the obstacle cannot be detected. .

(発明が解決しようとする課題) このようにステレオ画像から各々エッジを検出し、障害
物検出距離に対応する視差を有するエッジを照合エッジ
として抽出して組合わせることにより障害物領域を切出
す従来技術では、照合エッジを組合わせるため長い処理
時間を必要とし、また抽出されたエッジの途切れにより
障害物の検出が困難になるという問題があった。
(Problems to be solved by the invention) Conventionally, an edge is detected from a stereo image, and an edge having a parallax corresponding to an obstacle detection distance is extracted as a matching edge and combined to cut out an obstacle area. In the technology, there is a problem that it takes a long processing time to combine the matching edges, and it is difficult to detect an obstacle due to a break in the extracted edges.

本発明は、ステレオ画像から抽出されたエッジについて
求めた照合エッジを組合わせることなく障害物を確実に
検出できる障害物検出装置を提供することを目的とす
る。
It is an object of the present invention to provide an obstacle detecting device capable of surely detecting an obstacle without combining matching edges obtained from edges extracted from a stereo image.

[発明の構成] (課題を解決するための手段) 本発明の障害物検出装置は、左右一対のステレオ画像の
各々から抽出されたエッジのうち予め定められた障害物
検出距離に対応する視差分だけ互いにずらせて重ね合わ
せ、重なったエッジの近傍領域の類似度を計算し、この
求められた類似度の内、類似度の大きいエッジを照合エ
ッジとして抽出するとともに、ステレオ画像の一方を障
害物候補領域に分割し、この障害物候補領域の画像中で
の位置と照合エッジの画像中での位置の比較から、その
包含関係を判定して、照合エッジを内包する障害物候補
領域を障害物として検出するようにしたものである。
[Configuration of the Invention] (Means for Solving the Problems) An obstacle detection device of the present invention is a parallax corresponding to a predetermined obstacle detection distance among edges extracted from each of a pair of left and right stereo images. Only the edges are overlapped with each other, and the similarity of neighboring areas of the overlapped edges is calculated. Among the calculated similarities, the edge with the highest similarity is extracted as a matching edge, and one of the stereo images is an obstacle candidate. It is divided into regions, the inclusion relationship is determined by comparing the position of the obstacle candidate region in the image with the position of the matching edge in the image, and the obstacle candidate region containing the matching edge is determined as an obstacle. It is designed to be detected.

ステレオ画像の一方を障害物候補領域に分割する処理は
種々考えられるが、具体的に例えばステレオ画像の一方
について濃度ヒストグラム曲線を求め、その曲線中の閾
値を越える極大値に隣接した極小値対に対応した濃度領
域を障害物候補領域とすればよい。
There are various possible processes for dividing one of the stereo images into obstacle candidate regions. Specifically, for example, a density histogram curve is obtained for one of the stereo images, and a minimum value pair adjacent to the maximum value exceeding the threshold value in the curve is formed. The corresponding density area may be the obstacle candidate area.

(作用) 本発明では、照合エッジを内包する障害物候補領域を障
害物として検出するため、照合エッジを組合わせる処理
が不要となり、処理時間が短縮されるばかりでなく、障
害物検出の信頼性が高くなる。
(Operation) In the present invention, since the obstacle candidate region including the matching edge is detected as an obstacle, the processing for combining the matching edges is not required, the processing time is shortened, and the reliability of obstacle detection is high. Becomes higher.

(実施例) 以下、図面を参照して本発明の一実施例について説明す
る。
Embodiment An embodiment of the present invention will be described below with reference to the drawings.

第1図は本発明の一実施例に係る障害物検出装置の全体
的な構成を示すブロック図である。同図において、ステ
レオ画像入力部1は移動体(例えば自律ロボット)に取
付けられ、移動体の移動環境のステレオ画像、すなわち
左右一対の画像を撮像する。得られたステレオ画像はエ
ッジ抽出部2に入力され、各画像中のエッジが抽出され
る。抽出されたエッジはエッジ照合部3に入力され、障
害物検出距離に対応する視差を有するエッジのみが照合
エッジとして抽出される。
FIG. 1 is a block diagram showing the overall configuration of an obstacle detection device according to an embodiment of the present invention. In the figure, a stereo image input unit 1 is attached to a moving body (for example, an autonomous robot) and captures a stereo image of the moving environment of the moving body, that is, a pair of left and right images. The obtained stereo image is input to the edge extraction unit 2, and the edges in each image are extracted. The extracted edges are input to the edge matching unit 3, and only the edges having the parallax corresponding to the obstacle detection distance are extracted as the matching edges.

一方、ステレオ画像入力部1からのステレオ画像のいず
れか一方の画像は、さらに障害物候補領域分割部4にも
入力される。この障害物候補領域分割部4は、入力され
た画像中の障害物が存在する可能性のある領域を他の領
域と分割して出力する。この障害物候補領域分割部4に
よって得られた障害物候補領域の情報とエッジ照合部3
によって抽出された照合エッジの情報とが障害物検出部
5に入力され、障害物候補領域と照合エッジとの包含関
係が調べられることにより、障害物の検出がなされる。
On the other hand, either one of the stereo images from the stereo image input unit 1 is further input to the obstacle candidate region dividing unit 4. The obstacle candidate area dividing unit 4 divides an area in the input image in which an obstacle may exist and outputs the divided area. The information of the obstacle candidate area obtained by the obstacle candidate area dividing unit 4 and the edge matching unit 3
The information on the matching edge extracted by is input to the obstacle detecting unit 5, and the inclusion is checked by checking the inclusion relationship between the obstacle candidate region and the matching edge.

次に、第1図の各部の詳細な構成を説明する。Next, a detailed configuration of each part in FIG. 1 will be described.

第2図にステレオ画像入力部1の構成例を示す。2台の
ITVカメラ11,12によって撮像されたステレオ画
像は、A/D変換器13,14によりディジタル化され
た後、ITVインタフェース15,16及び画像バス1
9を経て、ディジタル画像メモリ17,18に格納され
る。画像メモリ17,18には制御バス20も接続され
ている。なお、エッジ照合部3での照合処理を簡易化す
るため、ITVカメラ11,12の光軸を平行に設定し
ておくことが望ましい。
FIG. 2 shows a configuration example of the stereo image input unit 1. The stereo images captured by the two ITV cameras 11 and 12 are digitized by the A / D converters 13 and 14, and then the ITV interfaces 15 and 16 and the image bus 1 are used.
9 and stored in the digital image memories 17 and 18. A control bus 20 is also connected to the image memories 17 and 18. It is desirable that the optical axes of the ITV cameras 11 and 12 are set to be parallel in order to simplify the matching process in the edge matching unit 3.

第3図にエッジ抽出部2の構成例を示す。第2図のディ
ジタル画像メモリ17,18に格納された画像は、空間
フィルタ回路31によりランダムノイズ除去のための2
次微分型フィルタリングが施された後、2値化回路32
で2値画像に変換される。この2値画像は細線化回路3
3により線幅「1」の2値エッジ像に整形される。この
2値エッジ像はラベリング回路32に入力され、各エッ
ジの長さが計測される。そして、ノイズ除去回路35に
より、ラベリング回路34で計測されたエッジ長の短い
ものがノイズとして除去され、ステレオ照合を行なうた
めのエッジ画像が作成される。
FIG. 3 shows a configuration example of the edge extraction unit 2. The image stored in the digital image memories 17 and 18 of FIG.
After the second differential type filtering is applied, the binarization circuit 32
Is converted into a binary image. This binary image is a thinning circuit 3
In step 3, the binary edge image having the line width “1” is shaped. This binary edge image is input to the labeling circuit 32, and the length of each edge is measured. Then, the noise removing circuit 35 removes the short edge length measured by the labeling circuit 34 as noise, and creates an edge image for stereo matching.

第4図にエッジ照合部3の構成例を示す。尚、エッジ照
合のために、予めステレオ画像入力部1によって得られ
たステレオ画像についてエッジ抽出部2で抽出されたエ
ッジ画像を追跡し、エッジ位置,エッジ間の連結関係,
各エッジの端点・屈曲点等の属性情報を記載したエッジ
セグメントテーブル41,42を作成しておく。
FIG. 4 shows a configuration example of the edge matching unit 3. For edge matching, the edge image extracted by the edge extraction unit 2 is traced with respect to the stereo image previously obtained by the stereo image input unit 1, and the edge position and the connection relationship between the edges are checked.
Edge segment tables 41 and 42 in which attribute information such as end points and bending points of each edge are described are created.

視差設定回路43ではロボットがこれから進行しようと
する空間までの距離L(障害物検出距離)に対応する視
差Sが設定される。すなわち、ITVカメラ11,12
の光軸を揃えた場合の障害物検出距離Lと視差Sとの間
には S=ε・a・/L ε:変換比 a:ITVカメラ11,12の間隔 :焦点距離 の関係があり、ε,a,はステレオカメラの構成によ
り決まる定数であるから、障害物検出距離Lが定まれば
視差Sが求まる。
The parallax setting circuit 43 sets the parallax S corresponding to the distance L (obstacle detection distance) to the space where the robot is about to travel. That is, the ITV cameras 11 and 12
Between the obstacle detection distance L and the parallax S when the optical axes are aligned, there is a relation of S = ε · a · / L ε: conversion ratio a: interval between ITV cameras 11 and 12: focal length Since ε and a are constants determined by the configuration of the stereo camera, the parallax S can be obtained if the obstacle detection distance L is determined.

視差分シフト回路44ではエッジ抽出部2で得られた左
右のエッジ画像を視差S分だけ互いにずらせた後、重ね
合せる。類似度計算回路45では、重なったエッジ画像
の近傍領域の類似度が計算される。そして、照合エッジ
抽出回路46で類似度の大きいエッジ画像が照合エッジ
として抽出され、さらにエッジセグメントテーブル4
1,42を参照して照合エッジの画像上の位置が各々求
められて、照合エッジテーブル47に格納される。
The parallax shift circuit 44 shifts the left and right edge images obtained by the edge extraction unit 2 from each other by the parallax S and then superimposes them. The similarity calculation circuit 45 calculates the similarity of the neighboring areas of the overlapping edge images. Then, the matching edge extraction circuit 46 extracts an edge image having a high degree of similarity as a matching edge, and further, the edge segment table 4
1 and 42, the positions of the matching edges on the image are obtained and stored in the matching edge table 47.

尚、エッジ抽出部2及びエッジ照合部3に関しては、先
の公知文献にも詳しく述べられているので、これ以上の
詳しい説明は省略する。
Since the edge extracting unit 2 and the edge collating unit 3 are described in detail in the above-mentioned publicly known documents, further detailed description will be omitted.

第5図に障害物候補領域分割部4の構成例を示す。本例
では“シーン内に物体が存在すると、濃度ヒストグラム
曲線上にその物体の明るさに対応したピークが現われ
る”というヒューリスティクスを用いて、まず濃度ヒス
トグラム測定回路51でステレオ画像の一方の画像全体
に対する濃度ヒストグラム曲線が求められる。次に、平
滑化回路52でヒストグラム曲線の細かいガタが補正さ
れた後、極値検出回路53において補正後のヒストグラ
ム曲線の極大値で且つ画素数が閾値以上の濃度値が求め
られ、その極大値に隣接した極小値対(極大値の前後2
つの極小値)における濃度値が順次、濃度変換テーブル
54に登録される。
FIG. 5 shows a configuration example of the obstacle candidate area dividing unit 4. In this example, by using the heuristic that "when an object exists in the scene, a peak corresponding to the brightness of the object appears on the density histogram curve", the density histogram measurement circuit 51 first uses the entire one of the stereo images. A density histogram curve for is obtained. Next, after the smoothness of the histogram curve is corrected by the smoothing circuit 52, the maximum value of the corrected histogram curve and the density value in which the number of pixels is greater than or equal to the threshold value are obtained by the extreme value detection circuit 53, and the maximum value is obtained. Minimum value pair adjacent to (maximum value before and after 2
The density values at one minimum value) are sequentially registered in the density conversion table 54.

第6図に濃度ヒストグラム曲線の一例を示す。この場
合、濃度ヒストグラム曲線はP1,P2の2つの極大値を持
つため、これらに隣接する極小値対L1,L2及びL3,L4にお
ける濃度値が濃度変換テーブル54に登録される。そし
て、濃度変換回路55で濃度変換テーブル54の内容に
従って、同一の濃度範囲にある領域の濃度が単一の濃度
に置換えられ(多値化)、さらに領域記述回路56で分
割された障害物候補領域の画像中の位置が測定され、そ
の位置情報が領域テーブル57に格納される。第6図の
例では、障害物候補領域分割部4に入力されたステレオ
画像の一方の画像は、まずA,B,C,D,Eの領域に
分割される。これらの領域A〜Eのうち、極小値対L1,L
2及びL3,L4によって挟まれた領域B,Dが障害物候補領
域として最終的に分割され、残るA,C,Eの各領域は
背景部と認識される。
FIG. 6 shows an example of the density histogram curve. In this case, since the density histogram curve has two maximum values P1 and P2, the density values at the adjacent minimum value pairs L1, L2 and L3, L4 are registered in the density conversion table 54. Then, according to the contents of the density conversion table 54 in the density conversion circuit 55, the densities of the areas in the same density range are replaced with a single density (multi-valued), and the obstacle candidates divided by the area description circuit 56 are further divided. The position of the area in the image is measured, and the position information is stored in the area table 57. In the example of FIG. 6, one of the stereo images input to the obstacle candidate area dividing unit 4 is first divided into areas A, B, C, D and E. Of these areas A to E, the minimum value pair L1, L
The areas B and D sandwiched by 2 and L3 and L4 are finally divided as obstacle candidate areas, and the remaining areas A, C and E are recognized as the background portion.

第7図に障害物検出部5の構成例を示す。範囲比較回路
71で、第4図における照合エッジテーブル47に格納
された照合エッジと、第5図における領域テーブル57
に格納された障害物候補領域の画像中での位置との比較
により両者の包含関係が調べられ、照合エッジを内包す
る障害物候補領域が選択される。そして、選択された障
害物候補領域から、第5図における濃度変換テーブル5
4及び濃度変換回路55の内容を参照して、画像中の対
応する部分が障害物として抽出される。実際には第3図
における2値化回路32や、ノイズ除去回路35に使用
されるローパスフィルタの影響により、必ずしも照合エ
ッジが領域の輪郭上にないため、領域を固定幅分外側に
拡張させた拡張領域と、照合エッジとの包含関係を調べ
ることが望ましい。
FIG. 7 shows a configuration example of the obstacle detection unit 5. In the range comparison circuit 71, the matching edges stored in the matching edge table 47 in FIG. 4 and the area table 57 in FIG.
By comparing the position of the obstacle candidate area stored in the image with the position in the image, the inclusion relation between the two is checked, and the obstacle candidate area including the matching edge is selected. Then, from the selected obstacle candidate area, the density conversion table 5 in FIG.
4 and the contents of the density conversion circuit 55, the corresponding portion in the image is extracted as an obstacle. Actually, the matching edge is not always on the contour of the area due to the influence of the low-pass filter used in the binarization circuit 32 and the noise removal circuit 35 in FIG. 3, so the area is expanded outward by a fixed width. It is desirable to check the inclusion relationship between the expanded area and the matching edge.

第8図は第6図に示した濃度ヒストグラム曲線を持つシ
ーンの障害物抽出の様子を示したもので、a〜jは照合
エッジ、破線で示す領域B′,D′はそれぞれ障害物候
補領域B,Dを固定幅分外側に拡張させた拡張領域であ
る。同図の例では、B′の拡張領域に照合エッジa〜g
が内包されているため、この拡張領域B′に対応する障
害物候補領域Bが障害物として抽出される。他の照合エ
ッジh〜jは領域Aに含まれるが、領域Aは障害物候補
領域ではないため、これらの照合エッジh〜jは背景部
における偽照合と判定される。
FIG. 8 shows how obstacles are extracted from the scene having the density histogram curve shown in FIG. 6, a to j are matching edges, and regions B'and D'shown by broken lines are obstacle candidate regions, respectively. It is an expansion area in which B and D are expanded outward by a fixed width. In the example shown in the figure, the matching edges a to g are added to the extended area of B '.
Is included, the obstacle candidate region B corresponding to this extension region B ′ is extracted as an obstacle. The other matching edges h to j are included in the area A, but since the area A is not an obstacle candidate area, these matching edges h to j are determined to be false matching in the background portion.

[発明の効果] 本発明によれば、照合エッジを内包する障害物候補領域
を障害物として検出することによって、照合エッジを組
合わせる処理を行なうことなく障害物検出が可能とな
り、処理時間の短縮と、障害物検出の信頼性向上を図る
ことができる。
[Effects of the Invention] According to the present invention, by detecting an obstacle candidate region including a matching edge as an obstacle, it is possible to detect an obstacle without performing a process of combining the matching edges, and the processing time is shortened. Therefore, the reliability of obstacle detection can be improved.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の一実施例に係る障害物検出装置の概略
構成を示すブロック図、第2図は第1図におけるステレ
オ画像入力部の構成例を示す図、第3図は第1図におけ
るエッジ抽出部の構成例を示す図、第4図は第1図にお
けるエッジ照合部の構成例を示す図、第5図は第1図に
おける障害物候補領域分割部の構成例を示す図、第6図
は第5図の障害物候補領域分割部の処理を説明するため
の濃度ヒストグラム曲線の一例を示す図、第7図は第1
図における障害物検出部の構成例を示す図、第8図は第
7図の障害物検出部の処理を説明するための図である。 1……ステレオ画像入力部、2……エッジ抽出部、3…
…エッジ照合部、4……障害物候補領域分割部、5……
障害物検出部。
FIG. 1 is a block diagram showing a schematic configuration of an obstacle detection device according to an embodiment of the present invention, FIG. 2 is a diagram showing a configuration example of a stereo image input section in FIG. 1, and FIG. 3 is FIG. FIG. 4 is a diagram showing a configuration example of an edge extraction unit in FIG. 4, FIG. 4 is a diagram showing a configuration example of an edge matching unit in FIG. 1, and FIG. 5 is a diagram showing a configuration example of an obstacle candidate region dividing unit in FIG. FIG. 6 is a diagram showing an example of a density histogram curve for explaining the processing of the obstacle candidate region dividing section of FIG. 5, and FIG.
The figure which shows the structural example of the obstacle detection part in a figure, FIG. 8 is a figure for demonstrating the process of the obstacle detection part of FIG. 1 ... Stereo image input section, 2 ... Edge extraction section, 3 ...
... edge matching unit, 4 ... obstacle candidate region dividing unit, 5 ...
Obstacle detector.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】移動体の移動環境のステレオ画像を取得す
る手段と、 取得された左右一対のステレオ画像から各々エッジを抽
出する手段と、 各々エッジ抽出された前記左右一対のステレオ画像に対
し、設定された障害物検出距離に対応する視差分だけ互
いにずらせて重ね合わせ、重なったエッジの近傍領域の
類似度を計算し、類似度の大きいエッジを照合エッジと
して抽出する手段と、 前記ステレオ画像の一方を障害物候補領域に分割する手
段と、 この手段により分割された障害物候補領域の画像中での
位置と前記照合エッジの画像中での位置とを比較するこ
とにより、その包含関係を判定し、照合エッジを内包す
る障害物候補領域を障害物として検出する手段と、 を備えたことを特徴とする障害物検出装置。
1. A means for acquiring a stereo image of a moving environment of a moving body, a means for extracting an edge from each of the acquired pair of left and right stereo images, and a pair of the left and right stereo images for which each edge has been extracted, A means for calculating the similarity between adjacent areas of overlapping edges by shifting them by parallax corresponding to the set obstacle detection distance, extracting the edge with a high similarity as a matching edge, and the stereo image A means for dividing one of the obstacle candidate areas and a position of the obstacle candidate area divided by this means in the image and the position of the matching edge in the image are compared to determine the inclusion relation. An obstacle detection device comprising: means for detecting an obstacle candidate area including a matching edge as an obstacle.
【請求項2】前記ステレオ画像の一方を障害物候補領域
に分割する手段は、ステレオ画像の一方の画像について
濃度ヒストグラム曲線を求め、その曲線中の閾値を越え
る極大値に隣接した極小値対に挟まれた濃度領域を障害
物候補領域とするものであることを特徴とする請求項1
記載の障害物検出装置。
2. A means for dividing one of the stereo images into obstacle candidate regions obtains a density histogram curve for one image of the stereo image and forms a minimum value pair adjacent to a maximum value exceeding a threshold value in the curve. 2. The sandwiched density area is used as an obstacle candidate area.
The obstacle detection device described.
JP63261435A 1988-10-19 1988-10-19 Obstacle detection device Expired - Lifetime JPH0636196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63261435A JPH0636196B2 (en) 1988-10-19 1988-10-19 Obstacle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63261435A JPH0636196B2 (en) 1988-10-19 1988-10-19 Obstacle detection device

Publications (2)

Publication Number Publication Date
JPH02109179A JPH02109179A (en) 1990-04-20
JPH0636196B2 true JPH0636196B2 (en) 1994-05-11

Family

ID=17361847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63261435A Expired - Lifetime JPH0636196B2 (en) 1988-10-19 1988-10-19 Obstacle detection device

Country Status (1)

Country Link
JP (1) JPH0636196B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (en) * 2006-12-07 2008-06-02 한국전자통신연구원 Home intelligent service robot and method capable of searching and following moving of target using stereo vision processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834577B1 (en) * 2006-12-07 2008-06-02 한국전자통신연구원 Home intelligent service robot and method capable of searching and following moving of target using stereo vision processing

Also Published As

Publication number Publication date
JPH02109179A (en) 1990-04-20

Similar Documents

Publication Publication Date Title
US20030063782A1 (en) Method and apparatus to reduce false minutiae in a binary fingerprint image
JPH01231183A (en) Linearity deciding device in image processor
JPH0636196B2 (en) Obstacle detection device
JPH01182714A (en) Automatic measuring apparatus of crack
KR20160063039A (en) Method of Road Recognition using 3D Data
JPH0560147B2 (en)
JPH02242382A (en) Defect checking method
JP2006010652A (en) Object-detecting device
JPH07120204B2 (en) Obstacle detection device
JPH01177682A (en) Graphic recognizing device
JP2006047252A (en) Image processing unit
JP3032060B2 (en) Roadway recognition device for mobile vehicles
JPH06101024B2 (en) Obstacle detection device
Quach et al. Low-level track finding and completion using random fields
JPH1021403A (en) Method and device for extracting correspondent points
JP2000020693A (en) Fingerprint image processor, fingerprint image processing method and recording medium therefor
JPH065544B2 (en) Figure recognition device
Hatoo et al. A segmentation technique for overlapping fruits using a thinning algorithm
Zheng et al. Radar-vision fusion-based object detection for abnormal data
Haga et al. The detection of lane boundary markings using the modified spoke filter
Várkonyi-Kóczy et al. Fuzzy logic supported point correspondence matching for 3D reconstruction
Holte et al. Gesture recognition using a range camera
JP2959017B2 (en) Circular image discrimination method
JP2867650B2 (en) Symbol candidate area detection method
JPS59108907A (en) Position detecting device for three dimensional body

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term