JPS62162175A - Stereo visual device - Google Patents

Stereo visual device

Info

Publication number
JPS62162175A
JPS62162175A JP61003527A JP352786A JPS62162175A JP S62162175 A JPS62162175 A JP S62162175A JP 61003527 A JP61003527 A JP 61003527A JP 352786 A JP352786 A JP 352786A JP S62162175 A JPS62162175 A JP S62162175A
Authority
JP
Japan
Prior art keywords
horizontal
vertical
edge
distance
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61003527A
Other languages
Japanese (ja)
Other versions
JPH0661098B2 (en
Inventor
Mutsumi Watanabe
睦 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP61003527A priority Critical patent/JPH0661098B2/en
Publication of JPS62162175A publication Critical patent/JPS62162175A/en
Publication of JPH0661098B2 publication Critical patent/JPH0661098B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To substantially raise detection accuracy by synthesizing detection edge components with the same azimuth difference in vertical and horizontal directions and obtaining an edge group forming a closed pattern, for instance, as sectional information on an object. CONSTITUTION:A camera 3 is moved in the horizontal direction to input a horizontal stereo visual picture, and the edge component in the vertical direction is extracted, and distance-decomposed on the basis of the azimuth difference in a stereo visual picture. In the same manner the camera 3 is shifted in the vertical direction to input the stereo visual picture in the vertical direction, and its edge component in the horizontal direction is extracted and distance- decomposed on the basis of the azimuth difference. Correspondence is given to edges with the same azimuth difference, and a set of edge components forming a closed pattern, for instance, are extracted as information showing a vertical section on the optical axis of the object. A set of the edge components expressing said section information are overlapped with respect to an original picture. Therefore, whether the detected section information is correct or not is tested.

Description

【発明の詳細な説明】 のステレオ視画像から、対象物の上記カメラの光軸に垂
直な断面の情報を高精度に得ることのできるステレオ視
覚装置に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to a stereo visual apparatus capable of highly accurately obtaining information on a cross section of an object perpendicular to the optical axis of the camera from a stereo image.

〔発明の技術的背景〕[Technical background of the invention]

近時、ロボット制御技術、および画像叫理技1(iの兄
達に伴い、視覚は能を持つ自律ヤ移初ロボッI−の研究
開発が盛んに行われている。
Recently, with the development of robot control technology and image processing technology 1 (I), there has been active research and development into autonomous robots with visual abilities.

この種のロボットは、例えば原子力発電所の保守・点検
等、人間が立入ることが危険な1.’a境下における作
業を行わせる為に必要とされる。
This type of robot is used for tasks such as maintenance and inspection of nuclear power plants, where it is dangerous for humans to enter. It is required to perform work under 'a environment.

さてロボットの自律的な移動を行う為には、その進行方
向の環境情報、例えば障害物があるか、曲り角であるか
等を自動的に認識し、通過可能な空間を検出しながらロ
ボットの移動を制御する機能が必要となる。
Now, in order for a robot to move autonomously, it must automatically recognize environmental information in its direction of movement, such as whether there are obstacles or corners, and then move the robot while detecting spaces it can pass through. A function to control is required.

しかして従来の代表的な3次元空間の情報入力手段とし
ては、 ■ レーザや超音波を用いて対象物までの伝播部間を計
算するもの、 ■ 三角測量の原理を用いて対象物までの距離をΔ1測
するもの、 ■(視点の異なりによる対象物の影や形の変化、テ′ク
スチャ等の環境に対する拘束条件を利用して一ヒ記対象
物を認識するもの、 等かある。これらの中で、上記■の手法の一種であるス
テレオ用法が、その汎用性や入力の簡易性等の理由から
ロボット視覚に適していると注目されている。
However, typical conventional three-dimensional space information input methods include: ■ Calculating the distance between propagation points to the target object using lasers or ultrasonic waves; ■ Calculating the distance to the target object using the principle of triangulation. There are methods that measure Δ1, and methods that recognize objects using constraints on the environment such as changes in the object's shadow and shape due to different viewpoints, and textures. Among them, the stereo method, which is a type of method (2) above, is attracting attention as being suitable for robot vision because of its versatility and ease of input.

尚、上記ステレオ用法は、視点位置の異なる複数台のカ
メラにて対象物を18@シ、その視差から三角測量の原
理を応用し゛C対象物までの距離を求めるものである。
In the stereo method described above, an object is viewed using a plurality of cameras having different viewpoint positions, and the distance to the object is determined from the parallax by applying the principle of triangulation.

具体的には、水平方向に所定距離を隔てた位置から対象
物を@像入力してなる2枚の画像(ステレオ現画像)か
らそれぞれ上記対象物の輪郭エツジを抽出し、上記2枚
の画像間で対応するエツジを求める。そして上記2枚の
画像における対応エツジに対する視差を利用して、その
エツジ(対象物)までの距離を計算するものである。
Specifically, the contour edges of the object are extracted from two images (stereo current images) obtained by inputting the object from positions separated by a predetermined distance in the horizontal direction, and the edges of the object are extracted from the two images. Find the corresponding edge between. Then, the distance to the edge (object) is calculated using the parallax with respect to the corresponding edge in the two images.

〔背景技術の問題点] しかし、このような従来法にあっては次のような問題が
あった。
[Problems with Background Art] However, such conventional methods have the following problems.

即ち、カメラを水平方向に平行移動してステレオ現画像
を得た場合、その垂直方向のエツジ成分についてはその
拘束条件(エビボラ・ライン)を利、埠して高精度に対
応付けることができるが、水平゛不向のエツジ成分につ
いては高精度な対応付けが岬難である。また対象物が置
かれたM境条件、鋼゛えば対象物の床面における影、床
面からの不本意な反射光、画像処理に伴う量子化雑音等
に起因する為エツジ成分により、エツジの誤った対応付
けが生じ易く、その検出信頼性が悪い。更には、ステレ
オ現画像において対応付けられたエツジが真に対象物の
輪郭エツジであるかを検証することが困難である等の問
題がある。
In other words, when a stereo image is obtained by moving the camera in parallel in the horizontal direction, the vertical edge components can be correlated with high precision by using the constraint (Ebibora line). For edge components that are not oriented horizontally, it is difficult to make highly accurate correspondences. In addition, the edge component is caused by the M environment condition in which the object is placed, the shadow of the object on the floor, unwanted reflected light from the floor, quantization noise associated with image processing, etc. Incorrect correspondence is likely to occur, and its detection reliability is poor. Furthermore, there are other problems, such as that it is difficult to verify whether the edges associated in the stereo image are truly contour edges of the object.

この為、ステレオ現画像から対象物の輪郭エツジを?S
精度に検出し、上記対象物までの距離を高精度に、しか
も信頼性良く計測するには、より一弓の検討・工夫が必
要であった。
For this reason, it is necessary to determine the contour edges of the object from the stereo image. S
In order to accurately detect the object and measure the distance to the object with high precision and reliability, further consideration and ingenuity were required.

〔発明の目的〕[Purpose of the invention]

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、ステレオ現画像から対象物のエ
ツジ成分を高精度に、且つ信頼性良く検出することので
きるステレオ視覚装置を12供することにある。
The present invention has been made in consideration of these circumstances, and its purpose is to provide a stereo visual device that can detect edge components of objects from stereo images with high precision and reliability. 12 It is to serve.

C発明の置要〕 本発明は、カメラの光軸に対して垂直な面内の水平方向
および垂直方向にそれぞれ等距離隔てた位置から対象物
を躍像入力して、例えば1台のカメラをその光軸に対し
て垂直な面内で水平方向および垂直方向にそれぞれ等距
離平行移動させて上記対象物を昭象入力し、水平方向お
よび垂直方向にそれぞれ視点を異ならせた2相のステレ
オ視画褌を得る。
C. Summary of the Invention] The present invention provides dynamic input of an object from positions equidistant from each other in the horizontal direction and the vertical direction within a plane perpendicular to the optical axis of the camera. Two-phase stereo viewing with different viewpoints in the horizontal and vertical directions, in which the object is imaged by moving the same distance in parallel in the horizontal and vertical directions in a plane perpendicular to the optical axis. Obtain a loincloth.

そして上記水平方向に視点を異ならせたステレオ現画像
から垂直方向のエツジ成分を検出すると共に、垂直方向
に視点を異ならせたステレオ現画像から水平方向のエツ
ジ成分を検出し、上記垂直方向および水平方向の各検出
エツジ成分を前記各ステレオ現画像における視差に従っ
て距離分解する。
Then, the edge components in the vertical direction are detected from the stereo images with different viewpoints in the horizontal direction, and the edge components in the horizontal direction are detected from the stereo images with different viewpoints in the vertical direction. Each detected edge component in the direction is distance-decomposed according to the parallax in each of the stereo current images.

そして、これらの距離分解された検出エツジ成分の内、
垂直方向および水平方向に等しい視差を有する検出エツ
ジ成分同士を組合わせて前記対象物に関する前記光軸に
垂直な断面の情報を1仔、この断面の情報を前記ステレ
オ現画像である原画(像に巾ね合せる等して照合し、前
記対象物に関して検出された断面の情報を検証するよう
にしたものである。
Then, among these distance-resolved detected edge components,
Detection edge components having equal parallax in the vertical and horizontal directions are combined to obtain information on a cross section perpendicular to the optical axis of the object, and information on this cross section is converted into an original image (image) that is the stereo image. The cross-section information detected regarding the object is verified by cross-width comparison.

〔発明の効果〕〔Effect of the invention〕

かくして本発明によれば、水平方向および垂直方向に視
点を異ならせた2組のステレオ視画像から、その拘束条
件と相俟って精度良く対応付けの可能な垂直方向および
水平方向の各エツジ成分をそれぞれ求め、上記各ステレ
オ視画像における上記垂直方向および水平方向の各検出
エツジ成分を零の視差に従ってそれぞれ距離分解し、視
差を同己りする垂直方向および水平方向の検出エツジ成
宕を合成して、例えば閉パターンを成すエツジ群を対象
物の断面情報として得るので、その検出精度を十分に高
くすることができる。
Thus, according to the present invention, from two sets of stereoscopic images with different viewpoints in the horizontal and vertical directions, each edge component in the vertical and horizontal directions that can be accurately correlated in conjunction with the constraint conditions is obtained. , each of the detected edge components in the vertical and horizontal directions in each of the stereoscopic images is distance-decomposed according to the zero disparity, and the detected edge components in the vertical and horizontal directions that have the same disparity are synthesized. In this way, for example, a group of edges forming a closed pattern is obtained as cross-sectional information of the object, so that the detection accuracy can be made sufficiently high.

しかも、このようにして検出された対象物の断面情報を
原画像に重ね合せる等して照合し、その検出断面情報を
検証するので、対象物に関するステレオ視覚情報を高精
度に、且つ信頼性良く得ることが可能となる。従ってロ
ボットの視覚橢能等に効果的に応用することが可能とな
り、実用上多大なる効果が奏せられる。
Moreover, since the cross-sectional information of the object detected in this way is compared by superimposing it on the original image and verifying the detected cross-sectional information, stereo visual information about the object can be obtained with high precision and reliability. It becomes possible to obtain. Therefore, it can be effectively applied to the visual acuity of robots, and great practical effects can be achieved.

(発明の実施例〕 以下、図面を参照して本発明の一実施例につき説明する
(Embodiment of the invention) An embodiment of the invention will be described below with reference to the drawings.

第1図は実施例装置における基本的な処理の流れを示す
ものであり、第2図は実施例装置の1a12!構成図で
ある。
FIG. 1 shows the basic processing flow in the embodiment device, and FIG. 2 shows 1a12! of the embodiment device. FIG.

画像メモリや演界器等を内蔵して構成される処理装置本
体1は、カメラ位置制tit+ti構2を駆動してカメ
ラ3による対象物の画像位置を制御している。
A processing device main body 1, which includes an image memory, a performance device, etc., drives a camera position system tit+ti structure 2 to control the image position of an object by a camera 3.

カメラ3は、その光軸に垂直な面内を水平方向および垂
直方向にそれぞれ等距離平行移動されるもので、例えば
カメラ支持!3準位mAを基準として水平方向に距11
111隔てた位置B、および垂直力Hに距wia隔てた
位置Cにそれぞれ平行移動され、上記各位@A、B、C
から対象物をそれぞれ茶&入力するものとなっている。
The camera 3 is moved horizontally and vertically by equal distances in parallel within a plane perpendicular to its optical axis; for example, camera support! Distance 11 in the horizontal direction based on the 3 level mA
111, and to a position C, which is a distance wia apart from the normal force H, and each of the above @A, B, C
It is designed to input each object.

このようにしてカメラ3にてwL像入力された画像は、
画像モニタ4にて表示されてモニタされると共に、前記
処理装置本体1に与えられて画像処理に供せられるよう
になっている。
The image inputted as a wL image by camera 3 in this way is
The image is displayed and monitored on the image monitor 4, and is also provided to the processing device main body 1 for image processing.

処理装置本体1は、上述した平行移動によって設定され
る各位fffA、8.Cにてカメラ3がそれぞれvan
入力した画像を画像メモリ(図示せず)に格納し、水平
方向に距MJ2を隔てた位置A、 Bにて(qられた一
対の画像を水平方向ステレオ視画像としている。また同
様に、垂直方向に距#tCを隔てた位HA、Cにて得ら
れた一対のiiを垂直方向ステレオ視画像としている。
The processing device main body 1 has the positions fffA, 8., which are set by the above-described parallel movement. Camera 3 is van
The input images are stored in an image memory (not shown), and a pair of images (q) at positions A and B separated by a distance MJ2 in the horizontal direction is used as a horizontal stereoscopic image. A pair of ii obtained at HA and C separated by a distance #tC in the direction is taken as a vertical stereoscopic image.

そしてこれらの2組のステレオ視画像に対して次のよう
な処理を施し、対象物に関する前記カメラ3の光軸に垂
直な断面の情報を求めている。
The following processing is then performed on these two sets of stereoscopic images to obtain information on a cross section of the object perpendicular to the optical axis of the camera 3.

即ち、第1図に示すように処理装置本体1は、先ずカメ
ラ3を水平方向に移動させて水平方向ステレオ視画像を
入力しくステップa)、このステレオ視画像における垂
直方向のエツジ成分をそれ↑れ抽出する(ステップb)
。そして後述するよLに、ステレオ視画1象における視
差に基いて各垂木方向エツジ成分を距離分解する(ステ
ップC)。
That is, as shown in FIG. 1, the processing device main body 1 first moves the camera 3 in the horizontal direction to input a horizontal stereoscopic image, and in step a), converts the vertical edge components of this stereoscopic image into ↑ (Step b)
. Then, as will be described later, each rafter direction edge component is distance-decomposed based on the parallax in one stereo image (step C).

その後、同様にしてカメラ3を垂直方向に移動させて垂
直方向ステレオ視画殴を入力しくステップd)、このス
テレオ視画順における水平方向のエツジ成分をそれぞれ
抽出する(ステップe)。
Thereafter, similarly, the camera 3 is moved in the vertical direction to input a vertical stereo image (step d), and horizontal edge components in this stereo image order are extracted (step e).

そしてこのステレオ視画像における視差に基いて各水平
方向エツジ成分を距離分解する(ステップf)、。
Then, each horizontal edge component is distance-resolved based on the parallax in this stereoscopic image (step f).

以上の手続きを経て、前記2組のステレオ視画像間にお
いて、視差が等しいエツジを相互に対応付けし、例えば
閉パターンを形成するエツジ成分の組を前記対象物の前
記光軸に垂直な断面を表す情報として抽出する(ステッ
プQ)、そして、この断面の情報を表すエツジ成分の組
を前記原画像に対して重ね合せる等して、その検出され
た断面情報が正しいか否かを検証する(ステップ1))
Through the above procedure, edges with equal parallax are associated with each other between the two sets of stereoscopic images, and, for example, a set of edge components forming a closed pattern is formed into a cross section perpendicular to the optical axis of the object. Then, by superimposing a set of edge components representing this cross-sectional information on the original image, it is verified whether the detected cross-sectional information is correct (Step Q). Step 1))
.

このような一連の処理によって、ステレオ視画象から対
象物の関するエツジ成分だけを高精度に、且つ信頼性良
く検出することが可能となる。
Through this series of processing, it becomes possible to detect only the edge components related to the object from the stereoscopic image with high precision and reliability.

以上の処理について更に詳しく説明する。The above processing will be explained in more detail.

例えば直方体からなる対象物を画像して第3図(Ia)
に示す如き画像(ステレオ視画像を1琵成する112つ
の画像の一方)を得たものとする。しかして水平方向ス
テレオ視画像である場合には、同図(b)に示ずように
その垂直方向エツジ成分のみを抽出し、また垂直方向ス
テレオ視画像の場合には同図(C)に示すようにその水
平方向エツジ成分のみを抽出する。
For example, an image of a rectangular parallelepiped object is shown in Figure 3 (Ia).
Assume that an image as shown in (one of 112 images forming one stereoscopic image) is obtained. In the case of a horizontal stereoscopic image, only the vertical edge component is extracted as shown in FIG. Extract only the horizontal edge component.

このような水平方向および垂直方向の各エツジ成分の抽
出は、例えば原画像に対する空間フィルタリング処理に
よって実現される。具体的には、<3X3)iIi素型
のディジタル・フィルタにてエツジ成分の抽出処理を行
う場合、垂直方向エツジの抽出に際しては、第4図(a
)に示すように重み付けされたマスクを用い、また水平
方向エツジの抽出に際しては、第4図(b)に示すよう
に徂み付けされたマスクを用いるようにすれば良い。
Extraction of edge components in the horizontal and vertical directions is realized, for example, by spatial filtering processing on the original image. Specifically, when extracting edge components using a <3X3)iIi prime type digital filter, when extracting vertical edges, the process shown in Fig. 4 (a
), and when extracting horizontal edges, a mask weighted as shown in FIG. 4(b) may be used.

このようにしてステレオ視画像からのエツジ検出を行っ
た場合、一般的には第3図に示すように対染物の輪郭を
示すエツジ成分以外に、その背望部に起因するCm I
Iエツジ成分検出される。
When edges are detected from stereoscopic images in this way, in general, in addition to the edge components showing the outline of the counterstain, as shown in FIG.
I edge component is detected.

このようにして求められる各ステレオ視画像にJ3ける
エツジ成分に対して、視差を利用した距離分解処理が次
のようにして行われる。第5図はこの視差を利用したエ
ツジ成分の距離分解の込理手続きの一例を示すものであ
り、第6図はその処理画像の例を示すものである。
Distance decomposition processing using parallax is performed on the edge component J3 of each stereoscopic image obtained in this way as follows. FIG. 5 shows an example of a complicated procedure for distance decomposition of edge components using this parallax, and FIG. 6 shows an example of the processed image.

即ち、ステレオカメラの光軸が平行であり、ステレオ視
画像を構成する2枚の画像からそれぞれ求められる垂直
方向エツジ画像が第6図(a)(b)に示される場合、
その一方、例えば前記位置AでIa@された左画像を基
準として、位置Bでbu (1されたち画像を水平方向
に移動させ(ステップp)、同図(C)に示すようにそ
の2枚の画像間でエツジの重ね合せ処理を行う(ステッ
プq)。
That is, when the optical axes of the stereo cameras are parallel and the vertical edge images obtained from the two images constituting the stereoscopic image are shown in FIGS. 6(a) and 6(b),
On the other hand, for example, using the left image Ia@ at the position A as a reference, move the bu (1 image) horizontally at the position B (step p), and move the two images as shown in the same figure (C). Edge superimposition processing is performed between the images (step q).

尚、理論的には、2枚の画像の相対的な平行移動によっ
てエツジの也ね合せ処理を行えば良い。
Theoretically, it is sufficient to perform edge matching processing by relative parallel movement of the two images.

そしてこの重ね合せ処理により、2枚のエツジ画像間の
相関係数を計算しくステップr)、その計算値を閾値処
理して対応エツジを求める(ステップS)。
Through this superimposition process, a correlation coefficient between the two edge images is calculated (step r), and the calculated value is subjected to threshold processing to obtain corresponding edges (step S).

この対応エツジの抽出は、例えばステレオ視画象におけ
る2つのエツジ画像の各濃度直をA ij。
This extraction of corresponding edges involves, for example, A ij of each density value of two edge images in a stereoscopic image.

Bljとし、規定ウィンドウWmn内の相関係数3in
を次のようにして計算することによって達せられる。
Blj, and the correlation coefficient within the specified window Wmn is 3in.
This can be achieved by calculating as follows.

(O≦ Smn  ≦1 ) そして、この相関係数i!Smnを、予め定められた閾
値と比較し、閾値以上の相関係数値3nmを得るエツジ
成分だけを対応成分で必るとして第6図(d)に示すよ
うに抽出する。この処理をその平行移動分を順に変えな
がら繰返し+−Tい、例えば等距殖断面上のエツジ成分
を手前側から順に求め、前記エツジ画像におけるエツジ
成分を距離分解する。
(O≦Smn≦1) And this correlation coefficient i! Smn is compared with a predetermined threshold value, and only edge components that obtain a correlation coefficient of 3 nm greater than the threshold value are extracted as necessary corresponding components as shown in FIG. 6(d). This process is repeated +-T while sequentially changing the amount of translation. For example, edge components on the equidistant cross-section are obtained sequentially from the near side, and the edge components in the edge image are distance-resolved.

この処理は、垂直方向ステレオ視画像における水平方向
エツジ画像間においてち同(子に行う。
This process is performed simultaneously between the horizontal edge images in the vertical stereoscopic images.

尚、この視差に暴くエツジ成分の距離分解は、次のよう
な視差理論に基いて(1ねれる。
The distance decomposition of the edge component that exposes this parallax is based on the following parallax theory.

即ち第7図に示すように、例えば水平方向に距離λずれ
た位置Q1.Q2から、距離りを隔てた前方位置Pの像
を@像するものとする。但し、上記距11Dはカメラ3
のレンズ中心位fi01.02からの距離とし、このレ
ンズ中心位fiOLO2から撮像面までの距離がdであ
るとする。そして、位置Q1から見た象Pの撮像面にお
ける結像位置P1のレンズ中心からの偏移幅が21であ
り、位置Q2から見た像Pの189面における拮@位置
P2qレンズ中心からの偏移幅が22であるとする。
That is, as shown in FIG. 7, for example, the position Q1. It is assumed that an image at a forward position P separated by a distance from Q2 is imaged. However, the above distance 11D is
It is assumed that the distance from the lens center position fi01.02 is d, and the distance from this lens center position fiOLO2 to the imaging surface is d. Then, the deviation width of the imaging position P1 from the lens center on the imaging plane of the elephant P seen from the position Q1 is 21, and the deviation width from the lens center of the image P seen from the position Q2 on the 189th plane @position P2q Assume that the shift width is 22.

この場合のステレオ視画像における対象物Pにqする視
差Sは、 3    =    fil     +、    Q
2=  (Ql Px  (d/D)) +  (Q2  Px  (d、/D)  1=  d
 弓/D となる。このように視差Sと対染物Pまでの粗列りとは
、ステレオ視画像をけたカメラ(ひ置間の距離に対して
線形な関係を有する。従って上)ホした如きエツジ画像
の車ね合せ処理を、その視差量を変えながら行うことに
よって、前記エツジ画像における各エツジ成分をそれぞ
れ距離分解することが可能となる。
In this case, the parallax S relative to the object P in the stereo image is: 3 = fil +, Q
2= (Ql Px (d/D)) + (Q2 Px (d, /D) 1= d
Bow/D. In this way, the parallax S and the rough alignment to the counter-dyed object P are the alignment of edge images such as the one shown in the camera (which has a linear relationship with the distance between the stereoscopic images, therefore, the distance between the two). By performing the processing while changing the amount of parallax, it becomes possible to perform distance decomposition of each edge component in the edge image.

このようにして水平方向、および垂直方向における各エ
ツジ成分の距離分解処理を行った後、視差の等しいエツ
ジ成分同士を組合ぜ、例えば閉領域を形成するエツジの
組を抽出する。
After performing distance decomposition processing for each edge component in the horizontal and vertical directions in this manner, edge components having the same parallax are combined to extract a set of edges forming, for example, a closed region.

具体的には、成る視差を持つ垂直方向エツジ成分を第8
図(a)に示すように抽出し、同様に同じ視差°を持つ
水平方向エツジ成分を同図(1))に示すように抽出す
る。そしてこれらの両エツジ画像を第8図(C)に示す
ように重ね合せ、水平方向および垂直方向のエツジ成分
によってr!j1領域を形成するエツジの組を検出する
。このエツジの組を1その視差に関する対象物の前記光
軸に垂直な断1面の情報として求める。
Specifically, the vertical edge component with the parallax of
The horizontal edge components having the same parallax degree are similarly extracted as shown in FIG. 1 (1). Then, these two edge images are superimposed as shown in FIG. 8(C), and r! is determined by the horizontal and vertical edge components. A set of edges forming the j1 region is detected. This set of edges is obtained as information on a cross section of the object perpendicular to the optical axis regarding the parallax.

これによって対象物に関する断面情報が、カメラ3から
の211に対応して求められることになる。
As a result, cross-sectional information regarding the object is obtained corresponding to 211 from the camera 3.

しかして本装置では、このようにして求められた断面の
情報、つまりエツジの組を原画@(ステレオ覚画像の一
方)上に重ね合せ、その検出結果が正しいか否かを検証
している。この検証は前記画像モニタ4による目視検査
であっても良いが、ここでは上記エツジの組によって囲
まれる閉領域内部の原画会の1石川を求め、その値が所
定の閾値以上であるか否かを判定している。つまり、エ
ツジの組によって囲まれる閉領域が対象物の断面である
場合、その内部の1度が背景1度と明かに異なっている
ことを利用して検出結果の検証を行っている。
However, in this apparatus, the cross-sectional information obtained in this way, that is, the set of edges, is superimposed on the original image @ (one side of the stereoscopic image), and it is verified whether the detection result is correct or not. This verification may be a visual inspection using the image monitor 4, but here, one Ishikawa of the original painting inside the closed area surrounded by the set of edges is determined, and whether or not the value is greater than or equal to a predetermined threshold value is determined. is being determined. That is, when a closed region surrounded by a set of edges is a cross section of an object, the detection result is verified by utilizing the fact that 1 degree inside the closed region is clearly different from 1 degree in the background.

以上の一連の処理によって、反射や影、雑音等に起因し
て生じる偽エツジによる誤った対象物検出が防止され、
対象物に関する高精度で信頼性の高い情報のみが求めら
れるよになっている。
The above series of processes prevents incorrect object detection due to false edges caused by reflections, shadows, noise, etc.
Only highly accurate and reliable information about objects is now required.

以上のように本装置にあっては、水平方向、および垂直
方向に視点を異ならせて求められた2Kiのステレオ視
画像から、その拘束条件に従う検出信頼性の高いエツジ
成分だけをそれぞれ検出し、のエツジ成分を7M差に従
って距離分解しのち、視差を同じくするエツジ成分の組
を求め、閉#4域を形成するエツジの組を対象物の断面
情報として求めている。従ってその検出精度を十分に高
くすることができる。
As described above, this device detects only edge components with high detection reliability that comply with the constraint conditions from 2Ki stereoscopic images obtained from different viewpoints in the horizontal and vertical directions. After distance decomposing the edge components according to the 7M difference, a set of edge components having the same parallax is obtained, and a set of edges forming the closed #4 area is obtained as cross-sectional information of the object. Therefore, the detection accuracy can be made sufficiently high.

しかもこのようにして検出された断面情報を原画像に車
ね合せてその検証を行い、真に正しい断面情報だけを求
めるようにしている。
Furthermore, cross-sectional information detected in this way is verified by matching it with the original image, so that only truly correct cross-sectional information is obtained.

従って検出精度の向上を図り、また検出信頼性の向上を
も図り得る等の実用上多大なる効果を秦しくqる。
Therefore, it is possible to achieve great practical effects, such as improving detection accuracy and improving detection reliability.

尚、本発明は上述した実施例に限定されるものではない
。例えば複数台のカメラを用いて水平方向および垂直方
向のステレオ視画(pを同時に得るようにしても良い。
Note that the present invention is not limited to the embodiments described above. For example, a plurality of cameras may be used to simultaneously obtain horizontal and vertical stereoscopic views (p).

また個々の画像処理については、従来から知られた手法
を適宜用いることができる。要するに本発明はその要旨
を逸脱しない範囲で穂々変形して実施することができる
Furthermore, for individual image processing, conventionally known techniques can be used as appropriate. In short, the present invention can be implemented with various modifications without departing from the gist thereof.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の一実施例を示すもので、第1図は画像処理
の概念を示す図、第2図は実施例i置の概略構成図、第
3図はエツジ成分検出の例を示す図、第4図はエツジ検
出に用いられるマスクの例を示す図、第5図は視差に基
くエツジ成分の距離分解処理の流れを示す図、第6図は
エツジ成分の距離分解における遮理画像例を示す図、第
7図は視差原理を示す図、第8図は断面情報の検出処理
画像の例を示す図である。 1・・・処理装置本体、2・・・カメラ位置制御態構、
3・・・カメラ、4・・・画像モニタ。 出願人 工業技i4i院長 等々力 jヱ第1図 (b)               (c)第3図 (a)(b) 第4深 第5図 笥 6 図 第7図 (a)       (b) (c)(d) 第8!S71
The figures show one embodiment of the present invention. Fig. 1 is a diagram showing the concept of image processing, Fig. 2 is a schematic configuration diagram of the i-th embodiment, and Fig. 3 is a diagram showing an example of edge component detection. , Fig. 4 is a diagram showing an example of a mask used for edge detection, Fig. 5 is a diagram showing the flow of distance decomposition processing of edge components based on parallax, and Fig. 6 is an example of an occluded image in distance decomposition of edge components. FIG. 7 is a diagram showing the parallax principle, and FIG. 8 is a diagram showing an example of a cross-sectional information detection processed image. 1... Processing device main body, 2... Camera position control structure,
3...Camera, 4...Image monitor. Applicant: Todoroki Director of Industrial Technology i4i ) No. 8! S71

Claims (2)

【特許請求の範囲】[Claims] (1)カメラの光軸に対して垂直な面内の水平方向およ
び垂直方向にそれぞれ等距離隔てた位置から対象物を撮
像入力し、水平方向および垂直方向にそれぞれ視点を異
ならせた2組のステレオ視画像を得る手段と、水平方向
に視点を異ならせたステレオ視画像から垂直方向のエッ
ジ成分を検出する手段と、垂直方向に視点を異ならせた
ステレオ視画像から水平方向のエッジ成分を検出する手
段と、上記垂直方向および水平方向の各検出エッジ成分
を前記各ステレオ視画像における視差に従って距離分解
する手段と、これらの距離分解された検出エッジ成分の
内、垂直方向および水平方向に等しい視差を有する検出
エッジ成分同士を組合わせて前記対象物に関する前記光
軸に垂直な断面の情報を得る手段と、この断面の情報を
前記ステレオ視画像と照合して前記対象物に関して検出
された断面の情報を検証する手段とを具備したことを特
徴とするステレオ視覚装置。
(1) Images of the object are input from positions equidistant in the horizontal and vertical directions in a plane perpendicular to the optical axis of the camera, and two sets of images are captured with different viewpoints in the horizontal and vertical directions. Means for obtaining stereoscopic images, means for detecting vertical edge components from stereoscopic images with different viewpoints in the horizontal direction, and detecting edge components in the horizontal direction from stereoscopic images with different viewpoints in the vertical direction means for distance-decomposing each detected edge component in the vertical and horizontal directions according to the parallax in each stereoscopic image; and means for distance-decomposing each of the detected edge components in the vertical and horizontal directions according to the parallax in each of the stereoscopic images; a means for obtaining information on a cross section perpendicular to the optical axis of the object by combining detected edge components having a cross section of the object; A stereo visual device characterized by comprising means for verifying information.
(2)2組のステレオ視画像は、1台のカメラをその光
軸に対して垂直な面内で水平方向および垂直方向にそれ
ぞれ等距離平行移動させて求められるものである特許請
求の範囲第1項記載のステレオ視覚装置。
(2) The two sets of stereoscopic images are obtained by moving one camera equidistantly in parallel in the horizontal and vertical directions within a plane perpendicular to its optical axis. The stereo visual device according to item 1.
JP61003527A 1986-01-13 1986-01-13 Stereo vision device Expired - Lifetime JPH0661098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61003527A JPH0661098B2 (en) 1986-01-13 1986-01-13 Stereo vision device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61003527A JPH0661098B2 (en) 1986-01-13 1986-01-13 Stereo vision device

Publications (2)

Publication Number Publication Date
JPS62162175A true JPS62162175A (en) 1987-07-18
JPH0661098B2 JPH0661098B2 (en) 1994-08-10

Family

ID=11559850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61003527A Expired - Lifetime JPH0661098B2 (en) 1986-01-13 1986-01-13 Stereo vision device

Country Status (1)

Country Link
JP (1) JPH0661098B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756299B2 (en) * 2004-12-14 2010-07-13 Honda Motor Co., Ltd. Face region estimating device, face region estimating method, and face region estimating program
JP2015179301A (en) * 2014-03-18 2015-10-08 株式会社リコー Image processor, image processing method, image processing program, and mobile apparatus control system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4087874B2 (en) 2006-02-01 2008-05-21 ファナック株式会社 Work picking device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756299B2 (en) * 2004-12-14 2010-07-13 Honda Motor Co., Ltd. Face region estimating device, face region estimating method, and face region estimating program
JP2015179301A (en) * 2014-03-18 2015-10-08 株式会社リコー Image processor, image processing method, image processing program, and mobile apparatus control system

Also Published As

Publication number Publication date
JPH0661098B2 (en) 1994-08-10

Similar Documents

Publication Publication Date Title
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
JP3242529B2 (en) Stereo image matching method and stereo image parallax measurement method
Chang et al. Omni-directional structure from motion
JP5011528B2 (en) 3D distance measurement sensor and 3D distance measurement method
Goto et al. 3D environment measurement using binocular stereo and motion stereo by mobile robot with omnidirectional stereo camera
JPS62162175A (en) Stereo visual device
Pachidis et al. Pseudo-stereo vision system: a detailed study
Traffelet et al. Target-based calibration of underwater camera housing parameters
Kawata et al. Scale optimization of structure from motion for structured light-based all-round 3D measurement
Maimone et al. A taxonomy for stereo computer vision experiments
JPH0478924B2 (en)
JP3275252B2 (en) Three-dimensional information input method and three-dimensional information input device using the same
Guarnieri et al. 3D Modeling of Real Artistic Objects with Limited Computers Resources
JPH0979820A (en) Restoring device of object shape and camera visual point movement and restoring method of object shape and camera visual point movement
Corrêa et al. Omnidirectional stereovision system with two-lobe hyperbolic mirror for robot navigation
Pedersini et al. Multi-camera parameter tracking
Qiao et al. Underwater structure from motion for cameras under refractive surfaces
Parvathi et al. Refraction Corrected Pose Estimation for 3D reconstruction of underwater objects
Hu It's all done with mirrors: Calibration-and-correspondence-free 3D reconstruction
Boutteau et al. An omnidirectional stereoscopic system for mobile robot navigation
Ekanayake et al. Object dimension extraction for environment mapping with low cost cameras fused with laser ranging
Hutber Automatic inspection of 3D objects using stereo
Park et al. New technique for registration and integration of partial 3D models
Celenk et al. Multiple stereo vision for 3D object reconstruction
Gorodnichy et al. Single camera stereo for mobile robot world exploration

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term