JPS62284479A - Device for recognizing stereoscopic shape of object - Google Patents

Device for recognizing stereoscopic shape of object

Info

Publication number
JPS62284479A
JPS62284479A JP61125764A JP12576486A JPS62284479A JP S62284479 A JPS62284479 A JP S62284479A JP 61125764 A JP61125764 A JP 61125764A JP 12576486 A JP12576486 A JP 12576486A JP S62284479 A JPS62284479 A JP S62284479A
Authority
JP
Japan
Prior art keywords
shape
image
common
viewpoint
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61125764A
Other languages
Japanese (ja)
Other versions
JPH07109626B2 (en
Inventor
Yoshiaki Usami
芳明 宇佐美
Kenichi Anjo
安生 健一
Miyako Nio
都 仁尾
Kanman Hamada
浜田 亘曼
Masao Yanaka
谷中 雅雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61125764A priority Critical patent/JPH07109626B2/en
Publication of JPS62284479A publication Critical patent/JPS62284479A/en
Publication of JPH07109626B2 publication Critical patent/JPH07109626B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To recognize a local recessed part and to improve the accuracy of recognition of the whole shape by combining a conical body penetration method with a stereoscopic vision method based upon both eyes. CONSTITUTION:The processings of steps 101-105 are shape recognition based upon the conical body penetration method and the processings of steps 106-109 are shape correction based upon the stereoscopic vision of both eyes. Images are photographed by TV cameras 1-8 and the envelope surface of the shape of an object is recognized by using the images 1-4 picked up by the cameras 1-4 based on the conical body penetration method. Then, shape correction based upon stereoscopic vision is executed by using the images 1, 5; 2, 6; 3, 7 and 4, 8. Namely stereoscopic vision can be executed by using a geometric restricting condition obtained by the conical body penetration method, so that an accurate stereoscopic shape can be recognized. Consequently, a local recessed part which can not be recognized by the conical body penetration method can be recognized and the accuracy of the whole shape recognition can be improved.

Description

【発明の詳細な説明】 3、発明の詳細な説明 〔産業上の利用分野〕 本発明はカメラ系で物体の立体形状を認識するV&霞及
び方法に係り、特にコンピュータ・グラフィックスのシ
ステムにおけるデータ入力方法として好適な、物体の立
体形状の認識装置及び方法に関する。
Detailed Description of the Invention 3. Detailed Description of the Invention [Industrial Field of Application] The present invention relates to a V & Kasumi and method for recognizing the three-dimensional shape of an object using a camera system, and particularly relates to data processing in a computer graphics system. The present invention relates to an apparatus and method for recognizing the three-dimensional shape of an object, which is suitable as an input method.

〔従来の技術〕[Conventional technology]

従来の物体の立体形状の認識方法としては、情報処理学
会コンピュータ・ビジョン研究会資料、37−2 (1
985年)において論じられているように、TVカメラ
で複数方向から物体を撮影し。
As a conventional method for recognizing the three-dimensional shape of an object, Information Processing Society of Japan Computer Vision Study Group Materials, 37-2 (1
As discussed in 985), objects are photographed from multiple directions with a TV camera.

画像の輪郭線情報を基にして、錐体相貫法によりボクセ
ル(VOXEL)モデルとして計算機内に立体形状を3
次元座標として再構成する方法となっていた。しかし、
この方法で得られる形状は物体の包絡面であり、物体に
居所的凹部がある場合については配慮されていなかった
Based on the contour line information of the image, a three-dimensional shape is created in the computer as a voxel (VOXEL) model using the cone interaction method.
The method was to reconstruct it as dimensional coordinates. but,
The shape obtained by this method is the envelope surface of the object, and no consideration was given to the case where the object has a concave portion.

また局所的凹部も認識して計算機内に入力できる方法と
して、第24回5ICE学術講演会予稿集、第847頁
から第848頁(1985年)において論じられている
ような両眼立体視(ステレオ視)法が知られている。
In addition, as a method that can recognize local depressions and input them into the computer, a binocular stereoscopic (stereoscopic) method as discussed in the proceedings of the 24th 5ICE Academic Conference, pp. 847 to 848 (1985) (visual) law is known.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記錐体相貫法による従来技術は画像の輪郭線情報から
立体形状を再構成する方法であったので。
The conventional technique using the cone interoperability method described above was a method of reconstructing a three-dimensional shape from image contour information.

物体に輪郭線に現われないような局所的凹部が存在して
いる場合には、この部分を認識することができず、計算
機内に入力された形状は精度の点で問題があった。
If an object has a local depression that does not appear on the contour line, this part cannot be recognized, and the shape input into the computer has problems in terms of accuracy.

一方、両眼立体視法による認識方法では、十分な精度を
得るために1両眼の視差を拡大しようとすると、左右画
像の対応付けが因業になり、逆に解が不正確になるとい
う問題点があった。
On the other hand, in the recognition method using binocular stereopsis, if you try to enlarge the disparity of each eye to obtain sufficient accuracy, the correspondence between the left and right images becomes a chore, and the solution becomes inaccurate. There was a problem.

本発明の目的は、かかる従来技術の問題点を解決し1局
所的凹部の認識を可能にすると共に、全体の形状認識の
精度を向上させることにある。
An object of the present invention is to solve the problems of the prior art, to enable the recognition of one local recess, and to improve the accuracy of overall shape recognition.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的を達成する本発明の特徴とするところは、物体
を複数視点から撮影するカメラ系と、上記カメラ系の出
力から、上記物体の位置及び/または形状に関する幾何
学的な拘束条件を算出する第1の演算手段と、上記カメ
ラ系の二つの視点からの視線の交点位置が上記幾何学的
な拘束条件を満足するか否かを算出し、上記幾何学的な
拘束条件を満足する上記交点位置及び上記幾何学的な拘
束条件に基づき物体の対応点の3次元座標を算出する第
2の演算手段とを具備することにある。
The present invention that achieves the above object is characterized by: a camera system that photographs an object from multiple viewpoints; and a system that calculates geometric constraints regarding the position and/or shape of the object from the output of the camera system. A first calculating means calculates whether or not the intersection position of lines of sight from two viewpoints of the camera system satisfies the geometrical constraint, and determines the intersection point that satisfies the geometrical constraint. and a second calculating means for calculating three-dimensional coordinates of corresponding points of the object based on the position and the above-mentioned geometric constraint conditions.

本発明の好ましい実施態様では、従来技術で形状認識の
原理として利用していた錐体相貫法に加えて、局所的凹
部を認識できる両眼立体視法を組み合わせる。
In a preferred embodiment of the present invention, in addition to the cone interaction method used as the principle of shape recognition in the prior art, a binocular stereoscopic method that can recognize local depressions is combined.

〔作用〕[Effect]

錐体相貫法により物体形状の包絡面を認識し。 Recognize the envelope surface of an object shape using the cone-transfer method.

そこから得られる幾何学的拘束条件を利用して両眼立体
視を行うので、両眼の視差を大きくすることができ、十
分な精度が得られるので更に精密な立体形状を認識する
。それによって錐体相貫法を単独で用いた場合には認識
できなかった局所的凹部を認識でき、さらに両眼立体視
法の単独利用の場合よりも精度が向上する。
Since binocular stereoscopic vision is performed using the geometrical constraint conditions obtained from this, the parallax between both eyes can be increased, and sufficient accuracy can be obtained to recognize more precise three-dimensional shapes. As a result, it is possible to recognize local depressions that could not be recognized when using the cone interaction method alone, and the accuracy is further improved compared to when the binocular stereoscopic method is used alone.

〔実施例〕〔Example〕

以下、本発明の一実施例を図面に従って詳細に説明する
Hereinafter, one embodiment of the present invention will be described in detail with reference to the drawings.

第1図は、本発明の実施例を計算機ソフトウェアにより
実現した場合の処理手続の概略を示すフローチャートで
あり、第2図はその一部分を詳細化したものである。ま
た、第3図はカメラ1〜8と大刃物体9の位置関係を説
明する図である。尚。
FIG. 1 is a flowchart showing an outline of the processing procedure when the embodiment of the present invention is realized by computer software, and FIG. 2 shows a part of the procedure in detail. Further, FIG. 3 is a diagram illustrating the positional relationship between the cameras 1 to 8 and the large blade object 9. still.

計算機ソフトウェアでなく、専用の回路を用いても良い
ことは勿論である。
Of course, a dedicated circuit may be used instead of computer software.

第1図のフローチャートに基づいて、各ステップでの処
理について説明する。この図でステップ101から10
5までの処理は錐体相貫法による形状の認識であり、第
1の演算手段に相当する部分であり、ステップ106〜
109が両眼立体視による形状認識修正であり、第2の
演算手段に相当する。
Processing at each step will be explained based on the flowchart in FIG. In this diagram, steps 101 to 10
The processes up to step 5 are shape recognition using the cone interaction method, which corresponds to the first calculation means, and steps 106 to 5
Reference numeral 109 indicates shape recognition correction using binocular stereoscopic vision, which corresponds to the second calculation means.

まずステップ101では、TVカメラ1〜8よりなるカ
メラ系により画像を撮影してその出力を計算機にデータ
を入力する。このときの視点の位置関係は第3図に示す
とおりで、カメラ1〜4は大刃物体9を中心として直交
する四方向に配置する。なお、空間に固定されたxYZ
直交座標系の±Z軸方向にカメラ1と3が、±X軸方向
にカメラ2と4があるものとする。またカメラ5はカメ
ラ1を水平に原点に向って右に所定の距離だけ移動させ
た位置にあり、他のカメラ6〜8も同様にカメラ2〜4
の位置を水平移動させた位置にある。
First, in step 101, an image is photographed by a camera system consisting of TV cameras 1 to 8, and the output data is inputted into a computer. The positional relationship of the viewpoints at this time is as shown in FIG. 3, and the cameras 1 to 4 are arranged in four orthogonal directions with the large blade object 9 as the center. Furthermore, xYZ fixed in space
It is assumed that cameras 1 and 3 are located in the ±Z-axis direction of the orthogonal coordinate system, and cameras 2 and 4 are located in the ±X-axis direction. Further, camera 5 is located at a position where camera 1 is moved horizontally by a predetermined distance to the right toward the origin, and the other cameras 6 to 8 are located in the same way as cameras 2 to 4.
The position is horizontally moved.

各カメラで撮影されて、計算機に入力される二次元画像
データは、第4図(a)〜(h)に示す、ここでカメラ
1の画像データは第4図(a)に示す画像1に対応して
おり、以下も同様である。そして各2次元画像の中で物
体が射影されている領域を物体像と呼び、その他の領域
を背景像と呼ぶ。
The two-dimensional image data taken by each camera and input to the computer are shown in FIGS. 4(a) to (h), where the image data of camera 1 is shown in image 1 shown in FIG. 4(a). The same applies to the following. In each two-dimensional image, the area where the object is projected is called an object image, and the other area is called a background image.

錐体相貫法とは、画像の輪郭線情報から、物体の包絡面
の集合を求めて、これを近似形状とする手法である0次
のステップ102は、以降のステップ103〜105ま
での処理を、第4図の2次元画像1〜4について繰り返
すことを示している。
The cone interoperability method is a method of finding a set of envelope surfaces of an object from image contour information and using this as an approximate shape.The zero-order step 102 is the process of the following steps 103 to 105. is repeated for two-dimensional images 1 to 4 in FIG. 4.

錐体相貫法による形状入力では、カメラ5〜8からの画
像5〜8は使用しない。
Images 5 to 8 from cameras 5 to 8 are not used in the shape input using the cone-penetrating method.

ステップ103では、各2次元画像にしきい値処理を行
って二値化し、物体像を抽出する。
In step 103, each two-dimensional image is subjected to threshold processing and binarized to extract an object image.

ステップ104で、物体の位置及び/または形状に関す
る幾何学的な拘束条件の一部となる仮定存在領域を算出
する。仮定存在領域とは、第5図に示すようにカメラ1
の投影中心を頂点(頂点)とし1画像の物体像を断面形
状とする錐体状の領域である。すると大刃物体は、この
領域の内側に必ず存在していることになる。そしてこの
領域を算出するために、この錐体状の形状をボクセルモ
デルで記述することとする。ボクセルモデルとは三次元
形状を、立体的で等間隔な格子点の有無で記述するモデ
ルであり、ボクセルが定義される空間をボクセル空間と
呼ぶ、ボクセル空間は認識物体を包含するような、大き
さ・位置で配置する。
In step 104, a hypothetical existence area that becomes part of the geometrical constraints regarding the position and/or shape of the object is calculated. The hypothetical existence area is the area where camera 1 is located as shown in Figure 5.
It is a cone-shaped area whose apex is the projection center of , and whose cross-sectional shape is the object image of one image. This means that the large blade object will always exist inside this area. In order to calculate this region, this cone-shaped shape is described using a voxel model. A voxel model is a model that describes a three-dimensional shape in terms of the presence or absence of three-dimensional, equally spaced grid points, and the space in which voxels are defined is called voxel space. Place it in the same position.

各々のボクセルとは、大きさの等しい立方体要素であり
、この立方体の集合で三次元形状を表現するものがボク
セルモデルである。このモデルを用いた場合の仮定存在
領域の算出方法を第6図に示す、第6図の仮定存在領域
は、カメラlの視線方向に対応したものであり、第5図
におけるボクセル空間をXZ平面で切断したものである
。いま説明のために簡略化して、ボクセル空間は10X
10XIOのボクセルから構成されているものとする。
Each voxel is a cubic element of equal size, and a voxel model is a collection of cubes that expresses a three-dimensional shape. The method of calculating the hypothetical existence area when using this model is shown in Figure 6. The hypothetical existence area in Figure 6 corresponds to the line of sight direction of the camera l, and the voxel space in Figure 5 is transformed into the XZ plane. It was cut by. To simplify the explanation, the voxel space is 10X
It is assumed that the image is composed of 10XIO voxels.

仮定存在領域のXY平面での断面は、物体像の形状の相
似形であり、その大きさは投影中心からのZ軸上の距離
に比例したものである。したがってボクセル空間でのX
Y断面は、カメラから得た物体像を距離に応じてスケー
リングさせて得ることができる。スケーリングした物体
像を順次ボクセル空間に代入して、第6図のように、ハ
ツチングで示す仮定存在領域をボクセルモデルで得るこ
とができる。第5図かられかるように投影中心から離れ
るに従って、仮定存在領域は広がって〜するので、第6
図においてもZが大きい領域が広くなる形状となる。
The cross section of the hypothetical existence region on the XY plane is similar to the shape of the object image, and its size is proportional to the distance on the Z axis from the projection center. Therefore, X in voxel space
The Y cross section can be obtained by scaling the object image obtained from the camera according to the distance. By sequentially substituting the scaled object images into the voxel space, a hypothetical existence area indicated by hatching can be obtained as a voxel model as shown in FIG. As shown in Figure 5, the hypothetical existence area expands as you move away from the projection center, so the 6th
Also in the figure, the region where Z is large has a wide shape.

ステップ105では、共通仮定存在領域を求める。第7
図は共通仮定存在領域を説明する図であり、共通仮定存
在領域とは各投影中心に対応した仮定存在領域の論理積
部分で、同図ではハツチングで示す領域である。第8図
はボクセル空間内で求めた共通仮定存在領域の一断面(
XZ方向)を示す図である。仮定存在領域同士の論理積
は、各ボクセル毎の論理演算で算出できる。即ち、すべ
ての投影方向に共通なボクセルのみを残すことで。
In step 105, a common hypothesis existence region is determined. 7th
The figure is a diagram for explaining a common hypothetical existence area, and the common hypothetical existence area is a logical product of hypothetical existence areas corresponding to each projection center, and is an area indicated by hatching in the figure. Figure 8 shows a cross-section of the common hypothetical existence region found in voxel space (
FIG. The logical product between hypothetical existence regions can be calculated by a logical operation for each voxel. That is, by leaving only voxels that are common to all projection directions.

第8図のように形状が得られる。このようにして。A shape as shown in FIG. 8 is obtained. In this way.

共通仮定存在領域が求められれば、大刃物体はこれに内
接する形状となっている。つまり共通仮定存在領域は大
刃物体の包絡面の集合であり、これを第1次の大刃物体
の概略形状とする。これが、物体の位置及び/または形
状に関する幾何学的な拘束条件となる。第9図はこの形
状を図示しない表示手段により立体的に表示した図で、
錐体相貫法による形状認識で求めた結果を表示したもの
である。
If the common assumption existence region is found, the large blade object has a shape that is inscribed in this region. In other words, the common assumed existence region is a set of envelope surfaces of the large-blade object, and this is assumed to be the approximate shape of the first-order large-blade object. This becomes a geometric constraint regarding the position and/or shape of the object. FIG. 9 is a diagram showing this shape three-dimensionally using a display means (not shown).
This is a display of the results obtained by shape recognition using the cone interoperability method.

ステップ106以降の処理は、求められた概略形状を両
眼立体視法により、修正するためのものである0両眼立
体視では第4図でのカメラ1〜8からの画像1と5,2
と6,3と7.4と8の視点の異なる2枚の2次元画像
の組合せで処理を行う、第10図は両眼立体視法による
形状入力の概略を説明する図で、左右の2枚の2次元画
像から大刃物体までの奥行きを求めることを示している
The processing from step 106 onwards is to correct the obtained approximate shape using the binocular stereoscopic method.
Processing is performed using a combination of two two-dimensional images with different viewpoints, 6, 3, 7. 4, and 8. This shows that the depth to a large blade object is determined from two two-dimensional images.

例えば第4図の画像1は左画像に、画像5は右画像に対
応している0両眼立体視法の基本は、左右画像の対応点
から三角測量の原理で物体までの奥行きを求めることで
ある。
For example, in Figure 4, image 1 corresponds to the left image, and image 5 corresponds to the right image.0 The basis of binocular stereopsis is to find the depth to an object from corresponding points in the left and right images using the principle of triangulation. It is.

ここで、第3図のカメラ1とカメラ5のように。Here, like camera 1 and camera 5 in FIG.

2台のカメラが同一方向を向いて水平に置かれている場
合について、画像中の対応点を求める方法を説明する。
A method for finding corresponding points in an image when two cameras are placed horizontally facing the same direction will be explained.

いま第10@の入刃物体上の表面点Pが、左画像上の点
乙の位置にあるものとする。
It is now assumed that the surface point P on the 10th bladed object is located at the position of point O on the left image.

このとき右画像で点りに対応する点Rを決定することが
できれば、直線τVとRPは既知であり、点Pまでの奥
行き距離を、三角測量により算出することができる。と
ころで第3図のように、カメラ2台が所定距離の間隔で
水平に置かれている場合では、幾何学的な関係から、点
り、P、Rは同一平面上にあり、点りの対応点Rは両像
面上の同じ高さく=h)の直線上のどこかに必ず存在す
ることがわかる。この直線を一般に、エピポーラ・ライ
ンと呼ぶ、そして右画像上の点に対応する左画像上の点
についても、全く同様の関係がある。
At this time, if the point R corresponding to the dot can be determined in the right image, the straight lines τV and RP are known, and the depth distance to the point P can be calculated by triangulation. By the way, as shown in Figure 3, when two cameras are placed horizontally at a predetermined distance apart, the points P and R are on the same plane due to the geometrical relationship, and the correspondence between the points is It can be seen that point R always exists somewhere on the straight line at the same height = h) on both image planes. This straight line is generally called an epipolar line, and exactly the same relationship exists for points on the left image that correspond to points on the right image.

したがって、左右画像間の対応関係の問題は、−次元の
ベクトルである左右のエビポーラ・ラインのマツチング
問題に帰着させることができる1本実施例は、左右のエ
ビポーラ・ライン上の画素の明るさ値に着目して、動的
計画法により対応点を探索する。
Therefore, the problem of the correspondence between the left and right images can be reduced to the problem of matching the left and right evipolar lines, which are -dimensional vectors. , and search for corresponding points using dynamic programming.

第11図はエピポーラ・ライン上の画素の明るさの値に
着目して、左右のエピポーラ・ラインをマツチングさせ
る方法を説明する図である。第11図上側の左エピポー
ラ・ライン上の明るさ分布を示すグラフは、第10図の
左画像のものと同一であり、第11図右下側の明るさ分
布のグラフは第10図の右画像のものと同一である。こ
の明るさ分布では、視点に対して最も近い部分が最も明
るくなるということを仮定している。また、ステップ1
03と同様にして、しきい種処理により、1つのライン
上を背景像と物体像の領域に分割を行っている。そして
、左右のエピポーラ・ラインのマツチングは対応探索マ
ツプ上で始点Sと終点Eを結ぶ最小コストパスを選ぶこ
とにより行われる。コスト計算には左右画素間の明るさ
の差を用いる。すべてのコストの合計が最小であるもの
が最小コストパスである。対応探索マツプは左右の画素
列の組み合せ方を示すもので、左上の点Sがパスの始点
を、右下の点Eが終点を示す、この両者間を結ぶパスに
より、左右の画素毎の対応関係が決定される。詳細は後
のステップで述べるが、マツプ上を斜めに移動するパス
は、画素のマツチングがとれた部分を示しており、垂直
、水平に移動するパスはマツチングできなかった部分を
示すものである1例えば、左エビポーラ・ライン上の区
間Aに含まれる画素の1つ1つは、右ライン上の区間B
の内部の画素と1対1に対応している。
FIG. 11 is a diagram illustrating a method of matching left and right epipolar lines by focusing on the brightness values of pixels on the epipolar lines. The graph showing the brightness distribution on the left epipolar line on the upper side of Figure 11 is the same as the one on the left image of Figure 10, and the graph of the brightness distribution on the lower right side of Figure 11 is on the right side of Figure 10. It is the same as the one in the image. This brightness distribution assumes that the part closest to the viewpoint is the brightest. Also, step 1
Similarly to 03, one line is divided into background image and object image areas by threshold processing. Matching of the left and right epipolar lines is performed by selecting the minimum cost path connecting the starting point S and the ending point E on the correspondence search map. The difference in brightness between the left and right pixels is used for cost calculation. The path for which the sum of all costs is the minimum is the minimum cost path. The correspondence search map shows how to combine the left and right pixel columns.The upper left point S indicates the start point of the path, and the lower right point E indicates the end point.The correspondence between the left and right pixels is determined by the path connecting the two. The relationship is determined. The details will be explained in a later step, but paths that move diagonally on the map indicate areas where pixels cannot be matched, and paths that move vertically and horizontally indicate areas that could not be matched. For example, each pixel included in section A on the left evipolar line is divided into section B on the right line.
There is a one-to-one correspondence with the internal pixels.

このようにマツチングがとれた画素については。Regarding pixels that are matched in this way.

両者のライン上の実空間での位置を基にして、大刃物体
までの奥行きを計算することができる。
Based on the positions of both lines in real space, the depth to the large blade object can be calculated.

ステップ107は、以降の処理をエビポーラ・ライン毎
にくりかえして行い、画像をすべて走査して大刃物体の
3次元座標の情報を得ることを示している。
Step 107 indicates that the subsequent processing is repeated for each Epipolar line, and the entire image is scanned to obtain information on the three-dimensional coordinates of the large blade object.

ステップ108では、奥行き計算を行う、この部分の詳
細は第2図のステップ201以降に示す。
In step 108, depth calculation is performed. Details of this portion are shown in steps 201 and subsequent steps in FIG. 2.

ステップ201で、まず全対応探索マツプを作成する。In step 201, first, a full correspondence search map is created.

これは第11図に示すように、左右のエビポーラ・ライ
ン上の全画素の対応関係を表すものでiる。この処理は
、計算機上では、マツプ内のパスが左右画素のどの組み
合わせを表わすかを。
As shown in FIG. 11, this represents the correspondence relationship between all pixels on the left and right evipolar lines. This process, on a computer, determines which combination of left and right pixels the path in the map represents.

定義することである。いま、左ラインの画素数がm、右
がnであるとすると、全対応探索マツプの節点数は(m
+1)  ・ (n+1)個となる。ここで接点を(i
、j)と表わすことにすると、(i。
It is to define. Now, if the number of pixels on the left line is m and the number on the right is n, then the number of nodes in the all correspondence search map is (m
+1) ・(n+1) pieces. Here, the contact point (i
, j), then (i.

j)と(i + 1 、 j + 1)を結ぶような斜
めのパスは、左う゛インのi+1番目の画素と右ライン
のj+1番目の画素がマツチングしていることを表現し
ている。
The diagonal path connecting j) and (i + 1, j + 1) represents that the i+1th pixel on the left line is matched with the j+1th pixel on the right line.

ステップ202は、全対応探索マツプの中から部分対応
探索マツプを切り出す操作である0部分対応探索マツプ
とは、全対応探索マツプのうちで左右ラインの物体像部
分に対応した領域である。
Step 202 is an operation of cutting out a partial correspondence search map from the total correspondence search map. The 0 partial correspondence search map is an area of the total correspondence search map that corresponds to the object image portion of the left and right lines.

第11図ではa −b −d −cで囲まれた領域がこ
れに相当する。以降の奥行き計算は、この領域の内部の
パスだけに限定する。
In FIG. 11, the area surrounded by a-b-d-c corresponds to this. Subsequent depth calculations are limited to only the paths inside this area.

第12図(a)、(b)、(c)は部分対応探索マツプ
内の節点における処理の様子を示す図、全対応探索マツ
プの一部分である。L5からL8は左ライン上の5番目
から8番目までの画素で1例えば同図のような明るさ分
布を持っている。また。
FIGS. 12(a), 12(b), and 12(c) are diagrams showing the state of processing at nodes in the partial correspondence search map, and are part of the full correspondence search map. L5 to L8 are the 5th to 8th pixels on the left line and have a brightness distribution, for example, as shown in the figure. Also.

R3からR6は同様の右ライン上の画素である。R3 to R6 are similar pixels on the right line.

そしてSlから325は節点番号であり、DOからD8
は節点の段数を示す。
And 325 from Sl is the node number, and D8 from DO
indicates the number of nodes.

ステップ203では、最小到達コストマツプを作成する
。これは第12図に示すように、部分対応探索マツプの
節点S1から節点325に対応したもので、左ラインの
物体像の画素数をm J、右ラインのものをn′とする
と、m′+1列Xn’+1行からなる2次元配列となる
。第12図はm’ =4.n’ =4の場合である。こ
の各配列要素には、後のステップで、当該節点へ到る最
小のコストを算出し、ここへ記憶する。
In step 203, a minimum attainment cost map is created. As shown in FIG. 12, this corresponds to node S1 to node 325 of the partial correspondence search map, and if the number of pixels of the object image on the left line is mJ and that on the right line is n', then m' This becomes a two-dimensional array consisting of +1 columns and Xn'+1 rows. Figure 12 shows m' = 4. This is the case when n'=4. For each array element, in a later step, the minimum cost to reach the node is calculated and stored here.

ステップ204は、以降のステップ205から209ま
でを1部分対応探索マツプ内の全節点について処理する
ことを示している。
Step 204 indicates that the subsequent steps 205 to 209 are processed for all nodes in the partial correspondence search map.

ステップ205は1節点に対して節点番号を割り当てる
操作である6部分対応探索マツプ内の第17列・第j′
行の節点に、 j’ X (Ω+1)+i′+1の節点
番号を割当てる。第12@においては、31から825
が節点番号である。
Step 205 is an operation of assigning a node number to one node.
Assign node numbers of j' X (Ω+1)+i'+1 to the nodes in the row. In the 12th @, 31 to 825
is the node number.

第13図は視点と画像面上の画素を結ぶ直線と、その交
点について説明する図である。いま左右の画像面上の画
素は、各々11画素であるとする。
FIG. 13 is a diagram illustrating straight lines connecting the viewpoint and pixels on the image plane and their intersections. It is now assumed that there are 11 pixels on each of the left and right image planes.

直線嚢1からQllは左画像面上の画素と左視点’r 
1からrllは右についての同様な直線である。
Qll from the straight line capsule 1 is the pixel on the left image plane and the left viewpoint 'r
1 to rll is a similar straight line on the right.

このうちで物体像に対応する直線は、Q5からR8まで
と、r3からr6までである。ところで、両眼立体視に
おいては精度は両眼の視差に支配されるという性質があ
る。左視点と右視点間の距離が視差であり、これが大き
くなると交点の前後間隔が狭いため、精度を向上させる
ことができる。
Among these, the straight lines corresponding to the object image are from Q5 to R8 and from r3 to r6. Incidentally, in binocular stereopsis, there is a property that the accuracy is dominated by the parallax between the two eyes. The distance between the left viewpoint and the right viewpoint is the parallax, and as this becomes larger, the distance between the front and back of the intersection becomes narrower, so accuracy can be improved.

ステップ206で、パスの交点計算を行う1例えば、第
12図(a)におけるパスS7→S13は、L6とR4
がマツチングしていることを示す。
In step 206, the intersection point of paths is calculated 1. For example, the path S7→S13 in FIG.
Indicates that they are matching.

そして実際の物体位置は、第18図におけるQ6とr4
の交点位置である。既ち、認識すべき物体の外形形状は
、これらの交点の集合として求めることができる。この
ステップでは、第13図の・印以外の交点について位置
計算を行う、・自交点は左右画素の少なくとも一方が背
景像であり、大刃物体の位置には関係がないものである
。視点位置および画素の位置は既知であり、交点位置は
2直線の交点として数値的に求めることができる。
The actual object positions are Q6 and r4 in Fig. 18.
It is the intersection position of Already, the external shape of the object to be recognized can be determined as a set of these intersection points. In this step, positions are calculated for intersections other than the * marks in FIG. 13. At least one of the left and right pixels of an autointersection is a background image and is unrelated to the position of the large blade object. The viewpoint position and the pixel position are known, and the intersection position can be numerically determined as the intersection of two straight lines.

ステップ207は、ペナルティパスの設定である。第1
3図において、交点の組み合せは・印以外にO印と0印
のものがある。0印のものは左右の画素が共に物体像で
ある交点を意味している。
Step 207 is the setting of a penalty pass. 1st
In Figure 3, there are combinations of intersections marked with O and 0 in addition to marks. The one marked 0 means an intersection where the left and right pixels are both object images.

O印のものは、そのうちで更に幾何学的な拘束条件であ
る共通仮定存在領域の内部の交点である。
Those marked O are internal intersections of the common assumption existence region, which is a further geometrical constraint.

共通仮定存在領域は、第8図のようにボクセル空間内の
要素の集合として求められている。したがってこの情報
により求めた交点が、その内側であるかの判定を行うこ
とができる。大刃物体は常に内側に存在しているため、
判定の結果が外側であつた場合には、該当するパスにペ
ナルティ−を科する。第12図においては、0印を付し
たパスがペナルティ−パスである。このステップでは、
当該節点を始点とするパスにペナルティ−パスが含まれ
るか否かの判定を行い、ペナルティ−パスがあれば当該
接点の最小到達コストマツプにペナルティ−値を代入す
る。
The common hypothesis existence region is determined as a set of elements in the voxel space as shown in FIG. Therefore, it is possible to determine whether the intersection point found using this information is inside the intersection point. Since the large blade object is always inside,
If the result of the judgment is outside, a penalty will be imposed on the relevant pass. In FIG. 12, the passes marked with 0 are penalty passes. In this step,
It is determined whether a penalty path is included in the path starting from the node, and if there is a penalty path, the penalty value is substituted into the minimum arrival cost map of the node.

ペナルティ−値は十分に大きな値の定数値である0例え
ば画素の明るさレベルが256レベルであるとすれば、
256以上の値をペナルティ−値とすればよい。
The penalty value is a sufficiently large constant value of 0.For example, if the brightness level of a pixel is 256 levels,
A value of 256 or more may be used as a penalty value.

また第12@ではペナルティ−を科さない節点はSL、
87,813,519.S25のみであり、これだけで
最小コストパスが一意に定まってしまう、しかし実際の
場合ではより多くの画素数であるため、最小コストパス
の候補は対角線付近に複数個存在する。
Also, in the 12th @, the node that does not impose a penalty is SL,
87,813,519. S25 is the only step, and the minimum cost path is uniquely determined.However, in actual cases, the number of pixels is larger, so a plurality of candidates for the minimum cost path exist near the diagonal line.

ステップ208では、節点の段数の割当てを行う、これ
は動的計画法により、左右ラインのマツチングをとるた
めに必要な処理である0例えば、第12図(a)の例で
は第Do段に屓する節点はSlであり、第D1段にはS
2およびS6が属する。即ち1部分対応探索マツプ上で
の斜めに並ぶ一連の節点を共通の段にあるとするのであ
る。
In step 208, the number of stages of nodes is assigned. This is a process necessary to match the left and right lines by dynamic programming. For example, in the example of FIG. The node is Sl, and the node S in the D1 stage
2 and S6 belong to this category. That is, a series of nodes arranged diagonally on the one-part correspondence search map are assumed to be on a common level.

ここで動的計画法により最小コストパスを求める方法に
ついて説明する。始点をSとし、第に段の(1’ y 
j’ )の位置にある節点に到達するための最小コスト
をGh (1’ ej’ )と記すことにすると、最小
コストパスで終点に到るための漸化式は。
Here, a method for finding the minimum cost path using dynamic programming will be explained. Let the starting point be S, and the (1' y
Let us denote the minimum cost to reach the node at position Gh (1'ej' ), then the recurrence formula for reaching the end point with the minimum cost path is as follows.

Go (0,O) =0 となる、ただし、左ライン上の物体像の画素数をm′、
右のものをn′として、Sの座標値は(0゜0)Hの座
標値は(m’ 、n’ )である、ここでdlは垂直・
水平方向の移動するパスのコストで。
Go (0, O) = 0, where the number of pixels of the object image on the left line is m',
Letting the right one be n', the coordinates of S are (0°0) and the coordinates of H are (m', n'), where dl is vertical.
At the cost of the horizontal moving path.

すべての左右画素の明るさの差の平均を計算して。Calculate the average difference in brightness between all left and right pixels.

一定値として与えられる。d−は次式により計算する。Given as a constant value. d- is calculated by the following formula.

da(i’ e j’ )= I I禽(i’ )−I
t(j’ )I。
da(i' e j')=II bird(i')-I
t(j')I.

ここで、Ia(i’)は左ライン上の11番めの画素の
明るさを、Ir(j’ )は右ライン上の52番めの画
素の明るさを示している。この漸化式による計算をSか
らEまで繰り返して、最小コストパスを求める。
Here, Ia(i') indicates the brightness of the 11th pixel on the left line, and Ir(j') indicates the brightness of the 52nd pixel on the right line. The calculation using this recurrence formula is repeated from S to E to find the minimum cost path.

ステップ209は、節点のコスト計算の順序を設定する
ものである1段数の小さい方から計算する必要があり、
第12@の場合にはDO→D1→D2→D3→D4→D
5→D6→D7→D8の順に計算を進めるよりに設定す
る。
Step 209 sets the order of node cost calculation, and it is necessary to calculate from the smallest number of stages.
In the case of the 12th @, DO→D1→D2→D3→D4→D
Set the calculation to proceed in the order of 5→D6→D7→D8.

ステップ210は、第DO段から第D8段までの各段毎
に以下の処理をくり返すこと1示している。
Step 210 indicates that the following process is repeated for each stage from the DO stage to the D8 stage.

ステップ211は、同一段の節点について、節点番号の
小さい方の節点から、以下の処理をくり返すことを示し
ている0例えば、第D4段ではS5→S9→813→3
17→821の順にコスト計算を行う。
Step 211 indicates that the following process is repeated for the nodes in the same stage, starting from the node with the smaller node number. For example, in the D4 stage, S5 → S9 → 813 → 3
Cost calculation is performed in the order of 17→821.

ステップ212は、最小到達コストの算出であり、前述
の漸次式の計算を行う6例えば513に到達するために
は、S8→513.S7→S13゜812→S13の3
つのパスがあり、この中で最小コストで達成できるもの
を求めるのである。いま、S7= (1,1)、S8=
 (2,1)、512= (1,2)、513= (2
,2)であるので1 、となる、即ちこの3つのパスの中から最小のものを選
択することになる。
Step 212 is the calculation of the minimum reaching cost, and in order to reach 6, for example, 513, the above-mentioned gradual formula is calculated, S8→513. S7→S13゜812→S13-3
There are two paths, and you want to find the one that can be achieved at the lowest cost. Now, S7= (1, 1), S8=
(2,1), 512= (1,2), 513= (2
, 2), so it becomes 1, that is, the smallest path is selected from these three paths.

ステップ213は、ステップ212で求めた最小到達コ
ストをマツプへ記憶させる処理である。
Step 213 is a process of storing the minimum attainment cost obtained in step 212 in the map.

例えばGD4 (2,2)の値はマツプ内の313の位
置に記憶させる。
For example, the value GD4 (2,2) is stored at position 313 in the map.

ステップ214では、各節点に至る最小コストパスの始
点と終点の節点番号を接続リストへ記憶する。接続リス
トの構造は第12図に示すものである。
In step 214, the node numbers of the start and end points of the minimum cost path to each node are stored in the connection list. The structure of the connection list is shown in FIG.

ステップ215は1作成した接続リストを終点側から逆
探索する処理である0例えば、終点S25の始点は51
9であり、S19の始点はS13であるということを逆
探索によって求める。
Step 215 is a process of inversely searching the created connection list from the end point side.0For example, the starting point of the end point S25 is 51
9, and that the starting point of S19 is S13 is determined by reverse search.

これを始点S1に至るまでくり返す、即ち接続リストの
情報から、ある節点に到達するには、他のどの接点を始
点とすれば最もコストが小さいがということがわかるの
である。よって、逆探索で得られたパスが、始点と終点
を結ぶ最小コストパスとなる。
This process is repeated until the starting point S1 is reached. In other words, from the information in the connection list, it is known which other contact point should be used as the starting point to reach a certain node at the lowest cost. Therefore, the path obtained by the reverse search becomes the minimum cost path connecting the starting point and the ending point.

ステップ216では、決定された左右画素のマツチング
情報から、物体までの奥行きを再び算出する。これはス
テップ206の場合と同様で、2つの直線の交点を求め
る計算である。なお、この交点計算は最小コストパスを
構成するパスについてのみ行う。
In step 216, the depth to the object is calculated again from the determined matching information of the left and right pixels. This is the same as in step 206, and is a calculation to find the intersection of two straight lines. Note that this intersection point calculation is performed only for the paths that constitute the minimum cost path.

全対応探索マツプから最小コストパスを求めるまでの処
理を、第14図により再び説明する。まず第13図で示
したように左エピポーラ・ライン上では画素L5〜L8
が物体像であり、右ライン上では画素R3〜R6である
0図中で・印を付したパスは、少なくとも一方が背景像
であることを示している。これらのパスは、認識すべき
物体以外の背景部分についての奥行き情報を意味してい
る。従って左右ラインのマツチング計算からは取り除く
0次に残った部分につい芸、マツチングのためコスト計
算を行う、そして、各パスが意味す・”4交点の組み合
せについて、順次交点位置を計算! する、これら交点のうちで、更に共−仮定存在領域の内
側か一否かを判定する1図中では内側のものをO印で示
し、外側であったものを0印で示す。
The process of finding the minimum cost path from the all-correspondence search map will be explained again with reference to FIG. First, as shown in FIG. 13, on the left epipolar line, pixels L5 to L8
is an object image, and on the right line are pixels R3 to R6. The paths marked with * in the diagram indicate that at least one of them is a background image. These paths mean depth information about background parts other than the object to be recognized. Therefore, from the matching calculation of the left and right lines, we remove the 0-order remaining part, perform the cost calculation for matching, and calculate the intersection positions sequentially for the combination of 4 intersections that each pass means. Among the intersection points, it is further determined whether or not they are inside the co-hypothetical existence region.In Figure 1, those that are inside are marked with an O, and those that are outside are marked with a 0.

左右共に物体像でありながら、交点が共通仮定存在領域
の外側となるパスはペナルティ−パスとする。動的計画
法によりコスト計算を行うと最小コストパスは、O印を
付したパスの中から選択することになる。このようにし
て1本実施例では2段階で、最小コストパスを選ぶ範囲
を幾何学的な拘束条件によって狭く限定している。従来
技術では。
A path in which both the left and right sides are object images but whose intersection point is outside the common assumed existence region is a penalty path. When cost calculation is performed using dynamic programming, the minimum cost path is selected from the paths marked with an O. In this way, in this embodiment, the range for selecting the minimum cost path is narrowly limited in two steps by geometrical constraints. With conventional technology.

このように選択選択を限定することをしていなかつたた
め、精度を上げるために視差を大きくすると、誤まった
マツチングを行う恐れがあった。視差が大きい場合には
、真の最小コストパスは全対応探索マツプの対角線から
大きく離れた領域を通ることになる。即ちマツチングの
とれない画素数が増加し、このコストの設定値により、
誤まったマツチングとなるケースがあり、精度を低下さ
せる原因となっていた。
Since the selections were not limited in this way, if the parallax was increased to improve accuracy, there was a risk of erroneous matching. If the disparity is large, the true minimum cost path will pass through a region far away from the diagonal of the all-correspondence search map. In other words, the number of pixels that cannot be matched increases, and depending on this cost setting,
There were cases where incorrect matching occurred, causing a decrease in accuracy.

、ここで第1図のフローチャートに戻る8次のスナップ
109では、両眼立体視により得られた情報から共通仮
定存在領域を修正する。錐体相貫法により得られる形状
の断面は、第8図のようなものである。これに対して、
修正を加えた後の断面は第15図のようになる。ボクセ
ルによる三次元モデルとして図示しない表示手段により
表示したものが第16図である。
In the eighth snap 109, which returns to the flowchart of FIG. 1, the common assumption existing region is corrected from the information obtained by binocular stereoscopic vision. The cross section of the shape obtained by the cone interpenetration method is as shown in FIG. On the contrary,
The cross section after the modification is as shown in Figure 15. FIG. 16 shows a three-dimensional voxel model displayed by a display means (not shown).

第16図に示すような形状が、得られる最終形状であり
、この情報が計算機内に久方、管理、加工される。
The shape shown in FIG. 16 is the final shape obtained, and this information is continuously managed and processed within the computer.

本実施例によれば、物体の概略形状は錐体相貫法により
認raされている。この方式は画像情報の内で、雑音の
影響にも強い輪郭線情報を用いているので安定して形状
を得ることができる。ただし得られる形状は物体の包絡
面の集合であり、局所的な凹部については入力できない
、そこで、本実施例では両眼立体視法による形状認識を
行って1、前段階までで認識できなかった部分の修正を
行っている。このとき、ボクセル空間内に得られた共通
仮定存在領域を左右画像のマツチングのための幾何学的
拘束条件として利用している。この条件により、最小コ
ストパスが通る範囲を狭い範囲に限定させることができ
、形状認識の精度を一段と物体の包絡面集合に対して1
両眼室体視法により修正を行って最終形状を得ているの
で、従来技術では認識できなかった局所的な凹部も認識
でき、全体的な形状認識の精度が向上し、この認識デー
タを表示、加工、管理することによりコンピュータ・グ
ラフィックシステムに有効に利用できる。
According to this embodiment, the approximate shape of the object is recognized by the cone-penetration method. This method uses contour line information, which is resistant to the effects of noise, among image information, so it can stably obtain shapes. However, the obtained shape is a collection of envelope surfaces of the object, and local concavities cannot be input. Therefore, in this example, shape recognition was performed using binocular stereoscopic viewing. Parts are being corrected. At this time, the common assumed existence region obtained in the voxel space is used as a geometric constraint for matching the left and right images. With this condition, the range through which the minimum cost path passes can be limited to a narrow range, and the accuracy of shape recognition can be further improved to 1 for the set of envelope surfaces of the object.
Since the final shape is obtained by making corrections using binocular stereopsis, it is possible to recognize local concavities that could not be recognized with conventional technology, improving the accuracy of overall shape recognition, and displaying this recognition data. It can be effectively used in computer graphics systems by processing and managing it.

また従来の両眼立体視法では、十分な精度を得るために
、視差を拡大させると対応付けが困難になるという問題
点があったが、本実施例では包絡面集合の情報から生成
される幾何学的拘束条件を利用して、対応付は探索の範
囲を狭く限定しており、誤まった対応付けを排除するこ
とができる。
In addition, in the conventional binocular stereoscopic viewing method, there was a problem in that it became difficult to make correspondences when the disparity was enlarged in order to obtain sufficient accuracy. Using geometric constraints, the mapping narrowly limits the search range and can eliminate erroneous mappings.

よって従来のように両眼立体視法を単独で用いる場合と
の比較においても精度が向上する。
Therefore, the accuracy is improved compared to the conventional case where binocular stereopsis is used alone.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、局所的凹部の認識を可能とすると共に
、全体形状の認識の精度を向上させることができる。
According to the present invention, it is possible to recognize local recesses and improve the accuracy of recognition of the overall shape.

【図面の簡単な説明】[Brief explanation of drawings]

第・1図は本発明の一実施例のフローチャート、第2図
は第1図の一部を詳細化したフローチャート、第3図は
カメラと大刃物体の位置関係の説明図、第4図はカメラ
により得られる画像の説明図。 第5図は仮定存在領域の説明図、第6図はボクセル空間
での仮定存在領域の説明図、第7図は共通仮定存在領域
の説明図、第8図はボクセル空間での共通仮定存在領域
の説明図、第9図はボクセルによる三次元モデルの説明
図、第10図は両眼立体視法の説明図、第11図は左右
画像のマツチング方法の説明図、第12図は部分対応探
索マツプの説明図、第13図はバスが意味する交点の説
明図、第14図は全対応探索マツプの説明図、第15図
はボクセル空間での修正後の共通仮定存在領域の説明図
、第16図は最終的に得られるボクセルによる三次元モ
デルの説明図である。 1.2,3.4,5,6,7.8・・・カメラ、9・・
・大刃物体。
Figure 1 is a flowchart of one embodiment of the present invention, Figure 2 is a detailed flowchart of a part of Figure 1, Figure 3 is an explanatory diagram of the positional relationship between the camera and the large blade object, and Figure 4 is an illustration of the positional relationship between the camera and the large blade object. An explanatory diagram of an image obtained by a camera. Figure 5 is an explanatory diagram of the hypothetical existence area, Figure 6 is an explanatory diagram of the hypothetical existence area in voxel space, Figure 7 is an explanatory diagram of the common hypothesis existence area, and Figure 8 is an explanatory diagram of the hypothetical existence area in voxel space. Figure 9 is an illustration of a three-dimensional model using voxels, Figure 10 is an illustration of binocular stereoscopic viewing, Figure 11 is an illustration of a method for matching left and right images, and Figure 12 is a partial correspondence search. An explanatory diagram of the map, Fig. 13 is an explanatory diagram of the intersections meant by buses, Fig. 14 is an explanatory diagram of the all correspondence search map, Fig. 15 is an explanatory diagram of the common assumption existence region after correction in voxel space, FIG. 16 is an explanatory diagram of the finally obtained three-dimensional model using voxels. 1.2, 3.4, 5, 6, 7.8...camera, 9...
・Large blade object.

Claims (1)

【特許請求の範囲】 1、物体を複数視点から撮影するカメラ系と、上記カメ
ラ系の出力から、上記物体の位置及び/または形状に関
する幾何学的な拘束条件を算出する第1の演算手段と、 上記カメラ系の二つの視点からの視線の交点位置が上記
幾何学的な拘束条件を満足するか否かを算出し、上記幾
何学的な拘束条件を満足する上記交点位置及び上記幾何
学的な拘束条件に基づき物体の対応点の3次元座標を算
出する第2の演算手段と、 を具備することを特徴とする物体の立体形状認識装置。 2、特許請求の範囲第1頁に於いて、上記第1の演算手
段は、物体に外接する平面の集合により形成される閉領
域を、物体の包絡面集合として求め、物体は包絡面集合
の内側に存在する性質を前記幾何学的な拘束条件とする
演算手段であることを特徴とする物体の立体形状認識装
置。 3、特許請求の範囲第2項に於いて、各視点方向につい
て、撮影画像上の物体像を底面形状とし、視点を頂点と
する錐体形状をした仮定存在領域を求め、この領域のう
ちで全視点方向について共通な論理積部分を共通仮定存
在領域として求め、この共通仮定存在領域の形状を前記
包絡面集合とすることを特徴とする物体の立体形状認識
装置。 4、特許請求の範囲第3項に於いて、前記仮定存在領域
の形状を、空間の格子点の有無で表現するボクセルモデ
ルにより記述し、単位ボクセル毎に論理積演算を行うこ
とにより前記共通仮定存在領域を求め、物体の包絡面集
合をボクセルモデルにより記述することを特徴とする物
体の立体形状認識装置。 5、特許請求の範囲第1項に於いて、前記第2の演算手
段は、前記対応点撮影画像の個々の画素として、画素単
位に対応付けを行い、拘束条件を満足する候補の中から
最適な対応付けを選択するための評価関数は、対応させ
た画素の明るさの差の総和とし、この評価関数を最小に
する対応付けを求めることにより対応点を決定すること
を特徴とする物体の立体形状認識装置。 6、特許請求の範囲第1項に於いて、上記第1の演算手
段の算出結果及び/または上記第2の演算手段の算出結
果を表示する表示手段を具備することを特徴とする物体
の立体形状認識装置。 7、認識する物体の概略形状が包絡面の集合として得ら
れ、水平に置かれた左右のカメラ系により物体を撮影し
、撮影画像のうちで物体が射影されている領域を物体像
とし、左右画像の走査線上の物体像部分の画素の明るさ
値を抽出し、個々の物体像の画素について、左右別々に
実空間上の画素の位置と視点位置とを結ぶ直線を求め、
左右の直線の交点が包絡面集合の内部となる画素の組み
合わせを選択候補として算出し、この選択候補のうちで
個々の左右画素を対応させた場合に、明るさ値の差の合
計が最小であるような組み合わせを選択し、この組み合
わせによる交点情報から包絡面集合による形状を修正し
、これを最終的な物体の立体形状とすることを特徴とす
る物体の立体形状認識方法。 8、特許請求の範囲第7項に於いて、複数の視点方向か
ら物体をカメラ系で撮影し、各視点方向について、物体
像を底面にして視点を頂点とする錐体形状をした仮定存
在領域を求め、この仮定存在領域のうちで、全視点方向
に共通な論理積、部分の領域を共通仮定存在領域として
求め、この共通仮定存在領域を上記物体の包絡面集合に
よる概略形状とすることを特徴とする物体の立体形状認
識方法。
[Claims] 1. A camera system that photographs an object from a plurality of viewpoints, and a first calculation means that calculates geometric constraint conditions regarding the position and/or shape of the object from the output of the camera system. , Calculate whether the intersection position of the line of sight from the two viewpoints of the camera system satisfies the geometric constraint, and calculate the intersection position that satisfies the geometric constraint and the geometric A device for recognizing the three-dimensional shape of an object, comprising: second calculation means for calculating three-dimensional coordinates of corresponding points of the object based on a constraint condition. 2. On page 1 of the claims, the first calculation means calculates a closed region formed by a set of planes circumscribing an object as a set of envelope surfaces of the object, and the object is a set of envelope surfaces of the object. A three-dimensional shape recognition device for an object, characterized in that the device is an arithmetic means that uses a property existing inside as the geometric constraint condition. 3. In claim 2, for each viewpoint direction, a hypothetical existence region is determined in the shape of a cone with the object image on the photographed image as the bottom shape and the viewpoint as the apex, and within this region, A three-dimensional shape recognition device for an object, characterized in that a logical product part common to all viewpoint directions is determined as a common hypothetical existence region, and the shape of the common hypothetical existence region is set as the envelope set. 4. In claim 3, the shape of the hypothetical existing region is described by a voxel model expressing the presence or absence of spatial grid points, and the common hypothesis is determined by performing a logical product operation for each unit voxel. A device for recognizing the three-dimensional shape of an object, characterized in that it determines the region of existence and describes a set of envelope surfaces of the object using a voxel model. 5. In claim 1, the second calculation means performs a correspondence on a pixel-by-pixel basis as each pixel of the corresponding point photographed image, and selects an optimal one from among candidates that satisfy the constraint condition. The evaluation function for selecting a suitable correspondence is the sum of the differences in brightness of the corresponding pixels, and the corresponding points are determined by finding the correspondence that minimizes this evaluation function. 3D shape recognition device. 6. A three-dimensional object according to claim 1, comprising display means for displaying the calculation result of the first calculation means and/or the calculation result of the second calculation means. Shape recognition device. 7. The approximate shape of the object to be recognized is obtained as a set of envelope surfaces, the object is photographed using horizontally placed left and right camera systems, and the area where the object is projected in the photographed image is defined as the object image. The brightness values of pixels in the object image portion on the scanning line of the image are extracted, and for each pixel of the object image, a straight line connecting the position of the pixel in real space and the viewpoint position is determined separately for the left and right sides.
The combination of pixels where the intersection of the left and right straight lines is inside the envelope set is calculated as a selection candidate, and when the left and right pixels are matched among these selection candidates, the sum of the differences in brightness values is the minimum. A method for recognizing the three-dimensional shape of an object, characterized in that a certain combination is selected, the shape by a set of envelope surfaces is corrected from the intersection information of the combination, and this is used as the final three-dimensional shape of the object. 8. In claim 7, an object is photographed by a camera system from a plurality of viewpoint directions, and for each viewpoint direction, a hypothetical existence region is formed in the shape of a cone with the object image as the base and the viewpoint as the apex. , and within this hypothetical existence area, find the logical product and partial area common to all viewpoint directions as a common hypothetical existence area, and let this common hypothetical existence area be the approximate shape of the set of envelope surfaces of the above object. A method for recognizing the three-dimensional shape of a characteristic object.
JP61125764A 1986-06-02 1986-06-02 Method and apparatus for recognizing solid shape of object Expired - Lifetime JPH07109626B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61125764A JPH07109626B2 (en) 1986-06-02 1986-06-02 Method and apparatus for recognizing solid shape of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61125764A JPH07109626B2 (en) 1986-06-02 1986-06-02 Method and apparatus for recognizing solid shape of object

Publications (2)

Publication Number Publication Date
JPS62284479A true JPS62284479A (en) 1987-12-10
JPH07109626B2 JPH07109626B2 (en) 1995-11-22

Family

ID=14918244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61125764A Expired - Lifetime JPH07109626B2 (en) 1986-06-02 1986-06-02 Method and apparatus for recognizing solid shape of object

Country Status (1)

Country Link
JP (1) JPH07109626B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528246A (en) * 1991-07-22 1993-02-05 A T R Shichiyoukaku Kiko Kenkyusho:Kk Three-dimensional object recognition device
JP2005293291A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP2005293290A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP2006031349A (en) * 2004-07-15 2006-02-02 Sony Corp Image processing method and image processor
US7809193B2 (en) 2004-03-31 2010-10-05 Brother Kogyo Kabushiki Kaisha Image input-and-output apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217470A (en) * 1984-04-13 1985-10-31 Hitachi Ltd System for estimating shape of cube from image pickup object picture

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217470A (en) * 1984-04-13 1985-10-31 Hitachi Ltd System for estimating shape of cube from image pickup object picture

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528246A (en) * 1991-07-22 1993-02-05 A T R Shichiyoukaku Kiko Kenkyusho:Kk Three-dimensional object recognition device
JP2005293291A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP2005293290A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP4552484B2 (en) * 2004-03-31 2010-09-29 ブラザー工業株式会社 Image input / output device
JP4552485B2 (en) * 2004-03-31 2010-09-29 ブラザー工業株式会社 Image input / output device
US7809193B2 (en) 2004-03-31 2010-10-05 Brother Kogyo Kabushiki Kaisha Image input-and-output apparatus
JP2006031349A (en) * 2004-07-15 2006-02-02 Sony Corp Image processing method and image processor
JP4539203B2 (en) * 2004-07-15 2010-09-08 ソニー株式会社 Image processing method and image processing apparatus

Also Published As

Publication number Publication date
JPH07109626B2 (en) 1995-11-22

Similar Documents

Publication Publication Date Title
US10109055B2 (en) Multiple hypotheses segmentation-guided 3D object detection and pose estimation
US4982438A (en) Apparatus and method for recognizing three-dimensional shape of object
JP2919284B2 (en) Object recognition method
Niem Robust and fast modeling of 3D natural objects from multiple views
US4731860A (en) Method for identifying three-dimensional objects using two-dimensional images
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
Pulli et al. Acquisition and visualization of colored 3D objects
US20030001836A1 (en) Reconstructor for and method of generating a three-dimensional representation and image display apparatus comprising the reconstructor
JPH11149576A (en) Three-dimensional modeling device, three-dimensional method, medium recording three-dimensional modeling program and medium recording three-dimensional shape estimation program
CN107680125A (en) The system and method that three-dimensional alignment algorithm is automatically selected in vision system
JP6185385B2 (en) Spatial structure estimation apparatus, spatial structure estimation method, and spatial structure estimation program
US20160232705A1 (en) Method for 3D Scene Reconstruction with Cross-Constrained Line Matching
US20190371001A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JPS62284479A (en) Device for recognizing stereoscopic shape of object
JPH09212643A (en) Method for recognition of three-dimensional object and device therefor
CN112184793A (en) Depth data processing method and device and readable storage medium
PP et al. Efficient 3D visual hull reconstruction based on marching cube algorithm
JP2002032744A (en) Device and method for three-dimensional modeling and three-dimensional image generation
CN113362458B (en) Three-dimensional model interpretation method for simulating multi-view imaging, terminal and storage medium
CN114897974A (en) Target object space positioning method, system, storage medium and computer equipment
CN112802175B (en) Large-scale scene shielding and eliminating method, device, equipment and storage medium
JPH0981737A (en) Three-dimensional object model generating method
EP0596518A2 (en) Method of and apparatus for determining data representing 3-dimensional object from perspective view
JPH1031747A (en) Three-dimensional information extracting device and its method
Sandfuchs et al. Conversion of depth images into planar laserscans considering obstacle height for collision free 2D robot navigation