JPH02226376A - Picture analyzing system - Google Patents

Picture analyzing system

Info

Publication number
JPH02226376A
JPH02226376A JP1045207A JP4520789A JPH02226376A JP H02226376 A JPH02226376 A JP H02226376A JP 1045207 A JP1045207 A JP 1045207A JP 4520789 A JP4520789 A JP 4520789A JP H02226376 A JPH02226376 A JP H02226376A
Authority
JP
Japan
Prior art keywords
relationship
image
connection point
extracting
boundaries
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1045207A
Other languages
Japanese (ja)
Inventor
Morihito Shiobara
守人 塩原
Koyo Nakagawa
幸洋 中川
Toshiyuki Goto
敏行 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1045207A priority Critical patent/JPH02226376A/en
Publication of JPH02226376A publication Critical patent/JPH02226376A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To extract the position of an unhidden object by dividing the objective area of a picture into plural areas having the same character, searching the relation of before and behind positions for plural surfaces corresponding to these plural areas, converting the picture to information including the relation of the before and behind positions for the plural surfaces and extracting the desired surface. CONSTITUTION:An area dividing means 12 divides the area into the objective areas in the picture, namely, into the surfaces and labels are attached to the respective surfaces. Then, a boundary is extracted from the surface of the same label. A structuring means 13 extracts a T-shaped connecting part, where three boundaries are crossed, among the nodes of the boundary and the overlapping relation of three surfaces is calculated in each T-shaped connecting point. After that, the relation in the T-shaped connecting point is converted to the overlapping relation between two surfaces and further, the overlapping relation between two surfaces is propagated to all the surfaces existing in the picture. Then, the surface relation of the whole picture is searched in the overlapping relation. An unhidden surface extracting means 14 extracts the unhidden surface not to be overlapped to any surface out of the structuring information of the surface relation obtained by surface relation searching means 1. Thus, the position of the unhidden object can be extracted.

Description

【発明の詳細な説明】 〔概   要〕 隠蔽のない物体の位置を抽出する画像解析方式画像が表
す対象に依存せず、画像の構造化を使った方式で隠蔽の
ない物体の位置を抽出することを目的とし、 画像の対象領域を同一性質を有する複数の領域に分割す
る領域分割手段と、前記複数の領域に対応した複数の面
の前後関係を探索して画像を複数の面の前後関係を含ん
だ情報に変換する構造化手段と、該構造化手段の出力に
基づいて所望の面を抽出する面抽出手段とを有するよう
に構成する。
[Detailed Description of the Invention] [Summary] Image analysis method for extracting the position of an unoccluded object The position of an unoccluded object is extracted using a method that uses image structuring, regardless of the object represented by the image. A region dividing means for dividing a target region of an image into a plurality of regions having the same properties, and a region dividing means that divides a target region of an image into a plurality of regions having the same property, and a region dividing means that searches for a front-back relationship of a plurality of surfaces corresponding to the plurality of regions, structuring means for converting into information containing information, and surface extraction means for extracting a desired surface based on the output of the structuring means.

〔産業上の利用分野〕[Industrial application field]

本発明は、画像認識に係り2.更に詳しくは、隠蔽のな
い物体の位置を抽出する画像解析方式に関する。
The present invention relates to image recognition.2. More specifically, the present invention relates to an image analysis method for extracting the position of an unoccluded object.

テレビ、カメラの画像を解析して3次元のモデルを認識
する、いわゆる物体認識(コンピュータビジョン)を行
うことはきわめて重要である。3次元世界では、見る方
向によって物体の形状が異なったり、物体が他の物体に
隠蔽されたり、観測する方向によって大きさが異なる等
の問題があり、そのため特に、物体の形状や配置に着目
し、画像の理解を行うことが重要となる。そして他の物
体より前面にあって隠蔽のない物体の位置を画像から計
測する技術は物体が混在する環境から他の物体よりも前
面にある物体を識別する分野に重要となる。例えば、自
動走行ロボットにおいて、ロボットに備えつけられたカ
メラから入力したm像を用いて、前方の隠蔽のない物体
の位置を測定しロボットが障害物を回避するための技術
やロボットアームで山積みになった部品群を上から順に
拾いあげるビンピッキング技術等の分野に利用できる。
It is extremely important to perform so-called object recognition (computer vision), which recognizes three-dimensional models by analyzing images from televisions and cameras. In a three-dimensional world, there are problems such as objects having different shapes depending on the viewing direction, objects being hidden by other objects, and sizes changing depending on the viewing direction. , it is important to understand the images. Technology for measuring the position of an unobstructed object that is in front of other objects from an image is important in the field of identifying objects that are in front of other objects in an environment where objects are mixed. For example, in a self-driving robot, the m-image input from a camera installed on the robot is used to measure the position of an unobstructed object in front of the robot, and the robot arm uses technology to avoid obstacles. It can be used in fields such as bin picking technology, which picks up a group of parts in order from the top.

〔従来の技術〕[Conventional technology]

第26図fal、 (b)は従来の隠蔽のない物体の位
置を抽出する画像解析方式の説明図である。同図(al
において1は3次元世界であるシーンである。2及び3
はそれぞれ両眼立体視、すなわちステレオによる右画像
と左画像を入力する入力部であり、4及び5はそれぞれ
右画像と左画像の特徴抽出を行う特徴抽出部である。6
はエレメントの照合部であり、7は距離計算部である。
FIG. 26 (b) is an explanatory diagram of a conventional image analysis method for extracting the position of an unoccluded object. The same figure (al
1 is a scene in a three-dimensional world. 2 and 3
are input units for inputting binocular stereoscopic vision, that is, a stereo right image and a left image, respectively, and 4 and 5 are feature extraction units for extracting features of the right image and left image, respectively. 6
is an element matching section, and 7 is a distance calculation section.

同図[blの8及び9はそれぞれ左画像及び右画像の例
である。左画像においてAは隠蔽のないすなわち他の物
体より前面にある物体であり、またFも隠蔽のない物体
である。右画像においてもa、fはそれぞれ隠蔽のない
物体であり、左画像に比べて位置が少しズした形になっ
ている。左画像のC,B、D、E+;i隠蔽のある画像
であり、同様に右画像においてもす、c、d、eは左画
像のそれぞれC,B、DEに対応した隠蔽のある物体で
ある。
8 and 9 in the figure [bl are examples of the left image and right image, respectively. In the left image, A is an object that is not hidden, that is, it is in front of other objects, and F is also an object that is not hidden. In the right image as well, a and f are objects that are not hidden, and their positions are slightly shifted compared to the left image. C, B, D, E+ in the left image are images with i occlusion, and similarly in the right image C, d, e are objects with occlusion corresponding to C, B, DE in the left image, respectively. be.

従来のこの方式は、両眼立体視(すなわちステレオ)に
よる方法であり、左右画像に存在するあるまとまった特
徴群、すなわち線または面のエレメントをエピポーラ条
件等の拘束条件に基づいて対応づけを行い、対応づけら
れたエレメントに対して三角測量の原理によりそのエレ
メントの位置及び奥行きを抽出するものである。
This conventional method uses binocular stereoscopic vision (i.e., stereo), and associates a group of features, i.e., line or surface elements, present in the left and right images based on constraint conditions such as epipolar conditions. , the position and depth of the associated elements are extracted using the principle of triangulation.

第27図はモデルとの照合による従来の認識方式を示す
説明図である。これは従来技術の他の方式であり、対象
モデルすなわちテンプレートモデルとの照合により隠蔽
のない物体を認識する方式である。同図において、10
はシーンの画像であり、隠蔽のない物体と隠蔽のある物
体とが存在する。11は対象モデルである。この方式で
は抽出する対象物のモデルを予め用意し、入力した画像
からそのモデルによく連合する特徴を抽出することによ
り物体の位置を求め、その位置にある物体に超音波等を
あて、奥行きを計測するものである。
FIG. 27 is an explanatory diagram showing a conventional recognition method based on comparison with a model. This is another method in the prior art, and is a method for recognizing unoccluded objects by comparison with a target model, that is, a template model. In the same figure, 10
is an image of a scene, and there are objects without occlusion and objects with occlusion. 11 is a target model. In this method, a model of the object to be extracted is prepared in advance, the position of the object is determined by extracting features that are well associated with that model from the input image, and the depth is determined by applying ultrasonic waves etc. to the object at that position. It is something to be measured.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

両眼立体視による方法では、拘束条件を満たすすべての
エレメントを対応づけるので、扱う環境すなわちシーン
において、物体の数が多い等によって、複雑になればな
るほど、対応づけるエレメントの数が増加し、画像解析
の計算時間が多大になるという問題が生じていた。一方
、モデルとの照合による方式では、画像の特徴とモデル
とが容易に且つ正確に照合できるようなモデルを選択す
るのが難しく、また一般にモデルは固定さているので、
方法の利用範囲がモデルが利用できる範囲に限定される
という問題点が生じていた。
In the binocular stereoscopic method, all elements that satisfy the constraint conditions are matched, so the more complex the environment (i.e. the scene) to be handled, such as the large number of objects, the more elements to be matched, and the more the image becomes A problem has arisen in that the calculation time for the analysis becomes large. On the other hand, in the method based on model matching, it is difficult to select a model that allows easy and accurate matching between image features and the model, and since the model is generally fixed,
A problem has arisen in that the range of use of the method is limited to the range where the model can be used.

本発明は画像が表す対象に依存せず、画像の構造化を使
った方式で隠蔽のない物体の位置を抽出することを目的
とする。
An object of the present invention is to extract the position of an unoccluded object using a method that uses image structuring, regardless of the object represented by the image.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の構成図である。 FIG. 1 is a block diagram of the present invention.

領域分割手段12は、画像内の対象の領域、すなわち面
に分割し、各面にラベルを付は同一ラベル面のラベルの
面から境界を抽出し、構造化手段13は、境界の交点の
うち3境界が交差するT型接続部を抽出し、個々のT型
接続点における3面の重なり関係を求めた後、T型接続
点における関係を2面間の重なり関係に変換し、さらに
2面間の重なり関係を画像中に存在する全ての面に伝播
し、重なり関係における画像全体の面関係を探索し、無
隠蔽面抽出手段14は、面関係探索手段13によって求
められた面関係の構造化情報からどの面にも重ならない
隠蔽のない面を抽出する。
The area dividing means 12 divides the image into target areas, that is, planes, labels each plane, and extracts boundaries from the labeled planes of the same labeled plane, and the structuring unit 13 divides the image into target areas, that is, planes, and extracts boundaries from the labeled planes of the same labeled plane. After extracting the T-shaped connection where the three boundaries intersect and determining the overlapping relationship between the three surfaces at each T-shaped connection point, the relationship at the T-type connection point is converted to the overlapping relationship between the two surfaces, and then the relationship between the two surfaces is calculated. The non-hidden surface extracting means 14 propagates the overlapping relationship between the two surfaces to all the surfaces existing in the image, searches for the surface relationship of the entire image in the overlapping relationship, and the non-hidden surface extracting means 14 extracts the structure of the surface relationship found by the surface relation searching means 13. Extracts unoccluded surfaces that do not overlap with any other surfaces from the converted information.

〔作   用〕[For production]

本発明では、画像から面積や周囲長等の2次元特徴だけ
でなく、画像から容易に予想できる同一特徴の領域、す
なわち、面の間における画像の上下関係の3次元特徴、
特に、T型接続点における3面の重なり関係を抽出し、
面の重なり具合を画像の構造化として特徴づけ、前後あ
るいは上面を持たない面として隠蔽のない物体を抽出す
ることにより、画像のシーンの複雑性に関係なく、隠蔽
のない物体の位置を抽出することを可能としている。 
             l 〔実  施  例〕 以下、本発明の実施例を図面を参照して説明する。
In the present invention, not only two-dimensional features such as area and perimeter length can be obtained from an image, but also areas with the same features that can be easily predicted from the image, that is, three-dimensional features such as the vertical relationship of the image between surfaces,
In particular, we extract the overlapping relationship of the three planes at the T-shaped connection point,
By characterizing the degree of overlapping of surfaces as image structuring and extracting unoccluded objects as surfaces that do not have front, back, or top surfaces, the position of unoccluded objects can be extracted regardless of the complexity of the image scene. This makes it possible.
l [Example] Hereinafter, an example of the present invention will be described with reference to the drawings.

第2A図は本発明の画像解析方式に従うビンピッキング
システムの構成図である。19は3次元的なシーンで内
部に色々な対象物が含まれている。
FIG. 2A is a block diagram of a bin picking system according to the image analysis method of the present invention. 19 is a three-dimensional scene that contains various objects inside.

簡単のため、ビンピッキングする対象シーンは工業部品
のような単純な形状、或いは棒状等の剛体が数種類あり
、どの物体も絡みあっておらず、山積みにされている状
態であると仮定する。20−aはロボットのアームであ
り、20−bはアーム制御部である。21は奥行き測定
部、22はセンサ、23はカメラ、24はセンサ位置合
わせ部である。センサ22とカメラ23の交軸は一致し
ているものとする。この装置は、対象物位置測定装置で
あり、テレビカメラ23から入力した画像を処理するこ
とにより、対象シーン19の中で他の物体に隠されてい
ない無隠蔽物体を探し、その物体の位置を計算するもの
であり、無隠蔽物体をセンサ位置合わせ部24で位置合
わせし、それをセンサ22でセンスした後、奥行き測定
部21で測定し、その測定の結果からアームを制御する
ものである。アーム制御部20−bでアーム20−aを
動かし、最も上にある物体を持ち上げることになる。こ
のようなことをするために、本発明では、テレビカメラ
23から取り出した画像を対象物位置計測装置に人力す
る。そして領域分割部25で画像を同一濃度もしくはテ
キスチャの領域に分割し、各領域にラベルをつけ、同一
ラベルの面から境界を抽出する。そして構造化部26で
境界の交点に注目し、交点のうち3境界が交差するT型
接続点を抽出し、そのT型接続点における3面の重なり
関係を求めた後、T型接続点における関係を2面間の重
なり関係に変換し、構造化する。そしてその2面間の重
なり関係を画像中に存在するすべての面に伝播し、重な
り関係における画像全体の面に関する面関係を構造化す
る。そして無隠蔽面抽出部27で上面を持たない面を抽
出し、どの物体にも重ならない物体、すなわち面を抽出
し、それをセンサ位置合わせ部24に与える。そしてセ
ンサ22でそれを検出し、奥行き測定部21を介してア
ーム制御部20−bでアームを動かすことになる。
For simplicity, it is assumed that the target scene for bin picking includes several types of simple shapes such as industrial parts or rigid bodies such as rods, and that none of the objects are entangled with each other and are piled up. 20-a is an arm of the robot, and 20-b is an arm control section. 21 is a depth measuring section, 22 is a sensor, 23 is a camera, and 24 is a sensor positioning section. It is assumed that the transverse axes of the sensor 22 and camera 23 are aligned. This device is an object position measuring device that searches for an unconcealed object that is not hidden by other objects in the target scene 19 by processing the image input from the television camera 23, and determines the position of the object. The sensor positioning unit 24 aligns the non-concealed object, the sensor 22 senses it, the depth measurement unit 21 measures it, and the arm is controlled based on the measurement results. The arm control unit 20-b moves the arm 20-a to lift the uppermost object. In order to do this, in the present invention, the image taken out from the television camera 23 is manually input to the object position measuring device. Then, the region dividing unit 25 divides the image into regions of the same density or texture, labels each region, and extracts boundaries from the surfaces with the same label. Then, the structuring unit 26 focuses on the intersection points of the boundaries, extracts a T-shaped connection point where three boundaries intersect among the intersection points, calculates the overlapping relationship of the three surfaces at the T-shaped connection point, and then Convert the relationship into an overlapping relationship between two faces and structure it. Then, the overlapping relationship between the two surfaces is propagated to all the surfaces existing in the image, and the surface relationships regarding the surfaces of the entire image in the overlapping relationship are structured. Then, a non-hidden surface extracting section 27 extracts a surface that does not have an upper surface, extracts an object that does not overlap with any object, that is, a surface, and provides it to the sensor positioning section 24. Then, the sensor 22 detects this, and the arm control section 20-b moves the arm via the depth measuring section 21.

第2B図は、本発明の画像の構造化処理の説明図である
。同図(a)の画像は濃淡画像で、画像を同一模様(テ
キスチャ)の領域(面)に分割し、各領域にラベルをつ
ける。そして同一ラベルの面から境界を抽出する。次に
、同図(b)の■、■に示されるように、個々の面にお
ける隣接面との局所的な重なり関係を求める。すなわち
、まず境界の交点に着目し、交点のうちで境界が交差す
るT型接続点を抽出する。同図の上側に示されるT型接
続点は3面(A、B、C) の交点であり、面Aは面B
及びCよりも奥行き方向に前面にあることがわかる。こ
のように、T型接続は3次元的な面の重なり関係(隠蔽
の有無)を視覚情報として提供するのでこの情報を利用
してT型接続を構成する3面の重なり関係を求める。そ
して、個々のT型接続点における3面の重なり関係を求
めた後、接続点における関係を2面間の重なり関係に変
換する。
FIG. 2B is an explanatory diagram of the image structuring process of the present invention. The image shown in FIG. 5A is a grayscale image, and the image is divided into regions (surfaces) having the same pattern (texture), and each region is labeled. Then, boundaries are extracted from faces with the same label. Next, as shown in (2) and (2) in FIG. 2(b), the local overlapping relationship between each surface and the adjacent surface is determined. That is, first, attention is paid to the intersection points of the boundaries, and T-shaped connection points where the boundaries intersect are extracted from among the intersection points. The T-shaped connection point shown at the top of the figure is the intersection of three planes (A, B, and C), and plane A is the intersection of plane B.
It can be seen that it is located further forward in the depth direction than C and C. In this way, since the T-type connection provides the overlapping relationship of the three-dimensional surfaces (the presence or absence of concealment) as visual information, this information is used to find the overlapping relationship of the three surfaces that make up the T-type connection. After determining the overlapping relationship between the three surfaces at each T-shaped connection point, the relationship at the connection point is converted into the overlapping relationship between the two surfaces.

そして同図(C)の■に示されるように、2面間の重な
り関係を画像中に存在する全ての面に伝播し、重なり関
係における画像全体の連袂を大局的に合わせる。すなわ
ち、同図(d)に示されるように、nodeを面に対応
させ、その前後関係を1 inkすなわち有向枝で表現
すると、例えば「家」と「草」、「えんとつ」が下位に
あり、その上に「屋根」、「草」、車の「ボディ」があ
り、その上に「葉」、「車輪」があり、上位に「みき」
があるという画像の構造をグラフで表現、することがで
きる。
Then, as shown in (C) in the same figure, the overlapping relationship between the two surfaces is propagated to all the surfaces existing in the image, and the sequence of the entire image in the overlapping relationship is brought into perspective. In other words, as shown in Figure (d), if nodes are made to correspond to surfaces and their context is expressed as one ink, that is, a directed branch, for example, "house", "grass", and "entotsu" are subordinate. There is a roof, grass, and a car's body above it, leaves and wheels above it, and Miki above it.
It is possible to express the structure of an image with a graph.

以上により上面を持たない面が容易に抽出でき、どの面
にも重ならない面、すなわち隠蔽のない物体を抽出でき
る。
As described above, surfaces that do not have upper surfaces can be easily extracted, and surfaces that do not overlap with any surface, that is, objects that are not hidden, can be extracted.

第3図は本発明の領域分割部の構成図である。FIG. 3 is a configuration diagram of the area dividing section of the present invention.

同図においてノイズ除去部28の出力を受けてテクスチ
ャ解析部29で同一テクスチャの部分を抽出し、境界線
抽出部30で境界線を検出し、領域ラベル付は部で同一
領域に同一ラベルを付す。
In the figure, in response to the output of the noise removal unit 28, a texture analysis unit 29 extracts parts of the same texture, a boundary line extraction unit 30 detects boundaries, and a region labeling unit attaches the same label to the same area. .

第4図は本発明の領域分割部の処理フローである。33
2でフローが開始すると333でセンサ位置合わせ部2
4から画像取り込みの指示があるかどうかを判定し、も
しあれば334でテレビカメラ23から画像を取り込む
。テレビカメラ23から入力した画像からノイズ除去部
28でノイズを除去し、テクスチャ解析部29で濃淡及
び模様、すなわちテクスチャの同じ領域の画像を分割す
る。
FIG. 4 is a processing flow of the area dividing section of the present invention. 33
When the flow starts at 2, the sensor positioning section 2 starts at 333.
4, it is determined whether there is an instruction to capture an image, and if so, the image is captured from the television camera 23 in step 334. A noise removal section 28 removes noise from the image input from the television camera 23, and a texture analysis section 29 divides the image into areas with the same shading and pattern, that is, the same texture.

これがS35のテクスチャ解析処理となる。ここでテク
スチャが同じとなる領域を面と呼び、テクスチャ解析の
後、336で面に属するすべての画素値にその面に特有
のラベルを割り振る。そして全面にラベルが施された画
像をラベル画像と呼ぶ。
This becomes the texture analysis process of S35. Here, an area having the same texture is called a surface, and after texture analysis, in step 336, a label unique to that surface is assigned to all pixel values belonging to the surface. An image whose entire surface is labeled is called a label image.

ラベル画像の生成と同時に各面の境界線のみを4連結で
抽出した画像を生成する。すなわちS37で各面の位置
を抽出し、これは無隠蔽面抽出部27に転送される。そ
して338でテクスチャ解析した画像から境界線を抽出
し、線画を生成する。
At the same time as the label image is generated, an image is generated in which only the boundary lines of each surface are extracted by 4-connection. That is, in S37, the position of each surface is extracted, and this is transferred to the non-obscured surface extraction section 27. Then, in step 338, a boundary line is extracted from the texture-analyzed image to generate a line drawing.

ここで境界線を示す画素値は1とする。ラベル画像と線
画は同じ大きさの画像で同一ラベルの境界のラベルは線
画の境界に相当する。境界線を抽出した後はS33に戻
ってセンサ位置合わせ部24からの指示を待つ。すなわ
ち領域分割部25の処理はセンサ位置合わせ部24から
の動作指令があるときのみ動作を開始する。そして指示
がなければ指示があるまで待つことになるが、テクスチ
ャ解析で面が抽出されなければ、このシステムの動作は
すべて終了する。
Here, the pixel value indicating the boundary line is assumed to be 1. The label image and the line drawing are images of the same size, and the boundary label of the same label corresponds to the boundary of the line drawing. After extracting the boundary line, the process returns to S33 and waits for an instruction from the sensor positioning unit 24. That is, the processing of the region dividing section 25 starts its operation only when there is an operation command from the sensor positioning section 24. If no instructions are given, the system will wait until instructions are given, but if no surface is extracted through texture analysis, all operations of this system will end.

第5図は本発明の構造化部の構成図である。同図におい
て39は3面接続点抽出部、40は3面接続点の交点の
うち3境界が交差するT型接続点を抽出するT型接続判
定部、41は個々のT型接続点における3面の重なり関
係を求めた後、接続点における関係を2面間の重なり関
係に変換し、さらに2面間の重なり関係を画像中に存在
するすべての面に伝播し、重なり関係における画像全体
の構造化を行う面関係探索部である。
FIG. 5 is a configuration diagram of the structuring section of the present invention. In the figure, 39 is a 3-plane connection point extraction unit, 40 is a T-type connection determination unit that extracts a T-type connection point where 3 boundaries intersect among the intersection points of 3-plane connection points, and 41 is a 3-plane connection determination unit at each T-type connection point. After determining the overlapping relationship between the surfaces, the relationship at the connection point is converted to the overlapping relationship between the two surfaces, and the overlapping relationship between the two surfaces is further propagated to all surfaces existing in the image, and the entire image in the overlapping relationship is This is a surface relationship search unit that performs structuring.

第6図は本発明の構造化部の処理フローチャートである
。フローが開始すると342で領域分割部25からラベ
ル画像と線画が入力されたかどうかを判定し、もし入力
されていたならばS43で線画の処理、すなわちテンプ
レートマツチングを行う。例えば第8図に示す4種類の
テンプレートを使って線画を操作し、マツチングするこ
とにより、3面が会合する接続点、すなわち3面接続点
の画像上の位置を求める。そして344で隣接接続点の
関係を抽出する。すなわち境界線を追跡し、追跡した画
素が接続点であるかどうかを検知する。
FIG. 6 is a processing flowchart of the structuring section of the present invention. When the flow starts, it is determined in step 342 whether a label image and a line drawing have been input from the area dividing unit 25, and if they have been input, processing of the line drawing, that is, template matching is performed in step S43. For example, by manipulating and matching line drawings using the four types of templates shown in FIG. 8, the position on the image of the connection point where the three surfaces meet, that is, the connection point of the three surfaces, is determined. Then, in 344, the relationship between adjacent connection points is extracted. That is, the boundary line is traced and it is detected whether the traced pixel is a connection point.

S45で接続点を構成する3面のラベルを求める。In S45, the labels of the three sides constituting the connection point are determined.

346で3面接続情報を出力する。そして接続点のT型
判室を行い、2面間の関係を探索し、さらに画像全体で
面間の関係を探索する。処理が終わればS42に戻り、
画像が入力されていなければ待ち状態となる。
346 outputs three-sided connection information. Then, a T-shaped room at the connection point is performed to search for the relationship between the two surfaces, and then the relationship between the surfaces is searched for the entire image. When the process is finished, return to S42,
If no image has been input, it will be in a waiting state.

第7図は3面接続点抽出部の構成図である。43は■テ
ンプレートマツチング部であり、4連結で表現されてい
る線画上で3面接続点を見つける処理を行う。
FIG. 7 is a configuration diagram of the three-plane connection point extraction section. Reference numeral 43 denotes a template matching section, which performs processing to find three-plane connection points on a line drawing expressed by four connections.

第8図は、3境界線による接続の画像領域を示す実施例
図である。4連結の境界線では3境界線による接続点は
第8図の形で表される。従って、座標(X、Y)を中心
とする周囲の画素が第8図の4種類のパターンになって
いるかのマツチングをとる。このことにより3面接続点
の検出が可能となる。
FIG. 8 is an example diagram showing an image area connected by three boundary lines. In the case of 4-connected boundaries, the connecting points of 3 boundary lines are expressed in the form shown in FIG. Therefore, matching is performed to see if the surrounding pixels around the coordinates (X, Y) form the four types of patterns shown in FIG. This makes it possible to detect three-sided connection points.

第9図はテンプレートマツチングの処理フローチャート
である。画像は46に示されるようにX方向とY方向の
2次元画像であり、画像の大きさはXとYがMAX時に
処理が終了となる。344で開始すると345で初期化
を行う。Xは2、Yは2、インデックスiは1とする。
FIG. 9 is a processing flowchart of template matching. The image is a two-dimensional image in the X direction and the Y direction, as shown at 46, and the processing ends when the image size is MAX. If it starts at 344, it initializes at 345. Let X be 2, Y be 2, and index i be 1.

346でYがMAXに達していなければ、S47のステ
ップに入ってX、Yを中心とする周囲の画素が4種類の
いずれかに相当するかを照合する。すなわち、この4種
類がテンプレートであり、与えられた4連結の線画がこ
のパターンのいずれかにあたるかどうかを照合する。な
お、図で斜線が示された画素の値が1あるものとする。
If Y has not reached MAX in step 346, the process goes to step S47, where it is checked whether surrounding pixels centered on X and Y correspond to any of the four types. That is, these four types are templates, and it is checked whether a given four-connected line drawing corresponds to any of these patterns. Note that it is assumed that the pixel indicated by diagonal lines in the figure has a value of 1.

S47でもしこの4種類のうちいずれか1つにマツチす
ればその座標X。
In S47, if any one of these four types matches, the coordinate is X.

Yを349でメモリに記憶し、その位置をJ、とラベル
付は行う。すなわち、3面が会合する3面接続点の位置
をラベルJ8と付ける。S50と851でそれぞれiと
XをインクリメントするがS52でXがMAXになった
ならば(T)、すなわち、1行が終わったならば、S5
3に入るが、1行が終わっていなければ(F)、同じY
lすなわち同じ行に関して画素を1つずつ進めていくこ
とになる。即ち、S46に戻り、S47でテンプレート
マツチングを行う。この347のテンプレートマツチン
グの照合において、照合されないならば、S51にその
まま移って、座標をX方向に1だけ増す。この様にして
、S52において、1行が終わるまでYを固定したまま
進み、S、52でXがMAXに達したならば、S53で
Xを2に初期化してYを1だけ進めてS46に戻って次
の行に入って同様にテンプレートマツチングを行う。
Store Y in the memory at 349 and label its position as J. That is, the position of the three-plane connection point where the three planes meet is labeled J8. Increment i and X in S50 and 851 respectively, but if X reaches MAX in S52 (T), that is, if one line is finished, S5
3, but if the first line is not finished (F), the same Y
In other words, the pixels in the same row are advanced one by one. That is, the process returns to S46 and template matching is performed in S47. In this 347 template matching comparison, if no match is found, the process directly proceeds to S51 and the coordinate is incremented by 1 in the X direction. In this way, in S52, the process proceeds with Y fixed until the end of one line, and when X reaches MAX in S52, in S53, X is initialized to 2, Y is advanced by 1, and the process proceeds to S46. Return to the next line and perform template matching in the same way.

テンプレートマツチングが終わると、次に境界線の追跡
を行う。第10図は境界線の追跡処理のフローである。
After template matching is completed, boundary lines are then traced. FIG. 10 is a flowchart of boundary line tracking processing.

第11図(alは■テンプレートマツチング部43(第
7図)と、■境界線追跡部44(第7図)の実施例図で
ある。同図において、J3を中心として52〜33間、
36〜53間、J、〜J3の3境界線が存在し、J3以
外には接続点がJ2.J6゜J7の3点がある。この境
界を追跡するのが、第7図の■境界線の追跡44の処理
となる。その情報は境界情報として出される。第10図
のフローチャートにおいて、フローが開始すると357
でiを1に初期化する。358でiがMAX+1でなけ
ればS59に入ってJl、例えば、第11図(alのJ
3から出ている3境冑穐をすべて追跡したかどうかのチ
エツクを行う。追跡し8″われば、S61でiをインク
リメントして358に戻るが、もし追跡していなければ
、S60で残りの境界線を追跡し、S62に入って追跡
した画素は他の接続点、例えば、J2 、Ji、 、J
qのいずれか1つの接続点かどうかを判定する。もし接
続点であれば、364でその接続点のラベルを記憶し、
S59にもどる。362で追跡した画素が接続点でなけ
れば、S63に入って追跡を続け、追跡した履歴を残す
。すなわち、境界線情報を保存し、S62に戻る。S5
9に戻った段階で、境界線をすべて追跡したならば、S
61を介してS58に戻る。
FIG. 11 (al is an example diagram of ■template matching section 43 (FIG. 7) and ■boundary line tracing section 44 (FIG. 7). In the same figure, between 52 and 33 centering on J3,
There are three boundaries between 36 and 53, J, and J3, and there are connection points other than J3 at J2. There are three points: J6° and J7. Tracing this boundary is the process of ① boundary line tracing 44 in FIG. That information is issued as boundary information. In the flowchart of FIG. 10, when the flow starts, 357
Initialize i to 1 with . If i is not MAX+1 at 358, it enters S59 and returns Jl, for example, Jl in FIG. 11 (al).
Check whether all three boundary armors from 3 have been tracked. If 8" has been traced, i is incremented in S61 and the process returns to 358. If it has not been traced, the remaining boundary line is traced in S60, and the traced pixels are transferred to other connection points, e.g. ,J2 ,Ji, ,J
Determine whether it is any one connection point of q. If it is a connection point, store the label of that connection point in 364,
Return to S59. If the pixel tracked in step 362 is not a connection point, the process goes to step S63 to continue tracking and leave a tracked history. That is, the boundary line information is saved and the process returns to S62. S5
When you return to step 9, if you have traced all the boundaries, S
The process returns to S58 via 61.

iがMAX+1になればメインルーチンに戻ることにな
る。そして第7図の処理45に入り、■接続点を構成す
る3面のラベルを求める処理に入る。
When i reaches MAX+1, the process returns to the main routine. The program then enters the process 45 in FIG. 7, and enters the process (2) of determining the labels of the three sides constituting the connection point.

第11図(b)は画素近傍のラベル画像であり、同図に
おいて、3面接続点の○の周囲を任意の画素、すなわち
・を基点とし、時計回りにラベルを調べる。
FIG. 11(b) shows a label image in the vicinity of a pixel, and in the same figure, labels are examined clockwise from an arbitrary pixel around the three-sided connection point, that is, from .

第12図は接続点を構成する3面のラベル付は処理のフ
ローチャートである。処理が開始すると364でiを1
で初期化し、iがMAX+1になったかどうかを365
で判定する。もし最後になっていなければ、S66に入
ってカウンタ値の値をOにし、■を1に初期化しスタッ
クを空の状態にする。そして367に入ってJl例えば
J3の周囲の画素Iの値がスタックに格納された値と同
じであるかどうかを調べる。すなわち、すでにスタック
にラベルの値があれば、スタックに改めてラベル番号を
入れる必要がないから、S70に飛ぶが、もしスタック
に格納された値でなければ、そのラベルを868でスタ
ックにその画素値を格納し、S69でカウントをインク
リメントする。
FIG. 12 is a flowchart of the process of labeling the three sides constituting the connection points. When processing starts, i is set to 1 in 364.
Initialize it with 365 and check whether i becomes MAX+1.
Judge by. If it is not the last one, the process goes to S66, sets the counter value to O, initializes ■ to 1, and makes the stack empty. Then, it enters 367 and checks whether the value of the pixel I around Jl, for example J3, is the same as the value stored in the stack. That is, if there is already a label value in the stack, there is no need to enter a new label number in the stack, so the process jumps to S70. However, if it is not a value stored in the stack, the label is added to the stack at 868 and the pixel value is added to the stack. is stored, and the count is incremented in S69.

そしてS70で■をインクリメントし、S71でカウン
タ値が3になったかどうかを検出する。カウンタ値が3
になっていなければ右図に示されるように接続点の周囲
の画素に対し、時計回りに番号を付けることになる(第
11図(b)参照)。ここで1は回りの画素数の何番目
にあるかを示す番号であり、カウンタ(COUNT)値
は接続点を構成する3個の面に対応するものである。3
71でカウンタ値が3になれば372に入ってスタック
に格納された3値を接続点J1すなわち接続点を構成す
る3面のラベルとして記憶する。そして、373でiを
インクリメントとして終わりになるまで繰り返す。
Then, in S70, ■ is incremented, and in S71, it is detected whether the counter value has reached 3. Counter value is 3
If not, the pixels around the connection point are numbered clockwise as shown in the figure on the right (see FIG. 11(b)). Here, 1 is a number indicating the position of the surrounding pixels, and the counter (COUNT) value corresponds to the three planes forming the connection point. 3
When the counter value reaches 3 in step 71, the process enters step 372 and stores the three values stored in the stack as the labels of the connection point J1, that is, the three sides constituting the connection point. Then, in step 373, i is incremented and the process is repeated until the end.

以上の3面のラベル付は処理を第11図(C)を用いて
更に詳細に説明する。
The process of labeling the three surfaces described above will be explained in more detail using FIG. 11(C).

全ての3面接続点に対して、その点を端点とする3境界
線をそれぞれ他の接続点に到達するまで4近傍の画素を
辿る。辿った境界線は画素列として保持し、端点である
接続点のラベルとともに境界線情報として保持する。ま
た、境界線を介して隣接した接続点間の繋がりも次への
情報の1つとして記録する。
For all three surface connection points, three boundary lines with that point as an end point are traced through four neighboring pixels until each of them reaches another connection point. The traced boundary line is held as a pixel string, and is held as boundary line information together with the label of the connection point that is the end point. Furthermore, the connection between adjacent connection points via a boundary line is also recorded as one of the next pieces of information.

3面接続点の画像上における座標位置に基づき、ラベル
画像より3面接続点を構成する3面のラベルを求める。
Based on the coordinate position of the three-plane connection point on the image, the labels of the three planes constituting the three-plane connection point are determined from the label image.

具体的には、接続点の画素の周囲にある任意の画素を始
点に時計回りに周囲の画素値を調べる。そのとき最初に
出てくる3種類のラベルが3面接続点を構成するラベル
である。これにより、接続点を構成する面のラベルがわ
かる。次に、どの面がどの境界線を構成しているかを調
べ、各接続点における3面のラベルを3項のリストの形
で表現する。隣接する接続点を構成する面を比較する。
Specifically, surrounding pixel values are checked clockwise starting from an arbitrary pixel around the pixel at the connection point. The first three types of labels that appear at this time are the labels that constitute the three-sided connection point. This allows you to know the labels of the faces that make up the connection points. Next, it is determined which faces constitute which boundary lines, and the labels of the three faces at each connection point are expressed in the form of a list of three terms. Compare the faces that make up adjacent connection points.

例えば、接続点J3とその隣接の接続点J2とのリスト
を比較すると共通面はA、 とA3となる。このことか
ら、面Al、A3いづれががか境界線J2J3 J、も
しくは境界線J2 J3 J7を構成する面であること
もわかる。同様に、その隣接の接続点J6とのリストを
比較すると、面AA、いづれかが境界線J2 Jz J
b もしくは境界線Jb Ja J7を構成する面であ
ることがわかる。
For example, when comparing the lists of connection point J3 and its adjacent connection point J2, the common planes are A, and A3. From this, it can be seen that either of the surfaces Al and A3 constitutes the boundary line J2J3J or the boundary line J2J3J7. Similarly, when comparing the list with the adjacent connection point J6, one of the planes AA and the boundary line J2 Jz J
It can be seen that this is the surface forming the boundary line Jb Ja J7.

これら2つの結果より、面A+ 、A3 、Asがそれ
ぞれ境界線J2 Jll 、Jll 、J2 J3 J
t 、JbJ3J7を構成することがわかる。
From these two results, surfaces A+, A3, and As are the boundary lines J2 Jll, Jll, J2 J3 J, respectively.
t, it can be seen that it constitutes JbJ3J7.

一般に、接続点aにおいて面Bが構成する境界線cad
 (c、dは接続点のラベル)を(B  cd)と表す
と、例えば、接続点J3は第11図(c+のようになる
。これを全ての接続点に関して表し、3面接続点情報と
して次のプロセスに引き渡す。
In general, the boundary line cad formed by plane B at connection point a
If (c, d are the labels of the connection points) are expressed as (B cd), for example, the connection point J3 will be as shown in Fig. 11 (c+).This will be expressed for all connection points and as three-sided connection point information. Hand over to the next process.

第11図(dlは3面接続点情報の実施例図である。FIG. 11 (dl is an example diagram of three-sided connection point information.

接続点J、の情報は接続虚名がJ3で面構成は、A1が
境界JzJz、A3がJ2J?、AsがJb J7を有
するという3面接続点情報が構成される。
The information about the connection point J is that the connection imaginary name is J3, and the surface configuration is that A1 is the boundary JzJz and A3 is J2J? , As has Jb J7.

第13図は、本発明の構造化部の実施例図である。同図
において74は■直線近似部、75は■接続点のT型判
走部、76は■l接続点における3面の重なりを求める
部分である。第14図は本発明の構造化部の機能ブロッ
ク図である。S77でフローが開始すると、まず378
で3面接続点情報が人力されたかどうかを判定し、入力
されていなければ待ち状態となる。入力されていれば、
379で直線近位し、S80の接続点のT型判室を行い
、S81で1接続点における3面の重なり関係を求める
。そして、S82で2面関係を探索し、S83で多面量
関係を探索する。この処理ではまず直線近似の処理を必
要とする。
FIG. 13 is an embodiment diagram of the structuring section of the present invention. In the figure, 74 is a straight line approximation part, 75 is a T-shaped running part of the connecting point, and 76 is a part for determining the overlap of three planes at the l connecting point. FIG. 14 is a functional block diagram of the structuring section of the present invention. When the flow starts at S77, first 378
It is determined whether the three-sided connection point information has been entered manually, and if it has not been entered, the system is in a waiting state. If it is entered,
At step 379, a straight line is drawn, and at step S80, a T-shaped chamber is performed at the connection point, and at step S81, the overlapping relationship of the three surfaces at one connection point is determined. Then, a two-sided relationship is searched for in S82, and a multi-sided relationship is searched for in S83. This processing first requires linear approximation processing.

前プロセスから受けた境界情報より接続点から伸びる境
界線を直線近似し、接続点から直接伸びる直線を求める
。直線近似法は例えばDuda とHartのSpli
tting法を用いる。
The boundary line extending from the connection point is approximated as a straight line based on the boundary information received from the previous process, and a straight line extending directly from the connection point is determined. For example, the straight line approximation method is Duda and Hart's Spli.
The tting method is used.

第15図は、本発明の■直線近似の更新処理の機能ブロ
ック図である。S84でフローが開始すると、S85で
iを1に初期化し、S86でiが接続点のラベルの個数
(MAX)+1に到達したかどうかをチエツクし、到達
していなければ、S87で、Jiと隣接する接続点との
間の境界線を全て処理したかどうかをチエツクし、処理
していれば、iをインクリメントして、S86に戻る。
FIG. 15 is a functional block diagram of (1) linear approximation update processing of the present invention. When the flow starts in S84, i is initialized to 1 in S85, and in S86 it is checked whether i has reached the number of labels at the connection point (MAX) + 1. If it has not reached, in S87, Ji and It is checked whether all the boundary lines between adjacent connection points have been processed, and if they have been processed, i is incremented and the process returns to S86.

もし、処理していなければS88に入って、Jlと隣接
する接続点との間の境界線の1つを直線近似する。
If it has not been processed, the process goes to S88, where one of the boundaries between Jl and the adjacent connection point is approximated by a straight line.

第16図は■直線近似法の実施例図である。線分J、J
、の垂線上の点J2と線分J3J6の垂線上の点Jlを
結ぶ線分上に接続点J3があるようにして、さらに1.
J2J2の垂線上にJ3があるようにして、直線J3 
J” 、J3 J’ 、J3 J7を得る。
FIG. 16 is an example of the linear approximation method. Line segment J, J
, so that the connection point J3 is on the line segment that connects the point J2 on the perpendicular line of , and the point Jl on the perpendicular line of the line segment J3J6, and further 1.
With J3 on the perpendicular line of J2J2, straight line J3
J'', J3 J', J3 J7 are obtained.

第17図は本発明に利用される直線近似法の機能ブロッ
ク図である。この直線近似法では、Jlと隣接する接続
点33間の境界線の直線近似を求めるものである。S8
9でフローが開始すると、390でJ、とJ、間の直線
の方程式を求め、S91でJ、と38間の境界線情報か
らJlと33間の直線から最も離れている点を求め、そ
の距離をLとする。そして、S92でLが閾値以下であ
ればS93でJ、をJIl′ とするが、閾値以上であ
れば、394でjをJ8に置き換えて、S90に戻る。
FIG. 17 is a functional block diagram of the linear approximation method used in the present invention. In this straight line approximation method, a straight line approximation of the boundary line between Jl and the adjacent connection point 33 is obtained. S8
When the flow starts at step 9, the equation of the straight line between J and J is found at 390, and the point farthest from the straight line between Jl and 33 is found from the boundary line information between J and 38 at S91, and the point that is farthest from the straight line between J and 33 is found. Let the distance be L. If L is less than or equal to the threshold in S92, J is set to JIl' in S93, but if L is greater than or equal to the threshold, j is replaced with J8 in 394, and the process returns to S90.

■直線近似が終了すると、■接続点のT型判室と■その
点の3面の重なり関係を求めるフローとなる。
∎ Once the linear approximation is completed, the flow changes to ∎ the T-shaped chamber at the connecting point and ② the overlapping relationship between the three sides of that point.

第18図は、本発明の接続点のT型判室と三面の重なり
関係導出用の機能ブロック図である。Sめるものである
。S89でフローが開始すると、390でJ、と38間
の直線の方程式を求め、S91でJ、と38間の境界線
情報からJ、と33間の直線から最も離れている点を求
め、その距離をLとする。そして、S92でLが闇値以
下であればS93でJ、をJ % とするが、閾値以上
であれば、394でjをJ8に置き換えて、S90に戻
る。
FIG. 18 is a functional block diagram for deriving the overlapping relationship between the T-shaped chamber and the three sides of the connection point of the present invention. It's something you can buy. When the flow starts in S89, the equation of the straight line between J and 38 is determined in 390, and in S91, the point farthest from the straight line between J and 33 is determined from the boundary line information between J and 38, and the Let the distance be L. Then, if L is less than the dark value in S92, J is set to J % in S93, but if it is more than the threshold value, j is replaced with J8 in 394, and the process returns to S90.

■直線近似が終了すると、■接続点のT型判窓と■その
点の3面の重なり関係を求めるフローとなる。
∎ When the linear approximation is completed, the flow changes to ∎ the T-shaped window of the connection point and ③ the overlapping relationship between the three sides of that point.

第18図は、本発明の接続点のT型判窓と三面の重なり
関係導出用の機能ブロック図である。S95でフローチ
ャートが開始すると396でiを1に初期化し、397
でiが接続点のラベルの個数+1でなければ、898に
入る。ここで、直線近似で求めたJ、から出る3直綿J
、J、’ 。
FIG. 18 is a functional block diagram for deriving the overlapping relationship between the T-shaped window and the three sides of the connection point according to the present invention. When the flowchart starts in S95, i is initialized to 1 in 396, and 397
If i is not the number of labels at the connection point + 1, then 898 is entered. Here, J obtained by linear approximation, 3 straight cotton J from
,J,'.

J、J、’、J= Jc’がそれぞれJ8でなす角(α
、β、y)を求め、S99で、その中で最も大きい角度
を求める。そして、5100で最も大きい角度をなす接
続点列を求める。さらに、5101で3面接続点情報と
合わせ、上面と下面を求める。そして、5102で1を
インクリメントして、S97に戻る。
The angle (α
, β, y), and in S99, the largest angle among them is found. Then, the connection point sequence that forms the largest angle at 5100 is determined. Furthermore, in step 5101, the upper surface and the lower surface are determined by combining the three surface connection point information. Then, in step 5102, 1 is incremented, and the process returns to S97.

直線近似の結果を用いて、接続点における隣合った境界
線のなす角度を求める。それらの角度の内でπrad(
=180°)に最も近いものを選び、その角度を成す2
直線が属する境界線を求める。この境界線が上面に属す
るものである。
Using the results of the straight-line approximation, find the angle between adjacent boundary lines at the connection point. Within those angles πrad(
= 180°) and select the 2 that makes up that angle.
Find the boundary line to which the straight line belongs. This boundary line belongs to the upper surface.

第19図は、本発明の接続点のT型判窓の実施例図であ
る。接続点J3において2直線、J3J2とJffJ’
、2直線J3 J2.J3 J?及び2直線J3 J’
 、J3J7の成す角度をそれぞれaa2+23 とす
ると、alがπradに最も近いので、境界綿=Iz 
−Js jbが上面に属する境界線である。
FIG. 19 is an embodiment of a T-shaped window at the connection point of the present invention. Two straight lines at the connection point J3, J3J2 and JffJ'
, 2 straight lines J3 J2. J3 J? and 2 straight lines J3 J'
, J3J7 are respectively aa2+23, and since al is closest to πrad, the boundary cotton = Iz
-Js jb is the boundary line belonging to the top surface.

第20図(a)、 (blは、本発明の1接続点におけ
る3面の重なりを示す実施例図である。
FIG. 20(a) and (bl) are embodiment diagrams showing the overlapping of three surfaces at one connection point of the present invention.

同図(a)に示すように、前プロセスから受けた3面接
続点情報と上面に属する境界線より上面のラベルを求め
る。例えば、面A+ が面An 、Asの上面であるこ
とがわかる。面A3と面A、の関係はこの時点では不明
である。この情報は、第20図(blのようにリストの
形で表し、T型接続点情報105として次のプロセスに
転送する。
As shown in FIG. 4A, the label of the top surface is obtained from the three surface connection point information received from the previous process and the boundary line belonging to the top surface. For example, it can be seen that the surface A+ is the upper surface of the surfaces An and As. The relationship between surface A3 and surface A is unknown at this point. This information is expressed in the form of a list as shown in FIG. 20 (bl) and transferred to the next process as T-type connection point information 105.

次に、各接続点の関係に基づき2面間の重なり関係を求
める。
Next, the overlapping relationship between the two surfaces is determined based on the relationship between each connection point.

第21図は、本発明の面関係探索処理部の構成図である
。同図において、103は■22面間関係探索、104
は■全面間関係探索部である。
FIG. 21 is a configuration diagram of the surface relationship search processing section of the present invention. In the same figure, 103 is ■Search for relationships between 22 surfaces, 104
■ is the inter-surface relationship search section.

第22図は、本発明の2面間関係探索の実施例図である
。同図(a)において、T型接続点情報105内の、(
)の最も左にある(A3 、 AI 、 A6 。
FIG. 22 is a diagram showing an example of searching for a relationship between two surfaces according to the present invention. In (a) of the same figure, (
) on the leftmost side (A3, AI, A6).

As、  ・・・)が他の2面より上にあることを示す
。また、同図(blはこのT型接続点情報を表現した木
構造グラフで、同じラベルは細い実線で接続されている
。このラベルの重なりを除去して整理すると同図(C)
になる。ここで、太い矢印は重なり関係を示し、点線は
関係不明を示す。
As, ...) indicates that it is above the other two surfaces. Also, in the same figure (bl is a tree structure graph expressing this T-shaped connection point information, the same labels are connected by thin solid lines. If you remove the overlap of these labels and organize them, the same figure (C)
become. Here, thick arrows indicate overlapping relationships, and dotted lines indicate unknown relationships.

このように、T型接続情報より面別に全ての情報を取り
出し、各面の上面を求めるとともに隣接関係にあるにも
かかわらず関係が不明である面を求める。具体的には、
出力として、各面とその面の上面及び隣接関係にあり関
係が不明な面を対応付けた第22図(d)に示した2面
間関係情報を用意する。このとき、初期値は全てNUL
Lである。例えばA2の上面はA3で関係不明はNUL
Lとなる。T型接続情報の3項リストの1項目(すなわ
ち上面)を2面間関係情報の2項目及び3項目の面に登
録する。上面に関する登録が終了した後、各面に対し、
登録した上面内に登録されていない隣接面の内隣接面に
もその面が上面として登録されていない場合、その隣接
面を関係不明の欄に登録する。
In this way, all information is extracted for each surface from the T-type connection information, and the top surface of each surface is determined, as well as surfaces whose relationship is unknown even though they are in an adjacent relationship. in particular,
As an output, two-surface relationship information shown in FIG. 22(d) is prepared in which each surface is associated with the upper surface of that surface and adjacent surfaces with unknown relationships. At this time, all initial values are NUL
It is L. For example, the top surface of A2 is A3, and if the relationship is unknown, it is NUL.
It becomes L. One item (ie, the top surface) of the three-item list of T-type connection information is registered in the second and third items of the two-plane relationship information. After the registration for the top surface is completed, for each surface,
If that surface is not registered as an upper surface among adjacent surfaces that are not registered in the registered upper surface, that adjacent surface is registered in the column of unknown relationship.

例えば、面A、は関係不明の面A4を有する。For example, surface A has an unknown relation to surface A4.

第23図は、本発明の2面間関係探索の機能ブロック図
である。5106でフローが開始すると、5107で2
面間関係情報の枠を設定する。すなわち、各面に対して
、上面を記述する欄(上面欄)と関係が不明である隣接
面を記述する欄(関係不明欄)を設け、各欄に初期値と
してNULLを設定する。8108でT型接続点情報を
全て使ったかどうかの判定を行い、使っていなければ、
5109で、T型接続点情報の第2項の面において2面
間関係情報の上面欄に第1項の面を記入する。そして、
5110に移り、関係不明欄に第1項の面が記入されて
るかどうかをチエツクし、記入されていれば、5111
で関係不明欄から第1項の面を削除し、5111に入り
、記入されていなければ、5111をスキップして、5
ill’ に入る。8111′では第2項の面の2面間
関係情報において第3項の面が上面欄もしくは関係不明
欄に記入されているか否かを確認する。記入されておれ
ば5ill″をスキップし、記入されていなければ5I
LL“に入り1.関係不明欄第3項の面を記入する。5
112に入る。5112では、T型接続点情報の第3項
の面において1.2面間関係情報で第1項の面を上面欄
に記入する。そして、5l13に移り、関係不明欄に第
1項の面が記入されているかどうかのチエツクを行い、
されていなければ、3108に直接戻り、されていれば
、5l14で関係不明欄から第1項の面を削除してから
8114′へ移る。5114’ では第3項の面の2面
間関係情報において第2項の面が上面欄もしくは関係不
明欄に記入されているか否かを確認する。
FIG. 23 is a functional block diagram of the search for the relationship between two surfaces according to the present invention. When the flow starts at 5106, 2
Set the frame for inter-plane relationship information. That is, for each surface, a column for describing the upper surface (upper surface column) and a column for describing adjacent surfaces whose relationship is unknown (unknown relationship column) are provided, and NULL is set as an initial value in each column. At 8108, it is determined whether all the T-type connection point information has been used, and if it has not been used,
At 5109, the surface of the first term is entered in the upper column of the relationship information between two surfaces in the surface of the second term of the T-type connection point information. and,
Move to 5110, check whether the 1st item is entered in the unknown relationship column, and if it is, 5111
Delete the first item from the unknown relationship column and enter 5111. If it is not filled in, skip 5111 and enter 5.
Enter ill'. In 8111', it is checked whether or not the surface of the third term is entered in the top column or the unknown relationship column in the relationship information between two planes of the surface of the second term. If it is filled in, skip 5ill'', if it is not filled out, skip 5I.
Enter LL" 1. Fill out the 3rd column in the Unknown relationship column. 5
Enter 112. In step 5112, in the third term of the T-type connection point information, the first term is entered in the top field using 1.2 inter-plane relationship information. Then, move to 5l13, check whether the first item is entered in the unknown relationship column,
If not, the process returns directly to 3108, and if it has, the first term is deleted from the unknown relationship column in 5l14, and then the process moves to 8114'. In step 5114', it is checked whether or not the surface of the second term is entered in the top surface column or the relation unknown column in the relationship information between the two surfaces of the surface of the third term.

記入されておれば5114”をスキップし記入されてい
なければ5114”に入り、関係不明欄に第2項の面を
記入し8108に移る。次に、全面間関係探索の処理に
入る。
If it is filled in, skip 5114'', and if not filled in, go to 5114'', enter the second term in the unrelated column, and move to 8108. Next, processing for searching for relationships between entire surfaces is started.

第24図は49本発明の全面間関係探索処理の実施例図
である。例えば第22図の実施例図において面A4と面
A、とが関係不明であるとする。第24図において、(
a)は2面間関係探索の結果の木構造グラフであり、各
関係を全ての面に伝播して、関係不明な面は統合すると
、(b)に示すグラフとなる。そして第24図(C1の
ように、1つの面に対してその上面を一括して登録する
。但し、重複する2面(Ae )は1面として登録する
。このように、2面間関係情報を修正した情報を全面間
関係情報と呼ぶ。
FIG. 24 is a diagram showing an embodiment of the inter-surface relationship search process of the present invention. For example, suppose that in the embodiment diagram of FIG. 22, the relationship between the surface A4 and the surface A is unknown. In Figure 24, (
(a) is a tree-structured graph resulting from searching for relationships between two surfaces. When each relationship is propagated to all surfaces and surfaces with unknown relationships are integrated, the graph shown in (b) is obtained. Then, as shown in Figure 24 (C1), the top surface of one surface is registered all at once.However, two overlapping surfaces (Ae) are registered as one surface.In this way, the relationship information between the two surfaces The information that has been corrected is called inter-surface relationship information.

第25図は本発明の多面量関係探索処理の機能ブロック
図である。5114でフローが開始すると、5115で
まず、2面間関係情報を全て使ったかどうかをチエツク
し、使っていなければ、8116に移り、関係不明欄は
NULLかどうかのチエツクを行う。NULLであれば
戻り、NULしてなければ、5117に入って、関係不
明欄にある面を1つの面としてまとめあげ、その上面欄
には各面の上面のORを記入する。そして、8118で
まとめあげた面の関係不明欄はNULLにする。さらに
、5119で上面欄にあった面は2面間関係情報より削
除し、そして5115に戻る。
FIG. 25 is a functional block diagram of the polyhedral relationship search process of the present invention. When the flow starts in 5114, it is first checked in 5115 whether all the relationship information between the two sides has been used. If not, the process moves to 8116, and it is checked whether the relationship unknown column is NULL. If NULL, return; if not, enter 5117, combine the faces in the unknown relationship column as one face, and enter the OR of the top faces of each face in the top face column. Then, the unknown relationship column for the surfaces grouped together in 8118 is set to NULL. Furthermore, in step 5119, the surface that was in the upper surface field is deleted from the relationship information between the two surfaces, and the process returns to step 5115.

最後に、第2A図に示される無隠蔽面抽出部27で構造
化部26からの全面間関係情報を探索し、上面の欄がN
ULLである面(無隠蔽面)を探す。
Finally, the non-hidden surface extracting section 27 shown in FIG. 2A searches for the inter-surface relation information from the structuring section 26,
Search for a surface that is ULL (non-concealed surface).

かかる無隠蔽面が見つかったならば、その面の位置をセ
ンサ位置合わせ部24に転送する。複数個の無隠蔽面が
存在する場合、順次転送する。そして、センサ位置合わ
せ部24は、アーム制御部2o−bが終了状態ならば、
バッファ内に蓄えられた無隠蔽面の位置にセンサを合わ
せ、動作させる。
If such a non-concealed surface is found, the position of the surface is transferred to the sensor positioning section 24. If multiple non-obscuring surfaces exist, they are transferred sequentially. Then, the sensor positioning unit 24 determines that if the arm control unit 2o-b is in the completed state,
The sensor is aligned with the position of the non-concealed surface stored in the buffer and operated.

バッファ内のデータがなくなったならば、領域分割部2
5にテレビカメラ23から画像を取り込むように指令す
る。
When the data in the buffer runs out, the area dividing unit 2
5 to capture an image from the television camera 23.

奥行き測定部21は、センサから得た奥行き(センサか
ら物体までの距離)をアームから物体までの距離に変換
し、アーム制御部20−bに転送する。
The depth measurement section 21 converts the depth obtained from the sensor (distance from the sensor to the object) into a distance from the arm to the object, and transfers it to the arm control section 20-b.

アーム制御部20−bは無隠蔽面の位置(X。The arm control unit 20-b is located at the non-concealing surface position (X).

Y方向)と奥行き(Z方向)に合わせアームを動かし、
無隠蔽面の物体を掴み、所定の場所に動かす。その後、
センサ位置合わせ部24に動作の終了を知らせる。
Move the arm according to the Y direction) and depth (Z direction),
Grab an object on an unconcealed surface and move it to a designated location. after that,
The end of the operation is notified to the sensor positioning unit 24.

〔発明の効果〕〔Effect of the invention〕

本発明では、従来の方法に比べ、面の重なり関係を抽出
するという簡単なアルゴリズムで画像を特徴付けられる
。すなわち、本発明は無隠蔽面の位置を容易に且つ対象
に依存せずに抽出することができ、3面の境界線が交わ
るT型の接続点から、面の重なり関係を手法により抽出
し画像を3次元的に特徴付けることができる。そして、
上記の手法を対象物位置測定装置内に実現すれば、その
装置から出力されたデータに基づきセンサの位置を合わ
せるセンサ位置合わせ部、センサから受は取った情報を
アームに転送する奥行き測定部、各部から得た3次元位
置情報よりロボットアームを動かすアーム制御部等から
構成されるピンピッキング・システムを構築できる。
In the present invention, compared to conventional methods, images can be characterized using a simpler algorithm that extracts the overlapping relationship between surfaces. That is, the present invention can easily extract the position of the non-obscuring surface without depending on the object, and extracts the overlapping relationship of the surfaces from the T-shaped connection point where the boundary lines of the three surfaces intersect using a method to create an image. can be characterized three-dimensionally. and,
If the above method is implemented in an object position measuring device, there will be a sensor positioning section that positions the sensor based on the data output from the device, a depth measuring section that transfers the information received from the sensor to the arm, It is possible to construct a pin picking system consisting of an arm control section that moves a robot arm based on three-dimensional position information obtained from each section.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の構成図、 第2A図は本発明の画像解析方式に従うビンピッキング
システムの構成図、 第2B図は本発明の画像の構造化処理の説明図、第3図
は本発明の領域分割部の構成図、第4図は本発明の領域
分割部の処理フローチャート、 第5図は本発明の構造化部の構成図、 第6図は本発明の構造化部の処理フローチャート、 第7図は3面接続点抽出部の構成図、 第8図は3境界線による接続の画像領域を示す実施例同
第8図は 第9図はテンプレートマツチングの処理フローチャート
、 第10図は境界線の追跡処理のフローチャート、第11
図fa)は境界線の実施例図、 第11図(blは画素近傍のラベル画像、第11図(C
)は3面のラベル付は処理を示す図、第11図(dlは
3面接続点情報の実施例図、第12図は接続点を構成す
る3面のラベル付は処理のフローチャート、 第13図は本発明の構成部の構成の実施例図、第14図
は本発明の構造化部の機能ブロック図、第15図は本発
明の直線近似の更新処理の機能ブロック図 第16図は直線近似法の実施例図、 第17図は本発明に利用される直線近似法の機能ブロッ
ク図、 第18図は本発明の接続点のT型判定と三面の重なり関
係導出用の機能ブロック図、 第19図は本発明の接続点のT型判定の実施例図、 第20図(al及び(blは本発明の1接続点における
三面の重なりを示す実施例図、 第21図は本発明の面関係探索処理部の構成図、第22
図は本発明の二面量関係探索の実施例図、第23図 、
 、     は本発明の2面間関係探索の機能ブロッ
ク図、 第24図(at、 fb)、 (c)は本発明の全面間
関係探索処理の実施例図、 第25図は本発明の多面量関係探索処理の機能ブロック
図、 第26図(a)、 (blは従来の隠藪のない物体の位
置を抽出する画像解析方式の説明図、 第27図はモデルとの照合による従来の認識方式を示す
説明図。 12・・・領域分割手段、 13・・・構造化手段、 14・・・無隠蔽面抽出手段、 15・・・領域ラベルづけ手段、 16・・・境界抽出手段、 17・・・T型接続判定手段、 18・・・変換手段。
Fig. 1 is a block diagram of the present invention, Fig. 2A is a block diagram of a bin picking system according to the image analysis method of the present invention, Fig. 2B is an explanatory diagram of image structuring processing of the present invention, and Fig. 3 is a block diagram of the present invention. FIG. 4 is a processing flowchart of the area division section of the present invention; FIG. 5 is a block diagram of the structuring section of the present invention; FIG. 6 is a processing flowchart of the structuring section of the present invention; Fig. 7 is a block diagram of the 3-plane connection point extracting unit, Fig. 8 is an example of an image area connected by 3 boundary lines, Fig. 9 is a processing flowchart of template matching, and Fig. 10 is a flowchart of the template matching process. Flowchart of boundary line tracking processing, 11th
Figure fa) is an example diagram of the boundary line, Figure 11 (bl is the label image near the pixel, Figure 11 (C
) is a diagram showing the processing with labels on the three sides, Figure 11 (dl is an example diagram of connection point information on the three sides, Figure 12 is a flowchart of the process with labels on the three sides constituting the connection points, and Figure 13 is a diagram showing the process). 14 is a functional block diagram of the structuring section of the present invention. FIG. 15 is a functional block diagram of the linear approximation update process of the present invention. FIG. 16 is a straight line. An example diagram of the approximation method, FIG. 17 is a functional block diagram of the linear approximation method used in the present invention, FIG. 18 is a functional block diagram for determining the T-type of the connection point and deriving the overlapping relationship of three surfaces according to the present invention, FIG. 19 is an example diagram of the T-type determination of a connection point according to the present invention, FIG. 20 is an example diagram showing the overlap of three surfaces at one connection point according to the present invention, FIG. Block diagram of surface relationship search processing unit, No. 22
The figure is an example diagram of the dihedral quantity relationship search of the present invention, Fig. 23,
, are functional block diagrams of the two-plane relationship search of the present invention, FIG. 24 (at, fb), and (c) are an example diagram of the full-plane relationship search process of the present invention, and FIG. 25 is the multi-plane relationship search process of the present invention. Functional block diagram of relationship search processing, Fig. 26(a), (bl is an explanatory diagram of a conventional image analysis method for extracting the position of an object without obscurity, Fig. 27 is a conventional recognition method by matching with a model) 12... Area dividing means, 13... Structuring means, 14... Non-obscured surface extraction means, 15... Area labeling means, 16... Boundary extraction means, 17. ... T-type connection determination means, 18... conversion means.

Claims (1)

【特許請求の範囲】 1)画像の対象領域を同一性質を有する複数の領域に分
割する領域分割手段(12)と、 前記複数の領域に対応した複数の面の前後関係を探索し
て画像を複数の面の前後関係を含んだ情報に変換する構
造化手段(13)と、 該構造化手段(13)の出力に基づいて所望の面を抽出
する面抽出手段(14)とを有することを特徴とする画
像解析方式。 2)画像内の対象の領域を複数の面に分割し、各面の境
界を抽出する領域分割手段(12)と、境界の交点のう
ち3境界が交差するT型接続点を抽出し、個々のT型接
続点における3面の重なり関係を求めた後、該T型接続
点における関係を2面間の重なり関係に変換し、さらに
2面間の重なり関係を画像内に存在する全ての面に伝播
し、2面間の重なり関係に基づいて画像全体の面関係を
探索する構造化手段(13)と、 前記構造化手段(13)によって、求められた面関係の
構造化情報からどの面にも重ならない面を抽出する無隠
蔽面抽出手段(14)とを有することを特徴とする画像
解析方式。 3)前記領域分割手段(12)は、 画像のノイズを除去する手段(28)と、 ノイズを除去された画像の同一テクスチャ領域を求める
テクスチャ解析手段(29)と、 同一テクスチャ領域の境界線を抽出する手段(30)と
、 同一テクスチャ領域に同一ラベルを付す手段(31)と
からなり画像を同一のテクスチャの領域に分割してその
領域の境界線を求めるとともに各テクスチャの領域にラ
ベルを付すことを特徴とする請求項1記載の画像解析方
式。 4)前記構造化手段(13)は、 領域分割手段(12)から得られる各領域の境界線を直
線近似して、3面が重なる3面接続点を抽出する手段(
39)と、 前記3面接続点におけるT型接続関係を示すT型接続点
情報を抽出する手段(39)と、 前記3面接続点におけるT型接続の関係を示すT型接続
点情報を抽出するT型接続判定手段(40)と、 前記T型接続点情報に基づいて、2面間の前後関係を探
索する2面間関係探索手段(103)と、前記2面間の
前後関係を各面間に求めることにより全面間の上下関係
を求める全面間関係探索手段(104)とからなること
を特徴とする請求項1記載の画像解析方式。 5)物体の画像を同一のテクスチャの領域である面に分
割し、各領域にラベルを付ける領域ラベルづけ手段(1
5)と、 同一ラベルの面から境界を抽出する境界抽出手段(16
)と、 境界の交点のうち、3境界が交差するT型接続点を抽出
するT型接続判定手段(17)と、個々のT型接続点に
おける3面の重なり関係を求めた後、該T型接続点にお
ける関係を2面間の重なり関係に変換する変換手段(1
8)と、2面間の重なり関係を画像中に存在するすべて
の面に伝播し、画像全体の面の上下関係を探索する面関
係探索手段と、 該面関係探索手段の出力に基づいて隠蔽のない物体を抽
出する無隠蔽物体抽出手段と、 該無隠蔽物体抽出手段の出力により無隠蔽物体の位置と
物体迄の距離を検出する手段とよりなることを特徴とす
る物体検出装置。
[Claims] 1) Region dividing means (12) for dividing a target region of an image into a plurality of regions having the same properties; A structuring means (13) for converting into information including the context of a plurality of surfaces, and a surface extraction means (14) for extracting a desired surface based on the output of the structuring means (13). Featured image analysis method. 2) A region dividing means (12) that divides the target area in the image into a plurality of planes and extracts the boundaries of each plane, extracts a T-shaped connection point where three boundaries intersect among the intersection points of the boundaries, and After determining the overlapping relationship between the three surfaces at the T-shaped connection point, the relationship at the T-type connection point is converted to the overlapping relationship between two surfaces, and the overlapping relationship between the two surfaces is then converted to the overlapping relationship between all the surfaces existing in the image. a structuring means (13) for searching the surface relationship of the entire image based on the overlapping relationship between the two surfaces; An image analysis method characterized by comprising a non-concealing surface extraction means (14) for extracting surfaces that do not overlap with each other. 3) The area dividing means (12) includes: means (28) for removing noise from the image; texture analysis means (29) for determining the same texture area of the image from which the noise has been removed; and a boundary line of the same texture area. It consists of a means for extracting (30) and a means for attaching the same label to the same texture area (31), which divides the image into areas with the same texture, determines the boundaries of the areas, and attaches a label to each texture area. The image analysis method according to claim 1, characterized in that: 4) The structuring means (13) is a means for linearly approximating the boundaries of each region obtained from the region dividing means (12) to extract three-plane connection points where three planes overlap.
39); means (39) for extracting T-type connection point information indicating a T-type connection relationship at the three-plane connection points; and extracting T-type connection point information indicating the T-type connection relationship at the three-plane connection points. a T-type connection determination means (40) for searching for a sequential relationship between two surfaces based on the T-type connection point information; 2. The image analysis method according to claim 1, further comprising an inter-surface relationship searching means (104) for determining a vertical relationship between the entire surfaces by determining between the surfaces. 5) Area labeling means (1) that divides the image of the object into planes that are areas of the same texture and labels each area.
5), and a boundary extraction means (16) that extracts boundaries from surfaces with the same label.
), a T-type connection determination means (17) for extracting a T-type connection point where three boundaries intersect from among the intersection points of the boundaries, and after determining the overlapping relationship of the three planes at each T-type connection point, Conversion means (1
8), a surface relationship search means for propagating the overlapping relationship between the two surfaces to all surfaces existing in the image and searching for the vertical relationship of the surfaces in the entire image; and concealment based on the output of the surface relationship search means. 1. An object detection device comprising: a non-concealing object extracting means for extracting an object without a hidden object; and a means for detecting the position of the non-concealing object and the distance to the object based on the output of the non-concealing object extracting means.
JP1045207A 1989-02-28 1989-02-28 Picture analyzing system Pending JPH02226376A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1045207A JPH02226376A (en) 1989-02-28 1989-02-28 Picture analyzing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1045207A JPH02226376A (en) 1989-02-28 1989-02-28 Picture analyzing system

Publications (1)

Publication Number Publication Date
JPH02226376A true JPH02226376A (en) 1990-09-07

Family

ID=12712824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1045207A Pending JPH02226376A (en) 1989-02-28 1989-02-28 Picture analyzing system

Country Status (1)

Country Link
JP (1) JPH02226376A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002208008A (en) * 2001-01-05 2002-07-26 Olympus Optical Co Ltd Image evaluating device, its method and recording medium with image evaluation program recorded
JP2004521405A (en) * 2000-08-04 2004-07-15 パルセント コーポレイション Method for determining relative z-ordering in an image, and use of relative z-ordering

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004521405A (en) * 2000-08-04 2004-07-15 パルセント コーポレイション Method for determining relative z-ordering in an image, and use of relative z-ordering
JP4698926B2 (en) * 2000-08-04 2011-06-08 アルテラ コーポレイション Method for determining relative z-ordering in an image and method of using relative z-ordering
JP2002208008A (en) * 2001-01-05 2002-07-26 Olympus Optical Co Ltd Image evaluating device, its method and recording medium with image evaluation program recorded

Similar Documents

Publication Publication Date Title
US11720766B2 (en) Systems and methods for text and barcode reading under perspective distortion
US9327406B1 (en) Object segmentation based on detected object-specific visual cues
AU716654B2 (en) Data processing system and method
Zhang et al. A 3D reconstruction method for pipeline inspection based on multi-vision
CN103196370B (en) Measuring method and measuring device of conduit connector space pose parameters
CN106651752A (en) Three-dimensional point cloud data registration method and stitching method
Santos et al. 3D plant modeling: localization, mapping and segmentation for plant phenotyping using a single hand-held camera
CN107077735A (en) Three dimensional object is recognized
Zhou et al. Image-based onsite object recognition for automatic crane lifting tasks
Boughorbel et al. Laser ranging and video imaging for bin picking
WO2004023394A1 (en) Environmental reasoning using geometric data structure
CN114358133A (en) Method for detecting looped frames based on semantic-assisted binocular vision SLAM
IL123566A (en) Detecting of relief contours in a pair of stereoscopic images
CN117351078A (en) Target size and 6D gesture estimation method based on shape priori
JPH02226376A (en) Picture analyzing system
Nakano Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator
JPS6278684A (en) Object retrieval system
Skuratovskyi et al. Outdoor mapping framework: from images to 3d model
CN114677435A (en) Point cloud panoramic fusion element extraction method and system
CN110728222A (en) Pose estimation method for target object in mechanical arm grabbing system
Huynh et al. Line labelling and region segmentation in stereo image pairs
Li et al. 3D line segment reconstruction in structured scenes via coplanar line segment clustering
Yano et al. Parameterized B-rep-Based Surface Correspondence Estimation for Category-Level 3D Object Matching Applicable to Multi-Part Items
Shin et al. Object proposal using 3D point cloud for DRC-HUBO+
JP2517531B2 (en) Posture detection device using stereo images