JPS6361108A - Apparatus for confirming three-dimensional object - Google Patents

Apparatus for confirming three-dimensional object

Info

Publication number
JPS6361108A
JPS6361108A JP61205053A JP20505386A JPS6361108A JP S6361108 A JPS6361108 A JP S6361108A JP 61205053 A JP61205053 A JP 61205053A JP 20505386 A JP20505386 A JP 20505386A JP S6361108 A JPS6361108 A JP S6361108A
Authority
JP
Japan
Prior art keywords
pattern
block
dimensional
camera
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61205053A
Other languages
Japanese (ja)
Other versions
JPH076779B2 (en
Inventor
Takushi Okada
岡田 拓史
Seiji Hata
清治 秦
Yuji Takagi
裕治 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61205053A priority Critical patent/JPH076779B2/en
Publication of JPS6361108A publication Critical patent/JPS6361108A/en
Publication of JPH076779B2 publication Critical patent/JPH076779B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To obtain the titled apparatus capable of confirming and inspecting a three-dimensional object in a real time in a production line, by confirming the entire shape of the three-dimensional object from the unevenness relation of the object obtained by projecting a pattern to the object and the surface relation of the object preliminarily given without directly extracting all of the surfaces of the object. CONSTITUTION:The indication of a shape, for example, the indication of a rectangular parallelopiped is sent to a surface relation processing apparatus 8 from a console 4. The surface relation of each shape is stored in a block 42 and the information of the property of the rectangular parallelopiped of the block 43 is referred to by indication. Light is projected to an object 9 to be measured by a TV camera 1 and two projectors 2 obliquely mounted to said camera 1 and the part impinged against the surface of the object 9 of the pattern thereof is extracted by an unevenness position detector 7. From the extracted part, the coordinates of the apex calculated in an image processor 3 are inputted to the apparatus 8. Then, the number of apices are checked and a deficient apex is calculated. By this method, high speed three-dimensional confirmation can be confirmed without requiring the confirmation of all surfaces.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は三次元物体認識装置に係り、特に、高速で立体
形状を認識する必要がある生産ライン等に配置するのに
好適な三次元物体比ra装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a three-dimensional object recognition device, and in particular, a three-dimensional object recognition device suitable for placement in a production line etc. where three-dimensional shapes need to be recognized at high speed. Regarding a ratio device.

〔従来の技術〕[Conventional technology]

従来、三次元物体の認識方式としては、両眼立体視やス
リット光全面操作法等の多くの研究がなされている0例
えば1文献「パターン投影法と2台のカメラを用いた三
次元物体の計測」、青木則夫他3名、電子通信学会技術
研究報告、VoQ83゜Nα309.  (1984)
では、複数本のスリットパターンを物体にあて、これを
2台のカメラによって両眼立体視することにより、物体
の三次元位置を求めている。
Conventionally, many studies have been conducted on methods for recognizing three-dimensional objects, such as binocular stereoscopic vision and slit light full-surface operation methods. "Measurement", Norio Aoki and 3 others, Institute of Electronics and Communication Engineers Technical Research Report, VoQ83°Nα309. (1984)
In this method, the three-dimensional position of the object is determined by applying a plurality of slit patterns to the object and viewing it stereoscopically with two eyes using two cameras.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかし、この方法によれば、2台のカメラで取り込んだ
複数本のパターン形状を解析しなければならず1画像処
理量が多くなり、生産ライン等で必要なリアルタイム(
数百m5ec)での認識は困難である。また、対象とな
る3次元物体の形状の性質を知識として用いていないの
で、物体認識を誤る可能性が大きい。
However, according to this method, it is necessary to analyze multiple pattern shapes captured by two cameras, which increases the amount of processing per image.
Recognition at several hundred m5ec) is difficult. Furthermore, since the properties of the shape of the target three-dimensional object are not used as knowledge, there is a high possibility that the object recognition will be incorrect.

本発明の目的は、生産ライン等においてリアルタイムで
三次元物体の認識・検査が行なえる三次元物体認識装置
を提供することにある。
An object of the present invention is to provide a three-dimensional object recognition device that can recognize and inspect three-dimensional objects in real time on a production line or the like.

〔問題点を解決するための手段〕[Means for solving problems]

三次元物体を認識するには、物体を構成する各面の方程
式が全てわかればよい。しかし、例えば直方体とか直方
体が組み合わさってできている物体では、隣接面が直角
をなすことが予めわかっているので、必ずしも全ての面
の方程式を求める必要はない。例えば、直方体の場合に
は、隣接する2つの平面の方向と、それらの面の頂点座
標がわかれば、残りの頂点座標や面の方向を推定して求
めることができる。
To recognize a three-dimensional object, we only need to know all the equations for each surface that makes up the object. However, for example, in the case of a rectangular parallelepiped or an object made of a combination of rectangular parallelepipeds, it is known in advance that adjacent surfaces form right angles, so it is not necessarily necessary to find equations for all the surfaces. For example, in the case of a rectangular parallelepiped, if the directions of two adjacent planes and the coordinates of the vertices of those planes are known, the coordinates of the remaining vertices and the directions of the planes can be estimated and found.

そこで本発明では、パターンを物体に投影し、そのパタ
ーンの凹凸関係と、予め与えられている物体面間の関係
とから、物体の全ての面を直接抽出することなく三次元
物体の全体形状を高速に認識し、更にその結果を展開図
として表示する。
Therefore, in the present invention, a pattern is projected onto an object, and the overall shape of a three-dimensional object is calculated from the unevenness relationship of the pattern and the relationship between object surfaces given in advance, without directly extracting all the surfaces of the object. It performs high-speed recognition and displays the results as a developed diagram.

〔作用〕[Effect]

例えば直方体を認識する場合には、まず基準となる1つ
の面の方向と、その面の頂点の空間位置を求め1次にそ
の面の隣接面と思われる面を求める。そして、残りの面
については直方体の面関係から算出し、得られた三次元
物体を展開図の形で3面1例えば平面図、正面図、側面
図を表示する。
For example, when recognizing a rectangular parallelepiped, first the direction of one reference plane and the spatial position of the vertex of that plane are determined, and then the planes that are considered to be adjacent to that plane are found. The remaining surfaces are calculated from the surface relationships of the rectangular parallelepiped, and the resulting three-dimensional object is displayed in the form of a developed view on three surfaces 1, for example, a plan view, a front view, and a side view.

〔実施例〕〔Example〕

以下1本発明の一実施例を図面を参照して説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第1図は本実施例の構成図で、TVカメラ1と。FIG. 1 is a configuration diagram of this embodiment, including a TV camera 1.

2台のスリット光プロジェクタ2と、画像処理装置3と
、コンソール4と、ディスプレイ5と、モニタ6と、凹
凸検出装置7と1面関係処理装置8と、物体9とから成
る。尚、物体9として直方体を例に以下説明する。
It consists of two slit light projectors 2, an image processing device 3, a console 4, a display 5, a monitor 6, an unevenness detection device 7, a one-surface relationship processing device 8, and an object 9. The object 9 will be described below using a rectangular parallelepiped as an example.

2台のプロジェクタ2はTVカメラ1に対して斜めに取
り付けられており、TVカメラ1と組み合わせて、空間
的な位置を検出する空間位置測定装置を構成する。本実
施例で用いる空間位置測定装置の原理を第2図を用いて
説明する。第2図に示すように、プロジェクタ2から出
たパターンが面Aにあたると、そのあたったパターン上
の点P、の像は、TVカメラ1の撮像面上ではyIの位
置にできる。また、面A′にあたると、パターン上の点
P2の像はy2の位置にできる。このように。
The two projectors 2 are attached obliquely to the TV camera 1, and in combination with the TV camera 1 constitute a spatial position measuring device that detects a spatial position. The principle of the spatial position measuring device used in this embodiment will be explained using FIG. As shown in FIG. 2, when the pattern emitted from the projector 2 hits the surface A, the image of the hit point P on the pattern is formed at a position yI on the imaging surface of the TV camera 1. Furthermore, when the surface A' is hit, the image of the point P2 on the pattern is formed at the position y2. in this way.

パターンがプロジェクタ2の投射軸り上のどこで面にあ
たるかにより、TVカメラ1上の位置が変わる。この結
果、TV画面上のどの位置にパターンができたかで、T
Vカメラから面までの距離0を求めることができる。プ
ロジェクタ2はTVカメラ1に対して斜めに取り付けら
れているので、パターンが物体にあたると斜め方向の帯
を形成する。その斜め線をTVカメラ1で見ると、斜め
面がTVカメラ1から遠くなるほど、TV画面上では上
方に昇っていく。また、y方向(TVの走査方向)は、
yが大きいほどTV画面では右側に写る。この関係から
、撮像面上に結像したパターン上の点の座標値(I、J
)により、その点に対応する空間位@(y、z)が求め
られる。また、プロジェクタ2はTVカメラ1に対して
固定されているので、パターンの傾きを利用して、y座
標からX座標を求めることができる。従って、パターン
のTV画面内の座標(I、J)から空間位置(xt y
I z)を求めることができる。以上の原理を用いて、
左右のプロジェクタ2,2からのパターン上の任意の点
の空間位置を求めることができる。以下、直方体の各面
の認識を行う手順を詳細に説明する。
The position on the TV camera 1 changes depending on where on the projection axis of the projector 2 the pattern hits the surface. As a result, T
The distance 0 from the V camera to the surface can be found. Since the projector 2 is attached obliquely to the TV camera 1, when the pattern hits an object, it forms an oblique band. When the diagonal line is viewed with the TV camera 1, the farther the diagonal plane is from the TV camera 1, the higher it rises on the TV screen. In addition, the y direction (TV scanning direction) is
The larger y is, the further to the right the image appears on the TV screen. From this relationship, the coordinate values (I, J
), the spatial position @(y,z) corresponding to that point is determined. Furthermore, since the projector 2 is fixed relative to the TV camera 1, the X coordinate can be determined from the Y coordinate by using the inclination of the pattern. Therefore, from the coordinates (I, J) in the TV screen of the pattern to the spatial position (xt y
Iz) can be obtained. Using the above principles,
The spatial position of any point on the pattern from the left and right projectors 2, 2 can be determined. The procedure for recognizing each face of a rectangular parallelepiped will be described in detail below.

第3図は左右のプロジェクタ2,2によるパターンを物
体9に投射したときの物体9上のパターンを表わす図で
あり、各面の境界でパターンは折れ曲がる。第4図はそ
のパターンをTV画面上に撮したものであり、R1* 
Rat R3は右プロジェクタパターンの折れ曲がり点
v Llt L2e L3は左プロジェクタパターンの
折れ曲がり点である。
FIG. 3 is a diagram showing a pattern on the object 9 when a pattern is projected onto the object 9 by the left and right projectors 2, 2, and the pattern is bent at the boundary between each surface. Figure 4 shows the pattern taken on the TV screen, R1*
Rat R3 is the bending point of the right projector pattern v Llt L2e L3 is the bending point of the left projector pattern.

これ等の折れ曲がり点を凹凸検出装置7を用いて検出す
る手順を第5図に示す、第5図において。
In FIG. 5, a procedure for detecting these bending points using the unevenness detection device 7 is shown.

ブロック11はTVカメラで撮影したパターン、ブロッ
ク12はプロジェクタを消したときの、物体だけを撮影
した画面である。この2つの画面の差。
Block 11 is a pattern photographed with a TV camera, and block 12 is a screen photographing only the object when the projector is turned off. The difference between these two screens.

即ち各画素の明度をひとつひとつ引き算すると、ブロッ
ク13に示すように凹凸ができたパターンのみが抽出さ
れる。そこで、ブロック14に示すように、抽出したパ
ターンに直線をあてはめ、同一直線上からはずれたとこ
ろを折れ曲がり点として抽出する。このようにして、R
,、R2,R3,L、。
That is, when the brightness of each pixel is subtracted one by one, only the uneven pattern shown in block 13 is extracted. Therefore, as shown in block 14, a straight line is applied to the extracted pattern, and points that deviate from the same straight line are extracted as bending points. In this way, R
,,R2,R3,L,.

L2+L3の画面座標(I、J)と空間座標(x+y+
z)とを前述の測定原理から求める。
L2+L3 screen coordinates (I, J) and spatial coordinates (x+y+
z) is determined from the measurement principle described above.

次に、基準面SIを抽出し、その頂点PI+P2+P3
+P4の空間位置を計算する。この計算手順を第6図に
示す。第6図において、ブロック21では、左右のパタ
ーンが交わって存在する線分、RIR2とり、L2を検
出する。線分R,R2とり、 Lzは明らかに同一平面
上にあるので、その面を抽出するために、′I3淡画像
画像処理いる。TVカメラで撮影した画像は、通常25
6 X 256の画素に分解され。
Next, extract the reference plane SI and its vertices PI+P2+P3
+Calculate the spatial position of P4. This calculation procedure is shown in FIG. In FIG. 6, a block 21 detects a line segment RIR2 and L2 where the left and right patterns intersect. Line segments R, R2, and Lz are clearly on the same plane, so in order to extract that plane, 'I3 light image image processing is performed. Images taken with a TV camera are usually 25
Divided into 6 x 256 pixels.

各画素にはOから255までの階段で明度が付与されて
いる。濃淡画像処理では、この明度が大きく変化すると
ころを領域の境界として抽出する。ブロック21に示す
ように、線分R,R2及びり、 LZ上の画素の何点か
の明度をサンプリングし、ブロック22で平均値f、と
標準偏差σを計算する。同一平面上では各画素の明るさ
fはほぼ一定であると期待できるので、面抽出オペレー
タとして、If  fol<α・σ    (1)を用
いればよい。ここでαはパラメータで、1のオーダーで
ある。式(1)を満たす領域を抽出し。
Brightness is assigned to each pixel in steps from 0 to 255. In grayscale image processing, areas where the brightness changes significantly are extracted as boundaries of regions. As shown in block 21, the brightness of some pixels on the line segments R, R2, and LZ is sampled, and in block 22, the average value f and standard deviation σ are calculated. Since the brightness f of each pixel can be expected to be approximately constant on the same plane, If fol<α·σ (1) may be used as the plane extraction operator. Here, α is a parameter and is on the order of 1. Extract the area that satisfies equation (1).

輪郭を点列で表わすとブロック23のようになる。If the contour is represented by a series of points, it will look like block 23.

ここで、ブロック24で抽出した面の点列数や面積を計
算してチェックし、容認できる値ならばブロック25へ
処理を移す。例えば点列数が3とか、面積が1画素とか
toooo画素とか容認できない値の場合には、ブロッ
ク26でパラメータαを少し変えてα±Δα(Δα(α
)とし、ブロック23の抽出をくり返す。ブロック25
では、抽出した頂点列から4本の直線を抽出し、それら
の交点P I t P 2 + P 3 +P4を求め
る。最後に、頂点Pl、PZ+ P3+ R4の空間位
置を計算する。PI + P2+ P3+ R4の画面
座e3(I、J)は既知であるので、画面座標(I、J
)と空間位置(Xy ywZ)との関係を表わす式が求
まればよいことになる。ところで、パターン上の点R1
+ Rat Ll t L2においては、画面座標と空
間位置が雨方共既知であるから、線形関係 x=axI+b、、J+cx      (2)y=a
yI十byJ+cy     (3)z =azI +
 bzJ + Cz      (4)を仮定すると、
4点RI、R21LI+ L2の(I。
Here, the number of point sequences and area of the surface extracted in block 24 are calculated and checked, and if the values are acceptable, the process moves to block 25. For example, if the number of point sequences is 3, or the area is 1 pixel or too many pixels, or other unacceptable values, the parameter α is slightly changed in block 26 so that α±Δα(Δα(α
) and repeat the extraction in block 23. block 25
Now, four straight lines are extracted from the extracted vertex sequence, and their intersection points P I t P 2 + P 3 + P4 are determined. Finally, the spatial positions of vertices Pl, PZ+P3+R4 are calculated. Since the screen location e3 (I, J) of PI + P2 + P3 + R4 is known, the screen coordinates (I, J
) and the spatial position (Xy ywZ). By the way, point R1 on the pattern
+ In Rat Ll t L2, since the screen coordinates and the spatial position are both known, the linear relationship x=axI+b,, J+cx (2) y=a
yI ten by J + cy (3)z = azI +
Assuming bzJ + Cz (4),
4 points RI, R21LI+ L2 (I.

J)と(x+ y+ z)の関係から、係数axl a
y+* aZ+ 1)Xy bY+ bZ+ cxl 
C>’y czを求めることができる。従って、頂点P
I+ P2+ Pay R4の空間座標を、これらの係
数を用いて計算することができる。
From the relationship between J) and (x+y+z), the coefficient axl a
y+* aZ+ 1)Xy bY+ bZ+ cxl
C>'y cz can be found. Therefore, the vertex P
The spatial coordinates of I+ P2+ Pay R4 can be calculated using these coefficients.

次に、基準面SIの隣接面S2の抽出を考える。Next, consider extraction of the adjacent surface S2 to the reference surface SI.

第7図のブロック31に示すように、S、上のパターン
線分R,R2の隣接線分R2R3上の画素の明度をサン
プリングし、第6図の処理と同様の処理を用いて、ブロ
ック32で而S2の輪郭を抽出し、頂点Ps+ P6+
 P7+ R8の画面座標を計算する。
As shown in block 31 of FIG. 7, the brightness of the pixels on the adjacent line segment R2R3 of pattern line segment R on S, R2 is sampled, and using the same process as that in FIG. 6, block 32 Extract the contour of S2 and select the vertex Ps+ P6+
Calculate the screen coordinates of P7+R8.

次にブロック33で、基準面S1の頂点PI+PZtP
3+P4と同一の頂点があるかどうか調べ、同一の点が
あれば頂点の番号を入れ替える。ブロック34はその結
果を示したものであるが、R3とP 8 tP2とR7
が同一頂点と同定されている。最後に、頂点P5+P6
の空間位置を求めるのであるが、4点R2+ R3+ 
Pay R3の画面座標と空間座標がわかっているので
、面S2に関する式(2)〜(4)を用いて係数を決定
することができる。従って、R5゜R6の画面座標から
空間位置を計算することができる。5ltS2の2つの
面の各頂点の空間位置がわかったので、直方体の場合に
は、面関係から残りの面の頂点座標を求めることができ
る。
Next, in block 33, the apex PI+PZtP of the reference plane S1
Check whether there is a vertex that is the same as 3+P4, and if there is a vertex that is the same as 3+P4, change the vertex numbers. Block 34 shows the result, R3 and P 8 tP2 and R7
are identified as the same vertex. Finally, apex P5+P6
We want to find the spatial position of 4 points R2+ R3+
Since the screen coordinates and spatial coordinates of Pay R3 are known, the coefficients can be determined using equations (2) to (4) regarding surface S2. Therefore, the spatial position can be calculated from the screen coordinates of R5°R6. Since the spatial positions of the vertices of the two faces of 5ltS2 are known, in the case of a rectangular parallelepiped, the coordinates of the vertices of the remaining faces can be found from the face relationships.

以下1面関係処理装置8内で行なわれる処理について詳
述する6第8図に示すように、ブロック41でコンソー
ル4から直方体であるという指示が面関係処理装置8へ
送られる。ブロック42の面関係処理装置には、立方体
、直方体1円柱、円錐などの形状別に面関係が記憶され
ている。直方体が選択されると、ブロック43に格納さ
れている直方体の面関係が参照される。ブロック43に
は直方体の性質として、頂点数が8個9面数が6個、各
頂点から直交する3本の直線が出る等の情報が六つてい
る。一方、ブロック44では、前述のように画像処理装
置3内で求めた頂点P1〜P6の空間位置が、面関係処
理装置8に入力される。そこで、まず、頂点数が8個あ
るかどうかチェックされる。
The processing carried out in the one-plane relationship processing device 8 will be described in detail below.6 As shown in FIG. The surface relationship processing device of block 42 stores surface relationships for each shape, such as a cube, a rectangular parallelepiped, a cylinder, and a cone. When a rectangular parallelepiped is selected, the surface relationship of the rectangular parallelepiped stored in block 43 is referred to. The block 43 contains six pieces of information regarding the properties of the rectangular parallelepiped, such as the number of vertices being eight, the number of nine faces being six, and three orthogonal straight lines coming from each vertex. On the other hand, in block 44, the spatial positions of the vertices P1 to P6 found within the image processing device 3 as described above are input to the surface relationship processing device 8. Therefore, first, it is checked whether the number of vertices is 8.

頂点数が6個しかないので、残りの2個の頂点が計算さ
れるが、その手順は、6個の頂点のうちで。
Since there are only 6 vertices, the remaining 2 vertices are calculated, but the procedure is based on the 6 vertices.

線分が2本しか出ていない頂点を見つけ、その2本のど
ちらにも直交するように直線を引く、それらの直線の交
点を求めると、残りの頂点P7+P8が求まる。以上の
処理はブロック45で行なわれるが、そのフローを第9
図に示す。
Find a vertex with only two line segments, draw a straight line perpendicular to both of them, and find the intersection of these straight lines to find the remaining vertices P7+P8. The above processing is performed in block 45, but the flow is repeated in block 45.
As shown in the figure.

以上のようにして、直方体の8個の頂点の空間座標が求
まると、その情報は画像処理装置3(第1図)へ送られ
、直方体を平面図、正面図、側面図としてディスプレイ
5に表示する。第10図にその表示方式について詳述す
る。ブロック51で、頂点PI+ P2+ P3+ P
4から作られる面5l−P2+P3 r P5 + P
 6から作られる面S2、P I * P 2 t P
 6 rP7から作られる面S3の各法線ベクトルnl
+n2+n3を求める。ブロック52で、Sl上の頂点
P I +P2+ P3+ P4の空間位置を、n1方
向から見た位置に変換する。こうすれば、面S、は平面
画像とみなせるから、ディスプレイ5上に表示し、平面
図とすることができる。同様にして、ブロック53では
面S2をn2方向から見た図形に変換し正面図とし、ブ
ロック54では面S3をn3方向から見た図形に変換し
側面図とする。最後にブロック55でディスプレイ5上
に各面を表示すればよいが、その際には空間位置のスケ
ールと画面座標のスケールを適当に合わせて、都合の良
い大きさに表示する。
When the spatial coordinates of the eight vertices of the rectangular parallelepiped are determined in the above manner, the information is sent to the image processing device 3 (Fig. 1), and the rectangular parallelepiped is displayed on the display 5 as a plan view, front view, and side view. do. The display method will be explained in detail in FIG. In block 51, vertex PI+ P2+ P3+ P
Surface made from 4 5l-P2+P3 r P5 + P
Surface S2 made from 6, P I * P 2 t P
6 Each normal vector nl of surface S3 created from rP7
Find +n2+n3. In block 52, the spatial position of the vertex P I +P2+P3+P4 on Sl is transformed to the position seen from the n1 direction. In this way, since the surface S can be regarded as a planar image, it can be displayed on the display 5 as a plan view. Similarly, in block 53, the surface S2 is converted into a figure viewed from the n2 direction to form a front view, and in block 54, the surface S3 is converted to a figure viewed from the n3 direction to form a side view. Finally, in block 55, each surface may be displayed on the display 5. At this time, the scale of the spatial position and the scale of the screen coordinates are suitably adjusted to display the screen in a convenient size.

以上述べたように、本実施例によると、左右のパターン
を切り出して面関係を利用することにより、2面のみを
抽出すれば直方体を認識できる。
As described above, according to this embodiment, a rectangular parallelepiped can be recognized by extracting only two surfaces by cutting out the left and right patterns and utilizing the surface relationship.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、面関係情報を利用することによって立
体形状が認識できるので、以下の効果がある。
According to the present invention, a three-dimensional shape can be recognized by using surface relationship information, resulting in the following effects.

(1)立体の全ての面の形状を認識する必要がなく、高
速に立体認識ができるので、生産ライン等でのリアルタ
イムでの認識が可能となる。
(1) Since it is not necessary to recognize the shape of all surfaces of a solid, and three-dimensional recognition can be performed at high speed, real-time recognition on a production line or the like is possible.

(2)面関係情報を新しく付は加えることにより。(2) By adding new face-related information.

色々な立体形状認識が可能となるので、汎用性に富む。It is highly versatile as it can recognize various three-dimensional shapes.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例に係る三次元物体認識装置の
全体構成図、第2図は空間位置測定原理図、第3図は物
体上に投射したパターンの概念図、第4図は第3図に示
したパターンのTV画面図、第5図はパターン凹凸処理
のフローチャート、第6図は基準面抽出方法を示すフロ
ーチャート、第7図は基阜面隣接面抽出方法を示すフロ
ーチャート、第8図は面関係処理方法を示すフローチャ
ート、第9図は第8図に示したブロック45の詳細フロ
ーチャート、第1O図は物体認識結果表示手順を示すフ
ローチャートである。 1・・・TV左カメラ2・・・スリット光プロジェクタ
、3・・・画像処理装置、4・・・コンソール、5・・
・ディスプレイ、6・・・モニタ、7・・・凹凸検出装
置、8・・・面関係処理装置、9・・・物体。 代理人弁理士  秋  本  正  実第1図 第2図 第3図 第4図 第5図 第6図 第7図 第8区 第9図 第10図
Figure 1 is an overall configuration diagram of a three-dimensional object recognition device according to an embodiment of the present invention, Figure 2 is a diagram of the principle of spatial position measurement, Figure 3 is a conceptual diagram of a pattern projected onto an object, and Figure 4 is a diagram of the principle of spatial position measurement. FIG. 3 is a TV screen diagram of the pattern shown in FIG. 5, FIG. 5 is a flowchart of pattern unevenness processing, FIG. FIG. 8 is a flowchart showing a surface relationship processing method, FIG. 9 is a detailed flowchart of block 45 shown in FIG. 8, and FIG. 1O is a flowchart showing a procedure for displaying object recognition results. 1...TV left camera 2...Slit light projector, 3...Image processing device, 4...Console, 5...
-Display, 6...Monitor, 7...Irregularity detection device, 8...Surface relationship processing device, 9...Object. Representative Patent Attorney Tadashi Akimoto Fig. 1 Fig. 2 Fig. 3 Fig. 4 Fig. 5 Fig. 6 Fig. 7 Fig. 8 Section 9 Fig. 10

Claims (1)

【特許請求の範囲】[Claims] 1、TVカメラ等の平面画像入力装置と、その平面画像
を処理する画像処理装置と、スリット光等の直線的なパ
ターンを投影するプロジェクタを用いて空間的な位置を
検出する空間位置測定装置を備える物体認識装置におい
て、物体に投射したパターンの凹凸関係から物体面上に
あたった部分を抽出する凹凸検出装置と、物体の隣接面
の関係を与える面関係処理装置とを設け、物体の全ての
面を直接抽出することなくその立体形状を認識すること
を特徴とする三次元物体認識装置。
1. A spatial position measuring device that detects a spatial position using a planar image input device such as a TV camera, an image processing device that processes the planar image, and a projector that projects a linear pattern such as slit light. The object recognition device includes an unevenness detection device that extracts a portion that hits the object surface from the unevenness relationship of a pattern projected on the object, and a surface relationship processing device that provides the relationship between adjacent surfaces of the object. A three-dimensional object recognition device that recognizes the three-dimensional shape of objects without directly extracting their surfaces.
JP61205053A 1986-09-02 1986-09-02 Three-dimensional object recognition method and apparatus Expired - Lifetime JPH076779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61205053A JPH076779B2 (en) 1986-09-02 1986-09-02 Three-dimensional object recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61205053A JPH076779B2 (en) 1986-09-02 1986-09-02 Three-dimensional object recognition method and apparatus

Publications (2)

Publication Number Publication Date
JPS6361108A true JPS6361108A (en) 1988-03-17
JPH076779B2 JPH076779B2 (en) 1995-01-30

Family

ID=16500663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61205053A Expired - Lifetime JPH076779B2 (en) 1986-09-02 1986-09-02 Three-dimensional object recognition method and apparatus

Country Status (1)

Country Link
JP (1) JPH076779B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993013383A1 (en) * 1991-12-26 1993-07-08 Fanuc Ltd Method and apparatus for measuring three-dimensional position and posture of object
CN109324323A (en) * 2018-09-30 2019-02-12 深圳创维-Rgb电子有限公司 Localization method, device and the computer readable storage medium of target point
JP2020531848A (en) * 2017-08-28 2020-11-05 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Range finder for determining at least one piece of geometric information
CN114909992A (en) * 2022-04-09 2022-08-16 国营芜湖机械厂 Optimized measurement method for aviation nonstandard guide pipe

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993013383A1 (en) * 1991-12-26 1993-07-08 Fanuc Ltd Method and apparatus for measuring three-dimensional position and posture of object
US5461478A (en) * 1991-12-26 1995-10-24 Fanuc Ltd. Method and apparatus for measuring three-dimensional position and orientation of an object using light projection
JP2020531848A (en) * 2017-08-28 2020-11-05 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング Range finder for determining at least one piece of geometric information
CN109324323A (en) * 2018-09-30 2019-02-12 深圳创维-Rgb电子有限公司 Localization method, device and the computer readable storage medium of target point
CN114909992A (en) * 2022-04-09 2022-08-16 国营芜湖机械厂 Optimized measurement method for aviation nonstandard guide pipe
CN114909992B (en) * 2022-04-09 2023-05-12 国营芜湖机械厂 Aviation nonstandard catheter optimization measurement method

Also Published As

Publication number Publication date
JPH076779B2 (en) 1995-01-30

Similar Documents

Publication Publication Date Title
US7342669B2 (en) Three-dimensional shape measuring method and its device
EP2568253B1 (en) Structured-light measuring method and system
US6195455B1 (en) Imaging device orientation information through analysis of test images
CN106989695A (en) A kind of projector calibrating method
US7015951B1 (en) Picture generating apparatus and picture generating method
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
CN106595519A (en) Flexible 3D contour measurement method and device based on laser MEMS projection
KR101589167B1 (en) System and Method for Correcting Perspective Distortion Image Using Depth Information
CN106767526A (en) A kind of colored multi-thread 3-d laser measurement method based on the projection of laser MEMS galvanometers
KR950001578B1 (en) Method and apparatus for 3-dimensional stereo vision
JP2017098859A (en) Calibration device of image and calibration method
JP3696336B2 (en) How to calibrate the camera
CN115239801B (en) Object positioning method and device
JP3696335B2 (en) Method for associating each measurement point of multiple images
JPS6361108A (en) Apparatus for confirming three-dimensional object
JP2000146546A (en) Method and apparatus for forming three-dimensional model
JPS6256814A (en) Calibration system for three-dimensional position measuring camera
EP1676238B1 (en) A method for measuring dimensions by means of a digital camera
JP3373668B2 (en) Heavy equipment approach monitoring system
JP3446020B2 (en) Shape measurement method
JPH06249627A (en) Method and instrument for measuring shape by stereographic method
KR20040006595A (en) Method for surveying the characteristics of joint on rock slope using image
JPS5850417A (en) Distance measuring system
KR100395773B1 (en) Apparatus for measuring coordinate based on optical triangulation using the images
JPH0933247A (en) Image object detecting apparatus