JP4138943B2 - Plate shape recognition device - Google Patents

Plate shape recognition device Download PDF

Info

Publication number
JP4138943B2
JP4138943B2 JP15637598A JP15637598A JP4138943B2 JP 4138943 B2 JP4138943 B2 JP 4138943B2 JP 15637598 A JP15637598 A JP 15637598A JP 15637598 A JP15637598 A JP 15637598A JP 4138943 B2 JP4138943 B2 JP 4138943B2
Authority
JP
Japan
Prior art keywords
edge
plate material
round
uppermost
plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP15637598A
Other languages
Japanese (ja)
Other versions
JPH11353488A (en
Inventor
一郎 江頭
文雄 熊坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amada Co Ltd
Original Assignee
Amada Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amada Co Ltd filed Critical Amada Co Ltd
Priority to JP15637598A priority Critical patent/JP4138943B2/en
Publication of JPH11353488A publication Critical patent/JPH11353488A/en
Application granted granted Critical
Publication of JP4138943B2 publication Critical patent/JP4138943B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えばレーザ加工機に適用して、数枚重なった板材の中から最上位の板材の計時用を認識するようになった板材の形状認識装置に関するものである。
【0002】
【従来の技術】
一般に、レーザ加工機では、製品の厚みに対応する厚さの板材に対し、切り取って製品となるべき形状の被加工物をコンピュータによってネスティングし、このネスティングデータに基づいて、板材をレーザ加工している。
【0003】
そして、レーザ加工により得られた製品と、製品を分離した残材とは別々に取り扱われ、残材については、例えばパレット等に積み重ねれることが多い。
【0004】
このようなレーザ加工機によって得られる製品には、種々の大きさ、形状のものがあるため、製品を分離した残材の残余部分の大きさ、形状も様々である。
【0005】
そのため、残材の残余部分を利用することで、必要な製品を得ることができる場合があり、実際、製品の受注単価が安かったり、材料発注が間に合わない等の理由で、製品を切り取る板材として残材を使用することが行われている。
【0006】
【発明が解決しようとする課題】
しかしながら、残材を使用して製品を切り取るためには、残材に対して目的の製品をネスティングする必要があるが、従来は、パレット等に積み重ねられている残材の残余部分の大きさ、形状を、積み重ねられた状態で自動的に計測することが困難である等の問題点があった。
【0007】
この発明は上記従来のもののもつ問題点を解決して、複数枚重なった板材の中から最上位の板材について、その外形形状と、穴がある場合はその穴形状とを検出することのできる板材の形状認識装置を提出することを目的とするものである。
【0008】
【課題を解決するための手段】
この発明は上記目的を達成するため、複数枚重なった板材の中から最上位の板材の形状を認識する装置であって、前記板材を上方から撮像する撮像装置と、得られた画像情報に基づいて、最上位の板材の表面エリアを検出する最上位表面検出部と、画像情報に基づいて、各部の板材のエッジの位置を検出するエッジ検出部と、エッジが存在する領域を、最上位表面からエッジに沿ってトレースしていき、分岐箇所において常に一定の向きを選択しながらトレース開始点まで一巡するエッジトレース部と、一巡方向と、分岐箇所での選択の向きとから、一巡したエッジが最上位の板材の外形形状または穴形状であることを判定する判定部とを備えていることを特徴とするものである。
【0009】
【発明の実施の形態】
この発明の実施の形態を、実施例に基づき図面を参照して説明する。
【0010】
図1は、この発明による板材の形状認識装置の一実施例を示すブロック図であり、この形状認識装置は、複数枚重なった板材の中から最上位の板材の形状を認識するものであって、撮像装置1と、最上位表面検出部3と、エッジ検出部5と、エッジトレース部7と、判定部9と、これらを制御する制御部11とを備えている。
【0011】
撮像装置1は、複数枚重なった板材を上方から撮像するものであり、例えば、CCDカメラを利用したラインセンサ、エリアセンサ等の装置を使って構成されるものである。
【0012】
このような撮像は、複数枚重なった板材全体を画像情報として入力するため、例えばパレットに載せられた板材の上方において、所要の撮像領域を走査することで行うようになっている。そして、撮像された画像情報は、空間的にサンプリングされて、画素ごとの明暗を表す輝度信号としてメモリ座標上に配されるようになっている。
【0013】
図示してないが、この画像情報は、その後の画像処理に適するように、必要に応じて、濃度補正や画質改善等の前処理が行われる。
【0014】
最上位表面検出部3は、撮像装置1で得られた画像情報に基づいて、最上位の板材の表面エリアを検出するものであり、このような最上位表面の検出は、撮像装置1で得られる画像において、最上位の板材の表面が、それ以外の部分に比べて明るいという事実を利用するものである。
【0015】
そのため、撮像装置1で得られた画像情報に、明暗に関する所定のしきい値を適用することで、最上位の板材の表面エリアを、それ以外の部分と区別して検出することができる。それ以外の部分には、上から2枚目の板材の表面が一部露出している部分や、3枚目以下の板材の表面が一部露出している部分が含まれるが、それらの明るさを相互に区別する必要はない。
【0016】
エッジ検出部5は、撮像装置1で得られた画像情報に基づいて、各部の板材のエッジの位置を検出するものであり、このようなエッジの検出は、エッジは明暗変化が激しいところに存在するという事実を利用するものである。
【0017】
そのため、エッジ検出部5は、高域通過フィルタを用いた適宜のエッジ強調フィルタを備えていて、エッジ強調フィルタとしては、Sobelフィルタ、ラプシアンフィルタ等を使用することができる。そして、エッジ強調フィルタを使用することにより、エッジ検出部5は、最上位の板材の表面エリアの周縁に位置するエッジだけでなく、上から2枚目の板材の露出部分のエッジや、3枚目以下の板材の露出部分のエッジについても検出することができる。
【0018】
このように、最上位表面検出部3は、最上位の板材の表面エリアを、上から2枚目、3枚目、それ以下の板材の露出している表面部分や、板材が覆っていないパレット表面と区別して検出する一方、エッジ検出装置5は、最上位の板材のエッジだけでなく、上から2枚目、3枚目、それ以下の板材のエッジについても、それらを同様のエッジとして検出するようになっている。
【0019】
そして、最上位の板材のエッジだけを検出するため、エッジ検出部5は、各部の板材のエッジの位置を検出するエッジ検出部15とは別に、最上位表面検出部3で得られた最上位の板材の表面エリアのデータと、エッジ検出部5で得られたエッジの位置データとから、最上位の板材のエッジだけを検出するようになった最上位エッジ検出部17を備えている。
【0020】
エッジトレース部7は、エッジが存在する領域を、最上位表面からエッジに沿ってトレースしていき、分岐箇所において常に一定の向きを選択しながらトレース開始点まで一巡するものであり、適宜の空間フィルタを使ってエッジ領域をトレースするようになっている。
【0021】
図2は、x(i,j)の空間フィルタ出力計算に用いられる周辺画素配置を示し、C(in,jn)は中心画素、A1(in-1,jn)〜 A8(in-1,jn-1)は 中心Cのまわりに時計方向に配された画素である。これらは、文字通り画素そのものであってもよいが、エッジの幅が画素に比べて大きく、そのため3行3列の画素ではエッジとその両側近傍を示すことができない場合は、エッジの幅に適合するように、m行m列の画素からなる画素集合体を用いてそれを3行3列に構成することができる。この明細書では、このような画素集合体も、画素と称することとする。
【0022】
図2に示されるような画素配置の空間フィルタを使ってエッジ領域をトレースする際、エッジがA1(in-1,jn)〜A8(in-1,jn-1)のどこから入り、中心C(in,jn)を通って、A1(in-1,jn)〜A8(in-1,jn-1)のどこから出ていくかを調べて表にしたものが図3である。
【0023】
図3において、B(B1〜B8)は、A1〜A8から入るものを示す。例えば、A2から入るもの(A2→C)をB2とすると、
2=C−A2
={(in−in-1),(jn−jn+1)}
ここで、in→i,jn→jとおくと、
2=[{i−(i−1)},{j−(j+1)}]
=(1,−1)
となる。
【0024】
一方、図3において、F(F1〜F8)は、A1〜A8から出ていくものを示す。例えば、A6から出ていくもの(C→A6)をF6とすると、
6=A6−C
={(in+1−in),(jn-1−jn)}
ここで、in→i,jn→jとおくと、
6=[{(i+1)−i},{(j−1)−j}]
=(1,−1)
となる。
【0025】
図3はB+Fの値D(i,j)を示す。例えば、A2から入ってA6から出ていく(A2→C→A6)場合、その部分のエッジは直線状に延びる。このとき、
26=B2(1,−1)+F6(1,−1)
=(2,−2)
である。
【0026】
また、A5から出ていく(A2→C→A5)場合、エッジはその部分で左に45 °(L2/1 〓R)曲がり、A4から出ていく(A2→C→A4)場合、エッジはそ の部分で左に90°(L〓R)曲がり、A3から出ていく(A2→C→A3)場合 、エッジはその部分で左に135°(L3/2 〓R)曲がる。
【0027】
一方、A7から出ていく(A2→C→A7)場合、エッジはその部分で右に45 °(R2/1 〓R)曲がり、A8から出ていく(A2→C→A8)場合、エッジはそ の部分で右に90°(R〓R)曲がり、A1から出ていく(A2→C→A1)場合 、エッジはその部分で右に135°(R3/2 〓R)曲がる。
【0028】
B(B1〜B8)+F(F1〜F8)のすべての組み合わせについてのD値を図3に示す。
【0029】
また、図3のD値を、エッジの曲がり方向に基づいて並べ替えたものを図4に示す。図4において、B(i,j)をBi,Bjとすると、Bi,Bjのいずれか0である場合と、いずれも0でない場合とに分けられ、詳細には次のようになる。
【0030】
▲1▼Bj=0(B1,B5)のとき、
(Biの符号)=(Djの符号)であれば→L
(Biの符号)≠(Djの符号)であれば→R
▲2▼Bj=0(B3,B7)のとき、
(Bjの符号)≠(Diの符号)であれば→L
(Bjの符号)=(Diの符号)であれば→R
▲3▼Bi*Bj<0(B2,B6)のとき、
|Di|>|Dj|であれば→L
|Di|<|Dj|であれば→R
▲4▼Bi*Bj>0(B4,B8)のとき、
|Di|<|Dj|であれば→L
|Di|>|Dj|であれば→R
したがって、エッジトレース装置は、Bi,BjとDi,Djとの組み合わせから、エッジの曲がり方向および曲がり角度を検出しながらトレースすることができ、そのため、分岐箇所において常に一定の向きを選択しながらトレースしていくことができるものである。そして、トレース開始点まで一巡した際、そのトレース中の左曲がり量の総計と、右曲がり量の総計とから、大きい方を一巡方向として検出するようになっている。
【0031】
以上をまとめると、エッジトレース部7は、図1に示すように、B(B1〜B8)を検出する前方検出手段21と、F(F1〜F8)を検出する後方検出手段23と、D(B+F)からエッジの曲がりを検出する曲がり検出手段25と、B,Dからエッジの方向を検出する方向検出手段27と、分岐箇所において選択する向きがあらかじめ一定の向きに決められるようになった分岐選択手段29と、トレース一巡中の左曲がり量の総計LTと、右曲がり量の総計RTとから、一巡方向を検出する一巡方向検出手段31とを備えている。
【0032】
判定部9は、エッジトレース部7の一巡方向検出部31で得られた一巡方向と、分岐選択手段29で得られた分岐箇所での選択の向きとから、一巡したエッジが最上位の板材の外形形状であるか、または穴形状であることを判定するものである。
【0033】
図5に示すように、一巡方向と、分岐箇所での選択の向きとが同じであるとき、判定部9は、一巡したエッジが最上位の板材の外形形状であることを判定するようになっている。
【0034】
一方、図6に示すように、一巡方向と、分岐箇所での選択の向きとが反対であるとき、判定部9は、一巡したエッジが最上位の板材の穴形状であることを判定するようになっている。
【0035】
次に、この実施例の作用について、図7に示すフローチャートを用いて説明する。
【0036】
図7に示すように、まず、複数枚重なった板材を対象物として、撮像装置1でこの対象物を上方から撮像する(ステップST1)。そして、撮像された画像情報は、空間的にサンプリングされて、画素ごとの明暗を表す輝度信号としてメモリ座標上に配される。
【0037】
次に、撮像装置1で得られた画像情報に基づいて、最上位表面検出装置3が、最上位の板材の表面エリアを検出する(ステップST2)。そのため、最上位の板材の表面エリアは、上から2枚目、3枚目、それ以下の板材の露出している表面部分や、板材が覆っていないパレット表面と区別して検出される。
【0038】
一方、撮像装置1で得られた画像情報に基づいて、エッジ検出装置5のエッジ検出部15が、各部の板材のエッジの位置を検出する(ステップST3)。そのため、最上位の板材のエッジだけでなく、上から2枚目、3枚目、それ以下の板材のエッジについても、それらは同様のエッジとして検出される。
【0039】
そして、エッジ検出装置5の最上位エッジ検出手段17が、最上位表面検出部3で得られた最上位の板材の表面エリアのデータと、エッジ検出手段15で得られたエッジの位置データとから、最上位の板材のエッジだけを検出する(ステップST4)。
【0040】
そのうえで、エッジトレース装置7が、最上位の板材のエッジ(最上位エッジ)上の任意の点から、エッジに沿ってトレースを開始する(ステップST5)。
【0041】
トレースの途中で、分岐箇所があると(ステップST6)、あらかじめ決められた一定の向きを選択する(ステップST7)。そして、トレース開始点まで一巡する(ステップST8)まで、同様のステップ(ステップST6,7,8,9)を繰り返してトレースを続ける。
【0042】
一巡後、判定部9が、一巡方向と、分岐箇所での選択の向きとから(ステップST10)、同一の場合は、一巡したエッジが最上位の板材の外形形状であることを判定し(ステップST11)、反対の場合は、一巡したエッジが最上位の板材の穴形状であることを判定する(ステップST12)。
【0043】
その後、他にも最上位エッジがある場合は(ステップST13)、同様のステップ(ステップST5〜12)を繰り返し、最上位エッジが無くなったら終了する。
【0044】
以上のように、複数枚重なった板材の中から最上位の板材について、その外形形状と、穴がある場合はその穴形状とを自動的に検出することができる他、この発明による板材の形状認識装置は、次に挙げるような種々の利点がある。
【0045】
一般に、加工機械でワークから製品を加工して取り出す場合において、加工機械で取り扱う対象物としては、加工前のワーク、加工された製品、製品を除去した残材、残材の残余部分から加工される2次製品がある。
【0046】
ワークが板材の場合、加工前のワークは一般に待機位置に複数枚重ねられている。このような重ねられた板材の中から最上位のものを、適宜の装置で吸い上げて加工領域に搬入するためには、最上位のワークの重心を求める必要がある。この発明による板材の形状認識装置は、このような用途に適用することができる。
【0047】
また、加工された製品は、板材の場合、例えばパレットに複数枚重ねられて次工程に送られる。そのため、次工程において、ワークの場合と同様に重心を求める必要がある。また、このような製品が何種類かあるとき、目的の製品を見つけるためには、その外形が目的の製品形状と一致しているか否かを確認する必要がある。この発明による板材の形状認識装置は、このような用途に適用することができる。
【0048】
また、製品を除去した残材には、製品抜き取り穴が形成されているが、この穴形状と目的の製品形状とを比較することで、目的の製品が加工されたか否かを確認することができる。この発明による板材の形状認識装置は、このような用途に適用することができる。
【0049】
【発明の効果】
この発明は上記のように構成したので、複数枚重なった板材の中から最上位の板材について、その外形形状と、穴がある場合はその穴形状とを検出することができ、そのため、例えばレーザ加工機に適用して、パレット等に積み重ねられている残材の残余部分の大きさ、形状を、積み重ねられた状態で自動的に計測することができ、その結果、残材に対して目的の製品を容易にネスティングして、残材から目的の製品を切り取ることができる等の効果がある。
【図面の簡単な説明】
【図1】板材の形状認識装置の一実施例を示すブロック図である。
【図2】x(i,j)の空間フィルタ出力計算に用いられる周辺画素配置を示す図である。
【図3】前方検出B、後方検出F、曲がり検出Dの関係を示す図である。
【図4】D値を、エッジの曲がり方向に基づいて並べ替えたものを示す図である。
【図5】最上位の板材の外形形状を一巡する説明図である。
【図6】最上位の板材の穴形状を一巡する説明図である。
【図7】制御装置の動作を示すフローチャートである。
【符号の説明】
1…撮像装置
3…最上位表面検出部
5…エッジ検出部
7…エッジトレース部
9…判定部
11…制御部
15…エッジ検出手段
17…最上位エッジ検出手段
21…前方検出手段
23…後方検出手段
25…曲がり検出手段
27…方向検出手段
29…分岐選択手段
31…一巡方向検出手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a plate shape recognition device that is applied to, for example, a laser processing machine and recognizes the time measurement of the uppermost plate material from among several stacked plate materials.
[0002]
[Prior art]
In general, a laser processing machine uses a computer to nest a workpiece having a shape corresponding to the thickness of a product, and cuts the plate material by laser processing based on this nesting data. Yes.
[0003]
The product obtained by laser processing and the remaining material from which the product is separated are handled separately, and the remaining material is often stacked on a pallet or the like, for example.
[0004]
Since products obtained by such a laser processing machine have various sizes and shapes, the size and shape of the remaining portion of the remaining material from which the product is separated are also various.
[0005]
Therefore, there are cases where the necessary product can be obtained by using the remaining part of the remaining material. In fact, as a plate material that cuts out the product because the unit price of the product is low or the material order is not in time. The remaining material is used.
[0006]
[Problems to be solved by the invention]
However, in order to cut the product using the remaining material, it is necessary to nest the target product with respect to the remaining material, but conventionally, the size of the remaining portion of the remaining material stacked on a pallet or the like, There is a problem that it is difficult to automatically measure the shape in a stacked state.
[0007]
This invention solves the problems of the above-mentioned conventional ones, and can detect the outer shape of the uppermost plate material from a plurality of stacked plate materials and the hole shape when there is a hole. The purpose is to submit the shape recognition device.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is an apparatus for recognizing the shape of the uppermost plate member from among a plurality of stacked plate members, and is based on an image pickup device that picks up the plate member from above and obtained image information. The uppermost surface detection unit that detects the surface area of the uppermost plate material, the edge detection unit that detects the position of the edge of the plate material of each part based on the image information, and the region where the edge exists From the edge trace part that makes a round to the trace start point while always selecting a certain direction at the branch point, the round direction, and the selection direction at the branch point, And a determination unit for determining whether the uppermost plate has an outer shape or a hole shape.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described based on examples with reference to the drawings.
[0010]
FIG. 1 is a block diagram showing an embodiment of a plate shape recognition device according to the present invention. This shape recognition device recognizes the shape of the uppermost plate material from a plurality of stacked plate materials. The imaging device 1, the uppermost surface detection unit 3, the edge detection unit 5, the edge trace unit 7, the determination unit 9, and the control unit 11 that controls them are provided.
[0011]
The imaging device 1 captures a plurality of overlapping plate materials from above, and is configured using, for example, a device such as a line sensor or an area sensor using a CCD camera.
[0012]
Such imaging is performed by scanning a required imaging region, for example, above a plate placed on a pallet in order to input a plurality of overlapped plates as image information. The captured image information is spatially sampled and arranged on the memory coordinates as a luminance signal representing the brightness of each pixel.
[0013]
Although not shown, this image information is subjected to preprocessing such as density correction and image quality improvement as necessary so as to be suitable for subsequent image processing.
[0014]
The uppermost surface detection unit 3 detects the surface area of the uppermost plate material based on the image information obtained by the imaging device 1. Such detection of the uppermost surface is obtained by the imaging device 1. In the obtained image, the fact that the surface of the uppermost plate is brighter than the other portions is used.
[0015]
Therefore, by applying a predetermined threshold value relating to light and darkness to the image information obtained by the imaging device 1, the surface area of the uppermost plate material can be detected separately from the other portions. The other parts include a part where the surface of the second sheet from the top is partially exposed and a part where the surface of the third sheet or less is partially exposed. There is no need to distinguish between them.
[0016]
The edge detection unit 5 detects the position of the edge of the plate material of each part based on the image information obtained by the imaging device 1, and the detection of such an edge exists where the edge changes drastically. It uses the fact that it does.
[0017]
Therefore, the edge detection unit 5 includes an appropriate edge enhancement filter using a high-pass filter, and a Sobel filter, a Laptian filter, or the like can be used as the edge enhancement filter. Then, by using the edge enhancement filter, the edge detection unit 5 can detect not only the edge located at the periphery of the surface area of the uppermost plate material, but also the edge of the exposed portion of the second plate material from the top, The edge of the exposed portion of the plate material below the eye can also be detected.
[0018]
As described above, the top surface detection unit 3 is configured such that the surface area of the top plate material is exposed from the top surface of the second, third, and lower plate materials, or the pallet that is not covered by the plate material. On the other hand, the edge detection device 5 detects not only the edge of the uppermost plate material but also the edges of the second, third, and lower plate materials from the top as similar edges. It is supposed to be.
[0019]
Then, in order to detect only the edge of the uppermost plate material, the edge detection unit 5 separates from the edge detection unit 15 that detects the position of the edge of the plate material of each part, and the highest level obtained by the uppermost surface detection unit 3. The uppermost edge detector 17 is configured to detect only the edge of the uppermost plate from the surface area data of the plate and the edge position data obtained by the edge detector 5.
[0020]
The edge trace unit 7 traces the region where the edge exists along the edge from the uppermost surface, and makes a round to the trace start point while always selecting a certain direction at the branch point. The edge area is traced using a filter.
[0021]
2, x (i, j) indicates a peripheral pixel arrangement used in the spatial filter output calculations, C (i n, j n ) center pixel, A 1 (i n-1 , j n) ~ A 8 (I n-1 , j n-1 ) are pixels arranged around the center C in the clockwise direction. These may literally be the pixels themselves, but the edge width is larger than the pixels, so if the pixel of 3 rows and 3 columns cannot indicate the edge and its neighborhood, it will fit the edge width. As described above, it is possible to configure a pixel aggregate composed of m rows and m columns of pixels in 3 rows and 3 columns. In this specification, such a pixel aggregate is also referred to as a pixel.
[0022]
When tracing an edge region using a spatial filter having a pixel arrangement as shown in FIG. 2, the edges are A 1 (i n−1 , j n ) to A 8 (i n−1 , j n−1 ). enter from anywhere, the center C (i n, j n) through, check the Where do go out of a 1 (i n-1, j n) ~A 8 (i n-1, j n-1) The table is shown in FIG.
[0023]
In FIG. 3, B (B 1 to B 8 ) indicates what enters from A 1 to A 8 . For example, those coming from the A 2 a (A 2 → C) and B 2,
B 2 = C−A 2
= {(I n −i n−1 ), (j n −j n + 1 )}
Here, if i n → i, j n → j,
B 2 = [{i− (i−1)}, {j− (j + 1)}]
= (1, -1)
It becomes.
[0024]
On the other hand, in FIG. 3, F (F 1 to F 8 ) indicates what goes out of A 1 to A 8 . For example, if those leaving the A 6 a (C → A 6) and F 6,
F 6 = A 6 -C
= {(I n + 1 −i n ), (j n−1 −j n )}
Here, if i n → i, j n → j,
F 6 = [{(i + 1) −i}, {(j−1) −j}]
= (1, -1)
It becomes.
[0025]
FIG. 3 shows the value D (i, j) of B + F. For example, when entering from A 2 and exiting from A 6 (A 2 → C → A 6 ), the edge of the portion extends linearly. At this time,
D 26 = B 2 (1, -1) + F 6 (1, -1)
= (2, -2)
It is.
[0026]
When exiting from A 5 (A 2 → C → A 5 ), the edge turns 45 ° (L2 / 1〓R) to the left at that portion and exits from A 4 (A 2 → C → A 4 ) If the edge turns 90 ° (L 左 R) to the left at that part and exits from A 3 (A 2 → C → A 3 ), the edge is 135 ° to the left at that part (L 3 / L 2 〓R) Turn.
[0027]
On the other hand, when exiting from A 7 (A 2 → C → A 7 ), the edge bends 45 ° (R2 / 1〓R) to the right at that portion and exits from A 8 (A 2 → C → A 8 ) When the edge turns 90 ° (R〓R) to the right at that part and exits from A 1 (A 2 → C → A 1 ), the edge turns 135 ° to the right at that part (R3 / R 2 〓R) Turn.
[0028]
FIG. 3 shows D values for all combinations of B (B 1 to B 8 ) + F (F 1 to F 8 ).
[0029]
FIG. 4 shows the D values in FIG. 3 rearranged based on the bending direction of the edge. In FIG. 4, when B (i, j) is Bi, Bj, it is divided into a case where either Bi or Bj is 0 or a case where neither is 0, and details are as follows.
[0030]
( 1 ) When Bj = 0 (B 1 , B 5 )
If (sign of Bi) = (sign of Dj) → L
If (sign of Bi) ≠ (sign of Dj) → R
(2) When Bj = 0 (B 3 , B 7 )
If (sign of Bj) ≠ (sign of Di) → L
If (sign of Bj) = (sign of Di) → R
(3) When Bi * Bj <0 (B 2 , B 6 ),
If | Di |> | Dj | → L
If | Di | <| Dj | → R
( 4 ) When Bi * Bj> 0 (B 4 , B 8 )
If | Di | <| Dj |
If | Di |> | Dj | → R
Therefore, the edge tracing device can trace while detecting the bending direction and the bending angle of the edge from the combination of Bi, Bj and Di, Dj. Therefore, the tracing is performed while always selecting a certain direction at the branch point. It can be done. Then, when one round is made to the trace start point, the larger one is detected as the round direction from the total left turn amount and the right turn amount in the trace.
[0031]
In summary, as shown in FIG. 1, the edge trace unit 7 includes a front detection unit 21 that detects B (B 1 to B 8 ) and a rear detection unit 23 that detects F (F 1 to F 8 ). The bending detection means 25 for detecting the bending of the edge from D (B + F), the direction detection means 27 for detecting the direction of the edge from B and D, and the direction to be selected at the branch point are determined to be a predetermined direction in advance. branch selection means 29 became comprises a total L T of the left curve amount being traced round, from the right bending amount of total R T, and a round direction detecting means 31 for detecting the round direction.
[0032]
The determination unit 9 determines the edge of the plate having the highest edge from the round direction obtained by the round direction detection unit 31 of the edge trace unit 7 and the direction of selection at the branch point obtained by the branch selection unit 29. It is determined whether the shape is an outer shape or a hole shape.
[0033]
As shown in FIG. 5, when the round direction and the selection direction at the branch point are the same, the determination unit 9 determines that the rounded edge is the outer shape of the uppermost plate material. ing.
[0034]
On the other hand, as shown in FIG. 6, when the round direction and the direction of selection at the branch point are opposite, the determination unit 9 determines that the rounded edge is the hole shape of the uppermost plate material. It has become.
[0035]
Next, the operation of this embodiment will be described with reference to the flowchart shown in FIG.
[0036]
As shown in FIG. 7, first, a plurality of overlapping plate members are used as objects, and the object is imaged from above by the imaging device 1 (step ST1). The captured image information is spatially sampled and arranged on the memory coordinates as a luminance signal representing the brightness of each pixel.
[0037]
Next, based on the image information obtained by the imaging device 1, the uppermost surface detection device 3 detects the surface area of the uppermost plate material (step ST2). For this reason, the surface area of the uppermost plate material is detected separately from the exposed surface portion of the second, third and lower plate materials from the top, and the pallet surface not covered by the plate material.
[0038]
On the other hand, based on the image information obtained by the imaging device 1, the edge detection unit 15 of the edge detection device 5 detects the position of the edge of the plate material of each unit (step ST3). Therefore, not only the edge of the uppermost plate material but also the edges of the second, third, and lower plate materials from the top are detected as similar edges.
[0039]
Then, the uppermost edge detection means 17 of the edge detection device 5 uses the surface area data of the uppermost plate material obtained by the uppermost surface detection unit 3 and the edge position data obtained by the edge detection means 15. Only the edge of the uppermost plate material is detected (step ST4).
[0040]
Then, the edge trace device 7 starts tracing along the edge from an arbitrary point on the edge (uppermost edge) of the uppermost plate material (step ST5).
[0041]
If there is a branching point in the middle of the trace (step ST6), a predetermined fixed direction is selected (step ST7). Then, the same steps (steps ST6, 7, 8, 9) are repeated until the trace start point is reached (step ST8) and the trace is continued.
[0042]
After one round, the determination unit 9 determines from the round direction and the direction of selection at the branch point (step ST10) that, in the same case, the rounded edge is the outer shape of the uppermost plate (step ST10). ST11) In the opposite case, it is determined that the rounded edge is the hole shape of the uppermost plate (step ST12).
[0043]
After that, if there is another uppermost edge (step ST13), the same steps (steps ST5 to ST12) are repeated, and the process ends when there is no uppermost edge.
[0044]
As described above, the outer shape of the uppermost plate material from among the stacked plate materials, and the hole shape when there is a hole can be automatically detected, and the shape of the plate material according to the present invention The recognition device has various advantages as follows.
[0045]
In general, when a product is processed and taken out from a workpiece by a processing machine, the objects handled by the processing machine are processed from the workpiece before processing, the processed product, the remaining material from which the product has been removed, and the remaining portion of the remaining material. There are secondary products.
[0046]
When the workpiece is a plate material, a plurality of workpieces before processing are generally stacked at a standby position. In order to suck up the uppermost one of the stacked plate materials with an appropriate apparatus and carry it into the machining area, it is necessary to obtain the center of gravity of the uppermost workpiece. The plate shape recognition apparatus according to the present invention can be applied to such applications.
[0047]
In the case of a plate material, the processed products are stacked on a pallet, for example, and sent to the next process. Therefore, in the next process, it is necessary to obtain the center of gravity as in the case of the workpiece. Further, when there are several types of such products, in order to find the target product, it is necessary to confirm whether or not the outer shape matches the target product shape. The plate shape recognition apparatus according to the present invention can be applied to such applications.
[0048]
In addition, a product extraction hole is formed in the remaining material from which the product has been removed. By comparing this hole shape with the target product shape, it can be confirmed whether or not the target product has been processed. it can. The plate shape recognition apparatus according to the present invention can be applied to such applications.
[0049]
【The invention's effect】
Since the present invention is configured as described above, it is possible to detect the outer shape of the uppermost plate material from a plurality of stacked plate materials, and the hole shape when there is a hole. When applied to a processing machine, the size and shape of the remaining part of the remaining material stacked on a pallet, etc. can be automatically measured in the stacked state. There is an effect that the product can be easily nested and the target product can be cut out from the remaining material.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an embodiment of a plate shape recognition apparatus.
FIG. 2 is a diagram illustrating a peripheral pixel arrangement used for calculating a spatial filter output of x (i, j).
FIG. 3 is a diagram illustrating a relationship between front detection B, rear detection F, and bending detection D;
FIG. 4 is a diagram showing D values rearranged based on edge bending directions;
FIG. 5 is an explanatory view of a round of the outer shape of the uppermost plate member.
FIG. 6 is an explanatory view of making a round of the hole shape of the uppermost plate member.
FIG. 7 is a flowchart showing the operation of the control device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Imaging device 3 ... Top surface detection part 5 ... Edge detection part 7 ... Edge trace part 9 ... Determination part 11 ... Control part 15 ... Edge detection means 17 ... Top edge detection means 21 ... Front detection means 23 ... Back detection Means 25: Bending detection means 27 ... Direction detection means 29 ... Branch selection means 31 ... Round direction detection means

Claims (3)

複数枚重なった板材の中から最上位の板材の形状を認識する装置であって、
前記板材を上方から撮像する撮像装置と、
得られた画像情報に基づいて、最上位の板材の表面エリアを検出する最上位表面検出部と、
画像情報に基づいて、各部の板材のエッジの位置を検出するエッジ検出部と、
エッジが存在する領域を、最上位表面からエッジに沿ってトレースしていき、分岐箇所において常に一定の向きを選択しながらトレース開始点まで一巡するエッジトレース部と、
一巡方向と、分岐箇所での選択の向きとから、一巡したエッジが最上位の板材の外形形状または穴形状であることを判定する判定部と、
を備えていることを特徴とする板材の形状認識装置。
A device for recognizing the shape of the uppermost plate material from a plurality of stacked plate materials,
An imaging device for imaging the plate material from above;
Based on the obtained image information, a top surface detector that detects the surface area of the top plate,
An edge detection unit that detects the position of the edge of the plate material of each part based on the image information;
An edge trace section that traces the region where the edge exists along the edge from the top surface, and makes a round to the trace start point while always selecting a certain direction at the branch point,
A determination unit that determines that the edge that has made a round is the outer shape or the hole shape of the uppermost plate material from the round direction and the direction of selection at the branch point,
A shape recognition apparatus for a plate material, comprising:
前記判定部は、一巡方向と、分岐箇所での選択の向きとが同じであるとき、一巡したエッジが最上位の板材の外形形状であることを判定することを特徴とする請求項1記載の板材の形状認識装置。2. The determination unit according to claim 1, wherein when the one-round direction and the direction of selection at the branch point are the same, the determination unit determines that the one-round edge is an outer shape of the uppermost plate member. Plate shape recognition device. 前記判定部は、一巡方向と、分岐箇所での選択の向きとが反対であるとき、一巡したエッジが最上位の板材の穴形状であることを判定することを特徴とする請求項1記載の板材の形状認識装置。2. The determination unit according to claim 1, wherein when the one-round direction and the direction of selection at the branching point are opposite, the determination unit determines that the one-round edge is a hole shape of the uppermost plate material. Plate shape recognition device.
JP15637598A 1998-06-04 1998-06-04 Plate shape recognition device Expired - Fee Related JP4138943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15637598A JP4138943B2 (en) 1998-06-04 1998-06-04 Plate shape recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15637598A JP4138943B2 (en) 1998-06-04 1998-06-04 Plate shape recognition device

Publications (2)

Publication Number Publication Date
JPH11353488A JPH11353488A (en) 1999-12-24
JP4138943B2 true JP4138943B2 (en) 2008-08-27

Family

ID=15626387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15637598A Expired - Fee Related JP4138943B2 (en) 1998-06-04 1998-06-04 Plate shape recognition device

Country Status (1)

Country Link
JP (1) JP4138943B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102481756B1 (en) * 2021-12-09 2022-12-27 주식회사 커브서프 Apparatus and method for transforming contour point
WO2024004478A1 (en) * 2022-06-30 2024-01-04 Jfeスチール株式会社 Plate member position detection device, plate member transport method, and plate member manufacturing method

Also Published As

Publication number Publication date
JPH11353488A (en) 1999-12-24

Similar Documents

Publication Publication Date Title
CN107315011B (en) Image processing apparatus, image processing method, and storage medium
TW201104508A (en) Stereoscopic form reader
KR20060060742A (en) Apparatus and method for automated web inspection
JP4866890B2 (en) Work shape estimation device
JP2009293999A (en) Wood defect detector
CN105321191A (en) Method and electronic apparatus for processing reflection in image
JPH06134638A (en) Automatic collation and recognization device for tool
JP2010064531A (en) White line detection device
CN106846294B (en) Visual detection method, device and equipment
JP4138943B2 (en) Plate shape recognition device
JP2020187696A (en) Foreign matter/mark discrimination method, sheet inspection device, and program
JP2009292088A (en) Erratic collating sensor
JP5949214B2 (en) Quality inspection method
JP6729111B2 (en) Identification device, traceability system, and identification method
JP2000357228A (en) Edge detection method, edge detection device and recording medium
JPS61877A (en) Form recognizer
JPH01209307A (en) Method for inspecting surface configuration of welded portion
JP4805495B2 (en) Transmission pattern detector
JP2003194734A (en) Inspection method and device for printing pattern
JP2004094442A (en) Method and device for measuring number of sheet
JP4658779B2 (en) Haze detection method, apparatus, and computer program
JPH10332333A (en) Method for detecting angle of rotation and position of object
JP3306936B2 (en) Signature stacking state judgment device
JP2018132468A (en) Shape measuring system and shape measuring method
JPH0740049A (en) Method and device for detecting weld zone of uo steel pipe

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080606

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130613

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140613

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees