JP2021063780A - Object detection system and program for objection detection system - Google Patents
Object detection system and program for objection detection system Download PDFInfo
- Publication number
- JP2021063780A JP2021063780A JP2019190176A JP2019190176A JP2021063780A JP 2021063780 A JP2021063780 A JP 2021063780A JP 2019190176 A JP2019190176 A JP 2019190176A JP 2019190176 A JP2019190176 A JP 2019190176A JP 2021063780 A JP2021063780 A JP 2021063780A
- Authority
- JP
- Japan
- Prior art keywords
- shadow
- detection system
- edge
- floating amount
- edge position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 51
- 238000007667 floating Methods 0.000 claims abstract description 65
- 238000003384 imaging method Methods 0.000 claims abstract description 38
- 230000007723 transport mechanism Effects 0.000 claims abstract description 16
- 238000012937 correction Methods 0.000 claims description 17
- 238000003708 edge detection Methods 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000001678 irradiating effect Effects 0.000 abstract 1
- 230000003287 optical effect Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Controlling Sheets Or Webs (AREA)
Abstract
Description
本発明は、所定の方向に移動する物体を検知する物体検知システム及び物体検知システム用プログラムに関する。 The present invention relates to an object detection system that detects an object moving in a predetermined direction and a program for the object detection system.
物体検知システムとして、例えばベルトコンベア等の搬送機構により搬送される紙やフィルム等の物体を光電センサ等で検知し、その位置や移動速度を算出するものが知られている。 As an object detection system, for example, a system that detects an object such as paper or film conveyed by a transfer mechanism such as a belt conveyor with a photoelectric sensor or the like and calculates its position and moving speed is known.
ところでこの物体検知システムでは、搬送される物体の先端部等がコンベアベルトから浮き上がってしまい、その先端部の位置等を正確に算出できなくなる恐れがある。そのためこのような物体検知システムにおいては、搬送中の物体の浮き量を測定したいという要望がある。 By the way, in this object detection system, the tip of the object to be conveyed may be lifted from the conveyor belt, and the position of the tip may not be calculated accurately. Therefore, in such an object detection system, there is a desire to measure the amount of floating of an object during transportation.
このような要望に対して、例えば特許文献1に開示されるような反射型の光学式センサを用いた技術を適用することが考えられる。当該技術によれば、発光部から対象物に光を照射するとともに、その反射光を受光部で検出し、その反射光の強度の変動を測定することにより物体とセンサ間の距離の変動を知ることができる。これにより搬送される物体の浮き量を測定できると考えられる。
In response to such a request, for example, it is conceivable to apply a technique using a reflective optical sensor as disclosed in
しかしながら、反射型の光学式センサを用いる場合、物体の表面の材質の違いや浮き上がった表面の角度によって、受光部で検出される光強度にばらつきが生じてしまい、浮き量を精度よく測定することが難しいという問題がある。 However, when a reflective optical sensor is used, the light intensity detected by the light receiving part varies depending on the material of the surface of the object and the angle of the raised surface, and the floating amount must be measured accurately. There is a problem that it is difficult.
本発明はこのような問題に鑑みてなされたものであり、搬送機構により搬送される物体の浮き量を精度よく測定できる物体検知システムを提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide an object detection system capable of accurately measuring the floating amount of an object transported by a transport mechanism.
すなわち本発明に係る物体検知システムは、搬送機構に載せられて所定の進行方向に移動する物体を検知するものであって、前記物体が通過する領域を撮像する撮像装置と、前記撮像装置の撮像領域に対して所定の方向から光を照射する光源と、前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部と、算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部とを備えることを特徴とする。 That is, the object detection system according to the present invention detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and an image pickup device that captures an image of a region through which the object passes and an image pickup device of the image pickup device. A light source that irradiates a region with light from a predetermined direction, and a shadow length that is the length of a shadow generated from an edge of the object that is reflected in an image captured by the imaging device along the light irradiation direction. It is characterized by including a shadow length calculation unit for calculating the above, and a floating amount calculation unit for calculating the floating amount of the object based on the calculated shadow length.
このような構成であれば、物体を撮像した撮像画像に写り込む影の長さに基づいて物体の浮き量を算出するので、物体の表面の材質や浮いた表面の角度の影響を受けることなく、その浮き量を測定することができる。このため、反射型の光学式センサを用いた場合に比べて、物体の浮き量を精度よく測定することができる。 With such a configuration, the amount of floating of the object is calculated based on the length of the shadow reflected in the captured image of the object, so that it is not affected by the material of the surface of the object or the angle of the floating surface. , The amount of floating can be measured. Therefore, the floating amount of the object can be measured more accurately than when the reflection type optical sensor is used.
前記物体検知システムは、前記撮像画像を処理し、当該撮像画像に写り込んだ前記物体の端部と前記影の端部のそれぞれのエッジを検出するとともに、該検出したそれぞれのエッジの位置を示す物体エッジ位置データと影エッジ位置データとを出力するエッジ検出部を更に備え、前記影長さ算出部が、出力された前記物体エッジ位置データと影エッジ位置データのそれぞれが示すエッジ位置の差から前記影長さを算出することが好ましい。
このようなものであれば、撮像画像内で検出された物体の端部と影の端部の詳細なエッジの位置に基づいて影長さを算出するので、影長さをより正確に算出することができる。さらに、物体のエッジの位置を検出して影長さを算出するので、移動体がフィルム等の透明なものであっても、その影の長さをより正確に算出することができる。そして、このようにより正確に算出した影長さを用いることで、物体の浮き量をより精度よく測定することができる。
The object detection system processes the captured image, detects each edge of the end of the object and the end of the shadow reflected in the captured image, and indicates the position of each of the detected edges. An edge detection unit that outputs object edge position data and shadow edge position data is further provided, and the shadow length calculation unit is based on the difference in edge position indicated by each of the output object edge position data and shadow edge position data. It is preferable to calculate the shadow length.
In such a case, the shadow length is calculated based on the detailed edge positions of the edge of the object and the edge of the shadow detected in the captured image, so that the shadow length is calculated more accurately. be able to. Further, since the position of the edge of the object is detected and the shadow length is calculated, the shadow length can be calculated more accurately even if the moving body is a transparent object such as a film. Then, by using the shadow length calculated more accurately in this way, the floating amount of the object can be measured more accurately.
前記物体検知システムの具体的態様としては、前記浮き量算出部が、前記物体の厚みと、前記光源からの光の照射角と、前記影長さ算出部が算出した影長さとに基づいて、前記物体の端部の浮き量を算出するものを挙げることができる。 As a specific embodiment of the object detection system, the floating amount calculation unit is based on the thickness of the object, the irradiation angle of light from the light source, and the shadow length calculated by the shadow length calculation unit. Examples thereof include those for calculating the floating amount of the end portion of the object.
前記物体検知システムは、前記光源が前記撮像領域に平行光を照射することが好ましい。
このようにすれば、撮像領域内における物体の位置によらず、その端部の浮き量が同じであれば同一長さの影を生じさせることができる。そのため撮像のタイミングによらず、物体の浮き量を精度よく測定できる。
In the object detection system, it is preferable that the light source irradiates the imaging region with parallel light.
In this way, regardless of the position of the object in the imaging region, if the floating amount of the end portion is the same, shadows of the same length can be generated. Therefore, the amount of floating of the object can be measured accurately regardless of the timing of imaging.
前記物体検知システムは、前記光源が前記進行方向に向けて光を照射するものであり、前記浮き量算出部が、前記物体の前記進行方向に沿った先端部における浮き量を算出することが好ましい。
このような物体検知システムでは、搬送される物体の先端を検知してその位置や移動速度を算出されるところ、このようにすれば物体の先端部(すなわち進行方向の前方端部)における浮き量を算出することができるのでより有益である。
In the object detection system, the light source irradiates light in the traveling direction, and it is preferable that the floating amount calculation unit calculates the floating amount at the tip portion of the object along the traveling direction. ..
In such an object detection system, the tip of the transported object is detected and its position and moving speed are calculated. In this way, the amount of float at the tip of the object (that is, the front end in the traveling direction) is calculated. Is more useful because it can be calculated.
前記物体検知システムは、前記撮像装置が、複数の撮像素子が縦横マトリクス状に敷設されたエリアセンサを有するものであり、前記浮き量算出部が、前記進行方向に垂直な方向に沿った複数点における前記物体の浮き量を算出することが好ましい。
このようなものであれば、進行方向に直交する方向に沿った物体のたわみ量を把握することができる。
In the object detection system, the image pickup device has an area sensor in which a plurality of image pickup elements are laid in a vertical and horizontal matrix, and the float amount calculation unit has a plurality of points along a direction perpendicular to the traveling direction. It is preferable to calculate the floating amount of the object in.
With such a thing, it is possible to grasp the amount of deflection of the object along the direction orthogonal to the traveling direction.
物体の端部が浮いている状態と浮いていない状態とを比べると、その端部の移動方向に沿った実際の位置が同じであっても、撮像画像から検出される端部のエッジ位置はその画像座標系において相違してしまう。そのため端部が浮き上がっている状態で検出した端部のエッジ位置をそのまま用いて物体の移動速度を算出した場合その移動速度は誤差を含んでしまうことになる。
そのため、前記物体検知システムは、前記浮き量算出部が算出した浮き量に応じて前記物体エッジ位置データが示す前記物体の端部のエッジ位置を補正するエッジ位置補正部を更に備えることが好ましい。
このようにすれば、浮き量に応じて物体の端部のエッジ位置を補正できるので、検出したエッジ位置を、例えば物体の端部が浮いていない状態における位置に補正することにより、物体の位置や移動速度をより正確に算出することができるようになる。
Comparing the floating state and the non-floating state of the edge of the object, even if the actual position of the edge along the moving direction is the same, the edge position of the edge detected from the captured image is It will be different in the image coordinate system. Therefore, if the moving speed of the object is calculated by using the edge position of the end detected in the state where the end is raised as it is, the moving speed will include an error.
Therefore, it is preferable that the object detection system further includes an edge position correction unit that corrects the edge position of the end portion of the object indicated by the object edge position data according to the float amount calculated by the float amount calculation unit.
In this way, the edge position of the edge of the object can be corrected according to the amount of floating. Therefore, the detected edge position can be corrected to the position where the edge of the object is not floating, for example, to correct the position of the object. And the movement speed can be calculated more accurately.
前記物体検知システムの効果を顕著に奏する態様としては、前記物体がフィルム状、シート状又は板状であるものを挙げることができる。 As an embodiment in which the effect of the object detection system is remarkably exhibited, an object having a film shape, a sheet shape, or a plate shape can be mentioned.
また本発明に係る物体検知システム用プログラムは、搬送機構に載せられて所定の進行方向に移動する物体を検知するものであり、前記物体が通過する領域を撮像する撮像装置と、前記撮像装置の撮像領域に対して所定の方向から光を照射する光源とを備える物体検知システム用のプログラムであって、前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部としての機能と、算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部としての機能と、をコンピュータに発揮させることを特徴とする。 Further, the object detection system program according to the present invention detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and includes an image pickup device that captures an image of a region through which the object passes and the image pickup device. A program for an object detection system including a light source that irradiates an imaging region with light from a predetermined direction, and the shadow of the shadow generated from the edge of the object reflected in the image captured by the imaging device. A function as a shadow length calculation unit that calculates the shadow length, which is the length along the irradiation direction, and a function as a floating amount calculation unit that calculates the floating amount of the object based on the calculated shadow length. It is characterized by letting the computer exert the above.
このような物体検知システム用のプログラムであれば、上記した物体検知システムと同様の作用効果を奏し得る。 A program for such an object detection system can have the same effect as the above-mentioned object detection system.
このようにした本発明によれば、搬送機構により搬送される物体の浮き量を精度よく測定できる物体検知システムを提供することができる。 According to the present invention as described above, it is possible to provide an object detection system capable of accurately measuring the floating amount of an object transported by the transport mechanism.
以下に、本発明の一実施形態に係る物体検知システム100について図面を参照して説明する。
Hereinafter, the
本実施形態に係る物体検知システム100は、例えばベルトコンベア等の搬送機構M上に載せられて所定の進行方向に動く紙等の物体Oの通過を検知するものである。具体的にこの物体検知システム100は、図1に示すように、物体Oが通過する所定の領域(以下、撮像領域ともいう)Rを撮像する撮像装置1と、撮像装置1の撮像領域Rに光を照射する光源2と、撮像装置1による撮像装置1を処理して物体Oを検知する画像処理装置3とを備えている。以下に各部を説明する。なお以下の説明では、物体Oの進行方向(すなわち、搬送機構Mによる搬送方向)に平行な方向をx軸方向、搬送機構Mの載置面Ms(具体的にはベルト)に平行であってx軸方向と垂直な方向をy軸方向、x軸方向及びy軸方向と直交する方向をz軸方向とする。
The
撮像装置1は、搬送機構M上の撮像領域Rを一定の時間間隔で撮像し、その撮像画像データを逐次出力するものである。具体的にこの撮像装置1は、複数の撮像素子が縦横マトリクス状に面状に敷設されたエリアセンサ(例えば128×128画素のCMOSイメージセンサ等)と、エリアセンサの前段に配置された光学系11とを備えている。撮像領域Rは約2〜20mm四方の矩形状をなしており、その2組の対向する辺がそれぞれx軸方向及びy軸方向と平行になるように設定されている。すなわち複数の撮像素子が並ぶ縦横のそれぞれの方向と、x軸方向及びy軸方向とが平行になっている。なお光学系11は、被写界深度が深いレンズを備えるものが好ましい。このようなものであれば、物体Oの厚みや表面の高さによるピンボケを低減できる。
The
光源2は、撮像装置1の撮像領域Rを通過している物体Oに平行光を照射するものである。具体的にこの光源2は、白色LED等のLED装置と、当該LED装置から発せられた光を集光するレンズ等の集光機構とを備えている。より具体的にこの光源2は、物体Oの少なくとも先端部(すなわち進行方向の前方端部)Otに対して、その進行方向に向かって斜め下向きに光を照射し、搬送機構Mの載置面Ms上(具体的には物体Oの先端部Otよりも前方)に物体Oの先端部Otの影Sを投影するように構成されている。z軸方向から視て、光源2から照射される光はx軸方向と平行となるようにしている。
The light source 2 irradiates the object O passing through the imaging region R of the
画像処理装置3は、撮像装置1から出力された撮像画像データを受け付けてこれを処理することにより、撮像領域R内を通過する物体Oを検知するものである。
The image processing device 3 receives the captured image data output from the
しかして、本実施形態の物体検知システム100では、画像処理装置3が、取得した撮像画像データを処理して物体Oの先端部Otから生じた影Sの長さを算出し、算出した影Sの長さに基づいて物体Oの先端部Otの浮き量hを算出するように構成されている。
Then, in the
画像処理装置3は、物理的にいえば、CPU、メモリ及び入出力インターフェース等を備えた汎用乃至専用のコンピュータであり、メモリの所定領域に格納された所定プログラムに従ってCPUや周辺機器を協働させることにより、図2に示すように、エッジ検出部31、影長さ算出部32、記憶部33及び浮き量算出部34としての機能を少なくとも発揮する。以下に各機能部を説明する。
Physically speaking, the image processing device 3 is a general-purpose or dedicated computer provided with a CPU, a memory, an input / output interface, and the like, and the CPU and peripheral devices are made to cooperate according to a predetermined program stored in a predetermined area of the memory. As a result, as shown in FIG. 2, at least the functions as the
エッジ検出部31は、撮像装置1から受け付けた撮像画像データを処理し、同一のタイミングで撮像された1つの撮像画像に写り込む物体Oの先端部Otと、物体Oから生じた影Sの先端部Stのそれぞれのエッジを検出する。そして、検出した物体Oの先端部Otのエッジの位置である物体エッジ位置Eо(xо,yо)を示す物体エッジ位置データと、影Sの先端部Stのエッジの位置である影エッジ位置Es(xs,ys)を示す影エッジ位置データとを生成し、これらを影長さ算出部32に出力する。なお本実施形態では、図3に示すように、物体エッジ位置Eо(xо,yо)及び影エッジ位置Es(xs,ys)は、撮像装置1における左上隅(進行方向における最後方であって、進行方向に向かって最も左)の画素中心を原点(0,0)とする画像座標系により表される位置である。
The
エッジ検出部31は、撮像画像データが示す撮像画像Pの輝度の勾配計算に基づいて、物体O及び影Sのそれぞれの先端部Ot、Stのエッジを検出する。この際に平滑化処理(移動平均、ガウシアン)、メディアン、プリューウィットフィルタ及びソーベルフィルタ等のフィルタ処理や、サブピクセル処理等を行ってもよい。
Edge detecting
本実施形態のエッジ検出部31は、y軸方向に沿った複数の位置において、物体Oと影Sのそれぞれの先端部Ot、Stのエッジを検出するように構成されている。具体的には図3に示すように、対象領域内にはx軸方向に平行であって、y座標が異なる複数本のエッジ検出ラインL1〜L7が設定されている。エッジ検出部31は、エッジ検出ラインL1〜L7毎に、物体Oと影Sのそれぞれの先端部Ot、Stのエッジ位置を検出する。
Edge detecting
影長さ算出部32は、物体エッジ位置データ及び影エッジ位置データを受け付け、これらに基づき、x軸方向に沿った影Sの長さである影長さを算出する。影長さ算出部32は、同一のタイミングで撮像された1つの撮像画像に写り込む影エッジ位置Esのx座標xsと物体エッジ位置Eоのx座標xоとの差から影長さlを算出する。具体的には、以下の(1)式に示す演算、又はこれと均等な演算をすることにより、影長さlを算出する。
The shadow
l=(xs−xо)×r (1)
ここで、lは影長さ(mm)、xоは物体Oの先端部Otのx座標位置(pix)、xsは影Sの先端部Stのx座標位置(pix)、rは撮像視野に対する画素分解能(mm/pix)である。
l = (x s −x о ) × r (1)
Here, l is Kagecho of (mm), x o is the x-coordinate position of the object O of the tip O t (pix), x s is the x-coordinate position of the tip portion S t of the shadow S (pix), r is It is the pixel resolution (mm / pix) with respect to the imaging field of view.
ここでは影長さ算出部32は、y軸方向に沿った複数の位置において影長さを算出するように構成されている。具体的には、エッジ検出ラインL1〜L7毎に検出された物体エッジ位置及び影エッジ位置に基づいて、エッジ検出ラインL1〜L7毎に影長さを算出する。
Here, the shadow
記憶部33は、メモリの所定領域に設定されたものであり、物体Oの先端部Otの厚みtを示す厚みデータと、物体Oに対する光源2からの光の照射角θを示す照射角データと、光学系11の主点から搬送機構Mの搬送面までの距離zを示す距離データとを記憶している。
The
物体Oの先端部Otの厚みtを示す厚みデータ、光学系11の主点から搬送機構Mの搬送面までの距離zを示す距離データ、及び照射角θを示す照射角データは、ユーザによって予め設定され、格納されたものである。
The thickness data indicating the thickness t of the tip O t of the object O, the distance data indicating the distance z from the principal point of the
浮き量算出部34は、影長さ算出部32が算出した影長さlに基づいて物体Oの先端部Otの浮き量hを算出する。浮き量算出部34は、記憶部33に記憶された厚みtと照射角θを参照し、図4に示すように、影長さlに照射角θの正接を乗じ、これから厚みtを減じることで算出する。具体的には、以下の(2)式に示す演算、又はこれと均等な演算をすることにより、物体Oの先端部Otの浮き量hを算出する。
Floating
h=l×tanθ−t (2)
ここで、hは浮き量(mm)、θは光源2の照射角(°)、tは物体Oの先端部Otの厚み(mm)である。
h = l × tan θ−t (2)
Here, h is floating amount (mm), θ is the irradiation angle of the light source 2 (°), t is the thickness of the object O of the tip O t (mm).
浮き量算出部34は、y軸方向に沿った複数の位置における浮き量hを算出する。具体的には、エッジ検出ラインL1〜L7毎に算出された影長さに基づいて、これら複数のエッジ検出ラインL1〜L7毎に、物体Oの先端部Otの浮き量hを算出する。そして、図5に示すように、算出したy軸方向に沿った複数の位置における浮き量hに関する情報をディスプレイに出力したり、他の機器に対してシリアル通信やパルス出力等を行う。
The float
本実施形態の画像処理装置3は、エッジ位置補正部35としての機能を更に発揮するように構成されている。このエッジ位置補正部35は、エッジ検出部31が算出した物体エッジ位置Eо(xо,yо)を、浮き量算出部34が算出した浮き量hに応じて補正し、補正後の物体エッジ位置である補正後物体エッジ位置Eо’(xо’,yо’)を算出する。この補正後物体エッジ位置Eо’(xо’,yо’)は、物体Oの先端部Otの浮き量hをゼロと仮定した場合における、物体Oの先端部Otのエッジ位置を意味する。具体的にこのエッジ位置補正部35は、以下の(3)式及び(4)式に示す演算、又はこれと均等な演算をすることにより、補正後物体エッジ位置Eо’を算出する。
The image processing device 3 of the present embodiment is configured to further exhibit the function as the edge
xо’=(xо−xc)×{z’/(z−t))+xc (3)
z’=z−(t+h) (4)
ここで、図6に示すように、zは光学系11の主点から搬送機構Mの搬送面までの距離(mm)、z’は光学系11の主点から物体Oまでの垂直距離(mm)、tは物体Oの先端部Otの厚み(mm)、xcは撮像装置1の中心のx座標位置(pix)、hは先端部Otの浮き量(mm)である。
x о '= (x о −x c ) × {z'/ (z−t)) + x c (3)
z'= z- (t + h) (4)
Here, as shown in FIG. 6, z is the distance (mm) from the principal point of the
本実施形態のエッジ位置補正部35は、y軸方向に沿った複数の位置において、補正後物体エッジ位置Eо’を算出する。具体的には、エッジ検出ラインL1〜L7毎に算出された物体エッジ位置Eо及び浮き量hに基づいて、y軸方向に沿った複数位置における補正後物体エッジ位置Eо’を算出する。そして算出した補正後物体エッジ位置Eо’に関する情報を、ディスプレイに出力したり、他の機器に取込んで制御を行えるよう、例えばシリアル通信やパルス出力等を行う。
The edge
本実施形態の画像処理装置3は、エッジ位置補正部35が算出した補正後の物体エッジ位置に基づいて、記憶部33に格納された照射角θや距離zを校正する校正部36をさらに備えている。
The image processing device 3 of the present embodiment further includes a calibration unit 36 that calibrates the irradiation angle θ and the distance z stored in the
具体的に校正部36は、図7に示すように、厚みtrが既知である標準物体Pをその先端部が浮かないようにして撮像領域R内に置いて撮像した校正用画像から得られる情報に基づき、校正後の照射角θcを算出する。より具体的には、校正部36は、校正用画像に対してエッジ検出部31、影長さ算出部32、浮き量算出部34及びエッジ位置補正部35が上記した処理を行うことで得られる、標準物体の先端部の影エッジ位置xrsと、標準物体の先端部の補正後のエッジ位置xrо’とを用いて、以下の(5)式に示す演算、又はこれと均等な演算をすることにより、校正後の照射角θcを算出する。そして算出した照射角θcを記憶部33に格納する。
Specifically calibration unit 36, as shown in FIG. 7, is obtained from the calibration image captured placed within the imaging region R by standard object P thickness t r is known as brooding its tip Based on the information, the irradiation angle θ c after calibration is calculated. More specifically, the calibration unit 36 is obtained by performing the above processing on the calibration image by the
θc=arctan[tr/{(xrs−xrо’)×r}] (5)
ここで、trは標準物体の先端部の厚み(mm)、xrsは標準物体から生じる影の先端部のx座標位置(pix)、xrо’は標準物体の先端部の補正後のx座標位置(pix)、rは撮像視野に対する画素分解能(mm/pix)である。
θ c = arctan [t r / {(x rs -x rо ') × r}] (5)
Here, t r is the standard object of the tip portion of the thickness (mm), x rs is the x-coordinate position of the distal end portion of the shadow resulting from the standard object (pix), x rо 'is x after the correction of the front end portion of a standard object The coordinate position (pix) and r are pixel resolutions (mm / pix) with respect to the imaging field of view.
また校正部36は、図7に示すように、x軸方向に沿った長さWが既知である標準物体をその先端部と後端部が浮かないようにして撮像領域R内に置いて、先端部と後端部の両方ともが写るように撮像した校正用画像から得られる情報に基づき、校正後の距離zcを算出する。より具体的には、校正部36は、校正用画像に対してエッジ検出部31、影長さ算出部32、浮き量算出部34及びエッジ位置補正部35が上記した処理を行うことで得られる、標準物体の先端部の補正後のエッジ位置xrо’と、標準物体の後端部の補正後のエッジ位置xrp’とを用いて、以下の(6)式に示す演算、又はこれと均等な演算をすることにより、校正後の距離zcを算出する。そして算出した距離zcを記憶部33に格納する。
Further, as shown in FIG. 7, the calibration unit 36 places a standard object having a known length W along the x-axis direction in the imaging region R so that the front end portion and the rear end portion do not float. based on the information obtained from the calibration image taken as both the tip and the rear end portion objects appear, to calculate the distance z c after calibration. More specifically, the calibration unit 36 is obtained by performing the above-mentioned processing by the
zc=(W×128)/{(xrp’−xrо’)×2×tan(θ2/2)} (6)
ここで、Wは標準物体のx軸方向に沿った長さ(mm)、xrо’は標準物体の先端部エッジの補正後のx座標位置(pix)、xrp’は標準物体の後端部エッジの補正後のx座標位置(pix)、θ2は撮像装置1の視野角(°)である。
z c = (W × 128) / {(x rp '-x rо') × 2 × tan (θ 2/2)} (6)
Here, W is the x-axis direction to the length along the standard object (mm), x rо 'is the x-coordinate position after the correction of the tip edge of the standard object (pix), x rp' is the standard object rear The x-coordinate position (pix) and θ 2 after the correction of the part edge are the viewing angles (°) of the
前記した浮き量算出部34及びエッジ位置補正部35は、校正部36によって算出された校正後の照射角θc及び距離zcを用いて、物体Oの浮き量h及び先端部Otの補正後のエッジ位置Eо’を算出するように構成されてよい。
The floating
次に、かかる構成の物体検知システム100の動作について、図8のフローチャートを参照して説明する。
Next, the operation of the
まず搬送機構Mにより物体Oを進行方向に移動させる。そして撮像装置1の撮像領域Rに入った物体Oの先端部Otを撮像する(ステップS1)。撮像装置1を処理して、y軸方向に沿った複数点における、物体Oの先端部Otのエッジ位置と、その影Sの先端部Stのエッジ位置とを検出する(ステップS2)。それぞれのエッジ位置の差から、y軸方向に沿った複数点における影Sの長さを算出する(ステップS3)。そして、算出した影Sの長さを用いて、y軸方向に沿った複数点における物体Oの先端部Otの浮き量hを算出し出力する(ステップS4)。次に、算出した浮き量hに基づいて、y軸方向に沿った複数点における、物体Oの先端部Otのエッジ位置を補正する(ステップS5)。そして、補正後の物体Oのエッジ位置である補正後物体エッジ位置を出力する。
First, the transport mechanism M moves the object O in the traveling direction. Then, the tip O t of the object O that has entered the imaging region R of the
このように構成された本実施形態の物体検知システム100によれば、物体Oを撮像した撮像装置1に写り込む影Sの長さに基づいて物体Oの浮き量hを算出するので、物体Oの表面の材質や浮いた表面の角度の影響を受けることなく、その浮き量hを測定することができる。このため、反射型の光学式センサを用いた場合に比べて、物体Oの浮き量hを精度よく測定することができる。
According to the
さらに本実施形態の物体検知システム100は、エッジ検出部31により、撮像装置1内で検出された物体Oの端部と影Sの端部の詳細なエッジの位置に基づいて影長さを算出するので、影長さをより正確に算出することができる。そして、このように正確に算出した影長さを用いることで、物体Oの浮き量hを極めて精度よく測定することができる。
Further, the
また本実施形態の物体検知システム100は、算出した物体Oの端部のエッジ位置をその浮き量hに応じて補正するエッジ位置補正部35を備えるので、補正したエッジ位置を用いることで物体Oの位置や移動速度をより正確に算出することができる。
Further, since the
また、本実施形態の物体検知システム100は、光源2の光の照射角θや、光学系11の主点から搬送機構Mの搬送面までの距離zを校正する校正部36を備えており、校正後の照射角θc及び校正後の距離zcを用いることにより、物体Oの浮き量h及び先端部Otの補正後のエッジ位置Eо’を精度よく算出することができる。
Further, the
なお、本発明は前記実施形態に限られるものではない。 The present invention is not limited to the above embodiment.
前記実施形態では、撮像装置1としてエリアセンサを備えるものを用いていたがこれに限らない。他の実施形態では撮像装置1はラインセンサを備えたラインカメラであってもよい。このようなラインカメラをその撮像素子がx軸方向に沿うように設けることで、物体Oの先端部Otの浮き量hを算出することができる。
In the above embodiment, the
前記実施形態では物体Oの先端部Otの浮き量hを算出するものであったが、これに限らず物体Oの側端部の浮き量hを算出するものであってもよい。この場合、光源2からの光をy軸方向に沿って照射し、物体Oの側端部からy軸方向に沿った影Sの長さを算出することで、側端部の浮き量hを算出してもよい。 But was to calculate the floating amount h of the object O of the tip O t in the embodiment, may be configured to calculate the floating amount h of the side end portion of the object O is not limited thereto. In this case, the light from the light source 2 is irradiated along the y-axis direction, and the length of the shadow S along the y-axis direction is calculated from the side end portion of the object O to obtain the floating amount h of the side end portion. It may be calculated.
前記した各機能部は、例えばFPGA(Field Programable Gate Array)等の再構成可能なハードウェア回路によって実現されてもよい。 Each of the above-mentioned functional parts may be realized by a reconfigurable hardware circuit such as FPGA (Field Programmable Gate Array).
その他、本発明は前記実施形態に限られず、その趣旨を逸脱しない範囲で種々の変形が可能であるのは言うまでもない。 In addition, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
100・・・物体検知システム
1 ・・・光源
2 ・・・撮像装置
31 ・・・エッジ検出部
32 ・・・影長さ算出部
34 ・・・浮き量算出部
35 ・・・エッジ位置補正部
100 ・ ・ ・
Claims (9)
前記物体が通過する領域を撮像する撮像装置と、
前記撮像装置の撮像領域に対して所定の方向から光を照射する光源と、
前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部と、
算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部と
を備える物体検知システム。 It detects an object that is mounted on a transport mechanism and moves in a predetermined direction of travel.
An imaging device that images the area through which the object passes, and
A light source that irradiates the imaging region of the imaging apparatus with light from a predetermined direction,
A shadow length calculation unit that calculates a shadow length that is the length of a shadow generated from an edge of the object along the irradiation direction of the light, which is reflected in an image captured by the image pickup device.
An object detection system including a floating amount calculation unit that calculates a floating amount of the object based on the calculated shadow length.
前記影長さ算出部が、出力された前記物体エッジ位置データと影エッジ位置データのそれぞれが示すエッジ位置の差から前記影長さを算出する請求項1に記載の物体検知システム。 The captured image is processed to detect the edges of the edge of the object and the edge of the shadow reflected in the captured image, and the object edge position data and the shadow indicating the positions of the detected edges. It also has an edge detection unit that outputs edge position data.
The object detection system according to claim 1, wherein the shadow length calculation unit calculates the shadow length from the difference between the output edge positions of the object edge position data and the shadow edge position data.
前記浮き量算出部が、前記物体の前記進行方向に沿った先端部における浮き量を算出する請求項1〜4のいずれか一項に記載の物体検知システム。 The light source irradiates light in the traveling direction.
The object detection system according to any one of claims 1 to 4, wherein the floating amount calculating unit calculates a floating amount at a tip portion of the object along the traveling direction.
前記浮き量算出部が、前記進行方向に垂直な方向に沿った複数点における前記物体の浮き量を算出する請求項1〜5のいずれか一項に記載の物体検知システム。 The image pickup device has an area sensor in which a plurality of image pickup elements are laid in a vertical and horizontal matrix.
The object detection system according to any one of claims 1 to 5, wherein the floating amount calculation unit calculates the floating amount of the object at a plurality of points along a direction perpendicular to the traveling direction.
前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部としての機能と、
算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部としての機能と、をコンピュータに発揮させることを特徴とする物体検知システムのプログラム。 It detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and irradiates an imaging device that images an area through which the object passes and an imaging area of the imaging device with light from a predetermined direction. A program of an object detection system equipped with a light source
A function as a shadow length calculation unit that calculates a shadow length that is the length of a shadow generated from an edge of the object along the irradiation direction of the light, which is reflected in an image captured by the image pickup device.
A program of an object detection system characterized in that a computer exerts a function as a float amount calculation unit that calculates a float amount of the object based on the calculated shadow length.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190176A JP7266300B2 (en) | 2019-10-17 | 2019-10-17 | Object detection system and program for object detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190176A JP7266300B2 (en) | 2019-10-17 | 2019-10-17 | Object detection system and program for object detection system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021063780A true JP2021063780A (en) | 2021-04-22 |
JP7266300B2 JP7266300B2 (en) | 2023-04-28 |
Family
ID=75486116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190176A Active JP7266300B2 (en) | 2019-10-17 | 2019-10-17 | Object detection system and program for object detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7266300B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116494023A (en) * | 2023-04-11 | 2023-07-28 | 中国航空制造技术研究院 | Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62297711A (en) * | 1986-06-17 | 1987-12-24 | Nisshin Steel Co Ltd | Detecting method for upward camber of hot bar of hot rolling equipment |
JPH0429007A (en) * | 1990-05-25 | 1992-01-31 | Juki Corp | Optical inspection device |
JP2008246879A (en) * | 2007-03-30 | 2008-10-16 | Brother Ind Ltd | Image recording device |
JP2016093827A (en) * | 2014-11-14 | 2016-05-26 | Jfeスチール株式会社 | Steel plate cutting position setting device and method thereof |
-
2019
- 2019-10-17 JP JP2019190176A patent/JP7266300B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62297711A (en) * | 1986-06-17 | 1987-12-24 | Nisshin Steel Co Ltd | Detecting method for upward camber of hot bar of hot rolling equipment |
JPH0429007A (en) * | 1990-05-25 | 1992-01-31 | Juki Corp | Optical inspection device |
JP2008246879A (en) * | 2007-03-30 | 2008-10-16 | Brother Ind Ltd | Image recording device |
JP2016093827A (en) * | 2014-11-14 | 2016-05-26 | Jfeスチール株式会社 | Steel plate cutting position setting device and method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116494023A (en) * | 2023-04-11 | 2023-07-28 | 中国航空制造技术研究院 | Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool |
CN116494023B (en) * | 2023-04-11 | 2024-03-22 | 中国航空制造技术研究院 | Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool |
Also Published As
Publication number | Publication date |
---|---|
JP7266300B2 (en) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11176655B2 (en) | System and method for determining 3D surface features and irregularities on an object | |
KR101674131B1 (en) | Alignment method, alignment device, and exposure device | |
CN107683401A (en) | Shape measuring apparatus and process for measuring shape | |
KR101442895B1 (en) | Method for measuring external shape of rectangular plate-like object, and method for calibrating relative position of image-capturing means | |
CN110823124A (en) | Optical displacement meter | |
TW201443424A (en) | Imaging system for transparent plate surface inspection | |
US20070273687A1 (en) | Device for Scanning Three-Dimensional Objects | |
TWI661176B (en) | Three-dimensional measurement device, three-dimensional measurement method, and manufacturing method of substrate | |
US12079978B2 (en) | System and method for determining 3D surface features and irregularities on an object | |
US20170309035A1 (en) | Measurement apparatus, measurement method, and article manufacturing method and system | |
US8717544B2 (en) | Alignment method, alignment apparatus, and exposure apparatus | |
JP7266300B2 (en) | Object detection system and program for object detection system | |
CN109690408B (en) | Substrate angular position determination method | |
CN105209977B (en) | Exposure device | |
JP2016138761A (en) | Three-dimensional measurement method by optical cutting method and three-dimensional measuring instrument | |
JP6780533B2 (en) | Shape measurement system and shape measurement method | |
US9554094B1 (en) | System and method for determining a displaced substrate with a vision system | |
JP2011149800A (en) | Substrate inspection device and substrate inspection method | |
JP3680861B1 (en) | Method for detecting the center position of the measurement object | |
JP2001033397A (en) | Method and apparatus for detecting surface flaw of object | |
JP2018044863A (en) | Measurement device, measurement method, system and goods manufacturing method | |
JP5529829B2 (en) | Height measuring device and height measuring method | |
JP4595226B2 (en) | Method for detecting end position of conveyed material | |
EP1909063A1 (en) | Vision-measuring-machine calibration scale | |
JP6191185B2 (en) | Misalignment inspection method and misalignment inspection apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220414 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7266300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |