JP2021063780A - Object detection system and program for objection detection system - Google Patents

Object detection system and program for objection detection system Download PDF

Info

Publication number
JP2021063780A
JP2021063780A JP2019190176A JP2019190176A JP2021063780A JP 2021063780 A JP2021063780 A JP 2021063780A JP 2019190176 A JP2019190176 A JP 2019190176A JP 2019190176 A JP2019190176 A JP 2019190176A JP 2021063780 A JP2021063780 A JP 2021063780A
Authority
JP
Japan
Prior art keywords
shadow
detection system
edge
floating amount
edge position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019190176A
Other languages
Japanese (ja)
Other versions
JP7266300B2 (en
Inventor
周樹 児山
Shuki Koyama
周樹 児山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kodenshi Corp
Original Assignee
Kodenshi Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kodenshi Corp filed Critical Kodenshi Corp
Priority to JP2019190176A priority Critical patent/JP7266300B2/en
Publication of JP2021063780A publication Critical patent/JP2021063780A/en
Application granted granted Critical
Publication of JP7266300B2 publication Critical patent/JP7266300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Controlling Sheets Or Webs (AREA)

Abstract

To provide an object detection system capable of accurately measuring a floating amount of an object conveyed by a conveyance mechanism.SOLUTION: Disclosed is an object detection system for detecting an object which is carried on a transport mechanism and moves in a predetermined traveling direction. This system includes: an imaging device for imaging an area through which the object passes; a light source for irradiating the tip of the object with light in an imaging area of the imaging device; a shadow length calculation part of calculating a shadow length which is a length along the traveling direction of the shadow generated from the tip of the object based on an image captured by the imaging device; and a floating amount calculation part of calculating the floating amount of the tip of the object based on the calculate shadow length.SELECTED DRAWING: Figure 1

Description

本発明は、所定の方向に移動する物体を検知する物体検知システム及び物体検知システム用プログラムに関する。 The present invention relates to an object detection system that detects an object moving in a predetermined direction and a program for the object detection system.

物体検知システムとして、例えばベルトコンベア等の搬送機構により搬送される紙やフィルム等の物体を光電センサ等で検知し、その位置や移動速度を算出するものが知られている。 As an object detection system, for example, a system that detects an object such as paper or film conveyed by a transfer mechanism such as a belt conveyor with a photoelectric sensor or the like and calculates its position and moving speed is known.

ところでこの物体検知システムでは、搬送される物体の先端部等がコンベアベルトから浮き上がってしまい、その先端部の位置等を正確に算出できなくなる恐れがある。そのためこのような物体検知システムにおいては、搬送中の物体の浮き量を測定したいという要望がある。 By the way, in this object detection system, the tip of the object to be conveyed may be lifted from the conveyor belt, and the position of the tip may not be calculated accurately. Therefore, in such an object detection system, there is a desire to measure the amount of floating of an object during transportation.

このような要望に対して、例えば特許文献1に開示されるような反射型の光学式センサを用いた技術を適用することが考えられる。当該技術によれば、発光部から対象物に光を照射するとともに、その反射光を受光部で検出し、その反射光の強度の変動を測定することにより物体とセンサ間の距離の変動を知ることができる。これにより搬送される物体の浮き量を測定できると考えられる。 In response to such a request, for example, it is conceivable to apply a technique using a reflective optical sensor as disclosed in Patent Document 1. According to this technology, the light emitting unit irradiates an object with light, the reflected light is detected by the light receiving unit, and the fluctuation of the intensity of the reflected light is measured to know the fluctuation of the distance between the object and the sensor. be able to. It is considered that the floating amount of the transported object can be measured by this.

しかしながら、反射型の光学式センサを用いる場合、物体の表面の材質の違いや浮き上がった表面の角度によって、受光部で検出される光強度にばらつきが生じてしまい、浮き量を精度よく測定することが難しいという問題がある。 However, when a reflective optical sensor is used, the light intensity detected by the light receiving part varies depending on the material of the surface of the object and the angle of the raised surface, and the floating amount must be measured accurately. There is a problem that it is difficult.

特開2018−150109号公報JP-A-2018-150109

本発明はこのような問題に鑑みてなされたものであり、搬送機構により搬送される物体の浮き量を精度よく測定できる物体検知システムを提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide an object detection system capable of accurately measuring the floating amount of an object transported by a transport mechanism.

すなわち本発明に係る物体検知システムは、搬送機構に載せられて所定の進行方向に移動する物体を検知するものであって、前記物体が通過する領域を撮像する撮像装置と、前記撮像装置の撮像領域に対して所定の方向から光を照射する光源と、前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部と、算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部とを備えることを特徴とする。 That is, the object detection system according to the present invention detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and an image pickup device that captures an image of a region through which the object passes and an image pickup device of the image pickup device. A light source that irradiates a region with light from a predetermined direction, and a shadow length that is the length of a shadow generated from an edge of the object that is reflected in an image captured by the imaging device along the light irradiation direction. It is characterized by including a shadow length calculation unit for calculating the above, and a floating amount calculation unit for calculating the floating amount of the object based on the calculated shadow length.

このような構成であれば、物体を撮像した撮像画像に写り込む影の長さに基づいて物体の浮き量を算出するので、物体の表面の材質や浮いた表面の角度の影響を受けることなく、その浮き量を測定することができる。このため、反射型の光学式センサを用いた場合に比べて、物体の浮き量を精度よく測定することができる。 With such a configuration, the amount of floating of the object is calculated based on the length of the shadow reflected in the captured image of the object, so that it is not affected by the material of the surface of the object or the angle of the floating surface. , The amount of floating can be measured. Therefore, the floating amount of the object can be measured more accurately than when the reflection type optical sensor is used.

前記物体検知システムは、前記撮像画像を処理し、当該撮像画像に写り込んだ前記物体の端部と前記影の端部のそれぞれのエッジを検出するとともに、該検出したそれぞれのエッジの位置を示す物体エッジ位置データと影エッジ位置データとを出力するエッジ検出部を更に備え、前記影長さ算出部が、出力された前記物体エッジ位置データと影エッジ位置データのそれぞれが示すエッジ位置の差から前記影長さを算出することが好ましい。
このようなものであれば、撮像画像内で検出された物体の端部と影の端部の詳細なエッジの位置に基づいて影長さを算出するので、影長さをより正確に算出することができる。さらに、物体のエッジの位置を検出して影長さを算出するので、移動体がフィルム等の透明なものであっても、その影の長さをより正確に算出することができる。そして、このようにより正確に算出した影長さを用いることで、物体の浮き量をより精度よく測定することができる。
The object detection system processes the captured image, detects each edge of the end of the object and the end of the shadow reflected in the captured image, and indicates the position of each of the detected edges. An edge detection unit that outputs object edge position data and shadow edge position data is further provided, and the shadow length calculation unit is based on the difference in edge position indicated by each of the output object edge position data and shadow edge position data. It is preferable to calculate the shadow length.
In such a case, the shadow length is calculated based on the detailed edge positions of the edge of the object and the edge of the shadow detected in the captured image, so that the shadow length is calculated more accurately. be able to. Further, since the position of the edge of the object is detected and the shadow length is calculated, the shadow length can be calculated more accurately even if the moving body is a transparent object such as a film. Then, by using the shadow length calculated more accurately in this way, the floating amount of the object can be measured more accurately.

前記物体検知システムの具体的態様としては、前記浮き量算出部が、前記物体の厚みと、前記光源からの光の照射角と、前記影長さ算出部が算出した影長さとに基づいて、前記物体の端部の浮き量を算出するものを挙げることができる。 As a specific embodiment of the object detection system, the floating amount calculation unit is based on the thickness of the object, the irradiation angle of light from the light source, and the shadow length calculated by the shadow length calculation unit. Examples thereof include those for calculating the floating amount of the end portion of the object.

前記物体検知システムは、前記光源が前記撮像領域に平行光を照射することが好ましい。
このようにすれば、撮像領域内における物体の位置によらず、その端部の浮き量が同じであれば同一長さの影を生じさせることができる。そのため撮像のタイミングによらず、物体の浮き量を精度よく測定できる。
In the object detection system, it is preferable that the light source irradiates the imaging region with parallel light.
In this way, regardless of the position of the object in the imaging region, if the floating amount of the end portion is the same, shadows of the same length can be generated. Therefore, the amount of floating of the object can be measured accurately regardless of the timing of imaging.

前記物体検知システムは、前記光源が前記進行方向に向けて光を照射するものであり、前記浮き量算出部が、前記物体の前記進行方向に沿った先端部における浮き量を算出することが好ましい。
このような物体検知システムでは、搬送される物体の先端を検知してその位置や移動速度を算出されるところ、このようにすれば物体の先端部(すなわち進行方向の前方端部)における浮き量を算出することができるのでより有益である。
In the object detection system, the light source irradiates light in the traveling direction, and it is preferable that the floating amount calculation unit calculates the floating amount at the tip portion of the object along the traveling direction. ..
In such an object detection system, the tip of the transported object is detected and its position and moving speed are calculated. In this way, the amount of float at the tip of the object (that is, the front end in the traveling direction) is calculated. Is more useful because it can be calculated.

前記物体検知システムは、前記撮像装置が、複数の撮像素子が縦横マトリクス状に敷設されたエリアセンサを有するものであり、前記浮き量算出部が、前記進行方向に垂直な方向に沿った複数点における前記物体の浮き量を算出することが好ましい。
このようなものであれば、進行方向に直交する方向に沿った物体のたわみ量を把握することができる。
In the object detection system, the image pickup device has an area sensor in which a plurality of image pickup elements are laid in a vertical and horizontal matrix, and the float amount calculation unit has a plurality of points along a direction perpendicular to the traveling direction. It is preferable to calculate the floating amount of the object in.
With such a thing, it is possible to grasp the amount of deflection of the object along the direction orthogonal to the traveling direction.

物体の端部が浮いている状態と浮いていない状態とを比べると、その端部の移動方向に沿った実際の位置が同じであっても、撮像画像から検出される端部のエッジ位置はその画像座標系において相違してしまう。そのため端部が浮き上がっている状態で検出した端部のエッジ位置をそのまま用いて物体の移動速度を算出した場合その移動速度は誤差を含んでしまうことになる。
そのため、前記物体検知システムは、前記浮き量算出部が算出した浮き量に応じて前記物体エッジ位置データが示す前記物体の端部のエッジ位置を補正するエッジ位置補正部を更に備えることが好ましい。
このようにすれば、浮き量に応じて物体の端部のエッジ位置を補正できるので、検出したエッジ位置を、例えば物体の端部が浮いていない状態における位置に補正することにより、物体の位置や移動速度をより正確に算出することができるようになる。
Comparing the floating state and the non-floating state of the edge of the object, even if the actual position of the edge along the moving direction is the same, the edge position of the edge detected from the captured image is It will be different in the image coordinate system. Therefore, if the moving speed of the object is calculated by using the edge position of the end detected in the state where the end is raised as it is, the moving speed will include an error.
Therefore, it is preferable that the object detection system further includes an edge position correction unit that corrects the edge position of the end portion of the object indicated by the object edge position data according to the float amount calculated by the float amount calculation unit.
In this way, the edge position of the edge of the object can be corrected according to the amount of floating. Therefore, the detected edge position can be corrected to the position where the edge of the object is not floating, for example, to correct the position of the object. And the movement speed can be calculated more accurately.

前記物体検知システムの効果を顕著に奏する態様としては、前記物体がフィルム状、シート状又は板状であるものを挙げることができる。 As an embodiment in which the effect of the object detection system is remarkably exhibited, an object having a film shape, a sheet shape, or a plate shape can be mentioned.

また本発明に係る物体検知システム用プログラムは、搬送機構に載せられて所定の進行方向に移動する物体を検知するものであり、前記物体が通過する領域を撮像する撮像装置と、前記撮像装置の撮像領域に対して所定の方向から光を照射する光源とを備える物体検知システム用のプログラムであって、前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部としての機能と、算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部としての機能と、をコンピュータに発揮させることを特徴とする。 Further, the object detection system program according to the present invention detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and includes an image pickup device that captures an image of a region through which the object passes and the image pickup device. A program for an object detection system including a light source that irradiates an imaging region with light from a predetermined direction, and the shadow of the shadow generated from the edge of the object reflected in the image captured by the imaging device. A function as a shadow length calculation unit that calculates the shadow length, which is the length along the irradiation direction, and a function as a floating amount calculation unit that calculates the floating amount of the object based on the calculated shadow length. It is characterized by letting the computer exert the above.

このような物体検知システム用のプログラムであれば、上記した物体検知システムと同様の作用効果を奏し得る。 A program for such an object detection system can have the same effect as the above-mentioned object detection system.

このようにした本発明によれば、搬送機構により搬送される物体の浮き量を精度よく測定できる物体検知システムを提供することができる。 According to the present invention as described above, it is possible to provide an object detection system capable of accurately measuring the floating amount of an object transported by the transport mechanism.

本発明の一実施形態における物体検知システムの構成を模式的に示す斜視図。The perspective view which shows typically the structure of the object detection system in one Embodiment of this invention. 同実施形態の物体検知システムの機能ブロック図。The functional block diagram of the object detection system of the same embodiment. 同実施形態の物体検知システムが処理する撮像画像の一例を示す図。The figure which shows an example of the captured image processed by the object detection system of the same embodiment. 同実施形態の物体検知システムによる浮き量の算出を説明する図。The figure explaining the calculation of the float amount by the object detection system of the same embodiment. 同実施形態の浮き量算出部による算出結果の一例を示すグラフ。The graph which shows an example of the calculation result by the float amount calculation part of the same embodiment. 同実施形態の物体検知システムによる物体エッジ位置の補正を説明する図。The figure explaining the correction of the object edge position by the object detection system of the same embodiment. 同実施形態の物体検知システムによる照射角等の校正を説明する図。The figure explaining the calibration of the irradiation angle and the like by the object detection system of the same embodiment. 同実施形態の物体検知システムの動作を説明するフローチャート。The flowchart explaining the operation of the object detection system of the same embodiment.

以下に、本発明の一実施形態に係る物体検知システム100について図面を参照して説明する。 Hereinafter, the object detection system 100 according to the embodiment of the present invention will be described with reference to the drawings.

本実施形態に係る物体検知システム100は、例えばベルトコンベア等の搬送機構M上に載せられて所定の進行方向に動く紙等の物体Oの通過を検知するものである。具体的にこの物体検知システム100は、図1に示すように、物体Oが通過する所定の領域(以下、撮像領域ともいう)Rを撮像する撮像装置1と、撮像装置1の撮像領域Rに光を照射する光源2と、撮像装置1による撮像装置1を処理して物体Oを検知する画像処理装置3とを備えている。以下に各部を説明する。なお以下の説明では、物体Oの進行方向(すなわち、搬送機構Mによる搬送方向)に平行な方向をx軸方向、搬送機構Mの載置面M(具体的にはベルト)に平行であってx軸方向と垂直な方向をy軸方向、x軸方向及びy軸方向と直交する方向をz軸方向とする。 The object detection system 100 according to the present embodiment detects the passage of an object O such as paper that is mounted on a transport mechanism M such as a belt conveyor and moves in a predetermined traveling direction. Specifically, as shown in FIG. 1, the object detection system 100 includes an imaging device 1 that captures a predetermined region (hereinafter, also referred to as an imaging region) R through which the object O passes, and an imaging region R of the imaging device 1. It includes a light source 2 that irradiates light, and an image processing device 3 that processes the image pickup device 1 by the image pickup device 1 to detect an object O. Each part will be described below. In the following description, the traveling direction of the object O (i.e., the feeding direction M) is parallel to the x-axis direction to a direction parallel to the transport mechanism M of the mounting surface M s (specifically belt) The direction perpendicular to the x-axis direction is defined as the y-axis direction, and the direction orthogonal to the x-axis direction and the y-axis direction is defined as the z-axis direction.

撮像装置1は、搬送機構M上の撮像領域Rを一定の時間間隔で撮像し、その撮像画像データを逐次出力するものである。具体的にこの撮像装置1は、複数の撮像素子が縦横マトリクス状に面状に敷設されたエリアセンサ(例えば128×128画素のCMOSイメージセンサ等)と、エリアセンサの前段に配置された光学系11とを備えている。撮像領域Rは約2〜20mm四方の矩形状をなしており、その2組の対向する辺がそれぞれx軸方向及びy軸方向と平行になるように設定されている。すなわち複数の撮像素子が並ぶ縦横のそれぞれの方向と、x軸方向及びy軸方向とが平行になっている。なお光学系11は、被写界深度が深いレンズを備えるものが好ましい。このようなものであれば、物体Oの厚みや表面の高さによるピンボケを低減できる。 The imaging device 1 images the imaging region R on the transport mechanism M at regular time intervals, and sequentially outputs the captured image data. Specifically, the image pickup device 1 includes an area sensor (for example, a 128 × 128 pixel CMOS image sensor) in which a plurality of image pickup elements are laid out in a vertical and horizontal matrix pattern, and an optical system arranged in front of the area sensor. It is equipped with 11. The imaging region R has a rectangular shape of about 2 to 20 mm square, and the two sets of opposite sides are set to be parallel to the x-axis direction and the y-axis direction, respectively. That is, the vertical and horizontal directions in which the plurality of image pickup devices are lined up are parallel to the x-axis direction and the y-axis direction. The optical system 11 preferably includes a lens having a deep depth of field. With such a thing, it is possible to reduce the out-of-focus due to the thickness of the object O and the height of the surface.

光源2は、撮像装置1の撮像領域Rを通過している物体Oに平行光を照射するものである。具体的にこの光源2は、白色LED等のLED装置と、当該LED装置から発せられた光を集光するレンズ等の集光機構とを備えている。より具体的にこの光源2は、物体Oの少なくとも先端部(すなわち進行方向の前方端部)Oに対して、その進行方向に向かって斜め下向きに光を照射し、搬送機構Mの載置面M上(具体的には物体Oの先端部Oよりも前方)に物体Oの先端部Oの影Sを投影するように構成されている。z軸方向から視て、光源2から照射される光はx軸方向と平行となるようにしている。 The light source 2 irradiates the object O passing through the imaging region R of the imaging device 1 with parallel light. Specifically, the light source 2 includes an LED device such as a white LED and a condensing mechanism such as a lens that condenses the light emitted from the LED device. More specifically the light source 2, for at least the distal end portion (or forward end portion in the traveling direction) O t of the object O, and light is irradiated obliquely downward toward the traveling direction, placed in the transport mechanism M (specifically forward of the distal end portion O t of the object O) on the surface M s it is configured to project a shadow S of the object O of the tip O t in. When viewed from the z-axis direction, the light emitted from the light source 2 is made parallel to the x-axis direction.

画像処理装置3は、撮像装置1から出力された撮像画像データを受け付けてこれを処理することにより、撮像領域R内を通過する物体Oを検知するものである。 The image processing device 3 receives the captured image data output from the imaging device 1 and processes the captured image data to detect the object O passing through the imaging region R.

しかして、本実施形態の物体検知システム100では、画像処理装置3が、取得した撮像画像データを処理して物体Oの先端部Oから生じた影Sの長さを算出し、算出した影Sの長さに基づいて物体Oの先端部Oの浮き量hを算出するように構成されている。 Then, in the object detection system 100 of the present embodiment, the image processing device 3 processes the acquired image data to calculate the length of the shadow S generated from the tip O t of the object O, and the calculated shadow. It is configured to calculate the floating amount h of the tip O t of the object O based on the length of S.

画像処理装置3は、物理的にいえば、CPU、メモリ及び入出力インターフェース等を備えた汎用乃至専用のコンピュータであり、メモリの所定領域に格納された所定プログラムに従ってCPUや周辺機器を協働させることにより、図2に示すように、エッジ検出部31、影長さ算出部32、記憶部33及び浮き量算出部34としての機能を少なくとも発揮する。以下に各機能部を説明する。 Physically speaking, the image processing device 3 is a general-purpose or dedicated computer provided with a CPU, a memory, an input / output interface, and the like, and the CPU and peripheral devices are made to cooperate according to a predetermined program stored in a predetermined area of the memory. As a result, as shown in FIG. 2, at least the functions as the edge detection unit 31, the shadow length calculation unit 32, the storage unit 33, and the floating amount calculation unit 34 are exhibited. Each functional part will be described below.

エッジ検出部31は、撮像装置1から受け付けた撮像画像データを処理し、同一のタイミングで撮像された1つの撮像画像に写り込む物体Oの先端部Oと、物体Oから生じた影Sの先端部Sのそれぞれのエッジを検出する。そして、検出した物体Oの先端部Oのエッジの位置である物体エッジ位置Eо(xо,yо)を示す物体エッジ位置データと、影Sの先端部Sのエッジの位置である影エッジ位置E(x,y)を示す影エッジ位置データとを生成し、これらを影長さ算出部32に出力する。なお本実施形態では、図3に示すように、物体エッジ位置Eо(xо,yо)及び影エッジ位置E(x,y)は、撮像装置1における左上隅(進行方向における最後方であって、進行方向に向かって最も左)の画素中心を原点(0,0)とする画像座標系により表される位置である。 The edge detection unit 31 processes the captured image data received from the imaging device 1, and the tip O t of the object O reflected in one captured image captured at the same timing and the shadow S generated from the object O. detecting the respective edges of the front end portion S t. Then, the detected is a position of an edge of the object O of the tip O t object edge position E о (x о, y о ) and the object edge position data indicating a is the position of the edge of the tip portion S t of the shadow S shadow edge position E s (x s, y s ) to produce a shadow edge position data indicating the outputs these to Kagecho calculating section 32. In the present embodiment, as shown in FIG. 3, the object edge position E о (x о , y о ) and the shadow edge position E s (x s , y s ) are the upper left corners (in the traveling direction) of the image pickup apparatus 1. This is the rearmost position represented by the image coordinate system with the pixel center (leftmost in the traveling direction) as the origin (0,0).

エッジ検出部31は、撮像画像データが示す撮像画像Pの輝度の勾配計算に基づいて、物体O及び影Sのそれぞれの先端部O、Sのエッジを検出する。この際に平滑化処理(移動平均、ガウシアン)、メディアン、プリューウィットフィルタ及びソーベルフィルタ等のフィルタ処理や、サブピクセル処理等を行ってもよい。 Edge detecting unit 31 based on the gradient calculation of the brightness of the captured image P indicated by the captured image data, detects the respective tip O t, edges of S t of the object O and the shadow S. At this time, a smoothing process (moving average, Gaussian), a filter process such as a median, a Pruwitt filter, a Sobel filter, or a subpixel process may be performed.

本実施形態のエッジ検出部31は、y軸方向に沿った複数の位置において、物体Oと影Sのそれぞれの先端部O、Sのエッジを検出するように構成されている。具体的には図3に示すように、対象領域内にはx軸方向に平行であって、y座標が異なる複数本のエッジ検出ラインL〜Lが設定されている。エッジ検出部31は、エッジ検出ラインL〜L毎に、物体Oと影Sのそれぞれの先端部O、Sのエッジ位置を検出する。 Edge detecting unit 31 of the present embodiment, in a plurality of positions along the y-axis direction, each of the distal end portion O t of the object O and shadow S, it is configured to detect an edge of S t. Specifically, as shown in FIG. 3, a plurality of edge detection lines L 1 to L 7 that are parallel to the x-axis direction and have different y-coordinates are set in the target region. Edge detection unit 31, each edge detection lines L 1 ~L 7, detects the edge position of each of the tip O t, S t of the object O and shadow S.

影長さ算出部32は、物体エッジ位置データ及び影エッジ位置データを受け付け、これらに基づき、x軸方向に沿った影Sの長さである影長さを算出する。影長さ算出部32は、同一のタイミングで撮像された1つの撮像画像に写り込む影エッジ位置Eのx座標xと物体エッジ位置Eоのx座標xоとの差から影長さlを算出する。具体的には、以下の(1)式に示す演算、又はこれと均等な演算をすることにより、影長さlを算出する。 The shadow length calculation unit 32 receives the object edge position data and the shadow edge position data, and calculates the shadow length, which is the length of the shadow S along the x-axis direction, based on these. Kagecho calculator 32, Kagecho of the difference between the x-coordinate x o x coordinate x s and the object edge position E o of the shadow edge positions E s visible on captured single captured image captured at the same timing 1 is calculated. Specifically, the shadow length l is calculated by performing the calculation shown in the following equation (1) or an operation equivalent thereto.

l=(x−xо)×r (1)
ここで、lは影長さ(mm)、xоは物体Oの先端部Oのx座標位置(pix)、xは影Sの先端部Sのx座標位置(pix)、rは撮像視野に対する画素分解能(mm/pix)である。
l = (x s −x о ) × r (1)
Here, l is Kagecho of (mm), x o is the x-coordinate position of the object O of the tip O t (pix), x s is the x-coordinate position of the tip portion S t of the shadow S (pix), r is It is the pixel resolution (mm / pix) with respect to the imaging field of view.

ここでは影長さ算出部32は、y軸方向に沿った複数の位置において影長さを算出するように構成されている。具体的には、エッジ検出ラインL〜L毎に検出された物体エッジ位置及び影エッジ位置に基づいて、エッジ検出ラインL〜L毎に影長さを算出する。 Here, the shadow length calculation unit 32 is configured to calculate the shadow length at a plurality of positions along the y-axis direction. Specifically, on the basis of the detected object edge position and the shadow edge positions for each edge detection lines L 1 ~L 7, calculates the Kagecho of each edge detection lines L 1 ~L 7.

記憶部33は、メモリの所定領域に設定されたものであり、物体Oの先端部Oの厚みtを示す厚みデータと、物体Oに対する光源2からの光の照射角θを示す照射角データと、光学系11の主点から搬送機構Mの搬送面までの距離zを示す距離データとを記憶している。 The storage unit 33 is set in a predetermined area of the memory, and has thickness data indicating the thickness t of the tip O t of the object O and irradiation angle data indicating the irradiation angle θ of the light from the light source 2 with respect to the object O. And the distance data indicating the distance z from the main point of the optical system 11 to the transport surface of the transport mechanism M are stored.

物体Oの先端部Oの厚みtを示す厚みデータ、光学系11の主点から搬送機構Mの搬送面までの距離zを示す距離データ、及び照射角θを示す照射角データは、ユーザによって予め設定され、格納されたものである。 The thickness data indicating the thickness t of the tip O t of the object O, the distance data indicating the distance z from the principal point of the optical system 11 to the transport surface of the transport mechanism M, and the irradiation angle data indicating the irradiation angle θ are provided by the user. It is preset and stored.

浮き量算出部34は、影長さ算出部32が算出した影長さlに基づいて物体Oの先端部Oの浮き量hを算出する。浮き量算出部34は、記憶部33に記憶された厚みtと照射角θを参照し、図4に示すように、影長さlに照射角θの正接を乗じ、これから厚みtを減じることで算出する。具体的には、以下の(2)式に示す演算、又はこれと均等な演算をすることにより、物体Oの先端部Oの浮き量hを算出する。 Floating amount calculating unit 34 calculates the floating amount h of the object O of the tip O t based on Kagecho of l to Kagecho calculator 32 has calculated. The floating amount calculation unit 34 refers to the thickness t stored in the storage unit 33 and the irradiation angle θ, multiplies the shadow length l by the tangent of the irradiation angle θ, and subtracts the thickness t from this, as shown in FIG. Calculate with. Specifically, the floating amount h of the tip O t of the object O is calculated by performing the calculation shown in the following equation (2) or an operation equivalent thereto.

h=l×tanθ−t (2)
ここで、hは浮き量(mm)、θは光源2の照射角(°)、tは物体Oの先端部Oの厚み(mm)である。
h = l × tan θ−t (2)
Here, h is floating amount (mm), θ is the irradiation angle of the light source 2 (°), t is the thickness of the object O of the tip O t (mm).

浮き量算出部34は、y軸方向に沿った複数の位置における浮き量hを算出する。具体的には、エッジ検出ラインL〜L毎に算出された影長さに基づいて、これら複数のエッジ検出ラインL〜L毎に、物体Oの先端部Oの浮き量hを算出する。そして、図5に示すように、算出したy軸方向に沿った複数の位置における浮き量hに関する情報をディスプレイに出力したり、他の機器に対してシリアル通信やパルス出力等を行う。 The float amount calculation unit 34 calculates the float amount h at a plurality of positions along the y-axis direction. Specifically, based on of Kagecho calculated for each edge detection lines L 1 ~L 7, floating amount of the plurality of per edge detection lines L 1 ~L 7, of the object O tip O t h Is calculated. Then, as shown in FIG. 5, information on the float amount h at a plurality of positions along the calculated y-axis direction is output to the display, and serial communication, pulse output, or the like is performed to another device.

本実施形態の画像処理装置3は、エッジ位置補正部35としての機能を更に発揮するように構成されている。このエッジ位置補正部35は、エッジ検出部31が算出した物体エッジ位置Eо(xо,yо)を、浮き量算出部34が算出した浮き量hに応じて補正し、補正後の物体エッジ位置である補正後物体エッジ位置Eо’(xо’,yо’)を算出する。この補正後物体エッジ位置Eо’(xо’,yо’)は、物体Oの先端部Oの浮き量hをゼロと仮定した場合における、物体Oの先端部Oのエッジ位置を意味する。具体的にこのエッジ位置補正部35は、以下の(3)式及び(4)式に示す演算、又はこれと均等な演算をすることにより、補正後物体エッジ位置Eо’を算出する。 The image processing device 3 of the present embodiment is configured to further exhibit the function as the edge position correction unit 35. The edge position correction unit 35 corrects the object edge position E о (x о , y о ) calculated by the edge detection unit 31 according to the float amount h calculated by the float calculation unit 34, and the corrected object. The corrected object edge position E о '(x о ', y о '), which is the edge position, is calculated. The corrected object edge position E о '(x о', y о ') is in assuming a floating amount h of the object O of the tip O t zero, the edge position of the object O of the tip O t means. Specifically, the edge position correction unit 35 calculates the corrected object edge position E о'by performing the operations shown in the following equations (3) and (4), or an operation equivalent thereto.

о’=(xо−x)×{z’/(z−t))+x (3)
z’=z−(t+h) (4)
ここで、図6に示すように、zは光学系11の主点から搬送機構Mの搬送面までの距離(mm)、z’は光学系11の主点から物体Oまでの垂直距離(mm)、tは物体Oの先端部Oの厚み(mm)、xは撮像装置1の中心のx座標位置(pix)、hは先端部Oの浮き量(mm)である。
x о '= (x о −x c ) × {z'/ (z−t)) + x c (3)
z'= z- (t + h) (4)
Here, as shown in FIG. 6, z is the distance (mm) from the principal point of the optical system 11 to the transport surface of the transport mechanism M, and z'is the vertical distance (mm) from the principal point of the optical system 11 to the object O. ), t is the thickness of the object O of the tip O t (mm), x c is the x coordinate position of the center of the image pickup apparatus 1 (pix), floating amount of h is tip O t (mm).

本実施形態のエッジ位置補正部35は、y軸方向に沿った複数の位置において、補正後物体エッジ位置Eо’を算出する。具体的には、エッジ検出ラインL〜L毎に算出された物体エッジ位置Eо及び浮き量hに基づいて、y軸方向に沿った複数位置における補正後物体エッジ位置Eо’を算出する。そして算出した補正後物体エッジ位置Eо’に関する情報を、ディスプレイに出力したり、他の機器に取込んで制御を行えるよう、例えばシリアル通信やパルス出力等を行う。 The edge position correction unit 35 of the present embodiment calculates the corrected object edge position E о'at a plurality of positions along the y-axis direction. Specifically, the corrected object edge position E о'at a plurality of positions along the y-axis direction is calculated based on the object edge position E о and the floating amount h calculated for each of the edge detection lines L 1 to L 7. To do. Then, for example, serial communication or pulse output is performed so that the calculated information on the corrected object edge position E о'can be output to the display or taken into another device for control.

本実施形態の画像処理装置3は、エッジ位置補正部35が算出した補正後の物体エッジ位置に基づいて、記憶部33に格納された照射角θや距離zを校正する校正部36をさらに備えている。 The image processing device 3 of the present embodiment further includes a calibration unit 36 that calibrates the irradiation angle θ and the distance z stored in the storage unit 33 based on the corrected object edge position calculated by the edge position correction unit 35. ing.

具体的に校正部36は、図7に示すように、厚みtが既知である標準物体Pをその先端部が浮かないようにして撮像領域R内に置いて撮像した校正用画像から得られる情報に基づき、校正後の照射角θを算出する。より具体的には、校正部36は、校正用画像に対してエッジ検出部31、影長さ算出部32、浮き量算出部34及びエッジ位置補正部35が上記した処理を行うことで得られる、標準物体の先端部の影エッジ位置xrsと、標準物体の先端部の補正後のエッジ位置xrо’とを用いて、以下の(5)式に示す演算、又はこれと均等な演算をすることにより、校正後の照射角θを算出する。そして算出した照射角θを記憶部33に格納する。 Specifically calibration unit 36, as shown in FIG. 7, is obtained from the calibration image captured placed within the imaging region R by standard object P thickness t r is known as brooding its tip Based on the information, the irradiation angle θ c after calibration is calculated. More specifically, the calibration unit 36 is obtained by performing the above processing on the calibration image by the edge detection unit 31, the shadow length calculation unit 32, the floating amount calculation unit 34, and the edge position correction unit 35. , The shadow edge position x rs of the tip of the standard object and the corrected edge position x rо'of the tip of the standard object are used to perform the calculation shown in the following equation (5) or an equivalent calculation. By doing so, the irradiation angle θ c after calibration is calculated. Then, the calculated irradiation angle θ c is stored in the storage unit 33.

θ=arctan[t/{(xrs−xrо’)×r}] (5)
ここで、tは標準物体の先端部の厚み(mm)、xrsは標準物体から生じる影の先端部のx座標位置(pix)、xrо’は標準物体の先端部の補正後のx座標位置(pix)、rは撮像視野に対する画素分解能(mm/pix)である。
θ c = arctan [t r / {(x rs -x rо ') × r}] (5)
Here, t r is the standard object of the tip portion of the thickness (mm), x rs is the x-coordinate position of the distal end portion of the shadow resulting from the standard object (pix), x rо 'is x after the correction of the front end portion of a standard object The coordinate position (pix) and r are pixel resolutions (mm / pix) with respect to the imaging field of view.

また校正部36は、図7に示すように、x軸方向に沿った長さWが既知である標準物体をその先端部と後端部が浮かないようにして撮像領域R内に置いて、先端部と後端部の両方ともが写るように撮像した校正用画像から得られる情報に基づき、校正後の距離zを算出する。より具体的には、校正部36は、校正用画像に対してエッジ検出部31、影長さ算出部32、浮き量算出部34及びエッジ位置補正部35が上記した処理を行うことで得られる、標準物体の先端部の補正後のエッジ位置xrо’と、標準物体の後端部の補正後のエッジ位置xrp’とを用いて、以下の(6)式に示す演算、又はこれと均等な演算をすることにより、校正後の距離zを算出する。そして算出した距離zを記憶部33に格納する。 Further, as shown in FIG. 7, the calibration unit 36 places a standard object having a known length W along the x-axis direction in the imaging region R so that the front end portion and the rear end portion do not float. based on the information obtained from the calibration image taken as both the tip and the rear end portion objects appear, to calculate the distance z c after calibration. More specifically, the calibration unit 36 is obtained by performing the above-mentioned processing by the edge detection unit 31, the shadow length calculation unit 32, the floating amount calculation unit 34, and the edge position correction unit 35 on the calibration image. , corrected the tip of a standard object 'and the edge position after the correction of the rear end portion of a standard object x rp' edge position x Ro by using the arithmetic shown in the following equation (6), or as this by an even operation, to calculate the distance z c after calibration. Then, the calculated distance z c is stored in the storage unit 33.

=(W×128)/{(xrp’−xrо’)×2×tan(θ/2)} (6)
ここで、Wは標準物体のx軸方向に沿った長さ(mm)、xrо’は標準物体の先端部エッジの補正後のx座標位置(pix)、xrp’は標準物体の後端部エッジの補正後のx座標位置(pix)、θは撮像装置1の視野角(°)である。
z c = (W × 128) / {(x rp '-x rо') × 2 × tan (θ 2/2)} (6)
Here, W is the x-axis direction to the length along the standard object (mm), x rо 'is the x-coordinate position after the correction of the tip edge of the standard object (pix), x rp' is the standard object rear The x-coordinate position (pix) and θ 2 after the correction of the part edge are the viewing angles (°) of the image pickup apparatus 1.

前記した浮き量算出部34及びエッジ位置補正部35は、校正部36によって算出された校正後の照射角θ及び距離zを用いて、物体Oの浮き量h及び先端部Oの補正後のエッジ位置Eо’を算出するように構成されてよい。 The floating amount calculating section 34 and the edge position correcting unit 35 and, using the irradiation angle theta c and the distance z c after calibration calculated by the calibration unit 36, the correction of the floating amount h and the tip O t of the object O It may be configured to calculate the later edge position E о'.

次に、かかる構成の物体検知システム100の動作について、図8のフローチャートを参照して説明する。 Next, the operation of the object detection system 100 having such a configuration will be described with reference to the flowchart of FIG.

まず搬送機構Mにより物体Oを進行方向に移動させる。そして撮像装置1の撮像領域Rに入った物体Oの先端部Oを撮像する(ステップS1)。撮像装置1を処理して、y軸方向に沿った複数点における、物体Oの先端部Oのエッジ位置と、その影Sの先端部Sのエッジ位置とを検出する(ステップS2)。それぞれのエッジ位置の差から、y軸方向に沿った複数点における影Sの長さを算出する(ステップS3)。そして、算出した影Sの長さを用いて、y軸方向に沿った複数点における物体Oの先端部Oの浮き量hを算出し出力する(ステップS4)。次に、算出した浮き量hに基づいて、y軸方向に沿った複数点における、物体Oの先端部Oのエッジ位置を補正する(ステップS5)。そして、補正後の物体Oのエッジ位置である補正後物体エッジ位置を出力する。 First, the transport mechanism M moves the object O in the traveling direction. Then, the tip O t of the object O that has entered the imaging region R of the imaging device 1 is imaged (step S1). Processing the imaging apparatus 1, the plurality of points along the y-axis direction, the edge position of the object O of the tip O t, detects the edge position of the front end portion S t of the shadow S (step S2). From the difference in each edge position, the length of the shadow S at a plurality of points along the y-axis direction is calculated (step S3). Then, using the calculated length of the shadow S, the floating amount h of the tip O t of the object O at a plurality of points along the y-axis direction is calculated and output (step S4). Next, based on the calculated float amount h, the edge position of the tip O t of the object O at a plurality of points along the y-axis direction is corrected (step S5). Then, the corrected object edge position, which is the edge position of the corrected object O, is output.

このように構成された本実施形態の物体検知システム100によれば、物体Oを撮像した撮像装置1に写り込む影Sの長さに基づいて物体Oの浮き量hを算出するので、物体Oの表面の材質や浮いた表面の角度の影響を受けることなく、その浮き量hを測定することができる。このため、反射型の光学式センサを用いた場合に比べて、物体Oの浮き量hを精度よく測定することができる。 According to the object detection system 100 of the present embodiment configured in this way, the floating amount h of the object O is calculated based on the length of the shadow S reflected on the image pickup device 1 in which the object O is imaged. The floating amount h can be measured without being affected by the surface material of the surface and the angle of the floating surface. Therefore, the floating amount h of the object O can be measured more accurately than when a reflection type optical sensor is used.

さらに本実施形態の物体検知システム100は、エッジ検出部31により、撮像装置1内で検出された物体Oの端部と影Sの端部の詳細なエッジの位置に基づいて影長さを算出するので、影長さをより正確に算出することができる。そして、このように正確に算出した影長さを用いることで、物体Oの浮き量hを極めて精度よく測定することができる。 Further, the object detection system 100 of the present embodiment calculates the shadow length based on the detailed edge positions of the end of the object O and the end of the shadow S detected in the image pickup apparatus 1 by the edge detection unit 31. Therefore, the shadow length can be calculated more accurately. Then, by using the shadow length calculated accurately in this way, the floating amount h of the object O can be measured with extremely high accuracy.

また本実施形態の物体検知システム100は、算出した物体Oの端部のエッジ位置をその浮き量hに応じて補正するエッジ位置補正部35を備えるので、補正したエッジ位置を用いることで物体Oの位置や移動速度をより正確に算出することができる。 Further, since the object detection system 100 of the present embodiment includes an edge position correction unit 35 that corrects the calculated edge position of the end portion of the object O according to the floating amount h, the object O can be used by using the corrected edge position. The position and moving speed of the can be calculated more accurately.

また、本実施形態の物体検知システム100は、光源2の光の照射角θや、光学系11の主点から搬送機構Mの搬送面までの距離zを校正する校正部36を備えており、校正後の照射角θ及び校正後の距離zを用いることにより、物体Oの浮き量h及び先端部Oの補正後のエッジ位置Eо’を精度よく算出することができる。 Further, the object detection system 100 of the present embodiment includes a calibration unit 36 that calibrates the irradiation angle θ of the light of the light source 2 and the distance z from the main point of the optical system 11 to the transport surface of the transport mechanism M. By using the irradiation angle θ c after calibration and the distance z c after calibration, the floating amount h of the object O and the corrected edge position E о'of the tip O t can be calculated accurately.

なお、本発明は前記実施形態に限られるものではない。 The present invention is not limited to the above embodiment.

前記実施形態では、撮像装置1としてエリアセンサを備えるものを用いていたがこれに限らない。他の実施形態では撮像装置1はラインセンサを備えたラインカメラであってもよい。このようなラインカメラをその撮像素子がx軸方向に沿うように設けることで、物体Oの先端部Oの浮き量hを算出することができる。 In the above embodiment, the image pickup apparatus 1 provided with an area sensor is used, but the present invention is not limited to this. In another embodiment, the image pickup apparatus 1 may be a line camera including a line sensor. By providing such a line camera so that the image sensor is along the x-axis direction, it is possible to calculate the floating amount h of the tip O t of the object O.

前記実施形態では物体Oの先端部Oの浮き量hを算出するものであったが、これに限らず物体Oの側端部の浮き量hを算出するものであってもよい。この場合、光源2からの光をy軸方向に沿って照射し、物体Oの側端部からy軸方向に沿った影Sの長さを算出することで、側端部の浮き量hを算出してもよい。 But was to calculate the floating amount h of the object O of the tip O t in the embodiment, may be configured to calculate the floating amount h of the side end portion of the object O is not limited thereto. In this case, the light from the light source 2 is irradiated along the y-axis direction, and the length of the shadow S along the y-axis direction is calculated from the side end portion of the object O to obtain the floating amount h of the side end portion. It may be calculated.

前記した各機能部は、例えばFPGA(Field Programable Gate Array)等の再構成可能なハードウェア回路によって実現されてもよい。 Each of the above-mentioned functional parts may be realized by a reconfigurable hardware circuit such as FPGA (Field Programmable Gate Array).

その他、本発明は前記実施形態に限られず、その趣旨を逸脱しない範囲で種々の変形が可能であるのは言うまでもない。 In addition, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.

100・・・物体検知システム
1 ・・・光源
2 ・・・撮像装置
31 ・・・エッジ検出部
32 ・・・影長さ算出部
34 ・・・浮き量算出部
35 ・・・エッジ位置補正部
100 ・ ・ ・ Object detection system 1 ・ ・ ・ Light source 2 ・ ・ ・ Imaging device 31 ・ ・ ・ Edge detection unit 32 ・ ・ ・ Shadow length calculation unit 34 ・ ・ ・ Float amount calculation unit 35 ・ ・ ・ Edge position correction unit

Claims (9)

搬送機構に載せられて所定の進行方向に移動する物体を検知するものであって、
前記物体が通過する領域を撮像する撮像装置と、
前記撮像装置の撮像領域に対して所定の方向から光を照射する光源と、
前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部と、
算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部と
を備える物体検知システム。
It detects an object that is mounted on a transport mechanism and moves in a predetermined direction of travel.
An imaging device that images the area through which the object passes, and
A light source that irradiates the imaging region of the imaging apparatus with light from a predetermined direction,
A shadow length calculation unit that calculates a shadow length that is the length of a shadow generated from an edge of the object along the irradiation direction of the light, which is reflected in an image captured by the image pickup device.
An object detection system including a floating amount calculation unit that calculates a floating amount of the object based on the calculated shadow length.
前記撮像画像を処理し、当該撮像画像に写り込んだ前記物体の端部と前記影の端部のそれぞれのエッジを検出するとともに、該検出したそれぞれのエッジの位置を示す物体エッジ位置データと影エッジ位置データとを出力するエッジ検出部を更に備え、
前記影長さ算出部が、出力された前記物体エッジ位置データと影エッジ位置データのそれぞれが示すエッジ位置の差から前記影長さを算出する請求項1に記載の物体検知システム。
The captured image is processed to detect the edges of the edge of the object and the edge of the shadow reflected in the captured image, and the object edge position data and the shadow indicating the positions of the detected edges. It also has an edge detection unit that outputs edge position data.
The object detection system according to claim 1, wherein the shadow length calculation unit calculates the shadow length from the difference between the output edge positions of the object edge position data and the shadow edge position data.
前記浮き量算出部が、前記物体の厚みと、前記光源からの光の照射角と、前記影長さ算出部が算出した影長さとに基づいて、前記物体の端部の浮き量を算出する請求項1又は2に記載の物体検知システム。 The floating amount calculation unit calculates the floating amount of the end portion of the object based on the thickness of the object, the irradiation angle of the light from the light source, and the shadow length calculated by the shadow length calculating unit. The object detection system according to claim 1 or 2. 前記光源が前記撮像領域に平行光を照射する請求項1〜3のいずれか一項に記載の物体検知システム。 The object detection system according to any one of claims 1 to 3, wherein the light source irradiates the imaging region with parallel light. 前記光源が前記進行方向に向けて光を照射するものであり、
前記浮き量算出部が、前記物体の前記進行方向に沿った先端部における浮き量を算出する請求項1〜4のいずれか一項に記載の物体検知システム。
The light source irradiates light in the traveling direction.
The object detection system according to any one of claims 1 to 4, wherein the floating amount calculating unit calculates a floating amount at a tip portion of the object along the traveling direction.
前記撮像装置が、複数の撮像素子が縦横マトリクス状に敷設されたエリアセンサを有するものであり、
前記浮き量算出部が、前記進行方向に垂直な方向に沿った複数点における前記物体の浮き量を算出する請求項1〜5のいずれか一項に記載の物体検知システム。
The image pickup device has an area sensor in which a plurality of image pickup elements are laid in a vertical and horizontal matrix.
The object detection system according to any one of claims 1 to 5, wherein the floating amount calculation unit calculates the floating amount of the object at a plurality of points along a direction perpendicular to the traveling direction.
前記浮き量算出部が算出した浮き量に応じて、前記物体エッジ位置データが示す前記物体の端部のエッジ位置を補正するエッジ位置補正部を更に備える請求項2又は請求項2を引用する請求項3〜6のいずれか一項に記載の物体検知システム。 Claim 2 or claim 2 which further includes an edge position correction unit that corrects the edge position of the end portion of the object indicated by the object edge position data according to the floating amount calculated by the floating amount calculation unit. Item 3. The object detection system according to any one of Items 3 to 6. 前記物体がフィルム状、シート状又は板状である請求項1〜7のいずれか一項に記載の物体検知システム。 The object detection system according to any one of claims 1 to 7, wherein the object is in the form of a film, a sheet, or a plate. 搬送機構に載せられて所定の進行方向に移動する物体を検知するものであり、前記物体が通過する領域を撮像する撮像装置と、前記撮像装置の撮像領域に対して所定の方向から光を照射する光源とを備える物体検知システムのプログラムであって、
前記撮像装置による撮像画像に写り込む、前記物体の端部から生じた影の前記光の照射方向に沿った長さである影長さを算出する影長さ算出部としての機能と、
算出された前記影長さに基づいて前記物体の浮き量を算出する浮き量算出部としての機能と、をコンピュータに発揮させることを特徴とする物体検知システムのプログラム。
It detects an object that is mounted on a transport mechanism and moves in a predetermined traveling direction, and irradiates an imaging device that images an area through which the object passes and an imaging area of the imaging device with light from a predetermined direction. A program of an object detection system equipped with a light source
A function as a shadow length calculation unit that calculates a shadow length that is the length of a shadow generated from an edge of the object along the irradiation direction of the light, which is reflected in an image captured by the image pickup device.
A program of an object detection system characterized in that a computer exerts a function as a float amount calculation unit that calculates a float amount of the object based on the calculated shadow length.
JP2019190176A 2019-10-17 2019-10-17 Object detection system and program for object detection system Active JP7266300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190176A JP7266300B2 (en) 2019-10-17 2019-10-17 Object detection system and program for object detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190176A JP7266300B2 (en) 2019-10-17 2019-10-17 Object detection system and program for object detection system

Publications (2)

Publication Number Publication Date
JP2021063780A true JP2021063780A (en) 2021-04-22
JP7266300B2 JP7266300B2 (en) 2023-04-28

Family

ID=75486116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190176A Active JP7266300B2 (en) 2019-10-17 2019-10-17 Object detection system and program for object detection system

Country Status (1)

Country Link
JP (1) JP7266300B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116494023A (en) * 2023-04-11 2023-07-28 中国航空制造技术研究院 Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62297711A (en) * 1986-06-17 1987-12-24 Nisshin Steel Co Ltd Detecting method for upward camber of hot bar of hot rolling equipment
JPH0429007A (en) * 1990-05-25 1992-01-31 Juki Corp Optical inspection device
JP2008246879A (en) * 2007-03-30 2008-10-16 Brother Ind Ltd Image recording device
JP2016093827A (en) * 2014-11-14 2016-05-26 Jfeスチール株式会社 Steel plate cutting position setting device and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62297711A (en) * 1986-06-17 1987-12-24 Nisshin Steel Co Ltd Detecting method for upward camber of hot bar of hot rolling equipment
JPH0429007A (en) * 1990-05-25 1992-01-31 Juki Corp Optical inspection device
JP2008246879A (en) * 2007-03-30 2008-10-16 Brother Ind Ltd Image recording device
JP2016093827A (en) * 2014-11-14 2016-05-26 Jfeスチール株式会社 Steel plate cutting position setting device and method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116494023A (en) * 2023-04-11 2023-07-28 中国航空制造技术研究院 Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool
CN116494023B (en) * 2023-04-11 2024-03-22 中国航空制造技术研究院 Device and method for measuring and correcting geometrical parameters of machining electrode of electro-hydraulic beam machine tool

Also Published As

Publication number Publication date
JP7266300B2 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
US11176655B2 (en) System and method for determining 3D surface features and irregularities on an object
KR101674131B1 (en) Alignment method, alignment device, and exposure device
CN107683401A (en) Shape measuring apparatus and process for measuring shape
KR101442895B1 (en) Method for measuring external shape of rectangular plate-like object, and method for calibrating relative position of image-capturing means
CN110823124A (en) Optical displacement meter
TW201443424A (en) Imaging system for transparent plate surface inspection
US20070273687A1 (en) Device for Scanning Three-Dimensional Objects
TWI661176B (en) Three-dimensional measurement device, three-dimensional measurement method, and manufacturing method of substrate
US12079978B2 (en) System and method for determining 3D surface features and irregularities on an object
US20170309035A1 (en) Measurement apparatus, measurement method, and article manufacturing method and system
US8717544B2 (en) Alignment method, alignment apparatus, and exposure apparatus
JP7266300B2 (en) Object detection system and program for object detection system
CN109690408B (en) Substrate angular position determination method
CN105209977B (en) Exposure device
JP2016138761A (en) Three-dimensional measurement method by optical cutting method and three-dimensional measuring instrument
JP6780533B2 (en) Shape measurement system and shape measurement method
US9554094B1 (en) System and method for determining a displaced substrate with a vision system
JP2011149800A (en) Substrate inspection device and substrate inspection method
JP3680861B1 (en) Method for detecting the center position of the measurement object
JP2001033397A (en) Method and apparatus for detecting surface flaw of object
JP2018044863A (en) Measurement device, measurement method, system and goods manufacturing method
JP5529829B2 (en) Height measuring device and height measuring method
JP4595226B2 (en) Method for detecting end position of conveyed material
EP1909063A1 (en) Vision-measuring-machine calibration scale
JP6191185B2 (en) Misalignment inspection method and misalignment inspection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7266300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150