JP2017058136A - Edge sensor - Google Patents

Edge sensor Download PDF

Info

Publication number
JP2017058136A
JP2017058136A JP2015180621A JP2015180621A JP2017058136A JP 2017058136 A JP2017058136 A JP 2017058136A JP 2015180621 A JP2015180621 A JP 2015180621A JP 2015180621 A JP2015180621 A JP 2015180621A JP 2017058136 A JP2017058136 A JP 2017058136A
Authority
JP
Japan
Prior art keywords
edge
light
light receiving
line sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015180621A
Other languages
Japanese (ja)
Other versions
JP6486252B2 (en
Inventor
晋 西坂
Shin Nishizaka
晋 西坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2015180621A priority Critical patent/JP6486252B2/en
Publication of JP2017058136A publication Critical patent/JP2017058136A/en
Application granted granted Critical
Publication of JP6486252B2 publication Critical patent/JP6486252B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an edge sensor that can expand the measurable width by using line sensors of an existing size.SOLUTION: An edge sensor is equipped with two line sensors 1a and 1b that are arranged in parallel to each other and whose light receiving areas are partly arranged overlapping the conveyance direction of a detection object; a light projecting unit 2 arranged opposing the light receiving areas of the line sensors 1a and 1b to project parallel light rays to the light receiving areas; and an edge detector 3 having a zero position adjuster 3a that adjusts the edge position of an adjustment object arranged, before the start of detection, in an area on the light path of parallel light beams, where light receiving areas are arranged partly overlapping each other, to the zero position and a calculator 3b that detects the position of an edge 10a of a detection object 10 by using the output of either line sensor selected on the basis of a light intensity distribution pattern detected by the line sensors 1a and 1b and the zero position set by the zero position adjuster 3a.SELECTED DRAWING: Figure 1

Description

この発明は、物体のエッジの位置を検出する技術に関するものである。   The present invention relates to a technique for detecting the position of an edge of an object.

フィルムやシートなどの物体の端部であるエッジの位置を検出するセンサとして、物体に向けて平行光を照射する投光部と、当該投光部に対峙させて照射された平行光を受光するラインセンサで構成された受光部とを備えた光学式のセンサがある。光学式のセンサでは、物体によって遮られなかった平行光を受光部において受光し、受光部における平行光の受光領域と物体によって遮られた遮光領域との境界を物体のエッジの位置として検出する。   As a sensor that detects the position of an edge that is the end of an object such as a film or sheet, a light projecting unit that emits parallel light toward the object, and a parallel light that is irradiated while facing the light projecting unit are received. There is an optical sensor provided with a light receiving unit constituted by a line sensor. In the optical sensor, parallel light not blocked by the object is received by the light receiving unit, and a boundary between the parallel light receiving region and the light blocking region blocked by the object in the light receiving unit is detected as the position of the edge of the object.

例えば、特許文献1には、投光部が照射する光としてレーザ光などの単色平行光を用いて、照射された当該単色平行光を複数の受光セルを所定のピッチで配列したラインセンサで受光し、物体のエッジにおける単色平行光のフレネル回折に着目して、演算部がラインセンサにおける光強度分布を解析し、物体のエッジ位置を高精度に検出するエッジセンサが開示されている。   For example, in Patent Document 1, monochromatic parallel light such as laser light is used as light emitted from a light projecting unit, and the emitted monochromatic parallel light is received by a line sensor in which a plurality of light receiving cells are arranged at a predetermined pitch. However, focusing on Fresnel diffraction of monochromatic parallel light at the edge of the object, an edge sensor is disclosed in which the calculation unit analyzes the light intensity distribution in the line sensor and detects the edge position of the object with high accuracy.

特開2009−69113号公報JP 2009-69113 A

上述した実施の形態1に開示された技術では、エッジセンサの計測幅はラインセンサを構成する受光セルを配列させたな長さによって決定されるため、エッジセンサの計測幅を拡大するためにはラインセンサ自体を大きくする必要があるという課題があった。種々の計測幅に適用させるためには、種々の大きさのラインセンサを製造する必要が生じ、ラインセンサおよびエッジセンサの製造工程のバリエーションを増やす必要があり、エッジセンサの製造コストが増加するという課題があった。   In the technique disclosed in the first embodiment described above, the measurement width of the edge sensor is determined by the length in which the light receiving cells constituting the line sensor are arranged. In order to increase the measurement width of the edge sensor There was a problem that it was necessary to enlarge the line sensor itself. In order to apply to various measurement widths, it is necessary to manufacture line sensors of various sizes, it is necessary to increase the manufacturing process of the line sensor and the edge sensor, and the manufacturing cost of the edge sensor increases. There was a problem.

この発明は、上記のような課題を解決するためになされたもので、既存の大きさのラインセンサを用いて計測幅を拡大可能なエッジセンサを提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an edge sensor capable of expanding the measurement width using a line sensor having an existing size.

この発明に係るエッジセンサは、複数の受光セルを直線状に配置した受光領域を有する2つのラインセンサと、ラインセンサの受光領域に対峙して配置され、受光領域に向けて平行光を投光する投光部と、2つのラインセンサで検出された光量分布パターンから、平行光の光路中に位置する検出対象物のエッジ位置を検出するエッジ検出部とを備え、2つのラインセンサは、互いに略平行に、且つ互いの受光領域の一部を検出対象物の搬送方向に重ねて配置し、エッジ検出部は、検出開始前に、平行光の光路中、且つ受光領域の一部が重ねて配置された領域上に配置した調整対象物のエッジ位置をゼロ位置とするゼロ位置調整部と、光量分布パターンとゼロ位置調整部が設定したゼロ位置とに基づいて選択したいずれか一方のラインセンサの出力を用いて、検出対象物のエッジ位置を検出する演算部とを備えるものである。   The edge sensor according to the present invention is arranged so as to face two light sensors having a light receiving area in which a plurality of light receiving cells are linearly arranged, and the light receiving area of the line sensor, and project parallel light toward the light receiving area. And an edge detector that detects an edge position of a detection object located in the optical path of the parallel light from the light quantity distribution patterns detected by the two line sensors. A part of the light receiving area is arranged substantially in parallel with each other in the conveying direction of the detection target, and the edge detecting unit overlaps a part of the light receiving area in the optical path of the parallel light before starting the detection. One of the line sensors selected on the basis of the zero position adjustment unit that sets the edge position of the adjustment object arranged on the arranged region to the zero position, and the light amount distribution pattern and the zero position set by the zero position adjustment unit of Using a force, in which and a computing section for detecting an edge position of the detection object.

この発明によれば、既存のラインセンサを用いて検出範囲を拡大させたエッジセンサを提供することができる。また、製造工程および製造コストを増加させることなく、種々の計測幅を有するエッジセンサを提供することができる。   According to this invention, the edge sensor which expanded the detection range using the existing line sensor can be provided. Moreover, the edge sensor which has various measurement widths can be provided, without increasing a manufacturing process and manufacturing cost.

実施の形態1に係るエッジセンサの構成を示す概略図である。1 is a schematic diagram illustrating a configuration of an edge sensor according to Embodiment 1. FIG. 実施の形態1に係るエッジセンサの構成をより詳細に示した斜視図である。FIG. 3 is a perspective view showing the configuration of the edge sensor according to the first embodiment in more detail. 実施の形態1に係るエッジセンサの受光部の構成をより詳細に示した図である。FIG. 3 is a diagram showing in more detail the configuration of the light receiving unit of the edge sensor according to the first embodiment. 実施の形態1に係るエッジセンサと搬送機構との関係を示した図である。FIG. 4 is a diagram illustrating a relationship between an edge sensor and a transport mechanism according to the first embodiment. 実施の形態1に係るエッジセンサのラインセンサの配置例およびゼロ位置調整を示す図である。It is a figure which shows the example of arrangement | positioning of the line sensor of the edge sensor which concerns on Embodiment 1, and zero position adjustment. 実施の形態1に係るエッジセンサによる検出対象物のエッジ位置の検出結果の一例を示している。An example of the detection result of the edge position of the detection target by the edge sensor which concerns on Embodiment 1 is shown. 実施の形態1に係るエッジセンサの処理動作を示すフローチャートである。4 is a flowchart showing processing operations of the edge sensor according to the first embodiment. 実施の形態2に係るエッジセンサの構成を示した斜視図である。FIG. 5 is a perspective view illustrating a configuration of an edge sensor according to a second embodiment. 実施の形態3に係るエッジセンサの構成を示す概略図である。6 is a schematic diagram illustrating a configuration of an edge sensor according to Embodiment 3. FIG. 実施の形態3に係るエッジセンサの処理動作を示すフローチャートである。12 is a flowchart illustrating processing operations of the edge sensor according to the third embodiment.

実施の形態1.
図1は、実施の形態1に係るエッジセンサの構成を示す概略図である。
エッジセンサは、受光部1、投光部2およびエッジ検出部3で構成される。受光部1と投光部2は、隙間を挟んで互いに対峙した状態で検出対象物10が通過可能な隙間を形成したコ字形状の筐体に一体で組み込まれ、1つのセンシングユニット5として形成される。
Embodiment 1 FIG.
FIG. 1 is a schematic diagram illustrating a configuration of an edge sensor according to the first embodiment.
The edge sensor includes a light receiving unit 1, a light projecting unit 2, and an edge detecting unit 3. The light receiving unit 1 and the light projecting unit 2 are integrally incorporated into a U-shaped casing having a gap through which the detection target 10 can pass while facing each other with a gap therebetween, and formed as one sensing unit 5. Is done.

受光部1は、複数の受光セルが位置方向に配列されたラインセンサで構成される。なお、受光部1の詳細な構成については後述する。投光部2は、受光部1に対峙して配置され、受光部1のラインセンサを構成する受光セルに向けてレーザ光などの単色平行光4を投光する。投光部2は、例えばレーザダイオードからなる光源2aが発した単色光を導く光ファイバ2bと、光ファイバ2bを介して導かれた単色光を平行光に変換して投射する例えばコリメータレンズなどの投射レンズ2cとを備える。エッジ検出部3は、ゼロ位置調整部3aおよび演算部3bを備える。ゼロ位置調整部3aは、検出対象物10のエッジ位置を検出する処理を開始する前に、エッジ位置の検出において用いる受光部1の出力を切り替える位置であるゼロ位置を設定する。演算部3bは、受光部1の出力を解析し、投光部2が投光した単色平行光4を遮蔽する例えば帯状の検出対象物10のエッジ10aの位置検出のための演算を行う。   The light receiving unit 1 includes a line sensor in which a plurality of light receiving cells are arranged in the position direction. The detailed configuration of the light receiving unit 1 will be described later. The light projecting unit 2 is disposed facing the light receiving unit 1 and projects monochromatic parallel light 4 such as laser light toward a light receiving cell that constitutes a line sensor of the light receiving unit 1. The light projecting unit 2 is, for example, an optical fiber 2b that guides monochromatic light emitted from a light source 2a composed of a laser diode, and converts monochromatic light guided through the optical fiber 2b into parallel light and projects, for example, a collimator lens. A projection lens 2c. The edge detection unit 3 includes a zero position adjustment unit 3a and a calculation unit 3b. Before starting the process of detecting the edge position of the detection target 10, the zero position adjusting unit 3a sets a zero position that is a position for switching the output of the light receiving unit 1 used in the detection of the edge position. The calculation unit 3b analyzes the output of the light receiving unit 1 and performs a calculation for detecting the position of the edge 10a of the band-shaped detection target 10 that shields the monochromatic parallel light 4 projected by the light projecting unit 2, for example.

次に、エッジセンサの受光部1および投光部2の詳細について、図2および図3を参照しながら説明する。図2は、実施の形態1に係るエッジセンサの構成をより詳細に示した斜視図である。図3は、実施の形態1に係るエッジセンサの受光部1の構成をより詳細に示した図である。
図2に示すように、受光部1は、第1のラインセンサ1aおよび第2のラインセンサ1bで構成され、投光部2は第1のラインセンサ1aに向けて単色平行光4aを投光する第1の投光部2d、および第2のラインセンサ1bに向けて単色平行光4bを投光する第2の投光部2eで構成される。第1のラインセンサ1aと第2のラインセンサ1bは、一部の領域を検出対象物10の搬送方向Aに重ねて配置される。第1の投光部2dおよび第2の投光部2eは、第1のラインセンサ1aおよび第2のラインセンサ1bの配置位置に対応させて、一部の領域を検出対象物10の搬送方向Aに重ねて配置する。
Next, details of the light receiving unit 1 and the light projecting unit 2 of the edge sensor will be described with reference to FIGS. FIG. 2 is a perspective view showing the configuration of the edge sensor according to Embodiment 1 in more detail. FIG. 3 is a diagram showing the configuration of the light receiving unit 1 of the edge sensor according to the first embodiment in more detail.
As shown in FIG. 2, the light receiving unit 1 includes a first line sensor 1a and a second line sensor 1b, and the light projecting unit 2 projects monochromatic parallel light 4a toward the first line sensor 1a. The first light projecting unit 2d and the second light projecting unit 2e that project the monochromatic parallel light 4b toward the second line sensor 1b. The first line sensor 1 a and the second line sensor 1 b are arranged such that a part of the area overlaps the conveyance direction A of the detection target 10. The first light projecting unit 2d and the second light projecting unit 2e correspond to the arrangement positions of the first line sensor 1a and the second line sensor 1b, and a part of the region is in the transport direction of the detection target 10. Arrange it over A.

さらに、図3に示すように、第1のラインセンサ1aおよび第2のラインセンサ1bは、それぞれの受光領域1c、1dを備える。当該受光領域1c,1dには、一方向に所定のピッチpで複数の受光セル1e,1fが配列されて構成されている。また、第1のラインセンサ1aの受光領域1cの一部と、第2のラインセンサ1bの受光領域1dの一部とが、範囲Cにおいて検出対象物10の搬送方向Aに重なるように、第1のラインセンサ1aと第2のラインセンサ1bの配置位置を決定する。第1のラインセンサ1aと第2のラインセンサ1bで構成される受光部1の全体の検出範囲は検出範囲Dとなり、1つのラインセンサ、第1のラインセンサ1aまたは第2のラインセンサ1bのみを用いる場合と比較して、検出範囲が拡大する。   Further, as shown in FIG. 3, the first line sensor 1 a and the second line sensor 1 b include respective light receiving regions 1 c and 1 d. In the light receiving regions 1c and 1d, a plurality of light receiving cells 1e and 1f are arranged at a predetermined pitch p in one direction. Further, the first light sensor 1 a of the first line sensor 1 a and the second light sensor region 1 d of the second line sensor 1 b are partially overlapped with each other in the conveyance direction A of the detection target 10 in the range C. The arrangement positions of the first line sensor 1a and the second line sensor 1b are determined. The entire detection range of the light receiving unit 1 constituted by the first line sensor 1a and the second line sensor 1b is a detection range D, and only one line sensor, the first line sensor 1a, or the second line sensor 1b. The detection range is expanded as compared with the case of using.

図2および図3に基づいて、投光部2が投光する単色平行光について説明する。第1の投光部2dが投光する単色平行光は、第1のラインセンサ1aの受光セル1eの配列方向に幅を有し、光源2aが発する単色光の光軸に対して平行な光であり、幅方向において互いに平行な光である。同様に、第2の投光部2eが投光する単色平行光は、第2のラインセンサ1bの受光セル1fの配列方向に幅を有し、光源2aが発する単色光の光軸に対して平行な光であり、幅方向において互いに平行な光である。   Based on FIG. 2 and FIG. 3, the monochromatic parallel light which the light projection part 2 projects is demonstrated. The monochromatic parallel light projected by the first light projecting unit 2d has a width in the arrangement direction of the light receiving cells 1e of the first line sensor 1a and is parallel to the optical axis of the monochromatic light emitted by the light source 2a. The light is parallel to each other in the width direction. Similarly, the monochromatic parallel light projected by the second light projecting unit 2e has a width in the arrangement direction of the light receiving cells 1f of the second line sensor 1b, and the optical axis of the monochromatic light emitted by the light source 2a. Parallel light and light parallel to each other in the width direction.

図2で示すように、エッジ検出部3は、第1のラインセンサ1aおよび第2のラインセンサ1b双方に接続される。エッジ検出部3の演算部3bは、検出対象物10のエッジ10aの位置の演算において、第1のラインセンサ1aの出力と第2のラインセンサ1bの出力とを切り替えて利用する。なお、エッジ検出部3のエッジ検出処理の詳細は後述する。   As shown in FIG. 2, the edge detector 3 is connected to both the first line sensor 1a and the second line sensor 1b. The calculation unit 3b of the edge detection unit 3 switches between the output of the first line sensor 1a and the output of the second line sensor 1b in the calculation of the position of the edge 10a of the detection target 10. Details of the edge detection processing of the edge detection unit 3 will be described later.

図4は、実施の形態1に係るエッジセンサと搬送機構との関係を示した図である。
ロール状に巻かれた帯状の検出対象物10は、搬送ローラ11a,11bに挟まれ、当該搬送ローラ11a,11bの回転により搬送方向Aに搬送される。検出対象物10は、搬送方向Aに搬送される経路の途中で、第1の投光部2dおよび第2の投光部2eが投光した単色平行光4a,4bの一部を遮断する。一部が遮断された単色平行光4a,4bを受光した第1のラインセンサ1aおよび第2のラインセンサ1bの出力を用いて、エッジ検出部3の演算部3bが検出対象物10のエッジ10aの位置を演算する。エッジ検出部3の演算部3bによって演算された検出対象物10のエッジ10aの位置は、搬送ローラ11a,11bなどを駆動する駆動制御部にフィードバックされることにより、検出対象物10の搬送駆動を制御するために用いられる。
FIG. 4 is a diagram illustrating a relationship between the edge sensor and the transport mechanism according to the first embodiment.
The belt-shaped detection target object 10 wound in a roll shape is sandwiched between the transport rollers 11a and 11b, and is transported in the transport direction A by the rotation of the transport rollers 11a and 11b. The detection object 10 blocks a part of the monochromatic parallel lights 4a and 4b projected by the first light projecting unit 2d and the second light projecting unit 2e in the middle of the path transported in the transport direction A. Using the outputs of the first line sensor 1a and the second line sensor 1b that receive the monochromatic parallel lights 4a and 4b that are partially blocked, the calculation unit 3b of the edge detection unit 3 uses the edge 10a of the detection target 10 The position of is calculated. The position of the edge 10a of the detection target 10 calculated by the calculation unit 3b of the edge detection unit 3 is fed back to a drive control unit that drives the transport rollers 11a and 11b, thereby driving the detection target 10 to be transported. Used to control.

次に、エッジ検出部3によるエッジ検出処理について説明する。
エッジ検出部3は、センシングユニット5の隙間を通過する検出対象物10のエッジ10aの位置を、第1のラインセンサ1aおよび第2のラインセンサ1bの出力から検出する。具体的には、投光部2が投光する単色平行光4a,4bの一部が検出対象物10によって遮られると、当該検出対象物10のエッジ10aにおいてフレネル回折が生じる。第1のラインセンサ1aの受光セル1eまたは第2のラインセンサ1bの受光セル1fに到達する単色平行光4a,4bの強度は、エッジ10aの位置近傍で急峻に立ち上がり、エッジ10aの位置から離れるに従って振動しながら収束する分布特性を有する。当該分布特性に着目し、エッジ検出部3の演算部3bは第1のラインセンサ1aの受光領域1cまたは第2のラインセンサ1bの受光領域1dが受光した単色平行光4a,4bの強度分布に基づいて、検出対象物10のエッジ10aの位置を演算する。
上述したエッジ位置の演算方法として、従来から用いられている一般的手法を適用可能であることから、詳細な演算方法の説明は省略する。
Next, edge detection processing by the edge detection unit 3 will be described.
The edge detection unit 3 detects the position of the edge 10a of the detection target 10 passing through the gap of the sensing unit 5 from the outputs of the first line sensor 1a and the second line sensor 1b. Specifically, when a part of the monochromatic parallel lights 4 a and 4 b projected by the light projecting unit 2 is blocked by the detection target object 10, Fresnel diffraction occurs at the edge 10 a of the detection target object 10. The intensity of the monochromatic parallel lights 4a and 4b reaching the light receiving cell 1e of the first line sensor 1a or the light receiving cell 1f of the second line sensor 1b rises steeply in the vicinity of the position of the edge 10a and departs from the position of the edge 10a. And has a distribution characteristic that converges while vibrating. Focusing on the distribution characteristics, the calculation unit 3b of the edge detection unit 3 determines the intensity distribution of the monochromatic parallel lights 4a and 4b received by the light receiving region 1c of the first line sensor 1a or the light receiving region 1d of the second line sensor 1b. Based on this, the position of the edge 10a of the detection object 10 is calculated.
Since the general method conventionally used can be applied as the above-described edge position calculation method, a detailed description of the calculation method is omitted.

エッジ検出部3の演算部3bは、第1のラインセンサ1aおよび第2のラインセンサ1bの2つのラインセンサからの出力を受け付け、当該2つの出力を切り替えて検出対象物10のエッジ10aの位置を演算する。そのため、演算部3bがいずれの出力を用いて演算を行うか設定しておく必要がある。エッジ検出部3のゼロ位置調整部3aは、エッジ検出処理を行う前にまず第1のラインセンサ1aの受光領域1cと第2のラインセンサ1bの受光領域1dとを重ねて配置した範囲Cを用いて、検出に用いる出力を切り替える位置となるゼロ位置を設定するゼロ位置調整を行う。図5を参照しながら、ゼロ位置調整部3aによるゼロ位置調整処理について説明する。   The calculation unit 3b of the edge detection unit 3 receives the outputs from the two line sensors, the first line sensor 1a and the second line sensor 1b, and switches the two outputs to change the position of the edge 10a of the detection object 10. Is calculated. Therefore, it is necessary to set which output the calculation unit 3b uses to calculate. The zero position adjusting unit 3a of the edge detecting unit 3 first sets a range C in which the light receiving region 1c of the first line sensor 1a and the light receiving region 1d of the second line sensor 1b are arranged to overlap each other before performing the edge detection process. The zero position adjustment for setting the zero position to be the position for switching the output used for detection is performed. The zero position adjustment process by the zero position adjustment unit 3a will be described with reference to FIG.

図5(a)は実施の形態1に係るエッジセンサのラインセンサの配置例を示す図であり、図5(b)は図5(a)で示したラインセンサの配置例におけるゼロ位置調整を示す説明図である。
図5(a)に示すように第1のラインセンサ1aの受光領域1cの一部と、第2のラインセンサ1bの受光領域1dの一部が、検出対象物10の搬送方向Aに対して範囲Cで重なるように配置する。図5(a)の例では、受光領域1cおよび受光領域1dの受光幅は共に15.0mmであり、範囲Cにおいて受光領域1cと受光領域1dが互いに2.0mm重なるように配置されている。なお、図5で示す受光領域1c,1dの受光幅および範囲Cの幅は一例であり、適宜変更可能である。
FIG. 5A is a diagram illustrating an arrangement example of the line sensor of the edge sensor according to the first embodiment, and FIG. 5B is a diagram illustrating the zero position adjustment in the arrangement example of the line sensor illustrated in FIG. It is explanatory drawing shown.
As shown in FIG. 5A, a part of the light receiving region 1c of the first line sensor 1a and a part of the light receiving region 1d of the second line sensor 1b are in the transport direction A of the detection target 10. Arrange so as to overlap in range C. In the example of FIG. 5A, the light receiving widths of the light receiving region 1c and the light receiving region 1d are both 15.0 mm, and in the range C, the light receiving region 1c and the light receiving region 1d are arranged to overlap each other by 2.0 mm. The light receiving widths of the light receiving regions 1c and 1d and the width of the range C shown in FIG. 5 are examples, and can be changed as appropriate.

次に、ゼロ位置調整を行うための調整対象物20を範囲C上に配置する。図5(b)に示すように、第1の投光部2dおよび第2の投光部2eが投光する単色平行光の光路上であって、受光領域1c,1dを正面から見た場合に範囲C上に、調整対象物20のエッジ20aを配置する。ここで、調整対象物20は、搬送開始前に配置された検出対象物10であってもよいし、ゼロ位置調整を行うために用意されたシート状の物体であってもよく、限定されるものではない。   Next, the adjustment object 20 for performing the zero position adjustment is arranged on the range C. As shown in FIG. 5B, when the light receiving areas 1c and 1d are viewed from the front on the optical path of monochromatic parallel light emitted by the first light projecting unit 2d and the second light projecting unit 2e. The edge 20a of the adjustment target 20 is arranged on the range C. Here, the adjustment target 20 may be the detection target 10 arranged before the start of conveyance, or may be a sheet-like object prepared for performing zero position adjustment, and is limited. It is not a thing.

上述の配置とした状態で、ゼロ位置調整部3aは、エッジ20aの位置をゼロ位置Oに設定するゼロ位置調整を行う。ゼロ位置調整部3aは、第1のラインセンサ1aおよび第2のラインセンサ1bから出力される強度分布のうち最大出力を示す位置をエッジ20aの位置とし、ゼロ位置Oを特定する。
図5(b)の例では、エッジ20aが範囲Cの中央に位置するように配置されていることから、ゼロ位置Oから挿入方向Bに1.0mm離れた位置に第1のラインセンサ1aの受光領域1cの端部が位置し、ゼロ位置から挿入方向Bに対して反対方向に1.0mm離れた位置に第2のラインセンサ1bの受光領域1dの端部が位置する。ゼロ位置調整部3aは、設定されたゼロ位置Oの位置情報を演算部3bに出力する。
With the above arrangement, the zero position adjustment unit 3a performs zero position adjustment for setting the position of the edge 20a to the zero position O. The zero position adjustment unit 3a specifies the position of the edge 20a as the position of the edge 20a in the intensity distribution output from the first line sensor 1a and the second line sensor 1b, and specifies the zero position O.
In the example of FIG. 5B, since the edge 20a is disposed so as to be located at the center of the range C, the first line sensor 1a is located at a position 1.0 mm away from the zero position O in the insertion direction B. The end of the light receiving region 1c is located, and the end of the light receiving region 1d of the second line sensor 1b is located at a position 1.0 mm away from the zero position in the opposite direction to the insertion direction B. The zero position adjustment unit 3a outputs the position information of the set zero position O to the calculation unit 3b.

演算部3bは、ゼロ位置調整部3aから入力された位置情報に基づいて設定されたゼロ位置Oの位置を「0mm」とする。さらに、演算部3bは、ゼロ位置Oから受光領域1cの範囲C上に位置しない側の端部までをプラス領域とし、受光領域1dの範囲C上に位置しない側の端部までをマイナス領域とする。その結果、図5(b)に示すように、検出範囲Dは、−14.0mmから14.0mmの数値で示される。以下では、0.0mmから14.0mmまでの範囲(0.0mmを含む)をプラス領域とし、0.0mmからー14.0mmまでの範囲(0.0mmを含まない)をマイナス領域として説明する。   The calculation unit 3b sets the position of the zero position O set based on the position information input from the zero position adjustment unit 3a to “0 mm”. Further, the calculation unit 3b sets the positive region from the zero position O to the end on the side not located on the range C of the light receiving region 1c, and defines the negative region from the end on the side not located on the range C of the light receiving region 1d. To do. As a result, as shown in FIG. 5B, the detection range D is indicated by a numerical value from -14.0 mm to 14.0 mm. In the following description, the range from 0.0 mm to 14.0 mm (including 0.0 mm) is defined as a plus region, and the range from 0.0 mm to −14.0 mm (not including 0.0 mm) is defined as a minus region. .

演算部3bは、実際の検出対象物10の検出において、第1のラインセンサ1aおよび第2のラインセンサ1bの出力のうち最大出力の値が検出範囲Dにおいてプラス領域に位置する場合、第1のラインセンサ1aの出力を用いてエッジ10aの位置を演算するよう設定を行う。また、演算部3bは、第1のラインセンサ1aおよび第2のラインセンサ1bの出力のうち最大出力の値が検出範囲Dにおいてマイナス領域に位置する場合、第2のラインセンサ1bの出力を用いてエッジ10aの位置を演算するように設定を行う。   In the actual detection of the detection object 10, the calculation unit 3 b is the first when the maximum output value among the outputs of the first line sensor 1 a and the second line sensor 1 b is located in the plus region in the detection range D. Is set so that the position of the edge 10a is calculated using the output of the line sensor 1a. Further, the arithmetic unit 3b uses the output of the second line sensor 1b when the maximum output value among the outputs of the first line sensor 1a and the second line sensor 1b is located in the minus region in the detection range D. To set the position of the edge 10a.

図5(b)の例では、範囲Cの中央位置にゼロ位置Oが設定される構成を示したが、ゼロ位置Oが設定される位置は範囲Cの中央位置に限定されるものではない。ゼロ位置Oは、範囲C内に位置する調整対象物20のエッジ20aが配置された位置に基づいて設定される。そのため、エッジ20aが範囲Cの中央位置よりも挿入方向B側に進んだ位置に配置されている場合には、ゼロ位置Oは範囲C内且つ挿入方向B側に進んだ位置に設定される。   In the example of FIG. 5B, the configuration in which the zero position O is set at the center position of the range C is shown, but the position at which the zero position O is set is not limited to the center position of the range C. The zero position O is set based on the position where the edge 20a of the adjustment target 20 located in the range C is arranged. Therefore, when the edge 20a is arranged at a position advanced in the insertion direction B side from the center position of the range C, the zero position O is set to a position advanced in the range C and toward the insertion direction B.

ゼロ位置調整部3aによりゼロ位置Oが設定され、演算部3bが演算に用いる出力の切り替え設定を完了すると、演算部3bは実際に搬送される検出対象物10のエッジ10aの位置の検出を行う。センシングユニット5の隙間に検出対象物10が配置され、搬送方向Aへの搬送が開始されると、演算部3bは第1のラインセンサ1aおよび第2のラインセンサ1bの出力のうち最大出力の値が検出範囲Dにおいてプラス領域に位置しているか、マイナス領域に位置しているかを検出する。演算部3bは、検出結果に応じて、エッジ位置の演算処理において用いる出力を第1のラインセンサ1aと第2のラインセンサ1bとで切り替える。   When the zero position O is set by the zero position adjustment unit 3a and the setting of the output to be used by the calculation unit 3b is completed, the calculation unit 3b detects the position of the edge 10a of the detection target 10 that is actually conveyed. . When the detection object 10 is arranged in the gap between the sensing units 5 and the conveyance in the conveyance direction A is started, the calculation unit 3b outputs the maximum output among the outputs of the first line sensor 1a and the second line sensor 1b. It is detected whether the value is located in the plus region or the minus region in the detection range D. The calculation unit 3b switches the output used in the edge position calculation process between the first line sensor 1a and the second line sensor 1b according to the detection result.

図6は、実施の形態1に係るエッジセンサによる検出対象物10のエッジ位置の検出結果の一例を示している。
横軸は、検出対象物10の挿入量を示し、図5で示した挿入方向Bにどれだけ挿入されたかを示している。縦軸は、検出対象物10のエッジ10aの位置が、検出範囲D内のどこに位置しているかを示す演算結果である。そのため、縦軸は図5(b)で示したゼロ位置調整において設定した−14.0mmからゼロ位置Oを経由して14.0mmまでの範囲を示している。
なお、図6の検出結果は、図5(b)で示した第1のラインセンサ1aおよび第2のラインセンサ1bの配置において、検出対象物10のエッジ10aの位置を位置Eから位置Fまで一定のスピードで移動させた場合を示している。
FIG. 6 shows an example of the detection result of the edge position of the detection target 10 by the edge sensor according to the first embodiment.
The horizontal axis shows the amount of insertion of the detection object 10 and shows how much is inserted in the insertion direction B shown in FIG. The vertical axis is a calculation result indicating where the position of the edge 10a of the detection target 10 is located within the detection range D. Therefore, the vertical axis indicates a range from −14.0 mm set in the zero position adjustment shown in FIG. 5B to 14.0 mm via the zero position O.
Note that the detection result of FIG. 6 indicates that the position of the edge 10a of the detection target object 10 is from the position E to the position F in the arrangement of the first line sensor 1a and the second line sensor 1b shown in FIG. It shows the case of moving at a constant speed.

線分Ch1は、第1のラインセンサ1aの出力を用いた場合の演算部3bの演算結果を示し、線分Ch2は、第2のラインセンサ1bの出力を用いた場合の演算部3bの演算結果を示している。線分Rは、演算部3bがゼロ位置Oにおいて用いる出力の切り替えを行った場合の演算結果を示している。線分Ch1は、第1のラインセンサ1aの出力を用いていることから、受光領域1cが配置された14.0mmから−1.0mmの範囲で演算結果が得られる。線分Ch2は、第2のラインセンサ1bの出力を用いていることから、受光領域1dが配置された1.0mmから−14.0mmの範囲で演算結果が得られる。   A line segment Ch1 indicates the calculation result of the calculation unit 3b when the output of the first line sensor 1a is used, and a line segment Ch2 indicates the calculation of the calculation unit 3b when the output of the second line sensor 1b is used. Results are shown. The line segment R indicates the calculation result when the calculation unit 3b switches the output used at the zero position O. Since the line segment Ch1 uses the output of the first line sensor 1a, a calculation result is obtained in the range of 14.0 mm to -1.0 mm where the light receiving region 1c is arranged. Since the line segment Ch2 uses the output of the second line sensor 1b, a calculation result is obtained in the range of 1.0 mm to −14.0 mm where the light receiving region 1d is arranged.

図5(b)で示したように、範囲Cにおいて受光領域1cの一部と受光領域1dの一部が互いに2.0mm重なるように配置したことから、図6において1.0mmから−1.0mmの範囲において、線分Ch1と線分Ch2の演算結果が重複している。当該重複した範囲に設定されたゼロ位置O(0.0mm)において、演算部3bはエッジ10aの位置の検出に用いる出力を第1のラインセンサ1aから第2のラインセンサ1bに、あるいは第2のラインセンサ1bから第1のラインセンサ1aに切り替える。これにより、検出対象物10のエッジ10aの位置を位置Eから位置Fまで一定のスピードで移動させた場合、線分Rで示す連続した演算結果を取得することができる。   As shown in FIG. 5B, since part of the light receiving region 1c and part of the light receiving region 1d overlap each other by 2.0 mm in the range C, 1.0 mm to −1. In the range of 0 mm, the calculation results of the line segment Ch1 and the line segment Ch2 overlap. At the zero position O (0.0 mm) set in the overlapped range, the calculation unit 3b outputs the output used for detecting the position of the edge 10a from the first line sensor 1a to the second line sensor 1b or the second line sensor 1b. The line sensor 1b is switched to the first line sensor 1a. Thereby, when the position of the edge 10a of the detection target 10 is moved from the position E to the position F at a constant speed, a continuous calculation result indicated by the line segment R can be acquired.

次に、エッジセンサの処理動作について、図7のフローチャートを参照しながら説明する。
図7は、実施の形態1に係るエッジセンサの処理動作を示すフローチャートである。
まず、第1の投光部2dおよび第2の投光部2eが投光する単色平行光の光路上であって、第1のラインセンサ1aの受光領域1cの一部と第2のラインセンサ1bの受光領域1dの一部が重なった範囲C上に、調整対象物20のエッジ20aが配置されると(ステップST1)、ゼロ位置調整部3aはステップST1で配置されたエッジ20aの位置をゼロ位置に設定するゼロ位置調整を行い、設定したゼロ位置の位置情報を演算部3bに出力する(ステップST2)。
Next, the processing operation of the edge sensor will be described with reference to the flowchart of FIG.
FIG. 7 is a flowchart showing the processing operation of the edge sensor according to the first embodiment.
First, a part of the light receiving region 1c of the first line sensor 1a and the second line sensor are on the optical path of monochromatic parallel light projected by the first light projecting unit 2d and the second light projecting unit 2e. When the edge 20a of the adjustment target 20 is arranged on the range C where a part of the light receiving area 1d of 1b overlaps (step ST1), the zero position adjusting unit 3a determines the position of the edge 20a arranged in step ST1. Zero position adjustment to be set to the zero position is performed, and position information of the set zero position is output to the calculation unit 3b (step ST2).

演算部3bは、ステップST2で出力されたゼロ位置の位置情報に基づいて、検出範囲Dにおいて演算に用いる出力を切り替えるためのプラス領域およびマイナス領域の設定を行う(ステップST3)。具体的には、ゼロ位置を中心として、当該ゼロ位置から一方の受光領域の範囲Cに位置しない側の端部までの領域をプラス領域とし、ゼロ位置から他方の受光領域の範囲Cに位置しない側の端部までの領域をマイナス領域と設定する。なお、以下では、0.0mmの位置はプラス領域に含むものとして説明する。   The calculation unit 3b sets a plus region and a minus region for switching the output used for calculation in the detection range D based on the position information of the zero position output in step ST2 (step ST3). Specifically, the area from the zero position to the end on the side that is not located in the range C of one light receiving area is defined as a plus area with the zero position as the center, and is not located in the range C of the other light receiving area from the zero position. The area up to the end on the side is set as the minus area. In the following description, it is assumed that the position of 0.0 mm is included in the plus region.

演算部3bによるステップST3の設定が完了すると、エッジセンサは検出可能状態になった旨を、搬送ローラなどを駆動する駆動制御部に通知する(ステップST4)。ステップST4の通知に基づいて、検出対象となる検出対象物10の搬送が開始されると(ステップST5)、演算部3bは第1のラインセンサ1aおよび第2のラインセンサ1bから入力される出力を参照し、最大出力の値が検出範囲Dにおいてプラス領域に位置しているか否か判定を行う(ステップST6)。最大出力の値が検出範囲Dのプラス領域に位置している場合(ステップST6;YES)、エッジ検出部3は第1のラインセンサ1aの出力を用いてエッジ10aの位置を演算する(ステップST7)。一方、最大出力の値が検出範囲Dのマイナス領域に位置している場合(ステップST6;NO)、エッジ検出部3は第2のラインセンサ1bの出力を用いてエッジ10aの位置を演算する(ステップST8)。   When the setting of step ST3 by the calculation unit 3b is completed, the edge sensor notifies the drive control unit that drives the conveyance roller and the like that the detection is possible (step ST4). When the conveyance of the detection target object 10 to be detected is started based on the notification in step ST4 (step ST5), the calculation unit 3b outputs output from the first line sensor 1a and the second line sensor 1b. , It is determined whether or not the maximum output value is located in the plus region in the detection range D (step ST6). When the maximum output value is located in the plus region of the detection range D (step ST6; YES), the edge detector 3 calculates the position of the edge 10a using the output of the first line sensor 1a (step ST7). ). On the other hand, when the value of the maximum output is located in the minus region of the detection range D (step ST6; NO), the edge detection unit 3 calculates the position of the edge 10a using the output of the second line sensor 1b ( Step ST8).

エッジ検出部3は、ステップST7またはステップST8の演算結果を、エッジ10aの位置の検出結果として搬送ローラを駆動する駆動制御部に出力する(ステップST9)。エッジ検出部3は、駆動制御部の制御状態を参照し、検出対象物10の搬送が終了したか否か判定を行う(ステップST10)。搬送が終了した場合(ステップST10;YES)、処理を終了する。搬送が終了していない場合(ステップST10;NO)、ステップST6の処理に戻る。   The edge detection unit 3 outputs the calculation result of step ST7 or step ST8 to the drive control unit that drives the transport roller as the detection result of the position of the edge 10a (step ST9). The edge detection unit 3 refers to the control state of the drive control unit and determines whether or not the conveyance of the detection target object 10 has been completed (step ST10). When the conveyance is finished (step ST10; YES), the process is finished. When the conveyance is not completed (step ST10; NO), the process returns to step ST6.

なお、上述した図5(b)および図7では、第1のラインセンサ1aおよび第2のラインセンサ1b最大出力の値が検出範囲Dにおいてプラス領域に位置している場合に、第1のラインセンサ1aの出力を用いてエッジ10aの位置を演算し、第1のラインセンサ1aおよび第2のラインセンサ1b最大出力の値が検出範囲Dにおいてマイナス領域に位置している場合に、第2のラインセンサ1bの出力結果を用いてエッジ10aの位置を演算する構成を示したが、最大出力の値が検出範囲Dにおいてプラス領域に位置している場合にどちらのラインセンサの出力結果用いてエッジ10aの位置を演算するかは、2つのラインセンサの配置位置によって適宜変更されるものである。   In FIG. 5B and FIG. 7 described above, the first line sensor 1a and the second line sensor 1b have their maximum output values positioned in the plus region in the detection range D. When the position of the edge 10a is calculated using the output of the sensor 1a and the values of the maximum output of the first line sensor 1a and the second line sensor 1b are located in the minus region in the detection range D, the second Although the configuration for calculating the position of the edge 10a using the output result of the line sensor 1b is shown, when the maximum output value is located in the plus region in the detection range D, the output result of which line sensor is used for the edge Whether to calculate the position of 10a is appropriately changed according to the arrangement position of the two line sensors.

以上のように、実施の形態1によれば、第1のラインセンサ1aの受光領域1cの一部と第2のラインセンサ1bの受光領域1dの一部を、検出対象物10の搬送方向Aに、範囲Cで重ねて配置した受光部1と、検出範囲Dにおいてエッジ10aの位置を検出するために第1のラインセンサ1aの出力と第2のラインセンサ1bの出力とを切り替える位置であるゼロ位置を設定するゼロ位置調整部3aと、ゼロ位置を中心としていずれかのラインセンサの出力を対応付けたプラス領域とマイナス領域を設定し、第1のラインセンサ1aおよび第2のラインセンサ1bの最大出力の値が検出範囲Dにおいてプラス領域に位置しているか否かに応じて2つのラインセンサの出力を切り替えてエッジ10aの位置を演算する演算部3bとを備えるように構成したので、従来からあるラインセンサを用いて受光部の検出範囲を拡大させることができる。   As described above, according to the first embodiment, a part of the light receiving region 1c of the first line sensor 1a and a part of the light receiving region 1d of the second line sensor 1b are transferred in the transport direction A of the detection target 10. In addition, in order to detect the position of the edge 10a in the detection range D, the light receiving unit 1 arranged in an overlapping manner in the range C is a position for switching between the output of the first line sensor 1a and the output of the second line sensor 1b. A zero position adjustment unit 3a that sets a zero position, and a plus area and a minus area that associate the outputs of any of the line sensors with the zero position as a center are set, and the first line sensor 1a and the second line sensor 1b are set. And a calculation unit 3b that calculates the position of the edge 10a by switching the outputs of the two line sensors in accordance with whether or not the maximum output value is located in the plus region in the detection range D. Since it is configured, it is possible to expand the detection range of the light receiving portion by using a line sensor is conventional.

そのため、種々の大きさのラインセンサを製造することなく、既存の大きさのラインセンサを用いて拡大された計測幅を確保することができる。これにより、ラインセンサの製造工程を増やすことなく、種々の大きさのラインセンサを在庫として持つことなく、検出範囲が種々設定されたエッジセンサを提供することができる。よって、エッジセンサの製造コストおよび管理コストを増加させることなく、検出範囲のバリエーションを増やすことができる。   Therefore, it is possible to secure an enlarged measurement width using an existing size line sensor without manufacturing line sensors of various sizes. As a result, it is possible to provide an edge sensor having various detection ranges set without increasing the number of line sensor manufacturing processes and without stocking line sensors of various sizes. Therefore, variations in the detection range can be increased without increasing the manufacturing cost and management cost of the edge sensor.

なお、上述した実施の形態1では、第1のラインセンサ1aおよび第2のラインセンサ1bの受光領域1c,1dの幅が15.0mmである場合を示したが、受光領域の幅は上述した数値に限定されるものではなく、適宜変更可能である。また、異なる受光領域の幅を有する2つのラインセンサを用いてもよい。また、受光領域1cの一部と受光領域1dの一部が範囲Cにおいて互いに1.0mm重なる配置としたが、範囲Cは1.0mmに限定されるものではなく、適宜調整可能である。   In the first embodiment described above, the case where the widths of the light receiving areas 1c and 1d of the first line sensor 1a and the second line sensor 1b are 15.0 mm has been described. It is not limited to a numerical value and can be changed as appropriate. Two line sensors having different light receiving area widths may be used. Further, although a part of the light receiving region 1c and a part of the light receiving region 1d are arranged to overlap each other in the range C by 1.0 mm, the range C is not limited to 1.0 mm and can be adjusted as appropriate.

なお、上述した実施の形態1では、第1のラインセンサ1aと第2のラインセンサ1bとが互いに平行となるように配置した場合を例に示したが、必ずしも平行である必要はない。範囲Cにおいて受光領域の一部が搬送方向Aに対して重なり、当該範囲Cにおいてゼロ位置の調整を行うことができる配置であればよい。   In the first embodiment described above, the case where the first line sensor 1a and the second line sensor 1b are arranged so as to be parallel to each other has been described as an example, but it is not necessarily required to be parallel. Any arrangement may be used as long as a part of the light receiving region overlaps in the conveyance direction A in the range C and the zero position can be adjusted in the range C.

実施の形態2.
上述した実施の形態1では、第1の投光部2dおよび第2の投光部2eを設け、それぞれ対峙する第1のラインセンサ1aおよび第2のラインセンサ1bに向けて単色平行光4a,4bを投光する構成を示したが、この実施の形態2では1つの投光部のみを用いて2つのラインセンサに1つの単色平行光を投光する構成を示す。
Embodiment 2. FIG.
In the first embodiment described above, the first light projecting unit 2d and the second light projecting unit 2e are provided, and the monochromatic parallel light 4a, toward the first line sensor 1a and the second line sensor 1b facing each other, respectively. Although the configuration for projecting 4b is shown, the second embodiment shows a configuration for projecting one monochromatic parallel light to two line sensors using only one projector.

図8は、実施の形態2に係るエッジセンサの構成を示す斜視図である。
受光部1は、実施の形態1と同様に第1のラインセンサ1aおよび第2のラインセンサ1bで構成される。一方、投光部2´は1つの光源で構成され、第1のラインセンサ1aおよび第2のラインセンサ1bに向けて単色平行光4cを投光する。投光部2´が投光する単色平行光4cは、第1のラインセンサ1aおよび第2のラインセンサ1bに同時に入射可能な光であり、搬送方向Aに重ねて配置した第1のラインセンサ1aおよび第2のラインセンサ1bの受光セルの配列方向に幅を有し、且つ第1のラインセンサ1aおよび第2のラインセンサ1bの重なり方向に幅を有する光である。なお、単色平行光4cは、光源が発した単色光の光軸に対して平行な光であり、各幅方向において互いに平行な光である。
FIG. 8 is a perspective view showing the configuration of the edge sensor according to the second embodiment.
The light receiving unit 1 includes a first line sensor 1a and a second line sensor 1b as in the first embodiment. On the other hand, the light projecting unit 2 ′ is composed of one light source, and projects monochromatic parallel light 4c toward the first line sensor 1a and the second line sensor 1b. The monochromatic parallel light 4c projected by the light projecting unit 2 'is light that can be incident on the first line sensor 1a and the second line sensor 1b at the same time, and is a first line sensor that is arranged in the transport direction A. Light having a width in the arrangement direction of the light receiving cells of 1a and the second line sensor 1b and having a width in the overlapping direction of the first line sensor 1a and the second line sensor 1b. The monochromatic parallel light 4c is light parallel to the optical axis of the monochromatic light emitted from the light source, and is parallel to each other in each width direction.

エッジ検出部3は、第1のラインセンサ1aおよび第2のラインセンサ1bの出力を用いて、実施の形態1で示した処理と同一の処理を行い、検出対象物10のエッジ10aの位置を検出する。検出処理は実施の形態1と同一であることから、説明を省略する。   The edge detection unit 3 performs the same process as the process described in the first embodiment using the outputs of the first line sensor 1a and the second line sensor 1b, and determines the position of the edge 10a of the detection target object 10. To detect. Since the detection process is the same as in the first embodiment, a description thereof will be omitted.

以上のように、この実施の形態2によれば、受光部1の第1のラインセンサ1aおよび第2のラインセンサ1bの受光セルの配列方向に幅を有し、且つ第1のラインセンサ1aおよび第2のラインセンサ1bの重なり方向に幅を有する単色平行光4cを投光する投光部2´を備えるように構成したので、投光部の構成を簡素化することができ、製造工程の簡素化を実現し、さらに製造コストの削減を実現することができる。   As described above, according to the second embodiment, the first line sensor 1a has a width in the arrangement direction of the light receiving cells of the first line sensor 1a and the second line sensor 1b of the light receiving unit 1, and the first line sensor 1a. And since it comprised so that the light projection part 2 'which projects the monochromatic parallel light 4c which has a width in the overlapping direction of the 2nd line sensor 1b was comprised, the structure of a light projection part can be simplified, and a manufacturing process This simplifies the manufacturing process and further reduces the manufacturing cost.

実施の形態3.
この実施の形態3では、上述したエッジ検出部3の演算処理において、より精度よくエッジ位置を検出する構成について説明する。
図9は、実施の形態3に係るエッジセンサの構成を示す概略図である。
実施の形態1で示したエッジ検出部3に換えてエッジ検出部3´を備えて構成している。なお、以下では、実施の形態1に係るエッジセンサの構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
エッジ検出部3´の演算部3b´は、まず実施の形態1と同様に、第1のラインセンサ1aと第2のラインセンサ1bの出力を、最大出力の値が検出範囲Dにおいてプラス領域に位置しているかに基づいて切り替えて利用し、検出対象物10のエッジ10aの位置を演算する。演算部3b´は、さらに演算結果に対する移動平均値を算出し、算出した移動平均値を参照してエッジ位置を検出する。
Embodiment 3 FIG.
In the third embodiment, a configuration for detecting the edge position with higher accuracy in the arithmetic processing of the edge detection unit 3 described above will be described.
FIG. 9 is a schematic diagram illustrating the configuration of the edge sensor according to the third embodiment.
Instead of the edge detection unit 3 shown in the first embodiment, an edge detection unit 3 ′ is provided. In the following description, the same or corresponding parts as the constituent elements of the edge sensor according to the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and the description thereof is omitted or simplified.
As in the first embodiment, the calculation unit 3b ′ of the edge detection unit 3 ′ first sets the output of the first line sensor 1a and the second line sensor 1b so that the maximum output value is in the plus region in the detection range D. The position of the edge 10a of the detection target 10 is calculated by switching based on whether it is located. The calculation unit 3b ′ further calculates a moving average value for the calculation result, and detects an edge position with reference to the calculated moving average value.

図9は、実施の形態3に係るエッジセンサの処理動作を示すフローチャートである。なお、以下では実施の形態3に係るエッジセンサと同一のステップには図7で使用した符号と同一の符号を付し、説明を省略または簡略化する。
エッジ検出部3´の演算部3b´は、ステップST7またはステップST8の演算結果を用いて移動平均値を算出する(ステップST11)。演算部3b´は、ステップST11で算出した移動平均値から検出対象物10のエッジ10aの位置を決定する(ステップST12)。エッジ検出部3´は、ステップST12で決定したエッジ10aの位置を、搬送ローラを駆動する駆動制御部に出力する(ステップST13)。その後、フローチャートはステップST10の処理に進む。
FIG. 9 is a flowchart showing the processing operation of the edge sensor according to the third embodiment. In the following, the same steps as those of the edge sensor according to the third embodiment are denoted by the same reference numerals as those used in FIG. 7, and description thereof is omitted or simplified.
The calculation unit 3b ′ of the edge detection unit 3 ′ calculates a moving average value using the calculation result of step ST7 or step ST8 (step ST11). The calculation unit 3b ′ determines the position of the edge 10a of the detection target 10 from the moving average value calculated in step ST11 (step ST12). The edge detection unit 3 ′ outputs the position of the edge 10a determined in step ST12 to the drive control unit that drives the transport roller (step ST13). Thereafter, the flowchart proceeds to step ST10.

以上のように、この実施の形態3では、検出対象物10のエッジ10aの位置の演算結果を用いて移動平均値を算出し、算出した移動平均値からエッジ10aの位置を決定する演算部3b´を備えるように構成したので、エッジ位置の演算精度を向上させることができる。   As described above, in the third embodiment, the moving average value is calculated using the calculation result of the position of the edge 10a of the detection target 10, and the position of the edge 10a is determined from the calculated moving average value. Since 'is provided, the calculation accuracy of the edge position can be improved.

なお、上述した実施の形態3では、演算部3b´が検出対象物10のエッジ10aの位置を演算した後、移動平均値を算出する構成を示したが、移動平均値の算出に換えてθ演算を適用して構成してもよい。
また、上述した実施の形態3では、実施の形態1で示したエッジセンサにエッジ検出部3´を適用する構成を示したが、実施の形態2で示したエッジセンサにエッジ検出部3´を適用してもよい。
In the third embodiment described above, the calculation unit 3b ′ calculates the moving average value after calculating the position of the edge 10a of the detection target 10. However, instead of calculating the moving average value, θ You may comprise by applying a calculation.
Further, in the above-described third embodiment, the configuration in which the edge detection unit 3 ′ is applied to the edge sensor shown in the first embodiment has been described. However, the edge detection unit 3 ′ is added to the edge sensor shown in the second embodiment. You may apply.

なお、上述した実施の形態1から実施の形態3では、ロール状に巻かれて搬送させる物体を検出対象物10として説明を行ったが、ロール状に巻かれた物体に限定されるものではなく、シート状の物体であれば本願発明のエッジセンサによってエッジ検出を行うことが可能である。例えば、シリコンウェハや液晶用ガラス基板なども本願発明のエッジセンサによってエッジ検出を行うことができる。   In Embodiments 1 to 3 described above, the object to be rolled and conveyed is described as the detection target 10, but the object is not limited to the object wound in a roll. In the case of a sheet-like object, edge detection can be performed by the edge sensor of the present invention. For example, the edge detection of the silicon wafer or the glass substrate for liquid crystal can be performed by the edge sensor of the present invention.

上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In addition to the above, within the scope of the present invention, the present invention can be freely combined with each embodiment, modified any component of each embodiment, or omitted any component in each embodiment. Is possible.

1 受光部
1a 第1のラインセンサ
1b 第2のラインセンサ
1c,1d 受光領域
1e,1f 受光セル
2 投光部
2a 光源
2b 光ファイバ
2c 投射レンズ
2d 第1の投光部
2e 第2の投光部
3,3´ エッジ検出部
3a ゼロ位置調整部
3b,3b´ 演算部
4a,4b,4c 単色平行光
5 センシングユニット
10 検出対象物
10a,20a エッジ
11a,11b 搬送ローラ
20 調整対象物
DESCRIPTION OF SYMBOLS 1 Light reception part 1a 1st line sensor 1b 2nd line sensor 1c, 1d Light reception area | region 1e, 1f Light reception cell 2 Light projection part 2a Light source 2b Optical fiber 2c Projection lens 2d 1st light projection part 2e 2nd light projection Unit 3, 3 'edge detection unit 3a zero position adjustment unit 3b, 3b' calculation unit 4a, 4b, 4c monochromatic parallel light 5 sensing unit 10 detection object 10a, 20a edge 11a, 11b conveying roller 20 adjustment object

Claims (3)

複数の受光セルを直線状に配置した受光領域を有する2つのラインセンサと、
前記ラインセンサの前記受光領域に対峙して配置され、前記受光領域に向けて平行光を投光する投光部と、
前記2つのラインセンサで検出された光量分布パターンから、前記平行光の光路中に位置する前記検出対象物のエッジ位置を検出するエッジ検出部とを備え、
前記2つのラインセンサは、互いに略平行に、且つ互いの前記受光領域の一部を前記検出対象物の搬送方向に重ねて配置し、
前記エッジ検出部は、検出開始前に、前記平行光の光路中、且つ前記受光領域の一部が重ねて配置された領域上に配置した調整対象物のエッジ位置をゼロ位置とするゼロ位置調整部と、前記光量分布パターンと前記ゼロ位置調整部が設定した前記ゼロ位置とに基づいて選択したいずれか一方のラインセンサの出力を用いて、前記検出対象物のエッジ位置を検出する演算部とを備えたエッジセンサ。
Two line sensors having a light receiving region in which a plurality of light receiving cells are arranged in a straight line;
A light projecting unit that is arranged opposite to the light receiving region of the line sensor and projects parallel light toward the light receiving region;
An edge detection unit that detects an edge position of the detection object located in the optical path of the parallel light from the light amount distribution pattern detected by the two line sensors;
The two line sensors are arranged substantially in parallel with each other, and a part of the light receiving area of each other is overlapped in the conveyance direction of the detection object,
The edge detection unit, before starting detection, performs zero position adjustment with an edge position of an adjustment object disposed on a region where the light receiving region is partially overlapped in the optical path of the parallel light as a zero position. A calculation unit that detects an edge position of the detection object using an output of any one of the line sensors selected based on the light amount distribution pattern and the zero position set by the zero position adjustment unit; Edge sensor equipped with.
前記投光部は、前記受光セルの配列方向に幅を有する前記平行光を投光することを特徴とする請求項1記載のエッジセンサ。   The edge sensor according to claim 1, wherein the light projecting unit projects the parallel light having a width in the arrangement direction of the light receiving cells. 前記投光部は、前記2つのラインセンサの重なり方向に幅を有する前記平行光を投光することを特徴とする請求項2記載のエッジセンサ。   The edge sensor according to claim 2, wherein the light projecting unit projects the parallel light having a width in an overlapping direction of the two line sensors.
JP2015180621A 2015-09-14 2015-09-14 Edge sensor Active JP6486252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015180621A JP6486252B2 (en) 2015-09-14 2015-09-14 Edge sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015180621A JP6486252B2 (en) 2015-09-14 2015-09-14 Edge sensor

Publications (2)

Publication Number Publication Date
JP2017058136A true JP2017058136A (en) 2017-03-23
JP6486252B2 JP6486252B2 (en) 2019-03-20

Family

ID=58391412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015180621A Active JP6486252B2 (en) 2015-09-14 2015-09-14 Edge sensor

Country Status (1)

Country Link
JP (1) JP6486252B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107764191A (en) * 2017-11-15 2018-03-06 嘉兴扬鑫机械有限公司 Delineation device, delineation method and widen machine
IT202000003209A1 (en) * 2020-02-18 2021-08-18 Eurosoft S R L SCANNING SYSTEM

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010001576A1 (en) * 1999-03-24 2001-05-24 Haque Md M. Light sensor for web-guiding apparatus
JP2001235327A (en) * 2000-02-24 2001-08-31 Omron Corp Position detecting apparatus
JP2002077548A (en) * 2000-09-05 2002-03-15 Fuji Photo Film Co Ltd Method for correcting signal of radiation image information reader
JP2004177335A (en) * 2002-11-28 2004-06-24 Yamatake Corp Method and device for detection of position
JP2008082748A (en) * 2006-09-26 2008-04-10 Yamatake Corp Edge sensor, position detection method, and alignment method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010001576A1 (en) * 1999-03-24 2001-05-24 Haque Md M. Light sensor for web-guiding apparatus
JP2001235327A (en) * 2000-02-24 2001-08-31 Omron Corp Position detecting apparatus
JP2002077548A (en) * 2000-09-05 2002-03-15 Fuji Photo Film Co Ltd Method for correcting signal of radiation image information reader
JP2004177335A (en) * 2002-11-28 2004-06-24 Yamatake Corp Method and device for detection of position
JP2008082748A (en) * 2006-09-26 2008-04-10 Yamatake Corp Edge sensor, position detection method, and alignment method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107764191A (en) * 2017-11-15 2018-03-06 嘉兴扬鑫机械有限公司 Delineation device, delineation method and widen machine
IT202000003209A1 (en) * 2020-02-18 2021-08-18 Eurosoft S R L SCANNING SYSTEM

Also Published As

Publication number Publication date
JP6486252B2 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
US10683185B2 (en) Processing system and device manufacturing method
JP6486252B2 (en) Edge sensor
JP6616809B2 (en) Pattern transfer apparatus and pattern transfer method
JP2012181425A (en) Image forming apparatus
JP2014078445A (en) Manufacturing method of battery electrode sheet and manufacturing device
WO2013039100A1 (en) Film exposure device
TW201446476A (en) Manufacturing system of optical film roller-shaped object and manufacturing method of optical film roller-shaped object
KR101790823B1 (en) Film exposure device and film exposure method
KR101476710B1 (en) Cutting device and cutting method thereof
WO2013094758A1 (en) Laser light irradiation system, laser light irradiation method, and recording medium
JP5884120B2 (en) Film exposure equipment
JP5817564B2 (en) Exposure equipment
WO2013179977A1 (en) Illumination device, processing device, and device manufacturing method
JP2008216798A (en) Pattern exposure method and apparatus for color filter
JP6003572B2 (en) Sheet conveying apparatus and image forming apparatus
JP2014164001A (en) Production method for optical film and system for controlling traveling of optical film
JP2014026226A (en) Image forming apparatus
JP2013064872A (en) Exposure device
JP5117319B2 (en) Image forming apparatus
TWI536115B (en) Film exposure apparatus
JP7423950B2 (en) Reading device and image forming system
KR101476711B1 (en) Cutting method
JP2014164000A (en) Method for cutting patterned optical film and system for controlling traveling of optical film
JP5241947B2 (en) Image forming apparatus
JP2009042685A (en) Image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190219

R150 Certificate of patent or registration of utility model

Ref document number: 6486252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150