JP5648674B2 - Work position detection system - Google Patents

Work position detection system Download PDF

Info

Publication number
JP5648674B2
JP5648674B2 JP2012272816A JP2012272816A JP5648674B2 JP 5648674 B2 JP5648674 B2 JP 5648674B2 JP 2012272816 A JP2012272816 A JP 2012272816A JP 2012272816 A JP2012272816 A JP 2012272816A JP 5648674 B2 JP5648674 B2 JP 5648674B2
Authority
JP
Japan
Prior art keywords
light
workpiece
unit
imaging
glass plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012272816A
Other languages
Japanese (ja)
Other versions
JP2013050468A (en
Inventor
下村 健
健 下村
雅典 赤木
雅典 赤木
孝洋 中野
孝洋 中野
鈴木 啓一郎
啓一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012272816A priority Critical patent/JP5648674B2/en
Publication of JP2013050468A publication Critical patent/JP2013050468A/en
Application granted granted Critical
Publication of JP5648674B2 publication Critical patent/JP5648674B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ワーク位置検出システムに関する。   The present invention relates to a workpiece position detection system.

ワークの位置を検出することは、ロボットおよびクレーンなどの機器にワークを正確に操作させるために重要である。一般的に、ロボットなどの機器により位置決めされていないワークを支持する場合、ワークの位置を検出するための撮像装置が用いられている。また、照明をワークに当て、ワークを画像として認識しやすくし、ワークの位置を安定的に検出することができる仕組みが付加されていることも多々ある。しかし、自動車ウィンドウガラスなどの透明体であるワークは、検出する対象そのものが透明であるため撮像しにくく、照明を当てても光が透過し、検出が困難であるという問題点がある。   Detecting the position of the workpiece is important in order to cause a device such as a robot and a crane to operate the workpiece accurately. In general, when a workpiece that is not positioned by a device such as a robot is supported, an imaging device for detecting the position of the workpiece is used. Also, there are many cases where a mechanism is added to illuminate the work so that the work can be easily recognized as an image and the position of the work can be detected stably. However, a workpiece that is a transparent body, such as an automobile window glass, has a problem in that it is difficult to pick up an image because the object to be detected is transparent, and light is transmitted even when illuminated, and detection is difficult.

実開平6−35905号公報Japanese Utility Model Publication No. 6-35905

本発明は、上記問題点を解決し、透明体であるワークの端面が発光するように光を照射することで、透明体であるワークの位置を正確に検出をすることができるワーク位置検出システムを提供することを目的とする。   The present invention solves the above-described problems, and irradiates light so that the end face of a workpiece that is a transparent body emits light, thereby accurately detecting the position of the workpiece that is a transparent body. The purpose is to provide.

本発明の上記目的は、下記の手段によって達成される。   The above object of the present invention is achieved by the following means.

本発明のワーク位置検出システムは、透明体であるワークの端面が発光するように光を照射する少なくとも一つの投光部と、前記光によって前記ワークの端面に生じた互いに異なる複数の発光箇所を撮像する撮像部と、前記撮像部による撮像結果に基づいて前記ワークの位置を検出する検出部と、を有し、前記投光部は、スリット光を前記ワークの端面に交差するように照射し、前記撮像部は、前記スリット光によって前記ワークの端面の複数所で生じた複数の輝点を同一視野内で同時に撮像し、前記ワークは、一つの投光部から照射された一つのスリット光に対して複数の交点を形成可能な湾曲した端面を有しており、前記検出部は、前記複数の交点で生じた輝点を少なくとも含む複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とする。 The workpiece position detection system according to the present invention includes at least one light projecting unit that irradiates light so that the end surface of the workpiece that is a transparent body emits light, and a plurality of different light emission locations that are generated on the end surface of the workpiece by the light. It has an imaging unit for imaging, and a detector for detecting a position of the workpiece based on the imaging result by the imaging unit, the light projecting unit, morphism irradiation so as to cross the slit light to an end face of the workpiece and the imaging section, a plurality of bright points caused by multiple plants of the end face of the workpiece by the slit light simultaneously captured in the same field of view, the workpiece is one which is irradiated from one light projecting unit A curved end face capable of forming a plurality of intersections with respect to the slit light, and the detection unit is configured to detect the workpiece based on imaging results of a plurality of bright spots including at least the bright spots generated at the plurality of intersections. Check the position of Characterized in that it.

以上のように構成された本発明にかかるワーク位置検出システムによれば、透明体であるワークの端面が発光するように光を照射し、光によってワークの端面に生じた発光箇所を撮像し、その撮像結果に基づいてワークの位置を検出するので、透明体であるワークの位置を正確に検出することができるようになる。   According to the workpiece position detection system according to the present invention configured as described above, the light is emitted so that the end surface of the workpiece, which is a transparent body, emits light, and the light emitting portion generated on the end surface of the workpiece by the light is imaged. Since the position of the workpiece is detected based on the imaging result, the position of the workpiece that is a transparent body can be accurately detected.

第1の実施形態のワーク位置検出システムが具体的に用いられる車両用窓ガラス移し替えシステムの構成図である。It is a lineblock diagram of the window glass transfer system for vehicles in which the work position detection system of a 1st embodiment is used concretely. 図1に示す取付け台の構成図である。It is a block diagram of the mounting base shown in FIG. 図1のワーク位置検出システムのシステム構成図である。It is a system block diagram of the workpiece | work position detection system of FIG. 図4aは、照明光用投光部から照射される照明光の一部がガラス板2の内部で反射し、ガラス板2内部で案内される様子を示す図であり、図4bは、空気およびガラスの屈折率がそれぞれn1およびn2のとき、入射角θ1と、屈折角および反射角θ2との関係、すなわちスネルの法則(n1sinθ1=n2sinθ2)を示す図である。FIG. 4a is a diagram showing a state in which a part of the illumination light emitted from the illumination light projecting unit is reflected inside the glass plate 2 and guided inside the glass plate 2, and FIG. It is a figure which shows the relationship between incident angle | corner (theta) 1 and a refraction angle, and reflection angle (theta) 2, ie, Snell's law (n1sin (theta) 1 = n2sin (theta) 2), when the refractive index of glass is n1 and n2, respectively. スリット光用投光部から照射されるスリット光とガラス板の端面とが交差する状態を示す模式図である。It is a schematic diagram which shows the state which the slit light irradiated from the light projection part for slit light and the end surface of a glass plate cross | intersect. スリット光用投光部は、スリット光をガラス板の端面に対して斜めに照射することを示すも模式図である。The slit light projecting unit is also a schematic view showing that the slit light is irradiated obliquely with respect to the end surface of the glass plate. 図7aは、特定の波長帯を有する照明光の波長と照度の関係をあらわす図であり、図7bは、バンドパスフィルタを用いた波長と遮光率の関係をあらわす図である。FIG. 7a is a diagram showing the relationship between the wavelength of illumination light having a specific wavelength band and the illuminance, and FIG. 7b is a diagram showing the relationship between the wavelength using a bandpass filter and the light shielding rate. 図8aは、照明光用撮像部によるバンドパスフィルタを設けない場合の撮像結果を示す図であり、図8bは、照明光用撮像部によるバンドパスフィルタを設けた場合の撮像結果を示す図である。FIG. 8A is a diagram illustrating an imaging result when no bandpass filter is provided by the illumination light imaging unit, and FIG. 8B is a diagram illustrating an imaging result when a bandpass filter is provided by the illumination light imaging unit. is there. 図9aは、照明光用撮像部の撮像結果を示す図であり、図9bは、スリット光用撮像部22bの撮像結果を示す図である。FIG. 9A is a diagram illustrating an imaging result of the illumination light imaging unit, and FIG. 9B is a diagram illustrating an imaging result of the slit light imaging unit 22b. 図1に示すワーク位置検出システムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the workpiece | work position detection system shown in FIG. 図1に示すワーク位置検出システムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the workpiece | work position detection system shown in FIG. 第2の実施形態を示すシステム構成図である。It is a system configuration figure showing a 2nd embodiment. 図2に示す照明光用撮像部の撮像結果を示す図である。It is a figure which shows the imaging result of the imaging part for illumination light shown in FIG. 第2の実施形態のワーク位置検出システムが具体的に用いられる車両用窓ガラス移し替えシステムの構成図である。It is a block diagram of the window glass transfer system for vehicles in which the workpiece | work position detection system of 2nd Embodiment is used concretely. 第3の実施形態を示すシステム構成図である。It is a system configuration figure showing a 3rd embodiment. スリット光用投光部から照射されるスリット光とガラス板の端面とが交差する状態を示す模式図である。It is a schematic diagram which shows the state which the slit light irradiated from the light projection part for slit light and the end surface of a glass plate cross | intersect. 図17aは、超音波測定部24からガラス板2に放射線を照射する様子をあらわす図であり、図17bは、超音波測定部24からガラス板2に放射線を照射する様子をあらわす図である。FIG. 17A is a diagram illustrating a state in which radiation is applied to the glass plate 2 from the ultrasonic measurement unit 24, and FIG. 17B is a diagram illustrating a state in which radiation is applied to the glass plate 2 from the ultrasonic measurement unit 24. 図18aは、パレット内でのガラス位置を検出するためのパレットとガラスの位置関係をあらわす概念図であり、図18bは、パレット内でのガラス位置を検出するためのパレットとガラスの位置関係をあらわす概念図である。FIG. 18a is a conceptual diagram showing the positional relationship between the pallet and the glass for detecting the glass position in the pallet, and FIG. 18b shows the positional relationship between the pallet and the glass for detecting the glass position in the pallet. It is a conceptual diagram represented. 図15に示す具体的な手順を示すフローチャートである。It is a flowchart which shows the specific procedure shown in FIG. 第4の実施形態を示すシステム構成図である。It is a system configuration figure showing a 4th embodiment. 第5の実施形態を示すシステム構成図である。It is a system configuration figure showing a 5th embodiment. 図21に示すワーク位置検出システムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the workpiece | work position detection system shown in FIG. 図22aに後続するワーク位置検出システムの処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the workpiece | work position detection system following FIG. 22a. 図21に示すワーク位置検出システムの変形例の処理内容を示すフローチャートである。It is a flowchart which shows the processing content of the modification of the workpiece | work position detection system shown in FIG.

以下、図面を参照しつつ、本発明の好適な実施形態のワーク位置検出システムを説明する。   Hereinafter, a workpiece position detection system according to a preferred embodiment of the present invention will be described with reference to the drawings.

<第1の実施形態>
本発明の第1の実施形態では、車両用窓ガラス板移し替えシステムにワーク位置検出システムを適用した場合を例にとって説明する。すなわち、本実施形態では、透明体であるワーク(以下、「透明体ワーク」と称する)として車両用窓ガラス板を採用する。
<First Embodiment>
In the first embodiment of the present invention, a case where a workpiece position detection system is applied to a vehicle window glass plate transfer system will be described as an example. That is, in this embodiment, the window glass plate for vehicles is employ | adopted as a workpiece | work (henceforth a "transparent body workpiece | work") which is a transparent body.

図1は、本実施形態のワーク位置検出システムが適用されている車両用窓ガラス移し替えシステム(以下、「移し替えシステム」と称する)の一例を示している。   FIG. 1 shows an example of a vehicle window glass transfer system (hereinafter referred to as a “transfer system”) to which the workpiece position detection system of the present embodiment is applied.

図1に示されるとおり、移し替えシステム(ワーク移載システム)1は、透明体ワークである車両用窓ガラス板(以下、「ガラス板」と称する)を支持するためのロボット(搬送部)10a,10bと、ロボット10aがガラス板を支持した状態で、ガラス板の位置を検出するワーク位置検出システム20とを含む。   As shown in FIG. 1, a transfer system (work transfer system) 1 is a robot (conveying unit) 10a for supporting a vehicle window glass plate (hereinafter referred to as a “glass plate”) which is a transparent workpiece. , 10b and a workpiece position detection system 20 for detecting the position of the glass plate in a state where the robot 10a supports the glass plate.

ここで、ガラス板2a〜2h(以下、「ガラス板2」と総称する)は、第1パレット3a〜3h(以下、「第1パレット3」と総称する)に収納された状態で供給される。好ましくは、第1パレット(第1収納部)3は、ガラス板2の輸送に用いられる輸送用パレットである。複数のガラス板2は、それぞれ所定の間隔を隔てて積層状態で第1パレット3に収納されている。第1パレット3a〜3hそれぞれには、パレット毎に異なる車種・仕様に対応したガラス板2が収納されており、1つのパレットには同一種類のガラス板が収納されている。第1パレット3a〜3dに収容されているガラス板2a〜2dは、ロボット10aによって第2パレット4a〜4c(以下、「第2パレット4」と総称する)に車の生産順序通りに移し替えられて次の車両組立工程へ移送される。また、第1パレット3e〜3hに収容されているガラス板2e〜2hは、ロボット10bによって仮置き場5に移し替えられる。次いで、仮置き場5に移し替えられたガラス板2e〜2hはロボット10aによって支持され、第2パレット(第2収納部)4に車の生産順序通りに移し替えられて次の工程へ移送される。なお、複数のガラス板2は、第1パレット3による支持によって、ある程度、位置および姿勢が定まるものの、許容度の範囲内で位置および姿勢がばらつく。また、第1パレット3自身の寸法のばらつきや、第1パレット3を設置する際の位置のばらつきなどが存在する。よって、ロボット10aがガラス板2を支持するごとにガラス板2の位置および姿勢が異なりうるため、ロボット10aがガラス板2を第2パレット4に移し替える際には、ロボット10aがガラス板2を支持した状態で、ガラス板2の位置および姿勢を検出するワーク位置検出システム20を用いて検出して、ロボット10aの動きを補正する必要がある。   Here, the glass plates 2a to 2h (hereinafter collectively referred to as “glass plate 2”) are supplied in a state of being accommodated in first pallets 3a to 3h (hereinafter collectively referred to as “first pallet 3”). . Preferably, the first pallet (first storage unit) 3 is a transport pallet used for transporting the glass plate 2. The plurality of glass plates 2 are housed in the first pallet 3 in a stacked state with a predetermined interval therebetween. In each of the first pallets 3a to 3h, a glass plate 2 corresponding to a different vehicle type / specification is stored for each pallet, and the same type of glass plate is stored in one pallet. The glass plates 2a to 2d accommodated in the first pallets 3a to 3d are transferred to the second pallets 4a to 4c (hereinafter collectively referred to as “second pallet 4”) by the robot 10a according to the production order of the vehicle. To the next vehicle assembly process. Moreover, the glass plates 2e-2h accommodated in the first pallets 3e-3h are transferred to the temporary storage place 5 by the robot 10b. Next, the glass plates 2e to 2h transferred to the temporary storage place 5 are supported by the robot 10a, transferred to the second pallet (second storage unit) 4 in the vehicle production order, and transferred to the next step. . In addition, although the position and attitude | position are fixed to some extent by the support by the 1st pallet 3, the several glass plate 2 varies in position and attitude | position within the tolerance | permissible_range. In addition, there are variations in dimensions of the first pallet 3 itself, variations in position when the first pallet 3 is installed, and the like. Therefore, every time the robot 10a supports the glass plate 2, the position and posture of the glass plate 2 may be different. Therefore, when the robot 10a transfers the glass plate 2 to the second pallet 4, the robot 10a removes the glass plate 2. In the supported state, it is necessary to detect the position and posture of the glass plate 2 using the workpiece position detection system 20 to correct the movement of the robot 10a.

ガラス板2を移し替えるロボット10a,10bは、たとえば、図1に示すように、作業フロア上に仮置き場5を間に置いて、ロボット10aはガラス板2a〜2dを支持できるように、ロボット10bはガラス板2e〜2hを支持できるように配置されている。ロボット10a,10bは、コントローラ11(図示せず)からの制御信号を受けて動作するように構成されている。具体的には、コントローラ11は、移し替える対象となるガラス板が第1パレット3の何れに収容されているかによって、ロボット10aおよび/またはロボット10bに制御信号を送信し、ロボット10aおよび/またはロボット10bは、この制御信号に基づいて第1パレット3a〜3h毎に定められたアプローチ位置からガラス板を支持する。ここで、ガラス板を支持する際には、ロボット10a,10bはガラス板を把持してもよく、吸着してもよい。   For example, as shown in FIG. 1, the robots 10a and 10b for transferring the glass plate 2 have a temporary storage place 5 placed on the work floor so that the robot 10a can support the glass plates 2a to 2d. Are arranged so as to support the glass plates 2e to 2h. The robots 10a and 10b are configured to operate in response to a control signal from a controller 11 (not shown). Specifically, the controller 11 transmits a control signal to the robot 10a and / or the robot 10b depending on which one of the first pallets 3 contains the glass plate to be transferred, and the robot 10a and / or the robot 10b. 10b supports a glass plate from the approach position defined for each of the first pallets 3a to 3h based on this control signal. Here, when supporting the glass plate, the robots 10a and 10b may hold or adsorb the glass plate.

次に、ガラス板2の位置を検出するワーク位置検出システム20について説明する。ワーク位置検出システム20は、図1に示されるように、ロボット10aに支持された状態のガラス板2の位置を検出可能に構成されている。   Next, the workpiece position detection system 20 that detects the position of the glass plate 2 will be described. As shown in FIG. 1, the workpiece position detection system 20 is configured to be able to detect the position of the glass plate 2 supported by the robot 10a.

ワーク位置検出システム20は、複数の投光部21a,21b,21cおよび撮像部22a,22bと、位置検出に関する各種の演算および制御を行うコントローラ11とを含む。ここで、本実施の形態では、コントローラ11は、上述したとおり、ロボット10a,10bを制御するためのロボットコントローラであるとともに、ワーク位置検出システム20の一部の役割を担っている。なお、複数の投光部21b,21cおよび撮像部22a,22bは、たとえば、図2に示すように、第2のパレット4の近傍に設けられた取付け台6を用いて設けられる。また、投光部21aは、たとえば、ロボット10aのガラスを支持するロボットハンドに設けられているが、後述の条件を満たすのであれば取付け台6などの他の箇所に設けても構わない。   The workpiece position detection system 20 includes a plurality of light projecting units 21a, 21b, and 21c, imaging units 22a and 22b, and a controller 11 that performs various calculations and controls related to position detection. Here, in the present embodiment, the controller 11 is a robot controller for controlling the robots 10 a and 10 b as described above, and plays a part of the work position detection system 20. Note that the plurality of light projecting units 21b and 21c and the image capturing units 22a and 22b are provided, for example, using a mount 6 provided in the vicinity of the second pallet 4 as shown in FIG. Moreover, although the light projection part 21a is provided, for example in the robot hand which supports the glass of the robot 10a, if the conditions mentioned later are satisfy | filled, you may provide in other locations, such as the mounting base 6. FIG.

図3は、図1に示されるワーク位置検出システム20を示す構成図である。以下、図3に基づいて、ワーク位置検出システム20を構成する投光部21a,21b,21c、撮像部22a,22b、およびコントローラ11について、順番に説明する。   FIG. 3 is a block diagram showing the workpiece position detection system 20 shown in FIG. Hereinafter, based on FIG. 3, the light projecting units 21 a, 21 b, 21 c, the imaging units 22 a, 22 b, and the controller 11 constituting the work position detection system 20 will be described in order.

<投光部>
投光部21aは、透明体ワークであるガラス板2の表面に照明光を斜めから照射する発光器である。ここで、照明光とは、通常、像を撮像するために、被測定部を照明する光であって、像を撮像可能であれば如何なるものでもよい。ここで、図4を参照して、照明光を照射する投光部(以下、「照明光用投光部」と称する)21aとガラス板2の表面との関係について説明する。図4(a)は、照明光用投光部21aから照射される照明光100aの一部がガラス板2の内部で反射し、ガラス板2内部で案内される様子を示す図である。図4(b)は、空気およびガラスの屈折率がそれぞれn1およびn2のとき、入射角θ1と、屈折角および反射角θ2との関係、すなわちスネルの法則(n1sinθ1=n2sinθ2)を示す図である。ここで、たとえば、空気およびガラスの屈折率はそれぞれn1=1およびn2=1.5である。
<Light projecting part>
The light projecting unit 21a is a light emitter that irradiates illumination light obliquely onto the surface of the glass plate 2 that is a transparent workpiece. Here, the illumination light is usually light for illuminating the part to be measured in order to capture an image, and any light can be used as long as the image can be captured. Here, with reference to FIG. 4, a relationship between a light projecting unit (hereinafter referred to as “illuminating light projecting unit”) 21 a that irradiates illumination light and the surface of the glass plate 2 will be described. FIG. 4A is a diagram illustrating a state in which a part of the illumination light 100 a irradiated from the illumination light projecting unit 21 a is reflected inside the glass plate 2 and guided inside the glass plate 2. FIG. 4B is a diagram showing the relationship between the incident angle θ1, the refraction angle, and the reflection angle θ2, that is, Snell's law (n1sin θ1 = n2sin θ2) when the refractive indexes of air and glass are n1 and n2, respectively. . Here, for example, the refractive indexes of air and glass are n1 = 1 and n2 = 1.5, respectively.

図4(a)に示されるように、照明光用投光部21aは、ガラス板2の表面に照明光100aを斜めから照射し、ガラス板2内部で案内された照明光100aの少なくとも一部をガラス板2の端面から放射させることで、ガラス板2の端面に光を集中させ発光させる。望ましくは、ガラス板2の表面に反射角θ2が全反射臨界角θより大きくなるような入射角度θ1で照明光を照射する。ここで、全反射臨界角θとは、光が屈折率の高い物質から屈折率の低い物質に照射する場合、すなわち、光がガラス内部から外部(空気)に照射する場合、ガラス板2内部で全反射が起きるときの最小の角度である。θは、sinθ=n1/n2で求めることができる。なお、本実施形態のように、ガラス板2が湾曲形状を有している場合、臨界角は反射するごとに変化し得るが、ガラス板2内部を照明光の少なくとも一部が全反射し、ガラス板2の端面が強く発光すれば本発明の目的を果たすことができる。 As shown in FIG. 4A, the illumination light projecting unit 21 a irradiates the surface of the glass plate 2 with the illumination light 100 a obliquely, and at least a part of the illumination light 100 a guided inside the glass plate 2. Is radiated from the end surface of the glass plate 2 to concentrate light on the end surface of the glass plate 2 to emit light. Preferably, irradiating the illumination light at an incident angle θ1 as the reflection angle θ2 on the surface of the glass plate 2 is larger than the total reflection critical angle theta 0. Here, the total reflection critical angle θ 0 means that when light is irradiated from a material having a high refractive index to a material having a low refractive index, that is, when light is irradiated from the inside of the glass to the outside (air), the inside of the glass plate 2 This is the minimum angle when total reflection occurs. θ 0 can be obtained by sinθ 0 = n1 / n2. In addition, when the glass plate 2 has a curved shape as in the present embodiment, the critical angle may change every time it is reflected, but at least a part of the illumination light is totally reflected inside the glass plate 2, If the end surface of the glass plate 2 emits light strongly, the object of the present invention can be achieved.

投光部21b,21cは、透明体ワークであるガラス板2の端面201に交差するようにスリット光を照射する発光器である。したがって、一般的な位置検出システムにおける投光部と異なり、透明体ワークであるガラス板2の端面201の側からスリット光を照射する。ここで、スリット光とは、直線状に延びた照射領域を持つ光である。たとえば、投光部21b,21cは、スリット状のレーザ光を照射する投光部(以下、「スリット光用投光部」と称する)である。スリット光用投光部21b,21cは、たとえば、半導体レーザ素子およびその他の光学系によって構成可能であり、その構成自体は、一般的なスリット光の発光器と同様であるので、詳しい説明を省略する。   The light projecting portions 21b and 21c are light emitters that irradiate slit light so as to intersect the end surface 201 of the glass plate 2 that is a transparent workpiece. Therefore, unlike the light projection part in a general position detection system, slit light is irradiated from the end surface 201 side of the glass plate 2 which is a transparent workpiece. Here, the slit light is light having an irradiation region extending linearly. For example, the light projecting units 21 b and 21 c are light projecting units that irradiate slit-shaped laser light (hereinafter referred to as “slit light projecting unit”). The slit light projecting portions 21b and 21c can be configured by, for example, a semiconductor laser element and other optical systems, and the configuration itself is the same as that of a general slit light emitter, and thus detailed description thereof is omitted. To do.

次に、図5を参照して、スリット光用投光部21b,21cから照射されるスリット光とガラス板2の端面201との関係について説明する。図5は、スリット光用投光部21b,21cから照射されるスリット光とガラス板2の端面とが交差する状態を示す模式図である。   Next, with reference to FIG. 5, the relationship between the slit light irradiated from the slit light projecting portions 21b and 21c and the end surface 201 of the glass plate 2 will be described. FIG. 5 is a schematic diagram illustrating a state in which the slit light irradiated from the slit light projecting portions 21 b and 21 c intersects the end surface of the glass plate 2.

スリット光用投光部21b,21cは、図5に示されるように、スリット光100b,100cを照射するものである。この結果、ガラス板2の端面に輝点P1,P2が生じる。ここで、スリット光用投光部21b,21cは、ガラス板2の上方からガラス板2に対して、スリット光100b,100cを垂直に照射するとガラス板2の端面201以外で輝点が生じえて、後述する位置検出をする際に障害となるおそれがある。すなわち、ガラス板2に対して、スリット光用投光部21b,21cを垂直に照射するとガラス板2の上側の端面だけでなく下側の端面でも輝点が生じえて、上側と下側とで生じた輝点が重なる。したがって、ガラス板2の上方に配置された撮像部22bで撮像した結果、上側の端面で生じた輝点を判断できない可能性があるからである。したがって、図6に示すように、スリット光用投光部21b,21cは、スリット光100b,100cをガラス板2の端面201に対して斜めに照射することが望ましい。この結果、撮像部の撮像結果において、最も内側の輝点をガラス板2の端面で生じた輝点P1,P2とみなし、位置検出をする際に誤認識を防止することができる。   As shown in FIG. 5, the slit light projecting portions 21b and 21c irradiate the slit light 100b and 100c. As a result, bright spots P1 and P2 are generated on the end face of the glass plate 2. Here, when the slit light projecting portions 21b and 21c irradiate the slit light 100b and 100c perpendicularly to the glass plate 2 from above the glass plate 2, bright spots may be generated on portions other than the end surface 201 of the glass plate 2. There is a possibility that it becomes an obstacle when position detection described later is performed. That is, when the slit light projecting portions 21b and 21c are vertically irradiated on the glass plate 2, bright spots may be generated not only on the upper end surface of the glass plate 2, but also on the lower end surface. The resulting bright spots overlap. Therefore, as a result of imaging with the imaging unit 22b disposed above the glass plate 2, there is a possibility that the bright spot generated on the upper end face cannot be determined. Therefore, as shown in FIG. 6, it is desirable that the slit light projecting portions 21 b and 21 c irradiate the slit light 100 b and 100 c obliquely with respect to the end surface 201 of the glass plate 2. As a result, in the imaging result of the imaging unit, the innermost bright spot can be regarded as the bright spots P1 and P2 generated on the end face of the glass plate 2, and erroneous recognition can be prevented when performing position detection.

なお、照明光用投光部21aは、図7(a)に示すような特定の波長帯を有する照明光100aを照射することで、下記で説明する撮像部22aにおいて、バンドパスフィルタ220を設け、図7(b)に示すようにガラス板2の端面201で発光する光以外の外乱光をカットして、ガラス板2の認識を容易にすることができる。たとえば、スリット光100bおよび照明光100aが重なる部分を撮像部22aが撮像するとき、バンドパスフィルタ220を設けない場合の撮像結果は図8(a)のようになり、バンドパスフィルタ220を設ける場合の撮像結果は図8(b)のようになる。   The illumination light projecting unit 21a irradiates illumination light 100a having a specific wavelength band as shown in FIG. 7A, so that a band pass filter 220 is provided in the imaging unit 22a described below. As shown in FIG. 7B, disturbance light other than the light emitted from the end surface 201 of the glass plate 2 can be cut to facilitate the recognition of the glass plate 2. For example, when the imaging unit 22a images a portion where the slit light 100b and the illumination light 100a overlap, the imaging result when the bandpass filter 220 is not provided is as shown in FIG. 8A, and the bandpass filter 220 is provided. The imaging result is as shown in FIG.

<撮像部>
次に、図3に戻り、撮像部22a,22bについて説明する。撮像部22aは、照明光100aによってガラス板2の端面201に生じた光の集中箇所(放射箇所)Q1、すなわち強く発光する箇所を撮像する撮像部(以下、「照明光用撮像部」と称する)である。撮像部22bは、スリット光100b,100cによってガラス板2の端面201の複数箇所で生じた複数の輝点P1,P2を撮像する撮像部(以下、「スリット光用撮像部」と称する)である。具体的には、照明光用撮像部22aおよびスリット光用撮像部22bは、CCD素子などの撮像素子とその他の光学系によって構成可能であり、その構成自体は、一般的な撮像部と同様であるので、詳しい説明を省略する。照明光用撮像部22aは、上記の投光部での説明のとおりバンドパスフィルタ220を設けることが望ましい。さらに、図4(a)に示すように、照明光100aが直接照明光用撮像部22aに当たらないように、投光部21aと撮像部22aとを配置することが望ましい。
<Imaging unit>
Next, returning to FIG. 3, the imaging units 22a and 22b will be described. The imaging unit 22a is an imaging unit (hereinafter referred to as an “illumination light imaging unit”) that captures a concentrated point (radiation point) Q1 of light generated on the end surface 201 of the glass plate 2 by the illumination light 100a, that is, a location that emits intense light. ). The imaging unit 22b is an imaging unit that captures a plurality of bright spots P1 and P2 generated at a plurality of locations on the end surface 201 of the glass plate 2 by the slit lights 100b and 100c (hereinafter referred to as “slit light imaging unit”). . Specifically, the imaging unit for illumination light 22a and the imaging unit for slit light 22b can be configured by an imaging element such as a CCD element and other optical systems, and the configuration itself is the same as a general imaging unit. Because there is, detailed explanation is omitted. The illumination light imaging unit 22a is preferably provided with a band-pass filter 220 as described in the above light projecting unit. Further, as shown in FIG. 4A, it is desirable to arrange the light projecting unit 21a and the imaging unit 22a so that the illumination light 100a does not directly hit the illumination light imaging unit 22a.

<コントローラ>
コントローラ11は、上述したように、ロボット10a,10bを制御するためのロボットコントローラであるとともに、ワーク位置検出システム20の一部の役割を担っている。
<Controller>
As described above, the controller 11 is a robot controller for controlling the robots 10a and 10b, and plays a part of the work position detection system 20.

コントローラ11は、マイクロプロセッサからなる中央演算処理装置(CPU)、CPUにバス結合されたROMメモリ、RAMメモリ、不揮発性メモリ、教示操作盤、および通信インターフェイスなどの構成要素を備えている。ROMメモリには、たとえばロボットを制御するシステムプログラムなどのプログラムが格納される。RAMメモリは、CPUが実行する処理のためのデータの一時記憶などに使用される。不揮発性メモリには、たとえば動作プログラムのデータ、ロボットの教示データ、およびロボットなどの動作に必要な各種設定値が格納される。教示操作盤は、たとえばロボット10a,10bの教示データを入力する場合に用いられる。また、通信インターフェイスは、ロボット10a,10b、照明光用投光部21a、スリット光用投光部21b,21c、照明光用撮像部22a、およびスリット光用投光部22bとコントローラ11とを通信可能に接続する。   The controller 11 includes components such as a central processing unit (CPU) composed of a microprocessor, a ROM memory, a RAM memory, a nonvolatile memory, a teaching operation panel, and a communication interface coupled to the CPU. The ROM memory stores a program such as a system program for controlling the robot. The RAM memory is used for temporary storage of data for processing executed by the CPU. The nonvolatile memory stores, for example, operation program data, robot teaching data, and various setting values necessary for the operation of the robot and the like. The teaching operation panel is used, for example, when inputting teaching data of the robots 10a and 10b. The communication interface communicates between the robots 10a and 10b, the illumination light projector 21a, the slit light projectors 21b and 21c, the illumination light imaging unit 22a, and the slit light projector 22b and the controller 11. Connect as possible.

コントローラ11は、照明光の照射を指示するための信号(以下、「照明光照射信号」と称する)を照明光用投光部21aに送信し、スリット光の照射を指示するための信号(以下、「スリット光照射信号」と称する)をスリット光用投光部21b,21cに送信し、照明光の撮像を指示するための信号(以下、「照明光撮像信号」と称する)を照明光用撮像部22aに送信し、スリット光の撮像を指示するための信号(以下、「スリット光用撮像信号」と称する)をスリット光用撮像部22b,22cに送信する。   The controller 11 transmits a signal for instructing irradiation of illumination light (hereinafter, referred to as “illumination light irradiation signal”) to the illumination light projecting unit 21a, and a signal for instructing irradiation of slit light (hereinafter, referred to as “illumination light irradiation signal”). , “Slit light irradiation signal”) is transmitted to the slit light projecting sections 21b, 21c, and a signal for instructing imaging of illumination light (hereinafter referred to as “illumination light imaging signal”) is used for illumination light. A signal for instructing imaging of slit light (hereinafter referred to as “imaging signal for slit light”) is transmitted to the imaging unit 22a, and transmitted to the imaging units 22b and 22c for slit light.

また、コントローラ11は、以下のような検出部として機能する。   The controller 11 functions as a detection unit as described below.

検出部は、照明光用撮像部22aおよびスリット光用撮像部22bからの撮像結果のデータ信号を受信して、その撮像結果のデータ信号に基づいて透明体ワークであるガラス板2の位置を検出するものである。以下に、コントローラ11の検出部で処理される透明体ワークであるガラス板2の位置を検出する方法を、図9を参照しつつ、詳細に説明する。図9(a)は、照明光用撮像部22aの撮像結果を示す図であり、図9(b)は、スリット光用撮像部22bの撮像結果を示す図である。   The detection unit receives a data signal of the imaging result from the imaging unit for illumination light 22a and the imaging unit for slit light 22b, and detects the position of the glass plate 2 that is a transparent workpiece based on the data signal of the imaging result. To do. Below, the method to detect the position of the glass plate 2 which is a transparent body workpiece | work processed by the detection part of the controller 11 is demonstrated in detail, referring FIG. FIG. 9A is a diagram illustrating an imaging result of the illumination light imaging unit 22a, and FIG. 9B is a diagram illustrating an imaging result of the slit light imaging unit 22b.

まず、基準形状をコントローラ11に設定する。基準形状とは、たとえば、ロボット10aがガラス板2を支持する基準となる箇所(以下、「基準箇所」と称する)を決め、その基準箇所で支持した状態で撮像空間300に移動したとき、照明光用撮像部22a、スリット光用撮像部22bが撮像する形状である。すなわち、基準形状は、たとえば、図9(a)および図9(b)のように設定される。基準箇所とは、予めコントローラ11に設定した教示データで、ロボット10aがガラス板2を正確に第2のパレット4に収納することができるとき、ロボット10aがガラス板2を支持する箇所である。したがって、基準箇所以外で、ロボット10aがガラス板2を支持したとき、照明光用撮像部22a、およびスリット光用撮像部22bが撮像する形状が基準形状と差異を生じ、この差異によってロボット10aがガラス板2のどの位置を支持しているか算出することができる。算出後、ロボット10aの教示データを補正し、第2のパレット4に正確にガラス板2を収納することができる。撮像空間300は、図3に示すような、照明光用撮像部22a、およびスリット光用撮像部22bがガラス板2撮像をすることができる所定の空間である。以下に、コントローラ11の検出部で処理される透明体ワークであるガラス板2の位置を検出する方法を、詳細に説明する。   First, the reference shape is set in the controller 11. The reference shape is, for example, a position where the robot 10a serves as a reference for supporting the glass plate 2 (hereinafter referred to as a “reference position”), and when the robot 10a is moved to the imaging space 300 while being supported at the reference position, It is the shape which the imaging part 22a for light and the imaging part 22b for slit light image. That is, the reference shape is set as shown in FIGS. 9A and 9B, for example. The reference location is teaching data set in advance in the controller 11 and is a location where the robot 10a supports the glass plate 2 when the robot 10a can accurately store the glass plate 2 in the second pallet 4. Therefore, when the robot 10a supports the glass plate 2 other than the reference location, the shape captured by the illumination light imaging unit 22a and the slit light imaging unit 22b is different from the reference shape. It is possible to calculate which position of the glass plate 2 is supported. After the calculation, the teaching data of the robot 10 a can be corrected and the glass plate 2 can be accurately stored in the second pallet 4. The imaging space 300 is a predetermined space in which the illumination light imaging unit 22a and the slit light imaging unit 22b can capture the glass plate 2 as shown in FIG. Below, the method to detect the position of the glass plate 2 which is a transparent body workpiece | work processed by the detection part of the controller 11 is demonstrated in detail.

まず、ガラス板2を支持したロボット10aは、ワーク位置を検出することができるように、取付け台6前の撮像空間300にロボット10aのロボットハンドを移動する。撮像空間300を、x、y、z軸を定めた座標系で表現する。本実施形態では、照明光用撮像部22aは、xz平面を撮像できるように配置し、スリット光用撮像部22bはxy平面を撮像できるように配置する。したがって、コントローラ11の基準形状は、照明光用撮像部22aはxz平面を撮像したものであり、スリット光用撮像部22bはyz平面を撮像したものである。ここで、本実施形態では、ガラス板2は、z軸まわりにθz回転移動し、x軸方向にα平行移動し、y軸方向にβ平行移動し、およびz軸方向にγ平行移動しているものとして、この各種パラメータ(θz、α、β、γ)を検出部の検出結果によって求めることができる。よって、図9に示すように、照明光用撮像部22aではパラメータ(α、γ)、スリット光用撮像部22bではパラメータ(θz、β)を求めることできる。すなわち、照明光用撮像部22aおよびスリット光用撮像部22bによって撮像された形状と、基準形状とを比較することによって、ロボット10aがガラス板2を支持した基準箇所からの移動量である各種パラメータ(θz、α、β、γ)をコントローラ11が算出することにより求めることができる。   First, the robot 10a supporting the glass plate 2 moves the robot hand of the robot 10a to the imaging space 300 in front of the mount 6 so that the workpiece position can be detected. The imaging space 300 is expressed in a coordinate system with x, y, and z axes. In the present embodiment, the illumination light imaging unit 22a is disposed so as to capture an xz plane, and the slit light imaging unit 22b is disposed so as to capture an xy plane. Therefore, the reference shape of the controller 11 is that the imaging unit for illumination light 22a images the xz plane, and the imaging unit for slit light 22b images the yz plane. Here, in this embodiment, the glass plate 2 rotates θz around the z axis, α translates in the x axis direction, β translates in the y axis direction, and γ translates in the z axis direction. As a result, the various parameters (θz, α, β, γ) can be obtained from the detection result of the detection unit. Therefore, as shown in FIG. 9, it is possible to obtain the parameters (α, γ) in the illumination light imaging unit 22a and the parameters (θz, β) in the slit light imaging unit 22b. That is, by comparing the shape captured by the illumination light imaging unit 22a and the slit light imaging unit 22b with the reference shape, various parameters that are movement amounts from the reference location where the robot 10a supports the glass plate 2 are obtained. The controller 11 can calculate (θz, α, β, γ).

以上のように構成される本実施形態のワーク位置検出システム20は、以下のように処理が実行される。   The workpiece position detection system 20 of the present embodiment configured as described above is executed as follows.

図10は、本実施形態のワーク位置検出システム20の処理内容を示すフローチャートである。   FIG. 10 is a flowchart showing the processing contents of the workpiece position detection system 20 of the present embodiment.

まず、コントローラ11は、第1のパレット3a〜3hのうち何れか一つのパレットからガラス板の取り出しを指示する(ステップS1)。次に、コントローラ11は、取り出し指示されたガラス板の収容パレットが、ロボット10aが処理する第1のパレット3a〜3d、またはロボット10bが処理する第1のパレット3e〜3hであるのかを判断する(ステップS2)。   First, the controller 11 instructs to take out the glass plate from any one of the first pallets 3a to 3h (step S1). Next, the controller 11 determines whether the accommodation pallet of the glass plate instructed to be taken out is the first pallets 3a to 3d processed by the robot 10a or the first pallets 3e to 3h processed by the robot 10b. (Step S2).

コントローラ11は、ガラス板を取り出すパレットに該当する第1のパレット3a〜3h内のガラス残数がゼロか否かを判断する(ステップS3a,3b)。パレット内のガラス残数がゼロか否かは、たとえば、パレットに設けたカウンタを用いて、そのカウンタの出力をコントローラ11が受信することにより判断することができる。   The controller 11 determines whether or not the remaining number of glasses in the first pallets 3a to 3h corresponding to the pallet for taking out the glass plate is zero (steps S3a and 3b). Whether or not the remaining glass number in the pallet is zero can be determined by using, for example, a counter provided on the pallet and the controller 11 receiving the output of the counter.

ガラス板を取り出すパレットのガラス板の残り枚数がゼロであれば、第1のパレットが空であること(パレット空出力)をコントローラ11は表示する(ステップS4a,4b)。   If the remaining number of glass plates in the pallet for taking out the glass plates is zero, the controller 11 displays that the first pallet is empty (pallet empty output) (steps S4a, 4b).

コントローラ11は、第1のパレット3e〜3hからガラス板2を取り出すことを指示した場合には、まずロボット10bにガラスを支持させ、取り出すように指示する(ステップS5)。そして、コントローラ11は、ロボット10bに支持したガラス板2を仮置き台5に置くように指示する(ステップS6)。   When the controller 11 instructs to take out the glass plate 2 from the first pallets 3e to 3h, the controller 11 first instructs the robot 10b to support and take out the glass (step S5). And the controller 11 instruct | indicates to put the glass plate 2 supported by the robot 10b on the temporary placement stand 5 (step S6).

コントローラ11は、ロボット10bがガラス板2を仮置き台5に置いたあと、取り出し完了の信号をロボット10bに送信して、ロボット10bは元の位置に戻る(ステップS7)。コントローラ11は、第2のパレット4のガラス板2を収納する空きがあるか否かを判断する(ステップS8)。第2のパレット4のガラス板2を収納する空きがあるか否かは、たとえば、パレットに設けたカウンタを用いて、そのカウンタの出力をコントローラ11が受信することにより判断することができる。第2のパレット4のガラス板2を収納する空きがない場合は、ガラス板2を収納すべき第2のパレット4が空きのパレットに入れ替わるまで、すなわち、空の第2のパレットが収納箇所に移動するまで待機状態となる。   After the robot 10b places the glass plate 2 on the temporary table 5, the controller 11 transmits a signal indicating completion of removal to the robot 10b, and the robot 10b returns to the original position (step S7). The controller 11 determines whether or not there is a space for storing the glass plate 2 of the second pallet 4 (step S8). Whether or not there is an empty space for storing the glass plate 2 of the second pallet 4 can be determined by, for example, using a counter provided on the pallet and the controller 11 receiving the output of the counter. If there is no space for storing the glass plate 2 of the second pallet 4, the second pallet 4 that should store the glass plate 2 is replaced with an empty pallet, that is, the empty second pallet is in the storage location. It will be in a standby state until it moves.

次に、コントローラ11は、ロボット10aに、第1パレット3a〜3dであれば、それぞれの各パレットから、第1パレット3e〜3hであれば、仮置き台5からそれぞれガラス板2を取り出す指示をする(ステップS9)。   Next, the controller 11 instructs the robot 10a to take out the glass plates 2 from the respective pallets if they are the first pallets 3a to 3d and from the temporary placing table 5 if they are the first pallets 3e to 3h. (Step S9).

コントローラ11は、ロボット10aがガラス板2を支持した状態で、ワーク位置を検出する撮像箇所へロボットハンドを移動させる(ステップS10)。そして、コントローラ11は、ワーク位置を検出する(ステップS11)。ワーク位置の検出処理は、図11のフローチャートを用いて説明する。   The controller 11 moves the robot hand to the imaging location for detecting the workpiece position while the robot 10a supports the glass plate 2 (step S10). Then, the controller 11 detects the work position (step S11). The workpiece position detection process will be described with reference to the flowchart of FIG.

そして、コントローラ11は、ワーク位置を検出したあと、その検出結果を基にロボット10aに第2のパレット4に整列させる(ステップS12)。   Then, after detecting the workpiece position, the controller 11 aligns the robot 10a with the second pallet 4 based on the detection result (step S12).

以下、ワーク位置検出を図11のフローチャートを用いて詳細に説明する。   Hereinafter, the workpiece position detection will be described in detail with reference to the flowchart of FIG.

コントローラ11は、まずスリット光の照射をスリット光用投光部21b,21cに指示する(ステップS21)。   First, the controller 11 instructs the slit light projecting sections 21b and 21c to irradiate slit light (step S21).

次に、コントローラ11は、スリット光用撮像部22bに、スリット光用投光部21b,21cからスリット光によって照射されたガラス板2の端面201の輝点P1,P2の撮像を指示する(ステップS22)。   Next, the controller 11 instructs the imaging unit 22b for slit light to image the bright spots P1 and P2 on the end surface 201 of the glass plate 2 irradiated by the slit light from the light projecting units 21b and 21c for slit light (step) S22).

コントローラ11は、スリット光用撮像部22bによって撮像された輝点P1,P2の撮像結果の取り込みを実行する(ステップS23)。   The controller 11 executes capturing of the imaging results of the bright spots P1 and P2 imaged by the slit light imaging unit 22b (step S23).

コントローラ11は、上述した通り予め設定された教示データ(教示形状)と撮像結果の輝点P1,P2の形状を比較することで、パラメータ(β、θz)を算出する(ステップS24)。   The controller 11 calculates the parameters (β, θz) by comparing the preset teaching data (teaching shape) with the shapes of the bright spots P1 and P2 of the imaging result as described above (step S24).

コントローラ11は、パラメータ(β、θz)を算出後、スリット光用投光部21b,21cにスリット光の照射のOFFを指示する(ステップS25)。   After calculating the parameters (β, θz), the controller 11 instructs the slit light projectors 21b and 21c to turn off the irradiation of the slit light (step S25).

コントローラ11は、照明光の照射を照明光用投光部21aに指示する(ステップS26)。   The controller 11 instructs the illumination light projecting unit 21a to irradiate illumination light (step S26).

次に、コントローラ11は、照明光用撮像部22aに、照明光用投光部21aから照明光によって照射されたガラス板2の端面に生じた発光箇所(放射箇所)Q1の撮像を指示する(ステップS27)。   Next, the controller 11 instructs the illuminating light imaging unit 22a to image a light emitting spot (radiating spot) Q1 generated on the end surface of the glass plate 2 irradiated by the illuminating light from the illuminating light projector 21a ( Step S27).

コントローラ11は、照明光用撮像部22aによって撮像された発光箇所Q1の撮像結果を取り込む(ステップS28)。   The controller 11 captures the imaging result of the light emitting spot Q1 captured by the illumination light imaging unit 22a (step S28).

コントローラ11は、上述した通り予め設定された教示データ(教示形状)と撮像結果の発光箇所(放射箇所)Q1の形状を比較することで、パラメータ(α、γ)を算出する(ステップS29)。   The controller 11 calculates the parameters (α, γ) by comparing the preset teaching data (teaching shape) with the shape of the light emission location (radiation location) Q1 of the imaging result as described above (step S29).

コントローラ11は、パラメータ(α、γ)を算出後、スリット光用投光部21b,21cにスリット光の照射のOFFを指示する(ステップS30)。   After calculating the parameters (α, γ), the controller 11 instructs the slit light projectors 21b and 21c to turn off the irradiation of the slit light (step S30).

なお、パラメータ(β、θz)の位置検出処理であるステップS21〜ステップS25と、パラメータ(α、γ)の位置検出処理であるステップS26〜ステップS30とは、逆に順序を入れ替えてもよいし、同時に処理を実行することも可能である。   Note that steps S21 to S25, which are parameter (β, θz) position detection processing, and steps S26 to S30, which are parameter (α, γ) position detection processing, may be reversed in order. It is also possible to execute processing simultaneously.

以上より、各種パラメータ(θz、α、β、γ)の結果よりガラスの位置計算をすることができる(ステップS31)。   As described above, the glass position can be calculated from the results of various parameters (θz, α, β, γ) (step S31).

以上の処理において、ステップS21以下の処理は、スリット光用投光部の処理に対応する。ステップS26以下の処理は、照明光用投光部の処理に対応する。   In the above processing, the processing after step S21 corresponds to the processing of the slit light projecting unit. The processing after step S26 corresponds to the processing of the illumination light projecting unit.

また、ステップS22〜ステップS23の処理は、スリット光用撮像部の処理に対応する。ステップS27〜ステップS28の処理は、照明光用撮像部の処理に対応する。   Moreover, the process of step S22-step S23 respond | corresponds to the process of the imaging part for slit light. The processing of step S27 to step S28 corresponds to the processing of the illumination light imaging unit.

さらに、ステップS24およびステップS29の処理は、検出部の処理に対応する。   Further, the processing in step S24 and step S29 corresponds to the processing of the detection unit.

以上のように、本実施形態のワーク位置検出システム20によれば、以下のような(A)〜(K)の効果を奏する。   As described above, according to the workpiece position detection system 20 of the present embodiment, the following effects (A) to (K) are achieved.

(A)透明体であるガラス板の端面が発光するように光を照射する少なくとも一つの投光部と、光によってガラス板の端面に生じた発光箇所を撮像する撮像部と、撮像部による撮像結果に基づいてガラス板の位置を検出する検出部とを有するので、ガラス板の端面が発光するように光を照射することで、撮像する対象が透明体であっても、透明体であるガラス板の位置を正確に検出することができるようになる。   (A) At least one light projecting unit that irradiates light so that the end surface of the glass plate that is a transparent body emits light, an imaging unit that captures a light emission location generated on the end surface of the glass plate by light, and imaging by the imaging unit Since it has a detection part which detects the position of a glass plate based on a result, even if the object to image is a transparent body by irradiating light so that the end face of a glass plate may emit light, it is glass which is a transparent body The position of the plate can be accurately detected.

(B)投光部が複数設けられていることで、ワーク位置検出に用いるためのワークの端面に複数の発光箇所を生じさせ、その複数の発光箇所に基づいて透明体であるガラス板の位置を検出することで、ガラス板の位置を詳細に検出することができる。   (B) Since a plurality of light projecting portions are provided, a plurality of light emitting portions are generated on the end face of the workpiece for use in workpiece position detection, and the position of the glass plate that is a transparent body based on the plurality of light emitting portions. By detecting this, the position of the glass plate can be detected in detail.

(C)照明光を照射し、ガラス板内部で案内された照明光の少なくとも一部をガラス板の端面に集中させることによって、ガラス板の端面を強く発光させることができるので、強く発光した部分の撮像が容易となる。   (C) Since the end face of the glass plate can be made to emit light strongly by irradiating the illumination light and concentrating at least part of the illumination light guided inside the glass plate on the end face of the glass plate, Imaging becomes easy.

(D)ガラス板の表面に照射光を斜めから照射し、照射光の少なくとも一部をガラス板内部で全反射させることで、照明光が全てガラス板を透過することなく、ガラス板の端面を強く発光させることができる。   (D) By irradiating the surface of the glass plate with irradiation light from an oblique direction and totally reflecting at least part of the irradiation light inside the glass plate, the illumination light does not completely pass through the glass plate, and the end surface of the glass plate is Strong light can be emitted.

(E)投光部は、ガラス板の表面に全反射臨界角より大きな入射角度で照明光を照射することで、照明光がガラス板内部で全反射をして端部を強く発光させることができる。   (E) The light projecting unit irradiates the surface of the glass plate with illumination light at an incident angle greater than the total reflection critical angle, so that the illumination light is totally reflected inside the glass plate and strongly emits light at the end. it can.

(F)投光部は、特定の波長帯の照明光を照射し、撮像部は、特定の波長帯の照明光を選択的に透過するフィルタを備えることで、照明光によりガラス板の端面で発光する以外の光をカットし、撮像部による安定した撮像ができる。   (F) The light projecting unit irradiates illumination light of a specific wavelength band, and the imaging unit includes a filter that selectively transmits illumination light of the specific wavelength band, so that the illumination light is irradiated on the end surface of the glass plate. Light other than light emission is cut, and stable imaging by the imaging unit can be performed.

(G)ガラス板は、ロボットに支持され、検出部は、ロボットに支持された状態のまま撮像部によって撮像された撮像結果に基づいてガラス板の位置を検出することで、ロボットがガラス板2を完全に正確に指示しなくても、その検出部の検出結果により、第2のパレットに正確に収納することができる。   (G) The glass plate is supported by the robot, and the detection unit detects the position of the glass plate based on the imaging result captured by the imaging unit while being supported by the robot, so that the robot detects the glass plate 2. Can be accurately stored in the second pallet according to the detection result of the detection unit, even if it is not instructed completely and accurately.

(H)投光部は、ガラス板の端面に交差するようにスリット光を照射し、撮像部は、スリット光によってガラス板の端面の複数個所で生じた複数の輝点を撮像することで、撮像の対象が透明体であっても、透明体であるガラス板の位置を正確に検出することができるようになる。   (H) The light projecting unit irradiates slit light so as to intersect the end surface of the glass plate, and the imaging unit images a plurality of bright spots generated at a plurality of locations on the end surface of the glass plate by the slit light, Even if the object to be imaged is a transparent body, the position of the glass plate that is the transparent body can be accurately detected.

(I)投光部は、スリット光をガラス板の端面に対して斜めに照射することで、撮像部がガラス板2を撮像したときに、位置検出に用いる輝点のみを安定して検出することができる。   (I) A light projection part irradiates slit light with respect to the end surface of a glass plate diagonally, and when an imaging part images the glass plate 2, only the bright spot used for a position detection is detected stably. be able to.

(J)投光部が複数設けられ、検出部は、複数の投光部から照射されたそれぞれのスリット光によってガラス板の端面の複数箇所で生じた複数の輝点の撮像結果に基づいてガラス板の位置を検出することで、ガラス板の位置を詳細に検出することができる。   (J) A plurality of light projecting sections are provided, and the detection section is made of glass based on imaging results of a plurality of bright spots generated at a plurality of locations on the end face of the glass plate by the respective slit lights irradiated from the plurality of light projecting sections. By detecting the position of the plate, the position of the glass plate can be detected in detail.

(K)投光部は、ガラス板の表面に照明光を照射し、ガラス板内部で案内された照明光の少なくとも一部をガラス板の端面から放出させる照明光用投光部と、ガラス板の端面に交差するようにスリット光を照射するスリット光用投光部とを含み、撮像部は、照明光によってガラス板の端面に生じる放射箇所を撮像する照明光用撮像部と、スリット光によってガラス板の端面に生じた輝点を撮像するスリット光用撮像部とを含み、検出部は、照明光用撮像部およびスリット光用撮像部による撮像結果に基づいてガラス板の位置を検出することで、ガラス板の位置を詳細に検出することができる。   (K) The light projecting unit illuminates the surface of the glass plate with illumination light, and emits at least part of the illumination light guided inside the glass plate from the end surface of the glass plate, and the glass plate A slit light projecting unit that irradiates slit light so as to intersect the end surface of the light source, and the imaging unit includes an illumination light imaging unit that images a radiation location generated on the end surface of the glass plate by the illumination light, and the slit light. A slit light imaging unit that images a bright spot generated on the end surface of the glass plate, and the detection unit detects the position of the glass plate based on the imaging results of the illumination light imaging unit and the slit light imaging unit. Thus, the position of the glass plate can be detected in detail.

<第2の実施形態>
次に、本発明の第2の実施形態について詳細に説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described in detail.

第2の実施形態のワーク位置検出システム20は、図12に示すように、第1の実施形態の構成機器であるスリット光用投光部21b,21c、およびスリット光用撮像部22bに代えて、照明光用投光部21d、および照明光用撮像部22cを用いて、複数方向からの照明光用撮像部のみの撮像結果に基づいて透明体であるガラス板の位置を検出することができるシステムである。また、第2の実施形態のワーク位置検出システムは、第1の実施形態と同様に、ガラス板2は、z軸まわりにθz回転移動し、x軸方向にα平行移動し、y軸方向にβ平行移動し、およびz軸方向にγ平行移動しているものとして、この各種パラメータ(θz、α、β、γ)を検出部の検出結果によって求めることができる。   As shown in FIG. 12, the workpiece position detection system 20 of the second embodiment replaces the slit light projectors 21b and 21c and the slit light imaging unit 22b, which are constituent devices of the first embodiment. The position of the glass plate, which is a transparent body, can be detected based on the imaging results of only the illumination light imaging unit from a plurality of directions using the illumination light projecting unit 21d and the illumination light imaging unit 22c. System. Further, in the workpiece position detection system of the second embodiment, the glass plate 2 is rotated by θz around the z axis, is α translated in the x axis direction, and is moved in the y axis direction, as in the first embodiment. The various parameters (θz, α, β, γ) can be obtained from the detection result of the detection unit, assuming that β is translated and γ is translated in the z-axis direction.

第2の実施形態のワーク位置検出システム20は、複数の照明光用投光部21a,21dおよび照明光用撮像部22a,22dと、位置検出に関する各種の演算および制御を実行するコントローラ11とを含む。また、照明光用撮像部22a,22dは、たとえば、図2のような取付け台6を用いて設けられる。また、照明光用投光部21dは、照明光用投光部21aと同様に、たとえば、ロボット10aのガラス板を支持するロボットハンドに設けられている。以下、第2の実施形態と第1の実施形態と同一の構成要素は説明を省略する。   The workpiece position detection system 20 according to the second embodiment includes a plurality of illumination light projection units 21a and 21d and illumination light imaging units 22a and 22d, and a controller 11 that performs various calculations and controls related to position detection. Including. Moreover, the imaging parts 22a and 22d for illumination light are provided, for example using the attachment stand 6 as shown in FIG. In addition, the illumination light projector 21d is provided, for example, in a robot hand that supports the glass plate of the robot 10a, similarly to the illumination light projector 21a. Hereinafter, the description of the same components as those of the second embodiment and the first embodiment will be omitted.

照明光用投光部21dは、照明光用投光部21aと同様に、透明体ワークであるガラス板2の表面に照明光を斜めから照射する発光器である。照明光用投光部21aは、撮像空間300のxz平面を撮像するためのものであり、照明光用投光部21dは、撮像空間300のxy平面を撮像するためのものである。   The illumination light projecting unit 21d is a light emitter that irradiates illumination light obliquely onto the surface of the glass plate 2 that is a transparent workpiece, similarly to the illumination light projecting unit 21a. The illumination light projector 21 a is for imaging the xz plane of the imaging space 300, and the illumination light projector 21 d is for imaging the xy plane of the imaging space 300.

コントローラ11は、照明光照射信号を照明光用投光部21a,21dに送信し、照明光撮像信号を照明光用撮像部22a,22cに送信する。以下に、コントローラ11の検出部で処理される透明体ワークであるガラス板2の位置を検出する方法を、図13を参照しつつ、詳細に説明する。図13は、照明光用撮像部22cの撮像結果を示す図である。なお、照明光用撮像部22aは第1の実施形態と同様なので、説明を省略する。   The controller 11 transmits the illumination light irradiation signal to the illumination light projection units 21a and 21d, and transmits the illumination light imaging signal to the illumination light imaging units 22a and 22c. Below, the method to detect the position of the glass plate 2 which is the transparent body workpiece | work processed by the detection part of the controller 11 is demonstrated in detail, referring FIG. FIG. 13 is a diagram illustrating the imaging result of the illumination light imaging unit 22c. The illumination light imaging unit 22a is the same as in the first embodiment, and a description thereof will be omitted.

まず、基準形状を第1の実施形態と同様にコントローラ11に設定する。基準形状は、たとえば、図13に示すような形状で設定される。予め設定された基準形状と、照明光用撮像部22cで撮像された形状とを比較することで、ワーク位置の検出をすることができ、パラメータ(β、θz)を算出することができる。また、第1の実施形態と同様に、照明光用撮像部22aでパラメータ(α、γ)を算出することができるので、ロボット10aがガラス板2を支持した基準箇所からの移動量である各種パラメータ(θz、α、β、γ)を、コントローラ11によって求めることができる。   First, the reference shape is set in the controller 11 as in the first embodiment. The reference shape is set, for example, as shown in FIG. The workpiece position can be detected and the parameters (β, θz) can be calculated by comparing the preset reference shape and the shape imaged by the illumination light imaging unit 22c. Further, similarly to the first embodiment, since the parameters (α, γ) can be calculated by the illumination light imaging unit 22a, various types of movement amounts from the reference position where the robot 10a supports the glass plate 2 are used. The parameters (θz, α, β, γ) can be obtained by the controller 11.

ここで、照明光用投光部21aは、特定の波長帯(以下、「第1波長帯」と称する)の照明光を照射する投光部(以下、「第1波長帯用投光部」と称する)、照明光用投光部21dは、第1波長帯とは異なる特定の波長帯(以下、「第2波長帯」と称する)の照明光を照射する投光部(以下、「第2波長帯用投光部」と称する)にすることが望ましい。照明光用撮像部22a,22cにそれぞれ第1波長帯、第2波長帯を選択的に透過するバンドパスフィルタ220,221を設けることで、ガラス板2の端面201で発光する光以外の外乱光をカットして、かつ、お互いの照明光に干渉されず、ガラス板2の認識を容易にすることができる。   Here, the illumination light projection unit 21a is a projection unit that emits illumination light in a specific wavelength band (hereinafter referred to as “first wavelength band”) (hereinafter, “first wavelength band projection unit”). The illumination light projecting unit 21d emits illumination light in a specific wavelength band (hereinafter referred to as “second wavelength band”) different from the first wavelength band (hereinafter referred to as “first”). It is desirable to use a “two-wavelength band projecting unit”. Disturbance light other than light emitted from the end surface 201 of the glass plate 2 by providing bandpass filters 220 and 221 that selectively transmit the first wavelength band and the second wavelength band respectively in the imaging units 22a and 22c for illumination light. The glass plate 2 can be easily recognized without being interfered with each other's illumination light.

なお、照明光100aが直接照明光用撮像部22aに当たらないように、照明光100dが直接照明光用撮像部22cに当たらないように、照明光用投光部21a,21dと照明光用撮像部22a,22cを配置することが望ましい。   The illumination light projectors 21a and 21d and the illumination light imaging so that the illumination light 100a does not directly strike the illumination light imaging unit 22a and the illumination light 100d does not directly strike the illumination light imaging unit 22c. It is desirable to arrange the portions 22a and 22c.

以上のように、第2の実施形態のワーク位置検出システム20によれば、第1の実施形態の(A)〜(G)の効果に加え、以下の(L)、(M)効果を奏する。   As described above, according to the work position detection system 20 of the second embodiment, in addition to the effects (A) to (G) of the first embodiment, the following effects (L) and (M) are achieved. .

(L)スリット光用投光部を用いると、ガラス板の端面以外で輝点が生じ得て、撮像結果をもとに、ガラス板の位置検出をする処理が複雑となる。しかし、照明光用投光部のみでワーク位置の検出処理をすれば、ガラス板の端面が発光するだけであり、外乱光はバンドパスフィルタによりカットできるので、安定したガラス板の位置検出が可能である。   (L) When the slit light projecting unit is used, bright spots can be generated on portions other than the end face of the glass plate, and the process of detecting the position of the glass plate based on the imaging result becomes complicated. However, if the workpiece position detection process is performed only with the illumination light projecting unit, only the end face of the glass plate emits light, and disturbance light can be cut by a bandpass filter, enabling stable glass plate position detection. It is.

(M)投光部は、第1波長帯の照明光を照射する第1波長帯用投光部と、第2波長帯の照明光を照射する第2波長帯用投光部とを含み、撮像部は、第1波長帯の照明光を選択的に透過するフィルタを備える第1波長帯用撮像部と、第2波長帯の照明光を選択的に透過するフィルタを備える第2波長帯用撮像部とを含むことで、ガラス板2の端面201で発光する光以外の外乱光をカットして、かつ、お互いの照明光に干渉されず、ガラス板2の認識を容易にすることができる。   (M) The light projecting unit includes a first wavelength band projecting unit that irradiates illumination light in the first wavelength band and a second wavelength band projecting unit that irradiates illumination light in the second wavelength band, The imaging unit includes a first wavelength band imaging unit that includes a filter that selectively transmits illumination light in the first wavelength band, and a second wavelength band that includes a filter that selectively transmits illumination light in the second wavelength band. By including the imaging unit, disturbance light other than light emitted from the end surface 201 of the glass plate 2 can be cut, and the glass plate 2 can be easily recognized without being interfered with each other's illumination light. .

<第3の実施形態>
次に、本発明の第3の実施形態について詳細に説明する。
<Third Embodiment>
Next, a third embodiment of the present invention will be described in detail.

第3の実施形態のワーク位置検出システム20は、図14に示されるように、ガラス板2が第1パレット3に収容された状態のままでも、ガラス板2の位置を検出可能に構成されている。すなわち、第1の実施形態および第2の実施形態と異なり、ロボットがガラス板2を支持してからワーク位置検出するのではなく、支持する前にワーク位置検出をすることで、ロボットにガラス板2を基準箇所で支持させるものである。   As illustrated in FIG. 14, the workpiece position detection system 20 according to the third embodiment is configured to be able to detect the position of the glass plate 2 even when the glass plate 2 remains in the first pallet 3. Yes. That is, unlike the first embodiment and the second embodiment, the robot does not detect the workpiece position after supporting the glass plate 2, but detects the workpiece position before supporting the glass plate so that the robot can detect the glass plate. 2 is supported at the reference point.

ワーク位置検出システム20は、図15に示されるように、第1のパレット3の上方に設けられた複数の投光部21e,21fおよび撮像部22dと、少なくとも一部の投光部21eを移動する移動部23と、超音波測定器24と、位置検出に関する各種の演算および制御を実行するコントローラ11とを含む。ここで、第3の実施形態では、コントローラ11は、第1の実施形態と同様に、ロボット10a,10bを制御するためのロボットコントローラであるとともに、ワーク位置検出システム20の一部の役割を担っている。なお、図14では、第1のパレット3Aの上方の投光部21e,21fおよび撮像部22eのみを示したが、他の第1のパレット(3b〜3h)の上方にも同様の投光部および撮像部が設けられてもよい。   As shown in FIG. 15, the workpiece position detection system 20 moves a plurality of light projecting units 21 e and 21 f and an image capturing unit 22 d provided above the first pallet 3 and at least a part of the light projecting units 21 e. The moving part 23 to perform, the ultrasonic measuring device 24, and the controller 11 which performs various calculations and control regarding position detection are included. Here, in the third embodiment, the controller 11 is a robot controller for controlling the robots 10a and 10b, as in the first embodiment, and plays a part of the work position detection system 20. ing. In FIG. 14, only the light projecting units 21e and 21f and the imaging unit 22e above the first pallet 3A are shown, but the same light projecting unit is also disposed above the other first pallets (3b to 3h). And an imaging part may be provided.

<投光部>
投光部21e,21fは、透明体ワークであるガラス板2の端面201に交差するようにスリット光を照射する発光器である。投光部自体は、第1の実施形態で用いる投光部21b,21cと同様である。
<Light projecting part>
The light projecting portions 21e and 21f are light emitters that irradiate slit light so as to intersect the end surface 201 of the glass plate 2 that is a transparent workpiece. The light projecting unit itself is the same as the light projecting units 21b and 21c used in the first embodiment.

投光部21e,21fは、移動部23によって移動される第1投光部21eと、固定された第2投光部21fとを含む。ここで、図16を参照して、第1投光部21eおよび第2投光部21fから照射されるスリット光とガラス板2の端面201との関係について説明する。図16は、第1投光部21eおよび第2投光部21fから照射されるスリット光とガラス板2の端面とが交差する状態を示す模式図である。   The light projecting units 21e and 21f include a first light projecting unit 21e moved by the moving unit 23 and a fixed second light projecting unit 21f. Here, with reference to FIG. 16, the relationship between the slit light irradiated from the 1st light projection part 21e and the 2nd light projection part 21f and the end surface 201 of the glass plate 2 is demonstrated. FIG. 16 is a schematic diagram illustrating a state in which the slit light irradiated from the first light projecting unit 21 e and the second light projecting unit 21 f intersects the end surface of the glass plate 2.

図16に示されるように、本実施の形態における透明体ワーク、すなわちガラス板2は、複数の投光部21e,21fのうちの一つの投光部である第1投光部21eから照射された一つのスリット光100eに対して複数の交点を形成可能な湾曲した端面201を有している。具体的には、第1投光部21eは、二つの交点でガラス板2の端面201と交差する一つのスリット光100eを照射するものである。この結果、二つの交点で輝点P3,P4が生じる。なお、本実施の形態では、一つのスリット光100eがガラス板2の端面201と複数の箇所で交差するように第1投光部21eが移動部23を移動する。   As shown in FIG. 16, the transparent workpiece in the present embodiment, that is, the glass plate 2 is irradiated from the first light projecting unit 21 e that is one of the plurality of light projecting units 21 e and 21 f. A curved end face 201 capable of forming a plurality of intersections with respect to the single slit light 100e is provided. Specifically, the 1st light projection part 21e irradiates one slit light 100e which cross | intersects the end surface 201 of the glass plate 2 at two intersections. As a result, bright points P3 and P4 are generated at the two intersections. In the present embodiment, the first light projecting unit 21e moves the moving unit 23 so that one slit light 100e intersects the end surface 201 of the glass plate 2 at a plurality of locations.

一方、第2投光部21fは、第1投光部21eからのスリット光100eによる二つの交点(輝点P3、P4)以外の他の箇所でガラス板2の端面201と交差する他のスリット光100fを照射するものである。この結果、一の交点で輝点P5が生じる。なお、望ましくは、第2投光部21fは、上記の二つの交点に挟まれる一の箇所でガラス板2の端面201と交差するスリット光100fを照射する。   On the other hand, the second light projecting portion 21f is another slit that intersects the end surface 201 of the glass plate 2 at a location other than the two intersections (bright spots P3 and P4) by the slit light 100e from the first light projecting portion 21e. Irradiates light 100f. As a result, a bright spot P5 is generated at one intersection. Desirably, the 2nd light projection part 21f irradiates the slit light 100f which cross | intersects the end surface 201 of the glass plate 2 in one place pinched | interposed by said two intersection.

<撮像部>
次に、図15に戻り、撮像部22dについて説明する。撮像部22dは、スリット光100eおよびスリット光100fによってガラス板2の端面201の複数箇所で生じた複数の輝点P3,P4,P5を撮像するものである。撮像部自体は、第1の実施形態で用いる撮像部と同様である。
<Imaging unit>
Next, returning to FIG. 15, the imaging unit 22d will be described. The imaging unit 22d images a plurality of bright spots P3, P4, and P5 generated at a plurality of locations on the end surface 201 of the glass plate 2 by the slit light 100e and the slit light 100f. The imaging unit itself is the same as the imaging unit used in the first embodiment.

<移動部>
移動部23は、上述したように、少なくとも一つの投光部を移動させるものであり、具体的には第1投光部21eを移動させるものである。すなわち、移動部23は、第1投光部21eの位置または向きの少なくとも一つを変化させる。したがって、第1投光部21eからのスリット光100eによって透明体ワークであるガラス板2の照射される箇所を変化させることができる。たとえば、移動部23は、リニアアクチュエータであり、その構成自体は、一般的な移動部と同様であるので、詳しい説明を省略する。
<Moving part>
As described above, the moving unit 23 moves at least one light projecting unit, and specifically moves the first light projecting unit 21e. That is, the moving unit 23 changes at least one of the position or orientation of the first light projecting unit 21e. Therefore, the irradiated location of the glass plate 2 which is a transparent workpiece can be changed by the slit light 100e from the first light projecting unit 21e. For example, the moving unit 23 is a linear actuator, and the configuration itself is the same as that of a general moving unit, and thus detailed description thereof is omitted.

また、本実施形態と異なり、移動部23を用いずに第1投光部21e自体の構造によってスリット光100eの照射角度を変化させてもよい。   Unlike the present embodiment, the irradiation angle of the slit light 100e may be changed by the structure of the first light projecting unit 21e itself without using the moving unit 23.

<超音波測定部>
超音波測定部は、超音波を用いて超音波測定部からガラス板までの距離を測定するものである。具体的には、超音波をガラス板2の表面202に発信し、反射波を受信するまでの時間によって距離を算出することができる。超音波測定部は、たとえば、図17(a)に示すように、ロボット10a,10bのガラス板2を支持する部分であるロボットハンドに取付けることで、ロボットハンドと超音波測定部24との距離を測定することができる。
<Ultrasonic measurement unit>
An ultrasonic measurement part measures the distance from an ultrasonic measurement part to a glass plate using an ultrasonic wave. Specifically, the distance can be calculated based on the time until the ultrasonic wave is transmitted to the surface 202 of the glass plate 2 and the reflected wave is received. For example, as shown in FIG. 17A, the ultrasonic measurement unit is attached to the robot hand that is a portion that supports the glass plate 2 of the robots 10 a and 10 b, thereby allowing the distance between the robot hand and the ultrasonic measurement unit 24. Can be measured.

なお、超音波測定部24は、図17(b)のように、ロボットハンドに3つ設けることもでき、この場合は、各測定部の距離算出結果より、ガラスまでの距離、パレット内でのガラス板のパレットに対する角度、ガラス板の長手方向の位置を検出することも可能である。   In addition, as shown in FIG. 17B, three ultrasonic measurement units 24 can be provided in the robot hand. In this case, the distance to the glass, the distance in the pallet is calculated from the distance calculation result of each measurement unit. It is also possible to detect the angle of the glass plate with respect to the pallet and the position of the glass plate in the longitudinal direction.

<コントローラ>
コントローラ11は、第1の実施形態と同様に、ロボット20を制御するためのロボットコントローラであるとともに、ワーク位置検出システム10の一部の役割を担っている。
<Controller>
Similarly to the first embodiment, the controller 11 is a robot controller for controlling the robot 20 and plays a part of the work position detection system 10.

コントローラ11は、スリット光の照射を指示するための信号(以下、「照射信号」と称する)を第1投光部21eおよび第2投光部21fに送信し、撮像を指示するための信号(以下、「撮像信号」と称する)を撮像部22dに送信する。コントローラ11の通信インターフェイスは、ロボット10a,10b、第1投光部21e、第2投光部21f、および撮像部22dとコントローラ11とを通信可能に接続する。   The controller 11 transmits a signal for instructing irradiation of slit light (hereinafter referred to as “irradiation signal”) to the first light projecting unit 21e and the second light projecting unit 21f, and a signal for instructing imaging ( Hereinafter, it is referred to as an “imaging signal”) to the imaging unit 22d. The communication interface of the controller 11 connects the robots 10a and 10b, the first light projecting unit 21e, the second light projecting unit 21f, the image capturing unit 22d, and the controller 11 so that they can communicate with each other.

また、コントローラ11は、以下のような判断部、補正部、比較部、および検出部として機能する。   The controller 11 functions as a determination unit, a correction unit, a comparison unit, and a detection unit as described below.

判断部は、スリット光100eがガラス板2の端面と二つの交点で交差するか否かを判断するものである。すなわち、判断部は、以下に示すように検出部によって求められる撮像部22dからの撮像結果のデータ信号に基づいて、スリット光100eがガラス板2の端面201と二つの交点で交差するか否かを判断し、その判断結果によってスリット光100eがガラス板2の端面201と二つの交点で交差する状態になるように第1投光部21eを移動部23によって移動させる。   The determination unit determines whether or not the slit light 100e intersects the end face of the glass plate 2 at two intersections. That is, the determination unit determines whether the slit light 100e intersects the end surface 201 of the glass plate 2 at two intersections based on the data signal of the imaging result from the imaging unit 22d obtained by the detection unit as shown below. The first light projecting unit 21e is moved by the moving unit 23 so that the slit light 100e intersects the end surface 201 of the glass plate 2 at two intersections according to the determination result.

補正部は、透明体ワークであるガラス板2を支持するためのロボット10a,10bの教示データを補正するものである。すなわち、補正部は、以下に示すように検出部によって求められる第1のパレット3とガラス板2との位置関係に基づいてロボット10a,10bの教示データを補正し、ロボット10a,10bに制御信号を送信する。   The correction unit corrects teaching data of the robots 10a and 10b for supporting the glass plate 2 which is a transparent workpiece. That is, the correction unit corrects the teaching data of the robots 10a and 10b based on the positional relationship between the first pallet 3 and the glass plate 2 obtained by the detection unit as shown below, and sends control signals to the robots 10a and 10b. Send.

比較部は、超音波測定部24の距離測定結果と、下記で説明する検出部において、ガラス板2の位置検出の結果とを比較するものである。具体的には、本実施形態では、ワーク位置検出結果に基づいて、ロボット10a,10bはガラス板2を支持するが、比較部はこの検出結果に誤りがないかの確認をしている。   The comparison unit compares the distance measurement result of the ultrasonic measurement unit 24 with the result of position detection of the glass plate 2 in the detection unit described below. Specifically, in the present embodiment, the robots 10a and 10b support the glass plate 2 based on the workpiece position detection result, but the comparison unit confirms whether there is an error in the detection result.

検出部は、撮像部22dからの撮像結果のデータ信号を受信して、その撮像結果のデータ信号に基づいて透明体ワークであるガラス板2の位置を検出するものである。以下に、コントローラ11の検出部で処理される透明体ワークであるガラス板2の位置を検出する方法を、図を参照しつつ、詳細に説明する。   The detection unit receives the data signal of the imaging result from the imaging unit 22d, and detects the position of the glass plate 2 that is the transparent workpiece based on the data signal of the imaging result. Below, the method to detect the position of the glass plate 2 which is a transparent body workpiece | work processed by the detection part of the controller 11 is demonstrated in detail, referring a figure.

検出部は、第1のパレット3における座標系を基準座標系とし、この基準座標系と透明体ワークであるガラス板2の座標系との相対的な位置関係を複数の輝点によって求めるものである。基準座標系とは、たとえば、図18(a)に示すように、第1のパレット3においてx、y、z軸を定めた座標系である。基準座標系のy軸は、第1のパレット3内においてガラス板2が積層状態で配置される際の積層方向であり、基準座標系のz軸は、第1のパレット3の底面に対して垂直方向であり、基準座標系のx軸は、y軸およびz軸に対して垂直である。なお、各軸の座標の原点は、たとえば、第1のパレット3の中心点に置くことができる。   The detection unit uses the coordinate system in the first pallet 3 as a reference coordinate system, and obtains a relative positional relationship between the reference coordinate system and the coordinate system of the glass plate 2 that is a transparent workpiece by a plurality of bright spots. is there. The reference coordinate system is, for example, a coordinate system in which the x, y, and z axes are determined in the first pallet 3 as shown in FIG. The y-axis of the reference coordinate system is the stacking direction when the glass plates 2 are arranged in a stacked state in the first pallet 3, and the z-axis of the reference coordinate system is relative to the bottom surface of the first pallet 3. The x direction of the reference coordinate system is perpendicular to the y axis and the z axis. In addition, the origin of the coordinate of each axis | shaft can be set | placed on the center point of the 1st pallet 3, for example.

本実施形態における基準座標系と各ガラス板2の座標系とのそれぞれの相対的な位置関係は、座標変換処理によって求めることができる。すなわち、図18(b)に示すように、基準座標系に対して各ガラス板2の座標系は、x軸まわりにθx回転移動し、z軸まわりにθz回転移動し、x軸方向にα平行移動し、およびy軸方向にβ平行移動しているものとして、この各種パラメータ(θx、θz、α、β)を座標変換処理によって求めることで、第1のパレット3と各ガラス板2との相対的な位置関係を求めることができる。   The relative positional relationship between the reference coordinate system and the coordinate system of each glass plate 2 in the present embodiment can be obtained by coordinate conversion processing. That is, as shown in FIG. 18B, the coordinate system of each glass plate 2 moves θx around the x axis, θz rotates around the z axis, and α in the x axis direction, as shown in FIG. It is assumed that the various parameters (θx, θz, α, β) are obtained by the coordinate transformation process, assuming that they are translated and β-translated in the y-axis direction, and the first pallet 3 and each glass plate 2 Can be obtained.

なお、本実施形態では、z軸中心の回転移動θzは考慮するが、x軸中心の回転移動θxはパレット3により規制され、影響は無視(θxは常に一定)できるものとし、不知のパラメータ(θz、α、β)を座標変換処理によって求めて、第1のパレット3の基準座標系とガラス板2の座標系との相対的な位置関係を求める。また、z軸方向にγ平行移動は、ガラス板2がパレットに支持されていることから影響は無視できるものとする。   In this embodiment, the rotational movement θz about the z-axis is taken into account, but the rotational movement θx about the x-axis is restricted by the pallet 3 and the influence can be ignored (θx is always constant). θz, α, β) is obtained by a coordinate conversion process, and the relative positional relationship between the reference coordinate system of the first pallet 3 and the coordinate system of the glass plate 2 is obtained. Further, the influence of the γ parallel movement in the z-axis direction is negligible since the glass plate 2 is supported by the pallet.

本実施形態で用いる座標変換処理は、ある座標系を4×4行列で表現する方法としての同次変換と呼ぶベクトル表現を用いて行うこととする。ここで、本実施形態では、ガラス板2の端面201の長手方向の形状を簡易的に2次式(y=f(x)=Ax+Bx)で近似できるものとし、数式(1)で表現することができる。 The coordinate conversion process used in the present embodiment is performed using a vector expression called homogeneous conversion as a method of expressing a certain coordinate system by a 4 × 4 matrix. Here, in the present embodiment, the shape of the end surface 201 of the glass plate 2 in the longitudinal direction can be simply approximated by a quadratic expression (y = f (x) = Ax 2 + Bx), and expressed by Expression (1). can do.

ただし、xm3、ym3、zm3は、ガラス板2の座標系におけるx座標、y座標、z座標である。 Here, x m3 , y m3 , and z m3 are the x coordinate, y coordinate, and z coordinate in the coordinate system of the glass plate 2.

また、基準座標系に対してz軸まわりにθz回転移動し、x軸方向にα平行移動、y軸方向にβ平行移動して作成した新たな座標系の関係は数式(2)にて表現されることが公知である。   Also, the relationship of the new coordinate system created by rotating θz around the z-axis relative to the reference coordinate system, α-translation in the x-axis direction, and β-translation in the y-axis direction is expressed by Equation (2). It is known that

したがって、本実施形態では、撮像部22dの撮像結果である3点の輝点P3,P4,P5に基づいて、基準座標系からガラス板の座標系への同次変換行列Tのパラメータ(θz、α、β)を数式(1)および数式(2)より決定し、基準座標系と透明体ワークであるガラス板2座標系との相対的な位置関係を求めることができる。   Therefore, in this embodiment, based on the three bright spots P3, P4, and P5 that are the imaging results of the imaging unit 22d, the parameters (θz, α, β) can be determined from Equation (1) and Equation (2), and the relative positional relationship between the reference coordinate system and the glass plate 2 coordinate system, which is a transparent workpiece, can be obtained.

すなわち、撮像部22dの撮像結果により輝点P3の基準座標系での座標P3(xw3、yw3、zw3)を得ることで、その座標P3(xw3、yw3、zw3)から数式(1)および数式(2)を適用すると、以下の数式(3)が得られる。 That is, by obtaining the coordinates P3 (x w3 , y w3 , z w3 ) in the reference coordinate system of the bright spot P3 from the imaging result of the imaging unit 22d, a mathematical formula is obtained from the coordinates P3 (x w3 , y w3 , z w3 ). When (1) and Equation (2) are applied, the following Equation (3) is obtained.

また、輝点P4およびP5の基準座標系での座標P4(xw4、yw4、zw4)および輝点P5(xw4、yw5、zw5)についても輝点P3と同様にして数式(3)の関係から得られる。次いで、それぞれ数式(3)を展開すると以下の数式(4)の連立方程式が得られる。 The coordinates P4 (x w4 , y w4 , z w4 ) and the luminescent spot P5 (x w4 , y w5 , z w5 ) in the reference coordinate system of the luminescent spots P4 and P5 are expressed in the same manner as the luminescent spot P3. It is obtained from the relationship 3). Next, when the mathematical expression (3) is expanded, the simultaneous equations of the following mathematical expression (4) are obtained.

これらの連立方程式を解くことにより、同次変換行列のパラメータ(θz、α、β)とガラス板2の座標系での輝点P3,P4,P5のそれぞれのx座標(xm3、xm4、xm5)とを求めることができる。したがって、基準座標系と透明体ワークであるガラス板2の座標系との相対的な位置関係を求めることで、透明体ワークであるガラス板2の第1のパレット3内における基準位置からのズレ(移動量)を求めることができる。ここで、基準位置とは、たとえば、ロボット22の教示データを予め設定する際に仮定された第1のパレット3内(基準座標系)におけるガラス板2の位置である。なお、基準位置にガラス板が存在していると仮定して予め設定された教示データは、上記の基準位置からのズレ(移動量)の算出結果に基づいて実際のガラス板2の位置(以下、「実位置」と称する)に適合するように補正されることとなる。したがって、基準位置は、実際にガラス板2が第1のパレット3内で配置された位置である必要はなく、第1のパレット3内において適宜に決めることができる仮の位置である。たとえば、第1のパレット3の中心点に置かれた基準座標系の原点など第1のパレット3内の固定点を基準位置とすることができる。この場合、基準位置からのガラス板2の移動量は、複数のガラス板2が所定の間隔を隔てて積層状態で配置されることに伴うオフセット量のみならず、個々のガラス板ごとの位置および姿勢によるバラつきを含んでいる。なお、本実施の形態と異なり、積層状態で配置された複数のガラス板2ごとに教示データを設定する場合には、第1のパレット3内の固定点を基準位置とする代わりに、各ガラス板2のそれぞれについて基準位置を設定してもよい。 By solving these simultaneous equations, the parameters (θz, α, β) of the homogeneous transformation matrix and the respective x coordinates (x m3 , x m4 , x m5 ). Accordingly, by obtaining the relative positional relationship between the reference coordinate system and the coordinate system of the glass plate 2 that is the transparent workpiece, the deviation of the glass plate 2 that is the transparent workpiece from the reference position in the first pallet 3 is obtained. (Movement amount) can be obtained. Here, the reference position is, for example, the position of the glass plate 2 in the first pallet 3 (reference coordinate system) assumed when the teaching data of the robot 22 is set in advance. Note that the teaching data set in advance assuming that a glass plate exists at the reference position is based on the actual position of the glass plate 2 (hereinafter referred to as the actual glass plate 2) based on the calculation result of the deviation (movement amount) from the reference position. , Referred to as “actual position”). Therefore, the reference position does not have to be a position where the glass plate 2 is actually arranged in the first pallet 3, and is a temporary position that can be appropriately determined in the first pallet 3. For example, a fixed point in the first pallet 3 such as the origin of the reference coordinate system placed at the center point of the first pallet 3 can be set as the reference position. In this case, the amount of movement of the glass plate 2 from the reference position is not only the offset amount associated with the plurality of glass plates 2 being arranged in a laminated state at a predetermined interval, but also the position of each glass plate and Includes variations due to posture. Unlike the present embodiment, when teaching data is set for each of a plurality of glass plates 2 arranged in a laminated state, each glass is replaced with a fixed point in the first pallet 3 as a reference position. A reference position may be set for each of the plates 2.

なお、本実施の形態のように、ガラス板2がz軸方向に移動せず、また、x軸まわりのθx回転移動が無視できる場合には、式(4)に示されるように、基本座標系のz座標(zw3、zw4、zw5)とガラス板2の座標系のz座標(zm3、zm4、zm5)は等しくなる。このため、z座標(xw3、xw4、xw5)は、パラメータ(θz、α、β)を求めるためには不要であり、したがって、撮像結果により輝点P3,P4,P5の座標を求める際にも、z座標(zm3、zm4、zm5)については求める必要はない。 If the glass plate 2 does not move in the z-axis direction and the θx rotational movement around the x-axis can be ignored as in the present embodiment, the basic coordinates are obtained as shown in the equation (4). The z coordinate (z w3 , z w4 , z w5 ) of the system is equal to the z coordinate (z m3 , z m4 , z m5 ) of the coordinate system of the glass plate 2. For this reason, the z coordinates (x w3 , x w4 , x w5 ) are not necessary for obtaining the parameters (θz, α, β), and therefore the coordinates of the bright spots P3, P4, P5 are obtained from the imaging result. In particular, it is not necessary to obtain the z coordinate (z m3 , z m4 , z m5 ).

上述したように、第1のパレット3に対する透明体ワークであるガラス板2の位置を検出した後、ロボット10a,10bの教示データが補正される。すなわち、ロボット10a,10bの教示データはガラス板2が第1のパレット3内の基準位置にある場合を前提として設定されているので、透明体ワークであるガラス板2の第1のパレット3における基準位置からのズレに基づき、ロボット10a,10bの教示データを補正することができる。   As described above, after detecting the position of the glass plate 2 that is the transparent workpiece with respect to the first pallet 3, the teaching data of the robots 10a and 10b is corrected. That is, since the teaching data of the robots 10a and 10b is set on the premise that the glass plate 2 is at the reference position in the first pallet 3, the teaching data in the first pallet 3 of the glass plate 2 which is a transparent workpiece is used. Based on the deviation from the reference position, the teaching data of the robots 10a and 10b can be corrected.

なお、ガラス板2の端面201の長手方向の形状を簡易的に数式(1)のように近似したが、数式(1)に限定されるものではなく、ガラス板2の端面201の形状にあった数式、またはガラス板2の端面201上で表現される座標相互の対応関係を示すテーブルを用いることもできる。   In addition, although the shape of the longitudinal direction of the end surface 201 of the glass plate 2 was approximated like Formula (1) simply, it is not limited to Formula (1), and it corresponds to the shape of the end surface 201 of the glass plate 2. Or a table showing the correspondence between coordinates expressed on the end surface 201 of the glass plate 2 can be used.

また、同次変換行列Tは数式(2)に限定されるものではなく、基準座標系と透明体ワークであるガラス板の座標系との相対的な位置関係によって変形できることは周知である。   Further, the homogeneous transformation matrix T is not limited to the mathematical formula (2), and it is well known that it can be deformed depending on the relative positional relationship between the reference coordinate system and the coordinate system of the glass plate as the transparent workpiece.

以上のように構成される本実施形態のワーク位置検出システム20は以下のように処理を行う。   The workpiece position detection system 20 of the present embodiment configured as described above performs processing as follows.

図19は、本実施形態のワーク位置検出システム20の処理内容を示すフローチャートである。   FIG. 19 is a flowchart showing the processing contents of the work position detection system 20 of the present embodiment.

コントローラ11は、図15に示すように、x軸と並行にスリット光100eを照射するようにセットされた第1投光部21e、およびy軸と並行に照射するようにセットされた第2投光部21fに照射信号を送信することで、第1投光部21eおよび第2投光部21fにスリット光100eおよびスリット光100fを照射するよう指示する(ステップS31)。   As shown in FIG. 15, the controller 11 includes a first light projecting unit 21e set to irradiate the slit light 100e in parallel with the x axis and a second light projecting set to irradiate in parallel to the y axis. By transmitting the irradiation signal to the light unit 21f, the first light projecting unit 21e and the second light projecting unit 21f are instructed to irradiate the slit light 100e and the slit light 100f (step S31).

次に、コントローラ11は、第1投光部21eおよび第2投光部21fにスリット光100eおよびスリット光100fを照射させている間に、xy平面を撮像するように第1のパレット3上方にセットされた撮像部22dに撮像信号を送信することで、撮像部22dに、透明体ワークであるガラス板2の画像、すなわち、複数の輝点を撮像するように指示する(ステップS32)。そして、コントローラ11は、撮像部22dからの撮像結果のデータ信号を取り込む(ステップS33)。   Next, while the controller 11 irradiates the slit light 100e and the slit light 100f to the first light projecting unit 21e and the second light projecting unit 21f, the controller 11 is positioned above the first pallet 3 so as to capture the xy plane. By transmitting an imaging signal to the set imaging unit 22d, the imaging unit 22d is instructed to capture an image of the glass plate 2 that is a transparent workpiece, that is, a plurality of bright spots (step S32). And the controller 11 takes in the data signal of the imaging result from the imaging part 22d (step S33).

次に、コントローラ11は、取り込んだ撮像結果から位置の検出対象であるガラス板2の端面201の箇所で生じる3点の輝点P3,P4,P5が確認されるか否かを判断する(ステップS34)。具体的には、図2に示すとおり、第2投光部21fは、y軸方向と並行に、すなわち、スリット光100fをガラス板2の端面201と一つの交点で交差するように照射しているので、ガラス板2の端面201に輝点P5は常に生じていることになる。したがって、コントローラ11は、第1投光部21eからのスリット光100eがガラス板2の端面201と二つの交点で交差し、輝点P3およびP4が生じているか否かを判断することになる。   Next, the controller 11 determines whether or not the three bright spots P3, P4, and P5 generated at the location of the end surface 201 of the glass plate 2 that is the position detection target are confirmed from the captured imaging results (step S1). S34). Specifically, as shown in FIG. 2, the second light projecting unit 21 f irradiates the slit light 100 f so as to intersect the end surface 201 of the glass plate 2 at one intersection in parallel with the y-axis direction. Therefore, the bright spot P5 is always generated on the end surface 201 of the glass plate 2. Therefore, the controller 11 determines whether or not the slit light 100e from the first light projecting portion 21e intersects the end surface 201 of the glass plate 2 at two intersections and the bright spots P3 and P4 are generated.

ここで、輝点P3,P4,P5は、たとえば、撮像結果のデータ信号(撮像画像)中から、所定値以上の画素値(輝度)を持つ画素を選択することにより抽出される。なお、ワークであるガラス板2の端面が幅を有することに起因して、それぞれの輝点P3,P4,P5は、図16に示すとおり、ある程度の広がりを有する場合がある。この場合、それぞれの輝点P3,P4,P5が占める各領域において、予め定められた代表点を抽出し、これら代表点の座標をそれぞれの輝点P3,P4,P5の座標とすることができる。たとえば、輝点P3が占める領域中で中心に位置する画素を輝点P3の代表点としてもよく、輝点P3が占める領域中で最端縁に位置する画素を輝点P3の代表点としてもよい。   Here, the bright spots P3, P4, and P5 are extracted, for example, by selecting a pixel having a pixel value (luminance) greater than or equal to a predetermined value from the data signal (captured image) of the imaging result. In addition, due to the end face of the glass plate 2 being a workpiece having a width, each of the bright spots P3, P4, and P5 may have a certain extent as shown in FIG. In this case, predetermined representative points can be extracted in each area occupied by the respective bright spots P3, P4, and P5, and the coordinates of these representative points can be used as the coordinates of the respective bright spots P3, P4, and P5. . For example, the pixel located at the center in the area occupied by the bright spot P3 may be used as the representative point of the bright spot P3, and the pixel located at the outermost edge in the area occupied by the bright spot P3 may be used as the representative point of the bright spot P3. Good.

なお、図2に示されるように、第1のパレット3内に複数のガラス板2が収容されている。したがって、第2投光部21fがスリット光100fをガラス板2の積層方向(図4に示されるy軸方向)へ照射すると、スリット光100fが複数のガラス板2と交差して、それぞれのガラス板2の端面で輝点が生じ得る。この結果、現在、支持するために位置検出対象となっているガラス板2で生じた輝点と、それ以外のガラス板2で生じた輝点とが存在する場合がある。したがって、積層方向に沿う座標(y座標)によって、位置検出対象となっているガラス板2で生じている輝点のみを判別し、この輝点をスリット光100fによる輝点P5として抽出してもよい。また、位置検出対象となっていないガラス板2で生じた輝点を検出しないように、画像処理などによって、位置検出対象のガラス板2の近傍に撮像領域の範囲および検出領域などの範囲を限定してもよい。   As shown in FIG. 2, a plurality of glass plates 2 are accommodated in the first pallet 3. Therefore, when the second light projecting unit 21f irradiates the slit light 100f in the stacking direction of the glass plates 2 (y-axis direction shown in FIG. 4), the slit light 100f intersects the plurality of glass plates 2 and each glass Bright spots can occur at the end face of the plate 2. As a result, there are cases where there are bright spots generated on the glass plate 2 that is currently subject to position detection for support and bright spots generated on the other glass plates 2. Therefore, even if only the bright spot generated in the glass plate 2 that is the position detection target is determined by the coordinate (y coordinate) along the stacking direction, and this bright spot is extracted as the bright spot P5 by the slit light 100f. Good. In addition, the range of the imaging region and the detection region is limited to the vicinity of the glass plate 2 that is the position detection target by image processing or the like so as not to detect the bright spot generated on the glass plate 2 that is not the position detection target. May be.

位置の検出対象であるガラス板2の端面201で3点の輝点P3、P4、P5が確認されない場合(ステップS34:No)、移動部23を用いて、第1投光部21eの定寸移動を指示する(ステップS35)。したがって、第1投光部からのスリット光100eの照射位置を変えて、撮像部22dの撮像結果のデータ信号を新たに取り込み、位置検出対象であるガラス板2の端面201で輝点が3点確認されるまでステップS33〜ステップS35の処理を繰り返す。   When the three bright spots P3, P4, and P5 are not confirmed on the end surface 201 of the glass plate 2 that is the position detection target (step S34: No), using the moving unit 23, the fixed size of the first light projecting unit 21e is determined. The movement is instructed (step S35). Therefore, the irradiation position of the slit light 100e from the first light projecting unit is changed, and the data signal of the imaging result of the imaging unit 22d is newly captured, and three bright spots are generated on the end surface 201 of the glass plate 2 that is the position detection target. The processing of step S33 to step S35 is repeated until it is confirmed.

なお、移動部23によって第1投光部21eを移動させ、位置の検出対象であるガラス2の端面201で3点の輝点P3、P4、P5が確認された場合に、さらに付加的に同一方向に第1投光部21eを移動させるように設計することもできる。この場合、輝点P3、P4、P5間の間隔距離が大きくとることでき、ワークの位置検出精度を向上させることができる。   In addition, when the 1st light projection part 21e is moved by the moving part 23 and three luminescent spots P3, P4, and P5 are confirmed by the end surface 201 of the glass 2 which is a position detection object, it is additionally the same It can also be designed to move the first light projecting part 21e in the direction. In this case, the distance between the bright spots P3, P4, and P5 can be increased, and the position detection accuracy of the workpiece can be improved.

一方、位置検出対象であるガラス板2の端面201で3点の輝点P3、P4、P5が確認できた場合(ステップS34:Yes)、コントローラ11は、座標変換処理(同次変換)を行うルーチンを読み出す(ステップS36)。すなわち、本実施形態では、基準座標系に対してガラス板2の座標系は、z軸まわりにθz回転移動し、x軸方向にα平行移動し、y軸方向にβ平行移動する前提であるので、本実施形態の条件に適する同次変換行列T(数式(2)参照)を読み出す。   On the other hand, when the three bright spots P3, P4, and P5 can be confirmed on the end surface 201 of the glass plate 2 that is the position detection target (step S34: Yes), the controller 11 performs a coordinate conversion process (homogeneous conversion). The routine is read (step S36). That is, in this embodiment, the coordinate system of the glass plate 2 is premised on the coordinate system of the glass plate 2 rotating θz around the z axis, α translating in the x axis direction, and β translating in the y axis direction. Therefore, the homogeneous transformation matrix T (see formula (2)) suitable for the conditions of the present embodiment is read out.

コントローラ11は、輝点P3,P4,P5の第1のパレット3の基準座標系における基準座標の値(以下、「基準座標系値」と称する)を取り込む(ステップS37〜ステップS39)。   The controller 11 takes in values of reference coordinates (hereinafter referred to as “reference coordinate system values”) in the reference coordinate system of the first pallet 3 of the bright spots P3, P4, P5 (steps S37 to S39).

コントローラ11は、上述したとおり、基準座標系値と、同次変換行列Tと、ガラス板の端面の形状を表現した式とを用いた連立方程式を解くことで、各パラメータ(θz、α、β)の値を算出することができる(ステップS40〜S42)。   As described above, the controller 11 solves each parameter (θz, α, β) by solving the simultaneous equations using the reference coordinate system value, the homogeneous transformation matrix T, and the expression representing the shape of the end face of the glass plate. ) Can be calculated (steps S40 to S42).

コントローラ11は、各パラメータ(θz、α、β)の値を算出した後、ロボット10a,10bが実位置でのガラス板2を支持することができるように、各パラメータ(θz、α、β)の値を基にロボット10a,10bの座標系の座標(以下、「ロボット座標」と称する)に変換する(ステップS43)。すなわち、各パラメータ(θz、α、β)は基準座標系からガラス板2の座標系への相対的な位置関係をあらわしているので、各パラメータ(θz、α、β)によって、基準座標系で表現される基準位置とガラス板2の座標系で表現される実位置との移動量を求めることができる。次いで、各パラメータ(θz、α、β)を基にした基準位置から実位置への移動量をロボット座標系の座標に変換する。一例をあげると、ガラス板2が基準座標系の原点の基準位置および所定の姿勢にあるとき、たとえば、基準座標系の座標軸とガラス板2の座標系の座標軸が一致するとき、各パラメータ(θz、α、β)の値は、基準位置から実位置への移動量そのものであり、このパラメータの値をロボット座標系の座標に変換することができる。   After the controller 11 calculates the values of the parameters (θz, α, β), the parameters (θz, α, β) are set so that the robots 10a, 10b can support the glass plate 2 at the actual position. Is converted into coordinates in the coordinate system of the robots 10a and 10b (hereinafter referred to as "robot coordinates") (step S43). That is, each parameter (θz, α, β) represents a relative positional relationship from the reference coordinate system to the coordinate system of the glass plate 2, so that each parameter (θz, α, β) The amount of movement between the expressed reference position and the actual position expressed in the coordinate system of the glass plate 2 can be obtained. Next, the movement amount from the reference position to the actual position based on each parameter (θz, α, β) is converted into the coordinates of the robot coordinate system. As an example, when the glass plate 2 is at the reference position of the origin of the reference coordinate system and a predetermined posture, for example, when the coordinate axis of the reference coordinate system coincides with the coordinate axis of the glass plate 2, each parameter (θz , Α, β) is the amount of movement from the reference position to the actual position itself, and the value of this parameter can be converted into coordinates in the robot coordinate system.

コントローラ11は、ロボット座標に基づいて、ロボット10a,10bが実位置でのガラス板2を支持するために、教示データの補正量(以下、「ロボット支持補正量」と称する)を算出する(ステップS44)。たとえば、教示データは上述した基準位置に基づいて設定されている。したがって、第1のパレット3内でガラス板2が基準位置にはなく実位置にあることによって、ロボット10a,10bがガラス板2を支持する箇所も変化する。そこで、コントローラ11は、ロボット10a,10bが実位置でのガラス板2を正確に支持することができるように、ロボット座標に基づいて教示データの補正量を算出する。   The controller 11 calculates a correction amount of teaching data (hereinafter referred to as “robot support correction amount”) in order for the robots 10a and 10b to support the glass plate 2 at the actual position based on the robot coordinates (step “hereinafter referred to as“ robot support correction amount ”). S44). For example, the teaching data is set based on the reference position described above. Accordingly, when the glass plate 2 is in the actual position in the first pallet 3, the location where the robots 10a and 10b support the glass plate 2 also changes. Therefore, the controller 11 calculates the correction amount of the teaching data based on the robot coordinates so that the robots 10a and 10b can accurately support the glass plate 2 at the actual position.

コントローラ11は、ロボット10a,10bの教示データをロボット支持補正量に基づいて補正して、ロボット10a,10bにガラス板2を支持させる(ステップS45)。   The controller 11 corrects the teaching data of the robots 10a and 10b based on the robot support correction amount, and causes the robots 10a and 10b to support the glass plate 2 (step S45).

以上の処理において、ステップS34の処理は、スリット光100eが透明体ワークであるガラス板2の端面201と二つの交点で交差するか否かを判断する判断部の処理に対応する。また、ステップS35〜ステップS42の処理は、撮像部22dによる撮像結果に基づいて透明体ワークであるガラス板2の位置を検出する検出部の処理に対応する。また、ステップS43〜ステップS44の処理は、透明体ワークであるガラス板2を支持するためのロボット10a,10bの教示データを第1のパレット3における基準座標系とワークの座標系との相対的な位置関係に基づいて補正する補正部の処理に対応する。   In the above process, the process of step S34 corresponds to the process of the determination unit that determines whether or not the slit light 100e intersects the end surface 201 of the glass plate 2 that is a transparent workpiece at two intersections. Moreover, the process of step S35-step S42 respond | corresponds to the process of the detection part which detects the position of the glass plate 2 which is a transparent body work based on the imaging result by the imaging part 22d. Further, in the processing of step S43 to step S44, the teaching data of the robots 10a and 10b for supporting the glass plate 2 which is a transparent workpiece is obtained by comparing the reference coordinate system of the first pallet 3 with the coordinate system of the workpiece. This corresponds to the processing of the correction unit that performs correction based on the correct positional relationship.

以上のように、第3の実施形態のワーク位置検出システム20によれば、第1の実施形態の(A)、(B)、(H)〜(J)の効果に加え、以下の(N)〜(Y)効果を奏する。   As described above, according to the workpiece position detection system 20 of the third embodiment, in addition to the effects (A), (B), (H) to (J) of the first embodiment, the following (N ) To (Y) effects.

(N)透明体であるガラス板の端面に交差するようにスリット光を照射少なくとも一つの投光部と、スリット光によってガラス板の端面の複数箇所で生じた複数の輝点を撮像する撮像部と、撮像部による撮像結果に基づいてガラス板の位置を検出する検出部とを有するので、透明体であるガラス板の位置を正確に検出することができるようになる。   (N) At least one light projecting unit that irradiates slit light so as to intersect the end surface of the glass plate that is a transparent body, and an imaging unit that images a plurality of bright spots generated at a plurality of locations on the end surface of the glass plate by the slit light And a detection unit that detects the position of the glass plate based on the imaging result of the imaging unit, the position of the glass plate that is a transparent body can be accurately detected.

(O)投光部が複数設けられていることで、ワーク位置検出に用いるためのワークの端面に複数の輝点を生じさせ、その複数の輝点に基づき透明体であるガラス板の位置を詳細に検出することができる。   (O) Since a plurality of light projecting portions are provided, a plurality of bright spots are generated on the end surface of the workpiece for use in workpiece position detection, and the position of the glass plate that is a transparent body is determined based on the plurality of bright spots. It can be detected in detail.

(P)複数の投光部から照射されたそれぞれのスリット光によってガラス板の端面の複数箇所で生じた複数の輝点の撮像結果に基づいてガラス板の位置を検出するので、ガラス板の位置をより詳細に検出することができるようになる。   (P) Since the position of the glass plate is detected based on the imaging results of a plurality of bright spots generated at a plurality of locations on the end surface of the glass plate by the respective slit lights irradiated from the plurality of light projecting units, Can be detected in more detail.

(Q)ガラス板は、一つの投光部から照射された一つのスリット光に対して複数の交点を形成可能な湾曲した端面を有しており、検出部は、複数の交点で生じた輝点を少なくとも含む複数の輝点の撮像結果に基づいてガラス板の位置を検出するので、ガラス板が湾曲を有している場合でも、そのガラス板の位置を検出することができる。   (Q) The glass plate has a curved end surface capable of forming a plurality of intersections with respect to one slit light irradiated from one light projecting unit, and the detection unit has a brightness generated at the plurality of intersections. Since the position of the glass plate is detected based on the imaging results of a plurality of bright spots including at least a point, the position of the glass plate can be detected even when the glass plate has a curvature.

(R)ガラス板は、所定の間隔を隔てて積層状態でパレットに収納されており、検出部は、パレットに収納された状態のまま撮像部によって撮像された撮像結果に基づいてガラス板の位置を検出するので、パレットの複数のガラス板を順次に検出することができるようになる。   (R) The glass plate is stored in a pallet in a stacked state at a predetermined interval, and the detection unit is positioned on the basis of the imaging result captured by the imaging unit while being stored in the pallet. Therefore, a plurality of glass plates on the pallet can be sequentially detected.

(S)パレットは、ガラス板の輸送に用いられる輸送用パレットである場合でも、従来では、ガラスのようなワークをロボットに支持させる際に、輸送時のパレットからガラス板を取り出すなどの作業者工程を必要としていたが、輸送時のパレットのままでも、ロボットにガラス板を正確に支持させることが可能となるため、ガラス板の落下を防止することができるようになる。   (S) Even if the pallet is a pallet for transportation used for transporting glass plates, conventionally, when a robot supports a workpiece such as glass, an operator such as taking out the glass plate from the pallet during transportation. Although a process was required, the robot can accurately support the glass plate even with the pallet during transportation, so that the glass plate can be prevented from falling.

(T)検出部は、パレットにおける座標系を基準座標系とし、当該基準座標系とガラス板の座標系との相対的な位置関係を複数の輝点によって求めるので、パレットにおけるガラス板の相対的な位置関係が、従来技術の同次変換を行うことによって、容易に求めることができるようになる。   (T) The detection unit uses the coordinate system in the pallet as the reference coordinate system, and obtains the relative positional relationship between the reference coordinate system and the coordinate system of the glass plate using a plurality of bright spots. Such a positional relationship can be easily obtained by performing the homogenous transformation of the prior art.

(U)ガラス板を支持するためのロボットの教示データを位置関係に基づいて補正する補正部を有するので、ロボットの教示データを補正し、ガラス板の位置を正確に支持することができるようになる。   (U) Since there is a correction unit that corrects the teaching data of the robot for supporting the glass plate based on the positional relationship, the teaching data of the robot can be corrected so that the position of the glass plate can be accurately supported. Become.

(V)二つの交点でガラス板の端面と交差する一のスリット光を照射する第1投光部と、ワークの端面の他の箇所で前記ワークの端面と交差する他のスリット光を照射する第2投光部とを含み、検出部は、一のスリット光とガラス板の端面とが交わる二つの交点で生じた輝点と、当該二つの交点で生じた輝点と他の箇所で他のスリット光によって生じた輝点とを含む複数の輝点の撮像結果に基づいてガラス板の位置を検出するので、輝点の数に対して投光部の数を減らしてガラス板の位置を検出することができるようになる。   (V) A first light projecting unit that irradiates one slit light that intersects the end surface of the glass plate at two intersections, and another slit light that intersects the end surface of the workpiece at another portion of the end surface of the workpiece. Including a second light projecting unit, and the detection unit includes a bright spot generated at two intersections where one slit light and the end face of the glass plate intersect, a bright spot generated at the two intersections, and other locations. Since the position of the glass plate is detected based on the imaging result of a plurality of bright spots including the bright spot generated by the slit light, the number of the light projecting parts is reduced with respect to the number of bright spots, and the position of the glass plate is determined. Can be detected.

(W)第1投光部は、二つの交点に挟まれる一の箇所でガラス板の端面と交差するスリット光を照射するので、ガラス板の端面で生じる3点の輝点を所定の距離を有することができるようになる。   (W) Since the 1st light projection part irradiates the slit light which cross | intersects the end surface of a glass plate in the one place pinched | interposed into two intersections, three points of bright spots which arise on the end surface of a glass plate are set to predetermined distance You will be able to have.

(X)さらに、一つのスリット光がガラス板の端面と複数の箇所で交差するように少なくとも一つの投光部を移動させる移動部を有することで、位置検出対象であるガラス板はパレット内で不動の状態でも、ガラス板を検出することができるようになる。   (X) Furthermore, by having a moving part which moves at least one light projection part so that one slit light may cross | intersect the end surface of a glass plate in several places, the glass plate which is a position detection object is in a pallet. Even in a stationary state, the glass plate can be detected.

(Y)一のスリット光がガラス板の端面と二つの交点で交差するか否かを判断する判断部と、判断部の判断結果に基づいて一のスリット光がワークの端面と二つの交点で交差する状態になるように第1投光部を移動する移動部とを有するので、ガラス板は不動で、かつ、2つの投光部で3点の輝点を得ることができるようになる。   (Y) A determination unit that determines whether or not one slit light intersects the end surface of the glass plate at two intersections, and one slit light at the two intersections with the end surface of the workpiece based on the determination result of the determination unit Since it has the moving part which moves a 1st light projection part so that it may cross | intersect, a glass plate does not move and it becomes possible to obtain three bright spots with two light projection parts.

<第4の実施形態>
さらに、本発明の第4の実施形態について詳細に説明する。
<Fourth Embodiment>
Furthermore, a fourth embodiment of the present invention will be described in detail.

第4の実施形態のワーク位置検出システム20は、図20に示すように、第3の実施形態の構成機器に加え、第3投光部21g、第4投光部21h、および撮像部22eを用いることで、複数方向からの撮像結果に基づいて透明体であるワークの3次元姿勢を検出することができるシステムである。   As shown in FIG. 20, the work position detection system 20 of the fourth embodiment includes a third light projecting unit 21g, a fourth light projecting unit 21h, and an image capturing unit 22e in addition to the components of the third embodiment. By using this system, it is possible to detect a three-dimensional posture of a workpiece that is a transparent body based on imaging results from a plurality of directions.

第1投光部21eおよび第2投光部21fはxy平面を交差するように照射し、第3投光部21gおよび第4投光部21hはyz平面を交差するように照射する。   The first light projecting unit 21e and the second light projecting unit 21f irradiate so as to cross the xy plane, and the third light projecting unit 21g and the fourth light projecting unit 21h irradiate so as to intersect the yz plane.

第4の実施形態のワーク位置検出システム20によれば、それぞれの投光部からのスリット光とワークとの交差する箇所で生じた輝点をもとに、上述した方法を応用することで、容易にワークの3次元姿勢を求めることができる。   According to the workpiece position detection system 20 of the fourth embodiment, by applying the above-described method based on the bright spot generated at the location where the slit light from each light projecting unit and the workpiece intersect, The three-dimensional posture of the workpiece can be easily obtained.

以上のように、第4の実施形態のワーク位置検出システム20によれば、本実施形態1の(A)、(B)、(H)〜(J)、第3の実施形態の(N)〜(Y)の効果に加え、以下の(Z)効果を奏する。   As described above, according to the workpiece position detection system 20 of the fourth embodiment, (A), (B), (H) to (J) of the first embodiment, and (N) of the third embodiment. In addition to the effects (Y), the following effects (Z) are achieved.

(Z)投光部と撮像部とを複数組有し、検出部は、複数の撮像部による複数方向からの撮像結果に基づいてワークの三次元姿勢を検出することで、ワークの位置を3次元姿勢で検出することができるようになる。   (Z) A plurality of sets of light projecting units and imaging units are provided, and the detection unit detects the three-dimensional posture of the workpiece based on the imaging results from a plurality of directions by the plurality of imaging units, thereby setting the position of the workpiece to 3 It becomes possible to detect with a dimensional posture.

<第5の実施形態>
次に、本発明の第5の実施形態について詳細に説明する。
<Fifth Embodiment>
Next, a fifth embodiment of the present invention will be described in detail.

上述した本発明の第1の実施形態および第2の実施形態では、照明光用投光部が照射する照明光によって発光するワークの端面を、撮像部で撮像し、その撮像結果からワークを認識できることが前提である。   In the first embodiment and the second embodiment of the present invention described above, the end face of the workpiece that emits light by the illumination light emitted by the illumination light projecting unit is imaged by the imaging unit, and the workpiece is recognized from the imaging result. The premise is that it can be done.

しかしながら、本発明のワーク位置検出システムを用いるとき、たとえば、実際の工場内では、外光、すなわち太陽光などの光であって、投光部が照射する光以外の光を完全に制御することは不可能であり、外光によって周囲の明るさは変化する。周囲の明るさが変化すると、撮像部によって撮像された画像のコントラスト値および明度も変化し、その結果、ワークが認識しづらくなる可能性がある。たとえば、投光部が照射する光による発光箇所の明るさと周囲の明るさの差が小さくなることによって画像のコントラスト値が小さくなれば、撮像部によって撮像された画像からワークを認識しづらくなり、もしくは、周囲の明るさが明るすぎて画像全体の明度が高くなれば、ハレーションを起こし、撮像部によって撮像された画像からワークを認識しづらくなる。   However, when the workpiece position detection system of the present invention is used, for example, in an actual factory, light outside the light, that is, light such as sunlight, and other than light emitted by the light projecting unit is completely controlled. Is impossible, and ambient brightness changes due to external light. When the ambient brightness changes, the contrast value and brightness of the image captured by the imaging unit also change, and as a result, the workpiece may not be easily recognized. For example, if the contrast value of the image is reduced due to the difference between the brightness of the light emitting part and the ambient brightness due to the light emitted by the light projecting unit, it becomes difficult to recognize the workpiece from the image captured by the imaging unit, Alternatively, if the surrounding brightness is too bright and the brightness of the entire image becomes high, halation occurs, making it difficult to recognize the workpiece from the image captured by the imaging unit.

また、外光の影響に限らず、投光部自体が経年劣化することによって投光部が照射する光量が低下して、撮像部によって撮像された画像からワークを認識しづらくなることもある。   Moreover, not only the influence of external light but also the light projecting unit itself may deteriorate over time, so that the amount of light emitted by the light projecting unit may decrease, making it difficult to recognize the workpiece from the image captured by the image capturing unit.

一方で、たとえば、ワークを認識するのに余剰な画像のコントラスト値が得られている場合には、投光部によって照射される光量を低下させて投光部の寿命を延ばすことが望ましい。   On the other hand, for example, when a contrast value of an image that is excessive for recognizing a workpiece is obtained, it is desirable to extend the life of the light projecting unit by reducing the amount of light irradiated by the light projecting unit.

本発明の第5の実施形態のワーク位置検出システムは、上記の問題を解決するものである。本実施形態のワーク位置検出システムは、投光部の照射する光量を調節する照射光量調節部と、撮像部の取り込む光量を調節する取り込み光量調節部とを有するものであって、たとえば、第1の実施形態および第2の実施形態で用いた投光部および撮像部を調節することができる。照射光量調節部は、投光部の照射する光量を変化させて、ワークが認識しづらくなる状態を防ぎ、取り込み光量調節部は、撮像部の取り込む光量を変化させて、ワークが認識しづらくなる状態を防ぐものである。   A workpiece position detection system according to a fifth embodiment of the present invention solves the above problem. The workpiece position detection system according to the present embodiment includes an irradiation light amount adjustment unit that adjusts the amount of light emitted by the light projecting unit, and a captured light amount adjustment unit that adjusts the amount of light captured by the imaging unit. It is possible to adjust the light projecting unit and the imaging unit used in the second embodiment and the second embodiment. The irradiation light amount adjustment unit changes the amount of light emitted from the light projecting unit to prevent the workpiece from becoming difficult to recognize. The captured light amount adjustment unit changes the amount of light captured by the imaging unit to make the workpiece difficult to recognize. It is to prevent the situation.

以下、第5の実施形態のワーク位置検出システム20を具体的に説明する。   Hereinafter, the workpiece position detection system 20 of the fifth embodiment will be described in detail.

第5の実施形態のワーク位置検出システム20は、図21に示すように、投光部21と、撮像部22と、照射光量調節部31と、取り込み光量調節部32と、コントローラ11とを含んでいる。なお、本実施の形態では、照射光量の調整処理および撮像部の取り込み光量の調整処理を実行する構成を除いて、第1の実施形態および第2の実施形態で用いた構成と同様である。したがって、図21では、ガラス板を収容するためのロボット10aやパレット4などの構成については繰り返しの説明を省略し、照射光量の調整処理および撮像部の取り込み光量の調整処理に関係する構成のみを図示している。   As illustrated in FIG. 21, the workpiece position detection system 20 according to the fifth embodiment includes a light projecting unit 21, an imaging unit 22, an irradiation light amount adjusting unit 31, a captured light amount adjusting unit 32, and a controller 11. It is out. The present embodiment is the same as the configuration used in the first embodiment and the second embodiment, except for the configuration that executes the adjustment processing of the irradiation light amount and the adjustment processing of the captured light amount of the imaging unit. Accordingly, in FIG. 21, the repeated description of the configuration of the robot 10 a for accommodating the glass plate, the pallet 4, and the like is omitted, and only the configuration related to the adjustment processing of the irradiation light amount and the adjustment processing of the captured light amount of the imaging unit. It is shown.

以下、図21に基づいて、第5の実施形態のワーク位置検出システム20を構成する投光部21、照射光量調節部31、撮像部22、取り込み光量調節部32、およびコントローラ11について、順番に説明する。   Hereinafter, based on FIG. 21, the light projecting unit 21, the irradiation light amount adjusting unit 31, the imaging unit 22, the captured light amount adjusting unit 32, and the controller 11 constituting the work position detection system 20 of the fifth embodiment are sequentially described. explain.

<投光部>
投光部21は、照明光を照射する照明光用投光部であって、投光部自体は、第1の実施形態で用いる照明光用投光部21aと同様である。投光部21が照射する光量は、照射光量調節部31によって調節される。
<Light projecting part>
The light projecting unit 21 is an illumination light projecting unit that emits illumination light, and the light projecting unit itself is the same as the illumination light projecting unit 21a used in the first embodiment. The amount of light emitted by the light projecting unit 21 is adjusted by the irradiation light amount adjusting unit 31.

投光部21は、図21に示されるように、また、第1の実施形態と同様に、ガラス板2の表面に照明光を斜めから照射し、ガラス板2の端面に光を集中させ発光させる。
<照射光量調節部>
照射光量調節部31は、投光部21が照射する光量を調整するものであり、ライトコントローラとも呼ばれる。照射光量を調整する構成自体は、従来と同様であるので、詳しい説明を省略するが、たとえば、トライアックを位相制御することにより照明負荷への供給電力を制御する回路構成などを有している。たとえば、照射光量調整部31は、最小レベルから最大レベルまで複数段階の光量レベルに調整することができる。
As shown in FIG. 21, the light projecting unit 21 emits illumination light obliquely onto the surface of the glass plate 2 and concentrates the light on the end surface of the glass plate 2, as in the first embodiment. Let
<Irradiation light amount adjustment unit>
The irradiation light amount adjusting unit 31 adjusts the light amount irradiated by the light projecting unit 21 and is also called a light controller. Since the configuration itself for adjusting the amount of irradiation light is the same as the conventional one, a detailed description is omitted. For example, it has a circuit configuration for controlling the power supplied to the illumination load by controlling the phase of the triac. For example, the irradiation light amount adjusting unit 31 can adjust the light amount level in a plurality of stages from the minimum level to the maximum level.

本実施形態の照射光量調整部31は、コントローラ11と協働することによって、前回までに撮像部22によって撮像された画像の明暗データに基づいて、投光部21が照射する光量を調節する構成である。ここで、明暗データには、撮像された画像全体での明暗の差に対応するコントラスト値、画像全体の明るさである画面全体の平均明度(以下、「画面明度」と称する)、画像中の発光箇所、すなわちガラス板2の端面に生じた光の集中箇所の明るさである認識部全体の平均明度(以下、「認識部明度」と称する)が含まれる。   The irradiation light amount adjusting unit 31 of the present embodiment is configured to adjust the light amount irradiated by the light projecting unit 21 based on the brightness / darkness data of the images captured by the imaging unit 22 until the previous time in cooperation with the controller 11. It is. Here, the brightness data includes the contrast value corresponding to the difference in brightness in the entire captured image, the average brightness of the entire screen (hereinafter referred to as “screen brightness”), which is the brightness of the entire image, The average lightness of the entire recognition unit (hereinafter, referred to as “recognition unit lightness”), which is the brightness of the light emission part, that is, the light concentration part generated on the end face of the glass plate 2 is included.

具体的には、照射光量調整部31は、投光部21が照射する光量を増減するか否かの指示信号をコントローラ11から受信して、その指示信号によって投光部21が照射する光量を調節する。なお、照射光量調節部31は、前回までに撮像部によって撮像された複数回分の画像の明暗データの平均値に基づいて、光量を調節することが望ましい。このような照射光量調整部31は、投光部21に内蔵されていてもよい。   Specifically, the irradiation light amount adjustment unit 31 receives from the controller 11 an instruction signal as to whether to increase or decrease the amount of light emitted by the light projecting unit 21, and determines the amount of light emitted by the light projecting unit 21 according to the instruction signal. Adjust. Note that the irradiation light amount adjustment unit 31 desirably adjusts the light amount based on the average value of the brightness data of a plurality of images captured by the imaging unit until the previous time. Such an irradiation light amount adjusting unit 31 may be incorporated in the light projecting unit 21.

<撮像部>
撮像部22は、ガラス板2の端面に生じた光の集中箇所を撮像する撮像部であって、たとえば、カメラである。撮像部自体は、第1の実施形態で用いる撮像部22aと同様である。撮像部22は、図示していないアクチュエータを搭載しており、アクチュエータを制御することによってシャッタースピードや絞りを適宜に調整することができる。撮像部22が取り込む光量は、取り込み光量調節部32によって調節される。
<Imaging unit>
The imaging unit 22 is an imaging unit that captures an area where the light generated on the end surface of the glass plate 2 is concentrated, and is, for example, a camera. The imaging unit itself is the same as the imaging unit 22a used in the first embodiment. The imaging unit 22 is equipped with an actuator (not shown), and the shutter speed and the aperture can be appropriately adjusted by controlling the actuator. The amount of light captured by the imaging unit 22 is adjusted by the captured light amount adjustment unit 32.

撮像部22は、図21に示されるように、また、第1の実施形態と同様に、投光部21がガラス板2に照射することによりガラス板2の端面に生じた光の集中箇所Q1を撮像する。   As shown in FIG. 21, the imaging unit 22 has a light concentration point Q <b> 1 generated on the end surface of the glass plate 2 when the light projecting unit 21 irradiates the glass plate 2, as in the first embodiment. Image.

<取り込み光量調節部>
取り込み光量調節部32は、上記の撮像部22とともに、ビジョンシステム(視覚システム)を構成するものである。
<Capture light intensity control unit>
The captured light amount adjusting unit 32 constitutes a vision system (visual system) together with the imaging unit 22 described above.

取り込み光量調整部32は、大別して、撮像された画像から明暗データを算出するための明暗データ算出部と、取り込み光量を制御するための取り込み光量制御部とを有する。   The captured light amount adjustment unit 32 roughly includes a light / dark data calculation unit for calculating light / dark data from a captured image and a captured light amount control unit for controlling the captured light amount.

明暗データ算出部としての取り込み光量調整部32は、撮像部22によって撮像された画像を受けて、当該画像から、上述したコントラスト値、画面明度、および認識部明度などの明暗データを算出するものである。なお、これらコントラスト値、画面明度、および認識部明度の算出自体は、一般的な画像処理技術と同様であるので、詳しい説明を省略する。算出されたコントラスト値、画面明度、および認識部明度などの明暗データ自体は、ビジョン計測結果として、コントローラ11に送られる。送られた明暗データは、履歴データとしてコントローラ11内に記憶される。   The captured light amount adjustment unit 32 serving as a brightness / darkness data calculation unit receives an image captured by the imaging unit 22 and calculates brightness / darkness data such as the above-described contrast value, screen brightness, and recognition unit brightness from the image. is there. Note that the calculation of the contrast value, the screen brightness, and the recognition unit brightness itself is the same as that of a general image processing technique, and thus detailed description thereof is omitted. Brightness data itself such as the calculated contrast value, screen brightness, and recognition unit brightness is sent to the controller 11 as a vision measurement result. The transmitted brightness / darkness data is stored in the controller 11 as history data.

また、光量制御部としての取り込み光量調整部32は、コントローラ11と協働することによって、前回までに撮像部22によって撮像された画像の明暗データに基づいて撮像部22が取り込む光量を調節する構成である。具体的には、取り込み光量調節部32は、撮像部21に取り込まれる光量を増減するか否かの指示信号をコントローラ11から受信して、その指示信号によって撮像部22が取り込む光量を調節するように前記撮像部のシャッタースピードおよび絞りの開度を制御する。   Further, the captured light amount adjustment unit 32 as a light amount control unit cooperates with the controller 11 to adjust the light amount captured by the imaging unit 22 based on the brightness data of the images captured by the imaging unit 22 until the previous time. It is. Specifically, the captured light amount adjustment unit 32 receives an instruction signal indicating whether to increase or decrease the light amount captured by the imaging unit 21 from the controller 11 and adjusts the light amount captured by the imaging unit 22 based on the instruction signal. And controlling the shutter speed and aperture of the imaging unit.

具体的には、取り込み光量調節部32は、撮像部22のシャッタースピードおよび/または絞りを制御して、光量を調節する。撮像部22のシャッタースピードを遅くしてシャッターが開放されている時間を長くすれば、光が当たる時間が長くなって、光を多く取り込むことができ、また、撮像部22のシャッタースピードを速くしてシャッターが開放されている時間を短くすれば、光が当たる時間が短くなって、光を取り込む量が少なくなる。また、絞りに関してみれば、撮像部22のレンズの絞りの開度を増加すれば、光を取り込む量は多く入る一方、また、レンズの絞りの開度を減少すれば光を取り込む量は少なくなる。   Specifically, the captured light amount adjusting unit 32 adjusts the light amount by controlling the shutter speed and / or the aperture of the imaging unit 22. If the shutter speed of the imaging unit 22 is slowed down to increase the time during which the shutter is open, the time that the light hits can be increased, so that more light can be taken in, and the shutter speed of the imaging unit 22 can be increased. If the shutter opening time is shortened, the light exposure time is shortened and the amount of light taken in is reduced. Further, regarding the diaphragm, if the lens aperture of the image pickup unit 22 is increased, a large amount of light is captured. On the other hand, if the lens aperture is decreased, the amount of light captured is small. .

たとえば、照射光量調整部31は、最遅レベルから最速レベルまで複数段階のシャッタースピードに調整することができ、最小開度レベルから最大開度レベルまで複数段階のレンズの絞りの開度に調整することができる。   For example, the irradiation light amount adjustment unit 31 can adjust the shutter speed in a plurality of steps from the slowest level to the fastest level, and adjusts the apertures of the lens apertures in a plurality of steps from the minimum opening level to the maximum opening level. be able to.

なお、取り込み光量調節部32は、前回までに撮像部によって撮像された複数回分の画像の明暗データの平均値に基づいて、光を取り込む量を調節することが望ましい。   Note that it is desirable that the amount-of-capture light amount adjustment unit 32 adjust the amount of light that is captured based on the average value of the brightness data of a plurality of images captured by the imaging unit until the previous time.

このような照射光量調整部31は、撮像部22に内蔵されていてもよい。   Such an irradiation light amount adjustment unit 31 may be built in the imaging unit 22.

<コントローラ>
コントローラ11は、第5の実施形態のワーク位置検出システム20では、さらに、演算部110として機能し、コントローラ11のCPUがその役割を担う。また、コントローラ11は、パラメータ記憶部111、過去データ記憶部112としての機能も有し、これらはメモリ(RAMメモリ、不揮発性メモリ)がその役割を担う。
<Controller>
In the work position detection system 20 of the fifth embodiment, the controller 11 further functions as the calculation unit 110, and the CPU of the controller 11 plays the role. The controller 11 also has functions as a parameter storage unit 111 and a past data storage unit 112, and a memory (RAM memory, nonvolatile memory) plays the role of these.

パラメータ記憶部111は、投光部21の光量の初期値、および画像のコントラスト値および明度の所望の範囲の下限および上限の設定値を記憶する。画像のコントラスト値および明度の所定の範囲は、たとえば、撮像部によって撮像された画像によって、ワークの端面で発光する輝点をコントローラ11が認識することができる範囲である。   The parameter storage unit 111 stores the initial value of the light amount of the light projecting unit 21 and the lower limit and upper limit set values of the desired range of the contrast value and brightness of the image. The predetermined range of the contrast value and the brightness of the image is a range in which the controller 11 can recognize the bright spot emitted from the end surface of the workpiece by the image captured by the imaging unit, for example.

過去データ記憶部112は、前回までに撮像部22によって撮像された画像のコントラスト値および明度を過去データとして記憶する。前回までの画像のコントラスト値および明度は、たとえば、演算部110(CPU)で算出される。   The past data storage unit 112 stores the contrast value and brightness of images captured by the imaging unit 22 up to the previous time as past data. The contrast value and brightness of the image up to the previous time are calculated by, for example, the calculation unit 110 (CPU).

演算部110は、パラメータ記憶部111で記憶された各種の設定値および投光部の光量の初期値、および過去データ記憶部112で記憶された前回までの過去データに基づいて、その過去データが所望の範囲のコントラスト値および所望の範囲の明度であるかを演算し、その演算結果により照射光量調節部31および取り込み光量調節部32に処理内容を指示する。ここで、演算部110は、前回までの複数回分の過去データのコントラスト値および明度の平均値を算出し、その平均値が所望の範囲のコントラスト値および明度であるかを演算することが望ましい。   Based on the various setting values stored in the parameter storage unit 111 and the initial value of the light intensity of the light projecting unit, and the past data stored in the past data storage unit 112, the calculation unit 110 stores the past data. Whether the contrast value in the desired range and the lightness in the desired range are calculated, and the processing content is instructed to the irradiation light amount adjustment unit 31 and the captured light amount adjustment unit 32 based on the calculation result. Here, it is desirable that the calculation unit 110 calculates the average value of the contrast value and the brightness of the past data for a plurality of times until the previous time, and calculates whether the average value is the contrast value and the brightness of a desired range.

また、演算部110は、取り込み光量調節部32によって送信された画像のデータからコントラスト値および明度の値を算出する役割も果たす。   The calculation unit 110 also plays a role of calculating a contrast value and a brightness value from the image data transmitted by the captured light amount adjustment unit 32.

以上のように構成される第5の実施形態のワーク位置検出システム20は以下のように処理を行う。   The workpiece position detection system 20 of the fifth embodiment configured as described above performs processing as follows.

図22aおよび図22bは、本実施形態のワーク位置検出システム20の処理内容を示すフローチャートである。なお、以下の処理内容は、前回までに撮像部によって撮像された複数回分の画像の明暗データの平均値に基づいて投光部が照射する光量を調節する処理であって、ワーク位置を検出すること自体の処理は、上述した実施形態と同様にできるので、その処理内容の説明は省略する。   22a and 22b are flowcharts showing the processing contents of the workpiece position detection system 20 of the present embodiment. The following processing content is processing for adjusting the amount of light emitted by the light projecting unit based on the average value of the brightness data of a plurality of images captured by the imaging unit until the previous time, and detects the work position. Since the processing itself can be performed in the same manner as the above-described embodiment, the description of the processing content is omitted.

まず、ステップS51〜ステップS55では、撮像部によって撮像された画像のデータを取得するまでの処理が実行される。   First, in steps S51 to S55, processing is performed until data of an image captured by the imaging unit is acquired.

コントローラ11は、投光部21の光量の初期値、およびコントラスト値および明度の所望の範囲の下限の設定値(以下、「下限設定値」と称する)および上限の設定値(以下、「上限設定値」と称する)を初期設定する(ステップS51)。ここで、コントラスト値の下限設定値をP1、コントラスト値の上限設定値をP2、明度の下限設定値をP3、および明度上限の設定値をP4とする。コントラスト値の所望の範囲として、コントラスト値が0〜100に設定できるものであれば、たとえば、所望の範囲を30〜70とし、下限設定値P1が30、上限設定値P2が70となる。明度の所望の範囲も、コントラスト値の所望の範囲の設定と同様である。   The controller 11 sets the initial value of the light amount of the light projecting unit 21, the lower limit setting value (hereinafter referred to as “lower limit setting value”) and the upper limit setting value (hereinafter referred to as “upper limit setting”) of the desired range of contrast value and brightness. (Referred to as “value”) is initialized (step S51). Here, the lower limit set value of the contrast value is P1, the upper limit set value of the contrast value is P2, the lower limit set value of the brightness is P3, and the set value of the brightness upper limit is P4. As long as the desired contrast value range can be set to 0 to 100, for example, the desired range is 30 to 70, the lower limit set value P1 is 30, and the upper limit set value P2 is 70. The desired range of brightness is the same as the setting of the desired range of contrast value.

次いで、照明光の照射を投光部21に指示するとともに(ステップS52)、撮像部22に、投光部21から照明光によって照射されたガラス板2の端面の輝点の撮像を指示する(ステップS53)
次いで、撮像部22によって撮像された画像のデータ、たとえば、画像のコントラスト値および明度を取り込み、履歴として保存する(ステップS54)。そして、保存されたn回前迄の複数回分のコントラスト値の平均値A、明度の平均値Bを算出する(ステップS55)。
Next, the irradiation unit 21 is instructed to irradiate the illumination light (step S52), and the imaging unit 22 is instructed to image the bright spot on the end face of the glass plate 2 irradiated by the illumination light from the projection unit 21 (step S52). Step S53)
Next, the image data captured by the image capturing unit 22, for example, the contrast value and brightness of the image are captured and stored as a history (step S54). Then, the average value A and the lightness average value B of the stored contrast values for the previous n times are calculated (step S55).

以上のように、撮像部によって撮像された画像のデータの取得までの処理が完了すると、次に、ステップS56〜ステップS69に示されるとおり、取り込み光量調節部や照射光量調節部の処理が実行される。すなわち、前回までに撮像部22によって撮像された画像の明暗データに基づいて、投光部21が照射する光量、または撮像部22が取り込む光量を調整する処理が実行される。   As described above, when the processing up to the acquisition of the data of the image captured by the imaging unit is completed, the processing of the capture light amount adjustment unit and the irradiation light amount adjustment unit is then performed as shown in Steps S56 to S69. The That is, a process of adjusting the light amount emitted by the light projecting unit 21 or the light amount captured by the image capturing unit 22 is executed based on the brightness / darkness data of the images captured by the image capturing unit 22 until the previous time.

本実施の形態では、現在の投光部21の照射する光量の設定値が最大設定値のとき、複数回分のコントラスト値の平均値Aが下限値P1以下、または明度の平均値Bが下限値P3以下であるならば、取り込み光量を増加させるべく、シャッタースピードを1段階下げる処理がなされる。   In the present embodiment, when the set value of the amount of light irradiated by the current light projecting unit 21 is the maximum set value, the average value A of the contrast values for a plurality of times is the lower limit value P1 or less, or the average value B of the brightness is the lower limit value. If it is less than or equal to P3, the shutter speed is lowered by one step in order to increase the amount of light taken in.

一方、現在の投光部21の照射する光量の設定値は、最小設定値P5のとき、複数回分のコントラスト値の平均値Aが上限値P2以上、または明度の平均値Bが上限値P4以上であるならば、取り込み光量を減少させるべく、シャッタースピードを1段階上げる処理がなされる。   On the other hand, when the current setting value of the amount of light emitted by the light projecting unit 21 is the minimum setting value P5, the average value A of the contrast values for a plurality of times is the upper limit value P2 or more, or the lightness average value B is the upper limit value P4 or more. If so, processing is performed to increase the shutter speed by one step in order to reduce the amount of captured light.

また、現在の投光部21の照射する光量の設定値が最大設定値でもなく最小設定値でもない場合、すなわち、最小設定値<光量の設定値<最大設定値である場合には、照射光量の調整が可能であるので、複数回分のコントラスト値の平均値Aが下限値P1以下であれば、光量を一定量増加させる処理がなされ、複数回分のコントラスト値の平均値Aが上限値P2以上であれば、光量を一定量減少させる処理がなされる。   In addition, when the current setting value of the light amount irradiated by the light projecting unit 21 is neither the maximum setting value nor the minimum setting value, that is, when the minimum setting value <the setting value of the light amount <the maximum setting value, the irradiation light amount Therefore, if the average value A of the contrast values for a plurality of times is less than or equal to the lower limit value P1, processing for increasing the light amount by a certain amount is performed, and the average value A of the contrast values for a plurality of times is greater than or equal to the upper limit value P2. If so, a process of reducing the amount of light by a certain amount is performed.

なお、ここで、光量の最小設定値P5は、撮像部22が撮像した画像からワークを認識できる程度に投光部21が照射する光量の最小値である。具体例として、取り込み光量調節部32は、たとえば、投光部21が消灯するときを除き、明るさの強弱が1段階から10段階まで可変であり、3段階以上がワークを認識できる程度の明るさとすれば、10段階のときが光量の最大設定値であって、3段階のときが光量の最小の最小設定値P5である。   Here, the minimum light intensity setting value P5 is the minimum value of the light intensity emitted by the light projecting unit 21 to the extent that the workpiece can be recognized from the image captured by the imaging unit 22. As a specific example, the captured light amount adjustment unit 32 is variable in brightness level from 1 to 10 levels except when the light projecting unit 21 is turned off, and is bright enough to recognize a workpiece in 3 levels or more. Assuming that there are 10 steps, the maximum set value of the light amount is set, and at the 3 steps, the minimum set value P5 of the minimum amount of light is set.

まず、図22のステップS56において、現在の投光部21の照射する光量の設定値が最大かどうかを判断する。現在の投光部21の照射する光量の設定値が最大である場合には(ステップS56:Yes)、ステップS57の処理に進み、照射する光量の設定値が最大でない場合には(ステップS56:No)、ステップS61に進む。
[現在の投光部21の照射する光量の設定値が最大である場合の処理]
現在の投光部21の照射する光量の設定値が最大である場合の処理を説明する。現在の投光部21の現在の投光部21の照射する光量の設定値が最大のときは(ステップS56:Yes)、読み込み光量調整部の処理が実行され、具体的には、前回までに撮像された撮像n回分の画像のコントラスト値の平均値Aおよび撮像n回分の明度の平均値Bに基づいて、シャッタースピードを1段階下げて、撮像部22によって取り込まれる光量を増加させる処理が実行される。
First, in step S56 of FIG. 22, it is determined whether or not the current setting value of the amount of light irradiated by the light projecting unit 21 is maximum. If the current setting value of the amount of light irradiated by the light projecting unit 21 is the maximum (step S56: Yes), the process proceeds to step S57. If the setting value of the amount of light to be irradiated is not the maximum (step S56: No), it proceeds to step S61.
[Processing when the current setting value of the amount of light emitted by the light projecting unit 21 is maximum]
Processing when the current set value of the amount of light irradiated by the light projecting unit 21 is maximum will be described. When the set value of the light amount irradiated by the current light projecting unit 21 of the current light projecting unit 21 is the maximum (step S56: Yes), the process of the read light amount adjusting unit is executed. Based on the average value A of the contrast values of the captured images for n times and the average value B of the brightness values for n times of imaging, a process of increasing the amount of light captured by the imaging unit 22 by reducing the shutter speed by one step is executed. Is done.

まず、前回までに撮像された撮像n回分の画像のコントラスト値の平均値Aと所望のコントラスト値の下限として設定された下限設定値P1とを比較する処理を実行する(ステップS57)。比較した結果、撮像n回分の画像のコントラスト値の平均値Aが所望のコントラスト値の下限設定値P1を上回っている場合は(ステップS57:No)、さらに、前回までに撮像された撮像n回分の画像の明度の平均値Bと所望の明度の下限の設定値である下限設定値P3とを比較する処理を実行する(ステップS58)。なお、ステップS57とステップS58の処理順序を入れ替えることができることはもちろんである。   First, a process of comparing the average value A of the contrast values of n images captured so far with the lower limit set value P1 set as the lower limit of the desired contrast value is executed (step S57). As a result of the comparison, when the average value A of the contrast values of the images for n times of imaging exceeds the lower limit setting value P1 of the desired contrast value (step S57: No), further, for n times of imaging imaged so far. A process of comparing the average value B of the brightness of the image with the lower limit set value P3, which is a set value of the lower limit of the desired brightness, is executed (step S58). Of course, the processing order of step S57 and step S58 can be interchanged.

ステップS57およびステップS58における比較処理の結果、撮像n回分の画像のコントラスト値の平均値Aが所望のコントラスト値の下限設定値P1以下であるとき(ステップS57:Yes)、もしくは、撮像n回分の画像の明度の平均値Bが所望の明度の下限設定値P3以下であるときには(ステップS58:Yes)、既に現在の光量の設定値が最大であり、これ以上光量を増加できない状態であるにも拘わらず、コントラスト値の平均値Aや明度の平均値Bが許容しうる下限設定値以下である状態に相当する。したがって、取り込み光量を増大させる必要があると判断されるので、取り込み光量調節部32にシャッタースピードを1段下げる指示をする(ステップS59)。   As a result of the comparison processing in step S57 and step S58, when the average value A of the contrast values of the images for n times of imaging is less than or equal to the lower limit set value P1 of the desired contrast value (step S57: Yes), or for n times of imaging When the average value B of the lightness of the image is equal to or lower than the desired lightness lower limit setting value P3 (step S58: Yes), the current light amount setting value is already the maximum, and the light amount cannot be increased any more. Regardless, it corresponds to a state where the average value A of contrast values and the average value B of lightness are equal to or lower than an allowable lower limit set value. Therefore, since it is determined that it is necessary to increase the amount of captured light, the captured light amount adjustment unit 32 is instructed to decrease the shutter speed by one step (step S59).

また、このシャッタースピードの変化に伴って、そのシャッタースピードに合わせた設定値に光量を変更することもできる(ステップS60)。このようにシャッタースピードに合わせた設定値に光量を変更するのは、シャッタースピードを下げることにより取り込み光量が増大するので、その増大する分とコントラスト値の下限設定値P1および明度の下限設定値P3を考慮し、投光部21が照射する光量を下げることが可能となったり、光量を下げる必要が生じたりするからである。   As the shutter speed changes, the light amount can be changed to a set value that matches the shutter speed (step S60). In this way, the amount of light is changed to the set value according to the shutter speed. Since the amount of captured light increases as the shutter speed is lowered, the lower limit set value P1 of the contrast value and the lower limit set value P3 of the brightness value are increased. This is because it is possible to reduce the amount of light emitted by the light projecting unit 21 or to reduce the amount of light.

具体的には、使用する系によっても異なるが、たとえば、シャッタースピードと光の取り込み量(あるいは光の取り込み量に応じたコントラスト値および明度)との関係、光量とコントラスト値および明度との関係、および、コントラスト値や明度の平均値A、Bと下限設定値P1、P3との差から、光量の変更量を決定することもでき、また、簡易的な方法として、シャッタースピードを1段下げた場合には、予め定められた光量分を下げるようにしてもよい。なお、このステップS60の処理は省略することもできる。   Specifically, depending on the system to be used, for example, the relationship between the shutter speed and the amount of light captured (or the contrast value and lightness according to the amount of light captured), the relationship between the light amount and the contrast value and lightness, In addition, the amount of change in the amount of light can be determined from the difference between the contrast values and the average values A and B of the brightness and the lower limit setting values P1 and P3. As a simple method, the shutter speed is lowered by one step. In that case, a predetermined amount of light may be reduced. Note that the process of step S60 may be omitted.

以上のように、撮像n回分の画像のコントラスト値の平均値および明度の平均値に基づいて、取り込み光量の調整の処理など(ステップS57〜ステップS60)が完了すると、ステップS70へ進む。   As described above, when the processing for adjusting the amount of captured light (step S57 to step S60) is completed based on the average value of contrast values and the average value of brightness of n images, the process proceeds to step S70.

なお、撮像n回分の画像のコントラスト値の平均値Aが下限設定値P1よりも大きく(ステップS57:No)、かつ撮像n回分の画像の明度値の平均値Bが下限設定値P2よりも大きい場合には(ステップS58:No)、十分なコントラストおよび明度が得られていると判断されるので、そのままステップS70へ進む。   Note that the average value A of the contrast values of the images for n times of imaging is larger than the lower limit setting value P1 (step S57: No), and the average value B of the lightness values of the images for n times of imaging is larger than the lower limit setting value P2. In such a case (step S58: No), it is determined that sufficient contrast and brightness are obtained, and the process proceeds to step S70 as it is.

一方、現在の投光部21の光量の設定値が最大でない場合には(ステップS56:No)、次に、現在の投光部21の光量の設定値が最小設定値P5まで下げられているどうかを判断する(ステップS61)。ここで、光量の最小設定値P5は、上述したように、撮像部22が撮像した画像からワークを認識できる程度に投光部21が照射する光量の最小値である。   On the other hand, when the current light intensity setting value of the light projecting unit 21 is not the maximum (step S56: No), the current light intensity setting value of the light projecting unit 21 is lowered to the minimum setting value P5. It is determined whether or not (step S61). Here, as described above, the minimum light amount setting value P5 is the minimum value of the light amount irradiated by the light projecting unit 21 to the extent that the workpiece can be recognized from the image captured by the image capturing unit 22.

そして、この判断の結果、現在の投光部21の照射する光量の設定値がすでに最小設定値P5まで下げられている場合には(ステップS61:Yes)、ステップS62の処理に進み、現在の投光部21の照射する光量の設定値が最小設定値P5でない場合には(ステップS61:No)、ステップS66の処理に進む。   And as a result of this determination, when the set value of the light amount irradiated by the current light projecting unit 21 has already been lowered to the minimum set value P5 (step S61: Yes), the process proceeds to step S62, When the set value of the light amount irradiated by the light projecting unit 21 is not the minimum set value P5 (step S61: No), the process proceeds to step S66.

[現在の投光部21の照射する光量の設定値が最小設定値P5である場合の処理]
現在の投光部21の照射する光量の設定値が、すでに最小設定値P5であるとき(ステップS61:Yes)、ステップS62〜ステップS65の処理が実行される。
[Processing when the current setting value of the amount of light emitted by the light projecting unit 21 is the minimum setting value P5]
When the current set value of the amount of light emitted by the light projecting unit 21 is already the minimum set value P5 (step S61: Yes), the processing of step S62 to step S65 is executed.

まず、前回までに撮像された撮像n回分の画像のコントラスト値の平均値Aと所望のコントラスト値の上限として設定された上限設定値P2との比較する処理を実行する(ステップS62)。比較した結果、撮像n回分の画像のコントラスト値の平均値Aが所望のコントラスト値の上限設定値P2を下回っている場合は(ステップS62:No)、さらに、前回までに撮像された撮像n回分の画像の明度の平均値Bと所望の明度の上限の設定値である上限設定値P4とを比較する処理を実行する(ステップS63)。なお、ステップS62とステップS63の処理順序を入れ替えることができることはもちろんである。   First, a process of comparing the average value A of the contrast values of n images captured so far with the upper limit set value P2 set as the upper limit of the desired contrast value is executed (step S62). As a result of the comparison, when the average value A of the contrast values of the images for n times of imaging is below the upper limit setting value P2 of the desired contrast value (step S62: No), further, for n times of imaging that have been imaged so far A process of comparing the average value B of the brightness of the image with the upper limit set value P4 that is a set value of the upper limit of the desired brightness is executed (step S63). Of course, the processing order of step S62 and step S63 can be interchanged.

ステップS62およびステップS63における比較処理の結果、撮像n回分の画像のコントラスト値の平均値Aが所望のコントラスト値の上限設定値P2以上であるとき(ステップS62:Yes)、もしくは、撮像n回分の画像の明度の平均値Bが所望の明度の上限設定値P4以上であるときには(ステップS63:Yes)、既に現在の光量の設定値が最小であり、これ以上光量を減少できない状態であるにも拘わらず、コントラスト値の平均値Aや明度の平均値Bが許容しうる上限設定値以上である状態に相当する。したがって、取り込み光量を減少させる必要があると判断されるので、取り込み光量調節部32にシャッタースピードを1段上げる指示をする(ステップS64)。また、このシャッタースピードの変化に伴って、そのシャッタースピードに合わせた設置値に光量を変更することもできる(ステップS65)。このようにシャッタースピードに合わせた設置値に光量を変更するのは、シャッタースピードを上げることにより取り込み光量が減少するので、その減少する分とコントラスト値の上限の設定値P2および明度の上限の設定値P4を考慮し、投光部21が照射する光量を上げる必要が生じうるからである。なお、具体的な詳細は、ステップS60での説明と共通するので、詳しい説明を省略する。なお、このステップS65の処理は省略することもできる。   As a result of the comparison processing in step S62 and step S63, when the average value A of the contrast value of the image for n times of imaging is not less than the upper limit set value P2 of the desired contrast value (step S62: Yes), or for n times of imaging When the average brightness value B of the image is equal to or higher than the desired brightness upper limit setting value P4 (step S63: Yes), the current light intensity setting value is already the minimum, and the light intensity cannot be further reduced. Regardless, it corresponds to a state where the average value A of contrast values and the average value B of brightness are equal to or higher than an allowable upper limit set value. Therefore, since it is determined that it is necessary to reduce the amount of captured light, the captured light amount adjustment unit 32 is instructed to increase the shutter speed by one step (step S64). As the shutter speed changes, the amount of light can be changed to an installation value that matches the shutter speed (step S65). The amount of light is changed to the setting value according to the shutter speed in this way because the amount of captured light decreases as the shutter speed is increased. Therefore, the amount of decrease and the setting value P2 for the upper limit of the contrast value and the setting of the upper limit of the brightness are set. This is because it may be necessary to increase the amount of light emitted by the light projecting unit 21 in consideration of the value P4. Note that the specific details are the same as those described in step S60, and thus detailed descriptions thereof are omitted. Note that the process of step S65 may be omitted.

以上の「現在の投光部21の照射する光量の設定値が最大である場合の処理」(ステップS57〜ステップS60)、および「現在の投光部21の照射する光量の設定値が最小である場合の処理(ステップS62〜ステップS65)の処理は、取り込み光量調整部32の処理、すなわち、前回までに撮像部22によって撮像された画像の明暗データに基づいて、撮像部22が取り込む光量を調整する処理(すなわち、)の一例に対応する。   The above “processing when the current setting value of the amount of light emitted by the light projecting unit 21 is the maximum” (steps S57 to S60) and “the set value of the amount of light emitted by the current projecting unit 21 are minimum. The processing in a certain case (step S62 to step S65) is the processing of the captured light amount adjustment unit 32, that is, the light amount captured by the imaging unit 22 based on the light / dark data of the images captured by the imaging unit 22 until the previous time. This corresponds to an example of the process to be adjusted (that is,).

[現在の投光部21の照射する光量の設定値が、最小設定値<設定値<最大設定値の場合の処理]
次に、現在の投光部21の照射する光量の設定値が最大設定値でもなく最小設定値でもない場合、すなわち、最小設定値<光量の設定値<最大設定値である場合の処理を説明する。
[Processing when the current setting value of the amount of light emitted by the light projecting unit 21 is minimum setting value <setting value <maximum setting value]
Next, processing when the current setting value of the amount of light irradiated by the light projecting unit 21 is neither the maximum setting value nor the minimum setting value, that is, the processing when the minimum setting value <the light amount setting value <the maximum setting value is described. To do.

図22aおよび図22bのフローチャートにおいて、現在の投光部21の光量の設定値が最大設定値でなく、かつ最小設定値でもないときは(ステップS56:No、およびステップS61:No)、コントラスト値の平均値Aと、所望のコントラスト値の下限設定値P1とを比較する(ステップS66)。比較した結果、コントラスト値の平均値Aが所望のコントラスト値の下限設定値P1以下であれば(ステップS66:Yes)、光量を一定量増加させる(次のステップS67)。ここで、光量の増加を一定量とすることで、緩やかな外光の変化に対応できるとともに、安定した撮像を可能とする。また、光量の増加を一定量の変化とすることで、コントローラ11の処理が複雑とならず、処理速度が速くなるメリットもある。しかしながら、本実施形態と異なり、光量の増加を一定量としないようにも構成することができる。たとえば、光量とコントラスト値とが対応するパラメータ表を用いて光量を制御することも可能であり、多様な方法を用いた光量の調節が可能である。ステップS67の処理後、ステップS70の処理に移る。   In the flowcharts of FIGS. 22a and 22b, when the current light amount setting value of the light projecting unit 21 is neither the maximum setting value nor the minimum setting value (step S56: No and step S61: No), the contrast value Is compared with the lower limit set value P1 of the desired contrast value (step S66). As a result of the comparison, if the average value A of the contrast values is equal to or less than the lower limit set value P1 of the desired contrast value (step S66: Yes), the light amount is increased by a certain amount (next step S67). Here, by making the increase in the amount of light constant, it is possible to deal with a gradual change in external light and to enable stable imaging. Further, by making the increase in the amount of light a constant amount, there is an advantage that the processing of the controller 11 is not complicated and the processing speed is increased. However, unlike the present embodiment, it can be configured not to increase the amount of light to a constant amount. For example, the amount of light can be controlled using a parameter table in which the amount of light corresponds to the contrast value, and the amount of light can be adjusted using various methods. After the process of step S67, the process proceeds to step S70.

コントラスト値の平均値Aが下限設定値P1以下でないとき(ステップS66:No)、次に、コントラスト値の平均値Aと、所望のコントラスト値の上限設定値P2とを比較する(ステップS68)。比較した結果、コントラスト値の平均値Aが上限設定値P2以上であれば(ステップS68:Yes)、光量を一定量減少させる(ステップS69)。光量の減少も上記の光量を増加させる場合と同様、一定量に限られず、多様な方法を用いて光量の調節が可能である。ステップS69の処理後、ステップS70の処理に移る。   When the average value A of the contrast values is not less than or equal to the lower limit set value P1 (step S66: No), the average value A of the contrast values is compared with the upper limit set value P2 of the desired contrast value (step S68). If the average value A of the contrast values is greater than or equal to the upper limit set value P2 as a result of the comparison (step S68: Yes), the light amount is decreased by a certain amount (step S69). The amount of light is not limited to a fixed amount as in the case of increasing the amount of light, and the amount of light can be adjusted using various methods. After the process of step S69, the process proceeds to step S70.

一方、コントラスト値の平均値Aが、下限設定値P1以下でなく、かつ上限設定値P2以上でない場合(ステップS66:No、かつステップS68:No)、すなわち、下限設定値P1<コントラスト値の平均値A<上限設定値P2である場合には、コントラスト値が良好であると判断されるので、そのままステップS70に進む。   On the other hand, when the average value A of the contrast values is not lower than the lower limit set value P1 and not higher than the upper limit set value P2 (step S66: No and step S68: No), that is, the lower limit set value P1 <the average of the contrast values. When the value A <the upper limit set value P2, it is determined that the contrast value is good, and the process directly proceeds to step S70.

なお、以上の「現在の投光部21の照射する光量の設定値が、最小設定値<設定値<最大設定値の場合の処理」(ステップS66〜ステップS69)は、照射光量調整部の処理、すなわち、前回までに撮像部22によって撮像された画像の明暗データに基づいて、投光部が照射する光量を調節する処理の一例に対応する。   Note that the above “processing when the set value of the amount of light irradiated by the light projecting unit 21 is the minimum set value <set value <maximum set value” (steps S66 to S69) is the process of the irradiation light amount adjusting unit. That is, this corresponds to an example of processing for adjusting the amount of light emitted by the light projecting unit based on the brightness data of the images captured by the imaging unit 22 until the previous time.

最後に、ステップS70では、測定終了かどうかを判断し、測定終了でなければ(ステップS70:No)、ステップS52の処理に戻り、測定終了であれば(ステップS67:Yes)、処理を終了する。   Finally, in step S70, it is determined whether or not the measurement is finished. If the measurement is not finished (step S70: No), the process returns to step S52. If the measurement is finished (step S67: Yes), the process is finished. .

なお、第5の実施形態では、照射光量調節部と取り込み光量調節部とを組み合わせた形態を示しているが、組み合わせたものに限られず、照射光量調節部または取り込み光量調節部を単体で用いることも可能である。たとえば、その照射光量調節部のみを用いた一例を図23に示す。図23に示す処理であるステップS81〜ステップS90は、上述のステップS51〜ステップS55,ステップS66〜ステップS70と同様であるので、詳細な説明は省略する。   In addition, although the form which combined the irradiation light quantity adjustment part and the taking-in light quantity adjustment part is shown in 5th Embodiment, it is not restricted to a combination, The irradiation light quantity adjustment part or the taking-in light quantity adjustment part is used independently. Is also possible. For example, FIG. 23 shows an example using only the irradiation light amount adjustment unit. Steps S81 to S90 shown in FIG. 23 are the same as steps S51 to S55 and S66 to S70 described above, and thus detailed description thereof is omitted.

また、第5の実施形態の変形例として、取り込み光量調節部の処理で、取り込み光量を増大させるために、撮像部22のシャッタースピードを変化させる処理(ステップS59、ステップS60)の代わりに、撮像部22の絞りを変化させる処理を用いることもできるし、シャッタースピードおよび絞りの両方を変化させる処理を用いることもできる。   Further, as a modification of the fifth embodiment, instead of the process of changing the shutter speed of the imaging unit 22 (step S59, step S60) in order to increase the captured light quantity in the process of the captured light quantity adjustment unit, imaging is performed. A process of changing the aperture of the unit 22 can be used, or a process of changing both the shutter speed and the aperture can be used.

さらに、第5の実施形態において、照射光量調節部は、コントラスト値で調節しているが、コントラスト値のみに限らず、明度を比較して光量を調節し、また、コントラスト値および明度両方を用いて光量を調節することも可能である。   Furthermore, in the fifth embodiment, the irradiation light amount adjustment unit adjusts by the contrast value, but is not limited to the contrast value, and adjusts the light amount by comparing the brightness, and uses both the contrast value and the brightness. It is also possible to adjust the amount of light.

さらに、第5の実施形態は、投光部21が照射する光は照射光であることを前提に説明しているが、取り込み光量調節部においては、取り込む光量の調節をすることを想定としているので、照射光のみに限られず、スリット光などの光でも適用できる。   Furthermore, although the fifth embodiment has been described on the assumption that the light emitted from the light projecting unit 21 is irradiation light, the capturing light amount adjusting unit assumes that the capturing light amount is adjusted. Therefore, the present invention is not limited to the irradiation light but can be applied to light such as slit light.

以上のように、本実施形態のワーク位置検出システム20によれば、以下のような(a)〜(c)の効果を奏する。   As described above, according to the workpiece position detection system 20 of the present embodiment, the following effects (a) to (c) are achieved.

(a)外光によって、周囲の明るさが変化し、ワークを認識しづらくなっている場合は投光部の光量を増加させることにより、ワークを認識しやすくさせ、逆に、ワークを十分認識できるレベル以上にある場合、投光部の光量を落とすことにより、ハレーションによるワークの認識しづらさを防止すると共に、照明の寿命を延ばすことが可能となる。また、この処理は、前回値、及びそれ以前の値を処理したものを用いるため、計測の差異に取り直しなど、余分な時間が掛からないというメリットもある。   (A) When the ambient brightness changes due to external light and it is difficult to recognize the workpiece, increasing the light intensity of the light projecting unit makes it easier to recognize the workpiece. If the level is higher than possible, it is possible to prevent the work from being difficult to recognize due to halation and to extend the life of the illumination by reducing the light quantity of the light projecting unit. In addition, since this process uses a value obtained by processing the previous value and the previous value, there is an advantage that it does not take extra time such as re-establishing the difference in measurement.

(b)投光部が照射する光量の調節および/または撮像部が取り込む光量の調節を、前回までの複数回分の撮像結果の平均値に基づいて行なうことで、突発的な光の変化が生じた場合の撮像結果により光量が調節されることを防ぐことができる。   (B) By adjusting the amount of light emitted by the light projecting unit and / or adjusting the amount of light captured by the imaging unit based on the average value of a plurality of imaging results up to the previous time, a sudden change in light occurs. It is possible to prevent the amount of light from being adjusted according to the imaging result when the

(c)投光部自体が経年劣化しても、撮像部の取り込む光量を調節することにより、ワークの認識しづらさを防ぐことができる。   (C) Even if the light projecting unit itself deteriorates over time, it is possible to prevent the workpiece from being difficult to recognize by adjusting the amount of light captured by the imaging unit.

以上、第1〜第5の実施形態では、車両用窓ガラスを例にとり、ワーク位置検出システムを例示したが、車両用窓ガラス板に限定されるものではなく、プラスチックおよびガラスなどの透明体にも同様に適用し得る。また、第1〜第5の実施形態は、ガラス板の表面が湾曲面を有していなくても適用し得る。   As mentioned above, in the 1st-5th embodiment, taking the window glass for vehicles as an example, although the work position detection system was illustrated, it is not limited to a window glass plate for vehicles, and it is made into transparent bodies, such as plastic and glass. Can be applied as well. The first to fifth embodiments can be applied even if the surface of the glass plate does not have a curved surface.

なお、第1〜第5の実施形態では、ワーク位置の検出と、ロボットの制御とを同一のコントローラで実施しているが、これに限定されることはない。たとえば、ワーク位置の検出を別のコントローラで実施し、その結果をロボットの制御をするコントローラに位置検出結果のデータを送信し本発明を実現することも可能である。   In the first to fifth embodiments, the workpiece position detection and the robot control are performed by the same controller. However, the present invention is not limited to this. For example, it is also possible to implement the present invention by detecting the workpiece position with another controller and transmitting the result to a controller that controls the robot.

さらに、第3の実施形態および第4の実施形態のように、複数のガラスが所定の間隔を隔てて積層状態でパレットに収納されている場合、複数のガラスに同時に輝点が生じるようにスリット光を照射し、その複数の輝点の撮像結果により複数のガラスの位置を同時に検出することも可能である。   Furthermore, as in the third embodiment and the fourth embodiment, when a plurality of glasses are stored in a pallet in a laminated state at a predetermined interval, a slit is formed so that bright spots are simultaneously generated in the plurality of glasses. It is also possible to simultaneously detect the positions of a plurality of glasses by irradiating light and imaging results of the plurality of bright spots.

以上、本発明を用いることによって、透明体であるワークの端面が発光するように光を照射し、光によってワークの端面に生じた発光箇所を撮像し、その撮像結果に基づいてワークの位置を検出するので、透明体であるワークの位置を正確に検出することができるようになる。また、従来では、ガラスのようなワークをロボットにハンドリングさせる際に、輸送時のパレットからガラスを取り出すなどの作業者工程を必要としていた。しかし、本発明を用いることにより、輸送時のパレットのままでも、ロボットに正確にハンドリングさせることが可能となる。したがって、複数車種に対応することから安価な設備で構築することが可能となり人員コストの削減が可能となる。ロボットとガラスの相対位置がわかることから、パレットに置くだけではなく、車体の取付けにも応用がきく。   As described above, by using the present invention, light is emitted so that the end surface of the workpiece, which is a transparent body, emits light, and the light emission location generated on the end surface of the workpiece by the light is imaged, and the position of the workpiece is determined based on the imaging result. Since it detects, the position of the workpiece | work which is a transparent body can be detected now correctly. Further, conventionally, when a workpiece such as glass is handled by a robot, an operator process such as taking out the glass from a pallet during transportation is required. However, by using the present invention, the robot can accurately handle the pallet during transportation. Therefore, since it corresponds to a plurality of vehicle types, it can be constructed with inexpensive equipment, and the personnel cost can be reduced. Knowing the relative position of the robot and glass, it can be applied not only to placing on a pallet, but also to mounting a car body.

2 ガラス板、
10a ロボット、
11 コントローラ、
21a〜21c 投光部、
22a,22b 撮像部、
100a 照明光、
100b,100c スリット光、
300 撮像空間。
2 glass plates,
10a robot,
11 controller,
21a to 21c Floodlight unit,
22a, 22b imaging unit,
100a Illumination light,
100b, 100c slit light,
300 Imaging space.

Claims (13)

透明体であるワークの端面が発光するように光を照射する少なくとも一つの投光部と、
前記光によって前記ワークの端面に生じた互いに異なる複数の発光箇所を撮像する撮像部と、
前記撮像部による撮像結果に基づいて前記ワークの位置を検出する検出部と、を有し、
前記投光部は、スリット光を前記ワークの端面に交差するように照射し、
前記撮像部は、前記スリット光によって前記ワークの端面の複数所で生じた複数の輝点を同一視野内で同時に撮像し、
前記ワークは、一つの投光部から照射された一つのスリット光に対して複数の交点を形成可能な湾曲した端面を有しており、
前記検出部は、前記複数の交点で生じた輝点を少なくとも含む複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とするワーク位置検出システム。
At least one light projecting unit that emits light so that the end surface of the work that is a transparent body emits light;
An imaging unit that images a plurality of different light emitting portions generated on the end face of the workpiece by the light;
A detection unit that detects a position of the workpiece based on an imaging result by the imaging unit,
The light projecting unit refers irradiation so as to cross the slit light to an end face of the workpiece,
The imaging unit takes an image at the same time a plurality of bright points caused by multiple plants of the end face of the workpiece by the slit light in the same field of view,
The workpiece has a curved end surface capable of forming a plurality of intersections with respect to one slit light irradiated from one light projecting unit,
The work position detection system , wherein the detection unit detects a position of the work based on an imaging result of a plurality of bright spots including at least a bright spot generated at the plurality of intersections .
前記投光部が複数設けられ、
前記検出部は、前記複数の投光部から照射されたそれぞれのスリット光によって前記ワークの端面の複数箇所で生じた複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とする請求項1に記載のワーク位置検出システム。
A plurality of the light projecting units are provided,
The detection unit detects the position of the workpiece based on imaging results of a plurality of bright spots generated at a plurality of locations on an end surface of the workpiece by the respective slit lights irradiated from the plurality of light projecting units. The workpiece position detection system according to claim 1.
前記投光部は、二つの交点で前記ワークの端面と交差する一のスリット光を照射する第1投光部と、前記ワークの端面の他の箇所で前記ワークの端面と交差する他のスリット光を照射する第2投光部と、を含み、
前記検出部は、前記一のスリット光と前記ワークの端面とが交わる二つの交点で生じた輝点と、当該二つの交点で生じた輝点と前記他の箇所で前記他のスリット光によって生じた輝点とを含む複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とする請求項1または2に記載のワーク位置検出システム。
The light projecting unit irradiates one slit light that intersects the end surface of the work at two intersections, and another slit that intersects the end surface of the work at another portion of the end surface of the work. A second light projecting unit that emits light,
The detection unit is generated by the other slit light generated at the two intersections where the one slit light and the end face of the workpiece intersect, the bright point generated at the two intersections, and the other spot. work location system according to claim 1 or 2, characterized in that to detect the position of the workpiece based on the imaging results of a plurality of bright points and a bright spot was.
前記第2投光部は、前記二つの交点に挟まれる一の箇所で前記ワークの端面と交差するスリット光を照射することを特徴とする請求項に記載のワーク位置検出システム。 The work position detection system according to claim 3 , wherein the second light projecting unit irradiates slit light that intersects an end face of the work at one place between the two intersections. さらに、一つのスリット光が前記ワークの端面と複数の箇所で交差するように少なくとも一つの投光部を移動させる移動部を有することを特徴とする請求項に記載のワーク位置検出システム。 The work position detection system according to claim 1 , further comprising a moving unit that moves at least one light projecting unit so that one slit light intersects the end surface of the work at a plurality of locations. さらに、前記一のスリット光が前記ワークの端面と二つの交点で交差するか否かを判断する判断部と、
前記判断部の判断結果に基づいて前記一のスリット光が前記ワークの端面と二つの交点で交差する状態になるように前記第1投光部を移動する移動部と、を有することを特徴とする請求項に記載のワーク位置検出システム。
Further, a determination unit that determines whether or not the one slit light intersects the end surface of the workpiece at two intersections;
And a moving unit that moves the first light projecting unit so that the one slit light intersects the end surface of the workpiece at two intersections based on a determination result of the determining unit. The work position detection system according to claim 3 .
透明体であるワークの端面が発光するように、スリット光を前記ワークの端面に交差するように照射する少なくとも一つの投光部と、
前記スリット光によって前記ワークの端面に生じた互いに異なる複数の発光箇所を撮像する撮像部と、
前記撮像部による撮像結果に基づいて前記ワークの位置を検出する検出部と、
一つのスリット光が前記ワークの端面と複数の箇所で交差するように少なくとも一つの前記投光部を移動させる移動部と、を有し、
前記撮像部は、前記スリット光によって前記ワークの端面の複数個所で生じた複数の輝点を撮像し、
前記ワークは、一つの投光部から照射された一つのスリット光に対して複数の交点を形成可能な湾曲した端面を有しており、
前記検出部は、前記複数の交点で生じた輝点を少なくとも含む複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とするワーク位置検出システム。
At least one light projecting unit that irradiates slit light so as to intersect with the end face of the work so that the end face of the work that is a transparent body emits light;
An imaging unit that images a plurality of different light emission points generated on the end surface of the workpiece by the slit light;
A detection unit that detects a position of the workpiece based on a result of imaging by the imaging unit;
A moving unit that moves at least one of the light projecting units so that one slit light intersects the end surface of the workpiece at a plurality of locations ;
The imaging unit images a plurality of bright spots generated at a plurality of locations on the end surface of the workpiece by the slit light ,
The workpiece has a curved end surface capable of forming a plurality of intersections with respect to one slit light irradiated from one light projecting unit,
The work position detection system , wherein the detection unit detects a position of the work based on an imaging result of a plurality of bright spots including at least a bright spot generated at the plurality of intersections .
透明体であるワークの端面と二つの交点で交差する一のスリット光を照射する第1投光部と、前記ワークの端面の他の箇所で前記ワークの端面と交差する他のスリット光を照射する第2投光部と、を含み、ワークの端面が発光するように光を照射する投光部と、
前記光によって前記ワークの端面に生じた互いに異なる複数の発光箇所を撮像する撮像部と、
前記撮像部による撮像結果に基づいて前記ワークの位置を検出する検出部と、
前記一のスリット光が前記ワークの端面と二つの交点で交差するか否かを判断する判断部と、
前記判断部の判断結果に基づいて前記一のスリット光が前記ワークの端面と二つの交点で交差する状態になるように前記第1投光部を移動する移動部と、を有し、
前記撮像部は、前記スリット光によって前記ワークの端面の複数個所で生じた複数の輝点を撮像し、
前記ワークは、一つの投光部から照射された一つのスリット光に対して複数の交点を形成可能な湾曲した端面を有しており、
前記検出部は、前記一のスリット光と前記ワークの端面とが交わる二つの交点で生じた輝点と、当該二つの交点で生じた輝点と前記他の箇所で前記他のスリット光によって生じた輝点とを含む複数の輝点の撮像結果に基づいて前記ワークの位置を検出することを特徴とするワーク位置検出システム。
Irradiating a first light projecting portion that irradiates one slit light that intersects the end surface of the workpiece, which is a transparent body, at two intersections, and another slit light that intersects the end surface of the workpiece at other locations on the end surface of the workpiece. includes a second light projecting section which, and a light emitting end face of the workpiece that be irradiated with light to emit light,
An imaging unit that images a plurality of different light emitting portions generated on the end face of the workpiece by the light;
A detection unit that detects a position of the workpiece based on a result of imaging by the imaging unit;
A determination unit for determining whether the one slit light intersects the end face of the workpiece at two intersections;
A moving unit that moves the first light projecting unit so that the one slit light intersects the end surface of the workpiece at two intersections based on the determination result of the determining unit ;
The imaging unit images a plurality of bright spots generated at a plurality of locations on the end surface of the workpiece by the slit light ,
The workpiece has a curved end surface capable of forming a plurality of intersections with respect to one slit light irradiated from one light projecting unit,
The detection unit is generated by the other slit light generated at the two intersections where the one slit light and the end face of the workpiece intersect, the bright point generated at the two intersections, and the other spot. A workpiece position detection system that detects the position of the workpiece based on imaging results of a plurality of bright spots including bright spots .
さらに、超音波を用いて前記ワークまでの距離を測定する超音波測定部を有し、
前記検出部で検出されたワーク位置と、前記超音波測定部によって測定された距離とを比較する比較部と、を有することを特徴とする請求項1〜のいずれか1項に記載のワーク位置検出システム。
Furthermore, it has an ultrasonic measurement unit that measures the distance to the workpiece using ultrasonic waves,
The workpiece according to any one of claims 1 to 8 , further comprising a comparison unit that compares the workpiece position detected by the detection unit and the distance measured by the ultrasonic measurement unit. Position detection system.
透明体であるワークの端面が発光するように光を照射する少なくとも一つの投光部と、
前記光によって前記ワークの端面に生じた互いに異なる複数の発光箇所を撮像する撮像部と、
前記撮像部による撮像結果に基づいて前記ワークの位置を検出する検出部と、を有し、
前記投光部は、スリット光を前記ワークの端面に交差するように照射し、
前記撮像部は、前記スリット光によって前記ワークの端面の複数個所で生じた複数の輝点を撮像し、
前記ワークは、所定の間隔を隔てて積層状態でパレットに収納されており、
前記検出部は、前記パレットに収納された状態のまま前記撮像部によって撮像された撮像結果に基づいて前記ワークの位置を検出し、
前記パレットは、ワークの輸送に用いられる輸送用パレットであり、
前記検出部は、前記パレットにおける座標系を基準座標系とし、当該基準座標系とワークの座標系との相対的な位置関係を前記複数の輝点によって求めることを特徴とするワーク位置検出システム。
At least one light projecting unit that emits light so that the end surface of the work that is a transparent body emits light;
An imaging unit that images a plurality of different light emitting portions generated on the end face of the workpiece by the light;
A detection unit that detects a position of the workpiece based on an imaging result by the imaging unit,
The light projecting unit refers irradiation so as to cross the slit light to an end face of the workpiece,
The imaging unit images a plurality of bright spots generated at a plurality of locations on the end surface of the workpiece by the slit light ,
The workpiece is stored in a pallet in a stacked state at a predetermined interval,
The detection unit detects the position of the workpiece based on an imaging result captured by the imaging unit while being stored in the pallet;
The pallet is a pallet for transportation used for transportation of workpieces,
The detection unit is characterized in that the coordinate system in the pallet is a reference coordinate system, and a relative positional relationship between the reference coordinate system and the coordinate system of the workpiece is obtained from the plurality of bright spots .
さらに、前記ワークを支持するためのロボットの教示データを前記位置関係に基づいて補正する補正部を有することを特徴とする請求項1に記載のワーク位置検出システム。 Furthermore, workpiece position detection system of claim 1 0, characterized in that it comprises a correcting unit for correcting on the basis of teaching data of the robot for supporting the workpiece to the positional relationship. 前記ワークは、ガラスであること特徴とする請求項1〜1のいずれか1項に記載のワーク位置検出システム。 The workpiece is the workpiece position detecting system according to any one of claims 1 to 1 1, wherein it is glass. 前記ワークは、車両用窓ガラスであることを特徴とする請求項1に記載のワーク位置検出システム。 The workpiece is the workpiece position detection system of claim 1 2, characterized in that a window glass for vehicles.
JP2012272816A 2006-03-23 2012-12-13 Work position detection system Expired - Fee Related JP5648674B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012272816A JP5648674B2 (en) 2006-03-23 2012-12-13 Work position detection system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006081556 2006-03-23
JP2006081556 2006-03-23
JP2012272816A JP5648674B2 (en) 2006-03-23 2012-12-13 Work position detection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007077682A Division JP5332122B2 (en) 2006-03-23 2007-03-23 Work position detection system and work position detection method

Publications (2)

Publication Number Publication Date
JP2013050468A JP2013050468A (en) 2013-03-14
JP5648674B2 true JP5648674B2 (en) 2015-01-07

Family

ID=48012584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012272816A Expired - Fee Related JP5648674B2 (en) 2006-03-23 2012-12-13 Work position detection system

Country Status (1)

Country Link
JP (1) JP5648674B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101703588B1 (en) * 2015-03-20 2017-02-07 현대자동차 주식회사 Vehicle electronic equipment inspection unit and inspection method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0711407B2 (en) * 1988-01-22 1995-02-08 セントラル硝子株式会社 Glass edge detector
JPH02201206A (en) * 1989-01-31 1990-08-09 Mazda Motor Corp Method and apparatus for detecting position
JP2786070B2 (en) * 1993-01-29 1998-08-13 セントラル硝子株式会社 Inspection method and apparatus for transparent plate
JP2582215B2 (en) * 1993-03-26 1997-02-19 鹿島建設株式会社 3D position and orientation measurement method
JP2000146526A (en) * 1998-11-12 2000-05-26 Toshiba Corp Method and device for alignment
JP3703411B2 (en) * 2001-07-19 2005-10-05 ファナック株式会社 Work picking device
JP4351472B2 (en) * 2003-06-04 2009-10-28 本田技研工業株式会社 Method and apparatus for mounting window glass for automobiles

Also Published As

Publication number Publication date
JP2013050468A (en) 2013-03-14

Similar Documents

Publication Publication Date Title
CN101712403B (en) Learning device for article storage facility
US20100245542A1 (en) Device for computing the excavated soil volume using structured light vision system and method thereof
JP2017019072A (en) Position measurement system
CN107560834A (en) Vehicle head lamp is directed at system and method
JP5546292B2 (en) Inspection apparatus and inspection method
CN106865085B (en) Article conveying apparatus
CN111301259A (en) Automatic butt-joint filling system and method for transport vehicle and truck and computer storage medium
JP2001252883A (en) Movable robot system
US11964833B2 (en) Camera-enabled loader system and method
JP5648674B2 (en) Work position detection system
JP5332122B2 (en) Work position detection system and work position detection method
KR20060056572A (en) Bridge inspecting system capable of coordinate confirmation about image
CN113739090B (en) Automatic illumination device
US11908722B2 (en) Automatic teaching of substrate handling for production and process-control tools
JPH10128689A (en) Visual correcting device of unmanned movable body
WO2022190635A1 (en) Transport unit, transport method, and transport program
US20210269257A1 (en) Apparatus and method for positioning an object
WO2022190634A1 (en) Transport possibility determining device, distance measuring device, transportation unit, transport possibility determining method, and transport possibility determining program
WO2022190628A1 (en) Conveyance platform detection device and conveyance platform detection system comprising same, conveyance platform detection method, and conveyance platform detection program
WO2022190629A1 (en) Conveying state detecting device, conveying state detecting system provided with same, conveying state detecting method, and conveying state detecting program
JP6381182B2 (en) Device with robot arm
JPH11291187A (en) Load position attitude recognizing device
JPH05337785A (en) Grinding path correcting device of grinder robot
US10228235B2 (en) Device for measuring gap and step for vehicle, and system for measuring gap and step including the same
JPH08167800A (en) Part mounting equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R151 Written notification of patent or utility model registration

Ref document number: 5648674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees