JPH10300424A - Helmet position detecting device - Google Patents

Helmet position detecting device

Info

Publication number
JPH10300424A
JPH10300424A JP9105580A JP10558097A JPH10300424A JP H10300424 A JPH10300424 A JP H10300424A JP 9105580 A JP9105580 A JP 9105580A JP 10558097 A JP10558097 A JP 10558097A JP H10300424 A JPH10300424 A JP H10300424A
Authority
JP
Japan
Prior art keywords
helmet
image
projection part
projection
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9105580A
Other languages
Japanese (ja)
Inventor
Tsuneyoshi Takahashi
常悦 高橋
Kiyohide Abe
清秀 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP9105580A priority Critical patent/JPH10300424A/en
Publication of JPH10300424A publication Critical patent/JPH10300424A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect the stepped position of a projection part by irradiating a slit light to the projection part preliminarily provided on a helmet, photographing the irradiated projection part, and arithmetically processing the resulting image signal. SOLUTION: When a laser beam source 1 irradiates a laser beam 9 to a projection part 6 obliquely from 45 under a photographing means 2, a bright line 10 is bent and produced according to the shape of the projection part 6. The periphery of the projection part 6 within a helmet is photographed by the photographing means 2, whereby an image having a bright line 11 can be provided. An analog image signal 13 showing this image 12 is transmitted from the means 2 to an image processing device. When the screen left upper corner is taken as the origin 0 of an XY coordinate system, and the screen horizontal direction and vertical direction are taken as X-axis and Y-axis, respectively, the line 11 of the image 12 is laid along X-direction, but dislocated in Y-direction in the middle in the form corresponding to the sectional form of the projection part 6 to form a stepped part 14. Thus, the X-coordinate value of the stepped part 14 in the image 12 is determined, whereby the position of the projection part 6 of the helmet, or the position of the helmet itself can be judged.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はヘルメットの位置を
画像処理により検出する装置に関する。
The present invention relates to an apparatus for detecting the position of a helmet by image processing.

【0002】[0002]

【従来の技術】工場や現場用のヘルメットをロボットに
より加工する工程ではヘルメットの位置決めが必要であ
るが、従来は、人手作業により位置決めを行っていた。
その一例を、図8及び図9に基づいて説明する。
2. Description of the Related Art In a process of processing a helmet for a factory or a site by a robot, it is necessary to position the helmet. In the past, the helmet was manually positioned.
One example will be described with reference to FIGS.

【0003】図8に側方から見て示すように、ヘルメッ
ト101を加工する場合、治具102に逆さまに載せら
れる。この場合、位置決めのため、図9に上方から見て
示すように、ヘルメット101内面の特定部位に予め成
形時に型で小さな突起部103を付けておく。また、治
具102の縁部上面に予めけがき線104を付けてお
く。そして、作業員が治具102上のヘルメット101
を手で回し、突起部103とけがき線104の位置を目
視で合わせて、ヘルメット101の位置(水平回転角)
を一定にする。
As shown in FIG. 8, when the helmet 101 is processed, the helmet 101 is placed on a jig 102 upside down. In this case, for positioning, as shown in FIG. 9 as seen from above, a small projection 103 is previously attached to a specific portion of the inner surface of the helmet 101 by a mold at the time of molding. Also, a scribe line 104 is provided in advance on the upper surface of the edge of the jig 102. Then, the worker enters the helmet 101 on the jig 102.
Is turned by hand, and the positions of the protrusion 103 and the scribe line 104 are visually checked to determine the position of the helmet 101 (horizontal rotation angle).
Constant.

【0004】ヘルメット101は例えばガラス繊維と樹
脂を主材料とし、通常、略半円球状に成形されている。
ヘルメット101の加工としては、成形時に縁部からは
み出たガラス繊維105を除去する加工、顎紐、裏張
り、耳防護具等の部品を取り付ける加工等が挙げられ
る。
The helmet 101 is mainly made of, for example, glass fiber and resin, and is usually formed in a substantially semi-spherical shape.
Examples of the processing of the helmet 101 include a processing of removing the glass fiber 105 protruding from the edge at the time of molding, a processing of attaching parts such as a chin strap, a backing, and ear protection.

【0005】しかし、人手作業の位置決めでは、加工工
程の自動化が困難である。
However, in manual positioning, it is difficult to automate the processing steps.

【0006】画像処理を用いてヘルメット101の位置
を検出することができれば、自動化が可能であるが、現
状では次のような問題点がある。 (1)ヘルメット101が半円球形状であるため、その
ままでは、捉えどころがなく、画像処理により特定部位
を計測するのが困難である。 (2)ヘルメット101の成形時に予め計測用に突起部
を型で付けたとしても、突起部がヘルメット101と同
色であるため、通常の画像処理では、突起部の計測は困
難である。 (3)ヘルメット101が半円球形状をしているため、
照明等も問題になる。例えば、照明がヘルメット101
に映ってしまうと、これを誤って突起部と判断する恐れ
がある。
If the position of the helmet 101 can be detected by using image processing, automation can be performed. However, at present, there are the following problems. (1) Since the helmet 101 has a semi-spherical shape, it is difficult to measure a specific part by image processing without any attention as it is. (2) Even if a projection is used for measurement in advance during the molding of the helmet 101, it is difficult to measure the projection by ordinary image processing because the projection has the same color as the helmet 101. (3) Since the helmet 101 has a semicircular shape,
Lighting is also a problem. For example, if the lighting is a helmet 101
If this is reflected in the projection, there is a risk that this is erroneously determined as a projection.

【0007】[0007]

【発明が解決しようとする課題】本発明は、上記従来技
術の問題点に鑑み、ヘルメットの位置を画像処理により
検出できる装置を提供することを課題とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide an apparatus capable of detecting the position of a helmet by image processing in view of the above-mentioned problems of the prior art.

【0008】[0008]

【課題を解決するための手段】請求項1に係る発明のヘ
ルメット位置検出装置は、ヘルメットに予め付けた突起
部にスリット光を照射する光源と、スリット光が照射さ
れた突起部を撮像する撮像手段と、撮像手段からの画像
信号を演算処理して前記突起部の段差位置を検出する画
像処理装置を具備することを特徴とするものである。
According to a first aspect of the present invention, there is provided a helmet position detecting apparatus for irradiating a projection provided on a helmet with slit light, and an imaging device for imaging the projection irradiated with the slit light. Means, and an image processing device for calculating an image signal from the imaging means to detect a step position of the protrusion.

【0009】請求項2に係る発明のヘルメット位置検出
装置は、前記ヘルメットに付けられた突起部の形状が帯
状であり、前記光源はこの帯状の突起部に2本のスリッ
ト光を照射するものであること特徴とするものである。
According to a second aspect of the present invention, there is provided a helmet position detecting apparatus, wherein a projection attached to the helmet has a band shape, and the light source irradiates the band-shaped projection with two slit lights. There is a feature.

【0010】[0010]

【発明の実施の形態】以下、図面に基づいて本発明の実
施の形態を説明する。なお、図1〜図5は本発明の第1
の実施の形態に関し、図1はヘルメット位置検出装置の
構成例を示し、図2は突起部を型として有するヘルメッ
トの例を示し、図3はヘルメットの突起部と光源及び撮
像手段の位置関係の例を示し、図4は撮像した画像の例
を示し、図5は画像処理の計測原理を示す。図6〜図7
は本発明の第2の実施の形態に関し、図6はヘルメット
位置検出装置の構成例を示し、図7は画像処理の計測原
理を示す。
Embodiments of the present invention will be described below with reference to the drawings. 1 to 5 show the first embodiment of the present invention.
1 shows an example of a configuration of a helmet position detecting device, FIG. 2 shows an example of a helmet having a projection as a mold, and FIG. 3 shows a positional relationship between the projection of the helmet, a light source, and an imaging unit. 4 shows an example of a captured image, and FIG. 5 shows a measurement principle of image processing. 6 and 7
FIG. 6 shows a configuration example of a helmet position detecting device, and FIG. 7 shows a measurement principle of image processing.

【0011】(第1の実施の形態)図1〜図5に基づ
き、本発明の第1の実施の形態を説明する。
(First Embodiment) A first embodiment of the present invention will be described with reference to FIGS.

【0012】図1に例示するヘルメット位置検出装置は
主として、レーザー光源1と、撮像手段2と、画像処理
装置3で構成し、治具4上に逆さまに載置したヘルメッ
ト5の水平回転角度(位置)を検出するものとしてあ
る。そのため、ヘルメット5内面の予め定めた特定部位
に、予めヘルメット成形時に、図2に例示するように突
起部6を型として付けてある。撮像手段2はCCDカメ
ラ等のカメラ部7とレンズ部8で構成してある。図1
中、15はパーソナルコンピュータ(パソコン)、16
はキーボード、17はモニター(画像表示装置)、18
はビデオプリンターを示す。
The helmet position detecting device exemplified in FIG. 1 mainly includes a laser light source 1, an image pickup means 2, and an image processing device 3, and a horizontal rotation angle of a helmet 5 placed upside down on a jig 4 ( Position). For this reason, a protrusion 6 is formed as a mold at a predetermined specific portion on the inner surface of the helmet 5 when molding the helmet in advance, as illustrated in FIG. The imaging means 2 comprises a camera section 7 such as a CCD camera and a lens section 8. FIG.
Among them, 15 is a personal computer, 16
Is a keyboard, 17 is a monitor (image display device), 18
Indicates a video printer.

【0013】レーザー光源1と撮像手段2は、光切断法
により物体の外形形状を観測するために用いている。図
3に示すように、レーザー光源1は細いスリットを通し
たやや末広がりのスリット光(以下、レーザー光と呼
ぶ)9をヘルメット5内面の突起部6に向けて照射す
る。撮像手段2は、レーザー光9の照射によりヘルメッ
ト5内面に生じる明るい線10を、レーザー光9の光軸
に対して斜めから撮影する。
The laser light source 1 and the imaging means 2 are used for observing the external shape of an object by a light cutting method. As shown in FIG. 3, the laser light source 1 irradiates a slightly divergent slit light (hereinafter, referred to as laser light) 9 through a narrow slit toward the projection 6 on the inner surface of the helmet 5. The imaging unit 2 captures a bright line 10 generated on the inner surface of the helmet 5 by the irradiation of the laser light 9 obliquely with respect to the optical axis of the laser light 9.

【0014】ヘルメット5は通常治具4上の略定位置に
載置されるが、位置ずれを十分許容して確実に撮影を行
えるように、本実施例では、図2に示すように、細長い
帯状の突起部6をヘルメット5のひさし部分を除き、前
端付近から中央の頂部を通り後端に達するまで形成して
ある。突起部6は例えば高さ1mm以上、幅2mm以上
の断面形状を持つ細さとする。また、レーザー光9は位
置ずれを十分許容して突起部6に照射できる幅に設定し
てある。更に、撮像手段2の視野の大きさも位置ずれを
十分許容して線10を撮像できる広さ、例えばヘルメッ
ト5内面上で約50mm平方となるようにしてある。
The helmet 5 is usually placed at a substantially fixed position on the jig 4, but in this embodiment, as shown in FIG. Except for the eaves of the helmet 5, the belt-shaped projection 6 is formed from the vicinity of the front end to the top of the center to the rear end. The protruding portion 6 has, for example, a thickness of 1 mm or more in height and a cross-sectional shape of 2 mm or more in width. Further, the laser beam 9 is set to have such a width as to allow the position of the laser beam 9 to sufficiently irradiate the protruding portion 6 while allowing the positional deviation sufficiently. Further, the size of the field of view of the imaging means 2 is set to have a width enough to allow the positional deviation to image the line 10, for example, about 50 mm square on the inner surface of the helmet 5.

【0015】本例では、レーザー光源1は、レーザー光
9の幅方向が水平面と平行で、かつ、光軸が水平に対し
上から下へ斜め45度傾いた状態で、レーザー光9を突
起部6の後端付近に照射するように配置してある。更
に、撮像手段2は、その光軸が鉛直方向下向きとなり、
かつ、その視野の横方向が水平面と平行(つまり、レー
ザー光9の幅方向と同じ)になるように配置してある。
従って、レーザー光源1は撮像手段2の斜め45度下か
らレーザー光9を突起部6に照射する。
In this embodiment, the laser light source 1 emits the laser light 9 in a protruding portion in a state where the width direction of the laser light 9 is parallel to the horizontal plane, and the optical axis is inclined at an angle of 45 degrees from top to bottom with respect to the horizontal. 6 is arranged to irradiate near the rear end. Further, the imaging unit 2 has its optical axis directed vertically downward,
In addition, they are arranged so that the horizontal direction of the visual field is parallel to the horizontal plane (that is, the same as the width direction of the laser light 9).
Therefore, the laser light source 1 irradiates the projection 6 with the laser light 9 from obliquely below the imaging unit 2 by 45 degrees.

【0016】レーザー光9がヘルメット5内面の突起部
6に当たると、図3に例示するように、明るい線10は
突起部6の形状に応じて屈曲して生じる。そこで、撮像
手段2でヘルメット5内面の突起部6周辺を撮影するこ
とにより、図4に例示するような明るい線11を有する
画像12が得られる。この画像12を表すアナログ画像
信号13が撮像手段2から画像処理装置3へ送られる。
本発明ではヘルメット5の位置検出に、画像12中の明
るい線11を積極的に利用する。
When the laser beam 9 strikes the projection 6 on the inner surface of the helmet 5, a bright line 10 is formed by bending according to the shape of the projection 6, as shown in FIG. Therefore, by photographing the vicinity of the protrusion 6 on the inner surface of the helmet 5 by the imaging means 2, an image 12 having a bright line 11 as illustrated in FIG. 4 is obtained. An analog image signal 13 representing the image 12 is sent from the imaging means 2 to the image processing device 3.
In the present invention, the bright line 11 in the image 12 is positively used for detecting the position of the helmet 5.

【0017】即ち、図4において、画面左上隅をXY座
標系の原点Oにとり、画面横方向をX軸、画面縦方向を
Y軸とすると、画像12中の線11は基本的にはX方向
に沿うが、途中では突起部6の断面形状に対応した形で
Y方向(本例ではY方向下向き)にずれて、段差部14
が生じる。そこで、画像12中の段差部14のX座標値
が求まれば、ヘルメット5の突起部6の位置、従ってヘ
ルメット5自体の位置が判る。
That is, in FIG. 4, if the upper left corner of the screen is the origin O of the XY coordinate system, the horizontal direction of the screen is the X axis, and the vertical direction of the screen is the Y axis, the line 11 in the image 12 is basically in the X direction. In the Y direction (downward in the Y direction in this example) corresponding to the cross-sectional shape of the projection 6 on the way, and
Occurs. Therefore, if the X coordinate value of the step portion 14 in the image 12 is obtained, the position of the protrusion 6 of the helmet 5, that is, the position of the helmet 5 itself can be determined.

【0018】段差部14のX座標値は線11中でY座標
値が大きく変化した所である。画像処理装置3は、撮像
手段2から画像12のアナログ画像信号13を入力し、
ディジタルデータ化して記憶すると共にこの記憶したデ
ータを読み出して演算処理するという画像処理を行い、
線11中でY座標値が大きく変化したX座標値、即ちレ
ーザ光9を照射した突起部6の段差位置を計測すること
により、ヘルメット5の位置を検出する。
The X-coordinate value of the step portion 14 is where the Y-coordinate value changes greatly in the line 11. The image processing device 3 inputs the analog image signal 13 of the image 12 from the imaging unit 2,
It performs image processing of storing it as digital data and reading out the stored data and performing arithmetic processing.
The position of the helmet 5 is detected by measuring the X coordinate value in which the Y coordinate value greatly changes in the line 11, that is, the step position of the projection 6 irradiated with the laser light 9.

【0019】次に、下記(1)〜(9)により、段差部
14のX座標値を計測するための画像処理装置3におけ
る画像処理手法の一例を説明する。
Next, an example of an image processing method in the image processing apparatus 3 for measuring the X coordinate value of the step portion 14 will be described with reference to the following (1) to (9).

【0020】(1)まず、図5に示すように、X方向i
番目(例えば、kをX方向の全画素数とするとi=1〜
k、通常はk=512)の画素毎に、Y方向に計測ライ
ンLiを発生させ、計測ラインLi と線11との交点の
Y座標値Yi を計測する。例えば、計測ラインLi 上で
最も明るい画素を記憶したデータから抽出することによ
り、Y座標値Yi を計測する。
(1) First, as shown in FIG.
(For example, if k is the total number of pixels in the X direction, i = 1 to
k, usually for each pixel of the k = 512), to generate a measurement line L i in the Y direction, measures the Y-coordinate value Y i of the intersection of the measurement line L i and the line 11. For example, by extraction from storing the brightest pixel on the measurement line L i data, measures the Y-coordinate value Y i.

【0021】(2)そして、2本の計測ライン、例えば
隣接する2本の計測ラインLi-1 、L i で計測した1対
のY座標値Yi-1 、Yi 毎にその差Yi −Yi-1 を求
め、下記数1のように順次設定値YC と比較する。
(2) Then, two measurement lines, for example,
Two adjacent measurement lines Li-1, L iOne pair measured by
Y coordinate value ofi-1, YiThe difference Yi-Yi-1Seeking
Therefore, the set value Y is sequentially calculated as in the following equationCCompare with

【数1】 (Y2 −Y1 ) >Yc (Y3 −Y2 ) >Yc ・ ・ ・ (Yi −Yi-1 )>Yc ・ ・ ・ (Yk −Yk-1 )>Yc ・・・数1(Y 2 −Y 1 )> Y c (Y 3 −Y 2 )> Y c ··· (Y i -Y i -1 )> Y c ··· (Y k −Y k -1) )> Yc ... Equation 1

【0022】(3)上記の比較から、2本の計測ライン
i-1 、Li で計測した1対のY座標値の差Yi −Y
i-1 が設定値YC より大きい場合を探し、右側の計測ラ
インLiのX座標値Xi を段差部14のX軸上左端位置
候補として検出する。なお、ヘルメット5が半円球の形
状をしているために突起部6が無くても線11は厳密に
は直線とならずそのY座標値が変化するが、突起部6が
存在する場合に比べるとY座標値の差は小さく極端に変
化しないため、段差部14と間違えることはない。設定
値YC はこのような観点から設定してある。
(3) From the above comparison, the difference Y i -Y between a pair of Y coordinate values measured on the two measurement lines L i-1 and L i.
i-1 is looking for when it is greater than the set value Y C, to detect the X-coordinate value X i of the right measurement line L i as X on the axis leftmost position candidate of the step portion 14. In addition, since the helmet 5 has a semicircular shape, the line 11 is not strictly a straight line and its Y coordinate value changes even if there is no protrusion 6, but when the protrusion 6 exists, In comparison, since the difference between the Y coordinate values is small and does not change extremely, it is not mistaken for the step portion 14. The set value Y C is set from such a viewpoint.

【0023】(4)次に、ノイズと間違えないようにす
るため、一定幅同様の値を指した場合に、Xi を段差部
14のX軸上左端位置XCLとして確定する。例えば、図
5(a)に示すように、計測ラインLi を間に挟む2本
の計測ラインLi-1 、Li+n で計測した1対のY座標値
i-1 、Yi+n の差Yi+n −Yi-1 を求めて設定値YC
と比較し、Yi+n −Yi-1 がYC より大きい場合に、段
差が続いていると判定して計測ラインLi の位置Xi
段差部14のX軸上左端位置XCLとして確定する。Y
i+n −Yi-1 がYC 以下の場合は、ノイズと判断して上
記(3)の処理を続ける。nは段差部14の幅に相当す
る画素数以下であれば良く、図5(a)(b)では簡単
のためn=1としている。
(4) Next, in order to avoid a mistake with noise, when a value similar to a certain width is indicated, X i is determined as the left end position X CL of the step portion 14 on the X axis. For example, as shown in FIG. 5 (a), Y-coordinate value Y i-1 of the pair which is measured by the measuring line L i of two sandwiching measurement line L i-1, L i + n, Y i + n difference Y i + n −Y i-1 and set value Y C
Compared with, Y i + n -Y i- 1 is greater than Y C, step is followed by being judged to X on the axis left end position of the stepped portion 14 of the position X i of the measurement line L i X CL Is determined. Y
If i + n -Y i-1 is less than Y C, continuing the process (3) determines that the noise. n may be equal to or less than the number of pixels corresponding to the width of the step portion 14. In FIGS. 5A and 5B, n is set to 1 for simplicity.

【0024】(5)左端位置XCLを確定した後は、隣接
する2本の計測ラインLi-1 、Li で計測した1対のY
座標値Yi-1 、Yi 毎に、今度は、Yi-1 −Yi を差と
して求め、下記数2のように順次設定値YC と比較す
る。
(5) After the left end position X CL is determined, a pair of Ys measured on two adjacent measurement lines L i-1 and L i.
This time, for each of the coordinate values Y i−1 and Y i , Y i−1 −Y i is obtained as a difference, and is sequentially compared with the set value Y C as shown in the following Expression 2.

【数2】 (Yi-1 −Yi ) >Yc (Yi −Yi+1 ) >Yc ・ ・ ・ (Yk-1 −Yk ) >Yc ・・・数2(Y i−1 −Y i )> Y c (Y i −Y i + 1 )> Y c (Y k−1 −Y k )> Y c Equation 2

【0025】(6)そして、2本の計測ラインLi-1
i で計測した1対のY座標値の差Y i-1 −Y1 が設定
値YC より大きい場合を探し、右側の計測ラインLi
X座標値Xi を段差部14のX軸上右端位置候補として
検出する。
(6) Then, two measurement lines Li-1,
LiDifference Y of a pair of Y coordinate values measured in i-1-Y1Is set
Value YCLook for the case where is larger than the right measurement line Liof
X coordinate value XiAs a candidate for the right end position on the X axis of the step portion 14
To detect.

【0026】(7)この場合もノイズと間違えないよう
にするため、一定幅同様の値を指した場合に、Xi を段
差部14のX軸上右端位置XCRとして確定する。例え
ば、図5(b)に示すように、計測ラインLi を間に挟
む2本の計測ラインLi-1 、Li+ 1 で計測した1対のY
座標値Yi-1 、Yi+1 の差Yi-1 −Yi+1 を設定値YC
と比較し、Yi-1 −Yi+1 がYC より大きい場合に、段
差が続いていると判定して計測ラインLi の位置Xi
段差部14のX軸上右端位置XCRとして確定する。Y
i-1 −Yi+1 がYC 以下の場合は、ノイズと判断して上
記(6)の処理を続ける。
[0026] (7) In order to avoid confusion with this case noise, when pointing to the constant width similar value, to determine the X i as X on the axis right end position X CR of the step portion 14. For example, as shown in FIG. 5 (b), 2 pieces of measurement lines sandwiching measurement line L i L i-1, L i a pair measured at + 1 Y
Coordinate values Y i-1, Y i + 1 of the difference Y i-1 -Y i + 1 the set value Y C
Compared with, Y i-1 -Y i + 1 is larger than Y C, step is followed by being judged to X on the axis right end position of the stepped portion 14 of the position X i of the measurement line L i X CR Is determined. Y
If i-1 -Y i + 1 is equal to or less than Y C, continuing the process (6) it is determined that noise.

【0027】(8)更に、左端位置XCLと右端位置XCR
との平均値XC (=(XCL+XCR/2)を演算して段差
部14のX座標値とする。
(8) Further, the left end position X CL and the right end position X CR
The average value X C (= (X CL + X CR / 2)) is calculated as the X coordinate value of the step portion 14.

【0028】(9)このX座標値XC はヘルメット5の
位置(水平回転角)に対応したものであるから、XC
算出でヘルメット5の位置を検出したことになる。必要
があれば、適宜な座標変換により、段差部14のX座標
値XC から所望の座標系でのヘルメット5の位置を算出
する。
(9) Since the X coordinate value X C corresponds to the position (horizontal rotation angle) of the helmet 5, the position of the helmet 5 has been detected by calculating X C. If necessary, the position of the helmet 5 in a desired coordinate system is calculated from the X coordinate value X C of the step portion 14 by appropriate coordinate conversion.

【0029】なお、図1において、パーソナルコンピュ
ータ15とキーボード16で画像処理装置3の制御ある
いはパラメータ入力等を行い、モニター17で画像処理
前後の画像あるいは計測結果等の表示を行い、ビデオプ
リンター18で画像処理前あるいは後の画像を印刷して
出力する。
In FIG. 1, the personal computer 15 and the keyboard 16 control the image processing apparatus 3 or input parameters. The monitor 17 displays images before and after the image processing or the measurement results. Print and output the image before or after image processing.

【0030】(第2の実施の形態)次に、図6及び図7
に基づき、本発明の第2の実施の形態を説明する。図6
〜図7は本発明の第2の実施の形態に関し、図6はヘル
メット位置検出装置の構成例を示し、図7は画像処理の
計測原理を示す。
(Second Embodiment) Next, FIG. 6 and FIG.
Based on the above, a second embodiment of the present invention will be described. FIG.
7 to FIG. 7 relate to a second embodiment of the present invention, FIG. 6 shows a configuration example of a helmet position detecting device, and FIG. 7 shows a measurement principle of image processing.

【0031】図6に例示するヘルメット位置検出装置
は、ヘルメットの細長い帯状の突起部6に2本のレーザ
ー光9、9Aを照射するために、図1に示したヘルメッ
ト位置検出装置のレーザー光源1及び撮像手段2に対し
てレーザー光源1A及び撮像手段2Aを1組追加したも
のである。追加したレーザー光源1A及び撮像手段2A
は、レーザー光源1及び撮像手段2と同様の構成である
が、レーザー光9、9Aの照射で生じる明るい線10、
10Aの位置及び撮像視野が突起部6の長さ方向にずれ
るように配置してある。
The helmet position detecting device illustrated in FIG. 6 irradiates two laser beams 9 and 9A onto the elongated belt-like projection 6 of the helmet, so that the laser light source 1 of the helmet position detecting device shown in FIG. And one set of a laser light source 1A and an imaging unit 2A are added to the imaging unit 2. Additional laser light source 1A and imaging means 2A
Has the same configuration as the laser light source 1 and the imaging means 2, but has bright lines 10 generated by the irradiation of the laser lights 9 and 9A.
The position of 10A and the field of view are arranged so as to be shifted in the length direction of the projection 6.

【0032】本例ではレーザー光源1のレーザー光9で
照射されて生じる明るい線10は撮像手段2のみで撮像
し、レーザー光源1Aのレーザー光9Aで照射されて生
じる明るい線10Aは撮像手段2Aのみで撮像し、図7
(a)(b)に示すように撮像手段2、2Aの画像1
2、12Aにそれぞれ明るい線11、11Aが入るよう
にしている。
In this embodiment, a bright line 10 generated by irradiation with the laser light 9 of the laser light source 1 is imaged only by the image pickup means 2, and a bright line 10A generated by irradiation by the laser light 9A of the laser light source 1A is formed only by the image pickup means 2A. FIG. 7
(A) As shown in (b), the image 1 of the imaging means 2, 2A
Bright lines 11 and 11A are inserted into 2 and 12A, respectively.

【0033】画像処理装置3は、撮像手段2からのアナ
ログ画像信号13と撮像手段2Aからのアナログ画像信
号13Aとを入力し、それぞれディジタルデータ化して
記憶すると共にこれらの記憶したデータを読み出して演
算処理するという画像処理を行うことにより、線11中
でY座標値が大きく変化した所のXY座標値、即ちレー
ザ光9を照射した突起部6の段差位置を計測し、更に、
線12A中でY座標値が大きく変化した所のXY座標
値、即ちレーザ光9Aを照射した突起部6の段差位置を
計測して、ヘルメット5の位置及び傾きを検出する。
The image processing device 3 receives the analog image signal 13 from the image pickup means 2 and the analog image signal 13A from the image pickup means 2A, converts them into digital data and stores them. By performing the image processing of processing, the XY coordinate value at the place where the Y coordinate value greatly changes in the line 11, that is, the step position of the projection 6 irradiated with the laser light 9 is measured.
The position and the inclination of the helmet 5 are detected by measuring the XY coordinate values where the Y coordinate values greatly change in the line 12A, that is, the step positions of the projections 6 irradiated with the laser light 9A.

【0034】下記(1)〜(4)により、本例の画像処
理装置3における画像処理手法の一例を説明する。
An example of an image processing method in the image processing apparatus 3 of this embodiment will be described with reference to the following (1) to (4).

【0035】(1)まず、第1の実施の形態と同じ手法
により、ヘルメットの位置として、図7(a)に示すよ
うに、線11中の段差部14のX座標値XC1を求める。
その際、段差部14のY座標値YC1も求める。このY座
標値YC1は、例えば、Y軸上の左端位置YCL1 の確定に
用いた計測ラインLi における線11のY座標値YiL 1
と、Y軸上の右端位置YCR1 の確定に用いた計測ライン
i における線11のY座標値YiR1 とを用い、式YC1
=(YiL1 +YiR1 )/2の演算で求めることができ
る。
(1) First, as shown in FIG. 7A, the X coordinate value X C1 of the step portion 14 in the line 11 is obtained as the position of the helmet by the same method as in the first embodiment.
At this time, the Y coordinate value Y C1 of the step 14 is also obtained. The Y-coordinate value Y C1, for example, Y-coordinate value Y iL 1 line 11 in the measurement line L i used in the determination of the left end position Y CL1 on the Y axis
When, using the Y coordinate value Y iR1 of the line 11 in the measurement line L i used in the determination of the right end position Y CR1 on the Y axis, wherein Y C1
= (Y iL1 + Y iR1 ) / 2.

【0036】(2)同様の手法で、図7(b)に示すよ
うに、線11A中の段差部14AのX座標値XC2とY座
標値YC2を求める。このY座標値YC2はY軸上の左端位
置Y CL2 の確定に用いた計測ラインLi における線11
AのY座標値YiL2 と、Y軸上の右端位置YCR2 の確定
に用いた計測ラインLi における線11AのY座標値Y
iR2 とを用い、式YC2=(YiL2 +YiR2 )/2の演算
で求まる。
(2) By the same method, as shown in FIG.
Thus, the X coordinate value X of the step 14A in the line 11AC2And Y
Standard value YC2Ask for. This Y coordinate value YC2Is the leftmost position on the Y axis
Place Y CL2Measurement line L used to determineiLine 11 at
Y coordinate value Y of AiL2And the right end position Y on the Y axisCR2Confirmation
Measurement line L used foriY coordinate value of line 11A at
iR2And the formula YC2= (YiL2+ YiR2) / 2 operation
Is determined by

【0037】(3)次に、段差部14のXY座標値(X
C1,YC1)と、段差部14AのXY座標値(XC1
C1)とから、下記数3により傾きθを求める。
(3) Next, the XY coordinate values (X
C1 , YC1 ) and the XY coordinate values ( XC1 ,
Y C1 ), the inclination θ is obtained by the following equation (3).

【数3】 θ=arctan{(YC1−YC2)/(XC1−XC2)} ・・・数3Θ = arctan {(Y C1 −Y C2 ) / (X C1 −X C2 )}

【0038】(4)上記X座標値XC1はヘルメットの位
置(水平回転角度)に対応したものであるから、ヘルメ
ット5の位置を検出したことになる。また、上記傾きθ
はヘルメットの傾きに対応したものであるから、θの算
出でヘルメットの傾きを検出したことになる。必要があ
れば、適宜な座標変換により、X座標値XC1及び傾きθ
から所望の座標系でのヘルメット5の位置及び傾きを算
出する。
(4) Since the X coordinate value X C1 corresponds to the position of the helmet (horizontal rotation angle), the position of the helmet 5 is detected. In addition, the inclination θ
Corresponds to the inclination of the helmet, so that the inclination of the helmet is detected by calculating θ. If necessary, the X coordinate value X C1 and the inclination θ can be obtained by appropriate coordinate conversion.
, The position and inclination of the helmet 5 in the desired coordinate system are calculated.

【0039】上記第2の実施の形態では2本のレーザー
9、9Aを照射するのに2台のレーザー光源1、1Aを
用いたが、1台の光源で2本のスリット光を照射するよ
うに構成しても良い。また。上記第2の実施の形態では
ヘルメット内面に生じた2本の明るい線10、10Aを
2台の撮像手段2、2Aで別々に撮像したが、1台の光
源で2本明るい線10、10Aを撮像するように構成し
ても良い。この場合、2本の明るい線11、11A及び
それぞれの段差部14、14Aが同一画面中に上下に現
れるが、2回に分けて上下の線11、11Aの段差部1
4、14Aを抽出して計測すれば良い。例えば下記
(1)(2)等の手法を用いる。 (1)各計測ライン毎に上から下に走査して2本の線と
の交点を2個計測し、そのうち上側の交点の座標値のみ
を用いて上側の明るい線の段差部を抽出し、下側の交点
の座標値のみを用いて下側の明るい線の段差部を抽出
し、得られた上下各段差部のXY座標値からヘルメット
5の位置及び傾きθを求める。 (2)各計測ライン毎に例えば上から下に走査して最初
の1本の線との交点を計測し、得られた交点の座標値を
用いて上側の明るい線の段差部を抽出し、次に各計測ラ
イン毎に逆に下から上に走査して最初の1本の線との交
点を計測し、得られた交点の座標値を用いて下側の明る
い線の段差部を抽出し、得られた上下各段差部のXY座
標値からヘルメット5の位置及び傾きθを求める。
In the second embodiment, two laser light sources 1 and 1A are used to irradiate two lasers 9 and 9A. However, two slit light beams are radiated by one light source. May be configured. Also. In the second embodiment, the two bright lines 10 and 10A generated on the inner surface of the helmet are separately imaged by the two imaging units 2 and 2A. However, the two bright lines 10 and 10A are generated by one light source. You may comprise so that it may image. In this case, the two bright lines 11 and 11A and the step portions 14 and 14A respectively appear above and below on the same screen, but are divided into two steps and the step portions 1 of the upper and lower lines 11 and 11A are divided.
What is necessary is just to extract and measure 4, 14A. For example, the following methods (1) and (2) are used. (1) For each measurement line, scan from top to bottom to measure two intersections with the two lines, and use only the coordinate values of the upper intersection to extract the step portion of the upper bright line, The step of the lower bright line is extracted using only the coordinate values of the lower intersection, and the position and inclination θ of the helmet 5 are obtained from the obtained XY coordinate values of the upper and lower steps. (2) For each measurement line, for example, scan from top to bottom to measure the intersection with the first line, and extract the step portion of the upper bright line using the coordinate values of the obtained intersection, Next, reversely scan each measurement line from bottom to top to measure the intersection with the first line, and extract the step of the lower bright line using the coordinate values of the obtained intersection. Then, the position and the inclination θ of the helmet 5 are obtained from the obtained XY coordinate values of the upper and lower steps.

【0040】[0040]

【発明の効果】以上説明したように、請求項1の発明に
よれば、ヘルメットに予め付けた突起部にスリット光を
照射する光源と、スリット光が照射された突起部を撮像
する撮像手段と、撮像手段からの画像信号を演算処理し
て前記突起部の段差位置を検出する画像処理装置を具備
することにより、ヘルメットの位置を画像処理手法で検
出することができるので、下記の効果がある。 (1)ヘルメットの加工工程の自動化ができる。 (2)白、黄、緑、赤、青など全ての色のヘルメットに
対応できる。
As described above, according to the first aspect of the present invention, there is provided a light source for irradiating a projection provided on a helmet with slit light, and an imaging means for imaging the projection irradiated with the slit light. By providing an image processing device for calculating the image signal from the imaging means and detecting the step position of the protrusion, the position of the helmet can be detected by the image processing method, and the following effects are obtained. . (1) The helmet processing process can be automated. (2) It can support helmets of all colors such as white, yellow, green, red, and blue.

【0041】また、請求項2の発明によれば、ヘルメッ
トに付けられる突起部の形状が帯状であり、この帯状の
突起部に2本のスリット光を照射することにより、ヘル
メットの位置に加えて、傾きを検出することができる。
According to the second aspect of the present invention, the shape of the projection attached to the helmet is band-shaped, and by irradiating the slit-shaped projection with two slit lights, the position of the helmet can be increased. , Inclination can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係るヘルメット位
置検出装置の構成を示す図。
FIG. 1 is a diagram showing a configuration of a helmet position detecting device according to a first embodiment of the present invention.

【図2】突起部を型として有するヘルメットの斜視図。FIG. 2 is a perspective view of a helmet having a projection as a mold.

【図3】ヘルメットの突起部、光源及び撮像手段の位置
関係の例を示す図。
FIG. 3 is a diagram illustrating an example of a positional relationship among a protrusion of a helmet, a light source, and an imaging unit.

【図4】撮像した画像の例を示す図。FIG. 4 is a diagram showing an example of a captured image.

【図5】画像処理の計測原理を示す図。FIG. 5 is a diagram showing a measurement principle of image processing.

【図6】本発明の第2の実施の形態に係るヘルメット位
置検出装置の構成を示す図。
FIG. 6 is a diagram showing a configuration of a helmet position detecting device according to a second embodiment of the present invention.

【図7】画像処理の計測原理を示す図。FIG. 7 is a diagram showing a measurement principle of image processing.

【図8】従来の人手作業による位置決めを示すヘルメッ
ト及び治具の側面図。
FIG. 8 is a side view of a helmet and a jig showing positioning by a conventional manual operation.

【図9】従来の人手作業による位置決めを示すヘルメッ
ト及び治具の平面図。
FIG. 9 is a plan view of a helmet and a jig showing positioning by a conventional manual operation.

【符号の説明】[Explanation of symbols]

1、1A レーザー光源 2、2A 撮像手段 3 画像処理装置 4 治具 5 ヘルメット 6 突起部 7 カメラ部 8 レンズ部 9、9A レーザー光(スリット光) 10、10A ヘルメット内面に生じた明るい線 11、11A 画像中の明るい線 12、12A 画像 13、13A アナログ画像信号 14、14A 段差部 DESCRIPTION OF SYMBOLS 1, 1A Laser light source 2, 2A Imaging means 3 Image processing device 4 Jig 5 Helmet 6 Projection part 7 Camera part 8 Lens part 9, 9A Laser light (slit light) 10, 10A Bright line generated on inner surface of helmet 11, 11A Bright line in image 12, 12A Image 13, 13A Analog image signal 14, 14A Step

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ヘルメットに予め付けた突起部にスリッ
ト光を照射する光源と、スリット光が照射された突起部
を撮像する撮像手段と、撮像手段からの画像信号を演算
処理して前記突起部の位置を検出する画像処理装置を具
備することを特徴とするヘルメット位置検出装置。
1. A light source for irradiating a projection on a helmet with slit light, an imaging unit for capturing an image of the projection irradiated with the slit light, and an image signal from the imaging unit being arithmetically processed to generate the projection. A helmet position detecting device comprising an image processing device for detecting the position of the helmet.
【請求項2】 前記ヘルメットに付けられた突起部の形
状が帯状であり、前記光源はこの帯状の突起部に2本の
スリット光を照射するものであること特徴とする請求項
2に記載のヘルメット位置検出装置。
2. The helmet according to claim 2, wherein the helmet has a strip-shaped projection, and the light source irradiates the strip-shaped projection with two slit lights. Helmet position detection device.
JP9105580A 1997-04-23 1997-04-23 Helmet position detecting device Pending JPH10300424A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9105580A JPH10300424A (en) 1997-04-23 1997-04-23 Helmet position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9105580A JPH10300424A (en) 1997-04-23 1997-04-23 Helmet position detecting device

Publications (1)

Publication Number Publication Date
JPH10300424A true JPH10300424A (en) 1998-11-13

Family

ID=14411451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9105580A Pending JPH10300424A (en) 1997-04-23 1997-04-23 Helmet position detecting device

Country Status (1)

Country Link
JP (1) JPH10300424A (en)

Similar Documents

Publication Publication Date Title
EP1555507B1 (en) Three-dimensional visual sensor
JPWO2006135040A1 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
JP5053947B2 (en) Shape quality determination method and shape quality determination device
JPH07107514B2 (en) Display method and display device in substrate inspection apparatus
JP7073138B2 (en) Inspection device for gaming machines, inspection method for gaming machines, and manufacturing method for gaming machines
JPH10300424A (en) Helmet position detecting device
JPH09175457A (en) Distortion inspection method and distortion inspection device
JP2006234554A (en) Method and device for inspecting pattern
KR101665764B1 (en) Drawing apparatus, substrate processing system and drawing method
CN110852278B (en) Ground identification line recognition method, ground identification line recognition equipment and computer-readable storage medium
TW201346247A (en) Defect correction device and defect correction method
JP2014077685A (en) Device and method for detecting pattern defects
JP2929701B2 (en) Surface texture observation device
JP3589512B2 (en) Inspection point marking method for microfabricated products, automatic dimension inspection method and automatic dimension inspection device
JP2001324455A (en) Visual inspection apparatus for mounting substrate
JP4428392B2 (en) Mark position recognition device and mark position recognition method
JP4863029B2 (en) Mark position recognition device and mark position recognition method
JPH04166709A (en) Surface-state observing apparatus
JP3618599B2 (en) Concavity and convexity detection apparatus and method
JPH06281421A (en) Image processing method
JP2002252744A (en) Image processing unit
JP2630034B2 (en) Lead bending measuring device
JP2007163266A (en) Inspection device and inspection method
JPH10105718A (en) Optical measurement method for hole position
JPH10105720A (en) Optical measurement method for hole position

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050105