JP2000241135A - Method of detecting contour of object and method of identifying object - Google Patents

Method of detecting contour of object and method of identifying object

Info

Publication number
JP2000241135A
JP2000241135A JP11047288A JP4728899A JP2000241135A JP 2000241135 A JP2000241135 A JP 2000241135A JP 11047288 A JP11047288 A JP 11047288A JP 4728899 A JP4728899 A JP 4728899A JP 2000241135 A JP2000241135 A JP 2000241135A
Authority
JP
Japan
Prior art keywords
projection line
contour
plane
line
reference projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11047288A
Other languages
Japanese (ja)
Other versions
JP3945931B2 (en
Inventor
Mamoru Saito
守 斎藤
Teruaki Fujikawa
輝昭 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Osaka City
Original Assignee
Hitachi Zosen Corp
Osaka City
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp, Osaka City filed Critical Hitachi Zosen Corp
Priority to JP04728899A priority Critical patent/JP3945931B2/en
Publication of JP2000241135A publication Critical patent/JP2000241135A/en
Application granted granted Critical
Publication of JP3945931B2 publication Critical patent/JP3945931B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a contour detecting method whereby the contour of an object can be accurately detected, irrespective of the surface shape of the object and even if a slit light is used. SOLUTION: In a method of detecting the contour of an object 2 mounted on a conveyer 3, a plurality of slit lights 5 are projected from above the conveyer 3 so that the respective projection lines array like one line on the conveyer 3 as seen from right and left, a camera 8 photographs a specified range including this one line, say, reference projection line, the image of an object 2 taken by the camera 8 is recorded as binary data in an image memory 2 composed of pixels sectioned by a plurality of longitudinal lines parallel to the reference projection line and a plurality of transverse lines perpendicular to the reference line, the difference between data of the transverse pixel columns in the image memory and data of the transverse reference pixel columns obtained by photographing the reference projection line in the image memory is obtained, and the position on a pixel column where this difference exceeds a preset value is determined to be the contour of the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば平面上に載
置された物体の輪郭を検出するための物体輪郭検出方法
および物体を識別するための物体識別方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object outline detecting method for detecting an outline of an object placed on a plane, and an object identifying method for identifying the object.

【0002】[0002]

【従来の技術】従来、物体の形状を自動的に検出する場
合、カメラ装置を使用するとともに、その撮影画像に所
定の画像処理を施すことにより、例えばその輪郭などが
求められていた。具体的には、光を物体の上方から照射
して全体をカメラ装置などで撮影するか、またはスリッ
ト光を照射してその一部分の外形を検出する動作を全体
に亘って行い、物体の輪郭が検出されていた。
2. Description of the Related Art Heretofore, in the case of automatically detecting the shape of an object, a camera device has been used and a predetermined image processing has been performed on the photographed image to obtain, for example, its outline. Specifically, light is irradiated from above the object and the whole is photographed by a camera device or the like, or an operation of irradiating slit light and detecting the outer shape of a part of the whole is performed, and the contour of the object is Had been detected.

【0003】[0003]

【発明が解決しようとする課題】上述したように、カメ
ラ装置により物体全体を撮影する方法では、物体の表面
性状や照明条件に依存し、物体と背景のコントラストが
不明瞭である場合、物体の表面に文字や模様がある場
合、物体の影が背景に投影されている場合などには、正
確に物体の輪郭を抽出することができないという問題が
あった。
As described above, in the method of photographing the entire object by the camera device, the contrast of the object depends on the surface properties of the object and the lighting conditions. When there are characters or patterns on the surface, or when the shadow of the object is projected on the background, there is a problem that the contour of the object cannot be accurately extracted.

【0004】また、スリット光を使用する場合、光源を
どのような位置においても、物体の形状によっては、影
が生じてしまい、物体の境界点が誤って検出され、した
がって物体の輪郭を正確に検出することができないとい
う問題があった。そこで、本発明は、物体の表面性状、
表面形状に関係なく、物体の輪郭を検出することができ
るとともに、スリット光を使用した場合でも、その輪郭
を正確に検出し得る物体輪郭検出方法および物体識別方
法を提供することを目的とする。
In addition, when slit light is used, a shadow is generated depending on the shape of the object at any position of the light source, and a boundary point of the object is erroneously detected. There was a problem that it could not be detected. Therefore, the present invention provides a surface property of an object,
It is an object of the present invention to provide an object contour detection method and an object identification method that can detect the contour of an object regardless of the surface shape and can accurately detect the contour even when slit light is used.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の物体輪郭検出方法は、平面上に載置
された物体の輪郭を検出する方法であって、上記平面の
上方から複数本のスリット光線を、それぞれの投影線が
1本に重なるように上記平面上に投影し、この1本に重
なった基準投影線を含む所定範囲をカメラ装置により撮
影するようになし、かつこのカメラ装置により平面上の
物体を撮影した際に、物体の表面に生じる複数本の表面
投影線が、基準投影線に対して位置ずれが生じた箇所を
物体の輪郭とみなす方法である。
According to a first aspect of the present invention, there is provided a method for detecting an outline of an object placed on a plane, the method comprising the steps of: A plurality of slit light beams are projected from above onto the plane such that the respective projection lines overlap with one another, and a predetermined range including the reference projection line overlapping with the one is captured by the camera device, In addition, when the camera device photographs an object on a plane, a position where a plurality of surface projection lines generated on the surface of the object are displaced from the reference projection line is regarded as an outline of the object.

【0006】上記の物体輪郭検出方法によると、複数本
のスリット光線を物体に投光して物体の表面を撮影して
その輪郭を検出するようにしているので、例えば一本の
スリット光線を使用する場合に比べて、死角が殆ど生じ
ることがなく、したがって複雑な形状を有する物体や、
複数ある物体の輪郭の検出に対して、検出の信頼性が高
くなる。
According to the above-described method for detecting the contour of an object, a plurality of slit light beams are projected on the object, the surface of the object is photographed, and the contour is detected. Blind spots hardly occur compared to the case where
The reliability of detection for detecting the contours of a plurality of objects increases.

【0007】また、本発明の第2の物体輪郭検出方法
は、平面上に載置された物体の輪郭を検出する方法であ
って、上記平面の上方から複数本のスリット光線を、そ
れぞれの投影線が1本に重なるように上記平面上に投影
し、この1本に重なった基準投影線を含む所定範囲をカ
メラ装置により撮影するようになし、このカメラ装置に
より撮影された画像を、基準投影線と平行な複数本の縦
線および基準投影線に垂直な複数本の横線により区画さ
れた複数個の画素より成る画像記録部に2値化データと
して記録し、この画像記録部における横方向の各画素行
のデータと基準投影線を撮影して得られた横方向の基準
画素行のデータとの差を求め、この差が設定値を越えた
画素行における位置を物体の輪郭とする方法である。
A second object contour detecting method according to the present invention is a method for detecting the contour of an object placed on a plane, wherein a plurality of slit light beams are projected from above the plane. The lines are projected onto the plane so as to overlap with one another, and a predetermined range including the reference projection line overlapping with the single line is photographed by a camera device. The image data is recorded as binary data in an image recording unit composed of a plurality of pixels partitioned by a plurality of vertical lines parallel to the line and a plurality of horizontal lines perpendicular to the reference projection line. The difference between the data of each pixel row and the data of the reference pixel row in the horizontal direction obtained by photographing the reference projection line is obtained, and the position in the pixel row where the difference exceeds the set value is used as the contour of the object. is there.

【0008】上記の輪郭検出方法によると、輪郭の検出
に際して、物体の表面に生じる表面投影線と、平面上に
生じる基準投影線とを撮影した画像を2値化データとし
て記録させるとともに、両者の差に基づき輪郭を検出す
るようにしているので、非常に簡単な演算だけで済み、
したがってリアルタイムで処理するのに非常に適してお
り、しかも物体の表面性状、表面形状などに拘わらず正
確に物体の輪郭を検出することができる。
According to the above-described contour detection method, upon detecting a contour, an image obtained by photographing a surface projection line generated on the surface of an object and a reference projection line generated on a plane is recorded as binary data. Since the contour is detected based on the difference, only a very simple calculation is required.
Therefore, it is very suitable for processing in real time, and can accurately detect the contour of the object regardless of the surface properties and surface shape of the object.

【0009】さらに、本発明の物体識別方法は、平面上
に載置された物体を識別する方法であって、上記平面の
上方から複数本のスリット光線を、それぞれの投影線が
1本に重なるように上記平面上に投影し、この1本に重
なった基準投影線を含む所定範囲をカメラ装置により撮
影するようになし、このカメラ装置により撮影された画
像を、基準投影線と平行な複数本の縦線および基準投影
線に垂直な複数本の横線により区画された複数個の画素
より成る画像記録部に2値化データとして記録し、この
画像記録部における横方向の各画素行のデータと基準投
影線を撮影して得られた横方向の基準画素行のデータと
の差を求め、この差が設定値を越えた画素行における位
置を物体の輪郭とみなし、かつ上記得られた物体の輪郭
に基づき物体の投影面積を求めるとともに、この投影面
積と設定面積値とを比較することにより、所定の物体で
あるか否かを識別する方法である。
Further, the object identification method according to the present invention is a method for identifying an object placed on a plane, wherein a plurality of slit rays from above the plane are overlapped by one. In this manner, a predetermined range including the reference projection line overlapped with one of the projection lines is projected by the camera device, and an image captured by the camera device is transferred to a plurality of parallel images parallel to the reference projection line. Is recorded as binarized data in an image recording unit composed of a plurality of pixels divided by a plurality of horizontal lines perpendicular to the vertical line and the reference projection line, and data of each pixel row in the horizontal direction in the image recording unit is Obtain the difference from the data of the horizontal reference pixel row obtained by capturing the reference projection line, consider the position in the pixel row where the difference exceeds the set value as the contour of the object, and Project objects based on contours Together determine the area, by comparing the with the specified area size value this projected area is a method for identifying whether a predetermined object.

【0010】上記物体識別方法によると、上記物体輪郭
検出方法と同じ方法により検出された物体の輪郭の投影
面積を求めるとともに、この投影面積値と予め求められ
ている識別すべき所定の物体の投影面積である設定面積
値とを比較するようにしたので、所定の物体を、容易に
かつ確実に識別することができる。
According to the object identification method, the projection area of the contour of the object detected by the same method as the object contour detection method is determined, and the projection area value is calculated in advance with the projection of the predetermined object to be identified. Since the comparison is made with the set area value which is the area, the predetermined object can be easily and reliably identified.

【0011】[0011]

【発明の実施の形態】以下、本発明の実施の形態におけ
る物体輪郭検出方法および物体識別方法を、図1〜図8
に基づき説明する。本実施の形態においては、例えば廃
棄物の中から再利用が不可能なごみ(以下、不適物とい
う)を検出するために、物体である廃棄物を搬送体上に
載置して移動させながら、カメラ装置で撮影してその輪
郭を検出するとともに、この輪郭に基づき不適物である
か否かを識別する場合について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an object contour detecting method and an object identifying method according to an embodiment of the present invention will be described with reference to FIGS.
It will be described based on. In this embodiment, for example, in order to detect waste that cannot be reused from waste (hereinafter, referred to as unsuitable), the waste, which is an object, is placed on a transport body and moved. A case will be described in which an image is captured by a camera device, the outline is detected, and whether or not the object is inappropriate is identified based on the outline.

【0012】まず、物体の輪郭を検出するとともにこの
輪郭に基づき不適物を識別するための物体検出識別装置
について説明する。図1および図2に示すように、この
物体検出識別装置1は、物体2を所定の搬送経路Kに沿
って移動させる搬送体、例えばベルトコンベア(以下、
単に、コンベアという)3の上方に立設された支持架台
4と、この支持架台4の上部に配置されて、複数本例え
ば6本(勿論、6本に限定されるものではなく、少なく
とも2本以上であればよい)のスリット光線5を、搬送
方向において前後からコンベア3上に、それぞれの投影
線6が1本に重なるように投光する投光器7と、上記支
持架台4の上部に設けられかつ1本に重なった基準投影
線6Sを含む所定範囲(例えば、基準投影線の左右一定
距離範囲内であり、検出領域ともいう)を撮影するため
のCCDが使用されたカメラ装置8と、このカメラ装置
8で撮影された画像を入力して、物体2の輪郭を検出す
るとともに、物体2が資源化ごみ以外の不適物であるか
否かを識別するための演算処理装置(コンピュータ装
置)9とから構成されている。なお、上記カメラ装置8
は、通常は、基準投影線6Sの真上に設けられるるとと
もに、その両側(搬送方向で言えば前後両側、基準投影
線を中心にすればその左右両側)からスリット光線5が
投影される。このカメラ装置8と基準投影線6Sとの関
係を一般的に言えば、少なくとも複数本のスリット光線
5が、カメラ装置8と基準投影線6Sとを結ぶ平面の両
側から投影されていればよい。
First, an object detection / identification device for detecting an outline of an object and identifying an inappropriate object based on the outline will be described. As shown in FIGS. 1 and 2, the object detection / identification device 1 includes a carrier that moves an object 2 along a predetermined transport path K, for example, a belt conveyor (hereinafter, referred to as a belt conveyor).
A support base 4 erected above a conveyor 3; and a plurality of, for example, six (of course, not limited to six) And a projector 7 for projecting the slit light beam 5 onto the conveyor 3 from the front and rear in the transport direction such that the respective projection lines 6 overlap with one another, and provided above the support base 4. A camera device 8 using a CCD for photographing a predetermined range (for example, within a fixed left and right distance of the reference projection line and also referred to as a detection area) including the single reference projection line 6S; An image processing device (computer device) 9 for inputting an image captured by the camera device 8 to detect the contour of the object 2 and to determine whether the object 2 is an unsuitable object other than recyclable garbage. And composed from To have. The camera device 8
Is usually provided directly above the reference projection line 6S, and the slit light beam 5 is projected from both sides thereof (the front and rear sides in the transport direction, and the left and right sides when the reference projection line is the center). Generally speaking, the relationship between the camera device 8 and the reference projection line 6S only needs to be such that at least a plurality of slit rays 5 are projected from both sides of a plane connecting the camera device 8 and the reference projection line 6S.

【0013】上記投光器7は、図3に示すように、例え
ば光源としての直管蛍光灯11と、この直管蛍光灯11
の下部に配置されてその光を平行光線に偏光するための
偏光フィルタ12と、この偏光フィルタ12の下方に配
置されて6本のスリット光線5を出射させる凸レンズ1
3などから構成されている。上記演算処理装置9には、
図示しないが、物体の輪郭を検出する輪郭検出部および
この輪郭検出部で検出された輪郭に基づき物体が資源化
ごみ以外の不適物であるか否かを識別するための物体識
別部とが具備されている。
As shown in FIG. 3, the light projector 7 includes, for example, a straight tube fluorescent lamp 11 as a light source, and the straight tube fluorescent lamp 11.
A polarizing lens 12 disposed below the polarizing filter 12 for polarizing the light into parallel rays, and a convex lens 1 disposed below the polarizing filter 12 and emitting six slit rays 5
3 and the like. The arithmetic processing unit 9 includes:
Although not shown, a contour detection unit for detecting the contour of the object and an object identification unit for identifying whether or not the object is an unsuitable object other than recyclable waste based on the contour detected by the contour detection unit are provided. Have been.

【0014】上記輪郭検出部は、撮影画像を記録する画
像メモリ(画像記録部)と、この画像メモリに記録され
たデータと基準投影線だけを撮影したデータとを比較す
ることにより、すなわち基準投影線と物体の表面に投影
された表面投影線とを比較して、物体の境界点を抽出し
輪郭を検出する比較検出部とから構成されている。図4
に示すように、上記画像メモリ21においては、撮影さ
れた物体の画像は、縦方向(物体の搬送方向と直交する
方向)のm列×横方向(物体の搬送方向と平行な方向)
のn行よりなる多数の画素[ピクセル(pixelであ
り、以下、pixで表わす)22に分割された状態で得
られるとともに、これら各画素22には、投影線6の有
無に応じて、2値化データすなわち「1」と「0」のデ
ータが記録される(格納される)。
The outline detecting section compares the data recorded in the image memory (image recording section) with data obtained by photographing only the reference projection line, that is, the reference projection. A comparison detection unit that compares the line with a surface projection line projected on the surface of the object, extracts a boundary point of the object, and detects an outline. FIG.
As shown in the figure, in the image memory 21, the image of the photographed object is represented by m columns × horizontal direction (direction parallel to the object conveyance direction) in the vertical direction (direction orthogonal to the object conveyance direction).
Is obtained by being divided into a large number of pixels [pixels (hereinafter, referred to as "pix") 22 composed of n rows, and each of the pixels 22 has a binary Data, that is, data of “1” and “0” is recorded (stored).

【0015】例えば、図5に示すように、コンベア3上
の物体2に投光されたスリット光線5の投影である表面
投影線6Pがそれぞれの位置で表面に沿って複数本現わ
れることになり、カメラ装置8によるこの撮影画像は、
図6に示すような状態で、画像メモリ21に記録され
る。すなわち、画像メモリ21における複数本のスリッ
ト光線5は、物体がないコンベア3上では、1本の基準
投影線6Sとして、また物体2上では、基準投影線6S
からずれた位置に、それぞれ表面投影線6Pとして現わ
れ、したがって各画素に対応するメモリには、投影線6
の有無に応じて、「1」と「0」のデータが記録される
ことになる。
For example, as shown in FIG. 5, a plurality of surface projection lines 6P, which are projections of the slit ray 5 projected on the object 2 on the conveyor 3, appear along the surface at each position. This image captured by the camera device 8 is
In the state as shown in FIG. That is, the plurality of slit rays 5 in the image memory 21 are converted into one reference projection line 6S on the conveyor 3 having no object, and
At the position deviated from the projection line 6P, the memory corresponding to each pixel stores the projection line 6P.
"1" and "0" data are recorded according to the presence or absence of.

【0016】なお、上記画像メモリ21の横方向の列幅
は、例えば基準投影線の幅の所定倍数、具体的には、少
なくとも5倍程度の幅を有するようにされる。また、比
較検出部には、物体2の表面に現われた複数本の表面投
影線6Pを撮影した画像と、基準投影線6Sだけを撮影
した画像との差、すなわち2値化データの差を求める演
算回路が具備されている。
The column width of the image memory 21 in the horizontal direction is, for example, a predetermined multiple of the width of the reference projection line, specifically, at least about five times. In addition, the comparison and detection unit obtains a difference between an image obtained by capturing the plurality of surface projection lines 6P appearing on the surface of the object 2 and an image obtained by capturing only the reference projection line 6S, that is, a difference between binary data. An arithmetic circuit is provided.

【0017】この演算回路では、画像メモリ21におけ
る横一列である画素行のデータ列(1×m画素)がm次
元ベクトルとみなされ、下記(1)式に示すように、基
準投影線6Sだけを撮影した1画素行(基準画素行)の
データ列である基準ベクトルfxと、複数本の表面投影
線6Pを撮影した各画素行のデータ列である撮影ベクト
ルfi(i=1〜m)とのユークリッド距離(ベクトル
の各成分同士の差の合計絶対値で表わされ、パターンマ
ッチングともいう)Sが求められるとともに、このユー
クリッド距離Sと所定の閾値(設定値)とが比較され
る。例えば、この閾値は、「1」以上の数値が設定され
る。
In this arithmetic circuit, a data row (1 × m pixels) of a horizontal pixel row in the image memory 21 is regarded as an m-dimensional vector, and only the reference projection line 6S is obtained as shown in the following equation (1). Is a data row of one pixel row (reference pixel row) that captures the image, and a shooting vector f i (i = 1 to m ) that is a data row of each pixel row that captures a plurality of surface projection lines 6P. ) (Which is represented by the total absolute value of the difference between the components of the vector and is also referred to as pattern matching) S is determined, and the Euclidean distance S is compared with a predetermined threshold (set value). . For example, a numerical value of “1” or more is set as the threshold.

【0018】[0018]

【数1】 具体的に説明すれば、図6に示すように、表面投影線6
Pのi行目の撮影ベクトル値fiが(00001000
0)である場合には、基準ベクトルfxも(00001
0000)であるため、ユークリッド距離Siはゼロと
なるが、表面投影線6Pのk行目のベクトル値fk
(011000101)である場合には、基準ベクトル
x(000010000)を減算すると、ユークリッ
ド距離Skは、5個所での値が互いに異なるため、
「5」となる。
(Equation 1) More specifically, as shown in FIG.
P of the i-th row of shooting vector value f i is (00001000
If it is 0), the reference vector f x also (00001
0000), the Euclidean distance S i becomes zero. However, when the vector value f k of the k-th row of the surface projection line 6P is (011000101), subtracting the reference vector f x (000000100000) gives Since the Euclidean distance S k has different values at five places,
It becomes “5”.

【0019】そして、図7示すように、このようにして
得られた各ユークリッド距離Siが予め設定された閾値
以上(「1」以上)となる最初の画素行の縦方向の座標
値y h,および最終の画素行の縦方向の座標値ylを取得
し、これらの値が、物体2の輪郭を示す境界点23とし
て抽出される。したがって、上述した輪郭検出部におけ
る境界点の抽出動作を、一定のサンプリング周期Tごと
に、すなわち所定間隔置きに(コンベアの速度V×T)
かつ物体の全長に亘って繰り返して行うことにより、図
7に示すように、それぞれの境界点23が求められると
ともに、これら各境界点23同士を接続することによ
り、物体2の輪郭24が得られる。
Then, as shown in FIG.
Each Euclidean distance S obtainediIs a preset threshold
Vertical coordinates of the first pixel row that is above ("1" or more)
Value y h, And the vertical coordinate value y of the last pixel rowlGet
These values are used as boundary points 23 indicating the outline of the object 2.
Extracted. Therefore, in the above-described contour detection unit,
The extraction operation of the boundary point is performed every fixed sampling period T
At a predetermined interval (conveyor speed V × T)
And by repeating over the entire length of the object,
As shown in FIG. 7, when each boundary point 23 is obtained
By connecting these boundary points 23 together,
Thus, an outline 24 of the object 2 is obtained.

【0020】上述したように、物体2が載置されて移動
しているコンベア3上において1本の投影線に重なるよ
うに複数本のスリット光線5を物体2の表面に投光する
とともに、この物体2の表面をカメラ装置8により撮影
した画像を、縦横に区画された複数個の画素からなる画
像メモリ21に2値化データとして記録し、そしてその
画像メモリ21の横一列の各画素行におけるデータと、
基準投影線だけを撮影した横一列の画素行のデータとの
ユークリッド距離を求め、そしてこのユークリッド距離
が所定の閾値以上であるかどうか比較することにより、
物体2の境界点23を抽出し、すなわち物体2の輪郭2
4を検出するようにしているので、物体2の表面性状、
表面形状に関系なく確実にその輪郭24を検出すること
ができる。また、複数本のスリット光線を左右から投光
するようにしているので、例えば一本のスリット光線を
使用する場合に比べて死角が殆ど生じることがなく、し
たがって複雑な形状を有する物体や、複数ある物体の輪
郭の検出に対して、検出の信頼性が高くなる。
As described above, a plurality of slit light beams 5 are projected on the surface of the object 2 so as to overlap one projection line on the conveyor 3 on which the object 2 is placed and moving. An image obtained by photographing the surface of the object 2 by the camera device 8 is recorded as binary data in an image memory 21 composed of a plurality of pixels divided vertically and horizontally, and is stored in each pixel row in one horizontal row of the image memory 21. Data and
By calculating the Euclidean distance with the data of the horizontal row of pixel rows taken only of the reference projection line, and comparing whether this Euclidean distance is equal to or greater than a predetermined threshold,
The boundary point 23 of the object 2 is extracted, that is, the contour 2 of the object 2 is extracted.
4, the surface properties of the object 2,
The contour 24 can be reliably detected regardless of the surface shape. In addition, since a plurality of slit light beams are projected from the left and right, a blind spot hardly occurs compared to, for example, the case of using a single slit light beam. For detecting the contour of a certain object, the detection reliability is improved.

【0021】また、輪郭の検出に際して、物体の表面に
生じる表面投影線と、平面上に生じる基準投影線とを撮
影した画像を2値化データとして記録させるとともに、
両者の差に基づき、輪郭を検出するようにしているの
で、非常に簡単な演算だけで済み、したがってリアルタ
イムで処理するのに非常に適しており、しかも物体に対
する照明条件、物体の表面性状、表面形状に拘わらず、
また物体と背景とのコントラストが不明瞭である場合、
および物体の表面に文字や模様がある場合などにおいて
も、正確に物体の輪郭を検出することができる。
In detecting the contour, an image obtained by photographing a surface projection line generated on the surface of the object and a reference projection line generated on a plane is recorded as binary data.
Since the contour is detected based on the difference between the two, very simple calculations are required, and therefore, it is very suitable for processing in real time. In addition, the lighting conditions for the object, the surface properties of the object, and the surface Regardless of the shape,
If the contrast between the object and the background is unclear,
Also, even when there are characters or patterns on the surface of the object, the contour of the object can be detected accurately.

【0022】次に、物体識別部には、上記輪郭検出部で
得られた輪郭24に基づき、物体2の投影面積(例え
ば、画素の個数から求められる)Sを求める面積演算部
と、輪郭24における最大フィレ径に相当する最大幅L
(図7参照)を求める幅演算部と、これら両演算部で求
められた投影面積Sと最大幅Lとに基づき、物体2が不
適物であるか否かを判断して識別するための判断部とが
具備されている。
Next, the object discriminating section includes an area calculating section for calculating a projection area (for example, obtained from the number of pixels) S of the object 2 based on the contour 24 obtained by the contour detecting section; Width L corresponding to the maximum fillet diameter at
(See FIG. 7), and a determination for determining whether or not the object 2 is inappropriate based on the projection area S and the maximum width L obtained by the two calculation units. Unit is provided.

【0023】そして、上記面積演算部では、図7に示す
ように、例えば前回のサンプリングで得られた上下(搬
送方向とは直交する方向)の境界点23a,23bの座
標値と、今回のサンプリングで得られた上下の境界点2
3c,23dの座標値とにより、台形の部分面積をその
面積公式により求め、そしてこの部分面積を、物体の全
長に亘って加算することにより、物体2の投影面積Sが
求められる。
As shown in FIG. 7, for example, the area calculating section calculates the coordinate values of the upper and lower boundary points 23a and 23b obtained in the previous sampling (in the direction orthogonal to the transport direction) and the current sampling point. Upper and lower boundary points 2 obtained by
The projection area S of the object 2 is obtained by calculating the trapezoidal partial area by the area formula using the coordinate values of 3c and 23d, and adding this partial area over the entire length of the object.

【0024】また、幅演算部では、物体2の各境界点2
3の座標値から輪郭24における最大幅Lが求められ
る。したがって、容易に、物体2の最大フィレ径に相当
する最大幅Lを求めることができる。さらに、判断部に
おいては、上記各演算部で求められた投影面積Sおよび
最大幅Lに基づき、物体が不適物であるか否かが判断さ
れる。
In the width calculating section, each boundary point 2
The maximum width L in the outline 24 is obtained from the coordinate value of No. 3. Therefore, the maximum width L corresponding to the maximum fillet diameter of the object 2 can be easily obtained. Further, the determination unit determines whether or not the object is inappropriate based on the projection area S and the maximum width L obtained by each of the calculation units.

【0025】具体的には、図8のグラフに示すように、
予め、搬送される廃棄物に含まれる資源化ごみ(缶、ガ
ラスボトル、PETボトルなど)および不適物の輪郭か
らその投影面積Sおよびその最大幅Lを実験から求め、
そしてこれらのデータをグラフにプロットすることによ
り、資源化ごみと不適物とを識別可能な値、例えば投影
面積値を抽出する。
Specifically, as shown in the graph of FIG.
In advance, the projected area S and the maximum width L of the recyclable garbage (cans, glass bottles, PET bottles, etc.) and unsuitable objects contained in the conveyed waste are determined from experiments,
Then, by plotting these data on a graph, a value that can discriminate the recyclable waste from the unsuitable material, for example, a projected area value is extracted.

【0026】例えば、図8のグラフから判るように、黒
印で示した不適物の面積Sについては、4×104pi
2(平方ピクセル、例えば1平方ピクセルは1mm2
度とされ、したがって4×104mm2に相当)以上の値
では、全てが不適物であり、また最大フィレ径である最
大幅Lについても、300pix(この場合、300m
mに相当)以下である場合に、一升瓶、ビール瓶、PE
Tボトルなどを除けば、殆どの資源化ごみよりも大きい
値となる。
For example, as can be seen from the graph of FIG. 8, the area S of an unsuitable object indicated by a black mark is 4 × 10 4 pi
With a value of x 2 or more (a square pixel, for example, one square pixel is about 1 mm 2 , and therefore is equivalent to 4 × 10 4 mm 2 ), everything is inappropriate and the maximum width L, which is the maximum fillet diameter, is also , 300 pix (in this case, 300 m
m), if it is less than one bottle, beer bottle, PE
Excluding T bottles, the value is larger than that of most recyclable waste.

【0027】したがって、搬送される物体2の投影面積
Sが、4×104pix2以上で、しかも最大幅Lが30
0pix以下である場合に、不適物であると判断、すな
わち識別される。このように、少なくとも、検出された
物体の輪郭に基づき得られた投影面積を、予め実験など
なにより求められた不適物であると判断し得る設定面積
値と比較するようにしているので、容易かつ正確に、物
体が不適物であるか否かを識別することができる。
Therefore, the projected area S of the object 2 to be conveyed is 4 × 10 4 pix 2 or more and the maximum width L is 30
If it is 0 pix or less, it is determined to be inappropriate, that is, identified. As described above, at least the projected area obtained based on the detected contour of the object is compared with a set area value which can be determined in advance as an unsuitable object by an experiment or the like, so that it can be easily performed. In addition, it is possible to accurately determine whether or not the object is inappropriate.

【0028】なお、上記投影器の光源としては、特定波
長の単色光が用いられるとともに、この波長の光のみを
受光できる光学フィルタがカメラ装置に装着されてい
る。ところで、上記実施の形態においては、投光器から
複数本のスリット光線を形成するのに、偏光フィルタ、
凸レンズなどを用いたが、例えば図9に示すように、複
数個のスリット光源31を、その出射されるスリット光
線32の先端部が一個所に集まるように、その出射方向
をそれぞれ変えて設置するようにしたものでもよい。
As the light source of the projector, monochromatic light of a specific wavelength is used, and an optical filter capable of receiving only light of this wavelength is mounted on the camera device. By the way, in the above embodiment, a polarizing filter,
Although a convex lens or the like is used, for example, as shown in FIG. 9, a plurality of slit light sources 31 are installed with their emission directions changed so that the tips of the emitted slit light beams 32 are gathered at one place. Such a configuration may be used.

【0029】また、上記実施の形態においては、物体と
して廃棄物を説明したが、例えば通行量を調べるため
に、道路上の人間や車両を検出または識別する場合に
も、適用することができる。
In the above embodiment, waste is described as an object. However, the present invention can be applied to, for example, detecting or identifying a person or a vehicle on a road in order to check a traffic amount.

【0030】[0030]

【発明の効果】以上のように本発明の物体輪郭検出方法
によると、複数本のスリット光線を物体に投光して物体
の表面を撮影してその輪郭を検出するようにしているの
で、従来のように、一本のスリット光線を使用する場合
に比べて、死角が殆ど生じることがなく、したがって複
雑な形状を有する物体や、複数ある物体の輪郭の検出に
対して、検出の信頼性が高くなる。
As described above, according to the object contour detecting method of the present invention, a plurality of slit light beams are projected on the object to photograph the surface of the object and detect the contour. As compared to the case where a single slit beam is used, there is almost no blind spot, and therefore, detection of objects having a complicated shape or contours of a plurality of objects has a high detection reliability. Get higher.

【0031】また、輪郭の検出に際して、物体の表面に
生じる表面投影線と、平面上に生じる基準投影線とを撮
影した画像を2値化データとして記録させるとともに、
両者の差に基づき、輪郭を検出するようにしているの
で、非常に簡単な演算だけで済み、したがってリアルタ
イムで処理するのに非常に適しており、しかも物体に対
する照明条件、物体の表面性状、表面形状に拘わらず、
また物体と背景とのコントラストが不明瞭である場合、
および物体の表面に文字や模様がある場合などにおいて
も、正確に物体の輪郭を検出することができる。
In detecting the contour, an image obtained by photographing the surface projection line generated on the surface of the object and the reference projection line generated on the plane is recorded as binary data.
Since the contour is detected based on the difference between the two, very simple calculations are required, and therefore, it is very suitable for processing in real time. In addition, the lighting conditions for the object, the surface properties of the object, and the surface Regardless of the shape,
If the contrast between the object and the background is unclear,
Also, even when there are characters or patterns on the surface of the object, the contour of the object can be detected accurately.

【0032】さらに、上記と同じ検出方法により検出さ
れた物体の輪郭の投影面積を求めるとともに、この投影
面積値と、予め求められている識別すべき所定の物体の
投影面積である設定面積値とを比較するようにしたの
で、所定の物体を、容易かつ確実に識別することができ
る。
Further, the projection area of the contour of the object detected by the same detection method as described above is obtained, and this projection area value and a preset area value which is a predetermined projection area of a predetermined object to be identified are determined. Are compared, a predetermined object can be easily and reliably identified.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態における物体の輪郭の検出
および識別を行うための装置の概略構成を示す側面図で
ある。
FIG. 1 is a side view showing a schematic configuration of an apparatus for detecting and identifying an outline of an object according to an embodiment of the present invention.

【図2】同装置における投光器の概略構成を示す斜視図
である。
FIG. 2 is a perspective view showing a schematic configuration of a light projector in the same device.

【図3】同投光器の要部構成を示す側面図である。FIG. 3 is a side view showing a main configuration of the light projector.

【図4】同装置における画像メモリの構成を示す平面図
である。
FIG. 4 is a plan view showing a configuration of an image memory in the device.

【図5】同装置において、物体上に投影した際の投影線
を示す平面図である。
FIG. 5 is a plan view showing a projection line when the image is projected on an object in the apparatus.

【図6】同装置における撮影画像の画像メモリを示す平
面図である。
FIG. 6 is a plan view showing an image memory of a captured image in the apparatus.

【図7】同装置により撮影された物体の輪郭を示す平面
図である。
FIG. 7 is a plan view showing an outline of an object photographed by the device.

【図8】本発明の実施の形態における物体識別方法を説
明するための物体の最大幅と投影面積との関係を示すグ
ラフである。
FIG. 8 is a graph illustrating a relationship between a maximum width of an object and a projected area for describing an object identification method according to an embodiment of the present invention.

【図9】同装置における投光器の変形例の要部構成を示
す側面図である。
FIG. 9 is a side view showing a configuration of a main part of a modification of the light projector in the same device.

【符号の説明】[Explanation of symbols]

1 物体検出識別装置 2 物体 3 ベルトコンベア 5 スリット光線 6 投影線 6S 基準投影線 6P 表面投影線 7 投光器 8 カメラ装置 21 画像メモリ 22 画素 23 境界点 24 輪郭 DESCRIPTION OF SYMBOLS 1 Object detection identification apparatus 2 Object 3 Belt conveyor 5 Slit ray 6 Projection line 6S Reference projection line 6P Surface projection line 7 Projector 8 Camera device 21 Image memory 22 Pixel 23 Boundary point 24 Contour

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA12 AA22 AA51 AA58 AA61 CC00 DD06 DD11 FF01 FF04 GG03 GG22 HH05 HH12 HH14 JJ03 JJ09 JJ26 LL22 LL32 MM03 PP15 QQ01 QQ04 QQ24 QQ25 QQ27 QQ38  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 2F065 AA12 AA22 AA51 AA58 AA61 CC00 DD06 DD11 FF01 FF04 GG03 GG22 HH05 HH12 HH14 JJ03 JJ09 JJ26 LL22 LL32 MM03 PP15 QQ01 QQ04 QQ24 QQ25 QQ27 QQ38

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】平面上に載置された物体の輪郭を検出する
方法であって、上記平面の上方から複数本のスリット光
線を、それぞれの投影線が1本に重なるように上記平面
上に投影し、この1本に重なった基準投影線を含む所定
範囲をカメラ装置により撮影するようになし、かつこの
カメラ装置により平面上の物体を撮影した際に、物体の
表面に生じる複数本の表面投影線が、基準投影線に対し
て位置ずれが生じた箇所を物体の輪郭とみなすことを特
徴とする物体輪郭検出方法。
1. A method for detecting an outline of an object placed on a plane, comprising: projecting a plurality of slit light beams from above the plane onto the plane such that respective projection lines overlap with one another. A plurality of surfaces formed on the surface of an object when projected and photographed in a predetermined range including the reference projection line overlapped by the camera device, and when the camera device photographs an object on a plane. An object contour detection method, wherein a position where a projection line is displaced from a reference projection line is regarded as an object contour.
【請求項2】平面上に載置された物体の輪郭を検出する
方法であって、上記平面の上方から複数本のスリット光
線を、それぞれの投影線が1本に重なるように上記平面
上に投影し、この1本に重なった基準投影線を含む所定
範囲をカメラ装置により撮影するようになし、このカメ
ラ装置により撮影された画像を、基準投影線と平行な複
数本の縦線および基準投影線に垂直な複数本の横線によ
り区画された複数個の画素より成る画像記録部に2値化
データとして記録し、この画像記録部における横方向の
各画素行のデータと基準投影線を撮影して得られた横方
向の基準画素行のデータとの差を求め、この差が設定値
を越えた画素行における位置を物体の輪郭とすることを
特徴とする物体の輪郭検出方法。
2. A method for detecting an outline of an object placed on a plane, comprising: projecting a plurality of slit light beams from above the plane onto the plane such that respective projection lines overlap with one another. The camera device projects a predetermined range including the reference projection line overlapped with one of the projection lines. The image taken by the camera device is converted into a plurality of vertical lines parallel to the reference projection line and the reference projection line. It is recorded as binarized data in an image recording unit composed of a plurality of pixels divided by a plurality of horizontal lines perpendicular to the line, and the data of each pixel row in the horizontal direction and the reference projection line in this image recording unit are photographed. A method for determining a difference from data of a reference pixel row in the horizontal direction obtained as described above, and using a position in the pixel row in which the difference exceeds a set value as an object contour.
【請求項3】平面上に載置された物体を識別する方法で
あって、上記平面の上方から複数本のスリット光線を、
それぞれの投影線が1本に重なるように上記平面上に投
影し、この1本に重なった基準投影線を含む所定範囲を
カメラ装置により撮影するようになし、このカメラ装置
により撮影された画像を、基準投影線と平行な複数本の
縦線および基準投影線に垂直な複数本の横線により区画
された複数個の画素より成る画像記録部に2値化データ
として記録し、この画像記録部における横方向の各画素
行のデータと基準投影線を撮影して得られた横方向の基
準画素行のデータとの差を求め、この差が設定値を越え
た画素行における位置を物体の輪郭とみなし、かつ上記
得られた物体の輪郭に基づき物体の投影面積を求めると
ともに、この投影面積と設定面積値とを比較することに
より、所定の物体であるか否かを識別することを特徴と
する物体識別方法。
3. A method for identifying an object placed on a plane, comprising: forming a plurality of slit light beams from above the plane;
Each projection line is projected onto the plane so as to overlap with one line, and a predetermined range including the reference projection line overlapping with the one line is photographed by a camera device, and an image photographed by the camera device is taken. The image is recorded as binary data in an image recording unit composed of a plurality of pixels partitioned by a plurality of vertical lines parallel to the reference projection line and a plurality of horizontal lines perpendicular to the reference projection line. The difference between the data of each pixel row in the horizontal direction and the data of the reference pixel row in the horizontal direction obtained by photographing the reference projection line is determined, and the position in the pixel row where the difference exceeds the set value is defined as the contour of the object. Deemed, and determining the projected area of the object based on the obtained contour of the object, and comparing the projected area with a set area value to identify whether or not the object is a predetermined object. Object identification method
JP04728899A 1999-02-25 1999-02-25 Object contour detection method and object identification method Expired - Fee Related JP3945931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04728899A JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04728899A JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Publications (2)

Publication Number Publication Date
JP2000241135A true JP2000241135A (en) 2000-09-08
JP3945931B2 JP3945931B2 (en) 2007-07-18

Family

ID=12771113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04728899A Expired - Fee Related JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Country Status (1)

Country Link
JP (1) JP3945931B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026033A1 (en) * 2007-08-14 2009-02-18 Sick Ag Method and device for dynamic generation and transfer of geometry data
CN113865503A (en) * 2020-06-30 2021-12-31 得力富企业股份有限公司 Centroid detection device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03195906A (en) * 1989-12-25 1991-08-27 Sharp Corp Inspecting apparatus for soldered state
JPH07157051A (en) * 1993-12-08 1995-06-20 Penta Ocean Constr Co Ltd Capacity measuring device for conveyed object on belt conveyor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03195906A (en) * 1989-12-25 1991-08-27 Sharp Corp Inspecting apparatus for soldered state
JPH07157051A (en) * 1993-12-08 1995-06-20 Penta Ocean Constr Co Ltd Capacity measuring device for conveyed object on belt conveyor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026033A1 (en) * 2007-08-14 2009-02-18 Sick Ag Method and device for dynamic generation and transfer of geometry data
CN113865503A (en) * 2020-06-30 2021-12-31 得力富企业股份有限公司 Centroid detection device

Also Published As

Publication number Publication date
JP3945931B2 (en) 2007-07-18

Similar Documents

Publication Publication Date Title
US8179434B2 (en) System and method for imaging of curved surfaces
JP3748919B2 (en) Package inspection method and apparatus
US7372556B2 (en) Apparatus and methods for inspecting a composite structure for inconsistencies
US6792147B1 (en) Object recognition system
JP2005164323A (en) Mark for position detection, method and device for mark detection, and program for same
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
US5576948A (en) Machine vision for adaptive laser beam steering
JP2000193601A (en) Surface defect inspecting device
JP2007316019A (en) Surface defect inspection device
JP7119476B2 (en) Tire contact shape analysis device and tire contact shape analysis method
JPH07204253A (en) Tablet inspection system
JP2000241135A (en) Method of detecting contour of object and method of identifying object
JP2004077290A (en) Apparatus and method for measuring three-dimensional shape
CN112991334B (en) Global positioning method and device for industrial particle continuous product
JP4349960B2 (en) Surface defect inspection equipment
JP2000163694A (en) Method and device for recognizing car number
JPS6298204A (en) Recognizing method for object
JP4315899B2 (en) Surface inspection method and surface inspection apparatus
JP2005315841A (en) Surface defect inspection device
JPH0749935B2 (en) Object recognition device
JPH0721301A (en) Mold number reading device
JPH11351842A (en) Wheel shape measuring device
JP2011201690A (en) Device for detecting moving amount of printing medium
JP2001229339A (en) Barcode reader
JP2003270162A (en) Device for inspecting fine-defect on vehicle coated surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140420

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees