JP3945931B2 - Object contour detection method and object identification method - Google Patents

Object contour detection method and object identification method Download PDF

Info

Publication number
JP3945931B2
JP3945931B2 JP04728899A JP4728899A JP3945931B2 JP 3945931 B2 JP3945931 B2 JP 3945931B2 JP 04728899 A JP04728899 A JP 04728899A JP 4728899 A JP4728899 A JP 4728899A JP 3945931 B2 JP3945931 B2 JP 3945931B2
Authority
JP
Japan
Prior art keywords
contour
plane
projection line
photographed
reference projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04728899A
Other languages
Japanese (ja)
Other versions
JP2000241135A (en
Inventor
守 斎藤
輝昭 藤川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Original Assignee
Hitachi Zosen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp filed Critical Hitachi Zosen Corp
Priority to JP04728899A priority Critical patent/JP3945931B2/en
Publication of JP2000241135A publication Critical patent/JP2000241135A/en
Application granted granted Critical
Publication of JP3945931B2 publication Critical patent/JP3945931B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、例えば平面上に載置された物体の輪郭を検出するための物体輪郭検出方法および物体を識別するための物体識別方法に関する。
【0002】
【従来の技術】
従来、物体の形状を自動的に検出する場合、カメラ装置を使用するとともに、その撮影画像に所定の画像処理を施すことにより、例えばその輪郭などが求められていた。
具体的には、光を物体の上方から照射して全体をカメラ装置などで撮影するか、またはスリット光を照射してその一部分の外形を検出する動作を全体に亘って行い、物体の輪郭が検出されていた。
【0003】
【発明が解決しようとする課題】
上述したように、カメラ装置により物体全体を撮影する方法では、物体の表面性状や照明条件に依存し、物体と背景のコントラストが不明瞭である場合、物体の表面に文字や模様がある場合、物体の影が背景に投影されている場合などには、正確に物体の輪郭を抽出することができないという問題があった。
【0004】
また、スリット光を使用する場合、光源をどのような位置においても、物体の形状によっては、影が生じてしまい、物体の境界点が誤って検出され、したがって物体の輪郭を正確に検出することができないという問題があった。
そこで、本発明は、物体の表面性状、表面形状に関係なく、物体の輪郭を検出することができるとともに、スリット光を使用した場合でも、その輪郭を正確に検出し得る物体輪郭検出方法および物体識別方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の物体輪郭検出方法は、平面上に載置されるとともに所定方向に移動される物体の輪郭を検出する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により撮影するようになし、かつこのカメラ装置により平面上で移動される物体を所定時間おきに撮影した際に、これら撮影された各画像において、物体の表面に生じる複数本の表面投影線が、基準投影線に対して位置ずれが生じた箇所を検出するとともに、これら検出された箇所を接続することにより物体の輪郭を得る方法である。
【0006】
上記の物体輪郭検出方法によると、複数本のスリット光線を物体に投光して物体の表面を撮影してその輪郭を検出するようにしているので、例えば一本のスリット光線を使用する場合に比べて、死角が殆ど生じることがなく、したがって複雑な形状を有する物体や、複数ある物体の輪郭の検出に対して、検出の信頼性が高くなる。
【0007】
また、本発明の第2の物体輪郭検出方法は、平面上に載置されるとともに所定方向に移動される物体の輪郭を検出する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により平面上で移動される物体を所定時間おきに撮影するようになし、このカメラ装置により撮影された複数の画像を、基準投影線と平行な複数本の縦線および基準投影線に垂直な複数本の横線により区画された複数個の画素より成る画像記録部に2値化データとしてそれぞれ記録し、これら撮影された各画像において、上記画像記録部における横方向の各画素行のデータと基準投影線を撮影して得られた横方向の基準画素行のデータとの差を求め、この差が設定値を越えた画素行における位置を求めるとともに、これら求められた位置を接続することにより物体の輪郭を得る方法である。
【0008】
上記の輪郭検出方法によると、輪郭の検出に際して、物体の表面に生じる表面投影線と、平面上に生じる基準投影線とを撮影した画像を2値化データとして記録させるとともに、両者の差に基づき輪郭を検出するようにしているので、非常に簡単な演算だけで済み、したがってリアルタイムで処理するのに非常に適しており、しかも物体の表面性状、表面形状などに拘わらず正確に物体の輪郭を検出することができる。
【0009】
さらに、本発明の物体識別方法は、平面上に載置されるとともに所定方向に移動される物体を識別する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により平面上で移動される物体を所定時間おきに撮影するようになし、このカメラ装置により撮影された複数の画像を、基準投影線と平行な複数本の縦線および基準投影線に垂直な複数本の横線により区画された複数個の画素より成る画像記録部に2値化データとしてそれぞれ記録し、これら撮影された各画像において、上記画像記録部における横方向の各画素行のデータと基準投影線を撮影して得られた横方向の基準画素行のデータとの差を求め、この差が設定値を越えた画素行における位置を求めるとともに、これら求められた位置を接続することにより物体の輪郭を得るようになし、かつ上記得られた物体の輪郭に基づき物体の投影面積を求めるとともに、この投影面積と設定面積値とを比較することにより、所定の物体であるか否かを識別する方法である。
【0010】
上記物体識別方法によると、上記物体輪郭検出方法と同じ方法により検出された物体の輪郭の投影面積を求めるとともに、この投影面積値と予め求められている識別すべき所定の物体の投影面積である設定面積値とを比較するようにしたので、所定の物体を、容易にかつ確実に識別することができる。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態における物体輪郭検出方法および物体識別方法を、図1〜図8に基づき説明する。
本実施の形態においては、例えば廃棄物の中から再利用が不可能なごみ(以下、不適物という)を検出するために、物体である廃棄物を搬送体上に載置して移動させながら、カメラ装置で撮影してその輪郭を検出するとともに、この輪郭に基づき不適物であるか否かを識別する場合について説明する。
【0012】
まず、物体の輪郭を検出するとともにこの輪郭に基づき不適物を識別するための物体検出識別装置について説明する。
図1および図2に示すように、この物体検出識別装置1は、物体2を所定の搬送経路Kに沿って移動させる搬送体、例えばベルトコンベア(以下、単に、コンベアという)3の上方に立設された支持架台4と、この支持架台4の上部に配置されて、複数本例えば6本(勿論、6本に限定されるものではなく、少なくとも2本以上であればよい)のスリット光線5を、搬送方向において前後からコンベア3上に、それぞれの投影線6が1本に重なるように投光する投光器7と、上記支持架台4の上部に設けられかつ1本に重なった基準投影線6Sを含む所定範囲(例えば、基準投影線の左右一定距離範囲内であり、検出領域ともいう)を撮影するためのCCDが使用されたカメラ装置8と、このカメラ装置8で撮影された画像を入力して、物体2の輪郭を検出するとともに、物体2が資源化ごみ以外の不適物であるか否かを識別するための演算処理装置(コンピュータ装置)9とから構成されている。なお、上記カメラ装置8は、通常は、基準投影線6Sの真上に設けられるるとともに、その両側(搬送方向で言えば前後両側、基準投影線を中心にすればその左右両側)からスリット光線5が投影される。このカメラ装置8と基準投影線6Sとの関係を一般的に言えば、少なくとも複数本のスリット光線5が、カメラ装置8と基準投影線6Sとを結ぶ平面の両側から投影されていればよい。
【0013】
上記投光器7は、図3に示すように、例えば光源としての直管蛍光灯11と、この直管蛍光灯11の下部に配置されてその光を平行光線に偏光するための偏光フィルタ12と、この偏光フィルタ12の下方に配置されて6本のスリット光線5を出射させる凸レンズ13などから構成されている。
上記演算処理装置9には、図示しないが、物体の輪郭を検出する輪郭検出部およびこの輪郭検出部で検出された輪郭に基づき物体が資源化ごみ以外の不適物であるか否かを識別するための物体識別部とが具備されている。
【0014】
上記輪郭検出部は、撮影画像を記録する画像メモリ(画像記録部)と、この画像メモリに記録されたデータと基準投影線だけを撮影したデータとを比較することにより、すなわち基準投影線と物体の表面に投影された表面投影線とを比較して、物体の境界点を抽出し輪郭を検出する比較検出部とから構成されている。
図4に示すように、上記画像メモリ21においては、撮影された物体の画像は、縦方向(物体の搬送方向と直交する方向)のm列×横方向(物体の搬送方向と平行な方向)のn行よりなる多数の画素[ピクセル(pixelであり、以下、pixで表わす)22に分割された状態で得られるとともに、これら各画素22には、投影線6の有無に応じて、2値化データすなわち「1」と「0」のデータが記録される(格納される)。
【0015】
例えば、図5に示すように、コンベア3上の物体2に投光されたスリット光線5の投影である表面投影線6Pがそれぞれの位置で表面に沿って複数本現われることになり、カメラ装置8によるこの撮影画像は、図6に示すような状態で、画像メモリ21に記録される。
すなわち、画像メモリ21における複数本のスリット光線5は、物体がないコンベア3上では、1本の基準投影線6Sとして、また物体2上では、基準投影線6Sからずれた位置に、それぞれ表面投影線6Pとして現われ、したがって各画素に対応するメモリには、投影線6の有無に応じて、「1」と「0」のデータが記録されることになる。
【0016】
なお、上記画像メモリ21の横方向の列幅は、例えば基準投影線の幅の所定倍数、具体的には、少なくとも5倍程度の幅を有するようにされる。
また、比較検出部には、物体2の表面に現われた複数本の表面投影線6Pを撮影した画像と、基準投影線6Sだけを撮影した画像との差、すなわち2値化データの差を求める演算回路が具備されている。
【0017】
この演算回路では、画像メモリ21における横一列である画素行のデータ列(1×m画素)がm次元ベクトルとみなされ、下記(1)式に示すように、基準投影線6Sだけを撮影した1画素行(基準画素行)のデータ列である基準ベクトルfxと、複数本の表面投影線6Pを撮影した各画素行のデータ列である撮影ベクトルfi(i=1〜m)とのユークリッド距離(ベクトルの各成分同士の差の合計絶対値で表わされ、パターンマッチングともいう)Sが求められるとともに、このユークリッド距離Sと所定の閾値(設定値)とが比較される。例えば、この閾値は、「1」以上の数値が設定される。
【0018】
【数1】

Figure 0003945931
具体的に説明すれば、図6に示すように、表面投影線6Pのi行目の撮影ベクトル値fiが(000010000)である場合には、基準ベクトルfxも(000010000)であるため、ユークリッド距離Siはゼロとなるが、表面投影線6Pのk行目のベクトル値fkが(011000101)である場合には、基準ベクトルfx(000010000)を減算すると、ユークリッド距離Skは、5個所での値が互いに異なるため、「5」となる。
【0019】
そして、図7示すように、このようにして得られた各ユークリッド距離Sが予め設定された閾値以上(「1」以上)となる最初の画素行の縦方向の座標値y,および最終の画素行の縦方向の座標値yを取得し、これらの値が、物体2の輪郭を示す境界点(特許請求の範囲における「箇所」または「位置」に相当する)23として抽出される。したがって、上述した輪郭検出部における境界点の抽出動作を、一定のサンプリング周期Tごとに、すなわち所定間隔置きに(コンベアの速度V×T)かつ物体の全長に亘って繰り返して行うことにより、図7に示すように、それぞれの境界点23が求められるとともに、これら各境界点23同士を接続することにより、物体2の輪郭24が得られる。
【0020】
上述したように、物体2が載置されて移動しているコンベア3上において1本の投影線に重なるように複数本のスリット光線5を物体2の表面に投光するとともに、この物体2の表面をカメラ装置8により撮影した画像を、縦横に区画された複数個の画素からなる画像メモリ21に2値化データとして記録し、そしてその画像メモリ21の横一列の各画素行におけるデータと、基準投影線だけを撮影した横一列の画素行のデータとのユークリッド距離を求め、そしてこのユークリッド距離が所定の閾値以上であるかどうか比較することにより、物体2の境界点23を抽出し、すなわち物体2の輪郭24を検出するようにしているので、物体2の表面性状、表面形状に関系なく確実にその輪郭24を検出することができる。また、複数本のスリット光線を左右から投光するようにしているので、例えば一本のスリット光線を使用する場合に比べて死角が殆ど生じることがなく、したがって複雑な形状を有する物体や、複数ある物体の輪郭の検出に対して、検出の信頼性が高くなる。
【0021】
また、輪郭の検出に際して、物体の表面に生じる表面投影線と、平面上に生じる基準投影線とを撮影した画像を2値化データとして記録させるとともに、両者の差に基づき、輪郭を検出するようにしているので、非常に簡単な演算だけで済み、したがってリアルタイムで処理するのに非常に適しており、しかも物体に対する照明条件、物体の表面性状、表面形状に拘わらず、また物体と背景とのコントラストが不明瞭である場合、および物体の表面に文字や模様がある場合などにおいても、正確に物体の輪郭を検出することができる。
【0022】
次に、物体識別部には、上記輪郭検出部で得られた輪郭24に基づき、物体2の投影面積(例えば、画素の個数から求められる)Sを求める面積演算部と、輪郭24における最大フィレ径に相当する最大幅L(図7参照)を求める幅演算部と、これら両演算部で求められた投影面積Sと最大幅Lとに基づき、物体2が不適物であるか否かを判断して識別するための判断部とが具備されている。
【0023】
そして、上記面積演算部では、図7に示すように、例えば前回のサンプリングで得られた上下(搬送方向とは直交する方向)の境界点23a,23bの座標値と、今回のサンプリングで得られた上下の境界点23c,23dの座標値とにより、台形の部分面積をその面積公式により求め、そしてこの部分面積を、物体の全長に亘って加算することにより、物体2の投影面積Sが求められる。
【0024】
また、幅演算部では、物体2の各境界点23の座標値から輪郭24における最大幅Lが求められる。したがって、容易に、物体2の最大フィレ径に相当する最大幅Lを求めることができる。
さらに、判断部においては、上記各演算部で求められた投影面積Sおよび最大幅Lに基づき、物体が不適物であるか否かが判断される。
【0025】
具体的には、図8のグラフに示すように、予め、搬送される廃棄物に含まれる資源化ごみ(缶、ガラスボトル、PETボトルなど)および不適物の輪郭からその投影面積Sおよびその最大幅Lを実験から求め、そしてこれらのデータをグラフにプロットすることにより、資源化ごみと不適物とを識別可能な値、例えば投影面積値を抽出する。
【0026】
例えば、図8のグラフから判るように、黒印で示した不適物の面積Sについては、4×104pix2(平方ピクセル、例えば1平方ピクセルは1mm2程度とされ、したがって4×104mm2に相当)以上の値では、全てが不適物であり、また最大フィレ径である最大幅Lについても、300pix(この場合、300mmに相当)以下である場合に、一升瓶、ビール瓶、PETボトルなどを除けば、殆どの資源化ごみよりも大きい値となる。
【0027】
したがって、搬送される物体2の投影面積Sが、4×104pix2以上で、しかも最大幅Lが300pix以下である場合に、不適物であると判断、すなわち識別される。
このように、少なくとも、検出された物体の輪郭に基づき得られた投影面積を、予め実験などなにより求められた不適物であると判断し得る設定面積値と比較するようにしているので、容易かつ正確に、物体が不適物であるか否かを識別することができる。
【0028】
なお、上記投影器の光源としては、特定波長の単色光が用いられるとともに、この波長の光のみを受光できる光学フィルタがカメラ装置に装着されている。
ところで、上記実施の形態においては、投光器から複数本のスリット光線を形成するのに、偏光フィルタ、凸レンズなどを用いたが、例えば図9に示すように、複数個のスリット光源31を、その出射されるスリット光線32の先端部が一個所に集まるように、その出射方向をそれぞれ変えて設置するようにしたものでもよい。
【0029】
また、上記実施の形態においては、物体として廃棄物を説明したが、例えば通行量を調べるために、道路上の人間や車両を検出または識別する場合にも、適用することができる。
【0030】
【発明の効果】
以上のように本発明の物体輪郭検出方法によると、複数本のスリット光線を物体に投光して物体の表面を撮影してその輪郭を検出するようにしているので、従来のように、一本のスリット光線を使用する場合に比べて、死角が殆ど生じることがなく、したがって複雑な形状を有する物体や、複数ある物体の輪郭の検出に対して、検出の信頼性が高くなる。
【0031】
また、輪郭の検出に際して、物体の表面に生じる表面投影線と、平面上に生じる基準投影線とを撮影した画像を2値化データとして記録させるとともに、両者の差に基づき、輪郭を検出するようにしているので、非常に簡単な演算だけで済み、したがってリアルタイムで処理するのに非常に適しており、しかも物体に対する照明条件、物体の表面性状、表面形状に拘わらず、また物体と背景とのコントラストが不明瞭である場合、および物体の表面に文字や模様がある場合などにおいても、正確に物体の輪郭を検出することができる。
【0032】
さらに、上記と同じ検出方法により検出された物体の輪郭の投影面積を求めるとともに、この投影面積値と、予め求められている識別すべき所定の物体の投影面積である設定面積値とを比較するようにしたので、所定の物体を、容易かつ確実に識別することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態における物体の輪郭の検出および識別を行うための装置の概略構成を示す側面図である。
【図2】同装置における投光器の概略構成を示す斜視図である。
【図3】同投光器の要部構成を示す側面図である。
【図4】同装置における画像メモリの構成を示す平面図である。
【図5】同装置において、物体上に投影した際の投影線を示す平面図である。
【図6】同装置における撮影画像の画像メモリを示す平面図である。
【図7】同装置により撮影された物体の輪郭を示す平面図である。
【図8】本発明の実施の形態における物体識別方法を説明するための物体の最大幅と投影面積との関係を示すグラフである。
【図9】同装置における投光器の変形例の要部構成を示す側面図である。
【符号の説明】
1 物体検出識別装置
2 物体
3 ベルトコンベア
5 スリット光線
6 投影線
6S 基準投影線
6P 表面投影線
7 投光器
8 カメラ装置
21 画像メモリ
22 画素
23 境界点
24 輪郭[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object contour detection method for detecting the contour of an object placed on a plane, for example, and an object identification method for identifying an object.
[0002]
[Prior art]
Conventionally, when automatically detecting the shape of an object, a camera device is used, and a predetermined image processing is performed on the captured image, for example, to obtain its contour.
Specifically, light is irradiated from above the object and the whole is photographed with a camera device or the like, or slit light is irradiated to detect the partial outline of the object, and the contour of the object is It was detected.
[0003]
[Problems to be solved by the invention]
As described above, in the method of photographing the entire object with the camera device, depending on the surface property of the object and the illumination conditions, if the contrast between the object and the background is unclear, if there is a character or pattern on the surface of the object, When the shadow of the object is projected on the background, there is a problem that the contour of the object cannot be accurately extracted.
[0004]
Also, when using slit light, a shadow may occur depending on the shape of the object, regardless of the position of the light source, and the boundary point of the object will be detected in error, so that the contour of the object will be detected accurately. There was a problem that could not.
Therefore, the present invention can detect the contour of an object regardless of the surface property and surface shape of the object, and can detect the contour accurately even when slit light is used. An object is to provide an identification method.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, a first object contour detection process of the present invention is a method of detecting the contour of the object to be moved in Rutotomoni predetermined direction is placed on a plane, from above the plane A plurality of slit rays are projected on the plane so that each projection line overlaps one, and a predetermined range including the reference projection line overlapping the one is photographed by the camera device, and this When an object moved on a plane is photographed every predetermined time by the camera device , in each of these photographed images, a plurality of surface projection lines generated on the surface of the object are displaced from the reference projection line. This is a method of detecting the generated location and obtaining the contour of the object by connecting these detected locations .
[0006]
According to the object contour detection method described above, a plurality of slit light beams are projected onto an object and the surface of the object is photographed to detect the contour. For example, when using one slit light beam, Compared to this, there is almost no blind spot, and therefore the detection reliability is high for detection of an object having a complicated shape or the contour of a plurality of objects.
[0007]
The second object contour detection process of the present invention is a method of detecting the contour of the object to be moved in Rutotomoni predetermined direction is placed on a plane, a plurality of slits rays from above the plane The projection line is projected on the plane so that each projection line overlaps one, and a predetermined range including the reference projection line overlapping the one is photographed at predetermined intervals by the camera device on the plane. As a result, a plurality of images photographed by this camera device are recorded with a plurality of pixels divided by a plurality of vertical lines parallel to the reference projection line and a plurality of horizontal lines perpendicular to the reference projection line. parts respectively recorded as binary data, in these captured each image was, the reference pixel row of the resulting transverse direction by photographing the data and the reference projection line of each pixel row in the lateral direction of the image recording unit With data The determined portions to determine positions in the pixel row this difference exceeds the set value, a method of obtaining the contour of the object by connecting these calculated position.
[0008]
According to the above contour detection method, when detecting a contour, an image obtained by photographing a surface projection line generated on the surface of an object and a reference projection line generated on a plane is recorded as binary data, and based on the difference between the two. Since the contour is detected, only a very simple calculation is required, so it is very suitable for processing in real time, and the contour of the object can be accurately determined regardless of the surface property and surface shape of the object. Can be detected.
[0009]
Further, the object identification method of the present invention is a method of identifying an object to be moved in Rutotomoni predetermined direction is placed on a plane, a plurality of slits rays from above the plane, the respective projection lines This camera is projected onto the plane so as to overlap one, and a predetermined range including the reference projection line overlapping the one is photographed at predetermined intervals by the camera device. A plurality of images photographed by the apparatus are binarized data in an image recording unit composed of a plurality of pixels partitioned by a plurality of vertical lines parallel to the reference projection line and a plurality of horizontal lines perpendicular to the reference projection line. In each of these captured images, the difference between the horizontal pixel row data in the image recording unit and the horizontal reference pixel row data obtained by shooting the reference projection line is obtained. ,this There then the positional in the pixel row exceeds the set value, no to obtain the contour of the object by connecting the sought position, and with obtaining the projected area of the object based on the contours of the resulting object This is a method for identifying whether or not the object is a predetermined object by comparing the projected area and the set area value.
[0010]
According to the object identification method, the projection area of the contour of the object detected by the same method as the object contour detection method is obtained, and the projection area value and the projection area of the predetermined object to be identified are obtained in advance. Since the set area value is compared, a predetermined object can be easily and reliably identified.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an object contour detection method and an object identification method according to an embodiment of the present invention will be described with reference to FIGS.
In the present embodiment, for example, in order to detect waste that cannot be reused from waste (hereinafter referred to as unsuitable), the waste, which is an object, is placed on the carrier and moved, A case will be described in which the contour is detected by photographing with a camera device, and whether or not the object is inappropriate is identified based on the contour.
[0012]
First, an object detection and identification device for detecting the contour of an object and identifying an inappropriate object based on the contour will be described.
As shown in FIGS. 1 and 2, the object detection / identification apparatus 1 stands above a transport body that moves an object 2 along a predetermined transport path K, for example, a belt conveyor (hereinafter simply referred to as a conveyor) 3. The support frame 4 provided, and a plurality of, for example, six (e.g., not limited to six, but at least two) slit beams 5 are arranged on the upper part of the support frame 4. Are projected on the conveyor 3 from the front and rear in the transport direction so that the projection lines 6 overlap each other, and a reference projection line 6S provided above the support frame 4 and overlapped with each other. A camera device 8 using a CCD for photographing a predetermined range (for example, within a fixed distance range on the left and right of the reference projection line, also referred to as a detection region), and an image photographed by the camera device 8 is input The object Detects the contour, and a processing unit for the object 2 to identify whether the unsuitable substance other than recycling waste (computer device) 9. The camera device 8 is usually provided directly above the reference projection line 6S, and slit light beams from both sides thereof (front and rear sides in the transport direction, and both left and right sides when the reference projection line is the center). 5 is projected. Generally speaking, the relationship between the camera device 8 and the reference projection line 6S is sufficient if at least a plurality of slit rays 5 are projected from both sides of the plane connecting the camera device 8 and the reference projection line 6S.
[0013]
As shown in FIG. 3, the projector 7 includes, for example, a straight tube fluorescent lamp 11 as a light source, a polarizing filter 12 that is disposed below the straight tube fluorescent lamp 11 and polarizes the light into parallel rays, A convex lens 13 is disposed below the polarizing filter 12 and emits six slit light beams 5.
Although not shown in the figure, the arithmetic processing unit 9 identifies whether or not the object is an inappropriate object other than the recyclable garbage based on the contour detection unit for detecting the contour of the object and the contour detected by the contour detection unit. And an object identification unit.
[0014]
The contour detection unit compares an image memory (image recording unit) that records a captured image with data recorded in the image memory and data obtained by capturing only the reference projection line, that is, the reference projection line and the object. And a comparison detection unit that extracts a boundary point of an object and detects a contour by comparing with a surface projection line projected onto the surface of the object.
As shown in FIG. 4, in the image memory 21, the captured image of the object is m columns × horizontal direction (direction parallel to the object conveyance direction) in the vertical direction (direction orthogonal to the object conveyance direction). Are obtained in a state of being divided into a large number of pixels [pixel (pixel, hereinafter referred to as pix) 22], and each pixel 22 has a binary value depending on the presence or absence of the projection line 6. Data, that is, data of “1” and “0” is recorded (stored).
[0015]
For example, as shown in FIG. 5, a plurality of surface projection lines 6P, which are projections of slit rays 5 projected onto the object 2 on the conveyor 3, appear along the surface at each position, and the camera device 8 This photographed image is recorded in the image memory 21 in the state shown in FIG.
That is, the plurality of slit light beams 5 in the image memory 21 are projected on the surface as a single reference projection line 6S on the conveyor 3 without an object and on the object 2 at a position shifted from the reference projection line 6S. Therefore, data “1” and “0” are recorded in the memory corresponding to each pixel according to the presence or absence of the projection line 6.
[0016]
The horizontal column width of the image memory 21 is set to a predetermined multiple of the width of the reference projection line, specifically, at least about 5 times the width.
Further, the comparison detection unit obtains a difference between an image obtained by photographing a plurality of surface projection lines 6P appearing on the surface of the object 2 and an image obtained by photographing only the reference projection line 6S, that is, a difference between binarized data. An arithmetic circuit is provided.
[0017]
In this arithmetic circuit, a data row (1 × m pixels) in a pixel row which is one horizontal row in the image memory 21 is regarded as an m-dimensional vector, and only the reference projection line 6S is photographed as shown in the following equation (1). a reference vector f x is a data string of 1 pixel row (reference pixel row), the imaging vector f i (i = 1 to m) is a data string of each pixel row taken a plurality of surface projection line 6P A Euclidean distance (expressed by the total absolute value of differences between the components of the vector, also referred to as pattern matching) S is obtained, and the Euclidean distance S is compared with a predetermined threshold value (set value). For example, a numerical value equal to or greater than “1” is set as the threshold value.
[0018]
[Expression 1]
Figure 0003945931
In detail, since, as shown in FIG. 6, when the i-th row of the imaging vector values f i of the surface projection line 6P is (000010000), the reference vector f x is also (000010000) Although the Euclidean distance S i is zero, when the vector value f k in the k-th row of the surface projection line 6P is (011000101), subtracting the reference vector f x (0000010000), the Euclidean distance S k is Since the values at the five locations are different from each other, it is “5”.
[0019]
Then, as shown in FIG. 7 , the vertical coordinate value y h of the first pixel row in which each Euclidean distance S i obtained in this way is equal to or greater than a preset threshold value (“1” or greater), and The vertical coordinate value y l of the final pixel row is acquired, and these values are extracted as boundary points (corresponding to “location” or “position” in the claims) 23 indicating the contour of the object 2. The Accordingly, the boundary point extraction operation in the contour detection unit described above is repeated at regular sampling periods T, that is, at predetermined intervals (conveyor speed V × T) and over the entire length of the object. 7, the respective boundary points 23 are obtained, and the boundary 24 of the object 2 is obtained by connecting these boundary points 23 to each other.
[0020]
As described above, a plurality of slit light beams 5 are projected onto the surface of the object 2 so as to overlap one projection line on the conveyor 3 on which the object 2 is placed and moving, and the object 2 An image obtained by photographing the surface with the camera device 8 is recorded as binarized data in an image memory 21 composed of a plurality of pixels divided vertically and horizontally, and data in each pixel row in the horizontal column of the image memory 21; The boundary point 23 of the object 2 is extracted by obtaining the Euclidean distance with the data of the horizontal row of pixel rows obtained by photographing only the reference projection line, and comparing whether the Euclidean distance is equal to or greater than a predetermined threshold, that is, Since the contour 24 of the object 2 is detected, the contour 24 can be reliably detected regardless of the surface property and surface shape of the object 2. In addition, since a plurality of slit beams are projected from the left and right, for example, there is almost no blind spot compared to the case of using a single slit beam, and therefore an object having a complicated shape, For the detection of the contour of an object, the detection reliability is increased.
[0021]
Further, when detecting the contour, an image obtained by photographing the surface projection line generated on the surface of the object and the reference projection line generated on the plane is recorded as binary data, and the contour is detected based on the difference between the two. Therefore, only a very simple calculation is required, and therefore, it is very suitable for processing in real time, and regardless of the illumination conditions for the object, the surface property of the object, the surface shape, and the object and the background. Even when the contrast is unclear or when there are characters or patterns on the surface of the object, the contour of the object can be accurately detected.
[0022]
Next, the object identification unit includes an area calculation unit for obtaining a projected area (for example, obtained from the number of pixels) S of the object 2 based on the contour 24 obtained by the contour detection unit, and a maximum fillet in the contour 24. Based on the width calculation unit for obtaining the maximum width L (see FIG. 7) corresponding to the diameter, and the projection area S and the maximum width L obtained by these two calculation units, it is determined whether or not the object 2 is inappropriate. And a determination unit for identifying them.
[0023]
In the area calculation unit, as shown in FIG. 7, for example, the coordinate values of the upper and lower boundary points 23a and 23b obtained in the previous sampling (direction orthogonal to the transport direction) and the current sampling are obtained. Based on the coordinate values of the upper and lower boundary points 23c and 23d, a trapezoidal partial area is obtained by its area formula, and by adding this partial area over the entire length of the object, the projected area S of the object 2 is obtained. It is done.
[0024]
Further, in the width calculation unit, the maximum width L in the contour 24 is obtained from the coordinate value of each boundary point 23 of the object 2. Therefore, the maximum width L corresponding to the maximum fillet diameter of the object 2 can be easily obtained.
Further, the determination unit determines whether or not the object is an inappropriate object based on the projected area S and the maximum width L obtained by the respective calculation units.
[0025]
Specifically, as shown in the graph of FIG. 8, the projected area S and its maximum area are preliminarily determined based on the outlines of recyclable waste (cans, glass bottles, PET bottles, etc.) and unsuitable items contained in the transported waste. A large L is obtained from an experiment, and these data are plotted on a graph to extract a value, for example, a projected area value, that can distinguish the resource-recycling waste from the inappropriate material.
[0026]
For example, as can be seen from the graph of FIG. 8, the area S of the unsuitable object indicated by the black mark is 4 × 10 4 pix 2 (square pixels, for example, 1 square pixel is about 1 mm 2 , and therefore 4 × 10 4. If the value is equal to or greater than 2 mm, all are unsuitable, and the maximum width L, which is the maximum fillet diameter, is 300 pix (in this case, equivalent to 300 mm) or less. Except, etc., the value is larger than that of most recycled waste.
[0027]
Therefore, when the projected area S of the object 2 to be conveyed is 4 × 10 4 pix 2 or more and the maximum width L is 300 pix or less, it is determined as an inappropriate object, that is, identified.
In this way, at least the projected area obtained based on the detected contour of the object is compared with the set area value that can be determined to be an inappropriate object obtained in advance through experiments or the like. In addition, it is possible to accurately identify whether or not the object is inappropriate.
[0028]
As the light source of the projector, monochromatic light having a specific wavelength is used, and an optical filter capable of receiving only light having this wavelength is attached to the camera device.
By the way, in the said embodiment, although the polarizing filter, the convex lens, etc. were used in order to form a several slit light beam from a projector, as shown, for example in FIG. The slit light beam 32 may be installed by changing its emission direction so that the front end portions of the slit light beam 32 gather at one place.
[0029]
Moreover, in the said embodiment, although the waste was demonstrated as an object, it is applicable also when detecting or identifying the person and vehicle on a road, for example, in order to investigate traffic.
[0030]
【The invention's effect】
As described above, according to the object contour detection method of the present invention, a plurality of slit light beams are projected onto an object and the surface of the object is photographed to detect the contour. Compared with the case of using a slit light beam, there is almost no blind spot, and therefore the detection reliability is high for detecting an object having a complicated shape or the contour of a plurality of objects.
[0031]
Further, when detecting the contour, an image obtained by photographing the surface projection line generated on the surface of the object and the reference projection line generated on the plane is recorded as binary data, and the contour is detected based on the difference between the two. Therefore, only a very simple calculation is required, and therefore, it is very suitable for processing in real time, and regardless of the illumination conditions for the object, the surface property of the object, the surface shape, and the object and the background. Even when the contrast is unclear or when there are characters or patterns on the surface of the object, the contour of the object can be accurately detected.
[0032]
Further, the projected area of the contour of the object detected by the same detection method as described above is obtained, and the projected area value is compared with a preset area value that is a predetermined projected area of the predetermined object to be identified. Since it did in this way, a predetermined object can be identified easily and reliably.
[Brief description of the drawings]
FIG. 1 is a side view showing a schematic configuration of an apparatus for detecting and identifying the contour of an object according to an embodiment of the present invention.
FIG. 2 is a perspective view showing a schematic configuration of a projector in the apparatus.
FIG. 3 is a side view showing the main configuration of the projector.
FIG. 4 is a plan view showing a configuration of an image memory in the apparatus.
FIG. 5 is a plan view showing projection lines when projected onto an object in the apparatus.
FIG. 6 is a plan view showing an image memory of a captured image in the apparatus.
FIG. 7 is a plan view showing an outline of an object photographed by the apparatus.
FIG. 8 is a graph showing the relationship between the maximum width of an object and the projected area for explaining an object identification method according to an embodiment of the present invention.
FIG. 9 is a side view showing the main configuration of a modification of the projector in the apparatus.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Object detection identification apparatus 2 Object 3 Belt conveyor 5 Slit light beam 6 Projection line 6S Reference projection line 6P Surface projection line 7 Projector 8 Camera apparatus 21 Image memory 22 Pixel 23 Boundary point 24 Contour

Claims (3)

平面上に載置されるとともに所定方向に移動される物体の輪郭を検出する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により撮影するようになし、かつこのカメラ装置により平面上で移動される物体を所定時間おきに撮影した際に、これら撮影された各画像において、物体の表面に生じる複数本の表面投影線が、基準投影線に対して位置ずれが生じた箇所を検出するとともに、これら検出された箇所を接続することにより物体の輪郭を得ることを特徴とする物体輪郭検出方法。A method for detecting a contour of the object to be moved to placed on Rutotomoni predetermined direction on the plane, a plurality of slits rays from above the plane, the plane as the respective projection lines overlap one When a predetermined range including a reference projection line that is projected onto the one and being overlapped is photographed by the camera device, and an object that is moved on the plane by the camera device is photographed every predetermined time , In each of these captured images, a plurality of surface projection lines generated on the surface of the object detect the position where the positional deviation occurs with respect to the reference projection line, and connect these detected positions to detect the object. An object contour detection method characterized by obtaining a contour. 平面上に載置されるとともに所定方向に移動される物体の輪郭を検出する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により平面上で移動される物体を所定時間おきに撮影するようになし、このカメラ装置により撮影された複数の画像を、基準投影線と平行な複数本の縦線および基準投影線に垂直な複数本の横線により区画された複数個の画素より成る画像記録部に2値化データとしてそれぞれ記録し、これら撮影された各画像において、上記画像記録部における横方向の各画素行のデータと基準投影線を撮影して得られた横方向の基準画素行のデータとの差を求め、この差が設定値を越えた画素行における位置を求めるとともに、これら求められた位置を接続することにより物体の輪郭を得ることを特徴とする物体輪郭検出方法。A method for detecting a contour of the object to be moved to placed on Rutotomoni predetermined direction on the plane, a plurality of slits rays from above the plane, the plane as the respective projection lines overlap one A plurality of images photographed by the camera device are projected at predetermined time intervals so as to photograph an object that is projected onto the object and moved on a plane by the camera device over a predetermined range including the reference projection line that overlaps the one. the respective recording a reference projection line and the image recording unit composed of a plurality of pixels defined by a plurality of horizontal lines perpendicular to the vertical line and the reference projection line parallel plural as binarized data, is these photographed In each image, the difference between the horizontal pixel row data in the image recording unit and the horizontal reference pixel row data obtained by photographing the reference projection line is obtained, and this difference exceeds the set value. In the pixel row Together determine the kicking position, the object contour detection method characterized by obtaining a contour of the object by connecting these calculated position. 平面上に載置されるとともに所定方向に移動される物体を識別する方法であって、上記平面の上方から複数本のスリット光線を、それぞれの投影線が1本に重なるように上記平面上に投影し、この1本に重なった基準投影線を含む所定範囲をカメラ装置により平面上で移動される物体を所定時間おきに撮影するようになし、このカメラ装置により撮影された複数の画像を、基準投影線と平行な複数本の縦線および基準投影線に垂直な複数本の横線により区画された複数個の画素より成る画像記録部に2値化データとしてそれぞれ記録し、これら撮影された各画像において、上記画像記録部における横方向の各画素行のデータと基準投影線を撮影して得られた横方向の基準画素行のデータとの差を求め、この差が設定値を越えた画素行における位置を求めるとともに、これら求められた位置を接続することにより物体の輪郭を得るようになし、かつ上記得られた物体の輪郭に基づき物体の投影面積を求めるとともに、この投影面積と設定面積値とを比較することにより、所定の物体であるか否かを識別することを特徴とする物体識別方法。A method of identifying an object to be moved to placed on Rutotomoni predetermined direction on the plane, a plurality of slits rays from above the plane, respective projection lines on said plane so as to overlap the one A predetermined range including a reference projection line that is projected and overlapped with this one is photographed every predetermined time on an object that is moved on a plane by the camera device, and a plurality of images photographed by this camera device are obtained. each respective recorded in the image recording unit composed of a plurality of pixels defined by the horizontal line perpendicular plurality of the vertical lines and the reference projection line parallel plurality of the reference projection line as binarized data, is these photographed In the image, the difference between the data of each pixel row in the horizontal direction in the image recording unit and the data of the reference pixel row in the horizontal direction obtained by photographing the reference projection line is obtained, and the pixel whose difference exceeds the set value In line Together determine the location, without so as to obtain the contour of the object by connecting the sought position, and with obtaining the projected area of the object based on the contour of the resultant object, and a set area value the projection area An object identification method characterized by identifying whether or not the object is a predetermined object by comparing.
JP04728899A 1999-02-25 1999-02-25 Object contour detection method and object identification method Expired - Fee Related JP3945931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04728899A JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04728899A JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Publications (2)

Publication Number Publication Date
JP2000241135A JP2000241135A (en) 2000-09-08
JP3945931B2 true JP3945931B2 (en) 2007-07-18

Family

ID=12771113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04728899A Expired - Fee Related JP3945931B2 (en) 1999-02-25 1999-02-25 Object contour detection method and object identification method

Country Status (1)

Country Link
JP (1) JP3945931B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE502007000856D1 (en) * 2007-08-14 2009-07-23 Sick Ag Method and device for the dynamic generation and transfer of geometric data
CN113865503A (en) * 2020-06-30 2021-12-31 得力富企业股份有限公司 Centroid detection device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03195906A (en) * 1989-12-25 1991-08-27 Sharp Corp Inspecting apparatus for soldered state
JP2672255B2 (en) * 1993-12-08 1997-11-05 五洋建設株式会社 Belt Conveyor Transport Capacity Measuring Device

Also Published As

Publication number Publication date
JP2000241135A (en) 2000-09-08

Similar Documents

Publication Publication Date Title
US11227405B2 (en) Determining positions and orientations of objects
US11727613B2 (en) Systems and methods for stitching sequential images of an object
US20130070095A1 (en) Fast obstacle detection
JPH07325161A (en) Method and equipment for package inspection
JPH07200770A (en) Tablet inspection system
JP2015064752A (en) Vehicle monitoring device and vehicle monitoring method
CN111239142A (en) Paste appearance defect detection device and method
CN103824275A (en) System and method for finding saddle point-like structures in an image and determining information from the same
CN111189854A (en) Defect layering detection method of automatic glass cover plate detection system
JPH1186185A (en) Vehicle-type discriminating device
US20040062348A1 (en) Image-based container defects detector
JP3945931B2 (en) Object contour detection method and object identification method
JPH07204253A (en) Tablet inspection system
CN212207061U (en) Bottle bottom defect detection system
JP6438275B2 (en) Paint surface inspection equipment
JP2005181260A (en) Inspection method for printed matter
JP2000163694A (en) Method and device for recognizing car number
JPH11351842A (en) Wheel shape measuring device
JPH11337324A (en) Sheet glass inspection system
JP4474006B2 (en) Inspection device
CN211697573U (en) Automatic printing detection system
JP3337640B2 (en) Automatic shell sorting equipment
JP3177945B2 (en) Surface defect inspection equipment
JP3473800B2 (en) Defect inspection method and device
JP2001229339A (en) Barcode reader

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140420

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees