JP2004086799A - Method and device for individually recognizing object - Google Patents

Method and device for individually recognizing object Download PDF

Info

Publication number
JP2004086799A
JP2004086799A JP2002250158A JP2002250158A JP2004086799A JP 2004086799 A JP2004086799 A JP 2004086799A JP 2002250158 A JP2002250158 A JP 2002250158A JP 2002250158 A JP2002250158 A JP 2002250158A JP 2004086799 A JP2004086799 A JP 2004086799A
Authority
JP
Japan
Prior art keywords
objects
image
waste
conveyor
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002250158A
Other languages
Japanese (ja)
Other versions
JP3952908B2 (en
Inventor
Mikiyuki Asano
浅野 幹之
Tadahira Ishida
石田 匡平
Shigeki Yamazaki
山崎 茂樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Engineering Corp
Original Assignee
JFE Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JFE Engineering Corp filed Critical JFE Engineering Corp
Priority to JP2002250158A priority Critical patent/JP3952908B2/en
Publication of JP2004086799A publication Critical patent/JP2004086799A/en
Application granted granted Critical
Publication of JP3952908B2 publication Critical patent/JP3952908B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a device for individually recognizing objects capable of individually recognizing individual objects in a state that a plurality of objects are congested and overlapped even without using an aligning device and a segmenting device for aligning and unraveling the objects. <P>SOLUTION: A plurality of objects 20 on a shaking table 1 are individually and minutely moved by a shaker 2, images photographed at intervals with a camera 3 during minute movement are inputted into an image processor 4 and the existence and positions of the individual objects are recognized on the basis of changes of images photographed at intervals. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、廃棄物の選別ライン等のように複数個の処理対象物が重なり合っている状態において、それぞれの対象物を個別に認識するための個別認識方法及び個別認識装置に関するものである。
【0002】
【従来の技術】
循環型の社会システムの整備が進み、様々な廃棄物のリサイクル設備が建設され、従来の人手による選別作業を機械化したり自動化することによって、選別効率の向上が図られている。
【0003】
その中で、廃棄物の材質を識別する作業については、可視光線、赤外線、紫外線などの光学情報を基に材質を判別する方法が多く提案されている。
【0004】
例えば、特開平9−89768号公報には、コンベア上を整列して搬送されている廃プラスチックボトルに近赤外線を照射して、その吸光度からプラスチックの材質を識別する方法が示されている。また、特開平10−232166号公報には、コンベア上の紙パックに近赤外線を照射して、その吸光度から紙パックの材質を識別する方法が示されている。
【0005】
そして、これらの材質識別方法においては、密集したり重なり合った状態の識別対象物を1個ずつ所定の間隔で整列させて識別センサに向き合うようにすることが不可欠とされ、そのための整列装置や切出し装置に関する発明も多々なされている。例えば、特開平8−143138号公報や特開2002−114363号公報には、整列のための専用コンベアを備えた整列装置が示されている。
【0006】
【発明が解決しようとする課題】
しかし、これらの整列装置等は以下のような問題を有している。
【0007】
まず、対象物を1個ずつ所定の間隔で整列させる確度が充分でなく、時々複数個の対象物が1個の対象物として認識されてしまうことがある。そのため、その後の材質識別段階で正確な識別ができず、識別精度を低下させる原因になっている。
【0008】
また、整列のための専用コンベアや切出し機構が増えることにより、設備全体のコストアップになることや、それらを設置するためのスペースが必要になる。
【0009】
本発明は、上記の問題を解決するためになされたものであり、対象物を整列させたり、ほぐしたりするための整列装置や切出し装置を用いずとも、複数個の対象物が密集したり重なり合った状態のまま、個々の対象物を個別に認識することができる物体の個別認識方法及び個別認識装置を提供することを目的としている。
【0010】
【課題を解決するための手段】
上記の課題を解決するために、本発明は下記の特徴を有する。
【0011】
[1]複数個の物体を個別に認識するための個別認識方法であって、複数個の物体に同時に振動を加え、振動を加えられている複数個の物体を時間を隔てて撮影し、この時間を隔てて撮影された画像から画像を形成する画素毎の速度ベクトルを求め、該速度ベクトルが等しい画素群を1つの物体として認識することを特徴とする物体の個別認識方法。
【0012】
[2]複数個の物体を個別に認識するための個別認識装置であって、複数個の物体に同時に振動を加える加振手段と、該加振手段により振動を加えられている複数個の物体を撮影する撮像手段と、該撮像手段が時間を隔てて撮影した画像から画像を形成する画素毎の速度ベクトルを求め、該速度ベクトルが等しい画素群を1つの物体として認識する画像処理手段とを有することを特徴とする物体の個別認識装置。
【0013】
【発明の実施の形態】
(第1の実施形態)
図1に本発明の第1の実施形態を示す。
【0014】
本発明の第1の実施形態に係る物体の個別認識装置は、振動テーブル1、カメラ3、画像処理装置4によって構成されている。
【0015】
振動テーブル1は、テーブル1aと、これに振動を与えるための加振機2とからなり、その上面に複数個の対象物20を載せて振動するようになっている。
【0016】
カメラ3は、振動テーブル1上の上方に設けられており、振動テーブル1上の対象物20を撮影し、その画像を画像処理装置4に送る。
【0017】
画像処理装置4は、カメラ3が撮影した画像を取り込み、所定の処理を行う。
【0018】
次に、上記のように構成された個別認識装置を用いて、振動テーブル1上に密集したり重なり合った状態の複数個の対象物20を個別に認識する方法を、図2に示す処理フロー図を参照しながら説明する。
【0019】
まず、加振機2によって振動テーブル1に振動を加える。これによって、振動テーブル1上に密集したり重なり合っている複数個の対象物20を個別に微小移動させる。
【0020】
そして、図2(a)に示すように、微小移動中の任意の時刻t=tに、カメラ3によって複数個の対象物20を撮影し、その画像を画像マトリックスM(t)として画像処理装置4に取り込む。
【0021】
次に、図2(b)に示すように、時刻tから微小時間Δt経過後の時刻t=t+Δtに、再度、カメラ3によって複数個の対象物20を撮影し、その画像を画像マトリックスM(t+Δt)として画像処理装置4に取り込む。
【0022】
次に、図2(c)に示すように、画像マトリックスM(t)と画像マトリックスM(t+Δt)とから、所定の関数Fを用いて、画像を形成する各画素毎のΔt時間での移動量、すなわち、各画素毎の速度ベクトルVi(t)を求める。
【0023】
そして、図2(d)に示すように、この各画素毎の速度ベクトルVi(t)を要素とする速度ベクトルマトリックスW(t)を定義して、画像処理装置4に格納する。すなわち、W(t)=W(Vi(t))である。
【0024】
次に、図2(e)に示すように、速度ベクトルマトリックスW(t)の中で、速度ベクトルVi(t)が等しい画素同士をグルーピングする。
【0025】
その結果、図2(f)に示すように、画像全体はグルーピングされた画素群毎の複数の領域に分割される。
【0026】
そして、これによって得られた複数の領域が、それぞれ個々の対象物であると認識される。
【0027】
すなわち、同一対象物の速度ベクトルは等しいが、隣接している対象物同士の速度ベクトルは異なるため、速度ベクトルが変化する境界線がそれぞれの対象物の境界であると認識することができる。
【0028】
上記の手順の具体例を図3に示す。
【0029】
まず、図3(a)に示すように、振動テーブル1上に3個の対象物A、B、Cが重なり合った状態になっており、加振機2による振動によって、対象物A、B、Cは、それぞれ、図3(b)に示すような方向に微小移動しているとする。
【0030】
そして、時刻t=tに得られた画像マトリックスM(t)と、時刻t=t+Δtに得られた画像マトリックスM(t+Δt)との演算から、図3(c)に示すように画素毎の速度ベクトルVi(t)が求まる。この画素毎の速度ベクトルVi(t)を格納したものが速度ベクトルマトリックスW(t)である。
【0031】
この速度ベクトルマトリックスW(t)の内、速度ベクトルVi(t)が等しい画素同士をグルーピングすることにより、図3(d)に示すように、対象物A、B、Cに対応した3個の領域に区画される。
【0032】
これによって、対象物A、B、Cの存在とその位置を個別に認識することができる。
【0033】
なお、上記における画素同士の速度ベクトルVi(t)が等しいか否かの判断は、画素同士の速度ベクトルVi(t)の大きさ及び方向についての差異が、認識すべき対象物に応じて予め定めた閾値以内であれば、画素同士の速度ベクトルVi(t)は等しいと判断し、閾値を越えていれば、画素同士の速度ベクトルVi(t)は等しくないと判断することで行う。
【0034】
このようにして、この実施形態においては、複数個の対象物が密集したり重なり合った状態のままでも、個々の対象物の存在とその位置を個別に認識することができる。したがって、その後の処理工程において、前記の認識情報に基づいて個々の対象物の材質識別等を精度良く行うことが可能となり、材質識別等のための特別な整列装置や切出し装置を設ける必要が無くなる。
(第2の実施形態)
本発明に係る物体の個別認識装置を適用した廃棄物の選別装置を本発明の第2の実施形態として図4に示す。
【0035】
第2の実施形態に係る廃棄物の選別装置は、コンベア10、加振機2、カメラ3、画像処理装置4、センサユニット5、識別装置6、ハンドリングロボット7、ロボットコントローラ8、制御装置9、選別シュート11から構成されており、コンベア10で搬送されている多数の廃棄物21をその種類毎に所定の選別シュート11に仕分ける装置である。
【0036】
コンベア10は、その上面に選別対象である多数の廃棄物21を載せて移動するようになっている。
【0037】
加振機2は、コンベア10の上流部の下部に取り付けられており、コンベア10を裏面から打撃することにより、所定の振動を加えるようになっている。
【0038】
カメラ3は、加振機2の取り付け位置よりやや下流側のコンベア10の上方に設けられており、コンベア10上の廃棄物21を撮影し、その画像を画像処理装置4に送る。
【0039】
画像処理装置4は、カメラ3が撮影した画像を取り込み、所定の処理を行って、コンベア10上の廃棄物21を個別に認識する。
【0040】
センサユニット5は、カメラ3の設置位置から下流側に、コンベア10を跨ぐようにして設けられており、センサユニット5を通過するコンベア10上の廃棄物21の識別を行うために必要な所定の識別センサを備えている。例えば、材質を識別する材質識別センサや色を色識別センサ等である。
【0041】
識別装置6は、センサユニット5からの出力に基づいて、コンベア10上の廃棄物21の種類を識別する。
【0042】
ハンドリングロボット7は、センサユニット5の設置位置から下流側のコンベア10の側方に設けられており、コンベア10上の廃棄物21の中から所定の廃棄物を掴み、対応する選別シュート11に投入する。
【0043】
ロボットコントローラ8は、ハンドリングロボット7に動作を指示する。
【0044】
そして、制御装置9は、画像処理装置4と識別装置6とロボットコントローラ8を統合し、画像処理装置4による認識情報と識別装置6による識別情報に基づいて、ロボットコントローラ8を通じてハンドリングロボット7の動作を制御する。
【0045】
上記のように構成された廃棄物の選別装置において、コンベア10上に密集したり重なり合っった状態で搬送されている多数の廃棄物21をその種類毎に所定の選別シュート11に仕分ける手順を以下に説明する。
【0046】
まず、加振機2によってコンベア10に振動を加え、コンベア10上の廃棄物21に対して廃棄物同士の相対位置を微小に変化させながらカメラ3の下を通過させる。そして、カメラ3によって撮影されたコンベア10上の画像を画像処理装置4に送る。
【0047】
そして、画像処理装置4は、第1の実施形態で示したと同様の処理フローによって、微小時間Δtの間隔で得られた画像マトリックスM(t)と画像マトリックスM(t+Δt)とから画素毎の速度ベクトルVi(t)を演算し、速度ベクトルVi(t)が等しい画素同士をグルーピングすることにより、それぞれの廃棄物21の存在位置を個別に認識し、その認識情報を制御装置9に送る。
【0048】
そして、カメラ3とセンサユニット5とのコンベア進行方向の距離をx(m)とし、コンベア10の速度をv(m/s)とすると、カメラ3を通過した廃棄物21はτ=x/v(s)後に識別センサで感知され、その識別信号に基づいて、識別装置6がその廃棄物の種類を識別し、その識別情報を制御装置9に送る。
【0049】
制御装置9は、上記の時間遅れτを考慮した上で、画像処理装置4からの認識情報と識別装置6からの識別情報に基づいて、対象の廃棄物21の位置と種類に関する情報をロボットコントローラ8に伝達する。
【0050】
ロボットコントローラ8は、制御装置9からの情報に基づいて、ハンドリングロボット7に動作を指示し、ハンドリングロボット7は、その指示に基づいて、コンベア10上から対象の廃棄物21を掴み取り、所定の選別シュート11に投入する。
【0051】
例えば、コンベア10で搬送されてくる空ビンを透明ビンと着色ビンに仕分ける場合には、識別センサとして色識別センサが取り付けられ、空ビンの位置情報と色情報に基づいて、ハンドリングロボット7が、コンベア10から透明ビンを掴み出して透明ビン用シュートに投入し、着色ビンを掴み出して着色ビン用シュートに投入する。
【0052】
このようにして、この実施形態においては、コンベア10上に重なり合って搬送されている多数の廃棄物を、整列装置や切出し装置を用いなくとも、その種類毎に所定の選別シュート11に精度良く仕分けることができる。
【0053】
(第3の実施形態)
本発明に係る物体の個別認識装置を適用した廃プラスチックの選別装置を本発明の第3の実施形態として図5に示す。
【0054】
第3の実施形態に係る廃プラスチックの選別装置は、ローラコンベア10a、コンテナ12、加振機2、カメラ3、画像処理装置4、材質識別センサ5a、識別装置6、ハンドリングロボット7、ロボットコントローラ8、制御装置9、選別シュート11から構成されており、ローラコンベア10aで搬送されるコンテナ12の中に収容されている廃プラスチック22を、直接コンテナ12から取り出して、その材質毎に所定の選別シュート11に仕分ける装置である。
【0055】
ローラコンベア10aは、その上面にコンテナ12を載せて移動し、所定の位置に停止させるようになっている。
【0056】
コンテナ12は、上部が開放されており、内部に各種の廃プラスチック22が多数積み重なって収容されている。
【0057】
加振機2は、ローラコンベア10aの下方の位置に設置されており、ローラコンベア10aのローラの隙間から、加振機2の上方の所定位置に停止した対象コンテナ12aの外面を打撃することにより、対象コンテナ12aに所定の振動を加えるようになっている。
【0058】
カメラ3は、対象コンテナ12aの停止位置の上方に設けられており、対象コンテナ12内の廃プラスチック22を上方から撮影し、その画像を画像処理装置4に送る。
【0059】
画像処理装置4は、カメラ3が撮影した画像を取り込み、所定の処理を行って、対象コンテナ12a内の廃プラスチック22を個別に認識する。
【0060】
材質識別センサ5aは、対象コンテナ12aの停止位置と選別シュート11の設置位置の中間に設けられており、赤外線照射装置とその反射光を検知する検出器を一体としたセンサである。
【0061】
識別装置6は、廃プラスチックの材質により赤外線吸収率に差異があることを利用して、材質識別センサ5aが検知した赤外線の反射スペクトルに基づいて、廃プラスチックの材質をPS、PE、PP、PVC、PET、ABS等に容易に識別することができるようになっている。
【0062】
ハンドリングロボット7は、対象コンテナ12aの停止位置の近傍に設けられており、対象コンテナ12a内の廃プラスチックを掴み出し、センサ5aの視野を通過させた後、所定の選別シュート11に当該廃プラスチックを投入する。
【0063】
ロボットコントローラ8は、ハンドリングロボット7に動作を指示する。
【0064】
そして、制御装置9は、画像処理装置4と識別装置6とロボットコントローラ8を統合し、画像処理装置4による認識情報と識別装置6による識別情報に基づいて、ロボットコントローラ8を通じてハンドリングロボット7の動作を制御する。
【0065】
上記のように構成された廃プラスチックの選別装置において、コンテナ12内に積み重なった状態で収容されている廃プラスチック22をその材質毎に所定の選別シュート11に仕分けする手順を以下に説明する。
【0066】
まず、ローラコンベア10a上の対象コンテナ12aを加振機2の上方の所定位置に停止させ、加振機2によって対象コンテナ12aの外面を打撃することにより、対象コンテナ12aに所定の振動を加える。これによって、対象コンテナ12a内の廃プラスチック22は廃プラスチック同士の相対位置を微小に変化させる。
【0067】
そして、カメラ3によって上方から撮影された対象コンテナ12a内部の画像を画像処理装置4に送る。
【0068】
そして、画像処理装置4は、第1の実施形態で示したと同様の処理フローによって、微小時間Δtの間隔で得られた画像マトリックスM(t)と画像マトリックスM(t+Δt)とから画素毎の速度ベクトルVi(t)を演算し、速度ベクトルVi(t)が等しい画素同士をグルーピングすることにより、それぞれの廃プラスチック22の位置を個別に認識し、その認識情報を制御装置9に送る。
【0069】
そして、制御装置9はその認識情報に基づいて、対象の廃プラスチック22の位置情報をロボットコントローラ8に伝達する。
【0070】
そして、ロボットコントローラ8は、制御装置9からの位置情報に基づいて、ハンドリングロボット7に動作を指示し、ハンドリングロボット7は、その指示に基づいて、対象コンテナ12a内から対象の廃プラスチック22を掴み取り、当該廃プラスチック22を材質識別センサ5aの視野を通過させる。
【0071】
そして、材質識別センサ5aが検知した赤外線の反射スペクトルに基づいて、識別装置6は、廃プラスチック22の材質がPS、PE、PP、PVC、PET、ABS等のいずれであるか識別する。
【0072】
そして、その材質情報が制御装置9に送られ、制御装置9はロボットコントローラ8にその材質情報に対応した選別シュート11を指定する。
【0073】
そして、ロボットコントローラ8はハンドリングロボット7に指示して、当該廃プラスチック22をその材質情報に対応した選別シュート11に投入させる。
【0074】
以下、上記の手順を繰り返して、順次、対象コンテナ12a内の廃プラスチック22を選別し、対象コンテナ12aが空になるまで続ける。対象コンテナ12aが空になったかどうかはカメラ3による画像によって判定することも可能であるが、より簡便にはロードセル等によって対象コンテナ12aの重量をモニタして、対象コンテナ12aの重量が所定の閾値未満になったときに空になったと判定するようにしても良い。
【0075】
このようにして、この実施形態においては、コンテナ12内に積み重なった状態で収容されている廃プラスチック22を、整列装置や切出し装置を用いなくとも、その材質毎に所定の選別シュート11に精度良く仕分けることができる。
【0076】
なお、この実施形態では、廃プラスチックの材質選別を行っているが、材質識別センサ5aに替えて色識別センサを用いることにより、空びんの色選別等を行うことも可能である。
【0077】
また、予め多種類のセンサを用意しておき、例えば、曜日毎や時間毎に異なる種類の廃棄物を同一の選別装置で選別することも可能である。
【0078】
【発明の効果】
本発明によれば、複数個の対象物が密集したり重なり合った状態においても、個々の対象物の存在とその位置を個別に認識することができる。
【0079】
したがって、対象物を整列させたりほぐしたりするための整列装置や切出し装置の設置が不要となり、処理装置全体を小型化することができる。
【図面の簡単な説明】
【図1】本発明に係る第1の実施形態の説明図である。
【図2】本発明の第1の実施形態における処理フロー図である。
【図3】本発明の第1の実施形態における画像処理手順の説明図である。
【図4】本発明に係る第2の実施形態の説明図である。
【図5】本発明に係る第3の実施形態の説明図である。
【符号の説明】
1 振動テーブル
1a テーブル
2 加振機
3 カメラ
4 画像処理装置
5 センサユニット
5a 材質識別センサ
6 識別装置
7 ハンドリングロボット
8 ロボットコントローラ
9 制御装置
10 コンベア
10a ローラコンベア
11 選別シュート
12 コンテナ
12a 対象コンテナ
20 対象物
21 廃棄物
22 廃プラスチック
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an individual recognition method and an individual recognition device for individually recognizing each object in a state where a plurality of objects to be processed overlap each other, such as a waste sorting line.
[0002]
[Prior art]
Recycling-based social systems have been improved, various types of waste recycling facilities have been constructed, and sorting efficiency has been improved by mechanizing or automating conventional manual sorting operations.
[0003]
Among them, for the operation of identifying the material of the waste, many methods have been proposed for identifying the material based on optical information such as visible light, infrared light, and ultraviolet light.
[0004]
For example, Japanese Patent Application Laid-Open No. 9-89768 discloses a method of irradiating near-infrared rays to a waste plastic bottle which is conveyed while being aligned on a conveyor, and discriminating a plastic material from its absorbance. Also, Japanese Patent Application Laid-Open No. Hei 10-232166 discloses a method of irradiating a paper pack on a conveyor with near infrared rays and identifying the material of the paper pack from its absorbance.
[0005]
In these material identification methods, it is indispensable to align the identification objects in a dense or overlapping state one by one at predetermined intervals so as to face the identification sensor. Many inventions relating to the device have been made. For example, JP-A-8-143138 and JP-A-2002-114363 disclose an aligning apparatus provided with a dedicated conveyor for alignment.
[0006]
[Problems to be solved by the invention]
However, these alignment devices have the following problems.
[0007]
First, the accuracy of arranging the objects one by one at predetermined intervals is not sufficient, and sometimes a plurality of objects may be recognized as one object. For this reason, accurate identification cannot be performed in the subsequent material identification step, which causes a reduction in identification accuracy.
[0008]
In addition, the increase in the number of dedicated conveyors and cutting-out mechanisms for alignment increases the cost of the entire equipment, and requires space for installing them.
[0009]
The present invention has been made to solve the above problems, and a plurality of objects are densely or overlapped without using an alignment device or a cutting device for aligning or loosening the objects. It is an object of the present invention to provide an individual recognition method and an individual recognition device for an object capable of individually recognizing each target object in a state where the objects are kept in a state.
[0010]
[Means for Solving the Problems]
In order to solve the above problems, the present invention has the following features.
[0011]
[1] An individual recognition method for individually recognizing a plurality of objects, in which vibrations are simultaneously applied to the plurality of objects, and the plurality of objects being vibrated are photographed at intervals. A method for individually recognizing an object, comprising determining a speed vector for each pixel forming an image from an image captured at a time interval, and recognizing a group of pixels having the same speed vector as one object.
[0012]
[2] An individual recognizing device for individually recognizing a plurality of objects, a vibrating means for simultaneously vibrating the plurality of objects, and a plurality of objects vibrated by the vibrating means. And an image processing unit that determines a velocity vector for each pixel forming an image from an image captured by the imaging unit at a time interval, and recognizes a group of pixels having the same velocity vector as one object. An individual recognition device for an object, comprising:
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
FIG. 1 shows a first embodiment of the present invention.
[0014]
The individual object recognition device according to the first embodiment of the present invention includes a vibration table 1, a camera 3, and an image processing device 4.
[0015]
The vibration table 1 includes a table 1a and a vibrator 2 for applying vibration to the table 1a, and is configured to vibrate by placing a plurality of objects 20 on an upper surface thereof.
[0016]
The camera 3 is provided above the vibration table 1, photographs an object 20 on the vibration table 1, and sends the image to the image processing device 4.
[0017]
The image processing device 4 captures an image captured by the camera 3 and performs a predetermined process.
[0018]
Next, a method of individually recognizing a plurality of objects 20 in a dense or overlapping state on the vibration table 1 using the individual recognition device configured as described above will be described with reference to a processing flowchart shown in FIG. This will be described with reference to FIG.
[0019]
First, vibration is applied to the vibration table 1 by the vibrator 2. As a result, the plurality of objects 20 densely or overlapping on the vibration table 1 are individually minutely moved.
[0020]
Then, as shown in FIG. 2A, at an arbitrary time t = t during the minute movement, a plurality of objects 20 are photographed by the camera 3, and the images are used as an image matrix M (t). Take in 4.
[0021]
Next, as shown in FIG. 2B, at time t = t + Δt after a lapse of a short time Δt from time t, a plurality of objects 20 are photographed again by the camera 3, and the images are converted into an image matrix M ( (t + Δt) is taken into the image processing apparatus 4.
[0022]
Next, as shown in FIG. 2C, a predetermined function F is used to move each pixel forming an image for a time period Δt from the image matrix M (t) and the image matrix M (t + Δt). The quantity, that is, the velocity vector Vi (t) for each pixel is obtained.
[0023]
Then, as shown in FIG. 2D, a speed vector matrix W (t) having the speed vector Vi (t) for each pixel as an element is defined and stored in the image processing device 4. That is, W (t) = W (Vi (t)).
[0024]
Next, as shown in FIG. 2E, pixels having the same speed vector Vi (t) are grouped in the speed vector matrix W (t).
[0025]
As a result, as shown in FIG. 2F, the entire image is divided into a plurality of regions for each group of pixels.
[0026]
Then, the plurality of regions obtained as described above are each recognized as an individual object.
[0027]
That is, since the speed vectors of the same object are the same, but the speed vectors of the adjacent objects are different, it is possible to recognize that the boundary line at which the speed vector changes is the boundary of each object.
[0028]
FIG. 3 shows a specific example of the above procedure.
[0029]
First, as shown in FIG. 3A, three objects A, B, and C are overlapped on the vibration table 1, and the objects A, B, and It is assumed that C has slightly moved in the directions as shown in FIG.
[0030]
Then, from the calculation of the image matrix M (t) obtained at the time t = t and the image matrix M (t + Δt) obtained at the time t = t + Δt, as shown in FIG. The vector Vi (t) is obtained. The speed vector matrix W (t) stores the speed vector Vi (t) for each pixel.
[0031]
By grouping pixels having the same speed vector Vi (t) in the speed vector matrix W (t), three pixels corresponding to the objects A, B and C are grouped as shown in FIG. It is divided into areas.
[0032]
Thereby, the existence and the position of the objects A, B, and C can be individually recognized.
[0033]
It should be noted that whether or not the speed vectors Vi (t) of the pixels are equal in the above is determined in advance according to the difference between the size and the direction of the speed vector Vi (t) between the pixels according to the object to be recognized. The determination is made by judging that the speed vectors Vi (t) of the pixels are equal to each other when the threshold value is within the predetermined threshold value, and by judging that the speed vectors Vi (t) of the pixels are not equal to each other when the threshold value is exceeded.
[0034]
In this manner, in this embodiment, the existence and position of each individual object can be individually recognized even when a plurality of objects are densely or overlapped. Therefore, in the subsequent processing steps, it is possible to accurately perform material identification and the like of each target object based on the recognition information, and it is not necessary to provide a special alignment device or cutting device for material identification or the like. .
(Second embodiment)
A waste sorting apparatus to which the individual object recognition apparatus according to the present invention is applied is shown in FIG. 4 as a second embodiment of the present invention.
[0035]
The waste sorting device according to the second embodiment includes a conveyor 10, a vibrator 2, a camera 3, an image processing device 4, a sensor unit 5, an identification device 6, a handling robot 7, a robot controller 8, a control device 9, The sorting chute 11 comprises a sorting chute 11 and sorts a large number of wastes 21 conveyed by the conveyor 10 into predetermined sorting chute 11 for each type.
[0036]
The conveyor 10 moves with a large number of wastes 21 to be sorted placed thereon.
[0037]
The vibrator 2 is attached to the lower part of the upstream part of the conveyor 10, and applies a predetermined vibration by hitting the conveyor 10 from the back surface.
[0038]
The camera 3 is provided above the conveyor 10 slightly downstream of the mounting position of the vibration exciter 2, photographs the waste 21 on the conveyor 10, and sends the image to the image processing device 4.
[0039]
The image processing device 4 captures an image captured by the camera 3, performs a predetermined process, and individually recognizes the waste 21 on the conveyor 10.
[0040]
The sensor unit 5 is provided so as to straddle the conveyor 10 on the downstream side from the installation position of the camera 3, and has a predetermined shape necessary for identifying the waste 21 on the conveyor 10 passing through the sensor unit 5. An identification sensor is provided. For example, a material identification sensor for identifying a material, a color identification sensor for a color, or the like is used.
[0041]
The identification device 6 identifies the type of the waste 21 on the conveyor 10 based on the output from the sensor unit 5.
[0042]
The handling robot 7 is provided on the side of the conveyor 10 on the downstream side from the installation position of the sensor unit 5, grasps a predetermined waste from the waste 21 on the conveyor 10, and puts it into the corresponding sorting chute 11. I do.
[0043]
The robot controller 8 instructs the handling robot 7 to operate.
[0044]
The control device 9 integrates the image processing device 4, the identification device 6, and the robot controller 8, and operates the handling robot 7 through the robot controller 8 based on the recognition information from the image processing device 4 and the identification information from the identification device 6. Control.
[0045]
In the waste sorting apparatus configured as described above, a procedure for sorting a large number of wastes 21 conveyed in a state of being densely or overlapping on the conveyor 10 into predetermined sorting chutes 11 for each type will be described below. Will be described.
[0046]
First, the conveyer 10 is vibrated by the vibrator 2 to pass the waste 21 on the conveyor 10 under the camera 3 while slightly changing the relative position between the wastes. Then, the image on the conveyor 10 taken by the camera 3 is sent to the image processing device 4.
[0047]
Then, the image processing apparatus 4 calculates the speed of each pixel from the image matrix M (t) and the image matrix M (t + Δt) obtained at intervals of the short time Δt by the same processing flow as described in the first embodiment. By calculating the vector Vi (t) and grouping pixels having the same speed vector Vi (t), the position of each waste 21 is individually recognized, and the recognition information is sent to the control device 9.
[0048]
Then, assuming that the distance between the camera 3 and the sensor unit 5 in the direction of travel of the conveyor is x (m) and the speed of the conveyor 10 is v (m / s), the waste 21 that has passed through the camera 3 is τ = x / v (S) Later, it is sensed by the identification sensor, and based on the identification signal, the identification device 6 identifies the type of the waste and sends the identification information to the control device 9.
[0049]
The control device 9 takes into account the time delay τ and, based on the recognition information from the image processing device 4 and the identification information from the identification device 6, sends information on the position and type of the target waste 21 to the robot controller. 8
[0050]
The robot controller 8 instructs the handling robot 7 to operate based on the information from the control device 9, and the handling robot 7 grasps the target waste 21 from the conveyor 10 based on the instruction and performs predetermined sorting. Put it in the chute 11.
[0051]
For example, when sorting empty bins conveyed by the conveyor 10 into transparent bins and colored bins, a color identification sensor is attached as an identification sensor, and the handling robot 7 operates based on the empty bin position information and color information. The transparent bottle is grasped from the conveyor 10 and thrown into the transparent bottle chute, and the colored bottle is grasped and thrown into the colored bin chute.
[0052]
In this manner, in this embodiment, a large number of wastes stacked and conveyed on the conveyor 10 are accurately sorted into predetermined sorting chutes 11 for each type without using an aligning device or a cutting device. be able to.
[0053]
(Third embodiment)
FIG. 5 shows a waste plastic sorting apparatus to which the individual object recognition apparatus according to the present invention is applied, as a third embodiment of the present invention.
[0054]
The waste plastic sorting device according to the third embodiment includes a roller conveyor 10a, a container 12, a shaker 2, a camera 3, an image processing device 4, a material identification sensor 5a, an identification device 6, a handling robot 7, and a robot controller 8. , A control device 9 and a sorting chute 11. The waste plastic 22 contained in the container 12 conveyed by the roller conveyor 10 a is directly taken out of the container 12, and a predetermined sorting chute is set for each material. This is a device for sorting into 11 units.
[0055]
The roller conveyor 10a is configured to move with the container 12 placed on its upper surface and stop at a predetermined position.
[0056]
The container 12 is open at the top, and accommodates a large number of various waste plastics 22 in a stack.
[0057]
The vibrator 2 is installed at a position below the roller conveyor 10a, and hits the outer surface of the target container 12a stopped at a predetermined position above the vibrator 2 from a gap between the rollers of the roller conveyor 10a. A predetermined vibration is applied to the target container 12a.
[0058]
The camera 3 is provided above the stop position of the target container 12a, photographs the waste plastic 22 in the target container 12 from above, and sends the image to the image processing device 4.
[0059]
The image processing device 4 captures the image captured by the camera 3, performs a predetermined process, and individually recognizes the waste plastic 22 in the target container 12a.
[0060]
The material identification sensor 5a is provided between the stop position of the target container 12a and the installation position of the sorting chute 11, and is a sensor in which an infrared irradiation device and a detector that detects reflected light thereof are integrated.
[0061]
The identification device 6 uses the fact that there is a difference in the infrared absorptance depending on the material of the waste plastic, and determines the material of the waste plastic based on the reflection spectrum of the infrared ray detected by the material identification sensor 5a, as PS, PE, PP, or PVC. , PET, ABS, and the like.
[0062]
The handling robot 7 is provided in the vicinity of the stop position of the target container 12a, grasps the waste plastic in the target container 12a, passes the waste plastic through the field of view of the sensor 5a, and places the waste plastic in a predetermined sorting chute 11. throw into.
[0063]
The robot controller 8 instructs the handling robot 7 to operate.
[0064]
The control device 9 integrates the image processing device 4, the identification device 6, and the robot controller 8, and operates the handling robot 7 through the robot controller 8 based on the recognition information from the image processing device 4 and the identification information from the identification device 6. Control.
[0065]
A procedure for sorting the waste plastics 22 stored in the container 12 in a stacked state in the waste plastic sorting apparatus configured as described above into predetermined sorting chutes 11 for each material will be described below.
[0066]
First, the target container 12a on the roller conveyor 10a is stopped at a predetermined position above the vibrator 2, and a predetermined vibration is applied to the target container 12a by hitting the outer surface of the target container 12a by the vibrator 2. Accordingly, the waste plastic 22 in the target container 12a slightly changes the relative position between the waste plastics.
[0067]
Then, the image inside the target container 12 a taken from above by the camera 3 is sent to the image processing device 4.
[0068]
Then, the image processing apparatus 4 calculates the speed of each pixel from the image matrix M (t) and the image matrix M (t + Δt) obtained at intervals of the short time Δt by the same processing flow as described in the first embodiment. By calculating the vector Vi (t) and grouping pixels having the same speed vector Vi (t), the position of each waste plastic 22 is individually recognized, and the recognition information is sent to the control device 9.
[0069]
Then, the control device 9 transmits the position information of the target waste plastic 22 to the robot controller 8 based on the recognition information.
[0070]
Then, the robot controller 8 instructs the handling robot 7 to operate based on the position information from the control device 9, and the handling robot 7 grasps the target waste plastic 22 from the target container 12a based on the instruction. Then, the waste plastic 22 passes through the visual field of the material identification sensor 5a.
[0071]
Then, based on the reflection spectrum of the infrared ray detected by the material identification sensor 5a, the identification device 6 identifies whether the material of the waste plastic 22 is PS, PE, PP, PVC, PET, ABS, or the like.
[0072]
Then, the material information is sent to the control device 9, and the control device 9 specifies the sorting chute 11 corresponding to the material information to the robot controller 8.
[0073]
Then, the robot controller 8 instructs the handling robot 7 to put the waste plastic 22 into the sorting chute 11 corresponding to the material information.
[0074]
Hereinafter, the above-described procedure is repeated, and the waste plastics 22 in the target container 12a are sequentially sorted, and the process is continued until the target container 12a becomes empty. Whether or not the target container 12a is empty can be determined by an image from the camera 3, but more simply, the weight of the target container 12a is monitored by a load cell or the like, and the weight of the target container 12a is determined by a predetermined threshold value. It may be determined that it is empty when it becomes less than.
[0075]
In this manner, in this embodiment, the waste plastics 22 stored in a stacked state in the container 12 can be accurately placed on the predetermined sorting chute 11 for each material without using an aligning device or a cutting device. Can be sorted.
[0076]
In this embodiment, the material selection of the waste plastic is performed. However, it is also possible to perform the color selection of empty bottles by using a color identification sensor instead of the material identification sensor 5a.
[0077]
In addition, it is also possible to prepare various types of sensors in advance, and to sort different types of waste by the same sorting device, for example, every day of the week or every hour.
[0078]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, the presence and position of each object can be individually recognized even in the state where a plurality of objects are densely or overlapped.
[0079]
Therefore, it is not necessary to provide an alignment device or a cutting device for aligning or loosening the target object, and the entire processing apparatus can be reduced in size.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of a first embodiment according to the present invention.
FIG. 2 is a processing flowchart according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram of an image processing procedure according to the first embodiment of the present invention.
FIG. 4 is an explanatory diagram of a second embodiment according to the present invention.
FIG. 5 is an explanatory diagram of a third embodiment according to the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Vibration table 1a Table 2 Exciter 3 Camera 4 Image processing device 5 Sensor unit 5a Material identification sensor 6 Identification device 7 Handling robot 8 Robot controller 9 Control device 10 Conveyor 10a Roller conveyor 11 Sorting chute 12 Container 12a Target container 20 Target object 21 Waste 22 Waste plastic

Claims (2)

複数個の物体を個別に認識するための個別認識方法であって、複数個の物体に同時に振動を加え、振動を加えられている複数個の物体を時間を隔てて撮影し、この時間を隔てて撮影された画像から画像を形成する画素毎の速度ベクトルを求め、該速度ベクトルが等しい画素群を1つの物体として認識することを特徴とする物体の個別認識方法。An individual recognition method for individually recognizing a plurality of objects, in which vibrations are simultaneously applied to the plurality of objects, and the plurality of objects being vibrated are photographed with a time interval therebetween. A speed vector for each pixel forming an image from an image photographed by the camera, and recognizing a group of pixels having the same speed vector as one object. 複数個の物体を個別に認識するための個別認識装置であって、複数個の物体に同時に振動を加える加振手段と、該加振手段により振動を加えられている複数個の物体を撮影する撮像手段と、該撮像手段が時間を隔てて撮影した画像から画像を形成する画素毎の速度ベクトルを求め、該速度ベクトルが等しい画素群を1つの物体として認識する画像処理手段とを有することを特徴とする物体の個別認識装置。An individual recognizing device for individually recognizing a plurality of objects, comprising: vibrating means for simultaneously vibrating a plurality of objects; and photographing the plurality of objects vibrated by the vibrating means. An imaging unit, and an image processing unit that obtains a speed vector for each pixel forming an image from an image captured by the imaging unit at a time interval and recognizes a group of pixels having the same speed vector as one object. Individual recognition device for featured objects.
JP2002250158A 2002-08-29 2002-08-29 Individual recognition method and individual recognition apparatus Expired - Fee Related JP3952908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002250158A JP3952908B2 (en) 2002-08-29 2002-08-29 Individual recognition method and individual recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002250158A JP3952908B2 (en) 2002-08-29 2002-08-29 Individual recognition method and individual recognition apparatus

Publications (2)

Publication Number Publication Date
JP2004086799A true JP2004086799A (en) 2004-03-18
JP3952908B2 JP3952908B2 (en) 2007-08-01

Family

ID=32057055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002250158A Expired - Fee Related JP3952908B2 (en) 2002-08-29 2002-08-29 Individual recognition method and individual recognition apparatus

Country Status (1)

Country Link
JP (1) JP3952908B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011161304A1 (en) * 2010-06-24 2011-12-29 Zenrobotics Oy Method for the selection of physical objects in a robot system
WO2012136885A1 (en) * 2011-04-05 2012-10-11 Zenrobotics Oy Method for invalidating sensor measurements after a picking action in a robot system
JP2017210347A (en) * 2016-05-26 2017-11-30 株式会社日本パープル Processing method and processing equipment for waster matter having confidentiality
NL2023190B1 (en) * 2019-05-24 2020-12-02 Univ Delft Tech Method and device for removing objects from a plane
CN114025889A (en) * 2019-05-24 2022-02-08 代尔夫特科技大学 Device and method for picking up objects from a surface
RU2814860C1 (en) * 2023-03-23 2024-03-05 Общество с ограниченной ответственностью "Чистая Среда-ЭКОБОТ" Software and hardware complex for automatic sorting of solid wastes

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7178954B2 (en) * 2019-04-25 2022-11-28 東急建設株式会社 Object sorting system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011161304A1 (en) * 2010-06-24 2011-12-29 Zenrobotics Oy Method for the selection of physical objects in a robot system
US9050719B2 (en) 2010-06-24 2015-06-09 Zenrobotics Oy Method for the selection of physical objects in a robot system
WO2012136885A1 (en) * 2011-04-05 2012-10-11 Zenrobotics Oy Method for invalidating sensor measurements after a picking action in a robot system
JP2017210347A (en) * 2016-05-26 2017-11-30 株式会社日本パープル Processing method and processing equipment for waster matter having confidentiality
NL2023190B1 (en) * 2019-05-24 2020-12-02 Univ Delft Tech Method and device for removing objects from a plane
CN114025889A (en) * 2019-05-24 2022-02-08 代尔夫特科技大学 Device and method for picking up objects from a surface
CN114025889B (en) * 2019-05-24 2024-03-08 代尔夫特科技大学 Apparatus and method for picking up objects from a surface
RU2814860C1 (en) * 2023-03-23 2024-03-05 Общество с ограниченной ответственностью "Чистая Среда-ЭКОБОТ" Software and hardware complex for automatic sorting of solid wastes

Also Published As

Publication number Publication date
JP3952908B2 (en) 2007-08-01

Similar Documents

Publication Publication Date Title
US11389834B2 (en) Systems and methods for sorting recyclable items and other materials
CA2970735C (en) Sorting system with multiple sorting devices
JP3104949B2 (en) Waste bottle sorting device
AU682604B2 (en) System and method for automatically feeding, inspecting and diverting tablets for continuous filling of tablet containers
EP3704626A1 (en) Systems and methods for optical material characterization of waste materials using machine learning
EP0504398A4 (en) A computer-controlled system and method for sorting plastic items
JP6751812B1 (en) Container sorting system, container sorting method and container sorting program to sort containers from garbage including containers
JP3952908B2 (en) Individual recognition method and individual recognition apparatus
CN105710043A (en) Button sorting method and system
JPH11197609A (en) Classifying apparatus for discarded bottle
JP3679843B2 (en) Article counting device by image processing
EP0824042A1 (en) Machine for sorting plastic bottles and method implemented hereby
JPH10202571A (en) Robot system for screening specified object in waste
JP3603353B2 (en) Waste bottle color sorter
JP7397162B2 (en) Distance sensing conveyor package management system that measures and controls the density of parcels on a conveyor
JP2008127114A (en) Article conveying device
JP3312488B2 (en) Bottle color sorter
CN217888733U (en) Bottle lid two-dimensional code automatic check out test set
US20230005127A1 (en) Method and device for detecting containers which have fallen over and/or are damaged in a container mass flow
JP2001259536A (en) Method and apparatus for classifying waste
JP3677908B2 (en) Waste bottle color sorting method and sorting apparatus
CN116685417A (en) Conveying system
JP5418185B2 (en) Image processing method and image processing apparatus
JPH1090067A (en) Glass body sorter
JP2002292342A (en) Apparatus for arranging a plurality of rows of waste plastics and divider for waste plastics using the apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees