JP2020179355A - 物体選別システム及びエッジ領域抽出プログラム - Google Patents

物体選別システム及びエッジ領域抽出プログラム Download PDF

Info

Publication number
JP2020179355A
JP2020179355A JP2019084648A JP2019084648A JP2020179355A JP 2020179355 A JP2020179355 A JP 2020179355A JP 2019084648 A JP2019084648 A JP 2019084648A JP 2019084648 A JP2019084648 A JP 2019084648A JP 2020179355 A JP2020179355 A JP 2020179355A
Authority
JP
Japan
Prior art keywords
image
region
area
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019084648A
Other languages
English (en)
Other versions
JP7178954B2 (ja
Inventor
菜月 白井
Nazuki Shirai
菜月 白井
中村 聡
Satoshi Nakamura
中村  聡
豊 熊谷
Yutaka Kumagai
豊 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ISHIZAKA SANGYO KK
Tokyu Construction Co Ltd
Original Assignee
ISHIZAKA SANGYO KK
Tokyu Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ISHIZAKA SANGYO KK, Tokyu Construction Co Ltd filed Critical ISHIZAKA SANGYO KK
Priority to JP2019084648A priority Critical patent/JP7178954B2/ja
Publication of JP2020179355A publication Critical patent/JP2020179355A/ja
Application granted granted Critical
Publication of JP7178954B2 publication Critical patent/JP7178954B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】 重なった状態の物体群から、最上層にある物体を選別することができる物体選別システムを提供する。【解決手段】 搬送部2で移動する重なった状態の物体群Gから特定の物体Mを選別する物体選別システムである。物体選別システム1は、3Dスキャナ11が物体群Gを撮影した画像(レーザ輝度画像S1)に基づいて、物体群Gの全体領域Eを特定する全体領域特定部21と、全体領域Eに基づいて、物体群Gに含まれる物体のエッジ領域Tを生成するエッジ領域生成部22と、エッジ領域Tに基づいて、領域分割画像P1を生成する領域分割画像生成部23と、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する大領域算出部24と、大領域M2と、画像(距離画像S2)とに基づいて、最上層領域M3を算出する最上層領域算出部25と、最上層領域M3を特定の物体Mとして選別するロボットハンド部43と、を備える。【選択図】図3

Description

本発明は、移動する重なった状態の物体群から特定の物体を選別する物体選別システムに関するものである。
従来、複数の物体の中から特定の物体を選別する物体選別システムが知られている(例えば、特許文献1参照)。
特許文献1には、スチールコンベア上の廃棄物のうちの木片を判別可能とする出力をする認識装置と、スチールコンベア上の木片を保持可能なハンドリング機構と、認識装置の出力に従い木片を判別し、判別した木片をスチールコンベア上から取り除くようにハンドリング機構を制御する処理部と、を備える廃棄物の選別を行う廃棄物選別処理設備が開示されている。
特開2015−128763号公報
しかしながら、特許文献1の廃棄物選別処理設備は、重なった状態の廃棄物群から特定の廃棄物を選別することができないため、認識装置の前段に、廃棄物の堆積形態を平坦化する振動篩機を備える必要がある。
そこで、本発明は、重なった状態の物体群から、最上層にある物体を選別することができる物体選別システムを提供することを目的とする。
前記目的を達成するために、本発明の物体選別システムは、搬送部で移動する重なった状態の物体群から特定の物体を選別する物体選別システムであって、3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、前記最上層領域を特定の物体として選別するロボットハンド部と、を備えることを特徴とする。
ここで、本発明の物体選別システムでは、前記画像は、レーザ輝度画像と距離画像であって、前記エッジ領域生成部は、前記距離画像に基づいて抽出された前記物体群の距離画像エッジ領域と、前記レーザ輝度画像に基づいて抽出された前記物体群の輝度画像エッジ領域と、を生成してもよい。
また、本発明の物体選別システムでは、前記3Dスキャナに隣接して配置されたエリアカメラが前記物体群を撮影したカラー画像から、前記最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別してもよい。
また、本発明の物体選別システムでは、前記材質判定部は、前記物体の前記カラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、前記カラー付最上層領域が、対象の材質であるか否かを判定してもよい。
また、本発明の物体選別システムでは、前記学習済みモデルは、前記物体の前記距離画像に基づいて、前記物体の高さ情報を均一化した情報を使って機械学習を実行してもよい。
また、本発明の物体選別システムでは、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群高と、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、前記エリアカメラから前記搬送部までの第1距離と、前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、前記エリアカメラの中心から前記物体群の中心までの第2距離と、前記物体群の中心と前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備えてもよい。
さらに、本発明のエッジ領域抽出プログラムでは、物体群に含まれる物体のエッジ領域を抽出するエッジ領域抽出プログラムであって、3Dスキャナが前記物体群を撮影した距離画像から抽出された前記物体の距離画像エッジ領域と、前記3Dスキャナが前記物体群を撮影したレーザ輝度画像から抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させることを特徴とする。
このように構成された本発明の物体選別システムは、3Dスキャナが物体群を撮影した画像に基づいて、物体群の全体領域を特定する全体領域特定部と、全体領域に基づいて、物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、算出された大領域と画像とに基づいて、最上層領域を算出する最上層領域算出部と、最上層領域を特定の物体として選別するロボットハンド部と、を備える。これにより、重なった状態の物体群から、最上層にある物体を選別することができる。
また、本発明の物体選別システムでは、エッジ領域生成部は、距離画像に基づいて抽出された物体群の距離画像エッジ領域と、レーザ輝度画像に基づいて抽出された物体群の輝度画像エッジ領域と、を生成する。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができる。そのため、エッジ領域Tを精度よく取得することができる。
また、本発明の物体選別システムでは、3Dスキャナに隣接して配置されたエリアカメラが物体群を撮影したカラー画像から、最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する。これにより、重なった状態の物体群から、最上層にある物体の材質を選別することができる。
また、本発明の物体選別システムでは、材質判定部は、物体のカラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、カラー付最上層領域が、対象の材質であるか否かを判定する。これにより、対象の材質の色の特徴を強調して、周りの物体との特徴の差を大きくすることができ、学習済みモデルの精度を向上させ、材質判定部による対象の材質の判定精度を上げることができる。
また、本発明の物体選別システムでは、学習済みモデルは、物体の距離画像に基づいて、物体の高さ情報を均一化した情報を使って機械学習を実行した。これにより、明るさを平坦化(均一化)して、学習済みモデルの精度を向上させることができる。
また、本発明の物体選別システムでは、カラー画像と、距離画像と、の物体群の位置と大きさを補正する画像補正部を備えることで、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。
また、本発明のエッジ領域抽出プログラムでは、3Dスキャナが物体群を撮影した距離画像から抽出された物体の距離画像エッジ領域と、3Dスキャナが物体群を撮影したレーザ輝度画像から抽出された物体の輝度画像エッジ領域と、を統合して物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させる。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができ、エッジ領域を精度よく取得することができる。
実施例1の物体選別システムの構成を説明する図である。 実施例1のレーザ輝度画像と距離画像とカラー画像を示す図である。 実施例1の物体選別システムの機能構成を示すブロック図である。 実施例1の物体選別システムによる画像処理を説明する図であり、図4(a)は、3Dスキャナが物体群を撮影したレーザ輝度画像を示す図であり、図4(b)は、全体領域特定部が特定した全体領域を示す図である。 実施例1の物体選別システムによる画像処理を説明する図であり、図5(a)は、エッジ領域生成部が生成したエッジ領域を示す図であり、図5(b)は、領域分割画像生成部がエッジ領域を距離画像に重ねた図である。 実施例1の物体選別システムによる画像処理を説明する図であり、図6(a)は、領域分割画像生成部が生成した領域分割画像を示す図であり、図6(b)は、大領域算出部が算出した大領域を示す図である。 実施例1の物体選別システムによる画像処理を説明する図であり、図7(a)は、最上層領域算出部が算出した最上層領域を示す図であり、図7(b)は、最上層領域算出部について説明する説明図である。 実施例1の画像補正部について説明する説明図である。 実施例1の物体選別システムによる画像処理を説明する図であり、カラー付最上層領域生成部が生成したカラー付最上層領域を示す図である。 実施例1の高さ情報の均一化について説明する図である。 実施例1の学習に使用する画像について説明する図である。 実施例1の色補正について説明する図である。 実施例1の物体選別システムによる物体選別処理の流れを示すフローチャートである。
以下、本発明による物体選別システムを実現する実施形態を、図面に示す実施例1に基づいて説明する。
実施例1では、重なった状態の複数の物体(物体群)から最上層にある木材を選別する物体選別システムを説明する。実施例1では、物体を建造物の解体工事等で発生した廃棄物とする例を説明する。
[物体選別システムの構成]
図1は、実施例1の物体選別システムの構成を説明する図である。図2は、実施例1のレーザ輝度画像と距離画像とカラー画像を示す図である。以下、図1及び図2に基づいて、実施例1の物体選別システムの構成を説明する。
物体選別システム1は、搬送部2と、撮影部10と、制御部20と、選別部40と、で構成される。
(搬送部)
搬送部2は、例えば、ベルトコンベア等の搬送帯とすることができる。搬送部2には、重なった状態の複数の物体Mの物体群Gが載せられる。搬送部2は、循環するように構成される。
(撮影部)
撮影部10は、搬送部2上に設けられた撮影ボックス13と、3Dスキャナ11と、エリアカメラ12と、で構成される。
撮影ボックス13は、筒状に形成され、搬送部2の所定の位置に、搬送部2の上部を覆うように設置される。撮影ボックス13の内側には、LED照明13aと、LED照明13aの光を拡散する反射板13bとが取り付けられる。
3Dスキャナ11は、例えば、LIM TECHNOLOGIES社製のGocator2730とすることができる。3Dスキャナ11は、光切断法により、距離画像とレーザ輝度画像を取得する。3Dスキャナ11は、撮影ボックス13の上部に設置される。
エリアカメラ12は、例えば、CIS社製のVCC-5CXP3Rとすることができる。エリアカメラ12は、カラー画像を取得する。エリアカメラ12は、撮影ボックス13の上部に、3Dスキャナ11と隣接して設置される。
このように構成された撮影部10では、搬送部2に載せられて搬送される物体群Gは、撮影ボックス13を通過する際に、LED照明13aで照射された状態で、3Dスキャナ11とエリアカメラ12とによって撮影される。
そして、図2(a)に示すようなレーザ輝度画像S1と、図2(b)に示すような距離画像S2と、図2(c)に示すようなカラー画像S3とを取得する。
(制御部)
制御部20は、PC(パーソナルコンピュータ)とすることができる。なお、制御部20の機能構成については後述する。
(選別部)
選別部40は、制御盤41を介して制御部20からの情報を受け取るコントローラ42と、コントローラ42によって駆動が制御されるロボットハンド部43と、を備える。
制御盤41は、例えば、PLC(Programmable Logic Controller)とすることができる。コントローラ42は、制御盤41からの情報に基づいて、ロボットハンド部43を制御する。
ロボットハンド部43は、例えば、垂直多関節の6軸ロボットとすることができる。ロボットハンド部43は、搬送部2に沿って配置される。ロボットハンド部43は、搬送部2の搬送方向で、撮影部10の下流に配置される。ロボットハンド部43は、搬送部2に載せられて搬送される物体Mを把持して、回収ボックス44に回収させるように構成される。
このように構成された物体選別システム1は、搬送部2の位置をエンコーダにより取得して、撮影部10で撮影した物体群Gの中から、制御部20の制御情報に基づいて、ロボットハンド部43が特定の物体Mを選別する。
[物体選別システムの機能構成]
図3は、実施例1の物体選別システムの機能構成を示すブロック図である。図4〜7は、実施例1の物体選別システムによる画像処理を説明する図である。図8は、実施例1の画像補正部26について説明する説明図である。図9は、実施例1の物体選別システムによる画像処理を説明する図である。以下、図3〜図9に基づいて、実施例1の物体選別システムの機能構成を説明する。
物体選別システム1は、図3に示すように、主に、3Dスキャナ11と、エリアカメラ12と、搬送部2と、制御部20と、コントローラ42と、ロボットハンド部43と、を備える。
3Dスキャナ11は、光切断法により、搬送部2で搬送中の物体群Gのレーザ輝度画像S1と距離画像S2とを取得する。レーザ輝度画像S1と距離画像S2とは、制御部20に送信される。
エリアカメラ12は、搬送部2で搬送中の物体群Gのカラー画像S3を取得する。カラー画像S3は、制御部20に送信される。
搬送部2は、図示しないエンコーダに接続され、搬送部2の搬送量が制御部20に送信される。
制御部20は、全体領域特定部21と、エッジ領域生成部22と、領域分割画像生成部23と、大領域算出部24と、最上層領域算出部25と、画像補正部26と、カラー付最上層領域生成部27と、材質判定部28と、色補正部29と、高さ情報均一化部30と、記憶部31と、を備える。
全体領域特定部21は、図4(a)に示す3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、図4(b)に示す物体群Gの全体領域Eを特定する。全体領域特定部21は、所定の輝度の閾値を設けて、背景領域である搬送部2と、廃棄物領域である物体群Gとを分離して、物体群Gの全体領域Eを特定する。
なお、全体領域特定部21は、3Dスキャナ11が物体群Gを撮影した距離画像S2に基づいて、物体群Gの全体領域Eを特定してもよい。ただし、全体領域特定部21は、レーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定した方が、背景である搬送部2と物体群Gの色の差が出やすいため好ましい。
エッジ領域生成部22は、図5(a)に示すように、cannyフィルタ、sobelフィルタ、lanserフィルタ等のフィルタを用いて、全体領域Eの中から、物体群Gに含まれる物体Mのエッジ領域Tを生成する。
エッジ領域生成部22は、エッジ領域Tとしての距離画像エッジ領域Taと輝度画像エッジ領域Tbと、を生成する。エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成して、統合する。
また、エッジ領域生成部22は、エッジ領域Tの中心軸を抽出する。エッジ領域生成部22は、距離画像エッジ領域Taと、輝度画像エッジ領域Tbと、を生成して、統合するエッジ領域生成手段として機能する。
領域分割画像生成部23は、図5(b)に示すように、統合したエッジ領域Tを距離画像S2に重ねる。領域分割画像生成部23は、図6(a)に示すように、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法で同じような特徴を持つ複数の分割領域M1に領域分割して、領域分割画像P1を生成する。
なお、領域分割画像生成部23は、レーザ輝度画像S1に重ねたエッジ領域Tに基づいて、領域成長法で領域分割して、領域分割画像を生成してもよい。ただし、距離画像S2に重ねたエッジ領域Tに基づいて、領域分割画像P1を生成した方が、物体Mの表面の色情報の影響を受けないため、精度よく領域分割することができる。
大領域算出部24は、図6(b)に示すように、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する。所定の面積とは、ロボットハンド部43が掴むことのできる程度の大きさをいう。なお、大領域算出部24は、領域分割画像P1に基づいて、所定の幅以上の大幅領域を算出してもよい。
最上層領域算出部25は、図7(a)に示すように、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する。具体的には、まず、大領域M2を距離画像S2に重ね合わせる。次に、図7(b)に示すように、各大領域M2について、周囲の物体Mとの最小距離Fにある、物体Mの点P1と、大領域M2の点P2とを抽出する。次に、点P1を中心とした一定の半径Rで囲まれる物体Mの領域A1の高さ平均と、点P2を中心とした一定の半径Rで囲まれる大領域M2の領域A2の高さ平均と、を比較する。
大領域M2の周囲の全ての物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が高い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3と判断する。
一方、大領域M2の周囲の物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が低い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3でないと判断する。このようにして、距離画像S2に最上層領域M3が反映された第2距離画像P2が生成される。
ところで、距離画像S2は、影になって取得できない領域ができてしまう。大領域M2と、その周囲の距離画像S2中の物体Mとの距離を規定することで、影になって取得できない領域ができたとしても、最上層領域算出部25は、最上層領域M3を算出することができる。
なお、距離画像S2に最上層領域M3が反映された第2距離画像P2は、後述する機械学習(ディープラーニング)と、ロボットハンド部43の姿勢決定に使用される。
ところで、エリアカメラ12から取得したカラー画像S3と、3Dスキャナ11から取得した距離画像S2及びレーザ輝度画像S1とでは、撮影の原理の違いから、撮影した対象物の大きさや位置のずれが生じる。
画像補正部26は、2D(二次元)の画像と3D(三次元)の画像との対象物の大きさと位置のズレを補正する。具体的には、図8(a)に示すように、3Dスキャナ11で撮影された距離画像S2上の物体群Gの高さを3Dスキャナ物体群高hとする。3Dスキャナ11で撮影された距離画像S2上の物体群Gの幅を3Dスキャナ物体群幅wとする。
図8(b)に示すように、エリアカメラ12から搬送部2までの距離を第1距離WDとする。エリアカメラ12で撮影されたカラー画像S3上の物体群Gの幅をエリアカメラ物体群幅w1とする。エリアカメラ12の中心12aから、物体群Gの中心Gaまでの距離を第2距離dとする。物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの距離(ズレ量)を第3距離d1とする。
エリアカメラ物体群幅w1と、第3距離d1は、以下の式で算出される。
w1=w×WD/(WD−h) 式1
d1=d×WD/(WD−h)−d 式2
画像補正部26は、式1と式2を参照して、3Dスキャナ11から得た最上層領域M3を、w1/w倍に拡大し、第3距離d1を求めてアフィン変換を行い、大きさと位置の補正を行う。
すなわち、画像補正部26は、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心Gaまでの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する。
カラー付最上層領域生成部27は、図9に示すように、画像補正部26によって物体群Gの位置と大きさが補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する。なお、カラー付最上層領域M4は、材質判定部28による材質判定に用いられるが、後述する機械学習に用いられてもよい。
材質判定部28は、記憶部31に記憶された学習済みモデル32を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する。学習済みモデル32は、材質のラベル付けをした画像(教師データ)を使用して、事前学習により生成される。材質としては、木材や、プラスチックや、コンクリートや、ガラス等にすることができる。
具体的には、ラーニング用ソフトウェアで畳み込みニューラルネットワーク(CNN)を用いて、ラベル付けを行った物体Mの画像で材質判定の学習を行い、学習済みモデル32を生成する。なお、運用後に得られるカラー付最上層領域M4の抽出データの利用して、学習済みモデル32を更新するようにしてもよい。
材質判定部28の判定情報は、制御盤41を介してコントローラ42に送信される。判定情報には、木材であるカラー付最上層領域M4の情報と、木材であるカラー付最上層領域M4の表面の法線ベクトルから算出されたロボットハンド部43の姿勢の情報と、木材であるカラー付最上層領域M4の重心位置の情報とが含まれる。
コントローラ42は、材質判定部28の判定情報に基づいて、ロボットハンド部43の動作を制御する。すなわち、ロボットハンド部43は、対象の材質であるカラー付最上層領域M4を特定の物体Mとして選別する。
[機械学習]
図10は、実施例1の高さ情報の均一化について説明する図である。図11は、実施例1の学習に使用する画像について説明する図である。図12は、実施例1の色補正について説明する図である。以下、図10〜図12に基づいて、実施例1の機会学習について説明する。
(高さ情報の均一化)
図10(a)は、物体Mに対して、平面視で外接する矩形を形成して、その矩形の中心点を通る断面図である。図10(a)に示すように、物体Mの縁部における最高点aの高さを最高高さHaとし、最低点bの高さを最低高さHbとし、物体Mの中央部cの高さを中央高さHcとする。
高さ情報均一化部30は、最高点aから最高高さHaを減算し、最低点bから最低高さHbを減算して、補正後の中央部cの高さである補正中央高さHcnewを算出し、高さ情報を均一化する。
補正中央高さHcnewは、以下の計算式により算出される。
(Ha−Hb):ab=(Ha−Hc’):ac
Hc’=Ha−ac/ab*(Ha−Hb)
Hcnew=Hc−Ha+ac/ab*(Ha−Hb)
距離abは、最高点aと最低点bの水平方向の距離である。距離acは、最高点aと中央部cの水平方向の距離である。高さHc’は、最高高さHaと最低高さHbの中間の高さでる。なお、高さ情報均一化部30は、1つの物体Mに対して、複数のポイントについてHcnewを算出してもよい。
高さ情報均一化部30は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を記憶部31に送信する。そして、高さ情報を均一化した情報を入力データとして、材質判定部28が参照する学習済みモデル32が生成される。
(色補正)
色補正部29は、図11に示すように、RGB画像に対して画像処理で色の特徴を強化する。具体的には、色補正部29は、図12(b)に示すように、物体Mとしての木材のカラー画像に、例えば、木材色の色フィルタを乗算し、木材色の特徴を強化した補正カラー画像V1を生成する。
色補正部29は、図12(c)に示すように、物体Mとしての木材のカラー画像に、例えば、画像自体の色を乗算し、画像自体の色を強化した補正カラー画像V2を生成する。色補正部29は、図12(d)に示すように、物体Mとしての木材のカラー画像に、例えば、木材の補色の色フィルタを乗算し、木材のみ色の彩度を落とした補正カラー画像V3を生成する。
なお、図12(a)は、物体Mのカラー画像又はカラー付最上層領域M4のオリジナルの画像V0を示す。色補正部29は、このように、色を補正して、RGB画像に画像処理で色の特徴を強化することにより、判定精度の高い学習済みモデル32を生成することができる。
また、色補正部29は、最適なMultiを設定し、学習済みモデル32の判定精度を向上させてもよい。元画像のグレイ値をG1とし、フィルタのグレイ値をG2とし、乗算後のグレイ値をG3とし、乗算係数をMultiとすると、フィルタの乗算式は、以下のような式となる。
G3=(G1+G2)*Multi
なお、図12(e)は、オリジナルの物体Mの木材のカラー画像W0であり、図12(f)は、Multiが0.3の場合の物体Mの木材のカラー画像W1であり、図12(g)は、Multiが0.6の場合の物体Mの木材のカラー画像W2であり、図12(f)は、Multiが0.9の場合の物体Mの木材のカラー画像W3である。
(多チャンネル)
学習済みモデル32を生成する際は、図11に示すように、RGBの3チャンネルのカラー画像を用いるだけでなく、3Dスキャナ11で取得した距離画像S2と、レーザ輝度画像S1のチャンネルを追加して、4チャンネル又は5チャンネルの画像で機械学習を実行してもよい。これにより、物体Mの表面の凹凸情報を加味して、学習済みモデル32の精度を向上させることができる。
[物体選別処理の流れ]
図13は、実施例1の物体選別システムによる物体選別処理の流れを示すフローチャートである。以下、図13に基づいて、実施例1の物体選別処理の流れについて説明する。
図13に示すように、物体選別処理を開始すると、全体領域特定部21が、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定する(ステップS101)。
次いで、エッジ領域生成部22は、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成する(ステップS102)。この際、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を統合して、エッジ領域Tを生成する。
次いで、領域分割画像生成部23は、距離画像エッジ領域Taと輝度画像エッジ領域Tbとを統合したエッジ領域Tを距離画像S2に重ねる(ステップS103)。
次いで、領域分割画像生成部23は、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法により分割領域M1に領域分割して、領域分割画像P1を生成する(ステップS104)。
次いで、大領域算出部24は、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する(ステップS105)。
次いで、最上層領域算出部25は、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する(ステップS106)。
次いで、画像補正部26は、2Dの画像と3Dの画像とがマッチングするように、最上層領域M3の大きさと位置のズレを補正する(ステップS107)。
次いで、カラー付最上層領域生成部27は、画像補正部26によって補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する(ステップS108)。
次いで、材質判定部28は、記憶部31に記憶された学習済みモデル32の情報を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する(ステップS109)。カラー付最上層領域M4が、木材でないと判定した場合(ステップS109でNO)、物体選別処理を終了する。一方、カラー付最上層領域M4が、木材であると判定した場合(ステップS109でYES)、ステップS110に進む。
次いで、制御部20は、木材として判定されたカラー付最上層領域M4の法線ベクトルから、ロボットハンド部43の姿勢を算出する(ステップS110)。ロボットハンド部43の姿勢とは、木材として判定されたカラー付最上層領域M4を把持するための姿勢である。
次いで、制御部20は、木材であるカラー付最上層領域M4の重心位置を検出する(ステップS111)。
次いで、制御部20は、ロボットハンド部43の姿勢と、木材であるカラー付最上層領域M4の重心位置とを、制御盤41を介してコントローラ42に送信する。そして、コントローラ42は、ロボットハンド部43に木材のカラー付最上層領域M4を掴ませて、回収ボックス44に回収させ(ステップS112)、物体選別処理を終了する。
[物体選別システムの作用]
次に、実施例1の物体選別システム1の作用を説明する。実施例1の物体選別システム1は、搬送部2で移動する重なった状態の物体群Gから特定の物体Mを選別する物体選別システムである。物体選別システム1は、3Dスキャナ11が物体群Gを撮影した画像(レーザ輝度画像S1)に基づいて、物体群Gの全体領域Eを特定する全体領域特定部21と、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成するエッジ領域生成部22と、エッジ領域Tに基づいて、領域分割画像P1を生成する領域分割画像生成部23と、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する大領域算出部24と、大領域M2と、画像(距離画像S2)とに基づいて、最上層領域M3を算出する最上層領域算出部25と、最上層領域M3を特定の物体Mとして選別するロボットハンド部43と、を備える(図3)。
これにより、重なった状態の物体群Gから、最上層にある物体Mを選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にする前処理工程を経ることなく、最上層にある物体Mを選別することができる。その結果、既存のラインに容易に導入することができる。
実施例1の物体選別システム1において、画像は、レーザ輝度画像S1と距離画像S2であって、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成する(図5)。
これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得することができる。
ところで、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、レーザ輝度画像S1から抽出することは困難となる。一方、実施例1では、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、距離画像S2から、この物体Mのエッジ領域Tを抽出することができる。
実施例1の物体選別システム1において、3Dスキャナ11に隣接して配置されたエリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成するカラー付最上層領域生成部27と、カラー付最上層領域M4が、対象の材質であるか否かを判定する材質判定部28と、を備え、ロボットハンド部43は、材質判定部28の判定情報に基づいて、特定の物体Mを選別する(図3)。
これにより、重なった状態の物体群Gから、最上層にある物体Mの材質を選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にすることなく、最上層にある物体Mの材質を選別することができる。
実施例1の物体選別システム1において、材質判定部28は、物体Mのカラー画像S3に対して、色補正を施した補正カラー画像V1〜V3による機械学習を実行した学習済みモデル32に基づいて、カラー付最上層領域M4が、対象の材質であるか否かを判定する(図11)。
これにより、対象の材質の色の特徴を強調して、周りの物体Mとの特徴の差を大きくすることができる。そのため、学習済みモデル32の精度を向上させ、材質判定部28による対象の材質の判定精度を上げることができる。
実施例1の物体選別システム1において、学習済みモデル32は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を使って機械学習を実行した(図10)。
ところで、物体Mが重なった物体群Gで、一番上にある物体Mは、その物体Mの高さ分、輝度が高くなってしまう。
実施例1では、物体Mの高さ情報を均一化することができる。そのため、明るさを平坦化(均一化)して、学習済みモデル32の精度を向上させることができる。その結果、材質判定部28による対象の材質の判定精度を上げることができる。
実施例1の物体選別システム1において、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心までの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gaとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する画像補正部26を備える(図8)。
ところで、エリアカメラ12で撮った2Dのカラー画像S3は、遠近感により、物体Mが大きく映ったり、物体Mの中心の座標がずれてしまったりする。そのため、エリアカメラ12で撮った2Dのカラー画像S3は、3Dスキャナ11で撮った3Dの距離画像S2やレーザ輝度画像S1と、ズレてしまう。
一方、実施例1では、2Dのカラー画像S3と3Dの距離画像S2やレーザ輝度画像S1との、物体Mの大きさのズレと、物体Mの中心位置のズレとを補正することができる。そのため、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。
実施例1のエッジ領域抽出プログラムは、物体群Gに含まれる物体Mのエッジ領域Tを抽出するエッジ領域抽出プログラムであって、3Dスキャナ11が物体群Gを撮影した距離画像S2から抽出された物体Mの距離画像エッジ領域Taと、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1から抽出された物体Mの輝度画像エッジ領域Tbと、を統合して物体群のエッジ領域Tを生成するエッジ領域生成手段としてコンピュータを機能させる(図3)。
これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得して、重なった状態の物体群から、最上層にある物体を正確に選別することができる
以上、本発明の物体選別システムを実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や、追加等は許容される。
実施例1では、ロボットハンド部43は、材質判定部28が判定した対象の材質であるカラー付最上層領域M4を特定の物体として選別する例を示した。しかし、ロボットハンド部は、最上層領域M3を特定の物体として選別してもよい。
実施例1では、学習済みモデル32は、事前学習で生成される例を示した。しかし、運用後に得られるカラー付最上層領域M4の抽出データを利用して、学習済みモデルを更新するようにしてもよい。
実施例1では、材質判定部28が判定する材質として、木材とする例を示した。しかし、材質判定部が判定する材質は、樹脂や、スレート材や、コンクリートや、ガラスや、鉄筋等にすることができる。
実施例1では、搬送部2をベルトコンベアとする例を示した。しかし、搬送部としては、ベルトコンベアに限定されず、例えばローラコンベアであってもよいし、物体群を搬送可能なものであればよい。
実施例1では、3Dスキャナ11を光切断法式のものとする例を示した。しかし、3Dスキャナとしては、光投影法式のものを使用することもできる。
実施例1では、ロボットハンド部43を垂直多関節の6軸ロボットとする例を示した。しかし、ロボットハンド部としては、パラレルリンクロボットとしてもよい。また、ロボットハンド部は、複数あってもよい。
実施例1では、本発明を重なった状態の複数の廃棄物から最上層にある木材を選別する物体選別システムに適用する例を示した。しかし、本発明は、重なった状態の配筋検査や、出来形管理等に適用することができる。
1 物体選別システム
2 搬送部
11 3Dスキャナ
12 エリアカメラ
21 全体領域特定部
22 エッジ領域生成部
23 領域分割画像生成部
24 大領域算出部
25 最上層領域算出部
26 画像補正部
27 カラー付最上層領域生成部
28 材質判定部
32 学習済みモデル
43 ロボットハンド部
E 全体領域
G 物体群
M 物体
M2 大領域
M3 最上層領域
P1 領域分割画像
S1 レーザ輝度画像(画像の一例)
S2 距離画像(画像の一例)
S3 カラー画像
T エッジ領域
Ta 距離画像エッジ領域
Tb 輝度画像エッジ領域
M4 カラー付最上層領域
V1〜V3 補正カラー画像

Claims (7)

  1. 搬送部で移動する重なった状態の物体群から特定の物体を選別する物体選別システムであって、
    3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、
    前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、
    前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、
    前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、
    前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、
    前記最上層領域を特定の物体として選別するロボットハンド部と、を備える
    ことを特徴とする、物体選別システム。
  2. 前記画像は、レーザ輝度画像と距離画像であって、
    前記エッジ領域生成部は、
    前記距離画像に基づいて抽出された前記物体の距離画像エッジ領域と、
    前記レーザ輝度画像に基づいて抽出された前記物体の輝度画像エッジ領域と、を生成する
    ことを特徴とする、請求項1に記載の物体選別システム。
  3. 前記3Dスキャナに隣接して配置されたエリアカメラが前記物体群を撮影したカラー画像から、前記最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、
    前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、
    前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する
    ことを特徴とする、請求項2に記載の物体選別システム。
  4. 前記材質判定部は、前記物体の前記カラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、前記カラー付最上層領域が、対象の材質であるか否かを判定する
    ことを特徴とする、請求項3に記載の物体選別システム。
  5. 前記学習済みモデルは、前記物体の前記距離画像に基づいて、前記物体の高さ情報を均一化した情報を使って機械学習を実行した
    ことを特徴とする、請求項4に記載の物体選別システム。
  6. 前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群高と、
    前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、
    前記エリアカメラから前記搬送部までの第1距離と、
    前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、
    前記エリアカメラの中心から、前記物体群の中心までの第2距離と、
    前記物体群の中心と、前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、
    前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備える
    ことを特徴とする、請求項3〜5の何れか一項に記載の物体選別システム。
  7. 物体群に含まれる物体のエッジ領域を抽出するエッジ領域抽出プログラムであって、
    3Dスキャナが前記物体群を撮影した距離画像から抽出された前記物体の距離画像エッジ領域と、
    前記3Dスキャナが前記物体群を撮影したレーザ輝度画像から抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させる
    ことを特徴とする、エッジ領域抽出プログラム。
JP2019084648A 2019-04-25 2019-04-25 物体選別システム Active JP7178954B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019084648A JP7178954B2 (ja) 2019-04-25 2019-04-25 物体選別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084648A JP7178954B2 (ja) 2019-04-25 2019-04-25 物体選別システム

Publications (2)

Publication Number Publication Date
JP2020179355A true JP2020179355A (ja) 2020-11-05
JP7178954B2 JP7178954B2 (ja) 2022-11-28

Family

ID=73022969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084648A Active JP7178954B2 (ja) 2019-04-25 2019-04-25 物体選別システム

Country Status (1)

Country Link
JP (1) JP7178954B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952908B2 (ja) * 2002-08-29 2007-08-01 Jfeエンジニアリング株式会社 物体の個別認識方法及び個別認識装置
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5967470B2 (ja) * 2012-03-30 2016-08-10 株式会社リコー 検査装置
JP2017109197A (ja) * 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP2018111140A (ja) * 2017-01-10 2018-07-19 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952908B2 (ja) * 2002-08-29 2007-08-01 Jfeエンジニアリング株式会社 物体の個別認識方法及び個別認識装置
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5967470B2 (ja) * 2012-03-30 2016-08-10 株式会社リコー 検査装置
JP6271953B2 (ja) * 2013-11-05 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP2017109197A (ja) * 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法
JP2018111140A (ja) * 2017-01-10 2018-07-19 オムロン株式会社 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Also Published As

Publication number Publication date
JP7178954B2 (ja) 2022-11-28

Similar Documents

Publication Publication Date Title
EP3740897B1 (en) License plate reader using optical character recognition on plural detected regions
CN111669566B (zh) 用于检测可见光和红外投影图案的成像器
JP4704804B2 (ja) 木材の節探査方法及び装置及びプログラム
CN107597600A (zh) 分拣系统和分拣方法
JP2013010155A (ja) 対象物把持装置、対象物把持装置の制御方法、およびプログラム
US11580627B2 (en) Systems and methods for automatically grading pre-owned electronic devices
CN102164718A (zh) 工件取出方法
CN111359915B (zh) 基于机器视觉的物料分选方法及系统
DE602004015759D1 (ja)
CN113383227A (zh) 缺陷检查装置
JP7005388B2 (ja) 情報処理装置及び仕分システム
CN107301634A (zh) 一种机器人自动分拣方法及系统
JP2024016293A (ja) 廃棄物選別装置
CN106540887A (zh) 建筑垃圾智能机器人分拣系统及方法
CN104772286A (zh) 一种基于kinect的新型分拣系统及其操作方法
CN112977974A (zh) 烟包外观质量检测装置及其方法、烟包包装机
JP2020179355A (ja) 物体選別システム及びエッジ領域抽出プログラム
CN113610833A (zh) 物料抓取方法、装置、电子设备和存储介质
JP6017390B2 (ja) 単板の選別堆積装置及び単板選別方法
JP4812083B2 (ja) いりこ等の選別方法とその装置
CN115375889A (zh) 一种多种照明融合识别定位焊盘的处理方法及系统
JP2006226950A (ja) 木材の検査方法及び木材の検査装置
KR102436943B1 (ko) Rgb-d 영상에서의 기계학습 기반 물류박스 자동인식 방법
CN106181998A (zh) 一种机器人视觉定位传感器
JP7258345B2 (ja) 物体識別装置と物体識別方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221115

R150 Certificate of patent or registration of utility model

Ref document number: 7178954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150