JP7178954B2 - Object sorting system - Google Patents
Object sorting system Download PDFInfo
- Publication number
- JP7178954B2 JP7178954B2 JP2019084648A JP2019084648A JP7178954B2 JP 7178954 B2 JP7178954 B2 JP 7178954B2 JP 2019084648 A JP2019084648 A JP 2019084648A JP 2019084648 A JP2019084648 A JP 2019084648A JP 7178954 B2 JP7178954 B2 JP 7178954B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- unit
- region
- object group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
特許法第30条第2項適用 平成30年6月1日にロボティクス・メカトロニクス 講演会2018 講演論文集(一般社団法人 日本機械学会)にて、白井菜月、中村聡及び熊谷豊が発明した不定形廃棄物の重なりを認識するロボットビジョンの開発について発表した。Application of
本発明は、移動する重なった状態の物体群から特定の物体を選別する物体選別システムに関するものである。
BACKGROUND OF THE
従来、複数の物体の中から特定の物体を選別する物体選別システムが知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an object sorting system that sorts out a specific object from a plurality of objects is known (see, for example, Patent Document 1).
特許文献1には、スチールコンベア上の廃棄物のうちの木片を判別可能とする出力をする認識装置と、スチールコンベア上の木片を保持可能なハンドリング機構と、認識装置の出力に従い木片を判別し、判別した木片をスチールコンベア上から取り除くようにハンドリング機構を制御する処理部と、を備える廃棄物の選別を行う廃棄物選別処理設備が開示されている。
しかしながら、特許文献1の廃棄物選別処理設備は、重なった状態の廃棄物群から特定の廃棄物を選別することができないため、認識装置の前段に、廃棄物の堆積形態を平坦化する振動篩機を備える必要がある。
However, since the waste sorting treatment facility of
そこで、本発明は、重なった状態の物体群から、最上層にある物体を選別することができる物体選別システムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object sorting system capable of sorting out an object in the uppermost layer from a group of overlapping objects.
前記目的を達成するために、本発明の物体選別システムは、搬送部で移動する重なった状態の物体群から特定の物体を選別する物体選別システムであって、3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、前記最上層領域を特定の物体として選別するロボットハンド部と、を備えることを特徴とする。 In order to achieve the above object, the object sorting system of the present invention is an object sorting system for sorting out a specific object from a group of overlapping objects moving in a conveying section, wherein a 3D scanner photographs the group of objects. an entire area identification unit that identifies an entire area of the object group based on the image; an edge area generation unit that generates an edge area of an object included in the object group based on the entire area; a region-divided image generation unit that generates a region-divided image based on the region-divided image; a large region calculation unit that calculates a large region having a predetermined area or more based on the region-divided image; and a top layer area calculation unit that calculates a top layer area, and a robot hand unit that selects the top layer area as a specific object.
ここで、本発明の物体選別システムでは、前記画像は、レーザ輝度画像と距離画像であって、前記エッジ領域生成部は、前記距離画像に基づいて抽出された前記物体群の距離画像エッジ領域と、前記レーザ輝度画像に基づいて抽出された前記物体群の輝度画像エッジ領域と、を生成してもよい。 Here, in the object sorting system of the present invention, the images are a laser luminance image and a range image, and the edge area generation unit generates a range image edge area of the object group extracted based on the range image. , and a luminance image edge region of the object group extracted based on the laser luminance image.
また、本発明の物体選別システムでは、前記3Dスキャナに隣接して配置されたエリアカメラが前記物体群を撮影したカラー画像から、前記最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別してもよい。 Further, in the object sorting system of the present invention, an area camera arranged adjacent to the 3D scanner extracts the top layer region from a color image of the group of objects, and generates a colored top layer region. a colored top layer area generation unit; and a material determination unit that determines whether or not the colored top layer area is a target material. can be used to sort out specific objects.
また、本発明の物体選別システムでは、前記材質判定部は、前記物体の前記カラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、前記カラー付最上層領域が、対象の材質であるか否かを判定してもよい。 Further, in the object sorting system of the present invention, the material determination unit performs color correction on the color image of the object based on a learned model that has performed machine learning using a corrected color image. It may be determined whether the top layer region is the material of interest.
また、本発明の物体選別システムでは、前記学習済みモデルは、前記物体の前記距離画像に基づいて、前記物体の高さ情報を均一化した情報を使って機械学習を実行してもよい。 Further, in the object sorting system of the present invention, the learned model may perform machine learning using information obtained by equalizing height information of the object based on the range image of the object.
また、本発明の物体選別システムでは、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群高と、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、前記エリアカメラから前記搬送部までの第1距離と、前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、前記エリアカメラの中心から前記物体群の中心までの第2距離と、前記物体群の中心と前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備えてもよい。 Further, in the object sorting system of the present invention, a 3D scanner object group height of the object group on the range image photographed by the 3D scanner, and a 3D scanner object group height of the object group on the range image photographed by the 3D scanner. a scanner object group width, a first distance from the area camera to the transport unit, an area camera object group width of the object group on the color image photographed by the area camera, and the distance from the center of the area camera to the Based on a second distance to the center of the object group and a third distance between the center of the object group and the center of the object group photographed by the 3D scanner, the color image and the distance image. An image correcting unit that corrects the position and size of the object group may be provided.
さらに、本発明のエッジ領域抽出プログラムでは、物体群に含まれる物体のエッジ領域を抽出するエッジ領域抽出プログラムであって、3Dスキャナが前記物体群を撮影した距離画像から抽出された前記物体の距離画像エッジ領域と、前記3Dスキャナが前記物体群を撮影したレーザ輝度画像から抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させることを特徴とする。 Further, the edge region extraction program of the present invention is an edge region extraction program for extracting an edge region of an object included in a group of objects, wherein the distance of the object extracted from a distance image obtained by photographing the group of objects by a 3D scanner a computer as edge region generation means for generating an edge region of the object by integrating an image edge region and a luminance image edge region of the object extracted from a laser luminance image of the object group photographed by the 3D scanner; It is characterized by functioning.
このように構成された本発明の物体選別システムは、3Dスキャナが物体群を撮影した画像に基づいて、物体群の全体領域を特定する全体領域特定部と、全体領域に基づいて、物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、算出された大領域と画像とに基づいて、最上層領域を算出する最上層領域算出部と、最上層領域を特定の物体として選別するロボットハンド部と、を備える。これにより、重なった状態の物体群から、最上層にある物体を選別することができる。 The object sorting system of the present invention configured in this way includes an entire area specifying unit that specifies the entire area of the object group based on the image of the object group photographed by the 3D scanner, and an object group based on the entire area. An edge region generation unit that generates an edge region of a contained object, a region division image generation unit that generates a region division image based on the edge region, and a large region with a predetermined area or more is calculated based on the region division image. a large area calculation unit that calculates the uppermost layer area based on the calculated large area and the image; and a robot hand unit that selects the uppermost layer area as a specific object. As a result, the object in the uppermost layer can be sorted out from the group of overlapping objects.
また、本発明の物体選別システムでは、エッジ領域生成部は、距離画像に基づいて抽出された物体群の距離画像エッジ領域と、レーザ輝度画像に基づいて抽出された物体群の輝度画像エッジ領域と、を生成する。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができる。そのため、エッジ領域Tを精度よく取得することができる。 Further, in the object sorting system of the present invention, the edge area generation unit generates a distance image edge area of the object group extracted based on the distance image and a luminance image edge area of the object group extracted based on the laser luminance image. , to generate As a result, an edge region that could not be obtained from the laser luminance image can be obtained from the range image. Therefore, the edge region T can be obtained with high accuracy.
また、本発明の物体選別システムでは、3Dスキャナに隣接して配置されたエリアカメラが物体群を撮影したカラー画像から、最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する。これにより、重なった状態の物体群から、最上層にある物体の材質を選別することができる。 Further, in the object sorting system of the present invention, a colored top layer region is extracted from a color image of a group of objects captured by an area camera placed adjacent to the 3D scanner, and a colored top layer region is generated. An upper layer region generation unit and a material determination unit that determines whether or not the colored top layer region is a target material. sort out. As a result, the material of the object in the uppermost layer can be selected from the overlapping object group.
また、本発明の物体選別システムでは、材質判定部は、物体のカラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、カラー付最上層領域が、対象の材質であるか否かを判定する。これにより、対象の材質の色の特徴を強調して、周りの物体との特徴の差を大きくすることができ、学習済みモデルの精度を向上させ、材質判定部による対象の材質の判定精度を上げることができる。 Further, in the object sorting system of the present invention, the material determination unit performs machine learning on the color image of the object using a corrected color image that has undergone color correction. , to determine whether or not it is the target material. As a result, it is possible to emphasize the color features of the target material and increase the difference in features from the surrounding objects, improve the accuracy of the trained model, and increase the accuracy of the determination of the target material by the material determination unit. can be raised.
また、本発明の物体選別システムでは、学習済みモデルは、物体の距離画像に基づいて、物体の高さ情報を均一化した情報を使って機械学習を実行した。これにより、明るさを平坦化(均一化)して、学習済みモデルの精度を向上させることができる。 Further, in the object sorting system of the present invention, the trained model executes machine learning using information obtained by equalizing the height information of the object based on the distance image of the object. This makes it possible to flatten (uniformize) the brightness and improve the accuracy of the trained model.
また、本発明の物体選別システムでは、カラー画像と、距離画像と、の物体群の位置と大きさを補正する画像補正部を備えることで、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。 Further, the object sorting system of the present invention is provided with an image correction unit that corrects the position and size of the object group in the color image and the range image, so that the 2D image and the 3D image are accurately combined. be able to.
また、本発明のエッジ領域抽出プログラムでは、3Dスキャナが物体群を撮影した距離画像から抽出された物体の距離画像エッジ領域と、3Dスキャナが物体群を撮影したレーザ輝度画像から抽出された物体の輝度画像エッジ領域と、を統合して物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させる。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができ、エッジ領域を精度よく取得することができる。 Further, in the edge area extraction program of the present invention, the distance image edge area of the object extracted from the distance image of the object group photographed by the 3D scanner and the object extracted from the laser intensity image of the object group photographed by the 3D scanner. The computer is caused to function as an edge region generating means for generating an edge region of an object by integrating the luminance image edge region. As a result, an edge region that could not be obtained from the laser luminance image can be obtained from the distance image, and the edge region can be obtained with high accuracy.
以下、本発明による物体選別システムを実現する実施形態を、図面に示す実施例1に基づいて説明する。 Hereinafter, an embodiment for realizing an object sorting system according to the present invention will be described based on Example 1 shown in the drawings.
実施例1では、重なった状態の複数の物体(物体群)から最上層にある木材を選別する物体選別システムを説明する。実施例1では、物体を建造物の解体工事等で発生した廃棄物とする例を説明する。
[物体選別システムの構成]
図1は、実施例1の物体選別システムの構成を説明する図である。図2は、実施例1のレーザ輝度画像と距離画像とカラー画像を示す図である。以下、図1及び図2に基づいて、実施例1の物体選別システムの構成を説明する。
[Configuration of object sorting system]
FIG. 1 is a diagram for explaining the configuration of an object sorting system according to the first embodiment. 2A and 2B are diagrams showing a laser luminance image, a distance image, and a color image in Example 1. FIG. The configuration of the object sorting system according to the first embodiment will be described below with reference to FIGS. 1 and 2. FIG.
物体選別システム1は、搬送部2と、撮影部10と、制御部20と、選別部40と、で構成される。
The
(搬送部)
搬送部2は、例えば、ベルトコンベア等の搬送帯とすることができる。搬送部2には、重なった状態の複数の物体Mの物体群Gが載せられる。搬送部2は、循環するように構成される。
(Conveyor)
The
(撮影部)
撮影部10は、搬送部2上に設けられた撮影ボックス13と、3Dスキャナ11と、エリアカメラ12と、で構成される。
(Shooting department)
The photographing
撮影ボックス13は、筒状に形成され、搬送部2の所定の位置に、搬送部2の上部を覆うように設置される。撮影ボックス13の内側には、LED照明13aと、LED照明13aの光を拡散する反射板13bとが取り付けられる。
The photographing
3Dスキャナ11は、例えば、LIM TECHNOLOGIES社製のGocator2730とすることができる。3Dスキャナ11は、光切断法により、距離画像とレーザ輝度画像を取得する。3Dスキャナ11は、撮影ボックス13の上部に設置される。
The
エリアカメラ12は、例えば、CIS社製のVCC-5CXP3Rとすることができる。エリアカメラ12は、カラー画像を取得する。エリアカメラ12は、撮影ボックス13の上部に、3Dスキャナ11と隣接して設置される。
The
このように構成された撮影部10では、搬送部2に載せられて搬送される物体群Gは、撮影ボックス13を通過する際に、LED照明13aで照射された状態で、3Dスキャナ11とエリアカメラ12とによって撮影される。
In the photographing
そして、図2(a)に示すようなレーザ輝度画像S1と、図2(b)に示すような距離画像S2と、図2(c)に示すようなカラー画像S3とを取得する。 Then, a laser brightness image S1 as shown in FIG. 2(a), a distance image S2 as shown in FIG. 2(b), and a color image S3 as shown in FIG. 2(c) are acquired.
(制御部)
制御部20は、PC(パーソナルコンピュータ)とすることができる。なお、制御部20の機能構成については後述する。
(control part)
The
(選別部)
選別部40は、制御盤41を介して制御部20からの情報を受け取るコントローラ42と、コントローラ42によって駆動が制御されるロボットハンド部43と、を備える。
(Sorting department)
The sorting
制御盤41は、例えば、PLC(Programmable Logic Controller)とすることができる。コントローラ42は、制御盤41からの情報に基づいて、ロボットハンド部43を制御する。
The
ロボットハンド部43は、例えば、垂直多関節の6軸ロボットとすることができる。ロボットハンド部43は、搬送部2に沿って配置される。ロボットハンド部43は、搬送部2の搬送方向で、撮影部10の下流に配置される。ロボットハンド部43は、搬送部2に載せられて搬送される物体Mを把持して、回収ボックス44に回収させるように構成される。
The
このように構成された物体選別システム1は、搬送部2の位置をエンコーダにより取得して、撮影部10で撮影した物体群Gの中から、制御部20の制御情報に基づいて、ロボットハンド部43が特定の物体Mを選別する。
The
[物体選別システムの機能構成]
図3は、実施例1の物体選別システムの機能構成を示すブロック図である。図4~7は、実施例1の物体選別システムによる画像処理を説明する図である。図8は、実施例1の画像補正部26について説明する説明図である。図9は、実施例1の物体選別システムによる画像処理を説明する図である。以下、図3~図9に基づいて、実施例1の物体選別システムの機能構成を説明する。
[Functional Configuration of Object Sorting System]
FIG. 3 is a block diagram showing the functional configuration of the object sorting system according to the first embodiment; 4 to 7 are diagrams for explaining image processing by the object sorting system of the first embodiment. FIG. 8 is an explanatory diagram for explaining the
物体選別システム1は、図3に示すように、主に、3Dスキャナ11と、エリアカメラ12と、搬送部2と、制御部20と、コントローラ42と、ロボットハンド部43と、を備える。
The
3Dスキャナ11は、光切断法により、搬送部2で搬送中の物体群Gのレーザ輝度画像S1と距離画像S2とを取得する。レーザ輝度画像S1と距離画像S2とは、制御部20に送信される。
The
エリアカメラ12は、搬送部2で搬送中の物体群Gのカラー画像S3を取得する。カラー画像S3は、制御部20に送信される。
The
搬送部2は、図示しないエンコーダに接続され、搬送部2の搬送量が制御部20に送信される。
The
制御部20は、全体領域特定部21と、エッジ領域生成部22と、領域分割画像生成部23と、大領域算出部24と、最上層領域算出部25と、画像補正部26と、カラー付最上層領域生成部27と、材質判定部28と、色補正部29と、高さ情報均一化部30と、記憶部31と、を備える。
The
全体領域特定部21は、図4(a)に示す3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、図4(b)に示す物体群Gの全体領域Eを特定する。全体領域特定部21は、所定の輝度の閾値を設けて、背景領域である搬送部2と、廃棄物領域である物体群Gとを分離して、物体群Gの全体領域Eを特定する。
The entire
なお、全体領域特定部21は、3Dスキャナ11が物体群Gを撮影した距離画像S2に基づいて、物体群Gの全体領域Eを特定してもよい。ただし、全体領域特定部21は、レーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定した方が、背景である搬送部2と物体群Gの色の差が出やすいため好ましい。
Note that the entire
エッジ領域生成部22は、図5(a)に示すように、cannyフィルタ、sobelフィルタ、lanserフィルタ等のフィルタを用いて、全体領域Eの中から、物体群Gに含まれる物体Mのエッジ領域Tを生成する。
As shown in FIG. 5(a), the edge
エッジ領域生成部22は、エッジ領域Tとしての距離画像エッジ領域Taと輝度画像エッジ領域Tbと、を生成する。エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成して、統合する。
The edge
また、エッジ領域生成部22は、エッジ領域Tの中心軸を抽出する。エッジ領域生成部22は、距離画像エッジ領域Taと、輝度画像エッジ領域Tbと、を生成して、統合するエッジ領域生成手段として機能する。
Further, the
領域分割画像生成部23は、図5(b)に示すように、統合したエッジ領域Tを距離画像S2に重ねる。領域分割画像生成部23は、図6(a)に示すように、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法で同じような特徴を持つ複数の分割領域M1に領域分割して、領域分割画像P1を生成する。
The
なお、領域分割画像生成部23は、レーザ輝度画像S1に重ねたエッジ領域Tに基づいて、領域成長法で領域分割して、領域分割画像を生成してもよい。ただし、距離画像S2に重ねたエッジ領域Tに基づいて、領域分割画像P1を生成した方が、物体Mの表面の色情報の影響を受けないため、精度よく領域分割することができる。
Note that the segmented
大領域算出部24は、図6(b)に示すように、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する。所定の面積とは、ロボットハンド部43が掴むことのできる程度の大きさをいう。なお、大領域算出部24は、領域分割画像P1に基づいて、所定の幅以上の大幅領域を算出してもよい。
As shown in FIG. 6(b), the
最上層領域算出部25は、図7(a)に示すように、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する。具体的には、まず、大領域M2を距離画像S2に重ね合わせる。次に、図7(b)に示すように、各大領域M2について、周囲の物体Mとの最小距離Fにある、物体Mの点P1と、大領域M2の点P2とを抽出する。次に、点P1を中心とした一定の半径Rで囲まれる物体Mの領域A1の高さ平均と、点P2を中心とした一定の半径Rで囲まれる大領域M2の領域A2の高さ平均と、を比較する。
As shown in FIG. 7A, the top
大領域M2の周囲の全ての物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が高い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3と判断する。
When the average height of the area A2 of the large area M2 is higher than the average height of the area A1 of all the objects M surrounding the large area M2, the top
一方、大領域M2の周囲の物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が低い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3でないと判断する。このようにして、距離画像S2に最上層領域M3が反映された第2距離画像P2が生成される。
On the other hand, when the average height of the area A2 of the large area M2 is lower than the average height of the area A1 of the object M surrounding the large area M2, the top
ところで、距離画像S2は、影になって取得できない領域ができてしまう。大領域M2と、その周囲の距離画像S2中の物体Mとの距離を規定することで、影になって取得できない領域ができたとしても、最上層領域算出部25は、最上層領域M3を算出することができる。
By the way, the distance image S2 has a shadowed area that cannot be obtained. By defining the distance between the large region M2 and the object M in the range image S2 surrounding it, even if there is a shadowed region that cannot be obtained, the top layer
なお、距離画像S2に最上層領域M3が反映された第2距離画像P2は、後述する機械学習(ディープラーニング)と、ロボットハンド部43の姿勢決定に使用される。
A second distance image P2 in which the uppermost layer region M3 is reflected in the distance image S2 is used for machine learning (deep learning) described later and determination of the posture of the
ところで、エリアカメラ12から取得したカラー画像S3と、3Dスキャナ11から取得した距離画像S2及びレーザ輝度画像S1とでは、撮影の原理の違いから、撮影した対象物の大きさや位置のずれが生じる。
By the way, between the color image S3 acquired from the
画像補正部26は、2D(二次元)の画像と3D(三次元)の画像との対象物の大きさと位置のズレを補正する。具体的には、図8(a)に示すように、3Dスキャナ11で撮影された距離画像S2上の物体群Gの高さを3Dスキャナ物体群高hとする。3Dスキャナ11で撮影された距離画像S2上の物体群Gの幅を3Dスキャナ物体群幅wとする。
The
図8(b)に示すように、エリアカメラ12から搬送部2までの距離を第1距離WDとする。エリアカメラ12で撮影されたカラー画像S3上の物体群Gの幅をエリアカメラ物体群幅w1とする。エリアカメラ12の中心12aから、物体群Gの中心Gaまでの距離を第2距離dとする。物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの距離(ズレ量)を第3距離d1とする。
As shown in FIG. 8B, the distance from the
エリアカメラ物体群幅w1と、第3距離d1は、以下の式で算出される。
w1=w×WD/(WD-h) 式1
d1=d×WD/(WD-h)-d 式2
The area camera object group width w1 and the third distance d1 are calculated by the following equations.
w1=w×WD/(WD−h)
d1=d×WD/(WD−h)−d
画像補正部26は、式1と式2を参照して、3Dスキャナ11から得た最上層領域M3を、w1/w倍に拡大し、第3距離d1を求めてアフィン変換を行い、大きさと位置の補正を行う。
The
すなわち、画像補正部26は、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心Gaまでの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する。
That is, the
カラー付最上層領域生成部27は、図9に示すように、画像補正部26によって物体群Gの位置と大きさが補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する。なお、カラー付最上層領域M4は、材質判定部28による材質判定に用いられるが、後述する機械学習に用いられてもよい。
As shown in FIG. 9, the colored uppermost layer
材質判定部28は、記憶部31に記憶された学習済みモデル32を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する。学習済みモデル32は、材質のラベル付けをした画像(教師データ)を使用して、事前学習により生成される。材質としては、木材や、プラスチックや、コンクリートや、ガラス等にすることができる。
The
具体的には、ラーニング用ソフトウェアで畳み込みニューラルネットワーク(CNN)を用いて、ラベル付けを行った物体Mの画像で材質判定の学習を行い、学習済みモデル32を生成する。なお、運用後に得られるカラー付最上層領域M4の抽出データの利用して、学習済みモデル32を更新するようにしてもよい。
Specifically, the learning software uses a convolutional neural network (CNN) to perform material determination learning with the labeled image of the object M, thereby generating the trained
材質判定部28の判定情報は、制御盤41を介してコントローラ42に送信される。判定情報には、木材であるカラー付最上層領域M4の情報と、木材であるカラー付最上層領域M4の表面の法線ベクトルから算出されたロボットハンド部43の姿勢の情報と、木材であるカラー付最上層領域M4の重心位置の情報とが含まれる。
Determination information from the
コントローラ42は、材質判定部28の判定情報に基づいて、ロボットハンド部43の動作を制御する。すなわち、ロボットハンド部43は、対象の材質であるカラー付最上層領域M4を特定の物体Mとして選別する。
The
[機械学習]
図10は、実施例1の高さ情報の均一化について説明する図である。図11は、実施例1の学習に使用する画像について説明する図である。図12は、実施例1の色補正について説明する図である。以下、図10~図12に基づいて、実施例1の機会学習について説明する。
[Machine learning]
FIG. 10 is a diagram illustrating uniformization of height information according to the first embodiment. 11A and 11B are diagrams for explaining images used for learning in Example 1. FIG. FIG. 12 is a diagram for explaining color correction according to the first embodiment. Machine learning according to the first embodiment will be described below with reference to FIGS. 10 to 12. FIG.
(高さ情報の均一化)
図10(a)は、物体Mに対して、平面視で外接する矩形を形成して、その矩形の中心点を通る断面図である。図10(a)に示すように、物体Mの縁部における最高点aの高さを最高高さHaとし、最低点bの高さを最低高さHbとし、物体Mの中央部cの高さを中央高さHcとする。
(Equalization of height information)
FIG. 10(a) is a cross-sectional view passing through the center point of a rectangle formed to circumscribe the object M in plan view. As shown in FIG. 10A, the height of the highest point a at the edge of the object M is the highest height Ha, the height of the lowest point b is the lowest height Hb, and the height of the center c of the object M is is the central height Hc.
高さ情報均一化部30は、最高点aから最高高さHaを減算し、最低点bから最低高さHbを減算して、補正後の中央部cの高さである補正中央高さHcnewを算出し、高さ情報を均一化する。
The height
補正中央高さHcnewは、以下の計算式により算出される。
(Ha-Hb):ab=(Ha-Hc’):ac
Hc’=Ha-ac/ab*(Ha-Hb)
Hcnew=Hc-Ha+ac/ab*(Ha-Hb)
The corrected center height Hcnew is calculated by the following formula.
(Ha-Hb): ab = (Ha-Hc'): ac
Hc′=Ha−ac/ab*(Ha−Hb)
Hc new = Hc - Ha + ac/ab * (Ha - Hb)
距離abは、最高点aと最低点bの水平方向の距離である。距離acは、最高点aと中央部cの水平方向の距離である。高さHc’は、最高高さHaと最低高さHbの中間の高さでる。なお、高さ情報均一化部30は、1つの物体Mに対して、複数のポイントについてHcnewを算出してもよい。
The distance ab is the horizontal distance between the highest point a and the lowest point b. The distance ac is the horizontal distance between the highest point a and the central portion c. The height Hc' is an intermediate height between the maximum height Ha and the minimum height Hb. Note that the height
高さ情報均一化部30は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を記憶部31に送信する。そして、高さ情報を均一化した情報を入力データとして、材質判定部28が参照する学習済みモデル32が生成される。
The height
(色補正)
色補正部29は、図11に示すように、RGB画像に対して画像処理で色の特徴を強化する。具体的には、色補正部29は、図12(b)に示すように、物体Mとしての木材のカラー画像に、例えば、木材色の色フィルタを乗算し、木材色の特徴を強化した補正カラー画像V1を生成する。
(color correction)
As shown in FIG. 11, the
色補正部29は、図12(c)に示すように、物体Mとしての木材のカラー画像に、例えば、画像自体の色を乗算し、画像自体の色を強化した補正カラー画像V2を生成する。色補正部29は、図12(d)に示すように、物体Mとしての木材のカラー画像に、例えば、木材の補色の色フィルタを乗算し、木材のみ色の彩度を落とした補正カラー画像V3を生成する。
As shown in FIG. 12(c), the
なお、図12(a)は、物体Mのカラー画像又はカラー付最上層領域M4のオリジナルの画像V0を示す。色補正部29は、このように、色を補正して、RGB画像に画像処理で色の特徴を強化することにより、判定精度の高い学習済みモデル32を生成することができる。
Note that FIG. 12(a) shows the color image of the object M or the original image V0 of the colored top layer region M4. The
また、色補正部29は、最適なMultiを設定し、学習済みモデル32の判定精度を向上させてもよい。元画像のグレイ値をG1とし、フィルタのグレイ値をG2とし、乗算後のグレイ値をG3とし、乗算係数をMultiとすると、フィルタの乗算式は、以下のような式となる。
G3=(G1+G2)*Multi
Also, the
G3=(G1+G2)*Multi
なお、図12(e)は、オリジナルの物体Mの木材のカラー画像W0であり、図12(f)は、Multiが0.3の場合の物体Mの木材のカラー画像W1であり、図12(g)は、Multiが0.6の場合の物体Mの木材のカラー画像W2であり、図12(f)は、Multiが0.9の場合の物体Mの木材のカラー画像W3である。 FIG. 12(e) is a color image W0 of wood of the original object M, and FIG. 12(f) is a color image W1 of wood of the object M when Multi is 0.3. (g) is a color image W2 of wood of object M when Multi is 0.6, and FIG. 12(f) is a color image W3 of wood of object M when Multi is 0.9.
(多チャンネル)
学習済みモデル32を生成する際は、図11に示すように、RGBの3チャンネルのカラー画像を用いるだけでなく、3Dスキャナ11で取得した距離画像S2と、レーザ輝度画像S1のチャンネルを追加して、4チャンネル又は5チャンネルの画像で機械学習を実行してもよい。これにより、物体Mの表面の凹凸情報を加味して、学習済みモデル32の精度を向上させることができる。
(multi-channel)
When generating the learned
[物体選別処理の流れ]
図13は、実施例1の物体選別システムによる物体選別処理の流れを示すフローチャートである。以下、図13に基づいて、実施例1の物体選別処理の流れについて説明する。
[Flow of object sorting process]
FIG. 13 is a flow chart showing the flow of object sorting processing by the object sorting system of the first embodiment. The flow of the object sorting process according to the first embodiment will be described below with reference to FIG. 13 .
図13に示すように、物体選別処理を開始すると、全体領域特定部21が、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定する(ステップS101)。
As shown in FIG. 13, when the object sorting process is started, the entire
次いで、エッジ領域生成部22は、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成する(ステップS102)。この際、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を統合して、エッジ領域Tを生成する。
Next, the
次いで、領域分割画像生成部23は、距離画像エッジ領域Taと輝度画像エッジ領域Tbとを統合したエッジ領域Tを距離画像S2に重ねる(ステップS103)。
Next, the region-divided
次いで、領域分割画像生成部23は、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法により分割領域M1に領域分割して、領域分割画像P1を生成する(ステップS104)。
Next, based on the edge region T superimposed on the distance image S2, the segmented
次いで、大領域算出部24は、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する(ステップS105)。
Next, the
次いで、最上層領域算出部25は、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する(ステップS106)。
Next, the top
次いで、画像補正部26は、2Dの画像と3Dの画像とがマッチングするように、最上層領域M3の大きさと位置のズレを補正する(ステップS107)。
Next, the
次いで、カラー付最上層領域生成部27は、画像補正部26によって補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する(ステップS108)。
Next, the colored top layer
次いで、材質判定部28は、記憶部31に記憶された学習済みモデル32の情報を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する(ステップS109)。カラー付最上層領域M4が、木材でないと判定した場合(ステップS109でNO)、物体選別処理を終了する。一方、カラー付最上層領域M4が、木材であると判定した場合(ステップS109でYES)、ステップS110に進む。
Next, the
次いで、制御部20は、木材として判定されたカラー付最上層領域M4の法線ベクトルから、ロボットハンド部43の姿勢を算出する(ステップS110)。ロボットハンド部43の姿勢とは、木材として判定されたカラー付最上層領域M4を把持するための姿勢である。
Next, the
次いで、制御部20は、木材であるカラー付最上層領域M4の重心位置を検出する(ステップS111)。
Next, the
次いで、制御部20は、ロボットハンド部43の姿勢と、木材であるカラー付最上層領域M4の重心位置とを、制御盤41を介してコントローラ42に送信する。そして、コントローラ42は、ロボットハンド部43に木材のカラー付最上層領域M4を掴ませて、回収ボックス44に回収させ(ステップS112)、物体選別処理を終了する。
Next, the
[物体選別システムの作用]
次に、実施例1の物体選別システム1の作用を説明する。実施例1の物体選別システム1は、搬送部2で移動する重なった状態の物体群Gから特定の物体Mを選別する物体選別システムである。物体選別システム1は、3Dスキャナ11が物体群Gを撮影した画像(レーザ輝度画像S1)に基づいて、物体群Gの全体領域Eを特定する全体領域特定部21と、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成するエッジ領域生成部22と、エッジ領域Tに基づいて、領域分割画像P1を生成する領域分割画像生成部23と、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する大領域算出部24と、大領域M2と、画像(距離画像S2)とに基づいて、最上層領域M3を算出する最上層領域算出部25と、最上層領域M3を特定の物体Mとして選別するロボットハンド部43と、を備える(図3)。
[Action of Object Sorting System]
Next, the operation of the
これにより、重なった状態の物体群Gから、最上層にある物体Mを選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にする前処理工程を経ることなく、最上層にある物体Mを選別することができる。その結果、既存のラインに容易に導入することができる。 As a result, the object M on the uppermost layer can be sorted out from the object group G in the overlapping state. Therefore, the object M in the uppermost layer can be sorted out without going through a pretreatment process for breaking down the object group G in the overlapping state and making it into a non-overlapping state. As a result, it can be easily introduced into existing lines.
実施例1の物体選別システム1において、画像は、レーザ輝度画像S1と距離画像S2であって、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成する(図5)。
In the
これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得することができる。 Thereby, the distance image edge area Ta obtained from the distance image S2 and the luminance image edge area Tb obtained from the laser luminance image S1 can be used. Therefore, an edge region that could not be obtained from the laser luminance image S1 can be obtained from the distance image S2. As a result, the edge region T can be obtained with high accuracy.
ところで、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、レーザ輝度画像S1から抽出することは困難となる。一方、実施例1では、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、距離画像S2から、この物体Mのエッジ領域Tを抽出することができる。
Incidentally, when the object group G is transported by the
実施例1の物体選別システム1において、3Dスキャナ11に隣接して配置されたエリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成するカラー付最上層領域生成部27と、カラー付最上層領域M4が、対象の材質であるか否かを判定する材質判定部28と、を備え、ロボットハンド部43は、材質判定部28の判定情報に基づいて、特定の物体Mを選別する(図3)。
In the
これにより、重なった状態の物体群Gから、最上層にある物体Mの材質を選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にすることなく、最上層にある物体Mの材質を選別することができる。 Thereby, the material of the object M in the uppermost layer can be sorted out from the object group G in the overlapping state. Therefore, the material of the object M in the uppermost layer can be sorted out without collapsing the object group G in the overlapping state so that the object group G does not overlap.
実施例1の物体選別システム1において、材質判定部28は、物体Mのカラー画像S3に対して、色補正を施した補正カラー画像V1~V3による機械学習を実行した学習済みモデル32に基づいて、カラー付最上層領域M4が、対象の材質であるか否かを判定する(図11)。
In the
これにより、対象の材質の色の特徴を強調して、周りの物体Mとの特徴の差を大きくすることができる。そのため、学習済みモデル32の精度を向上させ、材質判定部28による対象の材質の判定精度を上げることができる。
As a result, the color feature of the target material can be emphasized, and the feature difference from the surrounding object M can be increased. Therefore, the accuracy of the learned
実施例1の物体選別システム1において、学習済みモデル32は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を使って機械学習を実行した(図10)。
In the
ところで、物体Mが重なった物体群Gで、一番上にある物体Mは、その物体Mの高さ分、輝度が高くなってしまう。 By the way, in the object group G in which the objects M are overlapped, the brightness of the object M at the top is increased by the height of the object M.
実施例1では、物体Mの高さ情報を均一化することができる。そのため、明るさを平坦化(均一化)して、学習済みモデル32の精度を向上させることができる。その結果、材質判定部28による対象の材質の判定精度を上げることができる。
In Example 1, the height information of the object M can be made uniform. Therefore, it is possible to flatten (uniformize) the brightness and improve the accuracy of the learned
実施例1の物体選別システム1において、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心までの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gaとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する画像補正部26を備える(図8)。
In the
ところで、エリアカメラ12で撮った2Dのカラー画像S3は、遠近感により、物体Mが大きく映ったり、物体Mの中心の座標がずれてしまったりする。そのため、エリアカメラ12で撮った2Dのカラー画像S3は、3Dスキャナ11で撮った3Dの距離画像S2やレーザ輝度画像S1と、ズレてしまう。
By the way, in the 2D color image S3 taken by the
一方、実施例1では、2Dのカラー画像S3と3Dの距離画像S2やレーザ輝度画像S1との、物体Mの大きさのズレと、物体Mの中心位置のズレとを補正することができる。そのため、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。 On the other hand, in Example 1, it is possible to correct the size deviation of the object M and the deviation of the center position of the object M between the 2D color image S3 and the 3D range image S2 or laser luminance image S1. Therefore, a 2D image and a 3D image can be combined with high accuracy.
実施例1のエッジ領域抽出プログラムは、物体群Gに含まれる物体Mのエッジ領域Tを抽出するエッジ領域抽出プログラムであって、3Dスキャナ11が物体群Gを撮影した距離画像S2から抽出された物体Mの距離画像エッジ領域Taと、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1から抽出された物体Mの輝度画像エッジ領域Tbと、を統合して物体群のエッジ領域Tを生成するエッジ領域生成手段としてコンピュータを機能させる(図3)。
The edge area extraction program of the first embodiment is an edge area extraction program for extracting the edge area T of the object M included in the object group G, and is extracted from the distance image S2 obtained by photographing the object group G A depth image edge region Ta of the object M and a luminance image edge region Tb of the object M extracted from the laser luminance image S1 of the object group G photographed by the
これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得して、重なった状態の物体群から、最上層にある物体を正確に選別することができる Thereby, the distance image edge area Ta obtained from the distance image S2 and the luminance image edge area Tb obtained from the laser luminance image S1 can be used. Therefore, an edge region that could not be obtained from the laser luminance image S1 can be obtained from the distance image S2. As a result, the edge region T can be obtained with high accuracy, and the object in the uppermost layer can be accurately selected from the group of overlapping objects.
以上、本発明の物体選別システムを実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や、追加等は許容される。 The object sorting system of the present invention has been described above based on the first embodiment. However, the specific configuration is not limited to this embodiment, and design changes, additions, etc. are permitted as long as they do not deviate from the gist of the invention according to the claims.
実施例1では、ロボットハンド部43は、材質判定部28が判定した対象の材質であるカラー付最上層領域M4を特定の物体として選別する例を示した。しかし、ロボットハンド部は、最上層領域M3を特定の物体として選別してもよい。
In the first embodiment, the
実施例1では、学習済みモデル32は、事前学習で生成される例を示した。しかし、運用後に得られるカラー付最上層領域M4の抽出データを利用して、学習済みモデルを更新するようにしてもよい。
In Example 1, the trained
実施例1では、材質判定部28が判定する材質として、木材とする例を示した。しかし、材質判定部が判定する材質は、樹脂や、スレート材や、コンクリートや、ガラスや、鉄筋等にすることができる。
In the first embodiment, wood is used as the material determined by the
実施例1では、搬送部2をベルトコンベアとする例を示した。しかし、搬送部としては、ベルトコンベアに限定されず、例えばローラコンベアであってもよいし、物体群を搬送可能なものであればよい。
In Example 1, an example in which the conveying
実施例1では、3Dスキャナ11を光切断法式のものとする例を示した。しかし、3Dスキャナとしては、光投影法式のものを使用することもできる。
実施例1では、ロボットハンド部43を垂直多関節の6軸ロボットとする例を示した。しかし、ロボットハンド部としては、パラレルリンクロボットとしてもよい。また、ロボットハンド部は、複数あってもよい。
In the first embodiment, an example is shown in which the
実施例1では、本発明を重なった状態の複数の廃棄物から最上層にある木材を選別する物体選別システムに適用する例を示した。しかし、本発明は、重なった状態の配筋検査や、出来形管理等に適用することができる。 In Example 1, an example was shown in which the present invention is applied to an object sorting system that sorts out the top layer of wood from a plurality of stacked wastes. However, the present invention can be applied to inspection of bar arrangement in an overlapped state, finished shape control, and the like.
1 物体選別システム
2 搬送部
11 3Dスキャナ
12 エリアカメラ
21 全体領域特定部
22 エッジ領域生成部
23 領域分割画像生成部
24 大領域算出部
25 最上層領域算出部
26 画像補正部
27 カラー付最上層領域生成部
28 材質判定部
32 学習済みモデル
43 ロボットハンド部
E 全体領域
G 物体群
M 物体
M2 大領域
M3 最上層領域
P1 領域分割画像
S1 レーザ輝度画像(画像の一例)
S2 距離画像(画像の一例)
S3 カラー画像
T エッジ領域
Ta 距離画像エッジ領域
Tb 輝度画像エッジ領域
M4 カラー付最上層領域
V1~V3 補正カラー画像
1
S2 distance image (an example of an image)
S3 Color image T Edge area Ta Range image edge area Tb Luminance image edge area M4 Colored uppermost layer area V1 to V3 Corrected color image
Claims (5)
3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、
前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、
前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、
前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、
前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、
前記最上層領域を特定の物体として選別するロボットハンド部と、を備え、
前記画像は、レーザ輝度画像と距離画像であって、
前記エッジ領域生成部は、
前記距離画像に基づいて抽出された前記物体の距離画像エッジ領域と、
前記レーザ輝度画像に基づいて抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成する
ことを特徴とする、物体選別システム。 An object sorting system for sorting out a specific object from a group of overlapping objects moving in a conveying unit,
an entire area identifying unit that identifies an entire area of the object group based on an image of the object group captured by a 3D scanner;
an edge region generation unit that generates an edge region of an object included in the object group based on the entire region;
a region-divided image generation unit that generates a region-divided image based on the edge region;
a large area calculation unit that calculates a large area having a predetermined area or more based on the area-divided image;
a top layer region calculation unit that calculates a top layer region based on the large region and the image;
a robot hand unit that sorts out the top layer region as a specific object,
The images are a laser luminance image and a range image,
The edge region generation unit
a distance image edge region of the object extracted based on the distance image;
An object sorting system, wherein an edge region of the object is generated by integrating a brightness image edge region of the object extracted based on the laser brightness image.
前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、
前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する
ことを特徴とする、請求項1に記載の物体選別システム。 a colored top layer region generation unit that extracts the top layer region from a color image of the object group captured by an area camera arranged adjacent to the 3D scanner and generates a colored top layer region;
a material determination unit that determines whether the colored top layer region is a target material,
The object sorting system according to claim 1, wherein the robot hand section sorts out a specific object based on determination information from a material determination section.
ことを特徴とする、請求項2に記載の物体選別システム。 The material determination unit determines that the colored top layer region is a target material based on a trained model that has performed machine learning using a corrected color image that has undergone color correction on the color image of the object. 3. The object sorting system according to claim 2, characterized by determining whether or not.
ことを特徴とする、請求項3に記載の物体選別システム。 4. The object sorting system according to claim 3, wherein the trained model executes machine learning using information obtained by equalizing the height information of the object based on the distance image of the object. .
前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、
前記エリアカメラから前記搬送部までの第1距離と、
前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、
前記エリアカメラの中心から、前記物体群の中心までの第2距離と、
前記物体群の中心と、前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、
前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備える
ことを特徴とする、請求項2~4の何れか一項に記載の物体選別システム。 a 3D scanner object group height of the object group on the range image captured by the 3D scanner;
a 3D scanner object group width of the object group on the range image captured by the 3D scanner;
a first distance from the area camera to the transport unit;
an area camera object group width of the object group on the color image captured by the area camera;
a second distance from the center of the area camera to the center of the object group;
Based on the third distance between the center of the object group and the center of the object group photographed by the 3D scanner,
5. The object sorting system according to any one of claims 2 to 4, further comprising an image correction unit that corrects the position and size of the object group in the color image and the distance image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084648A JP7178954B2 (en) | 2019-04-25 | 2019-04-25 | Object sorting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084648A JP7178954B2 (en) | 2019-04-25 | 2019-04-25 | Object sorting system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020179355A JP2020179355A (en) | 2020-11-05 |
JP7178954B2 true JP7178954B2 (en) | 2022-11-28 |
Family
ID=73022969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019084648A Active JP7178954B2 (en) | 2019-04-25 | 2019-04-25 | Object sorting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7178954B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3952908B2 (en) | 2002-08-29 | 2007-08-01 | Jfeエンジニアリング株式会社 | Individual recognition method and individual recognition apparatus |
JP5618569B2 (en) | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | Position and orientation estimation apparatus and method |
JP5967470B2 (en) | 2012-03-30 | 2016-08-10 | 株式会社リコー | Inspection device |
JP2017109197A (en) | 2016-07-06 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
JP6271953B2 (en) | 2013-11-05 | 2018-01-31 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2018111140A (en) | 2017-01-10 | 2018-07-19 | オムロン株式会社 | Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program |
-
2019
- 2019-04-25 JP JP2019084648A patent/JP7178954B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3952908B2 (en) | 2002-08-29 | 2007-08-01 | Jfeエンジニアリング株式会社 | Individual recognition method and individual recognition apparatus |
JP5618569B2 (en) | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | Position and orientation estimation apparatus and method |
JP5967470B2 (en) | 2012-03-30 | 2016-08-10 | 株式会社リコー | Inspection device |
JP6271953B2 (en) | 2013-11-05 | 2018-01-31 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2017109197A (en) | 2016-07-06 | 2017-06-22 | ウエノテックス株式会社 | Waste screening system and screening method therefor |
JP2018111140A (en) | 2017-01-10 | 2018-07-19 | オムロン株式会社 | Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program |
Also Published As
Publication number | Publication date |
---|---|
JP2020179355A (en) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111669566B (en) | Imager for detecting visible and infrared projection patterns | |
CN112070759B (en) | Fork truck tray detection and positioning method and system | |
CN111524115B (en) | Positioning method and sorting system for steel plate cutting piece | |
KR101691682B1 (en) | Exposure method and exposure apparatus | |
JP2003211096A (en) | Sorting/array apparatus of article | |
CN100407222C (en) | Partial image processing based butt type welding seam recognition method | |
US20230252617A1 (en) | Systems and methods for automatically grading pre-owned electronic devices | |
CN111359915B (en) | Material sorting method and system based on machine vision | |
CN113146172B (en) | Multi-vision-based detection and assembly system and method | |
CN111515523B (en) | Laser processing method and device, laser processing equipment and storage medium | |
CN113383227A (en) | Defect inspection device | |
DE602004015759D1 (en) | ||
CN107301634A (en) | A kind of robot automatic sorting method and system | |
JP2019057250A (en) | Work-piece information processing system and work-piece recognition method | |
JP7178954B2 (en) | Object sorting system | |
US9483828B2 (en) | System for recognizing vehicle identification number | |
JP6774641B2 (en) | Coating device and coating method | |
CN116337887A (en) | Method and system for detecting defects on upper surface of casting cylinder body | |
US11126811B2 (en) | Piece goods registration arrangement | |
CN110961778B (en) | Method for automatically identifying welding area of welding workpiece, computer device and computer-readable storage medium | |
CN113674339A (en) | Transfer control based on reinforcement learning | |
CN106181998A (en) | A kind of Robot visual location sensor | |
CN111061265A (en) | Object carrying method, device and system | |
US20230368414A1 (en) | Pick and place systems and methods | |
JP7258345B2 (en) | OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221115 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7178954 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |