JP7178954B2 - Object sorting system - Google Patents

Object sorting system Download PDF

Info

Publication number
JP7178954B2
JP7178954B2 JP2019084648A JP2019084648A JP7178954B2 JP 7178954 B2 JP7178954 B2 JP 7178954B2 JP 2019084648 A JP2019084648 A JP 2019084648A JP 2019084648 A JP2019084648 A JP 2019084648A JP 7178954 B2 JP7178954 B2 JP 7178954B2
Authority
JP
Japan
Prior art keywords
image
area
unit
region
object group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084648A
Other languages
Japanese (ja)
Other versions
JP2020179355A (en
Inventor
菜月 白井
聡 中村
豊 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyu Construction Co Ltd
Original Assignee
Tokyu Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyu Construction Co Ltd filed Critical Tokyu Construction Co Ltd
Priority to JP2019084648A priority Critical patent/JP7178954B2/en
Publication of JP2020179355A publication Critical patent/JP2020179355A/en
Application granted granted Critical
Publication of JP7178954B2 publication Critical patent/JP7178954B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 平成30年6月1日にロボティクス・メカトロニクス 講演会2018 講演論文集(一般社団法人 日本機械学会)にて、白井菜月、中村聡及び熊谷豊が発明した不定形廃棄物の重なりを認識するロボットビジョンの開発について発表した。Application of Article 30, Paragraph 2 of the Patent Act On June 1, 2018, in the Robotics and Mechatronics Lecture 2018 Lecture Proceedings (The Japan Society of Mechanical Engineers), a patent invented by Natsuki Shirai, Satoshi Nakamura, and Yutaka Kumagai was published. We presented the development of robot vision that recognizes piles of standard waste.

本発明は、移動する重なった状態の物体群から特定の物体を選別する物体選別システムに関するものである。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object sorting system for sorting out a specific object from a moving group of overlapping objects.

従来、複数の物体の中から特定の物体を選別する物体選別システムが知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an object sorting system that sorts out a specific object from a plurality of objects is known (see, for example, Patent Document 1).

特許文献1には、スチールコンベア上の廃棄物のうちの木片を判別可能とする出力をする認識装置と、スチールコンベア上の木片を保持可能なハンドリング機構と、認識装置の出力に従い木片を判別し、判別した木片をスチールコンベア上から取り除くようにハンドリング機構を制御する処理部と、を備える廃棄物の選別を行う廃棄物選別処理設備が開示されている。 Patent Document 1 discloses a recognition device that outputs an output that enables identification of a piece of wood among waste on a steel conveyor, a handling mechanism that can hold the piece of wood on the steel conveyor, and a piece of wood that identifies the piece of wood according to the output of the recognition device. , and a processing unit for controlling a handling mechanism to remove the identified pieces of wood from the steel conveyor.

特開2015-128763号公報JP 2015-128763 A

しかしながら、特許文献1の廃棄物選別処理設備は、重なった状態の廃棄物群から特定の廃棄物を選別することができないため、認識装置の前段に、廃棄物の堆積形態を平坦化する振動篩機を備える必要がある。 However, since the waste sorting treatment facility of Patent Document 1 cannot sort out specific wastes from a group of overlapping wastes, a vibrating sieve for flattening the piled up form of wastes is installed in the front stage of the recognition device. You have to have the machine.

そこで、本発明は、重なった状態の物体群から、最上層にある物体を選別することができる物体選別システムを提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an object sorting system capable of sorting out an object in the uppermost layer from a group of overlapping objects.

前記目的を達成するために、本発明の物体選別システムは、搬送部で移動する重なった状態の物体群から特定の物体を選別する物体選別システムであって、3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、前記最上層領域を特定の物体として選別するロボットハンド部と、を備えることを特徴とする。 In order to achieve the above object, the object sorting system of the present invention is an object sorting system for sorting out a specific object from a group of overlapping objects moving in a conveying section, wherein a 3D scanner photographs the group of objects. an entire area identification unit that identifies an entire area of the object group based on the image; an edge area generation unit that generates an edge area of an object included in the object group based on the entire area; a region-divided image generation unit that generates a region-divided image based on the region-divided image; a large region calculation unit that calculates a large region having a predetermined area or more based on the region-divided image; and a top layer area calculation unit that calculates a top layer area, and a robot hand unit that selects the top layer area as a specific object.

ここで、本発明の物体選別システムでは、前記画像は、レーザ輝度画像と距離画像であって、前記エッジ領域生成部は、前記距離画像に基づいて抽出された前記物体群の距離画像エッジ領域と、前記レーザ輝度画像に基づいて抽出された前記物体群の輝度画像エッジ領域と、を生成してもよい。 Here, in the object sorting system of the present invention, the images are a laser luminance image and a range image, and the edge area generation unit generates a range image edge area of the object group extracted based on the range image. , and a luminance image edge region of the object group extracted based on the laser luminance image.

また、本発明の物体選別システムでは、前記3Dスキャナに隣接して配置されたエリアカメラが前記物体群を撮影したカラー画像から、前記最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別してもよい。 Further, in the object sorting system of the present invention, an area camera arranged adjacent to the 3D scanner extracts the top layer region from a color image of the group of objects, and generates a colored top layer region. a colored top layer area generation unit; and a material determination unit that determines whether or not the colored top layer area is a target material. can be used to sort out specific objects.

また、本発明の物体選別システムでは、前記材質判定部は、前記物体の前記カラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、前記カラー付最上層領域が、対象の材質であるか否かを判定してもよい。 Further, in the object sorting system of the present invention, the material determination unit performs color correction on the color image of the object based on a learned model that has performed machine learning using a corrected color image. It may be determined whether the top layer region is the material of interest.

また、本発明の物体選別システムでは、前記学習済みモデルは、前記物体の前記距離画像に基づいて、前記物体の高さ情報を均一化した情報を使って機械学習を実行してもよい。 Further, in the object sorting system of the present invention, the learned model may perform machine learning using information obtained by equalizing height information of the object based on the range image of the object.

また、本発明の物体選別システムでは、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群高と、前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、前記エリアカメラから前記搬送部までの第1距離と、前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、前記エリアカメラの中心から前記物体群の中心までの第2距離と、前記物体群の中心と前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備えてもよい。 Further, in the object sorting system of the present invention, a 3D scanner object group height of the object group on the range image photographed by the 3D scanner, and a 3D scanner object group height of the object group on the range image photographed by the 3D scanner. a scanner object group width, a first distance from the area camera to the transport unit, an area camera object group width of the object group on the color image photographed by the area camera, and the distance from the center of the area camera to the Based on a second distance to the center of the object group and a third distance between the center of the object group and the center of the object group photographed by the 3D scanner, the color image and the distance image. An image correcting unit that corrects the position and size of the object group may be provided.

さらに、本発明のエッジ領域抽出プログラムでは、物体群に含まれる物体のエッジ領域を抽出するエッジ領域抽出プログラムであって、3Dスキャナが前記物体群を撮影した距離画像から抽出された前記物体の距離画像エッジ領域と、前記3Dスキャナが前記物体群を撮影したレーザ輝度画像から抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させることを特徴とする。 Further, the edge region extraction program of the present invention is an edge region extraction program for extracting an edge region of an object included in a group of objects, wherein the distance of the object extracted from a distance image obtained by photographing the group of objects by a 3D scanner a computer as edge region generation means for generating an edge region of the object by integrating an image edge region and a luminance image edge region of the object extracted from a laser luminance image of the object group photographed by the 3D scanner; It is characterized by functioning.

このように構成された本発明の物体選別システムは、3Dスキャナが物体群を撮影した画像に基づいて、物体群の全体領域を特定する全体領域特定部と、全体領域に基づいて、物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、算出された大領域と画像とに基づいて、最上層領域を算出する最上層領域算出部と、最上層領域を特定の物体として選別するロボットハンド部と、を備える。これにより、重なった状態の物体群から、最上層にある物体を選別することができる。 The object sorting system of the present invention configured in this way includes an entire area specifying unit that specifies the entire area of the object group based on the image of the object group photographed by the 3D scanner, and an object group based on the entire area. An edge region generation unit that generates an edge region of a contained object, a region division image generation unit that generates a region division image based on the edge region, and a large region with a predetermined area or more is calculated based on the region division image. a large area calculation unit that calculates the uppermost layer area based on the calculated large area and the image; and a robot hand unit that selects the uppermost layer area as a specific object. As a result, the object in the uppermost layer can be sorted out from the group of overlapping objects.

また、本発明の物体選別システムでは、エッジ領域生成部は、距離画像に基づいて抽出された物体群の距離画像エッジ領域と、レーザ輝度画像に基づいて抽出された物体群の輝度画像エッジ領域と、を生成する。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができる。そのため、エッジ領域Tを精度よく取得することができる。 Further, in the object sorting system of the present invention, the edge area generation unit generates a distance image edge area of the object group extracted based on the distance image and a luminance image edge area of the object group extracted based on the laser luminance image. , to generate As a result, an edge region that could not be obtained from the laser luminance image can be obtained from the range image. Therefore, the edge region T can be obtained with high accuracy.

また、本発明の物体選別システムでは、3Dスキャナに隣接して配置されたエリアカメラが物体群を撮影したカラー画像から、最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する。これにより、重なった状態の物体群から、最上層にある物体の材質を選別することができる。 Further, in the object sorting system of the present invention, a colored top layer region is extracted from a color image of a group of objects captured by an area camera placed adjacent to the 3D scanner, and a colored top layer region is generated. An upper layer region generation unit and a material determination unit that determines whether or not the colored top layer region is a target material. sort out. As a result, the material of the object in the uppermost layer can be selected from the overlapping object group.

また、本発明の物体選別システムでは、材質判定部は、物体のカラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、カラー付最上層領域が、対象の材質であるか否かを判定する。これにより、対象の材質の色の特徴を強調して、周りの物体との特徴の差を大きくすることができ、学習済みモデルの精度を向上させ、材質判定部による対象の材質の判定精度を上げることができる。 Further, in the object sorting system of the present invention, the material determination unit performs machine learning on the color image of the object using a corrected color image that has undergone color correction. , to determine whether or not it is the target material. As a result, it is possible to emphasize the color features of the target material and increase the difference in features from the surrounding objects, improve the accuracy of the trained model, and increase the accuracy of the determination of the target material by the material determination unit. can be raised.

また、本発明の物体選別システムでは、学習済みモデルは、物体の距離画像に基づいて、物体の高さ情報を均一化した情報を使って機械学習を実行した。これにより、明るさを平坦化(均一化)して、学習済みモデルの精度を向上させることができる。 Further, in the object sorting system of the present invention, the trained model executes machine learning using information obtained by equalizing the height information of the object based on the distance image of the object. This makes it possible to flatten (uniformize) the brightness and improve the accuracy of the trained model.

また、本発明の物体選別システムでは、カラー画像と、距離画像と、の物体群の位置と大きさを補正する画像補正部を備えることで、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。 Further, the object sorting system of the present invention is provided with an image correction unit that corrects the position and size of the object group in the color image and the range image, so that the 2D image and the 3D image are accurately combined. be able to.

また、本発明のエッジ領域抽出プログラムでは、3Dスキャナが物体群を撮影した距離画像から抽出された物体の距離画像エッジ領域と、3Dスキャナが物体群を撮影したレーザ輝度画像から抽出された物体の輝度画像エッジ領域と、を統合して物体のエッジ領域を生成するエッジ領域生成手段としてコンピュータを機能させる。これにより、レーザ輝度画像では取得できなかったエッジ領域を、距離画像から取得することができ、エッジ領域を精度よく取得することができる。 Further, in the edge area extraction program of the present invention, the distance image edge area of the object extracted from the distance image of the object group photographed by the 3D scanner and the object extracted from the laser intensity image of the object group photographed by the 3D scanner. The computer is caused to function as an edge region generating means for generating an edge region of an object by integrating the luminance image edge region. As a result, an edge region that could not be obtained from the laser luminance image can be obtained from the distance image, and the edge region can be obtained with high accuracy.

実施例1の物体選別システムの構成を説明する図である。1 is a diagram illustrating the configuration of an object sorting system according to Example 1; FIG. 実施例1のレーザ輝度画像と距離画像とカラー画像を示す図である。3A and 3B are diagrams showing a laser luminance image, a distance image, and a color image in Example 1; FIG. 実施例1の物体選別システムの機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the object sorting system of Example 1; FIG. 実施例1の物体選別システムによる画像処理を説明する図であり、図4(a)は、3Dスキャナが物体群を撮影したレーザ輝度画像を示す図であり、図4(b)は、全体領域特定部が特定した全体領域を示す図である。FIG. 4A is a diagram illustrating image processing by the object sorting system of the first embodiment, FIG. 4A is a diagram showing a laser intensity image of a group of objects photographed by a 3D scanner, and FIG. FIG. 4 is a diagram showing an entire area specified by an specifying unit; 実施例1の物体選別システムによる画像処理を説明する図であり、図5(a)は、エッジ領域生成部が生成したエッジ領域を示す図であり、図5(b)は、領域分割画像生成部がエッジ領域を距離画像に重ねた図である。5A and 5B are diagrams for explaining image processing by the object sorting system of the first embodiment, FIG. 5A is a diagram showing an edge region generated by an edge region generation unit, and FIG. FIG. 10 is a diagram in which the edge region is superimposed on the range image. 実施例1の物体選別システムによる画像処理を説明する図であり、図6(a)は、領域分割画像生成部が生成した領域分割画像を示す図であり、図6(b)は、大領域算出部が算出した大領域を示す図である。6A and 6B are diagrams for explaining image processing by the object sorting system of Example 1, FIG. FIG. 4 is a diagram showing a large area calculated by a calculator; 実施例1の物体選別システムによる画像処理を説明する図であり、図7(a)は、最上層領域算出部が算出した最上層領域を示す図であり、図7(b)は、最上層領域算出部について説明する説明図である。7A and 7B are diagrams for explaining image processing by the object sorting system of the first embodiment, FIG. 7A is a diagram showing the top layer area calculated by the top layer area calculation unit, It is an explanatory view explaining an area calculation part. 実施例1の画像補正部について説明する説明図である。FIG. 3 is an explanatory diagram for explaining an image correction unit of Example 1; 実施例1の物体選別システムによる画像処理を説明する図であり、カラー付最上層領域生成部が生成したカラー付最上層領域を示す図である。FIG. 4 is a diagram for explaining image processing by the object sorting system of Example 1, and is a diagram showing a colored top layer region generated by a colored top layer region generation unit; FIG. 実施例1の高さ情報の均一化について説明する図である。FIG. 10 is a diagram illustrating uniformity of height information according to the first embodiment; 実施例1の学習に使用する画像について説明する図である。4A and 4B are diagrams for explaining images used for learning in Example 1; FIG. 実施例1の色補正について説明する図である。4A and 4B are diagrams for explaining color correction according to the first embodiment; FIG. 実施例1の物体選別システムによる物体選別処理の流れを示すフローチャートである。5 is a flow chart showing the flow of object sorting processing by the object sorting system of embodiment 1;

以下、本発明による物体選別システムを実現する実施形態を、図面に示す実施例1に基づいて説明する。 Hereinafter, an embodiment for realizing an object sorting system according to the present invention will be described based on Example 1 shown in the drawings.

実施例1では、重なった状態の複数の物体(物体群)から最上層にある木材を選別する物体選別システムを説明する。実施例1では、物体を建造物の解体工事等で発生した廃棄物とする例を説明する。 Embodiment 1 will explain an object sorting system that sorts out a piece of wood in the uppermost layer from a plurality of stacked objects (object group). In the first embodiment, an example will be described in which the object is a waste product generated in demolition work of a building or the like.

[物体選別システムの構成]
図1は、実施例1の物体選別システムの構成を説明する図である。図2は、実施例1のレーザ輝度画像と距離画像とカラー画像を示す図である。以下、図1及び図2に基づいて、実施例1の物体選別システムの構成を説明する。
[Configuration of object sorting system]
FIG. 1 is a diagram for explaining the configuration of an object sorting system according to the first embodiment. 2A and 2B are diagrams showing a laser luminance image, a distance image, and a color image in Example 1. FIG. The configuration of the object sorting system according to the first embodiment will be described below with reference to FIGS. 1 and 2. FIG.

物体選別システム1は、搬送部2と、撮影部10と、制御部20と、選別部40と、で構成される。 The object sorting system 1 is composed of a transport section 2 , an imaging section 10 , a control section 20 and a sorting section 40 .

(搬送部)
搬送部2は、例えば、ベルトコンベア等の搬送帯とすることができる。搬送部2には、重なった状態の複数の物体Mの物体群Gが載せられる。搬送部2は、循環するように構成される。
(Conveyor)
The transport unit 2 can be, for example, a transport belt such as a belt conveyor. An object group G of a plurality of objects M in an overlapping state is placed on the transport unit 2 . The transport section 2 is configured to circulate.

(撮影部)
撮影部10は、搬送部2上に設けられた撮影ボックス13と、3Dスキャナ11と、エリアカメラ12と、で構成される。
(Shooting department)
The photographing unit 10 includes a photographing box 13 provided on the conveying unit 2, a 3D scanner 11, and an area camera 12. As shown in FIG.

撮影ボックス13は、筒状に形成され、搬送部2の所定の位置に、搬送部2の上部を覆うように設置される。撮影ボックス13の内側には、LED照明13aと、LED照明13aの光を拡散する反射板13bとが取り付けられる。 The photographing box 13 is formed in a cylindrical shape and installed at a predetermined position of the transport section 2 so as to cover the upper portion of the transport section 2 . Inside the photographing box 13, an LED lighting 13a and a reflecting plate 13b for diffusing the light of the LED lighting 13a are attached.

3Dスキャナ11は、例えば、LIM TECHNOLOGIES社製のGocator2730とすることができる。3Dスキャナ11は、光切断法により、距離画像とレーザ輝度画像を取得する。3Dスキャナ11は、撮影ボックス13の上部に設置される。 The 3D scanner 11 can be, for example, Gocator2730 manufactured by LIM TECHNOLOGIES. The 3D scanner 11 acquires a distance image and a laser brightness image by a light section method. The 3D scanner 11 is installed above the photography box 13 .

エリアカメラ12は、例えば、CIS社製のVCC-5CXP3Rとすることができる。エリアカメラ12は、カラー画像を取得する。エリアカメラ12は、撮影ボックス13の上部に、3Dスキャナ11と隣接して設置される。 The area camera 12 can be, for example, VCC-5CXP3R manufactured by CIS. The area camera 12 acquires color images. The area camera 12 is installed adjacent to the 3D scanner 11 above the photographing box 13 .

このように構成された撮影部10では、搬送部2に載せられて搬送される物体群Gは、撮影ボックス13を通過する際に、LED照明13aで照射された状態で、3Dスキャナ11とエリアカメラ12とによって撮影される。 In the photographing unit 10 configured in this way, the group of objects G that is placed on and conveyed by the conveying unit 2 passes through the photographing box 13 while being illuminated by the LED illumination 13a. The image is captured by the camera 12 .

そして、図2(a)に示すようなレーザ輝度画像S1と、図2(b)に示すような距離画像S2と、図2(c)に示すようなカラー画像S3とを取得する。 Then, a laser brightness image S1 as shown in FIG. 2(a), a distance image S2 as shown in FIG. 2(b), and a color image S3 as shown in FIG. 2(c) are acquired.

(制御部)
制御部20は、PC(パーソナルコンピュータ)とすることができる。なお、制御部20の機能構成については後述する。
(control part)
The control unit 20 can be a PC (personal computer). Note that the functional configuration of the control unit 20 will be described later.

(選別部)
選別部40は、制御盤41を介して制御部20からの情報を受け取るコントローラ42と、コントローラ42によって駆動が制御されるロボットハンド部43と、を備える。
(Sorting department)
The sorting unit 40 includes a controller 42 that receives information from the control unit 20 via the control panel 41 and a robot hand unit 43 whose driving is controlled by the controller 42 .

制御盤41は、例えば、PLC(Programmable Logic Controller)とすることができる。コントローラ42は、制御盤41からの情報に基づいて、ロボットハンド部43を制御する。 The control panel 41 can be, for example, a PLC (Programmable Logic Controller). The controller 42 controls the robot hand section 43 based on information from the control panel 41 .

ロボットハンド部43は、例えば、垂直多関節の6軸ロボットとすることができる。ロボットハンド部43は、搬送部2に沿って配置される。ロボットハンド部43は、搬送部2の搬送方向で、撮影部10の下流に配置される。ロボットハンド部43は、搬送部2に載せられて搬送される物体Mを把持して、回収ボックス44に回収させるように構成される。 The robot hand unit 43 can be, for example, a vertically articulated 6-axis robot. The robot hand section 43 is arranged along the transport section 2 . The robot hand unit 43 is arranged downstream of the imaging unit 10 in the transport direction of the transport unit 2 . The robot hand unit 43 is configured to grip the object M that is placed on and transported by the transport unit 2 and to recover the object M to the recovery box 44 .

このように構成された物体選別システム1は、搬送部2の位置をエンコーダにより取得して、撮影部10で撮影した物体群Gの中から、制御部20の制御情報に基づいて、ロボットハンド部43が特定の物体Mを選別する。 The object sorting system 1 configured in this way acquires the position of the transport unit 2 by an encoder, and selects the robot hand unit from among the object group G photographed by the photographing unit 10 based on the control information of the control unit 20. 43 selects a particular object M;

[物体選別システムの機能構成]
図3は、実施例1の物体選別システムの機能構成を示すブロック図である。図4~7は、実施例1の物体選別システムによる画像処理を説明する図である。図8は、実施例1の画像補正部26について説明する説明図である。図9は、実施例1の物体選別システムによる画像処理を説明する図である。以下、図3~図9に基づいて、実施例1の物体選別システムの機能構成を説明する。
[Functional Configuration of Object Sorting System]
FIG. 3 is a block diagram showing the functional configuration of the object sorting system according to the first embodiment; 4 to 7 are diagrams for explaining image processing by the object sorting system of the first embodiment. FIG. 8 is an explanatory diagram for explaining the image correction unit 26 of the first embodiment. FIG. 9 is a diagram for explaining image processing by the object sorting system according to the first embodiment. The functional configuration of the object sorting system according to the first embodiment will be described below with reference to FIGS. 3 to 9. FIG.

物体選別システム1は、図3に示すように、主に、3Dスキャナ11と、エリアカメラ12と、搬送部2と、制御部20と、コントローラ42と、ロボットハンド部43と、を備える。 The object sorting system 1 mainly includes a 3D scanner 11, an area camera 12, a transport section 2, a control section 20, a controller 42, and a robot hand section 43, as shown in FIG.

3Dスキャナ11は、光切断法により、搬送部2で搬送中の物体群Gのレーザ輝度画像S1と距離画像S2とを取得する。レーザ輝度画像S1と距離画像S2とは、制御部20に送信される。 The 3D scanner 11 obtains a laser luminance image S1 and a distance image S2 of the object group G being transported by the transport unit 2 by the light section method. The laser brightness image S1 and the distance image S2 are transmitted to the control unit 20. FIG.

エリアカメラ12は、搬送部2で搬送中の物体群Gのカラー画像S3を取得する。カラー画像S3は、制御部20に送信される。 The area camera 12 acquires a color image S<b>3 of the object group G being transported by the transport unit 2 . The color image S3 is transmitted to the control section 20. FIG.

搬送部2は、図示しないエンコーダに接続され、搬送部2の搬送量が制御部20に送信される。 The transport unit 2 is connected to an encoder (not shown), and the transport amount of the transport unit 2 is transmitted to the control unit 20 .

制御部20は、全体領域特定部21と、エッジ領域生成部22と、領域分割画像生成部23と、大領域算出部24と、最上層領域算出部25と、画像補正部26と、カラー付最上層領域生成部27と、材質判定部28と、色補正部29と、高さ情報均一化部30と、記憶部31と、を備える。 The control unit 20 includes an entire area identifying unit 21, an edge area generating unit 22, an area divided image generating unit 23, a large area calculating unit 24, a top layer area calculating unit 25, an image correcting unit 26, and a coloring unit. It includes a top layer region generation unit 27 , a material determination unit 28 , a color correction unit 29 , a height information equalization unit 30 , and a storage unit 31 .

全体領域特定部21は、図4(a)に示す3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、図4(b)に示す物体群Gの全体領域Eを特定する。全体領域特定部21は、所定の輝度の閾値を設けて、背景領域である搬送部2と、廃棄物領域である物体群Gとを分離して、物体群Gの全体領域Eを特定する。 The entire area specifying unit 21 specifies the entire area E of the object group G shown in FIG. 4(b) based on the laser brightness image S1 of the object group G photographed by the 3D scanner 11 shown in FIG. 4(a). The entire area specifying unit 21 sets a predetermined brightness threshold to separate the transport unit 2, which is the background area, from the object group G, which is the waste area, and specifies the entire area E of the object group G.

なお、全体領域特定部21は、3Dスキャナ11が物体群Gを撮影した距離画像S2に基づいて、物体群Gの全体領域Eを特定してもよい。ただし、全体領域特定部21は、レーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定した方が、背景である搬送部2と物体群Gの色の差が出やすいため好ましい。 Note that the entire area specifying unit 21 may specify the entire area E of the object group G based on the distance image S2 obtained by capturing the object group G by the 3D scanner 11 . However, it is preferable for the entire area specifying unit 21 to specify the entire area E of the object group G based on the laser luminance image S1, because the color difference between the conveying unit 2, which is the background, and the object group G is more likely to occur.

エッジ領域生成部22は、図5(a)に示すように、cannyフィルタ、sobelフィルタ、lanserフィルタ等のフィルタを用いて、全体領域Eの中から、物体群Gに含まれる物体Mのエッジ領域Tを生成する。 As shown in FIG. 5(a), the edge region generation unit 22 uses filters such as a canny filter, a sobel filter, and a lanser filter to extract the edge region of the object M included in the object group G from the entire region E. Generate T.

エッジ領域生成部22は、エッジ領域Tとしての距離画像エッジ領域Taと輝度画像エッジ領域Tbと、を生成する。エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成して、統合する。 The edge area generation unit 22 generates a distance image edge area Ta and a luminance image edge area Tb as edge areas T. FIG. The edge area generation unit 22 generates a distance image edge area Ta of the object M extracted based on the distance image S2 and a luminance image edge area Tb of the object M extracted based on the laser luminance image S1. ,Integrate.

また、エッジ領域生成部22は、エッジ領域Tの中心軸を抽出する。エッジ領域生成部22は、距離画像エッジ領域Taと、輝度画像エッジ領域Tbと、を生成して、統合するエッジ領域生成手段として機能する。 Further, the edge region generator 22 extracts the central axis of the edge region T. FIG. The edge area generator 22 functions as an edge area generator that generates and integrates the distance image edge area Ta and the luminance image edge area Tb.

領域分割画像生成部23は、図5(b)に示すように、統合したエッジ領域Tを距離画像S2に重ねる。領域分割画像生成部23は、図6(a)に示すように、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法で同じような特徴を持つ複数の分割領域M1に領域分割して、領域分割画像P1を生成する。 The segmented image generator 23 overlaps the integrated edge region T on the distance image S2 as shown in FIG. 5(b). As shown in FIG. 6A, the segmented image generation unit 23 segments the edge region T superimposed on the distance image S2 into a plurality of segmented regions M1 having similar characteristics by the region growing method. to generate the segmented image P1.

なお、領域分割画像生成部23は、レーザ輝度画像S1に重ねたエッジ領域Tに基づいて、領域成長法で領域分割して、領域分割画像を生成してもよい。ただし、距離画像S2に重ねたエッジ領域Tに基づいて、領域分割画像P1を生成した方が、物体Mの表面の色情報の影響を受けないため、精度よく領域分割することができる。 Note that the segmented image generation unit 23 may generate segmented images by performing segmentation using a region growing method based on the edge region T superimposed on the laser luminance image S1. However, if the segmented image P1 is generated based on the edge region T superimposed on the distance image S2, the color information of the surface of the object M is not affected, and segmentation can be performed with high accuracy.

大領域算出部24は、図6(b)に示すように、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する。所定の面積とは、ロボットハンド部43が掴むことのできる程度の大きさをいう。なお、大領域算出部24は、領域分割画像P1に基づいて、所定の幅以上の大幅領域を算出してもよい。 As shown in FIG. 6(b), the large area calculator 24 calculates a large area M2 having a predetermined area or more based on the divided area image P1. The predetermined area refers to a size that can be grasped by the robot hand section 43 . Note that the large area calculation unit 24 may calculate a large area having a predetermined width or more based on the area-divided image P1.

最上層領域算出部25は、図7(a)に示すように、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する。具体的には、まず、大領域M2を距離画像S2に重ね合わせる。次に、図7(b)に示すように、各大領域M2について、周囲の物体Mとの最小距離Fにある、物体Mの点P1と、大領域M2の点P2とを抽出する。次に、点P1を中心とした一定の半径Rで囲まれる物体Mの領域A1の高さ平均と、点P2を中心とした一定の半径Rで囲まれる大領域M2の領域A2の高さ平均と、を比較する。 As shown in FIG. 7A, the top layer area calculator 25 calculates the top layer area M3 based on the large area M2 and the distance image S2. Specifically, first, the large area M2 is superimposed on the distance image S2. Next, as shown in FIG. 7B, for each large region M2, a point P1 of the object M and a point P2 of the large region M2, which are at the minimum distance F from the surrounding object M, are extracted. Next, the average height of the area A1 of the object M surrounded by the constant radius R centered at the point P1 and the average height of the area A2 of the large area M2 surrounded by the constant radius R centered on the point P2 and compare.

大領域M2の周囲の全ての物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が高い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3と判断する。 When the average height of the area A2 of the large area M2 is higher than the average height of the area A1 of all the objects M surrounding the large area M2, the top layer area calculator 25 determines the large area M2 as the top layer area. M3 is determined.

一方、大領域M2の周囲の物体Mの領域A1の高さ平均より、大領域M2の領域A2の高さ平均が低い場合、最上層領域算出部25は、この大領域M2を、最上層領域M3でないと判断する。このようにして、距離画像S2に最上層領域M3が反映された第2距離画像P2が生成される。 On the other hand, when the average height of the area A2 of the large area M2 is lower than the average height of the area A1 of the object M surrounding the large area M2, the top layer area calculator 25 determines the large area M2 as the top layer area. It is judged that it is not M3. In this way, a second distance image P2 is generated in which the top layer region M3 is reflected in the distance image S2.

ところで、距離画像S2は、影になって取得できない領域ができてしまう。大領域M2と、その周囲の距離画像S2中の物体Mとの距離を規定することで、影になって取得できない領域ができたとしても、最上層領域算出部25は、最上層領域M3を算出することができる。 By the way, the distance image S2 has a shadowed area that cannot be obtained. By defining the distance between the large region M2 and the object M in the range image S2 surrounding it, even if there is a shadowed region that cannot be obtained, the top layer region calculation unit 25 calculates the top layer region M3. can be calculated.

なお、距離画像S2に最上層領域M3が反映された第2距離画像P2は、後述する機械学習(ディープラーニング)と、ロボットハンド部43の姿勢決定に使用される。 A second distance image P2 in which the uppermost layer region M3 is reflected in the distance image S2 is used for machine learning (deep learning) described later and determination of the posture of the robot hand unit 43. FIG.

ところで、エリアカメラ12から取得したカラー画像S3と、3Dスキャナ11から取得した距離画像S2及びレーザ輝度画像S1とでは、撮影の原理の違いから、撮影した対象物の大きさや位置のずれが生じる。 By the way, between the color image S3 acquired from the area camera 12 and the distance image S2 and the laser brightness image S1 acquired from the 3D scanner 11, the size and position of the photographed object are shifted due to the difference in the principle of photographing.

画像補正部26は、2D(二次元)の画像と3D(三次元)の画像との対象物の大きさと位置のズレを補正する。具体的には、図8(a)に示すように、3Dスキャナ11で撮影された距離画像S2上の物体群Gの高さを3Dスキャナ物体群高hとする。3Dスキャナ11で撮影された距離画像S2上の物体群Gの幅を3Dスキャナ物体群幅wとする。 The image correction unit 26 corrects the size and positional deviation of the object between the 2D (two-dimensional) image and the 3D (three-dimensional) image. Specifically, as shown in FIG. 8A, the height of the object group G on the distance image S2 captured by the 3D scanner 11 is set as the 3D scanner object group height h. The width of the object group G on the distance image S2 captured by the 3D scanner 11 is defined as the 3D scanner object group width w.

図8(b)に示すように、エリアカメラ12から搬送部2までの距離を第1距離WDとする。エリアカメラ12で撮影されたカラー画像S3上の物体群Gの幅をエリアカメラ物体群幅w1とする。エリアカメラ12の中心12aから、物体群Gの中心Gaまでの距離を第2距離dとする。物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの距離(ズレ量)を第3距離d1とする。 As shown in FIG. 8B, the distance from the area camera 12 to the transport unit 2 is defined as a first distance WD. The width of the object group G on the color image S3 captured by the area camera 12 is defined as the area camera object group width w1. The distance from the center 12a of the area camera 12 to the center Ga of the object group G is defined as a second distance d. The distance (shift amount) between the center Ga of the object group G and the center Gb of the object group G captured by the 3D scanner 11 is defined as a third distance d1.

エリアカメラ物体群幅w1と、第3距離d1は、以下の式で算出される。
w1=w×WD/(WD-h) 式1
d1=d×WD/(WD-h)-d 式2
The area camera object group width w1 and the third distance d1 are calculated by the following equations.
w1=w×WD/(WD−h) Formula 1
d1=d×WD/(WD−h)−d Formula 2

画像補正部26は、式1と式2を参照して、3Dスキャナ11から得た最上層領域M3を、w1/w倍に拡大し、第3距離d1を求めてアフィン変換を行い、大きさと位置の補正を行う。 The image correction unit 26 refers to Equations 1 and 2 to enlarge the uppermost layer region M3 obtained from the 3D scanner 11 by w1/w times, obtain the third distance d1, perform affine transformation, and obtain the size and Correct the position.

すなわち、画像補正部26は、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心Gaまでの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gbとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する。 That is, the image correction unit 26 determines the 3D scanner object group height h of the object group G on the distance image S2 photographed by the 3D scanner 11 and the 3D scanner object group G of the object group G on the distance image S2 photographed by the 3D scanner 11. The object group width w, the first distance WD from the area camera 12 to the transport unit 2, the area camera object group width w1 of the object group G on the color image S3 captured by the area camera 12, and the center of the area camera 12 12a, based on the second distance d to the center Ga of the object group G and the third distance d1 between the center Ga of the object group G and the center Gb of the object group G photographed by the 3D scanner 11, color The position and size of the object group G in the image S3 and the distance image S2 are corrected.

カラー付最上層領域生成部27は、図9に示すように、画像補正部26によって物体群Gの位置と大きさが補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する。なお、カラー付最上層領域M4は、材質判定部28による材質判定に用いられるが、後述する機械学習に用いられてもよい。 As shown in FIG. 9, the colored uppermost layer region generation unit 27 generates a color image S3 of the object group G photographed by the area camera 12, in which the position and size of the object group G are corrected by the image correction unit 26. The top layer region M3 is extracted to generate a colored top layer region M4. The colored uppermost layer region M4 is used for material determination by the material determination unit 28, but may be used for machine learning, which will be described later.

材質判定部28は、記憶部31に記憶された学習済みモデル32を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する。学習済みモデル32は、材質のラベル付けをした画像(教師データ)を使用して、事前学習により生成される。材質としては、木材や、プラスチックや、コンクリートや、ガラス等にすることができる。 The material determination unit 28 uses the learned model 32 stored in the storage unit 31 to determine whether or not the colored top layer region M4 is wood, which is the target material. The trained model 32 is generated by pre-learning using material-labeled images (teacher data). The material can be wood, plastic, concrete, glass, or the like.

具体的には、ラーニング用ソフトウェアで畳み込みニューラルネットワーク(CNN)を用いて、ラベル付けを行った物体Mの画像で材質判定の学習を行い、学習済みモデル32を生成する。なお、運用後に得られるカラー付最上層領域M4の抽出データの利用して、学習済みモデル32を更新するようにしてもよい。 Specifically, the learning software uses a convolutional neural network (CNN) to perform material determination learning with the labeled image of the object M, thereby generating the trained model 32 . Note that the learned model 32 may be updated using extracted data of the colored uppermost layer region M4 obtained after operation.

材質判定部28の判定情報は、制御盤41を介してコントローラ42に送信される。判定情報には、木材であるカラー付最上層領域M4の情報と、木材であるカラー付最上層領域M4の表面の法線ベクトルから算出されたロボットハンド部43の姿勢の情報と、木材であるカラー付最上層領域M4の重心位置の情報とが含まれる。 Determination information from the material determination unit 28 is transmitted to the controller 42 via the control panel 41 . The determination information includes information on the colored top layer region M4 made of wood, information on the orientation of the robot hand unit 43 calculated from the normal vector of the surface of the colored top layer region M4 made of wood, and information on the position of the center of gravity of the colored top layer region M4.

コントローラ42は、材質判定部28の判定情報に基づいて、ロボットハンド部43の動作を制御する。すなわち、ロボットハンド部43は、対象の材質であるカラー付最上層領域M4を特定の物体Mとして選別する。 The controller 42 controls the operation of the robot hand section 43 based on the determination information from the material determination section 28 . That is, the robot hand unit 43 selects the colored uppermost layer region M4, which is the target material, as the specific object M. As shown in FIG.

[機械学習]
図10は、実施例1の高さ情報の均一化について説明する図である。図11は、実施例1の学習に使用する画像について説明する図である。図12は、実施例1の色補正について説明する図である。以下、図10~図12に基づいて、実施例1の機会学習について説明する。
[Machine learning]
FIG. 10 is a diagram illustrating uniformization of height information according to the first embodiment. 11A and 11B are diagrams for explaining images used for learning in Example 1. FIG. FIG. 12 is a diagram for explaining color correction according to the first embodiment. Machine learning according to the first embodiment will be described below with reference to FIGS. 10 to 12. FIG.

(高さ情報の均一化)
図10(a)は、物体Mに対して、平面視で外接する矩形を形成して、その矩形の中心点を通る断面図である。図10(a)に示すように、物体Mの縁部における最高点aの高さを最高高さHaとし、最低点bの高さを最低高さHbとし、物体Mの中央部cの高さを中央高さHcとする。
(Equalization of height information)
FIG. 10(a) is a cross-sectional view passing through the center point of a rectangle formed to circumscribe the object M in plan view. As shown in FIG. 10A, the height of the highest point a at the edge of the object M is the highest height Ha, the height of the lowest point b is the lowest height Hb, and the height of the center c of the object M is is the central height Hc.

高さ情報均一化部30は、最高点aから最高高さHaを減算し、最低点bから最低高さHbを減算して、補正後の中央部cの高さである補正中央高さHcnewを算出し、高さ情報を均一化する。 The height information equalization unit 30 subtracts the maximum height Ha from the maximum point a, subtracts the minimum height Hb from the minimum point b, and obtains a corrected central height Hcnew, which is the height of the central portion c after correction. to equalize the height information.

補正中央高さHcnewは、以下の計算式により算出される。
(Ha-Hb):ab=(Ha-Hc’):ac
Hc’=Ha-ac/ab*(Ha-Hb)
Hcnew=Hc-Ha+ac/ab*(Ha-Hb)
The corrected center height Hcnew is calculated by the following formula.
(Ha-Hb): ab = (Ha-Hc'): ac
Hc′=Ha−ac/ab*(Ha−Hb)
Hc new = Hc - Ha + ac/ab * (Ha - Hb)

距離abは、最高点aと最低点bの水平方向の距離である。距離acは、最高点aと中央部cの水平方向の距離である。高さHc’は、最高高さHaと最低高さHbの中間の高さでる。なお、高さ情報均一化部30は、1つの物体Mに対して、複数のポイントについてHcnewを算出してもよい。 The distance ab is the horizontal distance between the highest point a and the lowest point b. The distance ac is the horizontal distance between the highest point a and the central portion c. The height Hc' is an intermediate height between the maximum height Ha and the minimum height Hb. Note that the height information uniformizing unit 30 may calculate Hcnew for a plurality of points for one object M. FIG.

高さ情報均一化部30は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を記憶部31に送信する。そして、高さ情報を均一化した情報を入力データとして、材質判定部28が参照する学習済みモデル32が生成される。 The height information equalization unit 30 transmits information obtained by equalizing the height information of the object M to the storage unit 31 based on the distance image S2 of the object M. FIG. Then, the learned model 32 that is referred to by the material determination unit 28 is generated using the information obtained by equalizing the height information as input data.

(色補正)
色補正部29は、図11に示すように、RGB画像に対して画像処理で色の特徴を強化する。具体的には、色補正部29は、図12(b)に示すように、物体Mとしての木材のカラー画像に、例えば、木材色の色フィルタを乗算し、木材色の特徴を強化した補正カラー画像V1を生成する。
(color correction)
As shown in FIG. 11, the color correction unit 29 enhances the color features of the RGB image by image processing. Specifically, as shown in FIG. 12(b), the color correction unit 29 multiplies the color image of wood as the object M by, for example, a color filter of wood color, thereby enhancing the characteristics of the wood color. A color image V1 is generated.

色補正部29は、図12(c)に示すように、物体Mとしての木材のカラー画像に、例えば、画像自体の色を乗算し、画像自体の色を強化した補正カラー画像V2を生成する。色補正部29は、図12(d)に示すように、物体Mとしての木材のカラー画像に、例えば、木材の補色の色フィルタを乗算し、木材のみ色の彩度を落とした補正カラー画像V3を生成する。 As shown in FIG. 12(c), the color correction unit 29 multiplies the color image of the wood as the object M by, for example, the color of the image itself to generate a corrected color image V2 in which the color of the image itself is enhanced. . As shown in FIG. 12(d), the color correction unit 29 multiplies the color image of the wood as the object M by, for example, a color filter of the complementary color of the wood, and reduces the saturation of the color of the wood only to obtain a corrected color image. Generate V3.

なお、図12(a)は、物体Mのカラー画像又はカラー付最上層領域M4のオリジナルの画像V0を示す。色補正部29は、このように、色を補正して、RGB画像に画像処理で色の特徴を強化することにより、判定精度の高い学習済みモデル32を生成することができる。 Note that FIG. 12(a) shows the color image of the object M or the original image V0 of the colored top layer region M4. The color correction unit 29 can thus generate the trained model 32 with high determination accuracy by correcting the colors and enhancing the color features of the RGB image by image processing.

また、色補正部29は、最適なMultiを設定し、学習済みモデル32の判定精度を向上させてもよい。元画像のグレイ値をG1とし、フィルタのグレイ値をG2とし、乗算後のグレイ値をG3とし、乗算係数をMultiとすると、フィルタの乗算式は、以下のような式となる。
G3=(G1+G2)*Multi
Also, the color correction unit 29 may set an optimum Multi to improve the determination accuracy of the learned model 32 . Assuming that the gray value of the original image is G1, the gray value of the filter is G2, the gray value after multiplication is G3, and the multiplication coefficient is Multi, the multiplication formula of the filter is as follows.
G3=(G1+G2)*Multi

なお、図12(e)は、オリジナルの物体Mの木材のカラー画像W0であり、図12(f)は、Multiが0.3の場合の物体Mの木材のカラー画像W1であり、図12(g)は、Multiが0.6の場合の物体Mの木材のカラー画像W2であり、図12(f)は、Multiが0.9の場合の物体Mの木材のカラー画像W3である。 FIG. 12(e) is a color image W0 of wood of the original object M, and FIG. 12(f) is a color image W1 of wood of the object M when Multi is 0.3. (g) is a color image W2 of wood of object M when Multi is 0.6, and FIG. 12(f) is a color image W3 of wood of object M when Multi is 0.9.

(多チャンネル)
学習済みモデル32を生成する際は、図11に示すように、RGBの3チャンネルのカラー画像を用いるだけでなく、3Dスキャナ11で取得した距離画像S2と、レーザ輝度画像S1のチャンネルを追加して、4チャンネル又は5チャンネルの画像で機械学習を実行してもよい。これにより、物体Mの表面の凹凸情報を加味して、学習済みモデル32の精度を向上させることができる。
(multi-channel)
When generating the learned model 32, as shown in FIG. 11, in addition to using color images of three channels of RGB, channels of the distance image S2 acquired by the 3D scanner 11 and the laser brightness image S1 are added. Therefore, machine learning may be performed on 4-channel or 5-channel images. As a result, the accuracy of the learned model 32 can be improved by taking into account the unevenness information on the surface of the object M.

[物体選別処理の流れ]
図13は、実施例1の物体選別システムによる物体選別処理の流れを示すフローチャートである。以下、図13に基づいて、実施例1の物体選別処理の流れについて説明する。
[Flow of object sorting process]
FIG. 13 is a flow chart showing the flow of object sorting processing by the object sorting system of the first embodiment. The flow of the object sorting process according to the first embodiment will be described below with reference to FIG. 13 .

図13に示すように、物体選別処理を開始すると、全体領域特定部21が、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1に基づいて、物体群Gの全体領域Eを特定する(ステップS101)。 As shown in FIG. 13, when the object sorting process is started, the entire area specifying unit 21 specifies the entire area E of the object group G based on the laser brightness image S1 obtained by capturing the object group G by the 3D scanner 11 ( step S101).

次いで、エッジ領域生成部22は、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成する(ステップS102)。この際、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を統合して、エッジ領域Tを生成する。 Next, the edge region generator 22 generates an edge region T of the object M included in the object group G based on the entire region E (step S102). At this time, the edge region generation unit 22 generates a distance image edge region Ta of the object M extracted based on the distance image S2 and a brightness image edge region Tb of the object M extracted based on the laser brightness image S1. An edge region T is generated by integration.

次いで、領域分割画像生成部23は、距離画像エッジ領域Taと輝度画像エッジ領域Tbとを統合したエッジ領域Tを距離画像S2に重ねる(ステップS103)。 Next, the region-divided image generation unit 23 superimposes the edge region T obtained by integrating the distance image edge region Ta and the luminance image edge region Tb on the distance image S2 (step S103).

次いで、領域分割画像生成部23は、距離画像S2に重ねたエッジ領域Tに基づいて、領域成長法により分割領域M1に領域分割して、領域分割画像P1を生成する(ステップS104)。 Next, based on the edge region T superimposed on the distance image S2, the segmented image generating unit 23 segments the segmented region M1 into segmented regions M1 by the region growing method to generate the segmented image P1 (step S104).

次いで、大領域算出部24は、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する(ステップS105)。 Next, the large region calculator 24 calculates a large region M2 having a predetermined area or more based on the segmented image P1 (step S105).

次いで、最上層領域算出部25は、大領域M2と、距離画像S2とに基づいて、最上層領域M3を算出する(ステップS106)。 Next, the top layer area calculator 25 calculates the top layer area M3 based on the large area M2 and the distance image S2 (step S106).

次いで、画像補正部26は、2Dの画像と3Dの画像とがマッチングするように、最上層領域M3の大きさと位置のズレを補正する(ステップS107)。 Next, the image correction unit 26 corrects the size and positional deviation of the uppermost layer region M3 so that the 2D image and the 3D image are matched (step S107).

次いで、カラー付最上層領域生成部27は、画像補正部26によって補正された、エリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成する(ステップS108)。 Next, the colored top layer region generation unit 27 extracts the top layer region M3 from the color image S3 of the object group G photographed by the area camera 12, which has been corrected by the image correction unit 26, and extracts the top layer region M3. M4 is generated (step S108).

次いで、材質判定部28は、記憶部31に記憶された学習済みモデル32の情報を使用して、カラー付最上層領域M4が、対象の材質である木材であるか否かを判定する(ステップS109)。カラー付最上層領域M4が、木材でないと判定した場合(ステップS109でNO)、物体選別処理を終了する。一方、カラー付最上層領域M4が、木材であると判定した場合(ステップS109でYES)、ステップS110に進む。 Next, the material determination unit 28 uses the information of the learned model 32 stored in the storage unit 31 to determine whether or not the colored top layer region M4 is wood, which is the target material (step S109). If it is determined that the colored top layer region M4 is not made of wood (NO in step S109), the object sorting process ends. On the other hand, if it is determined that the colored top layer region M4 is wood (YES in step S109), the process proceeds to step S110.

次いで、制御部20は、木材として判定されたカラー付最上層領域M4の法線ベクトルから、ロボットハンド部43の姿勢を算出する(ステップS110)。ロボットハンド部43の姿勢とは、木材として判定されたカラー付最上層領域M4を把持するための姿勢である。 Next, the control unit 20 calculates the posture of the robot hand unit 43 from the normal vector of the colored uppermost layer region M4 determined as wood (step S110). The posture of the robot hand unit 43 is a posture for gripping the collared uppermost layer region M4 determined as wood.

次いで、制御部20は、木材であるカラー付最上層領域M4の重心位置を検出する(ステップS111)。 Next, the control unit 20 detects the center-of-gravity position of the colored uppermost layer region M4 made of wood (step S111).

次いで、制御部20は、ロボットハンド部43の姿勢と、木材であるカラー付最上層領域M4の重心位置とを、制御盤41を介してコントローラ42に送信する。そして、コントローラ42は、ロボットハンド部43に木材のカラー付最上層領域M4を掴ませて、回収ボックス44に回収させ(ステップS112)、物体選別処理を終了する。 Next, the control unit 20 transmits the posture of the robot hand unit 43 and the center-of-gravity position of the collared uppermost layer region M4 made of wood to the controller 42 via the control panel 41 . Then, the controller 42 causes the robot hand unit 43 to grasp the colored uppermost layer area M4 of the timber to collect it in the collection box 44 (step S112), and ends the object sorting process.

[物体選別システムの作用]
次に、実施例1の物体選別システム1の作用を説明する。実施例1の物体選別システム1は、搬送部2で移動する重なった状態の物体群Gから特定の物体Mを選別する物体選別システムである。物体選別システム1は、3Dスキャナ11が物体群Gを撮影した画像(レーザ輝度画像S1)に基づいて、物体群Gの全体領域Eを特定する全体領域特定部21と、全体領域Eに基づいて、物体群Gに含まれる物体Mのエッジ領域Tを生成するエッジ領域生成部22と、エッジ領域Tに基づいて、領域分割画像P1を生成する領域分割画像生成部23と、領域分割画像P1に基づいて、所定の面積以上の大領域M2を算出する大領域算出部24と、大領域M2と、画像(距離画像S2)とに基づいて、最上層領域M3を算出する最上層領域算出部25と、最上層領域M3を特定の物体Mとして選別するロボットハンド部43と、を備える(図3)。
[Action of Object Sorting System]
Next, the operation of the object sorting system 1 of the first embodiment will be described. An object sorting system 1 according to the first embodiment is an object sorting system that sorts out a specific object M from a group of objects G in a state of being superimposed and moved by a conveying unit 2 . The object selection system 1 includes an entire area specifying unit 21 that specifies an entire area E of the object group G based on an image (laser brightness image S1) of the object group G captured by the 3D scanner 11, and based on the entire area E , an edge region generation unit 22 for generating an edge region T of an object M included in an object group G, a region division image generation unit 23 for generating a region division image P1 based on the edge region T, and the region division image P1. a large region calculation unit 24 that calculates a large region M2 having a predetermined area or more based on and a robot hand unit 43 that selects the uppermost layer region M3 as a specific object M (FIG. 3).

これにより、重なった状態の物体群Gから、最上層にある物体Mを選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にする前処理工程を経ることなく、最上層にある物体Mを選別することができる。その結果、既存のラインに容易に導入することができる。 As a result, the object M on the uppermost layer can be sorted out from the object group G in the overlapping state. Therefore, the object M in the uppermost layer can be sorted out without going through a pretreatment process for breaking down the object group G in the overlapping state and making it into a non-overlapping state. As a result, it can be easily introduced into existing lines.

実施例1の物体選別システム1において、画像は、レーザ輝度画像S1と距離画像S2であって、エッジ領域生成部22は、距離画像S2に基づいて抽出された物体Mの距離画像エッジ領域Taと、レーザ輝度画像S1に基づいて抽出された物体Mの輝度画像エッジ領域Tbと、を生成する(図5)。 In the object sorting system 1 of the first embodiment, the images are the laser luminance image S1 and the distance image S2, and the edge area generator 22 generates the distance image edge area Ta of the object M extracted based on the distance image S2 and the , and a brightness image edge region Tb of the object M extracted based on the laser brightness image S1 (FIG. 5).

これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得することができる。 Thereby, the distance image edge area Ta obtained from the distance image S2 and the luminance image edge area Tb obtained from the laser luminance image S1 can be used. Therefore, an edge region that could not be obtained from the laser luminance image S1 can be obtained from the distance image S2. As a result, the edge region T can be obtained with high accuracy.

ところで、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、レーザ輝度画像S1から抽出することは困難となる。一方、実施例1では、物体群Gが搬送部2で搬送される場合、搬送部2と同系色の物体Mのエッジ領域Tは、距離画像S2から、この物体Mのエッジ領域Tを抽出することができる。 Incidentally, when the object group G is transported by the transport unit 2, it becomes difficult to extract the edge region T of the object M having the same color as that of the transport unit 2 from the laser luminance image S1. On the other hand, in Example 1, when the object group G is transported by the transport unit 2, the edge region T of the object M having the same color as that of the transport unit 2 is extracted from the distance image S2. be able to.

実施例1の物体選別システム1において、3Dスキャナ11に隣接して配置されたエリアカメラ12が物体群Gを撮影したカラー画像S3から、最上層領域M3を抽出して、カラー付最上層領域M4を生成するカラー付最上層領域生成部27と、カラー付最上層領域M4が、対象の材質であるか否かを判定する材質判定部28と、を備え、ロボットハンド部43は、材質判定部28の判定情報に基づいて、特定の物体Mを選別する(図3)。 In the object sorting system 1 of the first embodiment, the top layer region M3 is extracted from the color image S3 of the object group G photographed by the area camera 12 arranged adjacent to the 3D scanner 11, and the colored top layer region M4 is obtained. and a material determination unit 28 that determines whether or not the colored top layer region M4 is a target material. A specific object M is sorted out based on the determination information of 28 (FIG. 3).

これにより、重なった状態の物体群Gから、最上層にある物体Mの材質を選別することができる。そのため、重なった状態にある物体群Gを崩して、重なっていない状態にすることなく、最上層にある物体Mの材質を選別することができる。 Thereby, the material of the object M in the uppermost layer can be sorted out from the object group G in the overlapping state. Therefore, the material of the object M in the uppermost layer can be sorted out without collapsing the object group G in the overlapping state so that the object group G does not overlap.

実施例1の物体選別システム1において、材質判定部28は、物体Mのカラー画像S3に対して、色補正を施した補正カラー画像V1~V3による機械学習を実行した学習済みモデル32に基づいて、カラー付最上層領域M4が、対象の材質であるか否かを判定する(図11)。 In the object sorting system 1 of the first embodiment, the material determination unit 28 performs machine learning on the color image S3 of the object M using the corrected color images V1 to V3 that have undergone color correction, based on the learned model 32. , colored uppermost layer region M4 is determined whether or not it is the target material (FIG. 11).

これにより、対象の材質の色の特徴を強調して、周りの物体Mとの特徴の差を大きくすることができる。そのため、学習済みモデル32の精度を向上させ、材質判定部28による対象の材質の判定精度を上げることができる。 As a result, the color feature of the target material can be emphasized, and the feature difference from the surrounding object M can be increased. Therefore, the accuracy of the learned model 32 can be improved, and the accuracy of determination of the target material by the material determination unit 28 can be increased.

実施例1の物体選別システム1において、学習済みモデル32は、物体Mの距離画像S2に基づいて、物体Mの高さ情報を均一化した情報を使って機械学習を実行した(図10)。 In the object sorting system 1 of Example 1, the trained model 32 performs machine learning using information obtained by equalizing the height information of the object M based on the distance image S2 of the object M (FIG. 10).

ところで、物体Mが重なった物体群Gで、一番上にある物体Mは、その物体Mの高さ分、輝度が高くなってしまう。 By the way, in the object group G in which the objects M are overlapped, the brightness of the object M at the top is increased by the height of the object M.

実施例1では、物体Mの高さ情報を均一化することができる。そのため、明るさを平坦化(均一化)して、学習済みモデル32の精度を向上させることができる。その結果、材質判定部28による対象の材質の判定精度を上げることができる。 In Example 1, the height information of the object M can be made uniform. Therefore, it is possible to flatten (uniformize) the brightness and improve the accuracy of the learned model 32 . As a result, the accuracy of determination of the target material by the material determination unit 28 can be improved.

実施例1の物体選別システム1において、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群高hと、3Dスキャナ11で撮影された距離画像S2上の物体群Gの3Dスキャナ物体群幅wと、エリアカメラ12から搬送部2までの第1距離WDと、エリアカメラ12で撮影されたカラー画像S3上の物体群Gのエリアカメラ物体群幅w1と、エリアカメラ12の中心12aから、物体群Gの中心までの第2距離dと、物体群Gの中心Gaと、3Dスキャナ11で撮影した物体群Gの中心Gaとの第3距離d1と、に基づいて、カラー画像S3と、距離画像S2と、の物体群Gの位置と大きさを補正する画像補正部26を備える(図8)。 In the object sorting system 1 of the first embodiment, the 3D scanner object group height h of the object group G on the range image S2 captured by the 3D scanner 11 and the object group G on the range image S2 captured by the 3D scanner 11 3D scanner object group width w, first distance WD from area camera 12 to transport unit 2, area camera object group width w1 of object group G on color image S3 captured by area camera 12, area camera 12 Based on the second distance d from the center 12a of the object group G to the center of the object group G, the center Ga of the object group G, and the third distance d1 between the center Ga of the object group G captured by the 3D scanner 11, An image correction unit 26 for correcting the position and size of the object group G in the color image S3 and the distance image S2 is provided (FIG. 8).

ところで、エリアカメラ12で撮った2Dのカラー画像S3は、遠近感により、物体Mが大きく映ったり、物体Mの中心の座標がずれてしまったりする。そのため、エリアカメラ12で撮った2Dのカラー画像S3は、3Dスキャナ11で撮った3Dの距離画像S2やレーザ輝度画像S1と、ズレてしまう。 By the way, in the 2D color image S3 taken by the area camera 12, the object M may appear large or the coordinates of the center of the object M may be shifted due to perspective. Therefore, the 2D color image S3 captured by the area camera 12 is out of alignment with the 3D distance image S2 and laser brightness image S1 captured by the 3D scanner 11 .

一方、実施例1では、2Dのカラー画像S3と3Dの距離画像S2やレーザ輝度画像S1との、物体Mの大きさのズレと、物体Mの中心位置のズレとを補正することができる。そのため、2Dの画像と、3Dの画像とを精度よく組み合わせることができる。 On the other hand, in Example 1, it is possible to correct the size deviation of the object M and the deviation of the center position of the object M between the 2D color image S3 and the 3D range image S2 or laser luminance image S1. Therefore, a 2D image and a 3D image can be combined with high accuracy.

実施例1のエッジ領域抽出プログラムは、物体群Gに含まれる物体Mのエッジ領域Tを抽出するエッジ領域抽出プログラムであって、3Dスキャナ11が物体群Gを撮影した距離画像S2から抽出された物体Mの距離画像エッジ領域Taと、3Dスキャナ11が物体群Gを撮影したレーザ輝度画像S1から抽出された物体Mの輝度画像エッジ領域Tbと、を統合して物体群のエッジ領域Tを生成するエッジ領域生成手段としてコンピュータを機能させる(図3)。 The edge area extraction program of the first embodiment is an edge area extraction program for extracting the edge area T of the object M included in the object group G, and is extracted from the distance image S2 obtained by photographing the object group G A depth image edge region Ta of the object M and a luminance image edge region Tb of the object M extracted from the laser luminance image S1 of the object group G photographed by the 3D scanner 11 are integrated to generate an object group edge region T. The computer is made to function as an edge region generation means (FIG. 3).

これにより、距離画像S2から取得した距離画像エッジ領域Taと、レーザ輝度画像S1から取得した輝度画像エッジ領域Tbと、を使用することができる。そのため、レーザ輝度画像S1では取得できなかったエッジ領域を、距離画像S2から取得することができる。その結果、エッジ領域Tを精度よく取得して、重なった状態の物体群から、最上層にある物体を正確に選別することができる Thereby, the distance image edge area Ta obtained from the distance image S2 and the luminance image edge area Tb obtained from the laser luminance image S1 can be used. Therefore, an edge region that could not be obtained from the laser luminance image S1 can be obtained from the distance image S2. As a result, the edge region T can be obtained with high accuracy, and the object in the uppermost layer can be accurately selected from the group of overlapping objects.

以上、本発明の物体選別システムを実施例1に基づき説明してきた。しかし、具体的な構成については、この実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や、追加等は許容される。 The object sorting system of the present invention has been described above based on the first embodiment. However, the specific configuration is not limited to this embodiment, and design changes, additions, etc. are permitted as long as they do not deviate from the gist of the invention according to the claims.

実施例1では、ロボットハンド部43は、材質判定部28が判定した対象の材質であるカラー付最上層領域M4を特定の物体として選別する例を示した。しかし、ロボットハンド部は、最上層領域M3を特定の物体として選別してもよい。 In the first embodiment, the robot hand unit 43 selects the colored uppermost layer region M4, which is the target material determined by the material determination unit 28, as a specific object. However, the robot hand section may select the uppermost layer region M3 as a specific object.

実施例1では、学習済みモデル32は、事前学習で生成される例を示した。しかし、運用後に得られるカラー付最上層領域M4の抽出データを利用して、学習済みモデルを更新するようにしてもよい。 In Example 1, the trained model 32 showed an example generated by pre-learning. However, the trained model may be updated using extracted data of the colored top layer region M4 obtained after operation.

実施例1では、材質判定部28が判定する材質として、木材とする例を示した。しかし、材質判定部が判定する材質は、樹脂や、スレート材や、コンクリートや、ガラスや、鉄筋等にすることができる。 In the first embodiment, wood is used as the material determined by the material determination unit 28 . However, the material determined by the material determining unit can be resin, slate material, concrete, glass, reinforcing steel, or the like.

実施例1では、搬送部2をベルトコンベアとする例を示した。しかし、搬送部としては、ベルトコンベアに限定されず、例えばローラコンベアであってもよいし、物体群を搬送可能なものであればよい。 In Example 1, an example in which the conveying section 2 is a belt conveyor is shown. However, the conveying unit is not limited to a belt conveyor, and may be, for example, a roller conveyer or any other unit capable of conveying a group of objects.

実施例1では、3Dスキャナ11を光切断法式のものとする例を示した。しかし、3Dスキャナとしては、光投影法式のものを使用することもできる。 Embodiment 1 shows an example in which the 3D scanner 11 is of the light section method. However, the 3D scanner can also be of the optical projection type.

実施例1では、ロボットハンド部43を垂直多関節の6軸ロボットとする例を示した。しかし、ロボットハンド部としては、パラレルリンクロボットとしてもよい。また、ロボットハンド部は、複数あってもよい。 In the first embodiment, an example is shown in which the robot hand unit 43 is a vertically articulated 6-axis robot. However, the robot hand section may be a parallel link robot. Also, there may be a plurality of robot hand units.

実施例1では、本発明を重なった状態の複数の廃棄物から最上層にある木材を選別する物体選別システムに適用する例を示した。しかし、本発明は、重なった状態の配筋検査や、出来形管理等に適用することができる。 In Example 1, an example was shown in which the present invention is applied to an object sorting system that sorts out the top layer of wood from a plurality of stacked wastes. However, the present invention can be applied to inspection of bar arrangement in an overlapped state, finished shape control, and the like.

1 物体選別システム
2 搬送部
11 3Dスキャナ
12 エリアカメラ
21 全体領域特定部
22 エッジ領域生成部
23 領域分割画像生成部
24 大領域算出部
25 最上層領域算出部
26 画像補正部
27 カラー付最上層領域生成部
28 材質判定部
32 学習済みモデル
43 ロボットハンド部
E 全体領域
G 物体群
M 物体
M2 大領域
M3 最上層領域
P1 領域分割画像
S1 レーザ輝度画像(画像の一例)
S2 距離画像(画像の一例)
S3 カラー画像
T エッジ領域
Ta 距離画像エッジ領域
Tb 輝度画像エッジ領域
M4 カラー付最上層領域
V1~V3 補正カラー画像
1 Object Sorting System 2 Conveying Unit 11 3D Scanner 12 Area Camera 21 Entire Area Specifying Unit 22 Edge Area Generating Unit 23 Area Divided Image Generating Unit 24 Large Area Calculating Unit 25 Top Layer Area Calculating Unit 26 Image Correcting Unit 27 Colored Top Layer Area Generation unit 28 Material determination unit 32 Trained model 43 Robot hand unit E Whole area G Object group M Object M2 Large area M3 Top layer area P1 Area divided image S1 Laser intensity image (an example of an image)
S2 distance image (an example of an image)
S3 Color image T Edge area Ta Range image edge area Tb Luminance image edge area M4 Colored uppermost layer area V1 to V3 Corrected color image

Claims (5)

搬送部で移動する重なった状態の物体群から特定の物体を選別する物体選別システムであって、
3Dスキャナが前記物体群を撮影した画像に基づいて、前記物体群の全体領域を特定する全体領域特定部と、
前記全体領域に基づいて、前記物体群に含まれる物体のエッジ領域を生成するエッジ領域生成部と、
前記エッジ領域に基づいて、領域分割画像を生成する領域分割画像生成部と、
前記領域分割画像に基づいて、所定の面積以上の大領域を算出する大領域算出部と、
前記大領域と、前記画像とに基づいて、最上層領域を算出する最上層領域算出部と、
前記最上層領域を特定の物体として選別するロボットハンド部と、を備え、
前記画像は、レーザ輝度画像と距離画像であって、
前記エッジ領域生成部は、
前記距離画像に基づいて抽出された前記物体の距離画像エッジ領域と、
前記レーザ輝度画像に基づいて抽出された前記物体の輝度画像エッジ領域と、を統合して前記物体のエッジ領域を生成する
ことを特徴とする、物体選別システム。
An object sorting system for sorting out a specific object from a group of overlapping objects moving in a conveying unit,
an entire area identifying unit that identifies an entire area of the object group based on an image of the object group captured by a 3D scanner;
an edge region generation unit that generates an edge region of an object included in the object group based on the entire region;
a region-divided image generation unit that generates a region-divided image based on the edge region;
a large area calculation unit that calculates a large area having a predetermined area or more based on the area-divided image;
a top layer region calculation unit that calculates a top layer region based on the large region and the image;
a robot hand unit that sorts out the top layer region as a specific object,
The images are a laser luminance image and a range image,
The edge region generation unit
a distance image edge region of the object extracted based on the distance image;
An object sorting system, wherein an edge region of the object is generated by integrating a brightness image edge region of the object extracted based on the laser brightness image.
前記3Dスキャナに隣接して配置されたエリアカメラが前記物体群を撮影したカラー画像から、前記最上層領域を抽出して、カラー付最上層領域を生成するカラー付最上層領域生成部と、
前記カラー付最上層領域が、対象の材質であるか否かを判定する材質判定部と、を備え、
前記ロボットハンド部は、材質判定部の判定情報に基づいて、特定の物体を選別する
ことを特徴とする、請求項1に記載の物体選別システム。
a colored top layer region generation unit that extracts the top layer region from a color image of the object group captured by an area camera arranged adjacent to the 3D scanner and generates a colored top layer region;
a material determination unit that determines whether the colored top layer region is a target material,
The object sorting system according to claim 1, wherein the robot hand section sorts out a specific object based on determination information from a material determination section.
前記材質判定部は、前記物体の前記カラー画像に対して、色補正を施した補正カラー画像による機械学習を実行した学習済みモデルに基づいて、前記カラー付最上層領域が、対象の材質であるか否かを判定する
ことを特徴とする、請求項2に記載の物体選別システム。
The material determination unit determines that the colored top layer region is a target material based on a trained model that has performed machine learning using a corrected color image that has undergone color correction on the color image of the object. 3. The object sorting system according to claim 2, characterized by determining whether or not.
前記学習済みモデルは、前記物体の前記距離画像に基づいて、前記物体の高さ情報を均一化した情報を使って機械学習を実行した
ことを特徴とする、請求項3に記載の物体選別システム。
4. The object sorting system according to claim 3, wherein the trained model executes machine learning using information obtained by equalizing the height information of the object based on the distance image of the object. .
前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群高と、
前記3Dスキャナで撮影された前記距離画像上の前記物体群の3Dスキャナ物体群幅と、
前記エリアカメラから前記搬送部までの第1距離と、
前記エリアカメラで撮影された前記カラー画像上の前記物体群のエリアカメラ物体群幅と、
前記エリアカメラの中心から、前記物体群の中心までの第2距離と、
前記物体群の中心と、前記3Dスキャナで撮影した前記物体群の中心との第3距離と、に基づいて、
前記カラー画像と、前記距離画像と、の前記物体群の位置と大きさを補正する画像補正部を備える
ことを特徴とする、請求項2~4の何れか一項に記載の物体選別システム。
a 3D scanner object group height of the object group on the range image captured by the 3D scanner;
a 3D scanner object group width of the object group on the range image captured by the 3D scanner;
a first distance from the area camera to the transport unit;
an area camera object group width of the object group on the color image captured by the area camera;
a second distance from the center of the area camera to the center of the object group;
Based on the third distance between the center of the object group and the center of the object group photographed by the 3D scanner,
5. The object sorting system according to any one of claims 2 to 4, further comprising an image correction unit that corrects the position and size of the object group in the color image and the distance image.
JP2019084648A 2019-04-25 2019-04-25 Object sorting system Active JP7178954B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019084648A JP7178954B2 (en) 2019-04-25 2019-04-25 Object sorting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084648A JP7178954B2 (en) 2019-04-25 2019-04-25 Object sorting system

Publications (2)

Publication Number Publication Date
JP2020179355A JP2020179355A (en) 2020-11-05
JP7178954B2 true JP7178954B2 (en) 2022-11-28

Family

ID=73022969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084648A Active JP7178954B2 (en) 2019-04-25 2019-04-25 Object sorting system

Country Status (1)

Country Link
JP (1) JP7178954B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952908B2 (en) 2002-08-29 2007-08-01 Jfeエンジニアリング株式会社 Individual recognition method and individual recognition apparatus
JP5618569B2 (en) 2010-02-25 2014-11-05 キヤノン株式会社 Position and orientation estimation apparatus and method
JP5967470B2 (en) 2012-03-30 2016-08-10 株式会社リコー Inspection device
JP2017109197A (en) 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP6271953B2 (en) 2013-11-05 2018-01-31 キヤノン株式会社 Image processing apparatus and image processing method
JP2018111140A (en) 2017-01-10 2018-07-19 オムロン株式会社 Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3952908B2 (en) 2002-08-29 2007-08-01 Jfeエンジニアリング株式会社 Individual recognition method and individual recognition apparatus
JP5618569B2 (en) 2010-02-25 2014-11-05 キヤノン株式会社 Position and orientation estimation apparatus and method
JP5967470B2 (en) 2012-03-30 2016-08-10 株式会社リコー Inspection device
JP6271953B2 (en) 2013-11-05 2018-01-31 キヤノン株式会社 Image processing apparatus and image processing method
JP2017109197A (en) 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor
JP2018111140A (en) 2017-01-10 2018-07-19 オムロン株式会社 Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program

Also Published As

Publication number Publication date
JP2020179355A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
CN111669566B (en) Imager for detecting visible and infrared projection patterns
CN112070759B (en) Fork truck tray detection and positioning method and system
CN111524115B (en) Positioning method and sorting system for steel plate cutting piece
KR101691682B1 (en) Exposure method and exposure apparatus
JP2003211096A (en) Sorting/array apparatus of article
CN100407222C (en) Partial image processing based butt type welding seam recognition method
US20230252617A1 (en) Systems and methods for automatically grading pre-owned electronic devices
CN111359915B (en) Material sorting method and system based on machine vision
CN113146172B (en) Multi-vision-based detection and assembly system and method
CN111515523B (en) Laser processing method and device, laser processing equipment and storage medium
CN113383227A (en) Defect inspection device
DE602004015759D1 (en)
CN107301634A (en) A kind of robot automatic sorting method and system
JP2019057250A (en) Work-piece information processing system and work-piece recognition method
JP7178954B2 (en) Object sorting system
US9483828B2 (en) System for recognizing vehicle identification number
JP6774641B2 (en) Coating device and coating method
CN116337887A (en) Method and system for detecting defects on upper surface of casting cylinder body
US11126811B2 (en) Piece goods registration arrangement
CN110961778B (en) Method for automatically identifying welding area of welding workpiece, computer device and computer-readable storage medium
CN113674339A (en) Transfer control based on reinforcement learning
CN106181998A (en) A kind of Robot visual location sensor
CN111061265A (en) Object carrying method, device and system
US20230368414A1 (en) Pick and place systems and methods
JP7258345B2 (en) OBJECT IDENTIFICATION DEVICE AND OBJECT IDENTIFICATION METHOD

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221115

R150 Certificate of patent or registration of utility model

Ref document number: 7178954

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150