JP7328011B2 - Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method - Google Patents

Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method Download PDF

Info

Publication number
JP7328011B2
JP7328011B2 JP2019104044A JP2019104044A JP7328011B2 JP 7328011 B2 JP7328011 B2 JP 7328011B2 JP 2019104044 A JP2019104044 A JP 2019104044A JP 2019104044 A JP2019104044 A JP 2019104044A JP 7328011 B2 JP7328011 B2 JP 7328011B2
Authority
JP
Japan
Prior art keywords
scrap
parts
recognition
electronic
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104044A
Other languages
Japanese (ja)
Other versions
JP2020197953A (en
Inventor
智也 後田
幸毅 ▲柳▼川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JX Nippon Mining and Metals Corp
Original Assignee
JX Nippon Mining and Metals Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JX Nippon Mining and Metals Corp filed Critical JX Nippon Mining and Metals Corp
Priority to JP2019104044A priority Critical patent/JP7328011B2/en
Publication of JP2020197953A publication Critical patent/JP2020197953A/en
Application granted granted Critical
Publication of JP7328011B2 publication Critical patent/JP7328011B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法に関する。 TECHNICAL FIELD The present invention relates to an image extraction processing method of an object, a composition analysis method of electronic/electrical equipment parts scrap, an electronic/electrical equipment parts scrap composition analysis apparatus, and an electronic/electrical equipment parts scrap processing method.

IOT機器の普及やAIの進化等により多種多用かつ大量のデータを効率的且つ効果的に収集、共有、分析及び活用することが可能となってきている。中でも画像から得られる情報を処理して活用する技術は、飛躍的に向上している。 Due to the spread of IOT devices and the evolution of AI, it has become possible to efficiently and effectively collect, share, analyze, and utilize a large amount of diverse data. In particular, the technology for processing and utilizing information obtained from images has improved dramatically.

画像から得られる情報処理は、様々な業界で用いられており、近年、資源保護の観点から自動車を破砕して得られるシュレッダーダスト、廃家電製品、PC及び携帯電話等の電子・電気機器部品屑から有価金属を回収する金属リサイクル業界においても注目されてきている。 Information processing obtained from images is used in various industries, and in recent years, from the viewpoint of resource conservation, shredder dust obtained by crushing automobiles, waste home appliances, electronic and electrical equipment parts scraps such as PCs and mobile phones It is also attracting attention in the metal recycling industry that recovers valuable metals from waste.

電子・電気機器部品屑から有価金属を回収する金属リサイクル方法としては、例えば、電気・電子部品屑を焼却後、所定のサイズに粉砕し、粉砕した電気・電子部品屑を銅の溶錬炉で処理して銅を回収する方法が知られている(例えば、特許文献1参照)。 As a metal recycling method for recovering valuable metals from electronic and electrical equipment parts scraps, for example, after incinerating electrical and electronic parts scraps, they are pulverized into a predetermined size, and the pulverized electrical and electronic parts scraps are placed in a copper smelting furnace. A method of recovering copper by treatment is known (see, for example, Patent Document 1).

特開2015-123418号公報JP 2015-123418 A

しかしながら、電子・電気機器部品屑の処理量が増加することにより、電子・電気機器部品屑に含まれる物質の種類によってはその後の銅製錬工程での処理に好ましくない物質(製錬阻害物質)が従来よりも多量に投入される場合がある。そのため、電子・電気機器部品屑の投入量を制限せざるを得なくなる状況が生じる。 However, due to the increase in the processing amount of electronic and electrical equipment parts scraps, some of the substances contained in the electronic and electrical equipment parts scraps are unfavorable substances (smelting inhibitors) for the subsequent copper smelting process. You may be charged more than before. As a result, there arises a situation in which the amount of input of electronic and electrical equipment scraps must be restricted.

電子・電気機器部品屑の投入量の制限を抑制するためには、電子・電気機器部品屑から製錬阻害物質を低減しておくことが効率性の観点から望ましい。しかしながら、電子・電気機器部品屑には、様々な形状及び種類の部品屑が含まれているため、選別機等を用いて機械的に目的とする物質を除去することが難しい。供給元の違い等によりその原料組成が変化する場合も多い。そのため、選別前に、選別すべき対象物を、画像解析技術を用いて抽出することができれば、効率性の観点からも望ましいと考えられる。 From the viewpoint of efficiency, it is desirable to reduce the smelting inhibitors from the electronic/electrical equipment parts scrap in order to limit the input amount of the electronic/electrical equipment parts scrap. However, it is difficult to mechanically remove the target substances by using a sorter or the like because the electronic/electrical device parts scrap contains parts of various shapes and types. The raw material composition often changes due to differences in suppliers. Therefore, it is considered desirable from the viewpoint of efficiency if the objects to be sorted can be extracted using an image analysis technique before sorting.

しかしながら、画像解析技術は多少なりとも誤認識が生じる場合がある。例えば、電子・電気機器部品屑を構成する実装部品、基板、筐体のプラスチック等の破砕物は、形状及び面積がばらばらの状態で混在しているため画像認識が難しい場合がある。誤認識の発生は、上述した電子・電気機器部品屑の処理だけではなく、種々の形状及び面積を有する対象物が混在する画像の画像認識処理においても同様の課題が存在する。 However, the image analysis technique may cause misrecognition more or less. For example, crushed objects such as mounted parts, substrates, and housing plastics that constitute electronic and electrical equipment parts scraps are mixed in different shapes and areas, and therefore image recognition may be difficult in some cases. The occurrence of erroneous recognition is a problem not only in the processing of electronic and electrical equipment parts scraps described above, but also in the image recognition processing of images in which objects having various shapes and areas coexist.

上記課題を鑑み、本開示は、認識精度を向上させることが可能な、対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法を提供する。 In view of the above problems, the present disclosure provides an image extraction processing method of an object, a composition analysis method of electronic / electrical equipment parts scrap, an electronic / electrical equipment parts scrap composition analysis apparatus, and a Provided is a method for processing electronic and electrical equipment parts scrap.

本発明の実施の形態は一側面において、認識枠付与手段が、形状又は面積が異なる複数の対象物を撮像した画像の中から、対象物の認識情報を含む分類データに基づいて、対象物に認識枠を付与することにより対象物の画像を抽出することと、補正手段が、認識枠が2個以上重なり合う対象物を画像の中から抽出し、抽出された対象物に含まれる任意の2個の認識枠の重複部分の面積を算出し、任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する重複部分の面積の比が基準値以上となる場合に、小さい方の認識枠を削除することを含む対象物の画像抽出処理方法である。 In one aspect of the embodiment of the present invention, the recognition frame assigning means selects a plurality of objects having different shapes or areas from captured images, based on classification data including object recognition information, extracting an image of an object by adding a recognition frame; extracting an object with two or more overlapping recognition frames from the image; If the ratio of the area of the overlapping portion to the area of the recognition frame with the smaller area out of any two recognition frames is equal to or greater than the reference value, the recognition of the smaller one A method of extracting and processing an image of an object including removing a frame.

本発明の実施の形態は別の一側面において、形状又は面積が異なる複数の部品屑を含む電子・電気機器部品屑を撮像した画像の中から複数の部品屑毎にそれぞれ異なる描画条件の認識枠を付与し、認識枠が2個以上重なり合う部品屑を画像の中から抽出し、抽出された部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する重複部分の面積の比が基準値以上となる場合に、小さい方の認識枠を削除し、削除後の画像に含まれる認識枠が付された複数の部品屑を、複数の部品屑毎に分類してそれぞれの総面積を計測し、複数の部品屑の単位面積当たりの想定重量を複数の部品屑の総面積と乗算して複数の部品屑の重量比率を解析することにより、電子・電気機器部品屑の組成を推定することを含む電子・電気機器部品屑の組成解析方法である。 In another aspect of the embodiment of the present invention, a recognition frame of a drawing condition that is different for each of a plurality of component scraps from an image obtained by picking up electronic/electric device component scraps including a plurality of component scraps having different shapes or areas. , and extracts from the image parts scraps with two or more overlapping recognition frames, calculates the area of the overlapping portion of any two recognition frames included in the extracted parts scraps, and calculates the area of the overlapping portion of any two recognition frames When the ratio of the area of the overlapping portion to the area of the smaller recognition frame among the recognition frames is greater than or equal to the reference value, the smaller recognition frame is deleted, and the recognition frame included in the deleted image is attached. The plurality of scrap parts are classified into each of the plurality of scrap parts, the total area of each is measured, and the assumed weight per unit area of the plurality of scrap parts is multiplied by the total area of the plurality of scrap parts to obtain the number of parts. A method for analyzing the composition of electronic/electrical equipment parts scrap, including estimating the composition of the electronic/electrical equipment parts scrap by analyzing the weight ratio of the scrap.

本発明の実施の形態は更に別の一側面において、形状又は面積が異なる複数の部品屑を含む電子・電気機器部品屑を撮像した画像の中から、複数の部品屑毎にそれぞれ異なる描画条件の認識枠を付与するための部品屑の認識情報を含む分類データを備える記憶装置と、分類データに基づいて、複数の部品屑に認識枠を付与する認識枠付与手段と、認識枠が2個以上重なり合う部品屑を画像の中から抽出し、抽出された部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する重複部分の面積の比が基準値以上となる場合に、小さい方の認識枠を削除することにより、認識枠の補正を行う補正手段と、削除後の画像に含まれる認識枠が付された複数の部品屑を、複数の部品屑毎に分類してそれぞれの総面積を計測する計測手段と、複数の部品屑の単位面積当たりの想定重量を複数の部品屑の総面積と乗算して複数の部品屑の重量比率を解析することにより、電子・電気機器部品屑の組成を推定する解析手段とを備える電子・電気機器部品屑の組成解析装置である。 In still another aspect of the present invention, from among images obtained by imaging electronic/electrical device parts scraps including a plurality of parts scraps having different shapes or areas, different drawing conditions are set for each of the plurality of parts scraps. A storage device having classification data including recognition information of scrap parts for giving recognition frames, a recognition frame giving means for giving recognition frames to a plurality of scrap parts based on the classification data, and two or more recognition frames. Overlapping scrap parts are extracted from the image, the area of the overlapping portion of any two recognition frames included in the extracted scrap parts is calculated, and the smaller area of the arbitrary two recognition frames is recognized. Correction means for correcting a recognition frame by deleting the smaller recognition frame when the ratio of the area of the overlapping portion to the area of the frame is equal to or greater than a reference value, and the recognition frame included in the image after deletion. A measuring means for classifying the attached plurality of scrap parts into each of the plurality of scrap parts and measuring the total area of each, and multiplying the estimated weight per unit area of the plurality of scrap parts by the total area of the plurality of scrap parts. and analyzing means for estimating the composition of the electronic/electrical equipment scrap by analyzing the weight ratio of a plurality of electronic/electrical equipment scraps.

本発明の実施の形態は更に別の一側面において、複数の部品屑からなる電子・電気機器部品屑を撮像する撮像工程と、電子・電気機器部品屑を撮像した画像の中から複数の部品屑の画像を抽出して複数の部品屑毎に分類するための分類データを記憶する分類データに基づいて、複数の部品屑の画像を抽出して複数の部品屑毎に認識枠を付与する認識枠付与工程と、認識枠が2個以上重なり合う部品屑を画像の中から抽出し、抽出された部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する重複部分の面積の比が基準値以上となる場合に、小さい方の認識枠を削除することにより、認識枠の補正を行う補正工程と、補正工程後の画像に含まれる認識枠が付された複数の部品屑を、複数の部品屑毎に分類してそれぞれの総面積を計測する計測工程と、複数の部品屑の単位面積当たりの想定重量を複数の部品屑の総面積と乗算して複数の部品屑の重量比率を解析することにより、電子・電気機器部品屑の組成を解析する解析工程とを含む電子・電気機器部品屑の処理方法である。 In still another aspect of the embodiment of the present invention, an imaging step of imaging electronic/electrical device parts waste composed of a plurality of component wastes, and a plurality of component wastes from the image obtained by imaging the electronic/electrical device parts waste A recognition frame for extracting images of a plurality of component scraps and giving a recognition frame to each of the plurality of component scraps based on the classification data for storing classification data for extracting the images of the parts and classifying them for each of the plurality of component scraps In the addition step, component scraps having two or more overlapping recognition frames are extracted from the image, the area of the overlapping portion of any two recognition frames included in the extracted component scraps is calculated, and any two arbitrary recognition frames are extracted. a correction step of correcting the recognition frame by deleting the smaller recognition frame when the ratio of the area of the overlapping portion to the area of the smaller recognition frame among the recognition frames is greater than or equal to a reference value; A measurement process in which the multiple scrap parts with recognition frames attached to the image after the correction process are classified by multiple scrap parts and the total area of each is measured, and an assumption per unit area of the multiple scrap parts Processing of electronic/electrical device parts scrap, including an analysis step of analyzing the composition of electronic/electrical device parts scrap by multiplying the weight by the total area of the plurality of parts scraps and analyzing the weight ratio of the plurality of parts scraps. The method.

本開示によれば、認識精度を向上させることが可能な、対象物の画像抽出処理方法、電子・電気機器部品屑の組成解析方法、電子・電気機器部品屑の組成解析装置、及び電子・電気機器部品屑の処理方法が提供できる。 According to the present disclosure, an image extraction processing method for an object, a composition analysis method for electronic/electrical equipment parts scrap, an electronic/electrical equipment parts scrap composition analysis apparatus, and an electronic/electrical equipment scrap that can improve recognition accuracy It is possible to provide a method for processing equipment component waste.

本発明の実施の形態に係る電子・電気機器部品屑の処理装置を示す概略図である。BRIEF DESCRIPTION OF THE DRAWINGS It is the schematic which shows the processing apparatus of the electronic and electric equipment component waste which concerns on embodiment of this invention. 図2(a)は単一の対象物について認識枠が2個付された場合の例を示し、図2(b)は単一の対象物について認識枠が3個以上付された場合の例を示す説明図である。FIG. 2(a) shows an example in which two recognition frames are attached to a single object, and FIG. 2(b) shows an example in which three or more recognition frames are attached to a single object. It is an explanatory view showing . 画像中に存在する電子・電気機器部品屑を部品屑毎に特定して部品屑毎にそれぞれ認識枠で色分けした画像の例を示す写真である。It is the photograph which shows the example of the image which pinpointed the electronic/electric equipment component waste which exists in an image for every component waste, and classified each component waste with the recognition frame, respectively. 本発明の実施の形態に係る電子・電気機器部品屑の処理装置を用いた解析結果の一例を表す表である。It is a table|surface showing an example of the analysis result using the processing apparatus of the electronic/electrical equipment components waste which concerns on embodiment of this invention. 本発明の実施の形態に係る対象物の画像抽出処理方法の一例を表すフローチャートである。It is a flowchart showing an example of the image extraction processing method of the target object which concerns on embodiment of this invention. 本発明の実施の形態に係る電子・電気機器部品屑の処理装置を用いた電子・電気機器部品屑の処理方法の一例を表すフローチャートである。BRIEF DESCRIPTION OF THE DRAWINGS It is a flowchart showing an example of the processing method of the electronic/electrical equipment component waste using the electronic/electrical equipment component waste processing apparatus which concerns on embodiment of this invention.

以下、本発明の実施の形態について図面を用いて説明する。なお、以下に示す実施の形態はこの発明の技術的思想を具体化するための装置や方法を例示するものであって、この発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。
なお、以下に示す実施の形態においては、画像抽出対象物として電子・電気機器部品屑を抽出する場合を例に示すが、電子・電気機器部品屑以外にも種々の画像の構成要素を対象物として応用できることは勿論である。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. It should be noted that the embodiments shown below are examples of devices and methods for embodying the technical idea of the present invention. It does not specify anything.
In the embodiment shown below, the case of extracting electronic/electrical equipment parts scrap as an image extraction object is shown as an example. Of course, it can be applied as

(対象物の画像抽出処理方法)
本発明の実施の形態に係る対象物の画像抽出処理方法は、解析装置を用いて、形状又は面積が異なる複数の対象物を撮像した画像の中から、対象物の認識情報を含む分類データに基づいて、対象物に認識枠を付与することにより対象物の画像を抽出することと、認識枠が2個以上重なり合う対象物を画像の中から抽出し、抽出された対象物に含まれる任意の2個の認識枠の重複部分の面積を算出し、任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する重複部分の面積の比が基準値以上となる場合に、小さい方の認識枠を削除することを含む。
(Object image extraction processing method)
An object image extraction processing method according to an embodiment of the present invention uses an analysis device to extract classification data containing object recognition information from images obtained by capturing a plurality of objects having different shapes or areas. extracting an image of a target object by giving a recognition frame to the target object, extracting a target object having two or more overlapping recognition frames from the image, and extracting an arbitrary object included in the extracted target object. The area of the overlapping portion of the two recognition frames is calculated, and if the ratio of the area of the overlapping portion to the area of the recognition frame with the smaller area out of any two recognition frames is equal to or greater than the reference value, the smaller one is selected. including deleting the recognition frame of

本実施形態に係る対象物は、破砕物であることが好ましい。破砕物とは、破砕機などで破砕処理が行われた後の物品を意味し、様々な形状及び表面積がばらばらである。特に、破砕前の物品が複数の部品及び材質で構成される場合は、破砕により完全に部品毎、材質毎には分離されにくいという特徴を有する。 The object according to this embodiment is preferably a crushed object. Shredded material refers to articles that have undergone a crushing process, such as in a crusher, and that are discrete in various shapes and surface areas. In particular, when an article before crushing is composed of a plurality of parts and materials, it has the characteristic that it is difficult to completely separate each part and each material by crushing.

例えば、対象物を電子・電気機器部品屑とした場合、典型的には基板、プラスチック、金属片、銅線屑、コンデンサー、ICチップ、その他部品屑をそれぞれ単体部品として分離しておくことが好ましい。しかしながら、破砕による分離では、完全なる単体分離は難しく、一部の部品屑上に他の部品屑が残る場合がある。例えば、コンデンサーやICチップなどは破砕による分離によっても原形をとどめ、同じような形状及び大きさを有するものが多いが、基板、プラスチック、金属片、銅線屑などは、破砕されると形状も大きさもそれぞれ変化し、同一の形状及び大きさを有するものは殆どない。 For example, when the object is electronic and electrical equipment parts scrap, it is typically preferable to separate substrates, plastics, metal pieces, copper wire scraps, capacitors, IC chips, and other parts scraps as individual parts. . However, in the separation by crushing, it is difficult to completely separate individual components, and there are cases where other component waste remains on top of some component waste. For example, capacitors and IC chips retain their original shape even after being separated by crushing, and many of them have the same shape and size. They also vary in size, and few have the same shape and size.

本実施形態では、対象物の認識情報を含む分類データに基づいて、対象物に認識枠を付与することにより、対象物の画像を抽出する。例えば、電子・電気機器部品屑を対象物とする場合、電子・電気機器部品屑を撮像した画像を用いて、例えば、基板、プラスチック、その他部品屑の3種類に分類する場合には、基板とプラスチック、その他の部品屑を分類して抽出するための分類対象物の構成要素及び色彩の情報を含む基本情報(以下「教師データ」ともいう)を与え、この基本情報に基づいて抽出処理を行う。 In this embodiment, the image of the object is extracted by adding a recognition frame to the object based on the classification data including the recognition information of the object. For example, when electronic / electrical equipment parts scrap is the object, using the image of electronic / electrical equipment parts scrap, for example, when classifying into three types of board, plastic, other parts scrap, board and Basic information (hereinafter also referred to as "teaching data") including information on constituent elements and colors of objects to be classified for classifying and extracting plastics and other parts waste is given, and extraction processing is performed based on this basic information. .

ここで、基本情報に含まれる「構成要素」とは、それぞれの部品屑を構成する要素及び要素の位置関係を含む。例えば、電子・電気機器部品屑を対象物とする場合、基板に対する構成要素としては、基板の表面を覆う樹脂層、基板表面に形成された配線層、基板上に実装されるパーツなどの各要素と、その大きさ及び配置位置関係などを含む。基本情報に含まれる「色彩」とは、部品屑が備える色彩を示し、例えば、基板の場合は、基板表面に塗布された層の色、例えば緑色を含む。 Here, the "components" included in the basic information include the elements that constitute each piece of scrap and the positional relationship between the elements. For example, when electronic and electrical equipment parts scraps are targeted, the constituent elements for the board include the resin layer that covers the surface of the board, the wiring layer formed on the surface of the board, and the parts that are mounted on the board. , and its size and positional relationship. The “color” included in the basic information indicates the color of the component scrap, and for example, in the case of a substrate, includes the color of a layer applied to the surface of the substrate, such as green.

このような教師データの作製は、例えば、電子・電気機器部品屑を対象物とする場合は、電子・電気機器部品屑を予め手選別などにより仕分けし、基板、プラスチック、金属片などの夫々の画像を、解析装置及び解析装置が備える記憶装置に読み込ませる。教師データとして読み込まれる基板、プラスチック、金属片の形状及び面積の情報はそれぞれ代表例であり、形状も面積も異なり、一つとして同じものはない。教師データ数を多くするほど解析精度は高まる。 For example, in the case of electronic/electrical device parts scrap as objects, such training data is prepared by manually sorting the electronic/electrical device parts scraps in advance, and sorting them into substrates, plastics, metal pieces, etc. The image is read into the analysis device and the storage device included in the analysis device. The shape and area information of the board, plastic, and metal piece read as training data are representative examples, and the shape and area are different, and there are no identical pieces. The analysis accuracy increases as the number of training data increases.

対象物の画像を抽出する場合は、画像中の対象物の特徴と分類対象の教師データから導き出された夫々の特徴を比較し、確信度、即ち、教師データから導き出された特徴に対して対象物がどの程度特徴に合致しているかを示す度合を算出する。そして、確信度が一定値以上のものを分類対象として、分類対象毎に異なる認識枠が付与される。 When extracting an image of an object, the features of the object in the image are compared with the respective features derived from the teacher data to be classified, and the degree of certainty, that is, the target for the features derived from the teacher data. A degree indicating how well the object matches the feature is calculated. A different recognition frame is given to each classification target, with those having certainty values or more as targets for classification.

ところが、形状又は面積が異なる複数の対象物の場合、一の対象物に対して認識枠が複数設定される場合がある。例えば、基板上に金属片が残っていれば、基板としての認識枠と金属片としての金属枠の両方の認識枠が重なった状態で設定される場合がある。この場合、基板としての確信度も高く、金属片としての確信度も高く、認識枠の設定としては間違っていない。 However, in the case of a plurality of objects having different shapes or areas, a plurality of recognition frames may be set for one object. For example, if a metal piece remains on the substrate, the recognition frame for the substrate and the metal frame for the metal piece may be set in a state of being overlapped. In this case, the degree of certainty as a substrate is high, and the degree of certainty as a metal piece is also high, and the setting of the recognition frame is correct.

また、基板全体で一つの認識枠が設定されるほか、基板の一部に、教師データから導き出された基板としての合致がみられる領域に別の基板としての認識枠が更に付される場合がある。その結果、一の部品屑に対して複数の認識枠が付される場合がある。更に、基板には、回路が配置されていない部分もあるため、その部分がプラスチックとして認識枠が付される場合もある。このように、教師データの精度を高めて認識枠が適正に付与されたとしても、実際の部品屑の個数と認識枠の個数が大きくずれる場合がある。 In addition to setting one recognition frame for the entire board, there are cases where a recognition frame as another board is added to a part of the board where there is a match as a board derived from teacher data. be. As a result, a plurality of recognition frames may be attached to one piece of scrap. Furthermore, since the substrate has a part where no circuit is arranged, the part may be marked as plastic with a recognition frame. As described above, even if the accuracy of the training data is improved and the recognition frames are appropriately assigned, the actual number of scrap parts and the number of recognition frames may deviate greatly.

よって、本実施形態に係る対象物として、電子・電気機器部品屑等のような形状又は面積が少なくとも異なる物質を画像認識する場合には、対象物の認識情報を含む分類データの精度を機械学習などにより更に高めたとしても、比較的同一形状及び面積の物質を対象物として画像認識する場合に比べて誤認識が生じやすくなるという点から本実施形態に係る処理方法の適用において特に有利である。 Therefore, when recognizing images of substances having at least different shapes or areas, such as scraps of electronic and electrical equipment parts, as objects according to the present embodiment, the accuracy of classification data including object recognition information can be evaluated by machine learning. This is particularly advantageous in applying the processing method according to the present embodiment because misrecognition is more likely to occur than in the case of image recognition of objects having relatively the same shape and area, even if the accuracy is further enhanced. .

確信度については、確信度を低く設定すれば、複数の認識枠が設定される対象物が多くなる一方で、確信度を高く設定してしまうと、認識枠が設定されない対象物が増えてしまう恐れがある。確信度の設定は、対象物の性質に応じて当業者が適宜変更することが好ましい。 Regarding the degree of confidence, if the degree of certainty is set low, the number of objects for which multiple recognition frames are set increases, whereas if the degree of certainty is set high, the number of objects for which no recognition frame is set increases. There is fear. It is preferable for a person skilled in the art to appropriately change the setting of the degree of confidence according to the properties of the object.

以下に詳細に説明するが、本発明の実施に係る対象物の画像抽出処理方法によれば、認識枠が複数設定される場合、認識枠の重なりが大きいもの、具体的には、2個の認識枠の重なり部分の面積が2個の認識枠のうちの小さい認識枠の面積に対して、一定の基準値より大きい場合に、小さい認識枠を削除することで、認識枠の個数を実際の対象物の個数により近づけることができ、認識精度を高めることができる。 As will be described in detail below, according to the image extraction processing method of the object according to the embodiment of the present invention, when a plurality of recognition frames are set, the overlap of the recognition frames is large. When the area of the overlapped portion of the recognition frames is larger than the area of the smaller recognition frame out of the two recognition frames, the smaller recognition frame is deleted to reduce the actual number of recognition frames. The number of objects can be made closer, and the recognition accuracy can be improved.

本実施形態では、対象物については、電子・電気機器部品屑を例に挙げて説明するが、これに限定されるものではなく、多くの部品及び材質で構成される組立品の破砕物などに対しても適用され得ることは勿論である。 In this embodiment, the target object will be described by taking electronic and electrical equipment parts scraps as an example, but it is not limited to this, and crushed objects such as assemblies composed of many parts and materials Of course, it can also be applied to

(処理装置)
本発明の実施の形態に係る電子・電気機器部品屑の処理装置は、図1に示すように、電子・電気機器部品屑を撮像する撮像装置12と、電子・電気機器部品屑の組成を推定する解析手段を備える組成解析装置10と、組成解析装置10によって解析された組成解析結果に基づいて電子・電気機器部品屑から特定の部品屑を選別する選別機13とを備える。
(Processing device)
As shown in FIG. 1, the processing apparatus for electronic/electrical equipment parts scrap according to the embodiment of the present invention includes an imaging device 12 for imaging electronic/electrical equipment parts scrap, and an electronic/electrical equipment parts scrap estimating composition. and a sorter 13 for sorting out specific scrap parts from electronic/electrical equipment scrap parts based on the composition analysis result analyzed by the composition analysis apparatus 10 .

本実施形態における「電子・電気機器部品屑」とは、廃家電製品・PCや携帯電話等の電子・電気機器を破砕した屑であり、回収された後、適当な大きさには破砕されたものを指す。本実施形態では、電子・電気機器部品屑とするための破砕は、処理者自身が行ってもよいが、市中で破砕されたものを購入等したものでもよい。 "Electronic/electrical device parts scrap" in the present embodiment refers to scraps obtained by crushing electronic/electrical devices such as waste home appliances, PCs, mobile phones, etc. After being collected, they are crushed to an appropriate size. point to something In the present embodiment, the crushing to obtain electronic/electrical device parts scraps may be performed by the processor himself/herself, or the crushed parts purchased in the market may be used.

破砕方法として、特定の装置には限定されず、せん断方式でも衝撃方式でもよいが、できる限り、部品の形状を損なわない破砕が望ましい。従って、細かく粉砕することを目的とする粉砕機のカテゴリーに属する装置は含まれない。 The crushing method is not limited to a specific device, and may be a shearing method or an impact method. Therefore, it does not include equipment belonging to the category of grinders whose purpose is to grind finely.

電子・電気機器部品屑は、基板、筐体などに使われるプラスチック(合成樹脂類)、金属片、銅線屑、コンデンサー、ICチップ、その他、等の複数の部品屑からなり、処理目的に応じて更に細かく分類することができる。以下に限定されるものではないが、本実施形態では、粒度50mm以下に破砕されている電子・電気機器部品屑を好適に処理することができる。 Electronic and electrical equipment parts scrap consists of multiple parts scrap such as plastics (synthetic resins) used for substrates, housings, etc., metal pieces, copper wire scraps, capacitors, IC chips, and others. can be classified in more detail. Although it is not limited to the following, in the present embodiment, it is possible to suitably process electronic and electrical equipment component scraps that have been crushed to a particle size of 50 mm or less.

組成解析装置10は、組成解析処理を処理するための処理装置100、各種制御に必要な情報を記憶する記憶装置110、入力装置120、表示装置130を備えることができる。処理装置100は、画像抽出手段140、分類手段101、計測手段102、解析手段103、運転条件生成手段104、変更情報生成手段105、位置情報出力手段106、機械学習手段107及び更新手段108を含むことができる。 The composition analysis apparatus 10 can include a processing device 100 for processing composition analysis processing, a storage device 110 for storing information necessary for various controls, an input device 120 and a display device 130 . The processing device 100 includes image extraction means 140, classification means 101, measurement means 102, analysis means 103, operating condition generation means 104, change information generation means 105, position information output means 106, machine learning means 107, and update means 108. be able to.

記憶装置110は、分類データ記憶手段111、解析情報記憶手段112、運転条件記憶手段113、位置情報記憶手段114を備えることができる。解析手段103はネットワーク11を通じて解析手段103の解析結果を、サーバ15或いはネットワーク11を介して接続された選別機13とは別の選別機14へ出力することができるようになっている。 The storage device 110 can include classification data storage means 111 , analysis information storage means 112 , operating condition storage means 113 and position information storage means 114 . The analysis means 103 can output the analysis result of the analysis means 103 through the network 11 to the server 15 or the sorting machine 14 connected through the network 11 , which is different from the sorting machine 13 .

分類データ記憶手段111は、電子・電気機器部品屑を撮像した画像の中から画像解析の対象物となる複数の部品屑の画像を抽出して複数の部品屑毎に分類するための分類データが記憶されている。例えば、分類データ記憶手段111は、電子・電気機器部品屑の画像情報から、複数の部品屑、即ち、基板、プラスチック、金属片、銅線屑、コンデンサー、ICチップ、その他(コネクタ、フィルム状部品屑、被覆線屑等)の少なくとも3種類以上、好ましくは7種類以上に分類するための分類対象物の構成要素及び色彩を含む認識情報を備える基本情報(教師データ)が記憶されている。 The classification data storage means 111 stores classification data for extracting images of a plurality of component scraps, which are objects of image analysis, from among the captured images of the electronic/electrical equipment component scraps and classifying them into a plurality of component scraps. remembered. For example, the classification data storage means 111 can classify a plurality of component scraps, that is, substrates, plastics, metal pieces, copper wire scraps, capacitors, IC chips, and others (connectors, film-like components basic information (teaching data) including recognition information including constituent elements and colors of classification objects for classifying objects into at least three or more, preferably seven or more types.

基板情報としては、基板を例に挙げると、基板を構成する樹脂基板の色彩や、表面に実装されたIC、配線等の形状、色彩、これらの相対的位置関係等の情報が記憶される。なお、電子・電気機器部品屑の中の特定の部品を上記の部品屑のいずれかに設定するための条件は、その後の選別処理目的に応じて、操作者が予め設定することができる。 As the board information, taking the board as an example, information such as the color of the resin board constituting the board, the shape and color of ICs and wiring mounted on the surface, the relative positional relationship of these, and the like is stored. In addition, the conditions for setting a specific part in the electronic/electrical device parts scrap as one of the above parts scraps can be set in advance by the operator according to the purpose of the subsequent sorting process.

画像抽出手段140は、認識枠付与手段141及び補正手段142を備えることができる。認識枠付与手段141は、形状又は面積が異なる複数の対象物を撮像した画像の中から、対象物の認識情報を含む分類データに基づいて、対象物に特定の認識枠を付与することにより対象物の画像を抽出する。 The image extracting means 140 can comprise a recognition frame adding means 141 and a correcting means 142 . Recognition frame providing means 141 assigns a specific recognition frame to a target object based on classification data including target object recognition information from images obtained by imaging a plurality of target objects having different shapes or areas. Extract images of objects.

例えば、認識枠付与手段141は、対象物の構成要素及び色彩を含む認識情報を含む分類データに基づいて、対象物に対して対象物と外接する最小外接図形を付与することができる。最小外接図形には、操作者の要望に応じて、矩形、平行四辺形、台形、正方形、多角形、超多面体等の種々の形状を採用することができるが、一般的には矩形が好適に用いられる。 For example, the recognition frame providing means 141 can provide a minimum circumscribing figure that circumscribes the object based on the classification data including recognition information including the components and colors of the object. Various shapes such as rectangles, parallelograms, trapezoids, squares, polygons, and hyperpolyhedrons can be adopted as the minimum circumscribed figure according to the operator's request. Generally, rectangles are preferable. Used.

図2(a)は、対象物O1の認識情報を含む分類データに基づいて、対象物O1に最小外接矩形からなる認識枠1、2が付された場合の画像例を示す。図2(a)においては、対象物O1の個数が1つであるにも関わらず認識枠が2つ付されている。補正手段142は、認識枠1、2が2個以上重なり合う対象物O1を画像の中から抽出し、抽出された対象物O1に含まれる任意の2個の認識枠1、2の重複部分の面積So(不図示)を算出する。そして、任意の2個の認識枠1、2のうち面積が小さい方の認識枠2の面積Ssに対する重複部分の面積So(不図示)の比(面積比So/Ss)が基準値P以上となる場合に、小さい方の認識枠2を削除する補正を実施する。 FIG. 2(a) shows an example of an image in which recognition frames 1 and 2 formed of minimum circumscribing rectangles are attached to the object O1 based on the classification data including the recognition information of the object O1. In FIG. 2A, two recognition frames are attached even though the number of objects O1 is one. The correcting means 142 extracts an object O1 having two or more recognition frames 1 and 2 overlapping each other from the image, and calculates the area of the overlapping portion of any two recognition frames 1 and 2 included in the extracted object O1. S o (not shown) is calculated. Then, the ratio (area ratio S o / S s ) of the area S o (not shown) of the overlapping portion to the area S s of the recognition frame 2 having the smaller area among the two arbitrary recognition frames 1 and 2 is the reference. If the value is equal to or greater than the value P, correction is performed to delete the smaller recognition frame 2 .

例えば、図2(a)の場合、認識枠1、2の重複部分の面積Soは、2個の認識枠1、2のうち面積が小さい方の認識枠2の面積Ssと同様となるため、面積比So/Ssは1.0となる。ここで、基準値Pが0.90であると予め定められている場合、補正手段142は、面積比So/Ss≧基準値Pとなることから、認識枠2を削除する。これにより、対象物O1には適正な1個の認識枠1が付される結果となる。 For example, in the case of FIG. 2A, the area S o of the overlapping portion of the recognition frames 1 and 2 is the same as the area S s of the recognition frame 2 which has the smaller area among the two recognition frames 1 and 2. Therefore, the area ratio S o /S s is 1.0. Here, when the reference value P is predetermined to be 0.90, the correcting means 142 deletes the recognition frame 2 because the area ratio S o /S s ≧reference value P holds. As a result, one appropriate recognition frame 1 is attached to the object O1.

画像認識では、図2(a)に示すように、分類データの精度によらず、一の対象物O1に対して複数の認識枠1、2が付されてしまう場合がある。特に、電子・電気機器部品屑のような種々の形状及び構成を含む部品屑を対象とする場合、対象物O1を認識するための膨大な正解データ(教師データ)を分類データとして保持している場合においても一定の割合で誤認識が生じてしまう。 In image recognition, as shown in FIG. 2A, a plurality of recognition frames 1 and 2 may be attached to one object O1 regardless of the accuracy of classification data. In particular, in the case of object scraps including various shapes and configurations such as electronic and electrical equipment scraps, a huge amount of correct data (teacher data) for recognizing the object O1 is held as classification data. Even in such cases, erroneous recognition occurs at a certain rate.

本実施形態に係る補正手段142によれば、認識枠が2個以上重なり合う対象物O1を、認識枠を付した画像の中から抽出し、認識枠の数を本来の対象物O1の個数に基づいて適正な数に補正することができるため、誤認識を減らし、画像認識精度を高める認識枠を用いて、例えば画像中の対象物の組成等を解析する場合においてもより精度良く解析することができる。 According to the correction means 142 according to this embodiment, an object O1 having two or more recognition frames overlapping with each other is extracted from the image attached with the recognition frame, and the number of recognition frames is determined based on the original number of the objects O1. Therefore, it is possible to reduce erroneous recognition and improve the accuracy of image recognition. can.

図2(b)に示すように、一の対象物O2に対して3つ以上の認識枠3~6が付されてしまう場合がある。この場合、補正手段は、認識枠3~6が3個以上重なり合う場合において、大小重なる認識枠3~6のうちの任意の認識枠3~6を2つ選択し、基準値Pに基づいて、小さい方の認識枠3~6を削除する処理を、削除する認識枠3~6が無くなるまで繰り返すことが好ましい。これにより、認識枠の数を本来の対象物O1の個数に合うように補正することができる。 As shown in FIG. 2B, there are cases where three or more recognition frames 3 to 6 are added to one object O2. In this case, when three or more of the recognition frames 3 to 6 overlap, the correcting means selects two arbitrary recognition frames 3 to 6 among the large and small overlapping recognition frames 3 to 6, and based on the reference value P, It is preferable to repeat the process of deleting the smaller recognition frames 3 to 6 until there are no recognition frames 3 to 6 to be deleted. As a result, the number of recognition frames can be corrected to match the original number of objects O1.

基準値Pは、画像中の対象物O1、O2の実際の個数Noと、分類データに基づいて付与された認識枠Ncとの比(No/Nc)で表される、対象物の誤認識率(FR)に基づいて設定されることが好ましい。分類データに基づいて付与された認識枠Ncには、図2(a)及び図2(b)に例示される認識枠1~6以外にも、対象物以外の物質が囲われた認識枠、画像の背景を誤って囲った認識枠等も含まれる。対象物の画像認識の誤認識が生じ得る具体的な割合に基づいて、認識枠の補正を行うように設定することで、補正手段142により、より精度良く認識枠の削除処理を行うことができる。 The reference value P is expressed by the ratio (N o /N c ) between the actual number N o of the objects O1 and O2 in the image and the recognition frame N c given based on the classification data. is preferably set based on the false recognition rate (FR) of In addition to the recognition frames 1 to 6 illustrated in FIGS. 2(a) and 2(b), the recognition frames N c assigned based on the classification data include recognition frames surrounding substances other than the target object. , a recognition frame that incorrectly encloses the background of the image, and the like. By setting the correction of the recognition frame based on the specific ratio of the occurrence of erroneous recognition of the image of the object, the correcting means 142 can perform the processing of deleting the recognition frame with higher accuracy. .

基準値Pは画像解析対象とする対象物に応じて、操作者が適宜設定することが可能である。基準値Pは、0.75以上1.0以下とすることが好ましく、より好ましくは0.85以上1.0以下、更に好ましくは0.90以上1.0以下である。特に、本発明者の検討によれば、分類データを最適化したとしても、電子・電気機器部品屑の画像認識においては約10~15%程度の誤認識率が生じ得ることが分かった。そのため、電子・電気機器部品屑の中から複数の部品屑を抽出して認識枠1~6を付与する場合には、基準値Pを0.85以上、より好ましくは0.90以上とすることが好ましい。 The reference value P can be appropriately set by the operator according to the object to be subjected to image analysis. The reference value P is preferably 0.75 or more and 1.0 or less, more preferably 0.85 or more and 1.0 or less, and still more preferably 0.90 or more and 1.0 or less. In particular, according to the study of the present inventor, it was found that even if the classification data were optimized, an error recognition rate of about 10 to 15% could occur in the image recognition of electronic/electrical equipment parts scraps. Therefore, when extracting a plurality of component scraps from electronic/electrical device component scraps and assigning recognition frames 1 to 6, the reference value P should be 0.85 or more, more preferably 0.90 or more. is preferred.

確信度によっても基準値Pの設定を調整できる。本実施形態では、確信度の規定値を超える物質に認識枠が付与されるが、確信度の規定値を高く設定しすぎると認識枠が適切に付与されず、誤認識が生じる場合がある。一方、確信度の規定値を低く設定しすぎると、今度は1の物質に複数の認識枠が付与される場合や、1の物質に対する認識枠の設定が重なることで誤認識が生じる場合がある。よって、確信度の規定値についても適正に設定する必要がある。よって、本実施形態では、誤認識率が5%以下となるように、部品屑の画像内の密度に応じて、確信度の規定値と基準値Pとの規定値を調整することが好ましい。例えば、電子・電気機器部品屑の部品密度が高く、部品屑同士で重なりが多くみられる場合には、基準値Pを0.9以上とすることが好ましく、部品密度が低く、一定以上の隙間を介して部品屑同士が配置されている場合には、基準値Pを0.7以上とすることが好ましい。 The setting of the reference value P can also be adjusted according to the degree of certainty. In the present embodiment, a recognition frame is assigned to a substance whose confidence exceeds a specified value. However, if the specified confidence value is set too high, the recognition frame may not be appropriately assigned, and erroneous recognition may occur. On the other hand, if the specified value of confidence is set too low, multiple recognition frames may be given to one substance, or misrecognition may occur due to overlapping recognition frame settings for one substance. . Therefore, it is necessary to appropriately set the specified value of the certainty factor. Therefore, in the present embodiment, it is preferable to adjust the prescribed values of the certainty factor and the reference value P according to the density of the parts scrap in the image so that the recognition error rate is 5% or less. For example, when the parts density of electronic and electrical equipment parts scrap is high and there is a lot of overlap between parts scraps, it is preferable to set the reference value P to 0.9 or more, the parts density is low, and the gap is more than a certain level It is preferable to set the reference value P to 0.7 or more when the scrap parts are arranged with each other.

分類手段101は、分類データ記憶手段111に記憶された分類データに基づいて、認識枠が付され、所定の補正処理が施された後の電子・電気機器部品屑を含む画像をそれぞれ異なる描画条件で複数の部品屑毎に分類する。例えば、電子・電気機器部品屑が撮像された画面の中から、基板、プラスチック及びその他部品屑の3種類に分類したい場合、分類手段101は、基板、プラスチック及びその他部品屑について、電子・電気機器部品屑を撮像した画像からそれぞれ別種類の対象物として抽出し、抽出された基板、プラスチック及びその他部品屑について、それぞれ異なる描画条件の認識枠を付与する。図3は分類手段101が画像中に存在する電子・電気機器部品屑を部品屑毎に特定して、部品屑毎にそれぞれ異なる色の認識枠で区分けした画像の例を示している。 Based on the classification data stored in the classification data storage means 111, the classification means 101 assigns a recognition frame to the image containing the electronic/electrical equipment parts scrap after a predetermined correction process, and then draws the image under different drawing conditions. to classify each of a plurality of scrap parts. For example, when it is desired to classify a screen on which electronic/electrical device component waste is imaged into three types of board, plastic, and other component waste, the classification means 101 classifies the board, plastic, and other component waste into electronic/electrical device Different types of target objects are extracted from the picked-up images of the component wastes, and recognition frames with different drawing conditions are assigned to the extracted substrates, plastics, and other component wastes. FIG. 3 shows an example of an image in which the sorting means 101 specifies electronic/electrical device parts scraps existing in the image for each parts scrap and classifies each parts scrap with a recognition frame of a different color.

計測手段102は、分類手段が分類した複数の部品屑それぞれの画像の面積を計測する。計測手段102は、図3に示すように、それぞれ別の色枠で区分けされた部品屑の面積を、部品屑毎に、それぞれ解析情報記憶手段112に記憶された計測情報を用いて計測する。解析情報記憶手段112は、処理装置100による組成分析の解析に必要な情報、例えば、複数の部品屑の面積を計測するための情報、部品屑の重量比率の計算に必要な各部品屑毎の単位当たりの重量比率の情報等を記憶する。 The measuring means 102 measures the area of each image of a plurality of scrap parts classified by the classifying means. As shown in FIG. 3, the measuring means 102 measures the areas of the scrap parts separated by different color frames using the measurement information stored in the analysis information storage means 112 for each piece of scrap parts. The analysis information storage means 112 stores information necessary for analysis of the composition analysis by the processing device 100, such as information for measuring the area of a plurality of scrap parts, information for each scrap scrap required for calculating the weight ratio of scrap scrap parts. Information such as the weight ratio per unit is stored.

解析手段103は、複数の部品屑の単位面積当たりの想定重量を複数の部品屑の面積と乗算して複数の部品屑の重量比率を解析することにより、電子・電気機器部品屑の組成を推定する。複数の部品屑の単位面積当たりの想定重量は、操業結果に応じて予め操作者により入力装置120等を介して設定しておくことができる。以下に限定されるものではないが、例えば、電子・電気機器部品屑を3種類に分類する場合、基板屑の想定重量を例えば2.0g/cm2、プラスチックの想定重量を1.5g/cm2、その他の部品を1.0g/cm2と設定することができる。 The analyzing means 103 estimates the composition of the electronic/electrical device scrap by multiplying the estimated weight per unit area of the plurality of scrap parts by the area of the plurality of scrap parts and analyzing the weight ratio of the plurality of scrap parts. do. The estimated weight per unit area of a plurality of scrap parts can be set in advance by the operator via the input device 120 or the like according to the operation result. Although not limited to the following, for example, when electronic and electrical equipment parts scraps are classified into three types, the assumed weight of substrate scraps is, for example, 2.0 g/cm 2 , and the assumed weight of plastics is 1.5 g/cm. 2 , and other parts can be set at 1.0 g/cm 2 .

解析手段103は、面積の他に、部品屑毎にその部品屑を構成する部品の個数(個)、上記の面積の計算結果と個数とに基づいて算出される平均粒径、重量比などの物理的特性も解析して表示装置130等に出力することができる。解析結果の一例を図4に示す。図3に示す解析結果では、基板が全体の70%を占め、次いでプラスチックが22%、銅線屑が6%、金属片が3%含まれることが分かる。 In addition to the area, the analysis means 103 analyzes the number (pieces) of the parts constituting the parts scrap for each scrap, the average particle diameter calculated based on the above calculation result of the area and the number, the weight ratio, and the like. Physical characteristics can also be analyzed and output to the display device 130 or the like. An example of analysis results is shown in FIG. The analysis results shown in FIG. 3 show that the substrate accounts for 70% of the total, followed by plastics at 22%, copper wire scraps at 6%, and metal chips at 3%.

運転条件生成手段104は、解析手段による複数の部品屑の重量比率の解析結果に基づいて、複数の部品屑を選別するための選別機の運転条件の情報を生成する。選別機としては、ピッキング、カラーソーター、メタルソーター、渦電流選別機、風力選別機、篩別機などの種々の選別機がある。例えば、図4に示す解析結果から、運転条件生成手段104は、例えば基板とプラスチックとを選別するカラーソーターの運転条件を生成し、生成した運転条件を運転条件記憶手段113へ格納する。運転条件記憶手段113へ格納された運転条件は、選別機13、14へ出力されて、選別機13、14が、出力された運転条件に応じて選別処理を行うことができる。変更情報生成手段105は、運転条件の変更条件を運転条件記憶手段113へ格納する。 The operating condition generating means 104 generates information on the operating conditions of a sorter for sorting out a plurality of scrap parts based on the analysis results of the weight ratios of the plurality of scrap parts by the analysis means. As the sorting machine, there are various sorting machines such as picking, color sorter, metal sorter, eddy current sorter, wind sorter, and sieving machine. For example, from the analysis results shown in FIG. 4, the operating condition generating means 104 generates operating conditions for a color sorter that sorts substrates and plastics, and stores the generated operating conditions in the operating condition storage means 113 . The operating conditions stored in the operating condition storage means 113 are output to the sorters 13 and 14, and the sorters 13 and 14 can perform sorting processing according to the output operating conditions. The change information generation means 105 stores the change conditions of the operating conditions in the operating condition storage means 113 .

位置情報出力手段106は、電子・機器部品屑を撮像した画像において分類手段101が分類した複数の部品屑のそれぞれの位置情報を取得し、位置情報記憶手段114へ格納する。そして、複数の部品屑の中から特定の部品屑の位置を抽出してこれを選別するための特定の選別機13、14に対し、位置情報を出力する。例えば、基板と金属片はメタルソーター等の特定の選別機13、14では分離できないが、画像情報で個別に位置情報が得られれば、ピッキング機能を備える選別機13、14によってこれらを選別することができるようになる。 The position information output means 106 acquires the position information of each of the plurality of scrap parts classified by the classification means 101 in the image of electronic/equipment scrap parts, and stores the information in the position information storage means 114 . Then, the positional information is output to specific sorters 13 and 14 for extracting the position of a specific piece of scrap from among a plurality of pieces of scrap and sorting it out. For example, substrates and metal pieces cannot be separated by specific sorters 13 and 14 such as metal sorters, but if individual position information can be obtained from image information, they can be sorted by sorters 13 and 14 having a picking function. will be able to

機械学習手段107は、電子・電気機器部品屑を撮像した複数の画像または複数の部品屑を選別するための選別機13、14の選別結果に基づいて、分類手段101が参照する分類データを機械学習により処理する。 The machine learning means 107 mechanically classifies the classification data referred to by the classification means 101 based on the selection results of the sorters 13 and 14 for sorting out a plurality of images of electronic/electrical device parts scraps or a plurality of parts scraps. Processing by learning.

機械学習においては、まず、電子・電気機器部品屑を撮像した画像に写る部品屑単体に対して認識枠が付される。例えば、画像内に写っている基板に対し、ペイントソフトで赤線により囲む等して認識枠が付され、機械学習手段107は、認識枠が付された部品屑を基板であると更に学習する。同様に、機械学習手段107は、数種類の色の認識枠でそれぞれ囲まれたプラスチック、金属片、銅線屑などに対し、それぞれ固有の部品屑であると学習する。このような方法で100枚以上、好ましくは数百枚~数千枚の学習データを用意し、学習データを機械学習手段107が処理することで、それぞれの部品屑の特徴を学習し、その分類の精度を向上させるように学習する。 In machine learning, first, a recognition frame is attached to a single component scrap that appears in an image of electronic/electrical equipment component scrap. For example, a recognition frame is attached to the board in the image by encircling it with a red line using paint software, and the machine learning means 107 further learns that the component waste marked with the recognition frame is the board. . Similarly, the machine learning means 107 learns that plastics, metal pieces, copper wire scraps, and the like surrounded by recognition frames of several kinds of colors are each unique parts scraps. Learning data of 100 or more sheets, preferably several hundred sheets to several thousand sheets are prepared by such a method, and machine learning means 107 processes the learning data to learn the characteristics of each scrap and classify it. learn to improve the accuracy of

更新手段108は、機械学習手段107の学習結果に基づいて、分類手段101が部品屑を分類するために用いられる分類データを更新する。更新された分類データは、ネットワーク11を介して接続された選別機14やサーバ15へ出力されてもよい。 Based on the learning result of the machine learning means 107, the updating means 108 updates the classification data used by the classification means 101 to classify the scrap parts. The updated classification data may be output to the sorting machine 14 and server 15 connected via the network 11 .

本発明の実施の形態に係る電子・電気機器部品屑の処理装置によれば、画像抽出手段140が備える認識枠付与手段141が、形状又は面積が異なる複数の対象物O1、O2を撮像した画像の中から、対象物O1、O2の認識情報を含む分類データに基づいて、対象物に認識枠1~6を付与し、補正手段142が、認識枠1~6が2個以上重なり合う対象物O1、O2を画像の中から抽出し、抽出された対象物O1、O2に含まれる任意の2個の認識枠1~6のうち不適切な認識枠を削除して、実際の対象物O1、O2の個数に合った数の認識枠1~6の数に補正することにより、画像認識による誤認識を低減し、認識精度を高めることができる。これにより、画像に付された認識枠を用いて、例えば対象物O1、O2の存在比や組成の解析を行う際に、より現実に即した適切な解析を行うことができるようになる。 According to the processing apparatus for electronic and electrical equipment component scraps according to the embodiment of the present invention, the recognition frame providing means 141 provided in the image extracting means 140 captures images of a plurality of objects O1 and O2 having different shapes or areas. , based on the classification data containing the recognition information of the objects O1 and O2, the correction means 142 applies recognition frames 1 to 6 to the object O1 , O2 are extracted from the image, an inappropriate recognition frame is deleted from arbitrary two recognition frames 1 to 6 included in the extracted objects O1 and O2, and the actual objects O1 and O2 are extracted. By correcting the number of recognition frames 1 to 6 to match the number of , it is possible to reduce erroneous recognition due to image recognition and improve recognition accuracy. This makes it possible to perform a more realistic and appropriate analysis, for example, when analyzing the existence ratio and composition of the objects O1 and O2 using the recognition frames attached to the images.

(対象物の画像抽出処理方法)
図5に示すフローチャートを用いて本発明の実施の形態に係る対象物の画像抽出処理方法の例を説明する。ステップS1において、画像抽出手段140が備える認識枠付与手段141が、分類データ記憶手段111に記憶された対象物の認識情報を含む分類データに基づいて、対象物に認識枠を付与する。認識枠の付与結果は記憶装置110内に格納される。
(Object image extraction processing method)
An example of the object image extraction processing method according to the embodiment of the present invention will be described with reference to the flowchart shown in FIG. In step S<b>1 , the recognition frame providing means 141 provided in the image extracting means 140 gives a recognition frame to the object based on the classification data containing the object recognition information stored in the classification data storage means 111 . The result of giving the recognition frame is stored in the storage device 110 .

ステップS2において、画像抽出手段140が備える補正手段142が、認識枠付与手段141によって認識枠が付与された画像の中から、認識枠が2個以上重なり合う対象物を抽出する。ステップS3において、補正手段142が、抽出した対象物は認識枠が3個以上重なり合うか否か判別する。認識枠が3個以上重なる場合はステップS4に進み、認識枠が重なり合う大小2つの認識枠を抽出し、ステップS5へ進む。補正手段142が、抽出した対象物に付与された認識枠が2個である場合はそのままステップS5へ進む。 In step S2, the correcting means 142 included in the image extracting means 140 extracts objects having two or more overlapping recognition frames from the images to which the recognition frames have been added by the recognition frame adding means 141. FIG. In step S3, the correcting means 142 determines whether or not three or more recognition frames of the extracted object overlap. If three or more recognition frames overlap, the process proceeds to step S4, two large and small recognition frames that overlap with each other are extracted, and the process proceeds to step S5. If the number of recognition frames assigned to the extracted target object is two, the process directly proceeds to step S5.

ステップS5において、補正手段142が、重なり合う大小2つの認識枠の重なり部分の面積Soと、2個の認識枠1、2のうち面積が小さい方の認識枠2の面積Ssとを算出する。算出結果は適宜記憶装置110へ記憶される。補正手段142は更に、2個の認識枠のうち面積が小さい方の認識枠の面積Ssに対する重複部分の面積Soの比(面積比So/Ss)を予め設定された基準値Pと比較する。面積比So/Ss<基準値Pである場合はステップS8へ進む。面積比So/Ss≧基準値Pである場合はステップS7へ進む。 In step S5, the correcting means 142 calculates the area S o of the overlapping portion of the two overlapping large and small recognition frames, and the area S s of the recognition frame 2, which has the smaller area among the two recognition frames 1 and 2. . The calculation result is stored in the storage device 110 as appropriate. The correcting means 142 further adjusts the ratio of the area S o of the overlapping portion to the area S s of the smaller one of the two recognition frames (area ratio S o /S s ) by a preset reference value P Compare with If the area ratio S o /S s <reference value P, the process proceeds to step S8. If the area ratio S o /S s ≥ the reference value P, the process proceeds to step S7.

ステップS7において、補正手段142は、2個の認識枠のうち面積が小さい方の認識枠を削除する。ステップS8において、抽出すべき、認識枠が2個以上重なる他の対象物があるか否かを判定し、抽出すべき他の対象物が存在する場合にはステップS2へ戻る。他の対象物が存在しない場合は処理を終了する。 In step S7, the correction unit 142 deletes the recognition frame with the smaller area among the two recognition frames. In step S8, it is determined whether or not there is another target object having two or more overlapping recognition frames to be extracted, and if there is another target object to be extracted, the process returns to step S2. If there are no other objects, the process ends.

本発明の実施の形態に係る対象物の画像抽出処理方法によれば、対象物が一つである場合に誤認識により複数の認識枠が付された場合においても、認識枠の数を適正に補正することができるため、認識精度をより向上させることが可能な画像抽出処理方法が提供できる。 According to the object image extraction processing method according to the embodiment of the present invention, even if a plurality of recognition frames are attached due to erroneous recognition when the object is one, the number of recognition frames can be appropriately determined. Since correction is possible, it is possible to provide an image extraction processing method capable of further improving recognition accuracy.

(電子・電気機器部品屑を用いた対象物の画像抽出処理及び組成解析方法)
図1に示す電子・電気機器部品屑の処理装置を用いた対象物の画像抽出処理方法、組成解析方法及び電子・電気機器部品屑の処理方法の一例について、図6のフローチャートを用いて説明する。なお、図6のステップS11~S18は、図5のステップS1~S8と実質的に同様であるため、重複した記載を省略する。
(Image extraction processing and composition analysis method of object using electronic and electrical equipment parts scrap)
An example of an image extraction processing method, a composition analysis method, and a processing method for electronic/electrical device parts scrap using the electronic/electrical device parts scrap processing apparatus shown in FIG. 1 will be described with reference to the flowchart of FIG. . Note that steps S11 to S18 in FIG. 6 are substantially the same as steps S1 to S8 in FIG. 5, and redundant descriptions are omitted.

ステップS19において、図1の分類手段101が、撮像装置12により撮像された画像内に存在する部品屑を、分類データ記憶手段111に記憶された分類データに基づいて、部品屑毎(例えば、基板、プラスチック、金属片、銅線屑、コンデンサー、ICチップ、その他の部品屑の7分類)に分類する。 At step S19, the classification means 101 of FIG. , plastics, metal chips, copper wire scraps, capacitors, IC chips, and other parts scraps).

分類手段101による分類結果は、表示装置130等によって表示されることができる。操作者の確認がし易くなるように、分類結果はそれぞれ異なる描画条件、例えば色、枠の太さ、枠の線(点線、破線、二重線など)を変更するように表示する。表示装置130に表示される画像において、例えば、基板は赤枠で、プラスチックは青枠にする等して、部品屑毎に色の異なる認識枠が付される。このとき、図1の位置情報出力手段は、分類手段101によるこの分類結果に基づくこれらの位置情報を位置情報記憶手段114に格納することができる。 The classification result by the classification means 101 can be displayed by the display device 130 or the like. The classification results are displayed with different drawing conditions, such as color, frame thickness, and frame line (dotted line, broken line, double line, etc.), so that the operator can easily confirm. In the image displayed on the display device 130, for example, a recognition frame with a different color is attached to each piece of scrap, such as a red frame for a board and a blue frame for plastic. At this time, the positional information output means in FIG.

例えば、基板、プラスチック、金属片、銅線屑、コンデンサー、ICチップ、その他の部品屑の7分類に分類した場合、基板、銅線屑、コンデンサー及びICチップは有価物とし、金属片(アルミやSUS)及びプラスチックを製錬阻害物質と見なして選別するように、選別条件を適切化することで、電子・電気機器部品屑の分離効率やロス率、操業成績を数値化して管理することができる。 For example, when classified into 7 categories: substrates, plastics, metal scraps, copper wire scraps, capacitors, IC chips, and other component scraps, substrates, copper wire scraps, capacitors, and IC chips are classified as valuables, and metal scraps (aluminum, By optimizing the sorting conditions so that SUS) and plastics are sorted out as smelting inhibitors, it is possible to quantify and manage the separation efficiency, loss rate, and operation results of electronic and electrical equipment parts scraps. .

更に、ステップS19において、計測手段102が、分類手段101が分類した複数の部品屑の総面積を計測する。計測手段102による各部品屑の面積の計測は、画像から面積を推定するための既知の面積検出ソフトを用いて計測することができる。ステップS20において、解析手段103は、複数の部品屑の単位面積当たりの想定重量を複数の部品屑の面積と乗算して複数の部品屑の重量比率を解析することにより、電子・電気機器部品屑の組成を推定する。 Furthermore, in step S19, the measuring means 102 measures the total area of the plurality of scrap parts sorted by the sorting means 101. FIG. The area of each scrap component can be measured by the measuring means 102 using known area detection software for estimating the area from the image. In step S20, the analysis means 103 multiplies the estimated weight per unit area of the plurality of scrap parts by the area of the plurality of scrap parts, and analyzes the weight ratio of the plurality of scrap parts to obtain the electronic/electrical equipment parts scrap. Estimate the composition of

例えば図3に示すように、解析手段103によって、撮像装置12が撮像した画像の中から複数の部品屑毎の平均の面積、個数、平均粒径、重量比などを数値化して解析することができるため、従来のように、手線別で電子・電気機器部品屑の原料組成を評価するよりも著しく迅速にその原料組成を数値化して把握することができる。 For example, as shown in FIG. 3, the analysis means 103 can digitize and analyze the average area, number, average particle diameter, weight ratio, etc. of each of a plurality of scrap parts from the image captured by the imaging device 12. Therefore, the raw material composition can be quantified and grasped much more quickly than the conventional method of evaluating the raw material composition of electronic/electrical device parts scrap by hand.

ステップS21において、解析手段103が解析した原料解析結果に基づいて、選別処理が行われる。例えば、ステップS20で得られた組成解析結果に基づいて、原料を選別処理するための選別機の選択と、選別条件、選別順序等の操業条件が決定され、その操業条件に基づいて選別処理が行われる。 In step S21, sorting processing is performed based on the raw material analysis result analyzed by the analysis means 103. FIG. For example, based on the composition analysis result obtained in step S20, the selection of a sorter for sorting the raw material, and the operating conditions such as sorting conditions and sorting order are determined, and the sorting process is performed based on the operating conditions. done.

このように、選別機13に対してそれぞれ本発明の実施の形態に係る組成解析装置による組成解析結果を活用することで、搬送中の電子・電気機器部品屑を連続的に撮影しながら、その画像データをリアルタイムに解析し、原料組成を解析することができる。 In this way, by utilizing the composition analysis results obtained by the composition analysis apparatus according to the embodiment of the present invention for each of the sorting machines 13, while continuously photographing electronic and electrical equipment component scraps being transported, Image data can be analyzed in real time to analyze raw material composition.

従来、電子・電気機器部品屑の原料組成は、手選別によって評価し、その結果を選別処理の操業管理、運転条件の設定に反映させることが行われていたが、しかしながら、手選別により原料組成を把握する手法では、迅速な処理を行うことができなかった。 Conventionally, the raw material composition of electronic and electrical equipment parts scrap was evaluated by manual sorting, and the results were reflected in the operation management of the sorting process and the setting of operating conditions. In the method of grasping , it was not possible to perform rapid processing.

本発明の実施の形態によれば、時々刻々とその組成が変化する電子・電気機器部品屑の中からその中の部品屑の組成を画像解析と所定の分類データに基づく分離によって、瞬時に判別し数値化することができるため、大量の電子・電気機器部品屑をより適切な条件で迅速に選別を行うことができる。 According to the embodiment of the present invention, the composition of electronic/electrical device parts whose composition changes from moment to moment is instantaneously determined by image analysis and separation based on predetermined classification data. Since it can be quantified, it is possible to quickly sort a large amount of electronic and electrical equipment parts scrap under more appropriate conditions.

また、表示装置130に解析結果として各原料種毎に色の異なる枠を付けて表示させることで操作者が認識しやすくなるため、組成解析装置の誤検知も認識しやすくなる。 In addition, since the analysis results are displayed on the display device 130 with a frame of a different color for each raw material type, the operator can easily recognize the analysis results, so that erroneous detection by the composition analysis apparatus can be easily recognized.

更に、各部品屑に対して付与された認識枠は、ステップS12~S18に示す各工程で補正を加えて適正化されることにより、画像認識における誤認識を少なくすることができ、解析精度を向上することができる。 Further, the recognition frame assigned to each scrap component is corrected and optimized in each process shown in steps S12 to S18, thereby reducing erroneous recognition in image recognition and improving analysis accuracy. can be improved.

本発明は上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。即ち、本発明は各実施形態に限定されるものではなく、その要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素からいくつかの構成要素を削除してもよい。更に、異なる実施形態の構成要素を適宜組み合わせてもよい。 Although the present invention has been described by the above embodiments, the statements and drawings forming part of this disclosure should not be understood to limit the present invention. That is, the present invention is not limited to each embodiment, and can be embodied by modifying the constituent elements without departing from the spirit of the present invention. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in each embodiment. For example, some components may be deleted from all components shown in the embodiments. Furthermore, components of different embodiments may be combined as appropriate.

以下に本発明の実施例を比較例と共に示すが、これらの実施例は本発明及びその利点をよりよく理解するために提供するものであり、発明が限定されることを意図するものではない。 Examples of the present invention are presented below along with comparative examples, which are provided for a better understanding of the invention and its advantages and are not intended to be limiting of the invention.

(実施例1)
電子・電気機器部品屑を対象として、本実施例に係る処理装置により複数の基板屑からなる部品屑を撮像した画像に認識枠を付与し、認識枠が2個以上重なり合う対象物を抽出した。認識枠が2個以上重なり合う対象物は、以下の3ケースに分類できることが分かった。
(Example 1)
Targeting electronic and electrical equipment parts scraps, recognition frames were added to images of parts scraps composed of a plurality of substrate scraps taken by the processing apparatus according to the present embodiment, and objects with two or more recognition frames overlapping were extracted. It was found that objects with two or more overlapping recognition frames can be classified into the following three cases.

(1)大きい枠Aの内側に小さい枠Bが完全に入っている場合(面積が枠A∩枠B/枠B=100%となる場合)
(2)大きい枠Aの内側に小さい枠Bが基準値(ここでは90%とする)以上100%未満入っている場合(面積が90%≦枠A∩枠B/枠B<100%となる場合)
(3)二つの枠が一部重なっている場合(面積が枠A∩枠B/枠B<90%となる場合)
(1) When the small frame B is completely inside the large frame A (when the area is frame A ∩ frame B/frame B = 100%)
(2) When the small frame B is inside the large frame A and has a reference value (90% here) or more and less than 100% (the area is 90% ≤ frame A ∩ frame B / frame B < 100% case)
(3) When two frames partially overlap (when the area is frame A ∩ frame B/frame B < 90%)

画像中の2個以上の認識枠が重なり合う基板屑を上記の(1)~(3)の態様で分類した結果について調べた結果、ケース(1)の割合は9.8%、ケース(2)の割合は58.5%を占め、ケース(1)及び(2)の合計で68.3%を占めることが分かった。また、画像中の基板屑の実際の個数Noを目視でカウントし、処理装置の画像認識処理によって付与された認識枠Ncとの比(No/Nc)で表される対象物の誤認識率は、13.8%であった。 As a result of examining the result of classifying substrate scraps in which two or more recognition frames overlapped in the image in the above-described modes (1) to (3), the proportion of case (1) was 9.8%, and that of case (2). accounts for 58.5%, and cases (1) and (2) account for 68.3% in total. Also, the actual number N o of substrate scraps in the image is visually counted, and the ratio (N o /N c ) to the recognition frame N c given by the image recognition processing of the processing device. The misrecognition rate was 13.8%.

その後、大きい枠Aの内側に小さい枠Bが90%以上入っている認識枠(上述のケース(1)及び(2)に該当する認識枠)を本実施例に係る補正処理により削除したところ、処理装置の画像認識処理によって付与された認識枠Ncとの比(No/Nc)で表される対象物の誤認識率を4.4%まで下げることができた。 After that, when the recognition frame in which 90% or more of the small frame B is inside the large frame A (recognition frame corresponding to the above-described cases (1) and (2)) is deleted by the correction processing according to the present embodiment, The erroneous recognition rate of the object represented by the ratio (N o /N c ) to the recognition frame N c given by the image recognition processing of the processing device was able to be reduced to 4.4%.

(実施例2)
電子・電気機器部品屑を対象として、本実施例に係る処理装置により複数のプラスチックからなる部品屑を撮像した画像に認識枠を付与し、認識枠が2個以上重なり合う対象物を抽出し、実施例1と同様の3ケースに分類したところ、ケース(1)の割合は26.7%、ケース(2)の割合は43.3%を占め、ケース(1)及び(2)の合計で70.0%を占めることが分かった。また、画像中の基板屑の実際の個数Noを目視でカウントし、処理装置の画像認識処理によって付与された認識枠Ncとの比(No/Nc)で表される対象物の誤認識率は、12.3%であった。
(Example 2)
Targeting electronic and electrical equipment parts scraps, the processing apparatus according to this embodiment attaches a recognition frame to an image of a plurality of plastic parts scraps captured, extracts objects with two or more recognition frames overlapping, and implements. When classified into the same three cases as in Example 1, the proportion of case (1) was 26.7%, and the proportion of case (2) was 43.3%, for a total of 70 cases (1) and (2). .0%. Also, the actual number N o of substrate scraps in the image is visually counted, and the ratio (N o /N c ) to the recognition frame N c given by the image recognition processing of the processing device. The misrecognition rate was 12.3%.

その後、大きい枠Aの内側に小さい枠Bが90%以上入っている認識枠(上述のケース(1)及び(2)に該当する認識枠)を本実施例に係る補正処理により削除したところ、処理装置の画像認識処理によって付与された認識枠Ncとの比(No/Nc)で表される対象物の誤認識率を3.7%まで下げることができた。 After that, when the recognition frame in which 90% or more of the small frame B is inside the large frame A (recognition frame corresponding to the above-described cases (1) and (2)) is deleted by the correction processing according to the present embodiment, The erroneous recognition rate of the object represented by the ratio (N o /N c ) to the recognition frame N c given by the image recognition processing of the processing device was able to be reduced to 3.7%.

このように、本実施例に係る処理方法によれば、画像認識により対象物に付与される認識枠の数を実際の対象物の数に近づけることができ、これにより、画像認識の認識精度を向上させることが可能となる。 As described above, according to the processing method according to the present embodiment, the number of recognition frames given to an object by image recognition can be brought closer to the number of actual objects, thereby improving the recognition accuracy of image recognition. becomes possible.

10…組成解析装置
11…ネットワーク
12…撮像装置
13,14…選別機
15…サーバ
100…処理装置
101…分類手段
102…計測手段
103…解析手段
104…運転条件生成手段
105…変更情報生成手段
106…位置情報出力手段
107…機械学習手段
108…更新手段
110…記憶装置
111…分類データ記憶手段
112…解析情報記憶手段
113…運転条件記憶手段
114…位置情報記憶手段
120…入力装置
130…表示装置
140…画像抽出手段
141…認識枠付与手段
142…補正手段
DESCRIPTION OF SYMBOLS 10... Composition-analysis apparatus 11... Network 12... Imaging apparatus 13, 14... Sorter 15... Server 100... Processing apparatus 101... Classification means 102... Measurement means 103... Analysis means 104... Operating condition generation means 105... Change information generation means 106 Position information output means 107 Machine learning means 108 Update means 110 Storage device 111 Classification data storage means 112 Analysis information storage means 113 Operating condition storage means 114 Position information storage means 120 Input device 130 Display device 140... Image extracting means 141... Recognition frame adding means 142... Correcting means

Claims (8)

形状又は面積が異なる複数の部品屑を含む電子・電気機器部品屑を撮像した画像の中から前記複数の部品屑毎にそれぞれ異なる描画条件の認識枠を付与し、
前記認識枠が2個以上重なり合う前記部品屑を前記画像の中から抽出し、抽出された前記部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、前記任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する前記重複部分の面積の比が基準値以上となる場合に、前記小さい方の認識枠を削除し、
前記削除後の画像に含まれる前記認識枠が付された複数の部品屑を、前記複数の部品屑毎に分類してそれぞれの総面積を計測し、
前記複数の部品屑の単位面積当たりの想定重量を前記複数の部品屑の総面積と乗算して前記複数の部品屑の重量比率を解析することにより、前記電子・電気機器部品屑の組成を推定すること
を含むことを特徴とする電子・電気機器部品屑の組成解析方法。
Giving a recognition frame with a different drawing condition to each of the plurality of scrap parts from an image obtained by imaging electronic/electrical device scrap including a plurality of scrap parts having different shapes or areas,
Extracting from the image the scrap parts in which two or more of the recognition frames overlap, calculating the area of the overlapping portion of any two recognition frames included in the extracted scrap parts, deleting the smaller recognition frame when the ratio of the area of the overlapped portion to the area of the recognition frame having the smaller area is equal to or greater than a reference value,
classifying a plurality of scrap parts to which the recognition frame is attached, which are included in the image after deletion, for each of the plurality of scrap scrap parts and measuring the total area of each of the scrap scrap parts;
Estimating the composition of the electronic/electrical device scrap by multiplying the total area of the plurality of scrap parts by the assumed weight per unit area of the scrap parts and analyzing the weight ratio of the scrap parts A composition analysis method for electronic/electrical equipment parts scrap, comprising:
前記認識枠が3個以上重なり合う場合に、前記小さい方の認識枠を削除する処理を、削除する認識枠が無くなるまで繰り返すことを含む請求項1に記載の電子・電気機器部品屑の組成解析方法。2. The method for analyzing the composition of scrap electronic/electrical equipment parts according to claim 1, further comprising repeating the process of deleting the smaller recognition frame when three or more of the recognition frames overlap until there are no more recognition frames to be deleted. . 前記複数の部品屑毎に認識枠を付与することが、前記部品屑の構成要素及び色彩を含む認識情報を含む分類データに基づいて、前記部品屑に対して前記部品屑と外接する最小外接図形を付与することを含む請求項1又は2に記載の電子・電気機器部品屑の組成解析方法。Giving a recognition frame to each of the plurality of scrap parts is a minimum circumscribing figure that circumscribes the scrap parts based on classification data including recognition information including components and colors of the scrap parts. 3. The method for analyzing the composition of electronic/electrical equipment component scraps according to claim 1 or 2, comprising giving a . 前記基準値が、0.75~1.0であることを含む請求項1~3のいずれか1項に記載の電子・電気機器部品屑の組成解析方法。4. The method for analyzing the composition of electronic and electrical equipment component scraps according to any one of claims 1 to 3, wherein the reference value is 0.75 to 1.0. 前記部品屑を前記画像の中から抽出することが、前記電子・電気機器部品屑を、基板、プラスチック及びその他部品屑に分類して抽出することを含み、且つ、抽出された前記基板、前記プラスチック及び前記その他部品屑について、それぞれ異なる描画条件の認識枠を付与することを含む請求項1~4のいずれか1項に記載の電子・電気機器部品屑の組成解析方法。Extracting the component scraps from the image includes classifying the electronic/electrical device component scraps into substrates, plastics, and other component scraps, and extracting the extracted substrates and plastics. 5. The composition analysis method for electronic/electrical equipment parts scrap according to any one of claims 1 to 4, further comprising giving recognition frames under different drawing conditions to each of the other parts scrap and the other parts scrap. 前記部品屑を前記画像の中から抽出することが、前記電子・電気機器部品屑を、基板、プラスチック、金属片、銅線屑、コンデンサー、ICチップ及びその他部品屑に分類して抽出することを含み、且つ、抽出された前記基板、前記プラスチック、前記金属片、前記銅線屑、前記コンデンサー、前記ICチップ及び前記その他部品屑について、それぞれ異なる描画条件の認識枠を付与することを含む請求項1~4のいずれか1項に記載の電子・電気機器部品屑の組成解析方法。Extracting the scrap parts from the image includes classifying and extracting the scrap electronic/electrical equipment parts into substrates, plastics, metal pieces, copper wire scraps, capacitors, IC chips, and other scrap scraps. and providing a recognition frame under different drawing conditions to each of the extracted substrate, plastic, metal piece, copper wire scrap, capacitor, IC chip, and other component scrap. 5. The method for analyzing the composition of electronic/electrical equipment parts scrap according to any one of 1 to 4. 形状又は面積が異なる複数の部品屑を含む電子・電気機器部品屑を撮像した画像の中から、前記複数の部品屑毎にそれぞれ異なる描画条件の認識枠を付与するための前記部品屑の認識情報を含む分類データを備える記憶装置と、
前記分類データに基づいて、前記複数の部品屑に認識枠を付与する認識枠付与手段と、
前記認識枠が2個以上重なり合う前記部品屑を前記画像の中から抽出し、抽出された前記部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、前記任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する前記重複部分の面積の比が基準値以上となる場合に、前記小さい方の認識枠を削除することにより、認識枠の補正を行う補正手段と、
前記削除後の画像に含まれる前記認識枠が付された複数の部品屑を、前記複数の部品屑毎に分類してそれぞれの総面積を計測する計測手段と、
前記複数の部品屑の単位面積当たりの想定重量を前記複数の部品屑の総面積と乗算して前記複数の部品屑の重量比率を解析することにより、前記電子・電気機器部品屑の組成を推定する解析手段と
を備えることを特徴とする電子・電気機器部品屑の組成解析装置。
Recognition information of the scrap parts for assigning a recognition frame with a different drawing condition to each of the scrap parts from an image of electronic/electrical equipment scrap including a plurality of scrap parts having different shapes or areas. a storage device comprising classification data including
a recognition frame providing means for providing a recognition frame to the plurality of scrap parts based on the classification data;
Extracting from the image the scrap parts in which two or more of the recognition frames overlap, calculating the area of the overlapping portion of any two recognition frames included in the extracted scrap parts, Correction for correcting the recognition frame by deleting the smaller recognition frame when the ratio of the area of the overlapping portion to the area of the recognition frame having the smaller area among the recognition frames is equal to or greater than a reference value. means and
measuring means for classifying a plurality of scrap parts to which the recognition frame is attached and included in the image after deletion and measuring the total area of each of the plurality of scrap scrap parts;
Estimating the composition of the electronic/electrical device scrap by multiplying the total area of the plurality of scrap parts by the assumed weight per unit area of the scrap parts and analyzing the weight ratio of the scrap parts and an analysis means for analyzing the composition of electronic/electrical equipment component scraps.
複数の部品屑からなる電子・電気機器部品屑を撮像する撮像工程と、
前記電子・電気機器部品屑を撮像した画像の中から前記複数の部品屑毎にそれぞれ異なる描画条件の認識枠を付与するための前記部品屑の認識情報を含む分類データに基づいて、前記複数の部品屑の画像を抽出して前記複数の部品屑毎に認識枠を付与する認識枠付与工程と、
前記認識枠が2個以上重なり合う前記部品屑を前記画像の中から抽出し、抽出された前記部品屑に含まれる任意の2個の認識枠の重複部分の面積を算出し、前記任意の2個の認識枠のうち面積が小さい方の認識枠の面積に対する前記重複部分の面積の比が基準値以上となる場合に、前記小さい方の認識枠を削除することにより、認識枠の補正を行う補正工程と、
前記補正工程後の画像に含まれる前記認識枠が付された複数の部品屑を、前記複数の部品屑毎に分類してそれぞれの総面積を計測する計測工程と、
前記複数の部品屑の単位面積当たりの想定重量を前記複数の部品屑の総面積と乗算して前記複数の部品屑の重量比率を解析することにより、前記電子・電気機器部品屑の組成を解析する解析工程と、
を含むことを特徴とする電子・電気機器部品屑の処理方法。
An imaging step of imaging electronic/electrical device parts scrap consisting of a plurality of parts scraps;
Based on the classification data including the recognition information of the component scraps for assigning a recognition frame with a different drawing condition to each of the plurality of component scraps from the image of the electronic / electrical equipment component scraps, a recognition frame assigning step of extracting images of scrap parts and assigning a recognition frame to each of the plurality of scrap parts;
Extracting from the image the scrap parts in which two or more of the recognition frames overlap, calculating the area of the overlapping portion of any two recognition frames included in the extracted scrap parts, Correction for correcting the recognition frame by deleting the smaller recognition frame when the ratio of the area of the overlapping portion to the area of the recognition frame having the smaller area among the recognition frames is equal to or greater than a reference value. process and
a measuring step of classifying a plurality of scrap parts to which the recognition frame is attached and included in the image after the correction process and measuring the total area of each of the plurality of scrap scrap parts;
Analyzing the composition of the electronic/electrical device scrap by multiplying the estimated weight per unit area of the plurality of scrap parts by the total area of the plurality of scrap parts and analyzing the weight ratio of the plurality of scrap parts. an analysis step to
A method for processing electronic and electrical equipment parts scraps, comprising:
JP2019104044A 2019-06-03 2019-06-03 Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method Active JP7328011B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104044A JP7328011B2 (en) 2019-06-03 2019-06-03 Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104044A JP7328011B2 (en) 2019-06-03 2019-06-03 Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method

Publications (2)

Publication Number Publication Date
JP2020197953A JP2020197953A (en) 2020-12-10
JP7328011B2 true JP7328011B2 (en) 2023-08-16

Family

ID=73648493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104044A Active JP7328011B2 (en) 2019-06-03 2019-06-03 Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method

Country Status (1)

Country Link
JP (1) JP7328011B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7301783B2 (en) * 2020-04-01 2023-07-03 Jx金属株式会社 Composition analysis method for electronic/electrical equipment parts scrap, electronic/electrical equipment parts scrap processing method, electronic/electrical equipment parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing equipment
JP7301782B2 (en) * 2020-04-01 2023-07-03 Jx金属株式会社 Composition analysis method for electronic/electrical equipment parts scrap, electronic/electrical equipment parts scrap processing method, electronic/electrical equipment parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009435A (en) 1999-06-30 2001-01-16 Hitachi Ltd Method and device for treating waste
JP2002063577A (en) 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> System and method for analyzing image, and image analysis program recording medium
JP2010191487A (en) 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
JP2013050912A (en) 2011-08-31 2013-03-14 Toshiba Corp Object search device, video display device, and object search method
JP2017520859A (en) 2014-12-30 2017-07-27 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image object region recognition method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001009435A (en) 1999-06-30 2001-01-16 Hitachi Ltd Method and device for treating waste
JP2002063577A (en) 2000-08-15 2002-02-28 Nippon Telegr & Teleph Corp <Ntt> System and method for analyzing image, and image analysis program recording medium
JP2010191487A (en) 2009-02-13 2010-09-02 Sony Corp Information processing apparatus and information processing method
JP2013050912A (en) 2011-08-31 2013-03-14 Toshiba Corp Object search device, video display device, and object search method
JP2017520859A (en) 2014-12-30 2017-07-27 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Image object region recognition method and apparatus

Also Published As

Publication number Publication date
JP2020197953A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP7328012B2 (en) Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method
JP7092889B2 (en) Composition analyzer for electronic / electrical equipment parts waste, electronic / electrical equipment parts waste processing equipment, and electronic / electrical equipment parts waste processing method
CN107092922B (en) Vehicle damages recognition methods and server
Gundupalli et al. Classification of metallic and non-metallic fractions of e-waste using thermal imaging-based technique
CN104867144B (en) IC element welding point defect detection methods based on mixed Gauss model
JP7328011B2 (en) Electronic/electrical device parts scrap composition analysis method, electronic/electrical device parts scrap composition analysis device, and electronic/electrical equipment parts scrap processing method
WO2021201251A1 (en) Method for analyzing composition of electronic/electrical apparatus component layer, method for processing electronic/electrical apparatus component layer, device for analyzing composition of electronic/electrical apparatus component layer, and device for processing electronic/electrical apparatus component layer
JP2021522070A5 (en)
WO2021201250A1 (en) Composition analysis method for electronic/electrical equipment component waste, processing method for electronic/electrical equipment component waste, composition analyzer for electronic/electrical equipment component waste, and processing device for electronic/electrical equipment component waste
Wang et al. Automatic separation system of coal gangue based on DSP and digital image processing
WO2022224478A1 (en) Electrical and electronic component scrap processing method, and electrical and electronic component scrap processing device
CN108549855A (en) Real-time humanoid detection method towards Intelligent household scene
JP3681316B2 (en) Image processing apparatus, waste processing apparatus using the same, image processing method, and medium on which image processing program is recorded
CN112308114A (en) Method and device for sorting scheelite and readable storage medium
Paulraj et al. Classification of recyclables from e-waste stream using thermal imaging-based technique
CN107609595A (en) A kind of line clipping image detecting method
Gundupalli et al. Thermal imaging-based classification of the E-waste stream
JP2019171343A (en) Processing method of electronic-electrical equipment component scrap
JP2022078835A (en) Classification method for electronic component scrap and processing method for electronic component scrap
CN113791090A (en) Rapid verification system and method for welding defects of recovered circuit board
JP2022078833A (en) Processing method of electronic component waste, image analysis system of electronic component waste, and sorting system of electronic component waste
CN114723748A (en) Detection method, device and equipment of motor controller and storage medium
CN113191205A (en) Method for identifying special scene, object, character and noise factor in video
CN112001205A (en) Network model sample collection method for secondary face detection
Marinković et al. RECOMMENDATIONS FOR IMPROVEMENT OF CRITICAL AND RARE EARTH METALS RECOVERY FROM PRINTED CIRCUIT BOARDS IN PRE-TREATMENT PROCESSES

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R151 Written notification of patent or utility model registration

Ref document number: 7328011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151