JP2019204168A - Sorting device, sorting method, sorting program, and computer readable recording medium - Google Patents

Sorting device, sorting method, sorting program, and computer readable recording medium Download PDF

Info

Publication number
JP2019204168A
JP2019204168A JP2018097254A JP2018097254A JP2019204168A JP 2019204168 A JP2019204168 A JP 2019204168A JP 2018097254 A JP2018097254 A JP 2018097254A JP 2018097254 A JP2018097254 A JP 2018097254A JP 2019204168 A JP2019204168 A JP 2019204168A
Authority
JP
Japan
Prior art keywords
unit
learning
sorting
selection
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018097254A
Other languages
Japanese (ja)
Other versions
JP6987698B2 (en
Inventor
大石 昇治
Shoji Oishi
昇治 大石
裕之 深瀬
Hiroyuki FUKASE
裕之 深瀬
誠人 大西
Masato Onishi
誠人 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daio Paper Corp
Daio Engineering Co Ltd
Original Assignee
Daio Paper Corp
Daio Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daio Paper Corp, Daio Engineering Co Ltd filed Critical Daio Paper Corp
Priority to JP2018097254A priority Critical patent/JP6987698B2/en
Priority to KR1020207018659A priority patent/KR20210002444A/en
Priority to PCT/JP2019/017853 priority patent/WO2019208754A1/en
Priority to CN201980015704.7A priority patent/CN111819598B/en
Publication of JP2019204168A publication Critical patent/JP2019204168A/en
Priority to JP2021195070A priority patent/JP2022036094A/en
Application granted granted Critical
Publication of JP6987698B2 publication Critical patent/JP6987698B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To allow users to easily set and change sorting accuracy.SOLUTION: A sorting device comprises a learning data creating unit 122, a learning unit 123, a sorting-target selection unit 124, a determination unit 125, and an air injecting nozzle 14, where the learning data creating unit creates the learning data LD from a line sensor camera 11 and from classified object data obtained by the line sensor camera 11, the learning unit sorts the mixture by type by using the learning data LD, learns a method to identify by type and creates a learning model GM digitalizing knowledge and experience obtained by the learning, the sorting-target selection unit to sort the type of the sorting-target, the determination unit calculates the recognition rate RR from the mixture data obtained by the line sensor camera 11 on the basis of the learning model GM and determines the existence and the position of the sorting-target on the basis of the recognition rate RR, and the air injecting nozzle sorts the sorting-target from the mixture MO on the basis of a threshold provided for the determination result and the recognition rate RR of the determination unit 125.SELECTED DRAWING: Figure 8

Description

本発明は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体に関する。   The present invention relates to a sorting device, a sorting method, a sorting program, and a computer-readable recording medium that sort a sorting target object from a mixture composed of a plurality of types of objects.

近年、廃棄物等を再資源化し、新たな製品の原料として利用するリサイクルは、環境保護の観点や企業イメージの向上等の目的から、多くの企業によって実施されている。   In recent years, recycling that recycles wastes and uses them as raw materials for new products has been carried out by many companies for the purpose of environmental protection and improvement of corporate image.

リサイクル分野は多岐にわたっているが、例えば、古紙をリサイクルして再生紙を生産する分野では、古紙の中に、例えば、ラミネート等のプラスチックが混入すると、紙の純度が下がるといった不純物の問題がある。また、有害物質が混入すると、この有害物質を広く拡散させてしまうこととなる。このため、リサイクルの前に、原料として用いる物体と不純物とを選別する工程が必要となる。また、例えば白色の紙と着色された紙とを選別するというように、リサイクルの用途に応じて自由に選別対象物を選別できることが求められている。   Although the recycling field is diverse, for example, in the field of recycling recycled paper to produce recycled paper, there is a problem of impurities such as, for example, when plastic such as laminate is mixed in the used paper, the purity of the paper is lowered. In addition, when harmful substances are mixed, the harmful substances are diffused widely. For this reason, before recycling, a step of selecting an object and impurities used as raw materials is required. Further, it is required that a sorting object can be freely sorted according to a recycling application, for example, sorting white paper and colored paper.

また、リサイクルに拘わらず、製品製造時において、良品と不良品とを選別する必要があるため、物体を2以上に選別する技術は、製造業において必要不可欠な技術の1つであるといえる。この種の物体を2以上の種類に選別する技術は、例えば、特許文献1及び特許文献2に開示されている。   In addition, regardless of recycling, it is necessary to select good products and defective products at the time of product manufacture. Therefore, it can be said that the technology of selecting an object into two or more is one of the indispensable technologies in the manufacturing industry. Techniques for selecting this type of object into two or more types are disclosed in Patent Document 1 and Patent Document 2, for example.

特許文献1には、光源と光センサとからなる検知手段を備え、反射光の輝度に基づいて物体を選別する選別装置に関する技術が開示されている。   Patent Document 1 discloses a technique related to a sorting apparatus that includes a detection unit including a light source and an optical sensor and sorts an object based on the luminance of reflected light.

また、特許文献2には、重力センサと、撮像装置として、RGBカメラ、X線カメラ、近赤外線カメラ、3Dカメラを備え、人工知能によって物体を自動選別する選別装置に関する技術が開示されている。   Patent Document 2 discloses a technology related to a gravity sensor and a sorting device that includes an RGB camera, an X-ray camera, a near-infrared camera, and a 3D camera as an imaging device, and automatically sorts an object using artificial intelligence.

特開2018−017639号公報JP 2018-017639 A 特開2017−109197号公報JP 2017-109197 A

しかしながら、特許文献1に開示された選別装置は、反射光の輝度に基づいて物体を選別する基準やアルゴリズムを予め設定しておく必要があり、これらの設定に専門的な知識や経験が必要であるため、ユーザが容易に設定や設定の変更を行うことができなかった。   However, the sorting device disclosed in Patent Document 1 needs to set in advance a standard and algorithm for sorting objects based on the brightness of reflected light, and these settings require specialized knowledge and experience. For this reason, the user cannot easily set or change the setting.

また、人工知能を用いた特許文献2に開示された選別装置は、前述のような設定は必要ないものの、予め人工知能に選別する基準や方法を学習させる工程が必要であり、ユーザが容易に設定できる態様とはなっていなかった。   In addition, the sorting device disclosed in Patent Document 2 using artificial intelligence does not require the setting as described above, but requires a step of learning a criterion and a method for sorting into artificial intelligence in advance, so that the user can easily It was not an aspect that could be set.

このように、従来の選別装置や選別方法では、選別装置に選別対象物を選別させるための設定を行うことが容易でないため、ユーザは、予め選別対象物に応じた設定がなされた選別装置を提供してもらい運転を行っていた。このため、混合物(廃棄物等)や選別対象物が変更になった場合等に、ユーザが、設定を変更したくても容易に変更できないという問題があった。   As described above, in the conventional sorting apparatus and sorting method, since it is not easy to set the sorting apparatus to sort the sorting target object, the user can select a sorting apparatus that has been set in advance according to the sorting target object. I was driving with the offer. For this reason, when a mixture (waste etc.) or a sorting object is changed, there is a problem that even if the user wants to change the setting, it cannot be easily changed.

また、ユーザの選別の目的が、大まかに分類できればよいという場合から、所望の物体だけ高精度に抽出したい場合等種々想定されるところ、ユーザは、自らの選別の目的に応じて、選別精度を簡単に設定・変更できないという問題があった。   In addition, there are various assumptions such as the case where the user's purpose of selection is to be roughly classified and the user wants to extract only a desired object with high accuracy. There was a problem that it could not be easily set or changed.

本発明は、従来のこのような問題点に鑑みてなされたものである。本発明の目的の一は、ユーザが、専門的な技術や知識が無くとも、選別の目的に応じて、選別精度を簡単に設定・変更できる態様の選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体を提供することにある。   The present invention has been made in view of such conventional problems. One of the objects of the present invention is a sorting apparatus, a sorting method, a sorting program, and a computer in which the user can easily set and change the sorting accuracy according to the purpose of sorting without special techniques and knowledge. An object is to provide a readable recording medium.

課題を解決するための手段及び発明の効果Means for Solving the Problems and Effects of the Invention

本発明の第1の側面に係る選別装置は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置であって、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得部と、前記データ取得部で取得された前記種別物体のデータから学習データを作成する学習データ作成部と、前記学習データ作成部によって作成された学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習部と、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択部と、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断する判断部と、前記判断部の判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する選別部と、を備えることができる。   The sorting device according to the first aspect of the present invention is a sorting device that sorts a sorting target object from a mixture composed of a plurality of types of objects, and is a type object that is the object sorted by type or A data acquisition unit that acquires data based on the mixture, a learning data generation unit that generates learning data from the data of the type object acquired by the data acquisition unit, and learning data generated by the learning data generation unit A learning unit that learns a method of classifying a mixture into types and using them as classification objects, creating a learning model in which knowledge and experience obtained by the learning are converted into data, and the selection target from the classification objects From the data of the mixture acquired by the data acquisition unit based on the learning model created in the learning unit and a selection target selection unit that selects the type of the object, each of the mixture in the mixture A first recognition rate indicating a probability that a body is a selection target selected by the selection target selection unit is calculated, and the presence / absence and position of the selection target are determined based on the first recognition rate A determination unit; and a selection unit that selects the selection object from the mixture based on a determination result of the determination unit and a threshold provided for the first recognition rate.

前記構成によれば、混合物から選別対象物を選別する運転時において、混合物の各物体が選別対象物である確率を示す第一の認識率を人工知能に算出させ、該認識率とユーザが設定できる閾値とを紐付けて選別対象を判断するので、人工知能を用いながらも、選別精度をユーザがコントロールできるようになる。これにより、選別の目的が、大まかに分類できればよいという場合から、所望の物体だけ高精度に抽出したい場合等種々想定されるところ、選別精度に対するユーザのニーズに応じた選別が可能となる。   According to the above configuration, during the operation of selecting the selection target from the mixture, the artificial intelligence calculates the first recognition rate indicating the probability that each object of the mixture is the selection target, and the recognition rate and the user set Since the selection target is determined by associating it with a possible threshold value, the user can control the selection accuracy while using artificial intelligence. As a result, it is possible to select according to the user's need for the selection accuracy when various purposes such as the case where the purpose of the selection only needs to be roughly classified and when it is desired to extract only a desired object with high accuracy are possible.

本発明の第2の側面に係る選別装置は、前記選別部が、前記第一の認識率が前記閾値以上の選別対象物を選別できる。前記構成によれば、閾値を高く設定することで、高精度に選別でき、閾値を低く設定することで、大まかに選別できる。   In the sorting apparatus according to the second aspect of the present invention, the sorting unit can sort a sorting object having the first recognition rate equal to or higher than the threshold value. According to the said structure, it can classify | select with high precision by setting a threshold value high, and can classify | sort roughly by setting a threshold value low.

本発明の第3の側面に係る選別装置は、前記判断部は、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断できる。前記構成によれば、混合物の各物体に対して、種別物体毎に第二の認識率が全て算出されるので、物体の種類を第二の認識率が最高値となる種類と判別でき、選別対象物と種類が同一と判別された物体に対して、ユーザが設定できる閾値と紐付けて選別を行うので、ユーザは、選別対象物を変更する場合でも、選別対象物に特化した学習モデルを改めて作成する必要がなく、選別対象物を容易に変更できる。   In the sorting device according to the third aspect of the present invention, the determination unit is configured to determine each object in the mixture from the mixture data acquired by the data acquisition unit based on the learning model created by the learning unit. Calculates a second recognition rate indicating the probability of being the type object for each type object, specifies the type of each object in the mixture based on the second recognition rate, and the type is the selection The presence / absence and position of the selection object can be determined by regarding the second recognition rate in the case of matching with the type of the object as the first recognition rate. According to the above configuration, since the second recognition rate is calculated for each type of object for each object of the mixture, the type of the object can be determined as the type with the highest second recognition rate, and the selection is performed. Since an object determined to be the same type as the target object is selected by being associated with a threshold that can be set by the user, the user can select a learning model specialized for the selected target object even when the target object is changed. Therefore, it is possible to easily change the selection object.

本発明の第4の側面に係る選別装置は、さらに、前記第一の認識率に対して所望の閾値を設定する閾値設定部と、前記各部に対して、ユーザからの操作を受けて指示を与える操作部と、を備え、前記操作部が、前記データ取得部にデータの取得を指示するデータ取得指示部と、前記学習データ作成部に前記学習データの作成開始を指示する学習データ作成指示部と、前記学習部に前記学習モデルの作成を指示する学習開始指示部と、前記選別対象選択部に前記選別対象物の種類の選択を指示する選別対象選択指示部と、前記閾値設定部に前記閾値の設定を指示する閾値設定指示部と、前記判別部に前記選別対象物の有無及び位置を判断させ、前記選別部に、該判断結果に基づいて前記混合物の中から前記選別対象物を選別させる運転開始指示部と、を有するよう構成できる。前記構成によれば、簡単な操作により、煩雑な設定作業の大半を人工知能に行わせることができるので、ユーザが、専門的な技術や知識が無くとも、選別対象物を選別するための設定を容易に行える。また、ユーザは選別精度を容易に設定・変更できる。   The sorting apparatus according to the fourth aspect of the present invention further includes a threshold setting unit that sets a desired threshold for the first recognition rate, and instructs each unit in response to an operation from a user. A data acquisition instruction unit that instructs the data acquisition unit to acquire data, and a learning data creation instruction unit that instructs the learning data creation unit to start creating the learning data. A learning start instruction unit that instructs the learning unit to create the learning model, a selection target selection instruction unit that instructs the selection of a type of the selection target to the selection target selection unit, and the threshold setting unit A threshold setting instruction unit for instructing the setting of a threshold; and causing the determination unit to determine the presence / absence and position of the selection target, and causing the selection unit to select the selection target from the mixture based on the determination result Start operation instruction When, it can be configured to have. According to the above configuration, since most of complicated setting work can be performed by artificial intelligence by simple operation, the setting for selecting a selection target by the user without specialized technology or knowledge is possible. Can be easily performed. In addition, the user can easily set / change the sorting accuracy.

本発明の第5の側面に係る選別装置は、前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を指示するモード切替指示部を備えることができる。前記構成によれば、ユーザは、学習モードと運転モードという選別装置の動作状況のうち、いずれの動作状況下にあるかを把握しながら、作業を行うことができ、学習モードおける設定作業は、設定に係る指示部が集約されているので誤操作を防ぎやすい。   In the sorting device according to the fifth aspect of the present invention, the operation unit displays at least the data acquisition instruction unit, the learning data creation instruction unit, and the learning start instruction unit, and at least the driving start instruction unit. And a mode switching instruction unit for instructing a mode switching operation including an operation mode for displaying. According to the above-described configuration, the user can perform work while grasping which of the operation states of the selection device, that is, the learning mode and the operation mode, and the setting operation in the learning mode is Since the instruction sections related to the settings are integrated, it is easy to prevent erroneous operations.

本発明の第6の側面に係る選別装置は、前記操作部が、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部、閾値設定指示部及び運転開始指示部を一画面に表示できる。前記構成によれば、学習モード、運転モードというようにモードとして区別されておらず、設定に係る指示部も運転に係る指示部も一画面に表示されるので、学習モードと運転モードとのモードの切り換え操作を不要とできる。   In the selection device according to the sixth aspect of the present invention, the operation unit includes the data acquisition instruction unit, a learning data creation instruction unit, a learning start instruction unit, a selection target selection instruction unit, a threshold setting instruction unit, and an operation start instruction unit. Can be displayed on a single screen. According to the above configuration, the learning mode and the driving mode are not distinguished as modes, and the instruction unit for setting and the instruction unit for driving are displayed on one screen. No switching operation is required.

本発明の第7の側面に係る選別装置は、前記操作部が、タッチパネルであるよう構成できる。前記構成によれば、ユーザが簡単に操作できる。   The sorting device according to the seventh aspect of the present invention can be configured such that the operation unit is a touch panel. According to the said structure, a user can operate easily.

本発明の第8の側面に係る選別装置は、前記データ取得部が可視カメラを備え、前記データ取得部によって取得されるデータが画像データであるよう構成できる。前記構成によれば、データ取得部が可視カメラを備え、データを画像データとして取得できることから、選別対象物を、該選別対象物の形態や位置、大きさ、範囲に基づいて選別できる。なお、例えばデータ取得部が分光器付カメラである場合には、データは分光分布データとして取得できる。   The sorting device according to the eighth aspect of the present invention can be configured such that the data acquisition unit includes a visible camera, and the data acquired by the data acquisition unit is image data. According to the said structure, since a data acquisition part is provided with a visible camera and data can be acquired as image data, a selection target can be selected based on the form, position, size, and range of the selection target. For example, when the data acquisition unit is a spectroscope-equipped camera, the data can be acquired as spectral distribution data.

本発明の第9の側面に係る選別装置は、前記選別部が、前記判断結果に基づいて前記選別対象物に圧縮した空気を当て、前記混合物の中から前記選別対象物を選別できる。   In the sorting device according to the ninth aspect of the present invention, the sorting unit can sort the sorting target from the mixture by applying compressed air to the sorting target based on the determination result.

本発明の第10の側面に係る選別方法は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別方法であって、データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得工程と、学習データ作成指示部からの操作を受けて、前記データ取得工程にて取得した前記種別物体のデータから学習データを作成する学習データ作成工程と、学習開始指示部からの操作を受けて、前記学習データ作成工程にて作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習工程と、選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択工程と、運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する運転工程と、を含むことができる。   A sorting method according to a tenth aspect of the present invention is a sorting method for sorting a sorting target object from a mixture composed of a plurality of types of objects, and receives each operation from the data acquisition instruction unit. From the data acquisition step of acquiring data based on the classification object or the mixture that is the object classified into the object and the operation of the learning data creation instruction unit, from the data of the classification object acquired in the data acquisition step A learning data creation step for creating learning data, and a method for receiving a manipulation from the learning start instruction unit and classifying the mixture by type using the learning data created in the learning data creation step to make a type object. A learning process for learning and creating a learning model in which knowledge and experience obtained by the learning are converted into data and an operation from the selection target selection instruction unit, From the data of the mixture acquired in the data acquisition step based on the learning model created in the learning step in response to the operation from the selection target selection step of selecting the type of the selection target and the operation start instruction unit, Calculate a first recognition rate indicating the probability that each object in the mixture is a selection target selected by the selection target selection unit, and based on the first recognition rate, the presence or absence of the selection target And an operation step of determining the position and selecting the object to be selected from the mixture based on the determination result and a threshold provided for the first recognition rate.

本発明の第11の側面に係る選別方法は、前記運転工程において、前記第一の認識率が前記閾値以上の選別対象物を選別できる。   In the selection method according to the eleventh aspect of the present invention, in the operation step, the selection object having the first recognition rate equal to or higher than the threshold value can be selected.

本発明の第12の側面に係る選別方法は、前記運転工程において、前記学習工程にて作成された学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断できる。   In the selection method according to the twelfth aspect of the present invention, in the operation step, each object in the mixture is obtained from the mixture data acquired in the data acquisition step based on the learning model created in the learning step. Calculates a second recognition rate indicating the probability of being the type object for each type object, specifies the type of each object in the mixture based on the second recognition rate, and the type is the selection The presence / absence and position of the selection object can be determined by regarding the second recognition rate in the case of matching with the type of the object as the first recognition rate.

本発明の第13の側面に係る選別プログラムは、複数種類の物体で構成される混合物の中から選別対象物を選別するための選別プログラムであって、データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得する機能と、学習データ作成指示部からの操作を受けて、前記取得した前記種別物体の撮像データから学習データを作成する機能と、学習開始指示部からの操作を受けて、前記作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する機能と、選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する機能と、運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する機能と、をコンピュータに実現させることができる。   A sorting program according to the thirteenth aspect of the present invention is a sorting program for sorting a sorting target object from a mixture composed of a plurality of types of objects, and receives an operation from the data acquisition instruction unit, Creates learning data from the acquired imaging data of the type object in response to a function of acquiring data based on the type object or the mixture that is classified by type and an operation from the learning data creation instruction unit The learning function and the operation from the learning start instructing unit, learning the method of classifying the mixture into types by using the created learning data, and making the type object, and the knowledge and experience obtained by the learning A function for creating a learning model converted into data, a function for selecting the type of the selection target from the type objects in response to an operation from the selection target selection instruction unit, and an operation start instruction In response to the operation from the unit, based on the created learning model, the probability that each object in the mixture is a selection target selected by the selection target selection unit from the acquired mixture data is indicated. The first recognition rate is calculated, the presence / absence and position of the selection object is determined based on the first recognition rate, and the determination result and the threshold value provided for the first recognition rate are The computer can realize the function of selecting the object to be selected from the mixture.

本発明の第14の側面に係る選別プログラムは、前記第一の認識率が前記閾値以上の選別対象物を選別する機能をコンピュータに実現させることができる。   The selection program according to the fourteenth aspect of the present invention can cause a computer to realize a function of selecting a selection object having the first recognition rate equal to or higher than the threshold value.

本発明の第15の側面に係る選別プログラムは、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断する機能をコンピュータに実現させることができる。   The selection program according to the fifteenth aspect of the present invention shows, based on the created learning model, the probability that each object in the mixture is the type object for each type object from the acquired mixture data. The second recognition rate is calculated when the second recognition rate is calculated, the type of each object in the mixture is specified based on the second recognition rate, and the type matches the type of the selection object Can be realized as the first recognition rate, and the computer can realize a function of determining the presence and position of the selection object.

さらにまた、本発明の第16の側面に係るプログラムを格納したコンピュータで読み取り可能な記録媒体は、前記プログラムを格納したものである。記録媒体には、CD−ROM、CD−R、CD−RWやフレキシブルディスク、磁気テープ、MO、DVD−ROM、DVD−RAM、DVD−R、DVD+R、DVD−RW、DVD+RW、Blu−ray(登録商標)、BD−R、BD−RE、HD DVD(AOD)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、前記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記録媒体にはプログラムを記録可能な機器、例えば前記プログラムがソフトウエアやファームウエア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC)等のハードウエア又はプログラムソフトウエアとハードウエアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。   Furthermore, a computer-readable recording medium storing a program according to the sixteenth aspect of the present invention stores the program. CD-ROM, CD-R, CD-RW, flexible disk, magnetic tape, MO, DVD-ROM, DVD-RAM, DVD-R, DVD + R, DVD-RW, DVD + RW, Blu-ray (registered) Trademark), BD-R, BD-RE, HD DVD (AOD), and other magnetic disks, optical disks, magneto-optical disks, semiconductor memories, and other media that can store programs. The program includes not only a program stored in the recording medium and distributed but also a program distributed by download through a network line such as the Internet. Further, the recording medium includes a device capable of recording a program, for example, a general purpose or dedicated device in which the program is implemented in a state where it can be executed in the form of software, firmware, or the like. Furthermore, each process and function included in the program may be executed by program software that can be executed by a computer, or each part of the process and function may be performed with hardware such as a predetermined gate array (FPGA, ASIC) or program software. You may implement | achieve in the format with which the partial hardware module which implement | achieves the one part element of hardware is mixed.

本発明の実施の形態に係る選別装置の概略図である。It is a schematic diagram of a sorting device concerning an embodiment of the invention. 本発明の実施の形態に係るラインセンサカメラとコンベアとの位置関係の説明図である。It is explanatory drawing of the positional relationship of the line sensor camera which concerns on embodiment of this invention, and a conveyor. 本発明の実施の形態に係るラインセンサカメラで作成する画像データの説明図である。It is explanatory drawing of the image data produced with the line sensor camera which concerns on embodiment of this invention. 画像データから物体が写る部分を抽出し、抽出画像データを作成する方法の説明図である。It is explanatory drawing of the method of extracting the part which an object is imaged from image data, and producing extraction image data. 画像データから物体が写る部分を抽出し、抽出画像データを作成する方法の説明図である。It is explanatory drawing of the method of extracting the part which an object is imaged from image data, and producing extraction image data. 人工的な混合物の画像データを作成する方法の説明図である。It is explanatory drawing of the method of producing the image data of an artificial mixture. 噴射領域及びエアー噴射ノズルごとの噴射タイミングを設定する方法の説明図である。It is explanatory drawing of the method of setting the injection timing for every injection area | region and an air injection nozzle. 本発明の実施の形態に係る選別装置の機能ブロック図である。It is a functional block diagram of the sorting device concerning an embodiment of the invention. 学習モードにおける選別装置の操作方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the operating method of the selection apparatus in learning mode. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. 運転モードにおける選別装置の操作方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the operation method of the sorting device in an operation mode. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller. コントローラに表示される画面の説明図である。It is explanatory drawing of the screen displayed on a controller.

以下、本発明の実施の形態を図面に基づいて説明する。ただし、以下に示す実施の形態は、本発明の技術思想を具体化するための選別装置を例示するものであって、本発明はそれらを以下のものに特定しない。また、本明細書は特許請求の範囲に示される部材を、実施の形態の部材に特定するものでは決してない。特に実施の形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。
(選別装置1)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the embodiment described below exemplifies a sorting device for embodying the technical idea of the present invention, and the present invention does not specify them as the following. Further, the present specification by no means specifies the members shown in the claims to the members of the embodiments. In particular, the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in the embodiments are not intended to limit the scope of the present invention unless otherwise specified, and are merely explanations. It's just an example. Note that the size, positional relationship, and the like of the members shown in each drawing may be exaggerated for clarity of explanation. Furthermore, in the following description, the same name and symbol indicate the same or the same members, and detailed description thereof will be omitted as appropriate. Furthermore, each element constituting the present invention may be configured such that a plurality of elements are constituted by the same member and the plurality of elements are shared by one member, and conversely, the function of one member is constituted by a plurality of members. It can also be realized by sharing.
(Sorting device 1)

本発明の実施の形態に係る選別装置1について、概略図である図1、機能ブロック図である図8、及びラインセンサカメラ11とコンベア13との位置関係の説明図である図2に基づいて説明する。   Based on FIG. 1 which is a schematic diagram, FIG. 8 which is a functional block diagram, and FIG. 2 which is an explanatory diagram of a positional relationship between the line sensor camera 11 and the conveyor 13 for the sorting device 1 according to the embodiment of the present invention. explain.

図1に示すように、本実施の形態に係る選別装置1は、供給装置2から供給され、コンベア13に流れる複数種類の物体で構成される混合物MOの中から選別対象物SOを、圧縮空気を放つエアー噴射ノズル14を用いて選別する装置であって、主として、ラインセンサカメラ11(特許請求の範囲における「データ取得部」の一例に対応する。)、第一制御部12、コントローラ15(特許請求の範囲における「操作部」の一例に対応する。)、コンベア13及びエアー噴射ノズル14とで構成される。供給装置2は、例えば、投入ホッパー21と移送コンベア22と投入フィーダー23とからなる。投入ホッパー21は、混合物MOを受け入れ可能に構成されている。移送コンベア22は、投入ホッパー21から供給される混合物MOを投入フィーダー23に供給する。投入フィーダー23は、振動フィーダー又は電磁フィーダー等で構成されており、振動することによって、混合物MO同士の重畳を防止しながら混合物MOをコンベア13に供給する。   As shown in FIG. 1, the sorting device 1 according to the present embodiment converts a sorting object SO from a mixture MO composed of a plurality of types of objects supplied from a feeding device 2 and flowing to a conveyor 13 into compressed air. Is a device that sorts using the air injection nozzle 14 that emits the light, and mainly includes the line sensor camera 11 (corresponding to an example of “data acquisition unit” in the claims), a first control unit 12, a controller 15 ( This corresponds to an example of the “operation unit” in the claims.), The conveyor 13 and the air injection nozzle 14. The supply device 2 includes, for example, a charging hopper 21, a transfer conveyor 22, and a charging feeder 23. The charging hopper 21 is configured to receive the mixture MO. The transfer conveyor 22 supplies the mixture MO supplied from the input hopper 21 to the input feeder 23. The input feeder 23 is configured by a vibration feeder, an electromagnetic feeder, or the like, and supplies the mixture MO to the conveyor 13 while preventing the mixture MOs from overlapping with each other by vibrating.

選別装置1は、学習モードLM及び運転モードOMの2つのモードを備えている。学習モードLMは、選別装置1を動作させるための準備、設定を行うモードである。一方、運転モードOMは、実際に混合物MOから選別対象物SOを選別するモードである。   The sorting device 1 has two modes, a learning mode LM and an operation mode OM. The learning mode LM is a mode for performing preparation and setting for operating the sorting device 1. On the other hand, the operation mode OM is a mode for actually sorting the sorting object SO from the mixture MO.

混合物MOは、金属や紙、プラスチック等、ラインセンサカメラ11によって取得した画像データから個々の物体を識別可能であって、エアー噴射ノズル14によるエアーの噴射によって進路を変更できる複数種類の物体で構成されている。混合物MOに含まれる物体の種類としては、例えば、金属や紙、プラスチック等が想定されるが、例えば金属という大きな括りに限定されず、より下層に分類される銅やアルミ等、色彩と形状から識別できるものは全て対象となり得る。また、本実施の形態に係る選別装置1は、例えば、アルミ、真鍮、金、銀、銅というように一度に5種類まで物体を識別できるようになっており、そのような物体で構成された混合物MOの中から、選別対象物SOとして、例えば銅のみというように一種類を選別することもできるし、例えばアルミ・真鍮・金というように同時に複数の種類を選別することもできるように構成されている。   The mixture MO is composed of a plurality of types of objects, such as metal, paper, plastic, etc., that can identify individual objects from the image data acquired by the line sensor camera 11 and can change the course by air injection from the air injection nozzle 14. Has been. As the types of objects included in the mixture MO, for example, metal, paper, plastic, and the like are assumed, but for example, it is not limited to a large bundle such as metal, but from colors and shapes, such as copper and aluminum classified into lower layers. Anything that can be identified can be targeted. In addition, the sorting device 1 according to the present embodiment can identify up to five types of objects at a time, such as aluminum, brass, gold, silver, and copper, and is configured with such objects. From the mixture MO, it is possible to select one kind of sorting object SO, for example, only copper, or to sort several kinds at the same time, for example, aluminum, brass, and gold. Has been.

以下、各部材について詳細に説明する。なお、以下の説明において、便宜上、混合物MOは物体A〜C(特許請求の範囲における「種別物体」の一例に対応する。)で構成され、選別対象物SOとして物体Aを選択したものとする。
(ラインセンサカメラ11)
Hereinafter, each member will be described in detail. In the following description, for the sake of convenience, it is assumed that the mixture MO is composed of objects A to C (corresponding to an example of “type object” in the claims), and the object A is selected as the selection object SO. .
(Line sensor camera 11)

選別装置1は、図2に示すように、2つのラインセンサカメラ11がコンベア13の幅方向に並べて設けられている。ラインセンサカメラ11は、コンベア13のエンコーダ131からパルスを受ける度に撮像を行い、この撮像結果から画像データIDを取得する部材である。   As shown in FIG. 2, the sorting device 1 includes two line sensor cameras 11 arranged in the width direction of the conveyor 13. The line sensor camera 11 is a member that captures an image every time a pulse is received from the encoder 131 of the conveyor 13 and acquires an image data ID from the imaged result.

ラインセンサカメラ11のX方向はコンベア13の幅方向、Y方向はコンベア13の進行方向に対応しており、図2に示すように、1つのラインセンサカメラ11で、所定のX方向撮像範囲11aを撮像できる。このX方向範囲11aから、コンベア13両端の除外範囲11bとコンベア13中央の除外範囲11cとを除いたX方向有効範囲11dを2つ足し合わせたX方向範囲11eを、図3に示すように、Y方向に所定のY方向範囲11fで抜き出して画像データIDを作成する。作成された画像データIDのうち、Y方向の一端から所望の重複範囲11gは、直前に作成された画像データIDと重複する範囲である。   The X direction of the line sensor camera 11 corresponds to the width direction of the conveyor 13, and the Y direction corresponds to the traveling direction of the conveyor 13. As shown in FIG. 2, a predetermined X direction imaging range 11 a can be obtained with one line sensor camera 11. Can be imaged. As shown in FIG. 3, an X-direction range 11e obtained by adding two X-direction effective ranges 11d excluding the exclusion range 11b at both ends of the conveyor 13 and the exclusion range 11c at the center of the conveyor 13 from the X-direction range 11a An image data ID is created by extracting in the Y direction within a predetermined Y direction range 11f. Among the created image data IDs, a desired overlapping range 11g from one end in the Y direction is a range overlapping with the image data ID created immediately before.

学習モードにおけるラインセンサカメラ11は、混合物MOに含まれる物体を、物体ごとに撮像し、各物体の画像データIDを作成する。具体的には、複数の物体Aがコンベア13に流された状態で撮像を行い、物体Aの画像データIDを作成する。物体B、Cも同様にして、物体B、Cの画像データIDを作成する。作成された各物体の画像データIDは、撮像された物体の名称と関連付けられた状態で記憶部121に送信される。また、物体をコンベア13に流していない状態で撮像を行い、背景画像BIを作成し、図8に示す記憶部121に送信する。   The line sensor camera 11 in the learning mode captures an object included in the mixture MO for each object, and creates an image data ID of each object. Specifically, imaging is performed in a state where a plurality of objects A are flowed on the conveyor 13, and an image data ID of the object A is created. Similarly, the image data IDs of the objects B and C are created for the objects B and C. The created image data ID of each object is transmitted to the storage unit 121 in a state associated with the name of the imaged object. Further, imaging is performed in a state where no object is flowing on the conveyor 13, a background image BI is created, and transmitted to the storage unit 121 shown in FIG.

また、運転モードOMにおけるラインセンサカメラ11は、混合物MOがコンベア13に流された状態で撮像を行い、混合物MOの画像データIDを作成する。作成された混合物MOの画像データIDは、判断部125に送信される。   In addition, the line sensor camera 11 in the operation mode OM captures an image with the mixture MO flowing on the conveyor 13, and creates an image data ID of the mixture MO. The created image data ID of the mixture MO is transmitted to the determination unit 125.

なお、特許請求の範囲における「データ取得部」の一例としてラインセンサカメラ11を説明したが、「データ取得部」はこれに限定されず、エリアセンサカメラであってもよいし、可視光、赤外線、X線のいずれを用いたものであってもよい。X線を用いた場合、X線光源をコンベアで搬送される物体の上部、X線カメラをコンベアのベルトの下部に配置することができるし、その逆の配置も可能である。また、作成された各物体の画像データIDは、物体の名称以外にも、後述する選別対象選択部124において、選別対象物SOを選択する際にユーザが物体の種類が何であるか分かる情報と関連付けられていればよい。また、背景画像BIは必ずしもラインセンサカメラ11で撮像、作成する必要はなく、選別装置1の製造段階で、別途用意された背景画像BIを記憶部121に保存しておいてもよい。
(第一制御部12)
The line sensor camera 11 has been described as an example of the “data acquisition unit” in the claims. However, the “data acquisition unit” is not limited to this, and may be an area sensor camera, visible light, infrared light, or the like. , X-rays may be used. When X-rays are used, the X-ray light source can be arranged above the object conveyed by the conveyor, the X-ray camera can be arranged below the conveyor belt, and vice versa. In addition to the name of the object, the created image data ID of the object includes information that allows the user to know what kind of object the user selects when selecting the selection target SO in the selection target selection unit 124 described later. It only has to be associated. The background image BI is not necessarily captured and created by the line sensor camera 11, and the separately prepared background image BI may be stored in the storage unit 121 at the manufacturing stage of the sorting device 1.
(First control unit 12)

第一制御部12は、記憶部121、学習データ作成部122、学習部123、選別対象選択部124、閾値設定部126及び判断部125を備える。第一制御部12は、運転モードOMにおいて、ラインセンサカメラ11で取得した混合物MOの画像データIDから選別対象物SOの有無及び位置を判断する。また、学習モードLMにおいては、該判断のための準備、設定が行われる。以下、各部材について詳細に説明する。
(記憶部121)
The first control unit 12 includes a storage unit 121, a learning data creation unit 122, a learning unit 123, a selection target selection unit 124, a threshold setting unit 126, and a determination unit 125. In the operation mode OM, the first control unit 12 determines the presence and position of the selection target object SO from the image data ID of the mixture MO acquired by the line sensor camera 11. In the learning mode LM, preparation and setting for the determination are performed. Hereinafter, each member will be described in detail.
(Storage unit 121)

記憶部121は、ラインセンサカメラ11で作成された物体A〜Cの画像データID及び画像データIDに関連づけられた物体の名称と、背景画像BIとを保存する部材である。
(学習データ作成部122)
The storage unit 121 is a member that stores the image data ID of the objects A to C created by the line sensor camera 11, the names of the objects associated with the image data ID, and the background image BI.
(Learning data creation unit 122)

学習データ作成部122は、ラインセンサカメラ11にて撮像され、取得された物体A〜Cの画像データIDと背景画像BIから、学習データLDを作成し、保存する。学習データ作成部122は、画像抽出部122a、画像合成部122b及び解答作成部122cの3つの部材で構成される。各部材の構成は後述の通りである。   The learning data creation unit 122 creates and stores learning data LD from the image data ID and background image BI of the objects A to C captured and acquired by the line sensor camera 11. The learning data creation unit 122 includes three members: an image extraction unit 122a, an image composition unit 122b, and an answer creation unit 122c. The configuration of each member is as described later.

作成された学習データLDは学習部123で行う学習に用いられる。1回の学習につき、1つの学習データLDが用いられ、この学習を繰り返す回数が多いほど運転モードOMにおける選別の精度は向上する。すなわち、学習データ作成部122で作成する学習データLDが多いほど、運転モードOMにおける選別の精度は向上する。なお、本発明の第一の実施例に係る選別装置1は、上限を4万回とし、ユーザが学習の繰り返し回数を自由に設定することができる態様である(詳細は後述する。)。
(画像抽出部122a)
The created learning data LD is used for learning performed by the learning unit 123. One learning data LD is used for each learning, and the accuracy of selection in the operation mode OM increases as the number of repetitions of this learning increases. That is, as the learning data LD created by the learning data creation unit 122 increases, the accuracy of selection in the operation mode OM improves. The sorting device 1 according to the first embodiment of the present invention is an aspect in which the upper limit is 40,000 times and the user can freely set the number of repetitions of learning (details will be described later).
(Image extraction unit 122a)

画像抽出部122aは、記憶部121から物体A〜Cの画像データID及び背景画像BIを呼び出し、背景画像BIに基づいて、物体A〜Cの画像データIDから物体が写る部分を抽出し、抽出画像データSDを作成する。例えば、物体Aの画像データIDを抽出する場合、図4に示すように、直前の画像データIDと重複する範囲を除く範囲を1ピクセルごとに背景画像BIと比較する。比較の結果、背景画像BIと一致しない部分を物体Aが写る部分として切り出し、物体Aの抽出画像データSDを作成する。以上の通り、基本的に、直前の画像データIDと重複する範囲を除く範囲で比較を行うが、図5に示すように、物体Aがこの範囲からはみ出る位置にある場合、重複する範囲にまで範囲を広げて比較を行う。同様にして、物体B、Cの画像データIDからも物体B、Cの抽出画像データSDを作成する。   The image extraction unit 122a calls the image data IDs and the background images BI of the objects A to C from the storage unit 121, and extracts and extracts the portion where the object appears from the image data IDs of the objects A to C based on the background image BI. Image data SD is created. For example, when extracting the image data ID of the object A, as shown in FIG. 4, the range excluding the range overlapping with the immediately preceding image data ID is compared with the background image BI for each pixel. As a result of the comparison, a portion that does not match the background image BI is cut out as a portion where the object A appears, and the extracted image data SD of the object A is created. As described above, the comparison is basically performed in the range excluding the range overlapping with the immediately preceding image data ID. However, as shown in FIG. 5, when the object A is located outside the range, the range is overlapped. Widen the comparison. Similarly, the extracted image data SD of the objects B and C is created from the image data IDs of the objects B and C.

なお、厳密に物体が写る部分のみを抽出する必要はなく、背景画像BIが残っていてもよい。
(画像合成部122b)
Note that it is not necessary to extract only a portion where an object is strictly shown, and the background image BI may remain.
(Image composition unit 122b)

画像合成部122bは、図6に示すように、画像抽出部122aで作成された物体A〜Cの抽出画像データSDの中から、ランダムにいくつかのデータを選択し、背景画像BIに、ランダムな位置、角度、サイズで合成して、人工的な混合物MOの画像データIDを作成する。   As shown in FIG. 6, the image composition unit 122b randomly selects some data from the extracted image data SD of the objects A to C created by the image extraction unit 122a, and randomly selects the background image BI. The image data ID of the artificial mixture MO is created by combining the image with the correct position, angle and size.

すなわち、抽出画像データSDの位置、角度、サイズを変更することで、少ない物体A〜Cの画像データIDから、多数の人工的な混合物MOの画像データIDを作成することができる。
(解答作成部122c)
That is, by changing the position, angle, and size of the extracted image data SD, image data IDs of a large number of artificial mixtures MO can be created from the image data IDs of a small number of objects A to C.
(Answer creation unit 122c)

解答作成部122cは、画像合成部122bで作成された人工的な混合物MOの画像データIDのどの位置に物体A〜Cのいずれが配置されているかを記録した情報を人工的な混合物MOの画像データIDに関連付けたデータである学習データLDを作成する。
(学習部123)
The answer creating unit 122c records information indicating which of the objects A to C is arranged in which position of the image data ID of the artificial mixture MO created by the image composition unit 122b as an image of the artificial mixture MO. Learning data LD, which is data associated with the data ID, is created.
(Learning unit 123)

学習部123は、人工知能を有し、学習データ作成部122にて作成された学習データLDを用いて、物体A〜Cを判別する方法を学習し、学習モデルGMを作成する。   The learning unit 123 has artificial intelligence, learns a method of discriminating the objects A to C using the learning data LD created by the learning data creation unit 122, and creates a learning model GM.

具体的には、まず、学習データLD中の人工的な混合物MOの画像データIDに写る各物体が物体Aである確率を算出する。同様に、物体Bである確率及び物体Cである確率を算出する(これらの算出した確率を、以下では認識率RRと称す。また、認識率RRは、特許請求の範囲における「第二の認識率」の一例に対応する。)。次に、各物体を、物体A〜Cの認識率RRのうち最も高かった種類の物体であると予想し、解答作成部122cで関連付けられた情報に基づいて予想が当たっていたか否かを調べる。これを繰り返して得られた知識や経験をデータ化したものである学習モデルGMを作成し、保存する。
(選別対象選択部124)
Specifically, first, the probability that each object shown in the image data ID of the artificial mixture MO in the learning data LD is the object A is calculated. Similarly, the probability of being an object B and the probability of being an object C are calculated (the calculated probabilities are hereinafter referred to as recognition rates RR. The recognition rate RR is defined as “second recognition” in the claims. Corresponds to an example of "rate"). Next, each object is predicted to be the highest type of object among the recognition rates RR of the objects A to C, and it is checked whether or not the prediction has been made based on the information associated with the answer creating unit 122c. . A learning model GM, which is data obtained by repeating knowledge and experience obtained by repeating this, is created and stored.
(Selection target selection unit 124)

選別対象選択部124は、ユーザが物体A〜Cの中から選択した選別対象物SOの情報を学習モデルGMに関連付けたデータであるレシピREを作成し、保存する。運転モードにおいて、ユーザに選択されたレシピREは判断部125に読み出される。   The selection target selection unit 124 creates and stores a recipe RE that is data in which information on the selection target object SO selected by the user from the objects A to C is associated with the learning model GM. In the operation mode, the recipe RE selected by the user is read by the determination unit 125.

以上のとおり、選別装置1は、学習部123には物体A〜Cを判別する方法を学習させ、選別対象物SOがいずれであるかは学習させない態様である。これにより、例えば、選別対象物SOを物体Aから物体Bに変更したい場合であっても、選別対象選択部124にて選別対象物SOとして物体Bを選択するだけでよいので、学習部123に学習をやり直させる必要がない。なお、学習部123に学習させる前に、選別対象物SOを選択する態様としてもよい。
(閾値設定部126)
As described above, the sorting apparatus 1 is a mode in which the learning unit 123 learns the method for discriminating the objects A to C and does not learn which is the sorting object SO. Thus, for example, even when it is desired to change the selection target SO from the object A to the object B, the selection target selection unit 124 only needs to select the object B as the selection target SO. There is no need to redo learning. In addition, it is good also as an aspect which selects the selection target object SO before making the learning part 123 learn.
(Threshold setting unit 126)

閾値設定部126は、選別対象物SOの認識率RRに対して閾値を設定する。設定された閾値の情報は、第二制御部141に送信され、選別対象物SOを選別する際に参照される(詳細は後述する。)。なお、閾値は必ずしも設定しなくてもよい。
(判断部125)
The threshold value setting unit 126 sets a threshold value for the recognition rate RR of the selection object SO. Information on the set threshold value is transmitted to the second control unit 141 and is referred to when sorting the sorting object SO (details will be described later). Note that the threshold does not necessarily have to be set.
(Judgment unit 125)

判断部125は、人工知能を有し、運転モードOMにおいて、選別対象選択部124からレシピREを読み出し、このレシピREに基づいて、ラインセンサカメラ11にて作成され、送信された混合物MOの画像データIDの中から、物体Aの有無を判断し、物体Aがある場合は、そのピクセル単位の位置の情報を第二制御部141に送信する。   The determination unit 125 has artificial intelligence, reads the recipe RE from the selection target selection unit 124 in the operation mode OM, and the image of the mixture MO created and transmitted by the line sensor camera 11 based on the recipe RE. The presence / absence of the object A is determined from the data ID. If the object A is present, information on the position of the pixel unit is transmitted to the second control unit 141.

物体Aの有無の判断は、学習部123と同様に、各物体の物体A〜Cの認識率RRを算出し、物体Aの認識率RRが最も高かった物体を物体Aと判断する。なお、同様に、物体Bの認識率RRが最も高かった物体は物体Bと判断し、物体Cの認識率RRが最も高かった物体は物体Cと判断する。
(コンベア13)
For the determination of the presence or absence of the object A, the recognition rate RR of the objects A to C of each object is calculated, and the object having the highest recognition rate RR of the object A is determined as the object A, as in the learning unit 123. Similarly, the object having the highest recognition rate RR of the object B is determined as the object B, and the object having the highest recognition rate RR of the object C is determined as the object C.
(Conveyor 13)

コンベア13は、ラインセンサカメラ11の撮像範囲を通過し、エアー噴射ノズル14の位置に物体を流して移動させる部材である。コンベア13は、所定の速度で物体を移動させる。また、コンベア13にはエンコーダ131が設けられ、エンコーダ131はコンベア13が所定距離移動する度に、ラインセンサカメラ11、第一制御部12及び第二制御部141にパルスを送信する。ラインセンサカメラ11は、このパルスを受ける度に撮像を行う。すなわち、ラインセンサカメラ11で撮像される画像データIDの1ピクセルは所定距離に相当する。また、第一制御部12及び第二制御部141は、このパルスに基づいて、物体の位置を特定する。
(エアー噴射ノズル14)
The conveyor 13 is a member that passes through the imaging range of the line sensor camera 11 and moves an object to the position of the air injection nozzle 14 to move it. The conveyor 13 moves an object at a predetermined speed. The conveyor 13 is provided with an encoder 131, and the encoder 131 transmits a pulse to the line sensor camera 11, the first controller 12, and the second controller 141 every time the conveyor 13 moves a predetermined distance. The line sensor camera 11 takes an image every time this pulse is received. That is, one pixel of the image data ID captured by the line sensor camera 11 corresponds to a predetermined distance. Moreover, the 1st control part 12 and the 2nd control part 141 pinpoint the position of an object based on this pulse.
(Air injection nozzle 14)

エアー噴射ノズル14は、選別対象物SOの認識率RRが閾値設定部126で設定された閾値以上の選別対象物SOに対して圧縮空気を放ち、選別対象物SOを選別する部材である。選別装置1は、複数のエアー噴射ノズル14が、コンベア13の幅方向の全体に微小間隔で配される。前記構成により、認識率RRとユーザが設定できる閾値とを紐付けて選別対象を判断するので、人工知能を用いながらも、選別精度をユーザがコントロールできるようになり、選別精度に対するユーザのニーズに応じた選別が可能となる。具体的に、閾値を低く設定すれば大まかな分類が可能であり、閾値を高く設定すれば所望の物体だけを高精度に抽出できる。なお、選別する対象は、選別対象物SOの認識率RRが閾値設定部126で設定された閾値以上の選別対象物SOに限定されない。例えば、選別対象物SOの認識率RRが閾値設定部126で設定された閾値より大きい選別対象物SOを選別する態様としてもよい。また、上限と下限の閾値を設定して、その間の認識率RRの選別対象物SOを選別する態様としてもよいし、閾値を設定せず、全ての選別対象物SOを選別する態様としてもよい。さらにまた、選別対象物SO以外に対して圧縮空気を放ち、選別対象物SOを選別する態様としてもよい。   The air injection nozzle 14 is a member that sorts the sorting object SO by releasing compressed air to the sorting object SO whose recognition rate RR of the sorting object SO is equal to or higher than the threshold set by the threshold setting unit 126. In the sorting device 1, a plurality of air injection nozzles 14 are arranged at minute intervals over the entire width of the conveyor 13. With the above configuration, since the selection target is determined by associating the recognition rate RR with a threshold that can be set by the user, the user can control the selection accuracy while using the artificial intelligence, and the user needs for the selection accuracy. Sorting according to this becomes possible. Specifically, if the threshold is set low, rough classification is possible, and if the threshold is set high, only a desired object can be extracted with high accuracy. The objects to be sorted are not limited to the sorting objects SO whose recognition rate RR of the sorting objects SO is equal to or higher than the threshold set by the threshold setting unit 126. For example, a selection object SO having a recognition rate RR of the selection object SO larger than a threshold set by the threshold setting unit 126 may be selected. Moreover, it is good also as an aspect which sets the threshold value of an upper limit and a minimum, and selects the selection target object SO of the recognition rate RR in the meantime, and it is good also as an aspect which selects all the selection target objects SO without setting a threshold value. . Furthermore, it is good also as an aspect which discharge | releases compressed air with respect to other than sorting object SO, and sorts sorting object SO.

また、エアー噴射ノズル14は、第二制御部141から、圧縮空気を噴射するタイミングである噴射タイミングが指示される。具体的に第二制御部は、まず、図7に示すように、判断部125から送信された物体Aの位置情報に基づき、圧縮空気を噴射する噴射領域IRを設定する。次に、エアー噴射ノズル14ごとに噴射領域IRに基づいて噴射タイミングを設定する。噴射タイミングは、コンベア13の進行方向に対して所定の時間間隔で設けられる。すなわち、図7に示す混合物MOの画像データIDを例として考えると、画像データIDの上端部がエアー噴射ノズル14の位置に到達した時間T0を基準に、d〜h列のエアー噴射ノズル14に対して、エアー噴射ノズル14が噴射領域IRを通過するタイミングで圧縮空気を噴射するよう指示する。   In addition, the air injection nozzle 14 is instructed by the second control unit 141 to be an injection timing that is a timing at which compressed air is injected. Specifically, as shown in FIG. 7, the second control unit first sets an injection region IR for injecting compressed air based on the position information of the object A transmitted from the determination unit 125. Next, the injection timing is set for each air injection nozzle 14 based on the injection region IR. The injection timing is provided at predetermined time intervals with respect to the traveling direction of the conveyor 13. That is, when the image data ID of the mixture MO shown in FIG. 7 is taken as an example, the air injection nozzles 14 in the rows d to h are used as a reference based on the time T0 when the upper end of the image data ID reaches the position of the air injection nozzle 14. On the other hand, the air injection nozzle 14 is instructed to inject compressed air at a timing when it passes through the injection region IR.

エアー噴射ノズル14で圧縮空気を噴射された物体Aは、コンベア13の下部に配置され、選別される材質の種類毎に設けられた回収ホッパー3のホッパー31によって回収される。エア噴射ノズル14で圧縮空気が噴射されない物体B、物体Cは、ホッパー32によって回収される。
(コントローラ15)
The object A sprayed with the compressed air by the air spray nozzle 14 is collected by the hopper 31 of the collection hopper 3 that is disposed at the lower part of the conveyor 13 and provided for each type of material to be selected. The objects B and C to which compressed air is not injected by the air injection nozzle 14 are collected by the hopper 32.
(Controller 15)

コントローラ15は、タッチパネル式のコントローラであって、ユーザは、コントローラ15を用いることで、選別装置1を容易に操作することができる。コントローラ15は、モード切替ボタン15a(特許請求の範囲における「モード切替指示部」の一例に対応する。)、撮像ボタン15b(特許請求の範囲における「データ取得指示部」の一例に対応する。)、学習データ作成ボタン15c(特許請求の範囲における「学習データ作成指示部」の一例に対応する。)、学習開始ボタン15d(特許請求の範囲における「学習開始指示部」の一例に対応する。)、選別対象選択ボタン15e(特許請求の範囲における「選別対象選択指示部」の一例に対応する。)、閾値設定ボタン15h(特許請求の範囲における「閾値設定部」の一例に対応する。)、運転開始ボタン15f(特許請求の範囲における「運転開始指示部」の一例に対応する。)及び運転終了ボタン15gを備える。
(選別装置1の操作方法)
The controller 15 is a touch panel controller, and the user can easily operate the sorting device 1 by using the controller 15. The controller 15 is a mode switching button 15a (corresponding to an example of a “mode switching instruction unit” in claims), and an imaging button 15b (corresponding to an example of a “data acquisition instruction unit” in claims). Learning data creation button 15c (corresponds to an example of “learning data creation instruction unit” in claims), learning start button 15d (corresponds to an example of “learning start instruction unit” in claims) , A selection target selection button 15e (corresponding to an example of “selection target selection instruction unit” in claims), a threshold setting button 15h (corresponding to an example of “threshold setting unit” in claims), An operation start button 15f (corresponding to an example of “operation start instruction unit” in the claims) and an operation end button 15g are provided.
(Operation method of the sorting apparatus 1)

以下でコントローラ15を用いて選別装置1を操作する方法について説明する。
(学習モードLMにおける操作方法)
Hereinafter, a method of operating the sorting device 1 using the controller 15 will be described.
(Operation method in learning mode LM)

学習モードLMにおける、選別装置1の操作方法について図8の機能ブロック図、図9のフローチャート及び図10〜図17のコントローラ15に表示される画面の説明図に基づき説明する。   The operation method of the sorting apparatus 1 in the learning mode LM will be described based on the functional block diagram of FIG. 8, the flowchart of FIG. 9, and the explanatory diagrams of the screens displayed on the controller 15 of FIGS.

まず、ステップST101でモード切替ボタン15aを用いて、選別装置1を学習モードLMに切り替える。選別装置1を起動した際、コントローラ15には図10に示す画面が表示されるので、学習モードボタン151aを押下することで選別装置1を学習モードLMに切り替えられ、コントローラ15に図11に示す画面が表示される。   First, in step ST101, the selection device 1 is switched to the learning mode LM using the mode switching button 15a. When the sorting device 1 is activated, the screen shown in FIG. 10 is displayed on the controller 15, so that the sorting device 1 can be switched to the learning mode LM by pressing the learning mode button 151a, and the controller 15 shows the screen shown in FIG. A screen is displayed.

次に、ステップST102でラインセンサカメラ11に物体A〜Cの画像データID及び背景画像BIを作成させる。ユーザは、複数の物体Aをコンベアに流し、図11に示される画面における撮像ボタン15bを押下するとラインセンサカメラ11は撮像を開始し、物体Aの画像データIDを作成する。物体Aの画像データIDの取得が完了すると、コントローラ15には、図12に示す画面が表示されるので、ユーザは名称入力部151bに物体Aの名称を入力し、記憶部121に保存する。物体Aの保存が完了すると、コントローラ15には再度図11の画面が表示されるので、ユーザは、同様の手順で、物体B、C及び背景画像BIの撮影を行う。   Next, in step ST102, the line sensor camera 11 is caused to create image data IDs and background images BI of the objects A to C. When the user flows a plurality of objects A onto the conveyor and presses the imaging button 15b on the screen shown in FIG. 11, the line sensor camera 11 starts imaging and creates an image data ID of the object A. When the acquisition of the image data ID of the object A is completed, the screen shown in FIG. 12 is displayed on the controller 15, and the user inputs the name of the object A to the name input unit 151 b and stores it in the storage unit 121. When the storage of the object A is completed, the screen of FIG. 11 is displayed again on the controller 15, so that the user captures the objects B and C and the background image BI in the same procedure.

次いで、ステップST103で学習データ作成部に学習データLDを作成させる。ユーザが、図11に示される画面における学習データ作成ボタン15cを押下すると、コントローラ15には図13に示す画面が表示される。ユーザは、物体選択ボタン151cを押下することで図14に示すように表示される記憶部121に保存された物体の名称の一覧から、学習データLDの作成に用いる物体(本説明の場合は「物体A」、「物体B」、「物体C」)を選択する。選択を完了すると、コントローラ15には再度、図13に示す画面が表示されるので、データ数入力部152cに作成する学習データLDの数を入力する。入力が完了すると、コントローラ15には図15に示すように、ユーザに学習データLDの作成が完了するまでの予想時間を示す待機画面が表示される。学習データLDの作成が完了すると、コントローラ15には図11に示す画面が表示される。   Next, in step ST103, the learning data creation unit is caused to create learning data LD. When the user presses the learning data creation button 15 c on the screen shown in FIG. 11, the screen shown in FIG. 13 is displayed on the controller 15. When the user presses the object selection button 151c, an object (in the case of this description, “ Object A "," Object B "," Object C "). When the selection is completed, the screen shown in FIG. 13 is displayed again on the controller 15, and the number of learning data LD to be created is input to the data number input unit 152c. When the input is completed, as shown in FIG. 15, the controller 15 displays a standby screen indicating the expected time until the creation of the learning data LD is completed for the user. When the creation of the learning data LD is completed, the controller 15 displays a screen shown in FIG.

最後に、ステップST104で学習部123に学習データLDを用いて学習させ、学習モデルGMを作成させる。ユーザが、図11に示される画面における学習開始ボタン15dを押下すると、コントローラ15には図16に示す画面が表示される。ユーザは、図16に示すように表示される学習データ作成部122に保存された学習データLDの一覧(学習データLDの作成に用いられた物体の名称が表示される。)から、学習部123の学習に用いる学習データLD(本説明の場合は「物体A、物体B、物体C」)を選択する。選択を完了すると、コントローラ15には図17に示すように、ユーザに学習モデルGMの作成が完了するまでの予想時間を示す待機画面が表示される。学習モデルGMの作成が完了すると、コントローラ15には図11に示す画面が表示される。
(運転モードOMにおける操作方法)
Finally, in step ST104, the learning unit 123 is trained using the learning data LD to create a learning model GM. When the user presses the learning start button 15 d on the screen shown in FIG. 11, the screen shown in FIG. 16 is displayed on the controller 15. The user learns from the list of learning data LD stored in the learning data creation unit 122 displayed as shown in FIG. 16 (the name of the object used to create the learning data LD is displayed). Learning data LD (in the case of this description, “object A, object B, object C”) is selected. When the selection is completed, as shown in FIG. 17, the controller 15 displays a standby screen indicating the expected time until the creation of the learning model GM is completed. When the creation of the learning model GM is completed, the controller 15 displays a screen shown in FIG.
(Operation method in operation mode OM)

運転モードOMにおける、選別装置1の操作方法について図8の機能ブロック図、図18のフローチャート及び図19〜図21のコントローラ15に表示される画面の説明図に基づき説明する。   The operation method of the sorting apparatus 1 in the operation mode OM will be described based on the functional block diagram of FIG. 8, the flowchart of FIG. 18, and the explanatory diagrams of the screens displayed on the controller 15 of FIGS. 19 to 21.

まず、ステップST201でモード切替ボタン15aを用いて、選別装置1を運転モードOMに切り替える。選別装置1を起動した際、コントローラ15には図10に示す画面が表示されるので、運転モードボタン152aを押下することで選別装置1は運転モードOMに切り替えられ、コントローラ15に図19に示す画面が表示される。   First, in step ST201, the sorting device 1 is switched to the operation mode OM using the mode switching button 15a. Since the screen shown in FIG. 10 is displayed on the controller 15 when the sorting device 1 is activated, the sorting device 1 is switched to the operation mode OM by pressing the operation mode button 152a, and the controller 15 shows the screen shown in FIG. A screen is displayed.

次に、ステップST202で選別対象物SOに物体Aを選択し、選別対象選択部124にレシピREを作成させる。ユーザが、図19に示される画面における選別対象選択ボタン15eを押下すると、コントローラ15には図20に示す画面が表示される。ユーザは、図20に示すように表示される学習部123に保存された学習モデルGMの一覧(学習モデルGMの作成に用いられた物体の名称が表示される。)から、判別に用いる学習モデルGM(この実施例の場合は「物体A、物体B、物体C」)を選択する。選択を完了すると、コントローラ15には図21に示す画面が表示される。ユーザは、図21に示すように表示される選択した学習モデルGMの作成に用いられた物体の一覧から、選別対象物SO(本説明の場合は「物体A」)を選択する。選択を完了すると、選別対象選択部124はレシピREを作成し、コントローラ15には図19に示す画面が表示される。   Next, in step ST202, the object A is selected as the sorting object SO, and the sorting target selecting unit 124 is caused to create a recipe RE. When the user presses the selection target selection button 15e on the screen shown in FIG. 19, the controller 15 displays the screen shown in FIG. The user uses a learning model used for discrimination from a list of learning models GM stored in the learning unit 123 displayed as shown in FIG. 20 (the names of objects used to create the learning model GM are displayed). GM ("Object A, Object B, Object C" in this embodiment) is selected. When the selection is completed, the controller 15 displays a screen shown in FIG. The user selects the sorting object SO (“object A” in this description) from the list of objects used to create the selected learning model GM displayed as shown in FIG. When the selection is completed, the selection target selection unit 124 creates a recipe RE, and the controller 15 displays a screen shown in FIG.

次いで、ステップST203で選別対象物SOの認識率RRに対して閾値を設定させる。ユーザが、図19に示される画面における閾値設定ボタン15hを押下すると、コントローラ15には図22に示す画面が表示されるので、閾値入力部151hに所望の閾値を入力する。入力が完了すると、閾値設定部126は、閾値の情報を第二制御部141に送信し、コントローラ15には図19に示す画面が表示される。なお、閾値入力部151hに所望の閾値を入力しなかった場合は、閾値を設定しなかったものと判断して、全ての選別対象物SOを選別する。   Next, in step ST203, a threshold is set for the recognition rate RR of the selection object SO. When the user presses the threshold setting button 15h on the screen shown in FIG. 19, the screen shown in FIG. 22 is displayed on the controller 15, and a desired threshold is input to the threshold input unit 151h. When the input is completed, the threshold value setting unit 126 transmits threshold value information to the second control unit 141, and the controller 15 displays the screen shown in FIG. When a desired threshold value is not input to the threshold value input unit 151h, it is determined that no threshold value has been set, and all the selection objects SO are selected.

次いで、ステップST204で物体Aを選別させる。ユーザは、混合物MOをコンベアに流し、図19に示される画面における運転開始ボタン15fを押下すると、ラインセンサカメラ11は撮像を開始し、判断部125は物体Aの有無及び物体Aのピクセル単位の位置を判断し、この判断に基づいて、エアー噴射ノズル14は物体Aを選別する。   Next, the object A is selected in step ST204. When the user flows the mixture MO on the conveyor and presses the operation start button 15f on the screen shown in FIG. 19, the line sensor camera 11 starts imaging, and the determination unit 125 determines whether the object A is present and whether the object A is in pixel units. The position is determined, and the air injection nozzle 14 selects the object A based on this determination.

最後に、ステップST205で、運転終了ボタン15gを押下し、選別を終了させる。   Finally, in step ST205, the operation end button 15g is pressed to finish the selection.

なお、コントローラ15の態様や、画面の表示は前述のものに限定されず、ユーザが選別装置1を容易に操作できるよう適宜変更してよい。例えば、押しボタンを用いたコントローラ15であってもよく、この場合、モード切替ボタン15aは不要である。また、モード切替ボタン15aを設けず、一画面にすべてのボタンを表示する態様としてもよい。また、コントローラ15に、ユーザに対して次の操作を指示する表示をしてもよい。   Note that the aspect of the controller 15 and the screen display are not limited to those described above, and may be changed as appropriate so that the user can easily operate the sorting device 1. For example, the controller 15 using a push button may be used, and in this case, the mode switching button 15a is unnecessary. Moreover, it is good also as an aspect which displays all the buttons on one screen, without providing the mode switching button 15a. Further, the controller 15 may be displayed to instruct the user to perform the next operation.

また、前述した実施の形態では、各々のボタンにそれぞれ別々の機能を持たせているが、各々の機能が連動したり、所定のボタンが種々の機能を兼用するようにしてもよい。例えば、学習データ作成ボタン15cを押下することによって、学習データLDを作成するとともに、該学習データに基づいて学習モデルGMを作成するようにしてもよい。また、例えば、運転開始ボタン15fが運転終了を指示する機能を兼ねており、一回目の運転開始ボタン15fの押下で運転が開始し、二回目の押下で運転が終了するようにしてもよい。また、前述した実施の形態では、物体Aを選別対象にして説明しているが、複数の物体を選別対象とし、それに応じてエアー噴射ノズルやホッパーを複数個設けるようにしても良い。   In the above-described embodiment, each button has a separate function. However, each function may be linked, or a predetermined button may have various functions. For example, the learning data LD may be created by pressing the learning data creation button 15c, and the learning model GM may be created based on the learning data. Further, for example, the operation start button 15f may also have a function of instructing the end of operation, and the operation may be started by pressing the first operation start button 15f, and the operation may be ended by pressing the second time. In the above-described embodiment, the object A is described as the selection target. However, a plurality of objects may be selected as the selection target, and a plurality of air injection nozzles and hoppers may be provided in accordance with the selection.

以上説明したように、本発明を適用した選別装置1は、人工知能を用いて混合物MOの撮像データから選別対象物SOの有無及び位置を判断することができるため、物体を選別する基準やアルゴリズムの設定が不要であることに加え、混合物の各物体が選別対象物である確率を示す認識率を人工知能に算出させ、該認識率とユーザが設定できる閾値とを紐付けて選別対象を判断するので、選別精度をユーザがコントロールできるようになる。   As described above, the sorting apparatus 1 to which the present invention is applied can determine the presence and position and the position of the sorting object SO from the imaging data of the mixture MO using artificial intelligence. In addition, the recognition rate indicating the probability that each object of the mixture is a selection target is calculated by the artificial intelligence, and the selection target is determined by associating the recognition rate with a threshold that can be set by the user. As a result, the user can control the sorting accuracy.

また、コントローラ15に表示される各種ボタンを用いて、閾値を設定する工程を含め、容易に操作することができる。したがって、本発明によれば、簡単な操作により、煩雑な設定作業の大半を人工知能に行わせることができるので、ユーザが、専門的な技術や知識が無くとも、選別対象物SOを選別するための設定を容易に行える。   Moreover, it can operate easily including the process of setting a threshold value using the various buttons displayed on the controller 15. Therefore, according to the present invention, since most of complicated setting work can be performed by artificial intelligence by a simple operation, the user sorts the sorting object SO without any specialized technique or knowledge. Can be set easily.

本発明に係る選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体は、物体を2以上の種類に選別する用途に適用できる。   The sorting apparatus, sorting method, sorting program, and computer-readable recording medium according to the present invention can be applied to applications for sorting objects into two or more types.

1…選別装置
11…ラインセンサカメラ
11a…X方向撮像範囲;11b、11c…除外範囲;11d…X方向有効範囲;11e…X方向範囲;11f…Y方向範囲;11g…重複範囲
12…第一制御部
121…記憶部
122…学習データ作成部;122a…画像抽出部;122b…画像合成部;122c…解答作成部
123…学習部
124…種類選択部
126…閾値設定部
125…判断部
13…コンベア
131…エンコーダ
14…エアー噴射ノズル
141…第二制御部
15…コントローラ
15a…モード切替ボタン;151a…学習モードボタン;152a…運転モードボタン
15b…撮像ボタン;151b…名称入力部
15c…学習データ作成ボタン;151c…物体選択ボタン;152c…データ数入力部
15d…学習開始ボタン
15e…選別対象選択ボタン
15h…閾値設定ボタン;151h…閾値入力部
15f…運転開始ボタン
15g…運転終了ボタン
2…供給装置
21…投入ホッパー;22…移送コンベア;23…投入フィーダー
3…回収ホッパー
31、32…ホッパー
MO…混合物
SO…選別対象物
ID…画像データ
LD…学習データ
SD…抽出画像データ
BI…背景画像
GM…学習モデル
RE…レシピ
RR…認識率
IR…噴射領域
LM…学習モード
OM…運転モード
DESCRIPTION OF SYMBOLS 1 ... Sorting device 11 ... Line sensor camera 11a ... X direction imaging range; 11b, 11c ... Exclusion range; 11d ... X direction effective range; 11e ... X direction range; 11f ... Y direction range; Control unit 121 ... storage unit 122 ... learning data creation unit; 122a ... image extraction unit; 122b ... image composition unit; 122c ... answer creation unit 123 ... learning unit 124 ... type selection unit 126 ... threshold setting unit 125 ... determination unit 13 ... Conveyor 131 ... Encoder 14 ... Air injection nozzle 141 ... Second control unit 15 ... Controller 15a ... Mode switching button; 151a ... Learning mode button; 152a ... Operation mode button 15b ... Imaging button; 151b ... Name input unit 15c ... Learning data creation 151c ... Object selection button; 152c ... Number of data input section 15d ... Learning start button 15 Selection target selection button 15h ... Threshold setting button; 151h ... Threshold input unit 15f ... Operation start button 15g ... Operation end button 2 ... Supply device 21 ... Input hopper; 22 ... Transfer conveyor; 23 ... Input feeder 3 ... Collection hopper 31, 32 ... hopper MO ... mixture SO ... selection object ID ... image data LD ... learning data SD ... extracted image data BI ... background image GM ... learning model RE ... recipe RR ... recognition rate IR ... injection region LM ... learning mode OM ... driving mode

Claims (16)

複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置であって、
種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得部と、
前記データ取得部で取得された前記種別物体のデータから学習データを作成する学習データ作成部と、
前記学習データ作成部によって作成された学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習部と、
前記種別物体の中から前記選別対象物の種類を選択する選別対象選択部と、
前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断する判断部と、
前記判断部の判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する選別部と、
を備える選別装置。
A sorting device that sorts a sorting target from a mixture of a plurality of types of objects,
A data acquisition unit that acquires data based on the type object or the mixture that is the object sorted by type; and
A learning data creation unit that creates learning data from the data of the type object acquired by the data acquisition unit;
Learning to classify a mixture by type using the learning data created by the learning data creation unit, learn how to make a type object, and create a learning model that converts the knowledge and experience obtained by the learning into data And
A selection target selection unit for selecting the type of the selection target from the type objects;
Based on the learning model created by the learning unit, from the mixture data acquired by the data acquisition unit, the probability that each object in the mixture is a selection target selected by the selection target selection unit A determination unit that calculates a first recognition rate to indicate, and based on the first recognition rate, determines the presence and position of the selection object;
A sorting unit that sorts the sorting object from the mixture based on a judgment result of the judging unit and a threshold value set for the first recognition rate;
A sorting apparatus comprising:
請求項1に記載の選別装置であって、
前記選別部が、前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別装置。
The sorting device according to claim 1,
The sorting apparatus, wherein the sorting unit sorts a sorting object having the first recognition rate equal to or higher than the threshold value.
請求項1又は請求項2に記載の選別装置であって、
前記判断部は、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別装置。
The sorting apparatus according to claim 1 or 2,
The determination unit determines, based on the learning model created by the learning unit, the probability that each object in the mixture is the type object for each type object from the mixture data acquired by the data acquisition unit. A second recognition rate when the second recognition rate is calculated, the type of each object in the mixture is specified based on the second recognition rate, and the type matches the type of the selection object A sorting apparatus characterized in that a rate is regarded as the first recognition rate, and the presence and position of the sorting object are determined.
請求項1〜3のいずれか一に記載の選別装置であって、さらに、
前記第一の認識率に対して所望の閾値を設定する閾値設定部と、
前記各部に対して、ユーザからの操作を受けて指示を与える操作部と、
を備え、
前記操作部が、
前記データ取得部にデータの取得を指示するデータ取得指示部と、
前記学習データ作成部に前記学習データの作成開始を指示する学習データ作成指示部と、
前記学習部に前記学習モデルの作成を指示する学習開始指示部と、
前記選別対象選択部に前記選別対象物の種類の選択を指示する選別対象選択指示部と、
前記閾値設定部に前記閾値の設定を指示する閾値設定指示部と、
前記判別部に前記選別対象物の有無及び位置を判断させ、前記選別部に、該判断結果に基づいて前記混合物の中から前記選別対象物を選別させる運転開始指示部と、
を有することを特徴とする選別装置。
The sorting apparatus according to any one of claims 1 to 3, further comprising:
A threshold setting unit for setting a desired threshold for the first recognition rate;
An operation unit that gives an instruction in response to an operation from the user with respect to each unit,
With
The operation unit is
A data acquisition instruction unit that instructs the data acquisition unit to acquire data;
A learning data creation instruction unit that instructs the learning data creation unit to start creating the learning data;
A learning start instruction unit that instructs the learning unit to create the learning model;
A selection target selection instruction unit that instructs the selection target selection unit to select the type of the selection target;
A threshold setting instruction unit for instructing the threshold setting unit to set the threshold;
An operation start instruction unit that causes the determination unit to determine the presence and position of the selection target, and causes the selection unit to select the selection target from the mixture based on the determination result;
A sorting apparatus comprising:
請求項4に記載の選別装置であって、
前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を指示するモード切替指示部を備えることを特徴とする選別装置。
The sorting device according to claim 4,
The operation unit instructs a mode switching operation including at least a learning mode for displaying the data acquisition instruction unit, a learning data creation instruction unit, and a learning start instruction unit, and at least an operation mode for displaying the operation start instruction unit. A sorting apparatus comprising a mode switching instruction unit.
請求項4に記載の選別装置であって、
前記操作部が、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部、閾値設定指示部及び運転開始指示部を一画面に表示することを特徴とする選別装置。
The sorting device according to claim 4,
The selection device, wherein the operation unit displays the data acquisition instruction unit, the learning data creation instruction unit, the learning start instruction unit, the selection target selection instruction unit, the threshold setting instruction unit, and the operation start instruction unit on one screen. .
請求項4〜6のいずれか一に記載の選別装置であって、
前記操作部が、タッチパネルであることを特徴とする選別装置。
The sorting device according to any one of claims 4 to 6,
The selection device, wherein the operation unit is a touch panel.
請求項1〜7のいずれか一に記載の選別装置であって、
前記データ取得部が可視カメラを備え、
前記データ取得部によって取得されるデータが画像データであることを特徴とする選別装置。
The sorting device according to any one of claims 1 to 7,
The data acquisition unit includes a visible camera;
The sorting apparatus characterized in that the data acquired by the data acquisition unit is image data.
請求項1〜8のいずれか一に記載の選別装置であって、
前記選別部が、前記判断結果に基づいて前記選別対象物に圧縮した空気を当て、前記混合物の中から前記選別対象物を選別することを特徴とする選別装置。
It is the sorting device according to any one of claims 1 to 8,
The sorting device, wherein the sorting unit sorts the sorting object from the mixture by applying compressed air to the sorting object based on the determination result.
複数種類の物体で構成される混合物の中から選別対象物を選別する選別方法であって、
データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得工程と、
学習データ作成指示部からの操作を受けて、前記データ取得工程にて取得した前記種別物体のデータから学習データを作成する学習データ作成工程と、
学習開始指示部からの操作を受けて、前記学習データ作成工程にて作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習工程と、
選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択工程と、
運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する運転工程と、
を含む選別方法。
A sorting method for sorting a sorting object from a mixture composed of a plurality of types of objects,
In response to an operation from the data acquisition instruction unit, a data acquisition step of acquiring data based on the type object or the mixture that is the object sorted for each type;
In response to an operation from the learning data creation instruction unit, a learning data creation step of creating learning data from the data of the type object acquired in the data acquisition step;
In response to an operation from the learning start instruction unit, the learning data created in the learning data creation step is used to classify the mixture into types and learn how to make a type object, and the knowledge obtained by the learning and A learning process to create a learning model that converts experience into data,
In response to an operation from the selection target selection instruction unit, a selection target selection step of selecting the type of the selection target from the type objects;
In response to an operation from the operation start instruction unit, based on the learning model created in the learning step, each object in the mixture is determined by the selection target selection unit from the mixture data acquired in the data acquisition step. Calculating a first recognition rate indicating the probability of being a selected selection object, determining the presence and position of the selection object based on the first recognition rate, and determining the determination result and the first An operation step of selecting the selection object from the mixture based on a threshold value set for a recognition rate;
Sorting method.
請求項10に記載の選別方法であって、
前記運転工程において、前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別方法。
The screening method according to claim 10,
In the operation step, a sorting method in which the sorting object having the first recognition rate equal to or higher than the threshold is sorted.
請求項10又は請求項11に記載の選別方法であって、
前記運転工程において、前記学習工程にて作成された学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別方法。
The screening method according to claim 10 or claim 11,
In the driving step, based on the learning model created in the learning step, the probability that each object in the mixture is the type object for each type object from the mixture data acquired in the data acquisition step. A second recognition rate when the second recognition rate is calculated, the type of each object in the mixture is specified based on the second recognition rate, and the type matches the type of the selection object A sorting method characterized in that a rate is regarded as the first recognition rate, and the presence / absence and position of the sorting object are determined.
複数種類の物体で構成される混合物の中から選別対象物を選別するための選別プログラムであって、
データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得する機能と、
学習データ作成指示部からの操作を受けて、前記取得した前記種別物体の撮像データから学習データを作成する機能と、
学習開始指示部からの操作を受けて、前記作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する機能と、
選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する機能と、
運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別する機能と、
をコンピュータに実現させる選別プログラム。
A selection program for selecting a selection target from a mixture composed of a plurality of types of objects,
A function of receiving data based on the type object or the mixture, which is the object sorted by type, in response to an operation from the data acquisition instruction unit;
In response to an operation from the learning data creation instruction unit, a function of creating learning data from the acquired imaging data of the type object;
Learning that receives the operation from the learning start instruction unit, classifies the mixture by type using the created learning data, learns the method of making the type object, and converts the knowledge and experience obtained by the learning into data The ability to create models,
In response to an operation from the selection target selection instruction unit, a function of selecting the type of the selection target from the type objects;
In response to an operation from the operation start instruction unit, based on the created learning model, each object in the mixture is a selection target selected by the selection target selection unit from the acquired mixture data. A first recognition rate indicating a probability is calculated, and based on the first recognition rate, the presence / absence and position of the selection object are determined, and a threshold provided for the determination result and the first recognition rate is determined. A function to sort the sorting object from the mixture based on
A selection program that enables computers to realize this.
請求項13に記載の選別プログラムであって、
前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別プログラム。
The screening program according to claim 13,
A selection program for selecting a selection object having the first recognition rate equal to or higher than the threshold.
請求項13又は請求項14に記載の選別プログラムであって、
前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別プログラム。
The screening program according to claim 13 or 14,
Based on the created learning model, the second recognition rate indicating the probability that each object in the mixture is the type object for each type object is calculated from the acquired data of the mixture, and the second Based on the recognition rate, the type of each object in the mixture is specified, and the second recognition rate when the type matches the type of the selection object is regarded as the first recognition rate, and the sorting is performed. A screening program characterized by determining the presence and position of an object.
請求項13〜15のいずれか一に記載のプログラムを記録したコンピュータで読み取り可能な記録媒体又は記憶した機器。   A computer-readable recording medium or a device that stores the program according to any one of claims 13 to 15.
JP2018097254A 2018-04-26 2018-05-21 Sorting equipment, sorting methods and programs, and computer-readable recording media Active JP6987698B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018097254A JP6987698B2 (en) 2018-05-21 2018-05-21 Sorting equipment, sorting methods and programs, and computer-readable recording media
KR1020207018659A KR20210002444A (en) 2018-04-26 2019-04-26 Sorting device, sorting method and sorting program, and computer-readable recording medium or storage device
PCT/JP2019/017853 WO2019208754A1 (en) 2018-04-26 2019-04-26 Sorting device, sorting method and sorting program, and computer-readable recording medium or storage apparatus
CN201980015704.7A CN111819598B (en) 2018-04-26 2019-04-26 Sorting apparatus, sorting method, sorting program, and computer-readable recording medium or storage device
JP2021195070A JP2022036094A (en) 2018-05-21 2021-12-01 Selection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018097254A JP6987698B2 (en) 2018-05-21 2018-05-21 Sorting equipment, sorting methods and programs, and computer-readable recording media

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021195070A Division JP2022036094A (en) 2018-05-21 2021-12-01 Selection device

Publications (2)

Publication Number Publication Date
JP2019204168A true JP2019204168A (en) 2019-11-28
JP6987698B2 JP6987698B2 (en) 2022-01-05

Family

ID=68726934

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018097254A Active JP6987698B2 (en) 2018-04-26 2018-05-21 Sorting equipment, sorting methods and programs, and computer-readable recording media
JP2021195070A Pending JP2022036094A (en) 2018-05-21 2021-12-01 Selection device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021195070A Pending JP2022036094A (en) 2018-05-21 2021-12-01 Selection device

Country Status (1)

Country Link
JP (2) JP6987698B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128062A (en) * 2020-02-13 2021-09-02 大王製紙株式会社 Material determination device, material determination method, and material determination program for waste plastic
WO2021178111A1 (en) * 2020-03-04 2021-09-10 Laitram, L.L.C. Shrimp processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (en) * 2010-12-02 2012-06-21 Sharp Corp Sorting system of waste
JP2017109197A (en) * 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5969685B1 (en) * 2015-12-15 2016-08-17 ウエノテックス株式会社 Waste sorting system and sorting method
FI127100B (en) * 2016-08-04 2017-11-15 Zenrobotics Oy A method and apparatus for separating at least one object from the multiplicity of objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (en) * 2010-12-02 2012-06-21 Sharp Corp Sorting system of waste
JP2017109197A (en) * 2016-07-06 2017-06-22 ウエノテックス株式会社 Waste screening system and screening method therefor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021128062A (en) * 2020-02-13 2021-09-02 大王製紙株式会社 Material determination device, material determination method, and material determination program for waste plastic
JP7419093B2 (en) 2020-02-13 2024-01-22 大王製紙株式会社 Waste plastic sorting equipment, sorting method, and sorting program
WO2021178111A1 (en) * 2020-03-04 2021-09-10 Laitram, L.L.C. Shrimp processing system
CN115103595A (en) * 2020-03-04 2022-09-23 莱特拉姆有限责任公司 Shrimp processing system
CN115103595B (en) * 2020-03-04 2024-01-26 莱特拉姆有限责任公司 Shrimp processing system

Also Published As

Publication number Publication date
JP2022036094A (en) 2022-03-04
JP6987698B2 (en) 2022-01-05

Similar Documents

Publication Publication Date Title
WO2019208754A1 (en) Sorting device, sorting method and sorting program, and computer-readable recording medium or storage apparatus
CN107477971B (en) Method and equipment for managing food in refrigerator
US9094588B2 (en) Human machine-interface and method for manipulating data in a machine vision system
US20180021951A1 (en) Display control device, display control method, computer program product, and communication system
JP2022036094A (en) Selection device
EP2613549A1 (en) Display apparatus, remote control apparatus, and searching methods therof
CN106664465A (en) System for creating and reproducing augmented reality contents, and method using same
CN105528607A (en) Region extraction method and model training method and device
WO2018181458A1 (en) Learning result output apparatus and learning result output program
US10949983B2 (en) Image processing apparatus, image processing system, image processing method, and computer-readable recording medium
JP5987780B2 (en) Information processing apparatus and information processing program
CN102939609A (en) Human interaction trajectory-based system
JP2019188354A (en) Selection device, selection method, selection program, and computer-readable storage medium
JP5279482B2 (en) Image processing apparatus, method, and program
JP6519157B2 (en) INFORMATION EVALUATING DEVICE, INFORMATION EVALUATING METHOD, AND PROGRAM
CN106406684B (en) Projection process method, apparatus and projector
CN110019862B (en) Courseware recommendation method, device, equipment and storage medium
KR101976493B1 (en) Method and Apparatus for Setting Object Area for Use in Video Monitoring Device
WO2021214994A1 (en) Inspection system
JP2007179138A (en) Image retrieval method and image retrieval device
JP2014164652A (en) Image edit device, image edit method and image edit program
JP2020008488A (en) Image processing apparatus, image processing method, and image processing program
CN106408577B (en) Continuous frame connected domain parallel marking method for projection interactive system
Mossi et al. Ground truth annotation of traffic video data
TW201044253A (en) Mobile electric device and operating method therefore

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211201

R150 Certificate of patent or registration of utility model

Ref document number: 6987698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150