WO2019208754A1 - 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器 - Google Patents

選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器 Download PDF

Info

Publication number
WO2019208754A1
WO2019208754A1 PCT/JP2019/017853 JP2019017853W WO2019208754A1 WO 2019208754 A1 WO2019208754 A1 WO 2019208754A1 JP 2019017853 W JP2019017853 W JP 2019017853W WO 2019208754 A1 WO2019208754 A1 WO 2019208754A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
learning
sorting
data
selection
Prior art date
Application number
PCT/JP2019/017853
Other languages
English (en)
French (fr)
Inventor
大石 昇治
裕之 深瀬
誠人 大西
Original Assignee
大王製紙株式会社
ダイオーエンジニアリング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018085343A external-priority patent/JP7072435B2/ja
Priority claimed from JP2018097254A external-priority patent/JP6987698B2/ja
Application filed by 大王製紙株式会社, ダイオーエンジニアリング株式会社 filed Critical 大王製紙株式会社
Priority to KR1020207018659A priority Critical patent/KR20210002444A/ko
Priority to CN201980015704.7A priority patent/CN111819598B/zh
Publication of WO2019208754A1 publication Critical patent/WO2019208754A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a sorting apparatus, a sorting method, a sorting program, and a computer-readable recording medium or stored device that sort a sorting target object from a mixture of a plurality of types of objects.
  • the recycling field is diverse, for example, in the field of recycling recycled paper to produce recycled paper, there is a problem of impurities such as, for example, when plastic such as laminate is mixed into the used paper, the purity of the paper is lowered.
  • impurities such as, for example, when plastic such as laminate is mixed into the used paper
  • the purity of the paper is lowered.
  • harmful substances when mixed, the harmful substances are diffused widely.
  • a step of selecting an object and impurities used as raw materials is required.
  • a sorting object can be freely sorted according to a recycling application, for example, sorting white paper and colored paper.
  • Patent Document 1 discloses a technique related to a sorting apparatus that includes a detection unit including a light source and an optical sensor and sorts an object based on the brightness of reflected light.
  • Patent Document 2 discloses a technology relating to a gravity sensor and a sorting device that includes an RGB camera, an X-ray camera, a near-infrared camera, and a 3D camera as an imaging device, and automatically sorts an object using artificial intelligence.
  • Patent Document 1 needs to set in advance a standard and algorithm for sorting objects based on the brightness of reflected light, and these settings require specialized knowledge and experience. For this reason, the user cannot easily set or change the setting.
  • the sorting device disclosed in Patent Document 2 using artificial intelligence does not require the setting as described above, but requires a step of learning a criterion and a method for sorting into artificial intelligence in advance, so that the user can easily It was not an aspect that could be set.
  • the user can select a sorting apparatus that has been set in advance according to the sorting target object. I was driving with the offer. For this reason, when a mixture (waste etc.) or a sorting object is changed, there is a problem that even if the user wants to change the setting, it cannot be easily changed.
  • An object of the present invention is to provide a sorting device, a sorting method, a sorting program, and a computer-readable computer that can easily set a sorting target even if the user does not have specialized technology or knowledge.
  • the sorting device is a sorting device that sorts a sorting target object from a mixture composed of a plurality of types of objects, and is a type object that is the object sorted by type or
  • a data acquisition unit that acquires data based on the mixture
  • a learning data generation unit that generates learning data from the data of the type object acquired by the data acquisition unit, and learning data generated by the learning data generation unit
  • a learning unit that learns a method of classifying a mixture into types and using them as classification objects, creating a learning model in which knowledge and experience obtained by the learning are converted into data, and the selection target from the classification objects
  • the selection target selection unit for selecting the type of the object, the selection target from the imaging data of the mixture acquired in the data acquisition unit
  • a determination unit that determines the presence and position of a selection object of the type selected by the selection unit; a selection unit that selects the selection object from the mixture based on a determination result of the determination unit;
  • an operation unit that determines the presence and position of a selection object of the
  • the presence / absence and position of the selection target can be determined from the imaging data of the mixture using artificial intelligence, it is not necessary to set a standard or algorithm for selecting the object.
  • each member is provided with an operation unit that receives an operation from the user and gives an instruction, the user can easily create a learning model and easily perform a process of learning with artificial intelligence.
  • the present invention it can be easily operated using the operation unit, and most of complicated setting work can be performed by artificial intelligence, so even if the user does not have specialized technology or knowledge, Setting for sorting the sorting object can be easily performed.
  • the operation unit causes the data acquisition unit to instruct the acquisition of data, and the learning data generation unit starts to generate the learning data.
  • a learning data creation instruction unit for instructing, a learning start instruction unit for instructing the learning unit to create the learning model, and a selection target selection instruction unit for instructing the selection of a type of the selection target to the selection target selection unit;
  • an operation start instructing unit that causes the determination unit to determine the presence and position of the selection target and causes the selection unit to select the selection target from the mixture based on the determination result.
  • the operation unit displays at least the data acquisition instruction unit, the learning data creation instruction unit, and the learning start instruction unit, and at least the driving A mode switching instruction unit for instructing a mode switching operation including an operation mode for displaying the start instruction unit can be provided.
  • the user can perform work while grasping which of the operation states of the selection device, that is, the learning mode and the operation mode, and the setting operation in the learning mode is Since the instruction sections related to the settings are integrated, it is easy to prevent erroneous operations.
  • the operation unit includes at least the data acquisition instruction unit, the learning data creation instruction unit, the learning start instruction unit, the selection target selection instruction unit, and the operation start instruction unit. Can be displayed on one screen. According to the above configuration, the learning mode and the driving mode are not distinguished as modes, and the instruction unit for setting and the instruction unit for driving are displayed on one screen. No switching operation is required.
  • the sorting apparatus can be configured such that the operation unit is a touch panel. According to the said structure, a user can operate easily.
  • the sorting apparatus can be configured such that the data acquisition unit includes a visible camera, and the data acquired by the data acquisition unit is image data.
  • the data acquisition unit includes a visible camera
  • the data acquired by the data acquisition unit is image data.
  • a selection target can be selected based on the form, position, size, and range of the selection target.
  • the data acquisition unit is a spectroscope-equipped camera
  • the data can be acquired as spectral distribution data.
  • the sorting apparatus includes a storage unit that associates and stores image data of the type object and information that specifies the type of the type object
  • the learning data generation unit includes: An image extraction unit that creates extracted image data obtained by extracting the type object by removing the background from the image data of the type object acquired by the data acquisition unit, and the mixture created by the image extraction unit One or a plurality of extracted image data is randomly selected from the extracted image data of all types of objects included, and the background image data captured by the data acquisition unit and the extracted image data are combined.
  • the number of learning data to be learned by the artificial intelligence can be controlled by a user's instruction, so that the selection accuracy can be improved by increasing the number of learning times.
  • the sorting unit applies compressed air to the sorting object based on the determination result, and sorts the sorting object from the mixture. be able to.
  • the determination unit determines whether the determination unit is based on the mixture model acquired by the data acquisition unit based on the learning model created by the learning unit. Calculating a first recognition rate indicating a probability that each object is a selection target selected by the selection target selection unit, and based on the first recognition rate, the presence and position of the selection target are determined.
  • the selection unit can select the selection target from the mixture based on a determination result of the determination unit and a threshold value provided for the first recognition rate.
  • the artificial intelligence calculates the first recognition rate indicating the probability that each object of the mixture is the selection target, and the recognition rate and the user set Since the selection target is determined by associating it with a possible threshold value, the user can control the selection accuracy while using artificial intelligence.
  • there are various assumptions such as the case where the purpose of the selection is to be roughly classified, and the case where it is desired to extract only a desired object with high accuracy, and the selection according to the user's needs for the selection accuracy becomes possible.
  • the sorting unit can sort a sorting object having the first recognition rate equal to or higher than the threshold value. According to the said structure, it can classify
  • the determination unit determines whether the determination unit is based on the mixture data acquired by the data acquisition unit based on the learning model created by the learning unit. Calculating a second recognition rate indicating the probability that each object is the type object for each type object, identifying the type of each object in the mixture based on the second recognition rate, Can be determined as the first recognition rate, and the presence and position of the sorting object can be determined. According to the above configuration, since the second recognition rate is calculated for each type of object for each object of the mixture, the type of the object can be determined as the type with the highest second recognition rate, and the selection is performed.
  • an object determined to be the same type as the target object is selected by being associated with a threshold that can be set by the user, the user can select a learning model specialized for the selected target object even when the target object is changed. Therefore, it is possible to easily change the selection object.
  • the sorting device includes a threshold setting unit that sets a desired threshold for the first recognition rate, and the operation unit sets the threshold to the threshold setting unit.
  • a threshold setting instruction unit for instructing setting can be provided. According to the above configuration, the user can easily set / change the sorting accuracy.
  • a sorting method is a sorting method for sorting a sorting target object from a mixture composed of a plurality of types of objects, and receives an operation from a data acquisition instruction unit.
  • the data acquisition step of acquiring data based on the type object or the mixture that is the object sorted by type, and the type object acquired in the data acquisition step in response to an operation from the learning data creation instruction unit A learning data creation step for creating learning data from the data of the above, and an operation from the learning start instruction unit, the mixture is classified by type using the learning data created in the learning data creation step, A learning process for creating a learning model in which knowledge and experience obtained by the learning are converted into data, and an operation from the selection target selection instruction unit; Acquired in the data acquisition step based on the learning model created in the learning step in response to an operation from the selection target selection step for selecting the type of the selection object from the body and the operation start instruction unit Determining the presence and position of the type of selection target selected in the selection target selection step from
  • a learning mode in which at least the data acquisition instruction unit, the learning data creation instruction unit, and the learning start instruction unit are displayed in response to an operation from the mode switching instruction unit. And at least a mode switching operation including an operation mode for displaying the operation start instruction unit.
  • the selection method displays at least the data acquisition instruction unit, the learning data creation instruction unit, the learning start instruction unit, the selection target selection instruction unit, and the operation start instruction unit on one screen. can do.
  • the data acquisition step receives the operation from the driving start instruction unit and based on the learning model created in the learning step. From the acquired mixture data, calculate a first recognition rate indicating the probability that each object in the mixture is a selection target selected by the selection target selection unit, and based on the first recognition rate The presence / absence and position of the selection object can be determined, and the selection object can be selected from the mixture based on the determination result and a threshold value provided for the first recognition rate.
  • the selection object having the first recognition rate equal to or higher than the threshold value can be selected.
  • the operation step based on the learning model created in the learning step, from the mixture data acquired in the data acquisition step, Calculating a second recognition rate indicating the probability that each object is the type object for each type object, identifying the type of each object in the mixture based on the second recognition rate, It is possible to determine the presence / absence and position of the selection object by regarding the second recognition rate when the value matches the type of the selection object as the first recognition rate.
  • a sorting method is a sorting program for sorting a sorting target object from a mixture composed of a plurality of types of objects, and an operation from a data acquisition instruction unit is performed.
  • a function for creating a learning model in which experience is converted into data a function for selecting the type of the selection target from the type objects in response to an operation from the selection target selection instruction unit, and an operation
  • the presence / absence and position of the selected type of selection object is determined from the acquired mixture data, and the determination result is used to determine
  • the computer can
  • each object in the mixture is obtained from the obtained mixture data based on the created learning model in response to an operation from the operation start instruction unit.
  • the selection object can be selected from the mixture based on the determination result and a threshold value set for the first recognition rate.
  • the selection method according to the twenty-first aspect of the present invention can cause a computer to realize a function of selecting a selection object whose first recognition rate is equal to or higher than the threshold value.
  • each object in the mixture is the type object for each type object from the acquired mixture data.
  • Calculating a second recognition rate indicating the probability, identifying a type of each object in the mixture based on the second recognition rate, and a second case where the type matches the type of the selection object The recognition rate is regarded as the first recognition rate, and the computer can realize a function of determining the presence and position of the selection target.
  • a recording medium or a stored device stores the program.
  • the program includes not only a program stored in the recording medium and distributed but also a program distributed by download through a network line such as the Internet.
  • the recording medium includes a device capable of recording a program, for example, a general purpose or dedicated device in which the program is implemented in a state where it can be executed in the form of software, firmware, or the like.
  • each process and function included in the program may be executed by program software that can be executed by a computer, or each part of the process and function may be performed with hardware such as a predetermined gate array (FPGA, ASIC) or program software.
  • FPGA, ASIC predetermined gate array
  • each element constituting the present invention may be configured such that a plurality of elements are constituted by the same member and the plurality of elements are shared by one member, and conversely, the function of one member is constituted by a plurality of members. It can also be realized by sharing. (Sorting device 1)
  • FIG. 1 which is a schematic diagram
  • FIG. 8 which is a functional block diagram
  • FIG. 2 which is an explanatory diagram of a positional relationship between the line sensor camera 11 and the conveyor 13 for the sorting device 1 according to the embodiment of the present invention. explain.
  • the sorting device 1 converts a sorting object SO from a mixture MO composed of a plurality of types of objects supplied from a feeding device 2 and flowing to a conveyor 13 into compressed air.
  • a device that sorts using the air injection nozzle 14 that emits the light and mainly includes the line sensor camera 11 (corresponding to an example of “data acquisition unit” in the claims), a first control unit 12, a controller 15 ( This corresponds to an example of the “operation unit” in the claims.),
  • the supply device 2 includes, for example, a charging hopper 21, a transfer conveyor 22, and a charging feeder 23.
  • the charging hopper 21 is configured to receive the mixture MO.
  • the transfer conveyor 22 supplies the mixture MO supplied from the input hopper 21 to the input feeder 23.
  • the input feeder 23 is configured by a vibration feeder, an electromagnetic feeder, or the like, and supplies the mixture MO to the conveyor 13 while preventing the mixture MOs from overlapping with each other by vibrating.
  • the sorting device 1 has two modes, a learning mode LM and an operation mode OM.
  • the learning mode LM is a mode for performing preparation and setting for operating the sorting device 1.
  • the operation mode OM is a mode for actually sorting the sorting object SO from the mixture MO.
  • the mixture MO is composed of a plurality of types of objects, such as metal, paper, plastic, etc., that can identify individual objects from the image data acquired by the line sensor camera 11 and can change the course by air injection from the air injection nozzle 14.
  • types of objects included in the mixture MO for example, metal, paper, plastic, and the like are assumed, but for example, it is not limited to a large bundle such as metal, but from colors and shapes, such as copper and aluminum classified into lower layers. Anything that can be identified can be targeted.
  • the sorting device 1 according to the present embodiment can identify up to five types of objects at a time, such as aluminum, brass, gold, silver, and copper, and is configured with such objects. From the mixture MO, it is possible to select one kind of sorting object SO, for example, only copper, or to sort several kinds at the same time, for example, aluminum, brass, and gold. Has been.
  • the mixture MO is composed of objects A to C (corresponding to an example of “type object” in the claims), and the object A is selected as the selection object SO. . (Line sensor camera 11)
  • the sorting device 1 is provided with two line sensor cameras 11 arranged in the width direction of the conveyor 13 as shown in FIG.
  • the line sensor camera 11 is a member that captures an image every time a pulse is received from the encoder 131 of the conveyor 13 and acquires an image data ID from the imaged result.
  • the X direction of the line sensor camera 11 corresponds to the width direction of the conveyor 13, and the Y direction corresponds to the traveling direction of the conveyor 13.
  • a predetermined X direction imaging range 11 a can be obtained with one line sensor camera 11. Can be imaged.
  • an X-direction range 11e obtained by adding two X-direction effective ranges 11d excluding the exclusion range 11b at both ends of the conveyor 13 and the exclusion range 11c at the center of the conveyor 13 from the X-direction range 11a
  • An image data ID is created by extracting in the Y direction within a predetermined Y direction range 11f.
  • a desired overlapping range 11g from one end in the Y direction is a range overlapping with the image data ID created immediately before.
  • the line sensor camera 11 in the learning mode images an object included in the mixture MO for each object, and creates an image data ID of each object. Specifically, imaging is performed in a state where a plurality of objects A are flowed on the conveyor 13, and an image data ID of the object A is created. Similarly, the image data IDs of the objects B and C are created for the objects B and C. The created image data ID of each object is transmitted to and stored in the storage unit 121 shown in FIG. 8 in a state associated with the name of the imaged object. Further, imaging is performed in a state where no object is flowing on the conveyor 13 to create a background image BI, and the created background image BI is transmitted to the storage unit 121 and stored.
  • the line sensor camera 11 in the operation mode OM captures an image with the mixture MO flowing on the conveyor 13, and creates an image data ID of the mixture MO.
  • the created image data ID of the mixture MO is transmitted to the determination unit 125.
  • the line sensor camera 11 has been described as an example of the “data acquisition unit” in the claims.
  • the “data acquisition unit” is not limited to this, and may be an area sensor camera, visible light, infrared light, or the like.
  • X-rays may be used.
  • the X-ray light source can be arranged above the object conveyed by the conveyor, the X-ray camera can be arranged below the conveyor belt, and vice versa.
  • the created image data ID of the object includes information that allows the user to know what kind of object the user selects when selecting the selection target SO in the selection target selection unit 124 described later. It only has to be associated.
  • the background image BI is separately prepared at the manufacturing stage of the sorting device 1 and stored in the storage unit 121. It may be an embodiment.
  • the color information of the conveyor 13 may be stored in the storage unit 121. (First control unit 12)
  • the first control unit 12 includes a storage unit 121, a learning data creation unit 122, a learning unit 123, a selection target selection unit 124, a threshold setting unit 126, and a determination unit 125.
  • the first control unit 12 determines the presence and position of the selection target object SO from the image data ID of the mixture MO acquired by the line sensor camera 11.
  • the learning mode LM preparation and setting for the determination are performed.
  • the storage unit 121 is a member that stores the image data ID of the objects A to C created by the line sensor camera 11, the names of the objects associated with the image data ID, and the background image BI. (Learning data creation unit 122)
  • the learning data creation unit 122 creates and stores learning data LD from the image data ID and background image BI of the objects A to C captured and acquired by the line sensor camera 11.
  • the learning data creation unit 122 includes three members: an image extraction unit 122a, an image composition unit 122b, and an answer creation unit 122c. The configuration of each member is as described later.
  • the created learning data LD is used for learning performed by the learning unit 123.
  • One learning data LD is used for each learning, and the accuracy of selection in the operation mode OM increases as the number of repetitions of this learning increases. That is, as the learning data LD created by the learning data creation unit 122 increases, the accuracy of selection in the operation mode OM improves.
  • the sorting device 1 according to the first embodiment of the present invention is an aspect in which the upper limit is 40,000 times and the user can freely set the number of repetitions of learning (details will be described later). (Image extraction unit 122a)
  • the image extraction unit 122a calls the image data IDs and the background images BI of the objects A to C from the storage unit 121, and extracts and extracts a portion where the object is captured from the image data IDs of the objects A to C based on the background image BI.
  • Image data SD is created.
  • the range excluding the overlapping range 11g is compared with the background image BI for each pixel.
  • a portion other than the portion that matches the background image BI is cut out as a portion where the object A is captured, and extracted image data SD of the object A is created.
  • the comparison is basically performed in the range excluding the overlapping range 11g.
  • the comparison is performed by expanding the range to the overlapping range 11g. Do.
  • the extracted image data SD of the objects B and C is created from the image data IDs of the objects B and C.
  • the object may be cut out so that the background image BI remains, and the extracted image data SD of the object may be generated, for example, a rectangular shape including the object portion. Or it can be cut into a circular shape.
  • the shape is not particularly limited, but a shape in which the area of the remaining background image BI is small is preferable.
  • the image synthesis unit 122b randomly selects some data from the extracted image data SD of the objects A to C created by the image extraction unit 122a, and randomly selects the background image BI.
  • the image data ID of the artificial mixture MO is created by combining the image with the correct position, angle and size.
  • the image composition unit 122b creates image data IDs of a large number of artificial mixtures MO from image data IDs of a small number of objects A to C by changing the position, angle, and size of the extracted image data SD. Can do.
  • the image synthesis unit 122b overlaps the extracted image data SD.
  • the extracted image data SD is synthesized at the position so as not to create the image data ID of the mixture MO. This is because the portion of the background image BI remaining in the extracted image data SD is prevented from changing the shape of the object by overlapping the object portion of the other extracted image data SD.
  • the answer creating unit 122c records information indicating which positions of the objects A to C are arranged in the image data ID of the artificial mixture MO created by the image composition unit 122b.
  • Learning data LD which is data associated with the data ID, is created.
  • the learning unit 123 has artificial intelligence, learns a method of discriminating the objects A to C using the learning data LD created by the learning data creation unit 122, and creates a learning model GM.
  • each object shown in the image data ID of the artificial mixture MO in the learning data LD is the object A.
  • the probability of being an object B and the probability of being an object C are calculated (the calculated probabilities are hereinafter referred to as recognition rates RR.
  • the recognition rate RR is defined as “second recognition” in the claims. Corresponds to an example of "rate”).
  • each object is predicted to be the object of the highest type among the recognition rates RR of the objects A to C, and it is checked whether or not the prediction has been made based on the information associated with the answer creating unit 122c. .
  • a learning model GM which is data obtained by repeating knowledge and experience obtained by repeating this, is created and stored. (Selection target selection unit 124)
  • the selection target selection unit 124 creates and stores a recipe RE that is data in which information on the selection target SO selected by the user from the objects A to C is associated with the learning model GM. In the operation mode, the recipe RE selected by the user is read by the determination unit 125.
  • the sorting apparatus 1 is a mode in which the learning unit 123 is made to learn the method for discriminating the objects A to C and does not learn which is the sorting object SO.
  • the selection target selection unit 124 only needs to select the object B as the selection target SO. There is no need to redo learning.
  • the threshold value setting unit 126 sets a threshold value for the recognition rate RR of the selection object SO. Information on the set threshold value is transmitted to the second control unit 141 and is referred to when sorting the sorting object SO (details will be described later). Note that the threshold does not necessarily have to be set. (Judgment unit 125)
  • the determination unit 125 has artificial intelligence, reads the recipe RE from the selection target selection unit 124 in the operation mode OM, and the image of the mixture MO created and transmitted by the line sensor camera 11 based on the recipe RE. The presence / absence of the object A is determined from the data ID. If the object A is present, information on the position of the pixel unit is transmitted to the second control unit 141.
  • the recognition rate RR of the objects A to C of each object is calculated, and the object with the highest recognition rate RR of the object A is determined as the object A.
  • the object having the highest recognition rate RR of the object B is determined as the object B
  • the object having the highest recognition rate RR of the object C is determined as the object C.
  • the conveyor 13 is a member that passes through the imaging range of the line sensor camera 11 and moves an object to the position of the air injection nozzle 14 to move it.
  • the conveyor 13 moves an object at a predetermined speed.
  • the conveyor 13 is provided with an encoder 131, and the encoder 131 transmits a pulse to the line sensor camera 11, the first controller 12, and the second controller 141 every time the conveyor 13 moves a predetermined distance.
  • the line sensor camera 11 takes an image every time this pulse is received. That is, one pixel of the image data ID captured by the line sensor camera 11 corresponds to a predetermined distance.
  • the 1st control part 12 and the 2nd control part 141 pinpoint the position of an object based on this pulse. (Air injection nozzle 14)
  • the air injection nozzle 14 is a member that sorts the sorting object SO by releasing compressed air to the sorting object SO whose recognition rate RR of the sorting object SO is equal to or higher than the threshold set by the threshold setting unit 126.
  • a plurality of air injection nozzles 14 are arranged at minute intervals over the entire width of the conveyor 13.
  • the objects to be sorted are not limited to the sorting objects SO whose recognition rate RR of the sorting objects SO is equal to or higher than the threshold set by the threshold setting unit 126.
  • a selection object SO having a recognition rate RR of the selection object SO larger than a threshold set by the threshold setting unit 126 may be selected.
  • the air injection nozzle 14 is instructed by the second control unit 141 at an injection timing that is a timing at which compressed air is injected.
  • the second control unit first sets an injection region IR for injecting compressed air based on the position information of the object A transmitted from the determination unit 125.
  • the injection timing is set for each air injection nozzle 14 based on the injection region IR.
  • the injection timing is provided at predetermined time intervals with respect to the traveling direction of the conveyor 13. That is, when the image data ID of the mixture MO shown in FIG. 7 is taken as an example, the air injection nozzles 14 in the rows d to h are used as a reference based on the time T0 when the upper end of the image data ID reaches the position of the air injection nozzle 14.
  • the air injection nozzle 14 is instructed to inject compressed air at a timing when it passes through the injection region IR.
  • the object A sprayed with the compressed air by the air spray nozzle 14 is collected by the hopper 31 of the collection hopper 3 that is disposed at the lower part of the conveyor 13 and provided for each type of material to be selected.
  • the objects B and C to which the compressed air is not injected by the air injection nozzle 14 are collected by the hopper 32. (Controller 15)
  • the controller 15 is a touch panel controller, and the user can easily operate the sorting device 1 by using the controller 15.
  • the controller 15 is a mode switching button 15a (corresponding to an example of a “mode switching instruction unit” in claims), and an imaging button 15b (corresponding to an example of a “data acquisition instruction unit” in claims).
  • Learning data creation button 15c corresponds to an example of “learning data creation instruction unit” in claims
  • learning start button 15d corresponds to an example of “learning start instruction unit” in claims
  • a selection target selection button 15e corresponds to an example of “selection target selection instruction unit” in claims
  • a threshold setting button 15h correspond to an example of “threshold setting unit” in claims
  • An operation start button 15f correspond to an example of “operation start instruction unit” in the claims
  • an operation end button 15g are provided.
  • step ST101 the selection device 1 is switched to the learning mode LM using the mode switching button 15a.
  • the screen shown in FIG. 10 is displayed on the controller 15, so that the sorting device 1 can be switched to the learning mode LM by pressing the learning mode button 151a, and the controller 15 shows the screen shown in FIG. A screen is displayed.
  • step ST102 the line sensor camera 11 is caused to create image data IDs and background images BI of the objects A to C.
  • the line sensor camera 11 starts imaging and creates an image data ID of the object A.
  • the screen shown in FIG. 12 is displayed on the controller 15, and the user inputs the name of the object A to the name input unit 151 b and stores it in the storage unit 121.
  • the screen of FIG. 11 is displayed again on the controller 15, so that the user captures the objects B and C and the background image BI in the same procedure.
  • step ST103 the learning data creating unit is caused to create learning data LD.
  • the learning data creation button 15 c On the screen shown in FIG. 11, the screen shown in FIG. 13 is displayed on the controller 15.
  • the object selection button 151c an object (in the case of this description, “ Object A ",” Object B “,” Object C ").
  • the screen shown in FIG. 13 is displayed again on the controller 15, and the number of learning data LD to be created is input to the data number input unit 152c.
  • the controller 15 displays a standby screen indicating the expected time until the creation of the learning data LD is completed for the user.
  • the controller 15 displays a screen shown in FIG.
  • step ST104 the learning unit 123 is trained using the learning data LD to create a learning model GM.
  • the screen shown in FIG. 16 is displayed on the controller 15.
  • the user learns from the list of learning data LD stored in the learning data creation unit 122 displayed as shown in FIG. 16 (the name of the object used to create the learning data LD is displayed).
  • Learning data LD (in the case of this description, “object A, object B, object C”) is selected.
  • the controller 15 displays a standby screen indicating the expected time until the creation of the learning model GM is completed.
  • the controller 15 displays a screen shown in FIG. (Operation method in operation mode OM)
  • step ST201 the sorting device 1 is switched to the operation mode OM using the mode switching button 15a. Since the screen shown in FIG. 10 is displayed on the controller 15 when the sorting device 1 is activated, the sorting device 1 is switched to the operation mode OM by pressing the operation mode button 152a, and the controller 15 shows the screen shown in FIG. A screen is displayed.
  • step ST202 the object A is selected as the sorting object SO, and the sorting target selection unit 124 is caused to create a recipe RE.
  • the controller 15 displays the screen shown in FIG.
  • the user uses a learning model used for discrimination from a list of learning models GM stored in the learning unit 123 displayed as shown in FIG. 20 (the names of objects used to create the learning model GM are displayed).
  • GM (“Object A, Object B, Object C" in this embodiment) is selected.
  • the controller 15 displays a screen shown in FIG.
  • the user selects the sorting object SO (“object A” in this description) from the list of objects used to create the selected learning model GM displayed as shown in FIG.
  • the selection target selection unit 124 creates a recipe RE, and the controller 15 displays a screen shown in FIG.
  • a threshold is set for the recognition rate RR of the selection object SO.
  • the threshold setting button 15h On the screen shown in FIG. 19, the screen shown in FIG. 22 is displayed on the controller 15, and a desired threshold is input to the threshold input unit 151h.
  • the threshold value setting unit 126 transmits threshold value information to the second control unit 141, and the controller 15 displays the screen shown in FIG.
  • the means for setting the threshold by the user is not limited to the threshold setting button 15 h displayed on the touch panel of the controller 15.
  • a seek bar may be displayed on the touch panel instead of the threshold setting button 15h, and the threshold may be set using the seek bar.
  • the means for setting the threshold value is not limited to that using a touch panel.
  • a button, a rotary switch, or the like may be provided in the controller 15 to set the threshold value. A mode in which means for setting the threshold is used together may be used.
  • the threshold value may be set not only in step ST203 but also in step ST204 described later. According to this configuration, the user can confirm the actual sorting result and finely adjust the threshold value. At this time, if the means for setting the threshold is one using the above-described seek bar or rotary switch, it can be operated intuitively and is suitable for fine adjustment.
  • step ST204 the object A is selected in step ST204.
  • the line sensor camera 11 starts imaging, and the determination unit 125 determines whether the object A is present and whether the object A is in pixel units. The position is determined, and the air injection nozzle 14 selects the object A based on this determination.
  • step ST205 the operation end button 15g is pressed to end the selection.
  • the aspect of the controller 15 and the display of the screen are not limited to those described above, and may be appropriately changed so that the user can easily operate the sorting device 1.
  • the controller 15 using a push button may be used, and in this case, the mode switching button 15a is unnecessary.
  • the controller 15 may be displayed to instruct the user to perform the next operation.
  • each button has a different function.
  • each function may be linked, or a predetermined button may have various functions.
  • the learning data LD may be created by pressing the learning data creation button 15c
  • the learning model GM may be created based on the learning data.
  • the operation start button 15f may also have a function of instructing the end of operation, and the operation may be started by pressing the first operation start button 15f, and the operation may be ended by pressing the second time.
  • the object A is described as the selection target. However, a plurality of objects may be selected as the selection target, and a plurality of air injection nozzles and hoppers may be provided in accordance with the selection.
  • the sorting apparatus 1 to which the present invention is applied can determine the presence and position and the position of the sorting object SO from the imaging data of the mixture MO using artificial intelligence.
  • the various buttons displayed on the controller 15 can be used for easy operation including the step of setting a threshold value.
  • the recognition rate indicating the probability that each object of the mixture is a selection target is calculated by the artificial intelligence, and the selection target is determined by associating the recognition rate with a threshold that can be set by the user. I can control it.
  • the present invention in addition to being able to make most of the complicated setting work to artificial intelligence, it can be easily operated by the operation unit, even if the user does not have specialized technology and knowledge, Settings for sorting the sorting object SO can be easily performed.
  • the sorting apparatus, sorting method, sorting program, and computer-readable recording medium or stored device according to the present invention can be applied to use for sorting an object into two or more types.

Abstract

ユーザが、選別精度を簡単に設定・変更できるようにする。 【解決手段】ラインセンサカメラ11とラインセンサカメラ11で取得された種別物体のデータから学習データLDを作成する学習データ作成部122と、学習データLDを用いて混合物MOを種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルGMを作成する学習部123と、選別対象物SOの種類を選択する選別対象選択部124と、学習モデルGMに基づいて、ラインセンサカメラ11で取得した混合物MOのデータから、認識率RRを算出し、認識率RRに基づいて、選別対象物SOの有無及び位置を判断する判断部125と、判断部125の判断結果及び認識率RRに対して設けられる閾値に基づいて混合物MOの中から選別対象物SOを選別するエアー噴射ノズル14とを備える。

Description

選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器
 本発明は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器に関する。
 近年、廃棄物等を再資源化し、新たな製品の原料として利用するリサイクルは、環境保護の観点や企業イメージの向上等の目的から、多くの企業によって実施されている。
 リサイクル分野は多岐にわたっているが、例えば、古紙をリサイクルして再生紙を生産する分野では、古紙の中に、例えば、ラミネート等のプラスチックが混入すると、紙の純度が下がるといった不純物の問題がある。また、有害物質が混入すると、この有害物質を広く拡散させてしまうこととなる。このため、リサイクルの前に、原料として用いる物体と不純物とを選別する工程が必要となる。また、例えば白色の紙と着色された紙とを選別するというように、リサイクルの用途に応じて自由に選別対象物を選別できることが求められている。
 また、リサイクルに拘わらず、製品製造時において、良品と不良品とを選別する必要があるため、物体を2以上に選別する技術は、製造業において必要不可欠な技術の1つであるといえる。この種の物体を2以上の種類に選別する技術は、例えば、特許文献1及び特許文献2に開示されている。
 特許文献1には、光源と光センサとからなる検知手段を備え、反射光の輝度に基づいて物体を選別する選別装置に関する技術が開示されている。
 また、特許文献2には、重力センサと、撮像装置として、RGBカメラ、X線カメラ、近赤外線カメラ、3Dカメラを備え、人工知能によって物体を自動選別する選別装置に関する技術が開示されている。
特開2018-017639号公報 特開2017-109197号公報
 しかしながら、特許文献1に開示された選別装置は、反射光の輝度に基づいて物体を選別する基準やアルゴリズムを予め設定しておく必要があり、これらの設定に専門的な知識や経験が必要であるため、ユーザが容易に設定や設定の変更を行うことができなかった。
 また、人工知能を用いた特許文献2に開示された選別装置は、前述のような設定は必要ないものの、予め人工知能に選別する基準や方法を学習させる工程が必要であり、ユーザが容易に設定できる態様とはなっていなかった。
 このように、従来の選別装置や選別方法では、選別装置に選別対象物を選別させるための設定を行うことが容易でないため、ユーザは、予め選別対象物に応じた設定がなされた選別装置を提供してもらい運転を行っていた。このため、混合物(廃棄物等)や選別対象物が変更になった場合等に、ユーザが、設定を変更したくても容易に変更できないという問題があった。
 本発明は、従来のこのような問題点に鑑みてなされたものである。本発明の目的の一は、ユーザが専門的な技術や知識を有していなくとも、選別対象物を選別するための設定を容易に行える選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器を提供することにある。
課題を解決するための手段及び発明の効果
 本発明の第1の側面に係る選別装置は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置であって、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得部と、前記データ取得部で取得された前記種別物体のデータから学習データを作成する学習データ作成部と、前記学習データ作成部によって作成された学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習部と、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択部と、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物の撮像データから前記選別対象選択部にて選択された種類の選別対象物の有無及び位置を判断する判断部と、前記判断部の判断結果に基づいて前記混合物の中から前記選別対象物を選別する選別部と、前記各部に対して、ユーザからの操作を受けて指示を与える操作部とを備えることができる。
 前記構成によれば、人工知能を用いて混合物の撮像データから選別対象物の有無及び位置を判断することができるため、物体を選別する基準やアルゴリズムの設定が不要である。加えて、各部材に、ユーザからの操作を受けて指示を与える操作部を備えるので、ユーザが、容易に学習モデルを作成でき、人工知能に学習させる工程も容易に行うことができる。
 したがって、本発明によれば、操作部を用いて簡単に操作でき、煩雑な設定作業の大半を人工知能に行わせることができるので、ユーザが専門的な技術や知識を有していなくとも、選別対象物を選別するための設定を容易に行える。
 また、本発明の第2の側面に係る選別装置は、前記操作部が、前記データ取得部にデータの取得を指示するデータ取得指示部と、前記学習データ作成部に前記学習データの作成開始を指示する学習データ作成指示部と、前記学習部に前記学習モデルの作成を指示する学習開始指示部と、前記選別対象選択部に前記選別対象物の種類の選択を指示する選別対象選択指示部と、前記判別部に前記選別対象物の有無及び位置を判断させ、前記選別部に、該判断結果に基づいて前記混合物の中から前記選別対象物を選別させる運転開始指示部とを備えることができる。
 さらにまた、本発明の第3の側面に係る選別装置は、前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を指示するモード切替指示部を備えることができる。前記構成によれば、ユーザは、学習モードと運転モードという選別装置の動作状況のうち、いずれの動作状況下にあるかを把握しながら、作業を行うことができ、学習モードおける設定作業は、設定に係る指示部が集約されているので誤操作を防ぎやすい。
 さらにまた、本発明の第4の側面に係る選別装置は、前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部及び運転開始指示部を一画面に表示することができる。前記構成によれば、学習モード、運転モードというようにモードとして区別されておらず、設定に係る指示部も運転に係る指示部も一画面に表示されるので、学習モードと運転モードとのモードの切り換え操作を不要とできる。
 さらにまた、本発明の第5の側面に係る選別装置は、前記操作部が、タッチパネルであるよう構成できる。前記構成によれば、ユーザが簡単に操作できる。
 さらにまた、本発明の第6の側面に係る選別装置は、前記データ取得部が可視カメラを備え、前記データ取得部によって取得されるデータが画像データであるよう構成できる。前記構成によれば、データ取得部が可視カメラを備え、データを画像データとして取得できることから、選別対象物を、該選別対象物の形態や位置、大きさ、範囲に基づいて選別できる。なお、例えばデータ取得部が分光器付カメラである場合には、データは分光分布データとして取得できる。
 さらにまた、本発明の第7の側面に係る選別装置は、前記種別物体の画像データと該種別物体の種類を特定する情報とを関連付けて保存する記憶部を備え、前記学習データ作成部は、前記データ取得部で取得した前記種別物体の画像データから背景を取り除いて該種別物体を抽出してなる抽出画像データを作成する画像抽出部と、前記画像抽出部にて作成された、前記混合物に含まれる物体全種類の前記抽出画像データの中から、一又は複数の抽出画像データをランダムに選択し、前記データ取得部にて撮像された背景の画像データと該抽出画像データとを合成してなる学習用画像データを作成する画像合成部と、前記画像合成部にて作成された前記学習用画像データと前記記憶部に保存された情報に基づいて特定される前記学習用画像データに含まれる種別物体の種類及び位置の情報とを関連付けて前記学習データを作成する解答作成部とを有するよう構成できる。前記構成によれば、ユーザの指示によって、人工知能に学習させる学習データ数を制御できるので、学習回数を増やすことによって選別の精度を向上させることができる。
 さらにまた、本発明の第8の側面に係る選別装置は、前記選別部が、前記判断結果に基づいて前記選別対象物に圧縮した空気を当て、前記混合物の中から前記選別対象物を選別することができる。
 さらにまた、本発明の第9の側面に係る選別装置は、前記判断部が、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、前記選別部が、前記判断部の判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することができる。前記構成によれば、混合物から選別対象物を選別する運転時において、混合物の各物体が選別対象物である確率を示す第一の認識率を人工知能に算出させ、該認識率とユーザが設定できる閾値とを紐付けて選別対象を判断するので、人工知能を用いながらも、選別精度をユーザがコントロールできるようになる。言い換えれば、選別の目的が、大まかに分類できればよいという場合から、所望の物体だけ高精度に抽出したい場合等種々想定されるところ、選別精度に対するユーザのニーズに応じた選別が可能となる。
 さらにまた、本発明の第10の側面に係る選別装置は、前記選別部が、前記第一の認識率が前記閾値以上の選別対象物を選別することができる。前記構成によれば、閾値を高く設定することで、高精度に選別でき、閾値を低く設定することで、大まかに選別できる。
 さらにまた、本発明の第11の側面に係る選別装置は、前記判断部が、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することができる。前記構成によれば、混合物の各物体に対して、種別物体毎に第二の認識率が全て算出されるので、物体の種類を第二の認識率が最高値となる種類と判別でき、選別対象物と種類が同一と判別された物体に対して、ユーザが設定できる閾値と紐付けて選別を行うので、ユーザは、選別対象物を変更する場合でも、選別対象物に特化した学習モデルを改めて作成する必要がなく、選別対象物を容易に変更できる。
 さらにまた、本発明の第12の側面に係る選別装置は、前記第一の認識率に対して所望の閾値を設定する閾値設定部を備え、前記操作部が、前記閾値設定部に前記閾値の設定を指示する閾値設定指示部を有することができる。前記構成によれば、ユーザは選別精度を容易に設定・変更できる。
 さらにまた、本発明の第13の側面に係る選別方法は、複数種類の物体で構成される混合物の中から選別対象物を選別する選別方法であって、データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得工程と、学習データ作成指示部からの操作を受けて、前記データ取得工程にて取得した前記種別物体のデータから学習データを作成する学習データ作成工程と、学習開始指示部からの操作を受けて、前記学習データ作成工程にて作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習工程と、選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択工程と、運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程にて取得した混合物のデータから前記選別対象選択工程にて選択された種類の選別対象物の有無及び位置を判断し、該判断結果に基づいて前記混合物の中から前記選別対象物を選別する運転工程とを含むことができる。
 さらにまた、本発明の第14の側面に係る選別方法は、モード切替指示部からの操作を受けて、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を行うことができる。
 さらにまた、本発明の第15の側面に係る選別方法は、少なくとも、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部及び運転開始指示部を一画面に表示することができる。
 さらにまた、本発明の第16の側面に係る選別方法は、前記運転工程において、運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することができる。
 さらにまた、本発明の第17の側面に係る選別方法は、前記運転工程において、前記第一の認識率が前記閾値以上の選別対象物を選別することができる。
 さらにまた、本発明の第18の側面に係る選別方法は、前記運転工程において、前記学習工程にて作成された学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断できる。
 さらにまた、本発明の第19の側面に係る選別方法は、複数種類の物体で構成される混合物の中から選別対象物を選別するための選別プログラムであって、データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得する機能と、学習データ作成指示部からの操作を受けて、前記取得した前記種別物体の撮像データから学習データを作成する機能と、学習開始指示部からの操作を受けて、前記作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する機能と、選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する機能と、運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから前記選択された種類の選別対象物の有無及び位置を判断し、該判断結果に基づいて前記混合物の中から前記選別対象物を選別する機能とをコンピュータに実現させることができる。
 さらにまた、本発明の第20の側面に係る選別方法は、運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することができる。
 さらにまた、本発明の第21の側面に係る選別方法は、前記第一の認識率が前記閾値以上の選別対象物を選別する機能をコンピュータに実現させることができる。
 さらにまた、本発明の第22の側面に係る選別方法は、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断する機能をコンピュータに実現させることができる。
 さらにまた、本発明の第23の側面に係る記録媒体又は記憶した機器は、前記プログラムを格納したものである。記録媒体には、CD-ROM、CD-R、CD-RWやフレキシブルディスク、磁気テープ、MO、DVD-ROM、DVD-RAM、DVD-R、DVD+R、DVD-RW、DVD+RW、Blu-ray(登録商標)、BD-R、BD-RE、HD DVD(AOD)等の磁気ディスク、光ディスク、光磁気ディスク、半導体メモリその他のプログラムを格納可能な媒体が含まれる。またプログラムには、前記記録媒体に格納されて配布されるものの他、インターネット等のネットワーク回線を通じてダウンロードによって配布される形態のものも含まれる。さらに記録媒体にはプログラムを記録可能な機器、例えば前記プログラムがソフトウエアやファームウエア等の形態で実行可能な状態に実装された汎用もしくは専用機器を含む。さらにまたプログラムに含まれる各処理や機能は、コンピュータで実行可能なプログラムソフトウエアにより実行してもよいし、各部の処理を所定のゲートアレイ(FPGA、ASIC)等のハードウエア又はプログラムソフトウエアとハードウエアの一部の要素を実現する部分的ハードウエアモジュールとが混在する形式で実現してもよい。
本発明の実施の形態に係る選別装置の概略図である。 本発明の実施の形態に係るラインセンサカメラとコンベアとの位置関係の説明図である。 本発明の実施の形態に係るラインセンサカメラで作成する画像データの説明図である。 画像データから物体が写る部分を抽出し、抽出画像データを作成する方法の説明図である。 画像データから物体が写る部分を抽出し、抽出画像データを作成する方法の説明図である。 人工的な混合物の画像データを作成する方法の説明図である。 噴射領域及びエアー噴射ノズルごとの噴射タイミングを設定する方法の説明図である。 本発明の実施の形態に係る選別装置の機能ブロック図である。 学習モードにおける選別装置の操作方法の流れを示すフローチャートである。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 運転モードにおける選別装置の操作方法の流れを示すフローチャートである。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。 コントローラに表示される画面の説明図である。
 以下、本発明の実施の形態を図面に基づいて説明する。ただし、以下に示す実施の形態は、本発明の技術思想を具体化するための選別装置を例示するものであって、本発明はそれらを以下のものに特定しない。また、本明細書は特許請求の範囲に示される部材を、実施の形態の部材に特定するものでは決してない。特に実施の形態に記載されている構成部品の寸法、材質、形状、その相対的配置等は特に特定的な記載がない限りは、本発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。なお、各図面が示す部材の大きさや位置関係等は、説明を明確にするため誇張していることがある。さらに以下の説明において、同一の名称、符号については同一もしくは同質の部材を示しており、詳細説明を適宜省略する。さらに、本発明を構成する各要素は、複数の要素を同一の部材で構成して一の部材で複数の要素を兼用する態様としてもよいし、逆に一の部材の機能を複数の部材で分担して実現することもできる。
(選別装置1)
 本発明の実施の形態に係る選別装置1について、概略図である図1、機能ブロック図である図8、及びラインセンサカメラ11とコンベア13との位置関係の説明図である図2に基づいて説明する。
 図1に示すように、本実施の形態に係る選別装置1は、供給装置2から供給され、コンベア13に流れる複数種類の物体で構成される混合物MOの中から選別対象物SOを、圧縮空気を放つエアー噴射ノズル14を用いて選別する装置であって、主として、ラインセンサカメラ11(特許請求の範囲における「データ取得部」の一例に対応する。)、第一制御部12、コントローラ15(特許請求の範囲における「操作部」の一例に対応する。)、コンベア13及びエアー噴射ノズル14とで構成される。供給装置2は、例えば、投入ホッパー21と移送コンベア22と投入フィーダー23とからなる。投入ホッパー21は、混合物MOを受け入れ可能に構成されている。移送コンベア22は、投入ホッパー21から供給される混合物MOを投入フィーダー23に供給する。投入フィーダー23は、振動フィーダー又は電磁フィーダー等で構成されており、振動することによって、混合物MO同士の重畳を防止しながら混合物MOをコンベア13に供給する。
 選別装置1は、学習モードLM及び運転モードOMの2つのモードを備えている。学習モードLMは、選別装置1を動作させるための準備、設定を行うモードである。一方、運転モードOMは、実際に混合物MOから選別対象物SOを選別するモードである。
 混合物MOは、金属や紙、プラスチック等、ラインセンサカメラ11によって取得した画像データから個々の物体を識別可能であって、エアー噴射ノズル14によるエアーの噴射によって進路を変更できる複数種類の物体で構成されている。混合物MOに含まれる物体の種類としては、例えば、金属や紙、プラスチック等が想定されるが、例えば金属という大きな括りに限定されず、より下層に分類される銅やアルミ等、色彩と形状から識別できるものは全て対象となり得る。また、本実施の形態に係る選別装置1は、例えば、アルミ、真鍮、金、銀、銅というように一度に5種類まで物体を識別できるようになっており、そのような物体で構成された混合物MOの中から、選別対象物SOとして、例えば銅のみというように一種類を選別することもできるし、例えばアルミ・真鍮・金というように同時に複数の種類を選別することもできるように構成されている。
 以下、各部材について詳細に説明する。なお、以下の説明において、便宜上、混合物MOは物体A~C(特許請求の範囲における「種別物体」の一例に対応する。)で構成され、選別対象物SOとして物体Aを選択したものとする。
(ラインセンサカメラ11)
 選別装置1は、図2に示すように、2つのラインセンサカメラ11がコンベア13の幅方向に並べて設けられている。ラインセンサカメラ11は、コンベア13のエンコーダ131からパルスを受ける度に撮像を行い、この撮像結果から画像データIDを取得する部材である。
 ラインセンサカメラ11のX方向はコンベア13の幅方向、Y方向はコンベア13の進行方向に対応しており、図2に示すように、1つのラインセンサカメラ11で、所定のX方向撮像範囲11aを撮像できる。このX方向範囲11aから、コンベア13両端の除外範囲11bとコンベア13中央の除外範囲11cとを除いたX方向有効範囲11dを2つ足し合わせたX方向範囲11eを、図3に示すように、Y方向に所定のY方向範囲11fで抜き出して画像データIDを作成する。作成された画像データIDのうち、Y方向の一端から所望の重複範囲11gは、直前に作成された画像データIDと重複する範囲である。
 学習モードにおけるラインセンサカメラ11は、混合物MOに含まれる物体を、物体ごとに撮像し、各物体の画像データIDを作成する。具体的には、複数の物体Aがコンベア13に流された状態で撮像を行い、物体Aの画像データIDを作成する。物体B、Cも同様にして、物体B、Cの画像データIDを作成する。作成された各物体の画像データIDは、撮像された物体の名称と関連付けられた状態で図8に示す記憶部121に送信され、保存される。また、物体をコンベア13に流していない状態で撮像を行い、背景画像BIを作成し、作成された背景画像BIは記憶部121に送信され、保存される。
 また、運転モードOMにおけるラインセンサカメラ11は、混合物MOがコンベア13に流された状態で撮像を行い、混合物MOの画像データIDを作成する。作成された混合物MOの画像データIDは、判断部125に送信される。
 なお、特許請求の範囲における「データ取得部」の一例としてラインセンサカメラ11を説明したが、「データ取得部」はこれに限定されず、エリアセンサカメラであってもよいし、可視光、赤外線、X線のいずれを用いたものであってもよい。X線を用いた場合、X線光源をコンベアで搬送される物体の上部、X線カメラをコンベアのベルトの下部に配置することができるし、その逆の配置も可能である。
 また、作成された各物体の画像データIDは、物体の名称以外にも、後述する選別対象選択部124において、選別対象物SOを選択する際にユーザが物体の種類が何であるか分かる情報と関連付けられていればよい。
 さらにまた、必ずしもラインセンサカメラ11で撮像、作成した背景画像BIを記憶部121に保存する必要はなく、例えば、背景画像BIは、選別装置1の製造段階で別途用意され、記憶部121に保存される態様であってもよい。
 さらにまた、背景画像BIに代えて、コンベア13の色の情報を記憶部121に保存するようにしてもよい。
(第一制御部12)
 第一制御部12は、記憶部121、学習データ作成部122、学習部123、選別対象選択部124、閾値設定部126及び判断部125を備える。第一制御部12は、運転モードOMにおいて、ラインセンサカメラ11で取得した混合物MOの画像データIDから選別対象物SOの有無及び位置を判断する。また、学習モードLMにおいては、該判断のための準備、設定が行われる。以下、各部材について詳細に説明する。
(記憶部121)
 記憶部121は、ラインセンサカメラ11で作成された物体A~Cの画像データID及び画像データIDに関連づけられた物体の名称と、背景画像BIとを保存する部材である。
(学習データ作成部122)
 学習データ作成部122は、ラインセンサカメラ11にて撮像され、取得された物体A~Cの画像データIDと背景画像BIから、学習データLDを作成し、保存する。学習データ作成部122は、画像抽出部122a、画像合成部122b及び解答作成部122cの3つの部材で構成される。各部材の構成は後述の通りである。
 作成された学習データLDは学習部123で行う学習に用いられる。1回の学習につき、1つの学習データLDが用いられ、この学習を繰り返す回数が多いほど運転モードOMにおける選別の精度は向上する。すなわち、学習データ作成部122で作成する学習データLDが多いほど、運転モードOMにおける選別の精度は向上する。なお、本発明の第一の実施例に係る選別装置1は、上限を4万回とし、ユーザが学習の繰り返し回数を自由に設定することができる態様である(詳細は後述する。)。
(画像抽出部122a)
 画像抽出部122aは、記憶部121から物体A~Cの画像データID及び背景画像BIを呼び出し、背景画像BIに基づいて、物体A~Cの画像データIDから物体が写る部分を抽出し、抽出画像データSDを作成する。例えば、物体Aの画像データIDを抽出する場合、図4に示すように、重複範囲11gを除く範囲を1ピクセルごとに背景画像BIと比較する。比較の結果、背景画像BIと一致する部分以外を物体Aが写る部分として切り出し、物体Aの抽出画像データSDを作成する。以上の通り、基本的に、重複範囲11gを除く範囲で比較を行うが、図5に示すように、物体Aがこの範囲からはみ出る位置にある場合、重複範囲11gにまで範囲を広げて比較を行う。同様にして、物体B、Cの画像データIDからも物体B、Cの抽出画像データSDを作成する。
 なお、背景画像BIと完全に一致する部分だけでなく、背景画像BIと一致するとみなす範囲を設定しておいて、これら以外を切り出し、抽出画像データSDを作成するようにしてもよい。これによれば、例えば、コンベア13に傷や汚れがあり、背景画像BIと完全に一致しなかった場合であっても、適切に物体を切り出し、該物体の抽出画像データSDを作成できる。
 また、厳密に物体が写る部分のみを抽出する必要はなく、背景画像BIが残るように物体を切り出し、該物体の抽出画像データSDを作成してもよく、例えば、物体の部分を含む長方形状や、円形状に切り出すこともできる。このように、背景画像BIが残るように物体を切り出す場合、その形状は特に限定されないが、残った背景画像BIの面積が小さくなる形状が好ましい。
(画像合成部122b)
 画像合成部122bは、図6に示すように、画像抽出部122aで作成された物体A~Cの抽出画像データSDの中から、ランダムにいくつかのデータを選択し、背景画像BIに、ランダムな位置、角度、サイズで合成して、人工的な混合物MOの画像データIDを作成する。
 すなわち、画像合成部122bは、抽出画像データSDの位置、角度、サイズを変更することで、少ない物体A~Cの画像データIDから、多数の人工的な混合物MOの画像データIDを作成することができる。なお、画像抽出部122aの項目において説明したように、背景画像BIが残るように物体を切り出して抽出画像データSDを作成する態様とした場合、画像合成部122bが、抽出画像データSD同士が重なる位置で抽出画像データSDを合成して混合物MOの画像データIDを作成しないようにする。抽出画像データSDの残った背景画像BIの部分が、他の抽出画像データSDの物体の部分と重なることで、該物体の形状が変わることを防止するためである。
(解答作成部122c)
 解答作成部122cは、画像合成部122bで作成された人工的な混合物MOの画像データIDのどの位置に物体A~Cのいずれが配置されているかを記録した情報を人工的な混合物MOの画像データIDに関連付けたデータである学習データLDを作成する。
(学習部123)
 学習部123は、人工知能を有し、学習データ作成部122にて作成された学習データLDを用いて、物体A~Cを判別する方法を学習し、学習モデルGMを作成する。
 具体的には、まず、学習データLD中の人工的な混合物MOの画像データIDに写る各物体が物体Aである確率を算出する。同様に、物体Bである確率及び物体Cである確率を算出する(これらの算出した確率を、以下では認識率RRと称す。また、認識率RRは、特許請求の範囲における「第二の認識率」の一例に対応する。)。次に、各物体を、物体A~Cの認識率RRのうち最も高かった種類の物体であると予想し、解答作成部122cで関連付けられた情報に基づいて予想が当たっていたか否かを調べる。これを繰り返して得られた知識や経験をデータ化したものである学習モデルGMを作成し、保存する。
(選別対象選択部124)
 選別対象選択部124は、ユーザが物体A~Cの中から選択した選別対象物SOの情報を学習モデルGMに関連付けたデータであるレシピREを作成し、保存する。運転モードにおいて、ユーザに選択されたレシピREは判断部125に読み出される。
 以上のとおり、選別装置1は、学習部123には物体A~Cを判別する方法を学習させ、選別対象物SOがいずれであるかは学習させない態様である。これにより、例えば、選別対象物SOを物体Aから物体Bに変更したい場合であっても、選別対象選択部124にて選別対象物SOとして物体Bを選択するだけでよいので、学習部123に学習をやり直させる必要がない。なお、学習部123に学習させる前に、選別対象物SOを選択する態様としてもよい。
(閾値設定部126)
 閾値設定部126は、選別対象物SOの認識率RRに対して閾値を設定する。設定された閾値の情報は、第二制御部141に送信され、選別対象物SOを選別する際に参照される(詳細は後述する。)。なお、閾値は必ずしも設定しなくてもよい。
(判断部125)
 判断部125は、人工知能を有し、運転モードOMにおいて、選別対象選択部124からレシピREを読み出し、このレシピREに基づいて、ラインセンサカメラ11にて作成され、送信された混合物MOの画像データIDの中から、物体Aの有無を判断し、物体Aがある場合は、そのピクセル単位の位置の情報を第二制御部141に送信する。
 物体Aの有無の判断は、学習部123と同様に、各物体の物体A~Cの認識率RRを算出し、物体Aの認識率RRが最も高かった物体を物体Aと判断する。なお、同様に、物体Bの認識率RRが最も高かった物体は物体Bと判断し、物体Cの認識率RRが最も高かった物体は物体Cと判断する。
(コンベア13)
 コンベア13は、ラインセンサカメラ11の撮像範囲を通過し、エアー噴射ノズル14の位置に物体を流して移動させる部材である。コンベア13は、所定の速度で物体を移動させる。また、コンベア13にはエンコーダ131が設けられ、エンコーダ131はコンベア13が所定距離移動する度に、ラインセンサカメラ11、第一制御部12及び第二制御部141にパルスを送信する。ラインセンサカメラ11は、このパルスを受ける度に撮像を行う。すなわち、ラインセンサカメラ11で撮像される画像データIDの1ピクセルは所定距離に相当する。また、第一制御部12及び第二制御部141は、このパルスに基づいて、物体の位置を特定する。
(エアー噴射ノズル14)
 エアー噴射ノズル14は、選別対象物SOの認識率RRが閾値設定部126で設定された閾値以上の選別対象物SOに対して圧縮空気を放ち、選別対象物SOを選別する部材である。選別装置1は、複数のエアー噴射ノズル14が、コンベア13の幅方向の全体に微小間隔で配される。前記構成により、認識率RRとユーザが設定できる閾値とを紐付けて選別対象を判断するので、人工知能を用いながらも、選別精度をユーザがコントロールできるようになり、選別精度に対するユーザのニーズに応じた選別が可能となる。具体的に、閾値を低く設定すれば大まかな分類が可能であり、閾値を高く設定すれば所望の物体だけを高精度に抽出できる。なお、選別する対象は、選別対象物SOの認識率RRが閾値設定部126で設定された閾値以上の選別対象物SOに限定されない。例えば、選別対象物SOの認識率RRが閾値設定部126で設定された閾値より大きい選別対象物SOを選別する態様としてもよい。また、上限と下限の閾値を設定して、その間の認識率RRの選別対象物SOを選別する態様としてもよいし、閾値を設定せず、全ての選別対象物SOを選別する態様としてもよい。さらにまた、選別対象物SO以外に対して圧縮空気を放ち、選別対象物SOを選別する態様としてもよい。
 また、エアー噴射ノズル14は、第二制御部141から、圧縮空気を噴射するタイミングである噴射タイミングが指示される。具体的に第二制御部は、まず、図7に示すように、判断部125から送信された物体Aの位置情報に基づき、圧縮空気を噴射する噴射領域IRを設定する。次に、エアー噴射ノズル14ごとに噴射領域IRに基づいて噴射タイミングを設定する。噴射タイミングは、コンベア13の進行方向に対して所定の時間間隔で設けられる。すなわち、図7に示す混合物MOの画像データIDを例として考えると、画像データIDの上端部がエアー噴射ノズル14の位置に到達した時間T0を基準に、d~h列のエアー噴射ノズル14に対して、エアー噴射ノズル14が噴射領域IRを通過するタイミングで圧縮空気を噴射するよう指示する。
 エアー噴射ノズル14で圧縮空気を噴射された物体Aは、コンベア13の下部に配置され、選別される材質の種類毎に設けられた回収ホッパー3のホッパー31によって回収される。エアー噴射ノズル14で圧縮空気が噴射されない物体B、物体Cは、ホッパー32によって回収される。
(コントローラ15)
 コントローラ15は、タッチパネル式のコントローラであって、ユーザは、コントローラ15を用いることで、選別装置1を容易に操作することができる。コントローラ15は、モード切替ボタン15a(特許請求の範囲における「モード切替指示部」の一例に対応する。)、撮像ボタン15b(特許請求の範囲における「データ取得指示部」の一例に対応する。)、学習データ作成ボタン15c(特許請求の範囲における「学習データ作成指示部」の一例に対応する。)、学習開始ボタン15d(特許請求の範囲における「学習開始指示部」の一例に対応する。)、選別対象選択ボタン15e(特許請求の範囲における「選別対象選択指示部」の一例に対応する。)、閾値設定ボタン15h(特許請求の範囲における「閾値設定部」の一例に対応する。)、運転開始ボタン15f(特許請求の範囲における「運転開始指示部」の一例に対応する。)及び運転終了ボタン15gを備える。
(選別装置1の操作方法)
 以下でコントローラ15を用いて選別装置1を操作する方法について説明する。
(学習モードLMにおける操作方法)
 学習モードLMにおける、選別装置1の操作方法について図8の機能ブロック図、図9のフローチャート及び図10~図17のコントローラ15に表示される画面の説明図に基づき説明する。
 まず、ステップST101でモード切替ボタン15aを用いて、選別装置1を学習モードLMに切り替える。選別装置1を起動した際、コントローラ15には図10に示す画面が表示されるので、学習モードボタン151aを押下することで選別装置1を学習モードLMに切り替えられ、コントローラ15に図11に示す画面が表示される。
 次に、ステップST102でラインセンサカメラ11に物体A~Cの画像データID及び背景画像BIを作成させる。ユーザは、複数の物体Aをコンベアに流し、図11に示される画面における撮像ボタン15bを押下するとラインセンサカメラ11は撮像を開始し、物体Aの画像データIDを作成する。物体Aの画像データIDの取得が完了すると、コントローラ15には、図12に示す画面が表示されるので、ユーザは名称入力部151bに物体Aの名称を入力し、記憶部121に保存する。物体Aの保存が完了すると、コントローラ15には再度図11の画面が表示されるので、ユーザは、同様の手順で、物体B、C及び背景画像BIの撮影を行う。
 次いで、ステップST103で学習データ作成部に学習データLDを作成させる。ユーザが、図11に示される画面における学習データ作成ボタン15cを押下すると、コントローラ15には図13に示す画面が表示される。ユーザは、物体選択ボタン151cを押下することで図14に示すように表示される記憶部121に保存された物体の名称の一覧から、学習データLDの作成に用いる物体(本説明の場合は「物体A」、「物体B」、「物体C」)を選択する。選択を完了すると、コントローラ15には再度、図13に示す画面が表示されるので、データ数入力部152cに作成する学習データLDの数を入力する。入力が完了すると、コントローラ15には図15に示すように、ユーザに学習データLDの作成が完了するまでの予想時間を示す待機画面が表示される。学習データLDの作成が完了すると、コントローラ15には図11に示す画面が表示される。
 最後に、ステップST104で学習部123に学習データLDを用いて学習させ、学習モデルGMを作成させる。ユーザが、図11に示される画面における学習開始ボタン15dを押下すると、コントローラ15には図16に示す画面が表示される。ユーザは、図16に示すように表示される学習データ作成部122に保存された学習データLDの一覧(学習データLDの作成に用いられた物体の名称が表示される。)から、学習部123の学習に用いる学習データLD(本説明の場合は「物体A、物体B、物体C」)を選択する。選択を完了すると、コントローラ15には図17に示すように、ユーザに学習モデルGMの作成が完了するまでの予想時間を示す待機画面が表示される。学習モデルGMの作成が完了すると、コントローラ15には図11に示す画面が表示される。
(運転モードOMにおける操作方法)
 運転モードOMにおける、選別装置1の操作方法について図8の機能ブロック図、図18のフローチャート及び図19~図21のコントローラ15に表示される画面の説明図に基づき説明する。
 まず、ステップST201でモード切替ボタン15aを用いて、選別装置1を運転モードOMに切り替える。選別装置1を起動した際、コントローラ15には図10に示す画面が表示されるので、運転モードボタン152aを押下することで選別装置1は運転モードOMに切り替えられ、コントローラ15に図19に示す画面が表示される。
 次に、ステップST202で選別対象物SOに物体Aを選択し、選別対象選択部124にレシピREを作成させる。ユーザが、図19に示される画面における選別対象選択ボタン15eを押下すると、コントローラ15には図20に示す画面が表示される。ユーザは、図20に示すように表示される学習部123に保存された学習モデルGMの一覧(学習モデルGMの作成に用いられた物体の名称が表示される。)から、判別に用いる学習モデルGM(この実施例の場合は「物体A、物体B、物体C」)を選択する。選択を完了すると、コントローラ15には図21に示す画面が表示される。ユーザは、図21に示すように表示される選択した学習モデルGMの作成に用いられた物体の一覧から、選別対象物SO(本説明の場合は「物体A」)を選択する。選択を完了すると、選別対象選択部124はレシピREを作成し、コントローラ15には図19に示す画面が表示される。
 次いで、ステップST203で選別対象物SOの認識率RRに対して閾値を設定させる。ユーザが、図19に示される画面における閾値設定ボタン15hを押下すると、コントローラ15には図22に示す画面が表示されるので、閾値入力部151hに所望の閾値を入力する。入力が完了すると、閾値設定部126は、閾値の情報を第二制御部141に送信し、コントローラ15には図19に示す画面が表示される。
 なお、閾値入力部151hに所望の閾値を入力しなかった場合は、閾値を設定しなかったものと判断して全ての選別対象物SO、つまり、選別対象物SOに設定した物体の認識率RRが最も高かった物体の全てを選別する。また、ユーザが閾値を設定する手段はコントローラ15のタッチパネルに表示される閾値設定ボタン15hに限定されない。例えば、閾値設定ボタン15hに代えてタッチパネルにシークバーを表示し、該シークバーを用いて閾値の設定を行えるよう構成してもよい。さらに言えば、閾値を設定する手段はタッチパネルを用いたものに限定されず、例えば、ボタンやロータリースイッチ等をコントローラ15に設け、これらで閾値の設定ができるよう構成してもよいし、前述の閾値を設定する手段を併用する態様であってもよい。さらにまた、閾値の設定は、ステップST203だけでなく、後述するステップST204で行えるようにしてもよい。この構成によれば、ユーザは、実際の選別結果を確認し、閾値を微調整することもできる。この際、閾値を設定する手段が前述のシークバーやロータリースイッチを用いたものであれば、感覚的に操作することが可能となり、微調整に好適である。
 次いで、ステップST204で物体Aを選別させる。ユーザは、混合物MOをコンベアに流し、図19に示される画面における運転開始ボタン15fを押下すると、ラインセンサカメラ11は撮像を開始し、判断部125は物体Aの有無及び物体Aのピクセル単位の位置を判断し、この判断に基づいて、エアー噴射ノズル14は物体Aを選別する。
 最後に、ステップST205で、運転終了ボタン15gを押下し、選別を終了させる。
 なお、コントローラ15の態様や、画面の表示は前述のものに限定されず、ユーザが選別装置1を容易に操作できるよう適宜変更してよい。例えば、押しボタンを用いたコントローラ15であってもよく、この場合、モード切替ボタン15aは不要である。また、モード切替ボタン15aを設けず、一画面にすべてのボタンを表示する態様としてもよい。また、コントローラ15に、ユーザに対して次の操作を指示する表示をしてもよい。
 また、前述した実施の形態では、各々のボタンにそれぞれ別々の機能を持たせているが、各々の機能が連動したり、所定のボタンが種々の機能を兼用するようにしてもよい。例えば、学習データ作成ボタン15cを押下することによって、学習データLDを作成するとともに、該学習データに基づいて学習モデルGMを作成するようにしてもよい。また、例えば、運転開始ボタン15fが運転終了を指示する機能を兼ねており、一回目の運転開始ボタン15fの押下で運転が開始し、二回目の押下で運転が終了するようにしてもよい。また、前述した実施の形態では、物体Aを選別対象にして説明しているが、複数の物体を選別対象とし、それに応じてエアー噴射ノズルやホッパーを複数個設けるようにしても良い。
 以上説明したように、本発明を適用した選別装置1は、人工知能を用いて混合物MOの撮像データから選別対象物SOの有無及び位置を判断することができるため、物体を選別する基準やアルゴリズムの設定が不要であることに加え、コントローラ15に表示される各種ボタンを用いて、閾値を設定する工程を含め、容易に操作することができる。また、混合物の各物体が選別対象物である確率を示す認識率を人工知能に算出させ、該認識率とユーザが設定できる閾値とを紐付けて選別対象を判断するので、選別精度をユーザがコントロールできる。
 したがって、本発明によれば、煩雑な設定作業の大半を人工知能に行わせることができることに加え、操作部により簡単に操作できることによって、ユーザが専門的な技術や知識を有していなくとも、選別対象物SOを選別するための設定を容易に行える。
 本発明に係る選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器は、物体を2以上の種類に選別する用途に適用できる。
1…選別装置
11…ラインセンサカメラ
11a…X方向撮像範囲;11b、11c…除外範囲;11d…X方向有効範囲;11e…X方向範囲;11f…Y方向範囲;11g…重複範囲
12…第一制御部
121…記憶部
122…学習データ作成部;122a…画像抽出部;122b…画像合成部;122c…解答作成部
123…学習部
124…種類選択部
126…閾値設定部
125…判断部
13…コンベア
131…エンコーダ
14…エアー噴射ノズル
141…第二制御部
15…コントローラ
15a…モード切替ボタン;151a…学習モードボタン;152a…運転モードボタン
15b…撮像ボタン;151b…名称入力部
15c…学習データ作成ボタン;151c…物体選択ボタン;152c…データ数入力部
15d…学習開始ボタン
15e…選別対象選択ボタン
15h…閾値設定ボタン;151h…閾値入力部
15f…運転開始ボタン
15g…運転終了ボタン
2…供給装置
21…投入ホッパー;22…移送コンベア;23…投入フィーダー
3…回収ホッパー
31、32…ホッパー
MO…混合物
SO…選別対象物
ID…画像データ
LD…学習データ
SD…抽出画像データ
BI…背景画像
GM…学習モデル
RE…レシピ
RR…認識率
IR…噴射領域
LM…学習モード
OM…運転モード

Claims (23)

  1.  複数種類の物体で構成される混合物の中から選別対象物を選別する選別装置であって、
     種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得部と、
     前記データ取得部で取得された前記種別物体のデータから学習データを作成する学習データ作成部と、
     前記学習データ作成部によって作成された学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習部と、
     前記種別物体の中から前記選別対象物の種類を選択する選別対象選択部と、
     前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物の撮像データから前記選別対象選択部にて選択された種類の選別対象物の有無及び位置を判断する判断部と、
     前記判断部の判断結果に基づいて前記混合物の中から前記選別対象物を選別する選別部と、
     前記各部に対して、ユーザからの操作を受けて指示を与える操作部と、
    を備える選別装置。
  2.  請求項1に記載の選別装置であって、
     前記操作部が、
     前記データ取得部にデータの取得を指示するデータ取得指示部と、
     前記学習データ作成部に前記学習データの作成開始を指示する学習データ作成指示部と、
     前記学習部に前記学習モデルの作成を指示する学習開始指示部と、
     前記選別対象選択部に前記選別対象物の種類の選択を指示する選別対象選択指示部と、
     前記判別部に前記選別対象物の有無及び位置を判断させ、前記選別部に、該判断結果に基づいて前記混合物の中から前記選別対象物を選別させる運転開始指示部と、
    を備えることを特徴とする選別装置。
  3.  請求項1又は請求項2に記載の選別装置であって、
     前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を指示するモード切替指示部を備えることを特徴とする選別装置。
  4.  請求項3に記載の選別装置であって、
     前記操作部が、少なくとも、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部及び運転開始指示部を一画面に表示することを特徴とする選別装置。
  5.  請求項1~4のいずれか一に記載の選別装置であって、
     前記操作部が、タッチパネルであることを特徴とする選別装置。
  6.  請求項1~5のいずれか一に記載の選別装置であって、
     前記データ取得部が可視カメラを備え、
     前記データ取得部によって取得されるデータが画像データであることを特徴とする選別装置。
  7.  請求項6に記載の選別装置であって、さらに、
     前記種別物体の画像データと該種別物体の種類を特定する情報とを関連付けて保存する記憶部を備え、
     前記学習データ作成部は、
      前記データ取得部で取得した前記種別物体の画像データから背景を取り除いて該種別物体を抽出してなる抽出画像データを作成する画像抽出部と、
      前記画像抽出部にて作成された、前記混合物に含まれる物体全種類の前記抽出画像データの中から、一又は複数の抽出画像データをランダムに選択し、前記データ取得部にて撮像された背景の画像データと該抽出画像データとを合成してなる学習用画像データを作
    成する画像合成部と、
      前記画像合成部にて作成された前記学習用画像データと前記記憶部に保存された情報に基づいて特定される前記学習用画像データに含まれる種別物体の種類及び位置の情報とを関連付けて前記学習データを作成する解答作成部と、
    からなることを特徴とする選別装置。
  8.  請求項1~7のいずれか一に記載の選別装置であって、
     前記選別部が、前記判断結果に基づいて前記選別対象物に圧縮した空気を当て、前記混合物の中から前記選別対象物を選別することを特徴とする選別装置。
  9.  請求項1~8のいずれか一に記載の選別装置であって、
     前記判断部が、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、
     前記選別部が、前記判断部の判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することを特徴とする選別装置。
  10.  請求項9に記載の選別装置であって、
     前記選別部が、前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別装置。
  11.  請求項9又は請求項10に記載の選別装置であって、
     前記判断部が、前記学習部にて作成された学習モデルに基づいて、前記データ取得部で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別装置。
  12.  請求項9~11のいずれか一に記載の選別装置であって、さらに、
     前記第一の認識率に対して所望の閾値を設定する閾値設定部を備え、
     前記操作部が前記閾値設定部に前記閾値の設定を指示する閾値設定指示部を有することを特徴とする選別装置。
  13.  複数種類の物体で構成される混合物の中から選別対象物を選別する選別方法であって、
     データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得するデータ取得工程と、
     学習データ作成指示部からの操作を受けて、前記データ取得工程にて取得した前記種別物体のデータから学習データを作成する学習データ作成工程と、
     学習開始指示部からの操作を受けて、前記学習データ作成工程にて作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する学習工程と、
     選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する選別対象選択工程と、
     運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程にて取得した混合物のデータから前記選別対象選択工程にて選択された種類の選別対象物の有無及び位置を判断し、該判断結果に基づいて前記混合物の中から前記選別対象物を選別する運転工程と、
    を含む選別方法。
  14.  請求項13に記載の選別方法であって、
     モード切替指示部からの操作を受けて、少なくとも、前記データ取得指示部、学習データ作成指示部及び学習開始指示部を表示する学習モードと、少なくとも、前記運転開始指示部を表示する運転モードとを含むモード切替操作を行うことを特徴とする選別方法。
  15.  請求項13又は請求項14に記載の選別方法であって、
     少なくとも、前記データ取得指示部、学習データ作成指示部、学習開始指示部、選別対象選択指示部及び運転開始指示部を一画面に表示することを特徴とする選別方法。
  16.  請求項13~15のいずれか一に記載の選別方法であって、
     前記運転工程において、運転開始指示部からの操作を受けて、前記学習工程にて作成した学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び前記第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することを特徴とする選別方法。
  17.  請求項16に記載の選別方法であって、
     前記運転工程において、前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別方法。
  18.  請求項16又は請求項17に記載の選別方法であって、
     前記運転工程において、前記学習工程にて作成された学習モデルに基づいて、前記データ取得工程で取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別方法。
  19.  複数種類の物体で構成される混合物の中から選別対象物を選別するための選別プログラムであって、
     データ取得指示部からの操作を受けて、種類ごとに分別された前記物体である種別物体又は前記混合物に基づくデータを取得する機能と、
     学習データ作成指示部からの操作を受けて、前記取得した前記種別物体の撮像データから学習データを作成する機能と、
     学習開始指示部からの操作を受けて、前記作成した学習データを用いて混合物を種類ごとに分別し、種別物体にする方法を学習し、該学習によって得られた知識及び経験をデータ化した学習モデルを作成する機能と、
     選別対象選択指示部からの操作を受けて、前記種別物体の中から前記選別対象物の種類を選択する機能と、
     運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから前記選択された種類の選別対象物の有無及び位置を判断し、該判断結果に基づいて前記混合物の中から前記選別対象物を選別する機能と、
    をコンピュータに実現させる選別プログラム。
  20.  請求項19に記載の選別プログラムであって、
     運転開始指示部からの操作を受けて、前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記選別対象選択部にて選択された選別対象物である確率を示す第一の認識率を算出し、該第一の認識率に基づいて、前記選別対象物の有無及び位置を判断し、該判断結果及び第一の認識率に対して設けられる閾値に基づいて前記混合物の中から前記選別対象物を選別することを特徴とする選別プログラム。
  21.  請求項20に記載の選別プログラムであって、
     前記第一の認識率が前記閾値以上の選別対象物を選別することを特徴とする選別プログラム。
  22.  請求項20又は請求項21に記載の選別プログラムであって、
     前記作成した学習モデルに基づいて、前記取得した混合物のデータから、前記混合物中の各物体が前記種別物体毎に該種別物体である確率を示す第二の認識率を算出し、該第二の認識率に基づいて、前記混合物中の各物体の種類を特定し、該種類が前記選別対象物の種類と一致する場合の第二の認識率を前記第一の認識率とみなして、前記選別対象物の有無及び位置を判断することを特徴とする選別プログラム。
  23.  請求項19~22のいずれか一に記載のプログラムを記録したコンピュータで読み取り可能な記録媒体又は記憶した機器。
PCT/JP2019/017853 2018-04-26 2019-04-26 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器 WO2019208754A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020207018659A KR20210002444A (ko) 2018-04-26 2019-04-26 선별 장치, 선별 방법 및 선별 프로그램 그리고 컴퓨터로 판독 가능한 기록 매체 또는 기억한 기기
CN201980015704.7A CN111819598B (zh) 2018-04-26 2019-04-26 分选装置、分选方法以及分选程序和计算机可读取的记录介质或存储设备

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018085343A JP7072435B2 (ja) 2018-04-26 2018-04-26 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体
JP2018-085343 2018-04-26
JP2018-097254 2018-05-21
JP2018097254A JP6987698B2 (ja) 2018-05-21 2018-05-21 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2019208754A1 true WO2019208754A1 (ja) 2019-10-31

Family

ID=68294682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017853 WO2019208754A1 (ja) 2018-04-26 2019-04-26 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器

Country Status (3)

Country Link
KR (1) KR20210002444A (ja)
CN (1) CN111819598B (ja)
WO (1) WO2019208754A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021205721A1 (ja) * 2020-04-10 2021-10-14 株式会社椿本チエイン データ収集方法、データ収集システム、データ収集装置、データ提供方法、及び、コンピュータプログラム
WO2022224478A1 (ja) * 2021-04-21 2022-10-27 Jx金属株式会社 電気電子部品屑の処理方法及び電気電子部品屑の処理装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113560198B (zh) * 2021-05-20 2023-03-03 光大环境科技(中国)有限公司 类别分选方法和类别分选系统
CN114669493A (zh) * 2022-02-10 2022-06-28 南京搏力科技有限公司 一种基于人工智能的废纸质量自动检测装置及检测方法
KR102650810B1 (ko) * 2023-09-27 2024-03-25 주식회사 에이트테크 대상객체와 비대상객체 분리 로봇 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (ja) * 2010-12-02 2012-06-21 Sharp Corp 廃棄物の選別システム
JP2017109197A (ja) * 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2978374B2 (ja) * 1992-08-21 1999-11-15 松下電器産業株式会社 画像処理装置及び画像処理方法並びに空気調和機の制御装置
JP2009282631A (ja) * 2008-05-20 2009-12-03 Canon Inc パターン識別用パラメータ学習方法及び装置
KR101717729B1 (ko) * 2012-12-17 2017-03-17 한국전자통신연구원 영상에서의 휴먼 인지 장치 및 방법
KR101782363B1 (ko) * 2016-05-23 2017-09-27 (주)에이앤아이 데이터 밸런싱을 통한 학습기반의 비전검사 방법
JP2018017639A (ja) 2016-07-29 2018-02-01 株式会社 深見製作所 表面欠陥検査方法及び表面欠陥検査装置
CN107958197A (zh) * 2016-10-14 2018-04-24 松下电器(美国)知识产权公司 学习数据制作支援方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012115785A (ja) * 2010-12-02 2012-06-21 Sharp Corp 廃棄物の選別システム
JP2017109197A (ja) * 2016-07-06 2017-06-22 ウエノテックス株式会社 廃棄物選別システム及びその選別方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021205721A1 (ja) * 2020-04-10 2021-10-14 株式会社椿本チエイン データ収集方法、データ収集システム、データ収集装置、データ提供方法、及び、コンピュータプログラム
JP2021167238A (ja) * 2020-04-10 2021-10-21 株式会社椿本チエイン データ収集方法、データ収集システム、データ収集装置、データ提供方法、及び、コンピュータプログラム
JP7107331B2 (ja) 2020-04-10 2022-07-27 株式会社椿本チエイン データ収集方法、データ収集システム、データ収集装置、データ提供方法、及び、コンピュータプログラム
WO2022224478A1 (ja) * 2021-04-21 2022-10-27 Jx金属株式会社 電気電子部品屑の処理方法及び電気電子部品屑の処理装置
JP2022166727A (ja) * 2021-04-21 2022-11-02 Jx金属株式会社 電気電子部品屑の処理方法及び電気電子部品屑の処理装置
JP7264936B2 (ja) 2021-04-21 2023-04-25 Jx金属株式会社 電気電子部品屑の処理方法及び電気電子部品屑の処理装置

Also Published As

Publication number Publication date
CN111819598B (zh) 2023-06-13
KR20210002444A (ko) 2021-01-08
CN111819598A (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
WO2019208754A1 (ja) 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体又は記憶した機器
US20210078166A1 (en) Display control device, display control method, computer program product, and communication system
US8782553B2 (en) Human-machine-interface and method for manipulating data in a machine vision system
US9766604B2 (en) Control device, control method, computer program product, and robot control system
JP2022036094A (ja) 選別装置
JP5795594B2 (ja) ヒューマンインタラクションによる軌跡に基づいたシステム
JP6756338B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP2007179207A5 (ja)
WO2015131084A1 (en) System and method for performing spatio-temporal analysis of sporting events
JP7072435B2 (ja) 選別装置、選別方法及び選別プログラム並びにコンピュータで読み取り可能な記録媒体
JP5349632B2 (ja) 画像処理方法及び画像処理装置
CN105929987A (zh) 显示装置、显示控制方法以及程序
JP6519157B2 (ja) 情報評価装置、情報評価方法、及びプログラム
CN110297545A (zh) 手势控制方法、手势控制装置和系统、以及存储介质
CN105224939A (zh) 数字区域的识别方法和识别装置、移动终端
JP2010152717A (ja) 画像処理装置、方法及びプログラム
KR101976493B1 (ko) 영상 감시장치에서 객체영역을 설정하는 방법 및 이를 위한 장치
JP6642644B2 (ja) 移動体、制御方法、およびプログラム
WO2020012939A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2020049653A (ja) 移動体、制御方法、およびプログラム
JP2016106038A (ja) 制御装置、制御方法、およびプログラム
TW202217743A (zh) 顯示方法、控制裝置、顯示裝置及程式
JP2007087326A (ja) 制御情報生成装置、及び制御情報生成方法
JP2020187654A (ja) 画像検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19792874

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19792874

Country of ref document: EP

Kind code of ref document: A1