WO2023003288A2 - 인공지능 기반의 재활용품 선별 시스템 및 방법 - Google Patents

인공지능 기반의 재활용품 선별 시스템 및 방법 Download PDF

Info

Publication number
WO2023003288A2
WO2023003288A2 PCT/KR2022/010389 KR2022010389W WO2023003288A2 WO 2023003288 A2 WO2023003288 A2 WO 2023003288A2 KR 2022010389 W KR2022010389 W KR 2022010389W WO 2023003288 A2 WO2023003288 A2 WO 2023003288A2
Authority
WO
WIPO (PCT)
Prior art keywords
recyclables
robot
sorting area
camera
conveyor
Prior art date
Application number
PCT/KR2022/010389
Other languages
English (en)
French (fr)
Other versions
WO2023003288A3 (ko
Inventor
이종혁
Original Assignee
주식회사 서르
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 서르 filed Critical 주식회사 서르
Publication of WO2023003288A2 publication Critical patent/WO2023003288A2/ko
Publication of WO2023003288A3 publication Critical patent/WO2023003288A3/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/38Collecting or arranging articles in groups
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present invention sorts recyclables, and more particularly, relates to a recyclables sorting system and method for accurately sorting recyclables by type using artificial intelligence.
  • the daily average waste generation in 2018 was tentatively counted as 430,899 tons. On an annual basis, it is an amount that can fill about 157 million tons, about 4.8 million 20-foot containers, or about 10 million 15-ton dump trucks.
  • the present invention stops a conveyor for moving a plurality of recyclables for each sorting area, and takes images of a plurality of recyclables located on the conveyor in a state where the conveyor is stopped for each sorting area. Its purpose is to collect recyclables by type.
  • a method for sorting recyclables based on artificial intelligence according to the present invention for solving the above problems is to transfer a plurality of recyclables to a first sorting area among a plurality of sorting areas through a conveyor of the recycling system, and then the first sorting stopping the transfer of the conveyor in an area; obtaining an image including a plurality of recyclable items located on the first sorting area through a camera of the recycling system; Recognizing the plurality of recyclables in the obtained image for each of a plurality of recycling types, and when the recognition is completed, transferring the plurality of recyclables from the first sorting area to the second sorting area through the conveyor, and then the first sorting area. 2 Stopping the transfer of the conveyor in a sorting area, and collecting only recyclables corresponding to a recycling type assigned to the robot from among the plurality of recyclables located on the second sorting area through a robot of the recycling system. made including
  • the camera is disposed only in the first sorting area among the plurality of sorting areas
  • the robot includes a plurality of robots that collect recyclables by type, and the plurality of robots collect the recyclables from among the plurality of sorting areas.
  • Each of the plurality of recyclables may be disposed in a plurality of sorting areas except for the first sorting area, and the plurality of robots, based on the recognized recycling type, whenever the plurality of recyclables are transported to the corresponding sorting area, respectively, only the assigned recyclables. Can be selectively collected.
  • the camera includes the plurality of cameras
  • the robot includes a plurality of robots that each collect recyclables by type, and the plurality of cameras and the plurality of robots alternate with each other in each of the plurality of sorting areas.
  • the plurality of cameras acquire images containing a plurality of recyclables located on the corresponding sorting area, respectively, and the plurality of robots are recognized from images of cameras disposed in the previous sorting area of the corresponding sorting area. Based on the type of recycling, whenever the plurality of recyclables are transported to the corresponding sorting area, only the recyclables allocated to each may be selectively collected.
  • the camera includes the plurality of cameras
  • the robot includes a plurality of robots that collect recyclables by type, and only a specific camera among the plurality of cameras is disposed in the first sorting area, 1
  • each of the plurality of selection areas except for the selection area at least one camera and the plurality of robots, except for the specific camera, are respectively disposed, and the at least one camera excluding the specific camera is disposed together in the corresponding selection area
  • an image including a plurality of recyclable items in the corresponding sorting area may be acquired.
  • a partial image of a part containing the recyclables is acquired in real time through a recognition module provided on one side of the robot, and the location is changed according to the movement of the conveyor or the collection of the recyclables.
  • the recyclables are re-recognized in the obtained partial image, and the stop time of the conveyor is changed according to the number of recyclables assigned to the robot in the plurality of sorting areas, and the recyclables The higher the number, the longer the stop time.
  • the artificial intelligence-based recyclables sorting system includes a conveyor for transporting a plurality of recyclables to a plurality of sorting areas, a camera for photographing the plurality of recyclables, a robot for collecting the plurality of recyclables, and the above
  • the conveyor is stopped in the first sorting area, and the plurality of recyclables located on the first sorting area are stopped through the camera.
  • the plurality of recyclables in the obtained image are recognized for each recycling type based on a first artificial intelligence model, and when the recognition is completed, the plurality of recyclables are passed through the conveyor.
  • the conveyor After transferring from the first sorting area to the second sorting area, the conveyor is stopped in the second sorting area, and the robot among the plurality of recyclables located on the second sorting area through the robot. It includes a server that controls to collect only recyclables corresponding to the assigned recycling types.
  • the conveyor for moving a plurality of recyclables is stopped for each sorting area, and in a state in which the conveyor is stopped for each sorting area, images of a plurality of recyclables located on the conveyor are taken or a plurality of recyclables are sorted by type.
  • the recyclables located on the conveyor are photographed while the conveyor is stopped, and the recyclables are separated by type based on this, so that, unlike the conventional method of classifying recyclables on a moving conveyor, high accuracy can be obtained. there is.
  • FIG. 1 is a diagram for explaining a recycling system according to the present invention.
  • Figure 2a is a block diagram schematically showing a server for sorting recyclables according to the present invention.
  • Figure 2b is an exemplary view showing that the part for collecting a plurality of recyclable items of the robot 40 according to the present invention is composed of a needle plate 43 rather than a robot tongs.
  • FIG. 2C is an exemplary view showing that the part of the robot 40 according to the present invention that collects a plurality of recyclable items is composed of the suction substrate 46 rather than the robot tongs.
  • FIG 3 is an exemplary view showing a first arrangement structure between a camera and a robot in a recycling system according to the present invention.
  • 4A to 4C are exemplary diagrams for explaining a process of sorting recyclables using a camera and a robot in the first arrangement structure of FIG. 3 .
  • FIG 5 is an exemplary view showing a second arrangement structure between a camera and a robot in the recycling system according to the present invention.
  • 6A to 6C are exemplary diagrams for explaining a process of sorting recyclables using a camera and a robot in the second arrangement structure of FIG. 5 .
  • FIG. 7 is an exemplary view showing a third arrangement structure between a camera and a robot of the recycling system according to the present invention.
  • 8A to 8C are exemplary diagrams for explaining a process of sorting recyclables using a camera and a robot in the third arrangement structure of FIG. 7 .
  • FIG. 9 is a flowchart illustrating a process of sorting recyclables according to the present invention.
  • FIG. 1 is a diagram for explaining a recycling system 1 according to the present invention.
  • FIG. 2A is a schematic block diagram of a server 10 for sorting recyclables according to the present invention.
  • Figure 2b is an exemplary view showing that the part for collecting a plurality of recyclable items of the robot 40 according to the present invention is composed of a needle plate 43 rather than a robot tongs.
  • FIG. 2C is an exemplary view showing that the part of the robot 40 according to the present invention that collects a plurality of recyclable items is composed of the suction substrate 46 rather than the robot tongs.
  • the recycling system (1) stops the conveyor for moving a plurality of recyclables in each sorting area, takes images of a plurality of recyclables located on the conveyor while the conveyor is stopped in each sorting area, or collects the plurality of recyclables by type. It may have the effect of increasing the efficiency of collection of recyclables.
  • the recycling system 1 takes pictures of the recyclables located on the conveyor while the conveyor is stopped, and separates the recyclables by type based on this, thereby having high accuracy unlike the conventional method of classifying recyclables on a moving conveyor.
  • the recyclables may include at least one of cans, glass products, plastic products, paper products, and vinyl.
  • Such a recycling system 1 includes a server 10 for sorting a plurality of recyclable products, a conveyor 20 driven to move the plurality of recyclable products, and a camera 30 for obtaining an image including the plurality of recyclable products. ), a robot 40 and a communication network 50 that collect only recyclables corresponding to an assigned recycling type among the plurality of recyclables from the conveyor 20 .
  • the recycling system 1 may include fewer or more components than those shown in FIG. 1 .
  • the arrangement of the camera 30 and the robot 40 may be configured in various ways.
  • the server 10 may include a communication unit 110 , a memory 120 and a processor 130 .
  • the server 10 may include fewer or more components than those shown in FIG. 2 .
  • the server 10 may include all of various devices capable of providing results to users by performing calculation processing.
  • the communication unit 110 is between the server 10 and the conveyor 20, between the server 10 and the camera 30, between the server 10 and the robot 40, and between the server 10 and an external server (not shown).
  • one or more modules enabling wireless communication between the server 10 and the communication network 50 may be included.
  • the communication unit 110 may include one or more modules that connect the server 10 to one or more networks.
  • the memory 120 may store data supporting various functions of the server 10 .
  • the memory 120 may store a plurality of application programs (application programs or applications) running in the server 10 , data for operation of the server 10 , and commands. At least some of these application programs may exist for basic functions of the server 10 . Meanwhile, the application program may be stored in the memory 120, installed on the server 10, and driven by the processor 130 to perform the operation (or function) of the server 10.
  • the memory 120 may include a plurality of processes for sorting the recyclable items.
  • the plurality of processes will be described later when the operation of the processor 130 is described.
  • the processor 130 may control general operations of the server 10 in addition to operations related to the application program.
  • the processor 130 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 120.
  • the processor 130 may control at least some of the components discussed in conjunction with FIG. 2 in order to drive an application program stored in the memory 120 . Furthermore, the processor 130 may combine and operate at least two or more of the components included in the server 10 to drive the application program.
  • the processor 130 transfers the plurality of recyclables to a first sorting area among a plurality of sorting areas through the conveyor 20 of the recycling system 1 and then transports the conveyor 20 in the first sorting area. can be stopped
  • the processor 130 may stop the transfer of the conveyor 20 after transferring the plurality of recyclables to the first sorting area through the conveyor 20 based on a first process among the plurality of processes. there is.
  • the plurality of selection regions may include a first selection region to an Nth selection region, where N may be a natural number.
  • intervals between the first selection area and the Nth selection area may be the same.
  • the processor 130 may obtain an image including a plurality of recyclable items located on the first sorting area through the camera 30 of the recycling system 1 .
  • the processor 130 may obtain an image including a plurality of recyclable items located on the first sorting area through the camera 30 based on a second process among the plurality of processes.
  • the processor 130 may acquire images of a plurality of recyclable items located on the first sorting area through a Kinect sensor (not shown) of the recycling system 1 .
  • the image is an image of a state in which a plurality of recyclable articles overlapped on the first sorting area, and depth information of a state in which the plurality of recyclable articles overlapped may be included as metadata.
  • the processor 130 based on the depth information included in the image, in the case of a recyclable product weighing more than a predetermined weight lying on the bottom of a plurality of recyclable products, passes without sorting in order to reduce the failure of the robot 40. can decide
  • a Kinect sensor may be additionally located on a selection area where the camera 30 is located.
  • a Kinect sensor may be included in the camera 30 and positioned on the selection area.
  • the processor 130 may recognize the plurality of recyclables by a plurality of recycling types within the image based on an artificial intelligence model.
  • the processor 130 may recognize the plurality of recyclables by a plurality of recycling types in the image based on the artificial intelligence model based on a third process among the plurality of processes.
  • the processor 130 may perform the above-described operation without recognizing the recyclables at high speed when recognizing the recyclables by a plurality of recyclable types in the image.
  • the processor 130 since the processor 130 recognizes a plurality of recyclables in the image and recognizes them by a plurality of recycling types, a very high-performance GPU (Graphics Processing Unit) is required to recognize them at high speed, but the processor 130 Since it is not necessary to perform the above-described operation at a high speed, the cost of installing the high-performance GPU can be reduced.
  • a very high-performance GPU Graphics Processing Unit
  • the artificial intelligence model may include a convolutional neural network (CNN, hereinafter referred to as CNN), but is not necessarily limited thereto, and may be formed of neural networks having various structures.
  • CNN convolutional neural network
  • Such CNN applies a plurality of filters to each region of the image to create a feature map, and spatially integrates the feature map with a convolution layer to create a feature that is invariant to changes in position or rotation. It may be formed in a structure in which a pooling layer that enables extraction is alternately repeated several times. Through this, features of various levels can be extracted, ranging from low-level features such as points, lines, and planes to complex and meaningful high-level features.
  • the artificial intelligence model builds images taken at various angles for various shapes for each of a plurality of recycling types of the plurality of recyclables as a learning data set, and can be machine-learned based on the built learning data set. there is.
  • the artificial intelligence model sets images captured at various angles for cans that have been crushed in various shapes, cans that have been partially cut, cans with paper or vinyl, etc. attached thereto. can be built with
  • the artificial intelligence model may be machine-learned to recognize, for example, a can with paper or vinyl attached thereto as the can, not the paper or vinyl, among the recyclables.
  • the artificial intelligence model may build as a learning data set images taken from various angles for glass products broken in various shapes, glass products with paper or vinyl attached thereto, in the case of glass products among the recyclables. there is.
  • the artificial intelligence model may be machine-learned to recognize, for example, a glass product with paper or vinyl attached thereto as the glass product, not the paper or vinyl, among the recycled products.
  • the artificial intelligence model sets images taken from various angles for paper products among the recyclables, such as paper products that have been distorted in various shapes, paper products that have been partially cut, and paper products with vinyl attached. can be built with
  • the artificial intelligence model may be machine-learned to recognize, for example, a plastic-attached can as the paper product, not the vinyl, among the recyclables.
  • the artificial intelligence model captures images taken from various angles for plastic products among the recyclables, plastic products that have been distorted in various shapes, plastic products that have been partially cut, plastic products that have paper or vinyl attached, and the like. It can be built as a training data set.
  • the artificial intelligence model may be machine-learned to recognize, for example, a plastic product attached with paper or vinyl among the recyclables as the plastic product other than the paper or vinyl.
  • the artificial intelligence model may be trained with various images for each of the plurality of recycling types of the plurality of recyclables, thereby recognizing the plurality of recycling types from the image acquired through the camera 30 .
  • the processor 130 transfers the plurality of recyclables from the first sorting area to the second sorting area through the conveyor 20 and stops the conveyor in the second sorting area.
  • the processor 130 transfers the plurality of recyclables from the first sorting area to the second sorting area through the conveyor 20, and then Conveyor transfer can be stopped.
  • the processor 130 may generate information such as the number, location, size, and collection order of recyclables corresponding to the type of recycling assigned to the robot 40 .
  • the processor 130 may transmit the generated information to the robot 40 so that the robot 40 can accurately collect recyclables corresponding to the assigned recycling types.
  • the processor 130 collects only the recyclables corresponding to the recycling type assigned to the robot 40 among the plurality of recyclables located on the second sorting area through the robot 40 of the recycling system 1.
  • the processor 130 determines the recycling type assigned to the robot 40 among the plurality of recyclable items located on the second sorting area through the robot 40 based on a fifth process among the plurality of processes. Only recyclables that fall under the category can be collected.
  • the processor 130 may acquire a partial image of a portion including the recyclable product captured in real time based on the recognition module 41 provided on one side of the robot 40 .
  • the processor 130 may re-recognize the recyclables in the acquired partial image based on the second artificial intelligence model. .
  • the processor 130 needs to re-recognize the recyclables at a high speed based on the second artificial intelligence model, but recognizes the degree to which the recyclables are properly located at the positions of the plurality of recyclables recognized based on the image, so high performance of GPUs may not be required.
  • the processor 130 may perform object detection based on the second artificial intelligence model to re-recognize the location of the target recyclable product since the location of the recyclable product may slightly change as the conveyor 20 is driven.
  • the processor 130 may perform object detection based on the second artificial intelligence model to re-recognize the target location of the recyclable product since the location of the recyclable product may change slightly while the robot 40 is working.
  • the position of the recyclable item corresponding to the type of recycling assigned to the robot may also be changed.
  • the processor 130 detects the recyclables whose location has been changed through the second artificial intelligence model based on the partial image acquired based on the recognition module 41 of the robot 40. Then, the processor 130 may control the robot 40 to sequentially collect the plurality of recyclable items based on the image and the partial image.
  • the conveyor 20 is a device driven to move the plurality of recyclables, and may be driven based on a driving command of the server 10 .
  • the conveyor 20 may be a device that circulates a belt made of rubber, cotton, wire mesh, steel plate, etc., places the plurality of recyclables thereon, and sequentially moves the plurality of sorting areas.
  • the stop time of the conveyor 20 is changed according to the number of recyclables allocated to the robot in the plurality of sorting areas, and the stop time may increase as the number of recyclables increases.
  • the conveyor 20 if the recyclables assigned to the robot 30 in the second sorting area are cans, the more the number of the cans, the more time the robot 30 takes to collect, so that the stop time is longer. can be long
  • stop time of the conveyor 20 may be changed according to the collection speed of the robot assigned to the recyclables in the plurality of sorting areas.
  • the conveyor 20 is located in the second sorting area where the robot 30's assigned recyclables are glass products, and the glass products are located under other recyclables or in a position where it is difficult for the robot 30 to collect them.
  • the stop time may be long because it takes a lot of time.
  • the camera 30 may obtain an image by photographing the plurality of recyclable items located on the conveyor 20 in the corresponding sorting area.
  • the camera 30 may refer to a device capable of capturing images.
  • the camera 30 may capture an image or video based on a driving command of the server 10 .
  • the camera 30 may be connected to the server 10 wirelessly or wired, and when connected wirelessly, it may be provided to enable transmission and reception of information through a communication unit (not shown).
  • the robot 40 may collect only the recyclables corresponding to the allocated recycling types among the plurality of recyclables from the conveyor 20 .
  • the robot 40 may obtain a partial image by photographing in real time a portion including the allocated recyclables according to the collection order for the allocated recyclables among the plurality of recyclables through the recognition module 41 provided on one side.
  • the robot 40 may be implemented in various forms, and may be configured to collect only recyclables corresponding to an assigned recycling type among the plurality of recyclables.
  • a part of the robot 40 that collects the plurality of recyclable items may be composed of robot tongs 42 .
  • the robot 40 may collect the allocated recyclables through the robot tongs based on real-time photographing of the portion including the allocated recyclables according to the collection order through the recognition module 41.
  • a part for collecting the plurality of recyclable items may be composed of a needle plate 43 instead of a robot claw.
  • the needle plate 43 may have the same size as one area of the conveyor 20 and may include a plurality of needles 44 .
  • the needle 44 has at least one protrusion 45, and when recyclables are stuck in the needle 44 during collection of recyclables, the recyclables may be configured so that the recyclables do not fall through the protrusions when moving.
  • the needle plate 43 may be configured to separate the recyclables by moving the needles 44 backward toward the plate equipped with the needles 44 in order to put the recyclables into the collection box.
  • the protrusion 45 of each needle 44 may be configured so that the recyclables can be easily removed while being folded or inserted into the needle 44 .
  • the part for collecting the plurality of recyclable items of the robot 40 may be composed of the suction substrate 46 instead of the robot tongs.
  • the adsorption substrate 46 may have the same size as one area of the conveyor 20 and may include a plurality of adsorbers 47 .
  • the adsorber 47 may be configured to adsorb the recyclables to the suction pad 48 when collecting the recyclables so that the recyclables do not fall while moving. It may be configured in at least one of the shapes.
  • FIGS. 3 to 8C show that the part where the robot 40 collects the plurality of recyclables is composed of the robot tongs 42, it is not necessarily limited thereto.
  • the communication network 50 may transmit and receive various information between the server 10, the conveyor 20, the camera 30, the robot 40, and an external server (not shown).
  • the communication network 50 may use various types of communication networks, for example, WLAN (Wireless LAN), Wi-Fi (Wi-Fi), WiBro (Wibro), Wimax (Wimax), HSDPA (High Speed Downlink Packet Access), etc.
  • a wired communication method such as a wireless communication method or Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), FTTH (Fiber To The Home) may be used.
  • the communication network 50 is not limited to the communication methods presented above, and may include all types of communication methods that are widely known or will be developed in the future in addition to the above-described communication methods.
  • FIG 3 is an exemplary view showing a first arrangement structure between the camera 30 and the robot 40 of the recycling system 1 according to the present invention.
  • 4A to 4C are exemplary diagrams for explaining a recyclable sorting process using the camera 30 and the robot 40 in the first arrangement structure of FIG. 3 .
  • the first to fourth selection areas among the first to Nth selection areas, which are the plurality of selection areas, will be described.
  • the camera 30 may be disposed only in the first sorting area among the plurality of sorting areas, and the robot 40 may include a plurality of robots that collect recyclables by type.
  • the plurality of robots may be respectively disposed in a plurality of selection areas excluding the first selection area among the plurality of selection areas.
  • the plurality of robots may selectively collect only the corresponding recyclables each time the plurality of recyclables are transported to the corresponding sorting area based on the recognized recycling type.
  • the first camera 301 is disposed only in the first sorting area, and the first to third robots 401, 402, and 403 are respectively disposed in the second to fourth sorting areas excluding the first sorting area.
  • the first robot 401 is a robot that collects cans from the recyclables
  • the second robot 402 is a robot that collects glass products from the recyclables
  • the third robot 403 is a robot that collects plastic products from the recyclables. could be a robot
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the first sorting area, and the first camera 301 located in the first sorting area is located in the first sorting area.
  • An image including a plurality of recyclable items located on the conveyor 20 may be obtained.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the second sorting area, and the first robot 401 obtains images from the first camera 301 located in the first sorting area. Based on the image, it is possible to collect cans that are pre-assigned recycling types.
  • the processor 130 of the server 10 corresponds to the recycling type assigned to the first robot 401.
  • Information such as the number of cans, location, size, collection order, etc. can be created.
  • the processor 130 may generate information such as the number of glass products corresponding to the type of recycling allocated to the second robot 402, the size of the location, and the order of collection.
  • the processor 130 may generate information such as the number, location, and size of plastic products corresponding to the recycling type assigned to the third robot 403 .
  • the processor 130 transmits the generated information to the first robot 401 to accurately collect the plurality of cans. (401).
  • the processor 130 generates partial images captured in real time of the portion including the cans according to the collection order among the plurality of cans through the recognition module 41 provided on one side of the first robot 401. can be obtained
  • the processor 130 may change the positions of the plurality of cans according to the movement of the conveyor 20 or the collection of cans earlier in the collection order, the second artificial intelligence model Based on this, the recyclables may be re-recognized in the partial image, and the first robot 401 may be controlled to sequentially collect the plurality of cans based on the image and the partial image.
  • a plurality of recyclables are transported on the conveyor 20 and are stationary in the third sorting area, and the second robot 402 acquires information obtained from the first camera 301 located in the first sorting area. Based on the image, glass products that are pre-assigned recycling types can be collected.
  • the plurality of recyclables located on the conveyor 20 in the third sorting area may be recyclables remaining after the cans are collected by the first robot 401 in the second sorting area.
  • the processor 130 captures, in real time, the portion including the glass product according to the collection order among the plurality of glass products through the recognition module 41 provided on one side of the second robot 402. image can be obtained.
  • the processor 130 may change the positions of the plurality of glass products according to the movement of the conveyor 20, the collection of the cans, or the collection of glass products earlier in the collection order. Therefore, the glass product is re-recognized in the partial image based on the second artificial intelligence model, and the second robot 402 sequentially collects the plurality of glass products based on the image and the partial image. You can control it.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the fourth sorting area, and the third robot 403 obtains information obtained from the first camera 301 located in the first sorting area. Based on images, plastic products can be collected in a pre-assigned recycling category.
  • the plurality of recyclables located on the conveyor 20 in the fourth sorting area are collected by the first robot 401 in the second sorting area, and the cans are collected in the third sorting area. 2 It may be a recyclable product remaining after the glass product is collected by the robot 402 .
  • the processor 130 captures, in real time, the portion including the plastic product according to the collection order among the plurality of plastic products through the recognition module 41 provided on one side of the third robot 403. image can be obtained.
  • the processor 130 may change the positions of the plurality of plastic products according to the movement of the conveyor 20, the collection of the glass products, or the collection of plastic products preceding the collection order. Therefore, the plastic product is re-recognized in the partial image based on the second artificial intelligence model, and the third robot 403 sequentially collects the plurality of plastic products based on the image and the partial image. can be controlled to
  • FIG 5 is an exemplary view showing a second arrangement structure between the camera 30 and the robot 40 of the recycling system 1 according to the present invention.
  • 6A to 6C are exemplary diagrams for explaining a process of sorting recyclables using the camera 30 and the robot 40 in the second arrangement structure of FIG. 5 .
  • the first to fourth selection areas among the first to Nth selection areas, which are the plurality of selection areas, will be described.
  • the camera may include a plurality of cameras
  • the robot may include a plurality of robots that collect recyclables by type.
  • the plurality of cameras and the plurality of robots may be alternately disposed in each of the plurality of selection areas.
  • the plurality of cameras may each obtain an image including a plurality of recyclable items located on a corresponding sorting area.
  • the plurality of robots selectively select only the assigned recyclables each time the plurality of recyclables are transferred to the corresponding sorting area based on the recycling type recognized from the image of the camera disposed in the previous sorting area of the corresponding sorting area. can be picked up
  • the first camera 301 is installed in the first sorting area
  • the second camera 302 is installed in the third sorting area
  • the first robot 401 is installed in the second sorting area.
  • the second robot 402 may be disposed in each of the fourth selection areas.
  • the first camera 301 in the first sorting area, the first robot 401 in the second sorting area, the second camera 302 in the third sorting area, and the second robot 402 in the fourth sorting area Can be installed alternately.
  • the first robot 401 may be a robot that collects cans from among the recyclables
  • the second robot 402 may be a robot that collects glass products from among the recyclables.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the first sorting area, and the first camera 301 located in the first sorting area is located in the first sorting area.
  • a first image including a plurality of recyclable items located on the conveyor 20 may be obtained.
  • the processor 130 of the server 10 is assigned a recycling type assigned to the first robot 401. It is possible to generate information such as the number of cans, location, size, collection order, and the like.
  • the processor 130 converts the generated information to the robot 401 so that the plurality of cans can be accurately collected. ) can be transmitted.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the second sorting area, and the first robot 401 detects the first camera 301 located in the first sorting area. Based on the acquired first image, it is possible to collect cans that are previously allocated recycling types.
  • the processor 130 captures, in real time, a part including cans among the plurality of cans according to the collection order through the recognition module 41 provided on one side of the first robot 401.
  • a first partial image may be acquired.
  • the processor 130 may change the positions of the plurality of cans according to the movement of the conveyor 20 or the collection of cans earlier in the collection order, the second artificial intelligence model Based on this, the can is re-recognized in the first partial image, and the first robot 401 may be controlled to sequentially collect the plurality of cans based on the first image and the first partial image.
  • a plurality of recyclables are transported on the conveyor 20 and are stationary in the third sorting area, and the second camera 302 located in the third sorting area is located on the conveyor ( 20) It is possible to obtain a second image including a plurality of recyclable items located on the image.
  • the plurality of recyclables located on the conveyor 20 in the third sorting area may be recyclables remaining after the cans are collected by the first robot 401 in the second sorting area.
  • the processor 130 of the server 10 is assigned a recycling type assigned to the first robot 401. It is possible to generate information such as the number of cans, location, size, collection order, and the like.
  • the processor 130 transmits the generated information to the first robot 401 to accurately collect the plurality of cans. (401).
  • a plurality of recyclables are transported on the conveyor 20 and are stationary in the fourth sorting area, and the second robot 402 acquires information obtained from the second camera 302 located in the third sorting area. Based on the second image, glass products that are pre-allocated types of recycling may be collected.
  • the plurality of recyclables located on the conveyor 20 in the fourth sorting area may be recyclables remaining after the cans are collected by the first robot 401 in the second sorting area.
  • the processor 130 captures, in real time, the part including the glass product according to the collection order among the plurality of glass products through the recognition module 41 provided on one side of the second robot 402. A second partial image may be acquired.
  • the processor 130 may change the positions of the plurality of glass products according to the movement of the conveyor 20, the collection of the cans, or the collection of glass products earlier in the collection order. Therefore, the glass product is re-recognized in the second partial image based on the second artificial intelligence model, and the second robot 401 recognizes the plurality of glass products based on the second image and the second partial image. It can be controlled to collect products sequentially.
  • FIG 7 is an exemplary view showing a third arrangement structure between the camera 30 and the robot 40 of the recycling system 1 according to the present invention.
  • 8A to 8C are exemplary diagrams for explaining a recycling product sorting process using the camera 30 and the robot 40 in the third arrangement structure of FIG. 7 .
  • the camera may include a plurality of cameras
  • the robot may include a plurality of robots that collect recyclables by type.
  • the first selection area only a specific camera among the plurality of cameras is disposed, and in each of the plurality of selection areas excluding the first selection area, at least one camera excluding the specific camera and the plurality of robots are disposed, respectively. can be placed.
  • the at least one camera other than the specific camera may obtain an image including a plurality of recyclables in the corresponding sorting area after a collecting operation of the robot co-located in the corresponding sorting area is completed.
  • a first camera 301 is installed in the first sorting area
  • a first robot 401 and a second camera 302 are installed in the second sorting area
  • a second robot is installed in the third sorting area.
  • 402 and a third camera 303 are installed
  • a third robot 403 and a fourth camera 304 may be installed in the fourth selection area.
  • the first camera 301 in the first sorting area, the first robot 401 in the second sorting area, the second camera 302 in the third sorting area, and the second robot 402 in the fourth sorting area Can be installed alternately.
  • the first robot 401 is a robot that collects cans from among the recyclables
  • the second robot 402 is a robot that collects glass products from among the recyclables
  • the third robot 403 is a robot that collects cans from among the recyclables. It may be a robot that collects plastic products.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the first sorting area, and the first camera 301 located in the first sorting area is located in the first sorting area.
  • a first image including a plurality of recyclable items located on the conveyor 20 may be obtained.
  • the processor 130 of the server 10 is assigned a recycling type assigned to the first robot 401. It is possible to generate information such as the number of cans, location, size, collection order, and the like.
  • the processor 130 transmits the generated information to the first robot 401 to accurately collect the plurality of cans. (401).
  • a plurality of recyclables are transported on the conveyor 20 and are stationary in the second sorting area, and the first robot 401 obtains images from the first camera 301 located in the first sorting area. Based on the first image, it is possible to collect cans that are pre-assigned recycling types.
  • the processor 130 captures, in real time, a part including cans among the plurality of cans according to the collection order through the recognition module 41 provided on one side of the first robot 401.
  • a first partial image may be acquired.
  • the processor 130 may change the positions of the plurality of cans according to the movement of the conveyor 20 or the collection of cans earlier in the collection order, the second artificial intelligence model Based on this, the can is re-recognized in the first partial image, and the first robot 401 may be controlled to sequentially collect the plurality of cans based on the first image and the first partial image.
  • the second camera 302 located in the second sorting area may acquire a second image including the plurality of recyclables located on the conveyor 20 in the second sorting area.
  • the second image is an image including the plurality of recyclables located on the conveyor 20 in the second sorting area, and the cans are collected by the first robot 401 in the second sorting area. It may be an image of the recyclables remaining after being used.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the third sorting area, and the second robot 402 detects the second camera 302 located in the second sorting area. Based on the acquired second image, glass products that are previously assigned recycling types may be collected.
  • the processor 130 determines, in real time, the part including the glass product among the plurality of glass products according to the collection order through the recognition module 41 provided on one side of the second robot 402. A second partial image photographed by may be acquired.
  • the processor 130 may change the position of the plurality of glass products according to the movement of the conveyor 20, the collection of the plurality of cans, or the collection of glass products earlier in the collection order. Since it may exist, the glass product is re-recognized in the second partial image based on a second artificial intelligence model, and the second robot 402 performs the plurality of of glass products can be controlled to be sequentially collected.
  • the third camera 303 located in the third sorting area may obtain a third image including a plurality of recyclables located on the conveyor 20 in the third sorting area.
  • the third image is an image including the plurality of recyclables located on the conveyor 20 in the third sorting area, and the glass product is removed by the second robot 401 in the third sorting area. It may be an image of the recyclables remaining after being collected.
  • the plurality of recyclables are transported on the conveyor 20 and are stationary in the fourth sorting area, and the third robot 402 obtains images from the third camera 302 located in the third sorting area. Based on the third image, plastic products that are pre-allocated recycling types may be collected.
  • the processor 130 detects a portion including plastic products among the plurality of plastic products according to the collection order through the recognition module 41 provided on one side of the third robot 403 in real time.
  • a third partial image taken with may be obtained.
  • the processor 130 may change the position of the plurality of plastic products according to the movement of the conveyor 20, the collection of the plurality of glass products, or the collection of plastic products preceding the collection order.
  • the plastic product is re-recognized in the third partial image based on a second artificial intelligence model, and the third robot 403 re-recognizes the plastic product based on the third image and the third partial image. It can be controlled to sequentially collect a plurality of plastic products.
  • the fourth camera 303 located in the fourth sorting area may obtain a fourth image including a plurality of recyclables located on the conveyor 20 in the fourth sorting area.
  • the fourth image is an image including the plurality of recyclable items located on the conveyor 20 in the fourth sorting area, and the plastic product is removed by the third robot 401 in the fourth sorting area. It may be an image of the recyclables remaining after being collected.
  • FIG. 9 is a flowchart illustrating a process of sorting recyclables according to the present invention.
  • the operation of the processor 130 may be performed by the server 10 .
  • the processor 130 may stop the transfer of the conveyor 20 after transferring the plurality of recyclables to the first sorting area through the conveyor 20 (S901).
  • the processor 130 transfers the plurality of recyclables to a first sorting area among a plurality of sorting areas through the conveyor 20 of the recycling system 1, and then the conveyor 20 in the first sorting area. transfer can be stopped.
  • the stop time of the conveyor is changed according to the number of recyclables allocated to the robot in the plurality of sorting areas, and the stop time may increase as the number of recyclables increases.
  • the conveyor's on-time time may be changed according to the collection speed of the robot assigned to the recyclables in the plurality of sorting areas.
  • the processor 130 may obtain an image including the plurality of recyclable items located on the first sorting area through the camera 30 (S902).
  • the processor 130 may obtain an image including a plurality of recyclable items located at the top of the conveyor 20 on the first sorting area through the camera 30 of the recycling system 1. .
  • the processor 130 may recognize the plurality of recyclables according to a plurality of recycling types in the image based on the artificial intelligence model (S903).
  • the artificial intelligence model may include a convolutional neural network (CNN, hereinafter referred to as CNN), but is not necessarily limited thereto, and may be formed of neural networks having various structures.
  • CNN convolutional neural network
  • the processor 130 may transfer the plurality of recyclables to the second sorting area through the conveyor 20 and then stop the conveyor 20 (S904).
  • the processor 130 transfers the plurality of recyclables from the first sorting area to the second sorting area through the conveyor 20, and then the conveyor 200 in the second sorting area. ) can be stopped.
  • the processor 103 may collect, through the robot 40, only the recyclables corresponding to the recycling type assigned to the robot 40 from among the plurality of recyclables located on the second sorting area (S905).
  • the processor 130 through the robot 40 of the recycling system 1, recycle items corresponding to the recycling type assigned to the robot 40 among the plurality of recyclable items located on the second sorting area. can only be collected.
  • the processor 130 may acquire a partial image of a portion including the recyclable product captured in real time through the recognition module 41 provided on one side of the robot 40 .
  • the processor 130 may re-recognize the recyclables in the acquired partial image based on the second artificial intelligence model.
  • the camera 30 may be disposed only in the first selection area among the plurality of selection areas.
  • the robot 40 may include a plurality of robots that collect recyclables by type, respectively, and the plurality of robots are respectively disposed in a plurality of sorting areas excluding the first sorting area among the plurality of sorting areas.
  • the plurality of robots may selectively collect only the allocated recyclables each time the plurality of recyclables are transported to a corresponding sorting area based on the recognized recycling type.
  • the camera 30 may include the plurality of cameras, and the robot 40 may include a plurality of robots each collecting recyclables by type.
  • the plurality of cameras and the plurality of robots may be alternately disposed in each of the plurality of selection areas.
  • the plurality of cameras may acquire images including a plurality of recyclable items located on the corresponding sorting area, respectively.
  • the plurality of robots selectively select only the allocated recyclables each time the plurality of recyclables are transferred to the corresponding sorting area based on the recycling type recognized from the image of the camera disposed in the previous sorting area of the corresponding sorting area. can be picked up with
  • the camera 30 may include the plurality of cameras, and the robot 40 may include a plurality of robots each collecting recyclables by type.
  • only a specific camera among the plurality of cameras may be disposed in the first selection area.
  • At least one camera other than the specific camera and one of the plurality of robots may be disposed in each of the plurality of selection areas except for the second selection area.
  • the at least one camera other than the specific camera may obtain an image including a plurality of recyclables in the corresponding sorting area after a collecting operation of the robot co-located in the corresponding sorting area is completed.
  • FIG. 9 describes that steps S901 to S905 are sequentially executed, but this is merely an example of the technical idea of this embodiment, and those skilled in the art to which this embodiment belongs will Since it will be possible to change and execute the order described in FIG. 9 without departing from the essential characteristics or to execute one or more steps of steps S901 to S905 in parallel, it will be possible to apply various modifications and variations, so FIG. 9 is shown in chronological order. It is not limited.
  • the method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium.
  • the computer may be the server 10 described above.
  • the aforementioned program is C, C++, JAVA, machine language, etc. It may include a code coded in a computer language of. These codes may include functional codes related to functions defining necessary functions for executing the methods, and include control codes related to execution procedures necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, these codes may further include memory reference related codes for which location (address address) of the computer's internal or external memory should be referenced for additional information or media required for the computer's processor to execute the functions. there is. In addition, when the processor of the computer needs to communicate with any other remote computer or server in order to execute the functions, the code uses the computer's communication module to determine how to communicate with any other remote computer or server. It may further include communication-related codes for whether to communicate, what kind of information or media to transmit/receive during communication, and the like.
  • Steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination thereof.
  • a software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art to which the present invention pertains.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Sorting Of Articles (AREA)

Abstract

본 발명은 인공지능을 이용하여 재활용품을 종류 별로 정확하게 선별하는 재활용품 선별 시스템 및 방법에 관한 것이다. 본 발명에 따르면, 컨베이어를 정지시킨 상태에서 컨베이어 위에 위치하는 재활용품을 촬영하고, 인공지능을 기반으로 상기 촬영된 재활용품을 종류 별로 인식 및 분리함으로써 기존에 움직이는 컨베이어에서 재활용품을 분류해오던 방식과 달리 높은 정확도를 가질 수 있다.

Description

인공지능 기반의 재활용품 선별 시스템 및 방법
본 발명은 재활용품을 선별하는 것으로, 보다 상세하게는 인공지능을 이용하여 재활용품을 종류 별로 정확하게 선별하는 재활용품 선별 시스템 및 방법에 관한 것이다.
최근 들어 가정, 회사, 거리 등에서 발생하는 쓰레기 양이 가파른 추세로 증가하고 있다. 2018년 기준으로 하루 동안 전국에서 발생한 쓰레기는 43만t으로 사상 최대 규모다. 일평균 폐기물 발생량은 2015년 40만t을 돌파하는 등 매년 최고기록을 갈아 치우고 있다.
환경부 산하 한국환경공단에 따르면 2018년 일평균 폐기물 발생량은 43만899t으로 잠정 집계됐다. 연간 기준으로 약 1억5700만t, 20피트짜리 컨테이너 약 480만개 또는 15t 덤프트럭 약 1000만대를 가득 채울 수 있는 양이다.
버려지는 쓰레기는 늘어나는데 처리시설은 갈수록 줄고 있다. 전국의 소각시설은 2013년 502곳에서 2018년 380곳으로 줄었다. 매립시설 용량은 고작 28%만 남았다. 이 숫자가 ‘0’이 되면 더 이상 쓰레기 묻을 곳이 없다는 뜻이다. 자고 일어나면 전에 없던 ‘쓰레기 산(山)’이 생겨나는 이유다. 쓰레기 악몽은 수도권에 먼저 닥친다. 지금처럼 생활쓰레기를 버리면 2024년 수도권매립지는 문을 닫을 수밖에 없다. 현재와 같은 폐기물 수거와 재활용 방식은 한계에 이르렀다는 것이 전문가들의 지적이다.
따라서, 쓰레기를 성분 별로 분류하여 재생 가능한 물질을 생산공장에 보내서 원료로 재사용하도록 하는 것이 자원절약과 환경보전적 측면에서 바람직하며, 이를 위해서 혼합된 쓰레기로부터 필요한 물질만을 선별 분리하는 것이 더욱 더 중요해졌다.
따라서, 다양한 종류의 재활용품을 정확하게 선별할 수 있는 방법이 필요하다.
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 복수의 재활용품을 이동시키는 컨베이어를 각 선별영역마다 정지시키고, 각 선별영역마다 컨베이어가 정지된 상태에서 컨베이어 위에 위치한 복수의 재활용품에 대한 이미지를 촬영하거나 복수의 재활용품을 종류 별로 수거하는 것을 그 목적으로 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명에 따른인공지능 기반의 재활용품을 선별하는 방법은, 상기 재활용 시스템의 컨베이어를 통해 복수의 재활용품을 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어의 이송을 정지시키는 단계와, 상기 재활용 시스템의 카메라를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지를 획득하는 단계와, 제1 인공지능 모델을 기반으로 상기 획득된 이미지 내의 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식하는 단계와, 상기 인식이 완료되면, 상기 컨베이어를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어의 이송을 정지시키는 단계, 및 상기 재활용 시스템의 로봇을 통해 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇에 할당된 재활용 종류에 해당하는 재활용품만을 수거하는 단계를 포함하여 이루어진다.
이때, 상기 카메라는 상기 복수의 선별영역 중 상기 제1 선별영역에만 배치되고, 상기 로봇은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하며, 상기 복수의 로봇은, 상기 복수의 선별영역 중 상기 제1 선별영역을 제외한 복수의 선별영역에 각각 배치될 수 있고, 상기 복수의 로봇은 상기 인식된 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품 만을 선별적으로 수거할 수 있다.
또한, 상기 카메라는 상기 복수의 카메라를 포함하고, 상기 로봇은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하며, 상기 복수의 카메라 및 상기 복수의 로봇은 상기 복수의 선별영역 각각에 서로 교번적으로 배치될 수 있고, 상기 복수의 카메라는 해당 선별영역 상에 위치한 복수의 재활용품이 포함된 이미지를 각각 획득하고, 상기 복수의 로봇은 해당 선별영역의 이전 선별영역에 배치된 카메라의 이미지로부터 인식되는 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품만을 선별적으로 수거할 수 있다.
또한, 상기 카메라는 상기 복수의 카메라를 포함하고, 상기 로봇은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고, 상기 제1 선별영역에는 상기 복수의 카메라 중 특정 카메라만이 배치되고, 상기 제1 선별영역을 제외한 상기 복수의 선별영역 각각에는 상기 특정 카메라를 제외한 적어도 하나의 카메라 및 상기 복수의 로봇이 각각 하나씩 배치되며, 상기 특정 카메라를 제외한 상기 적어도 하나의 카메라는 해당 선별영역에 함께 배치된 로봇의 수거 동작이 완료된 후에 상기 해당 선별영역 상의 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
또한, 상기 수거 단계는 상기 로봇의 일측에 구비되는 인식모듈을 통해 상기 재활용품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득하고, 상기 컨베이어의 이동 또는 상기 재활용품의 수거에 따라 위치가 변경되는 경우 제2 인공지능 모델을 기반으로 상기 획득한 부분 이미지 내에서 상기 재활용품을 재인식하며, 상기 컨베이어는 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품의 개수에 따라 정지시간이 변경되되, 상기 재활용품의 개수가 많을수록 상기 정지시간이 길어질 수 있다.
또한, 본 발명에 따른 인공지능 기반의 재활용품 선별 시스템은, 복수의 재활용품을 복수의 선별 영역으로 이송시키는 컨베이어와, 상기 복수의 재활용품을 촬영하는 카메라와, 상기 복수의 재활용품을 수거하는 로봇, 및 상기 컨베이어를 통해 상기 복수의 재활용품을 상기 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어의 이송을 정지시키고, 상기 카메라를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지가 획득되면, 제1 인공지능 모델을 기반으로 상기 획득된 이미지 내의 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식하고, 상기 인식이 완료되면, 상기 컨베이어를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어의 이송을 정지시키며, 상기 로봇을 통해 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇에 할당된 재활용 종류에 해당하는 재활용품만을 수거하도록 제어하는 서버를 포함하여 이루어진다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
상기와 같은 본 발명에 따르면, 복수의 재활용품을 이동시키는 컨베이어를 각 선별영역마다 정지시키고 각 선별영역마다 컨베이어가 정지된 상태에서 컨베이어 위에 위치한 복수의 재활용품에 대한 이미지를 촬영하거나 복수의 재활용품을 종류 별로 수거함으로써 재활용품의 수거의 효율을 높이는 효과가 있다.
구체적으로, 본 발명에 따르면, 컨베이어를 정지시킨 상태에서 컨베이어 위에 위치하는 재활용품을 촬영하고, 이를 기반으로 재활용품을 종류 별로 분리함으로써 기존에 움직이는 컨베이어에서 재활용품을 분류해오던 방식과 달리 높은 정확도를 가질 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명에 따른 재활용 시스템을 설명하기 위한 도면이다.
도 2a는 본 발명에 따른 재활용품을 선별하기 위한 서버를 개략적으로 나타낸 블록도이다.
도 2b는 본 발명에 따른 로봇(40)의 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 바늘판(43)으로 구성된 것을 나타낸 예시도이다.
도 2c는 본 발명에 따른 로봇(40)의 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 흡착기판(46)로 구성된 것을 나타낸 예시도이다.
도 3은 본 발명에 따른 재활용 시스템의 카메라와 로봇 간의 제1 배치구조를 나타낸 예시도이다.
도 4a 내지 도 4c는 도 3의 제1 배치구조에서의 카메라와 로봇을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
도 5는 본 발명에 따른 재활용 시스템의 카메라와 로봇 간의 제2 배치구조를 나타낸 예시도이다.
도 6a 내지 도 6c는 도 5의 제2 배치구조에서의 카메라와 로봇을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
도 7은 본 발명에 따른 재활용 시스템의 카메라와 로봇 간의 제3 배치구조를 나타낸 예시도이다.
도 8a 내지 도 8c는 도 7의 제3 배치구조에서의 카메라와 로봇을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
도 9는 본 발명에 따른 재활용품을 선별하는 과정을 나타낸 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
도 1은 본 발명에 따른 재활용 시스템(1)을 설명하기 위한 도면이다.
도 2a는 본 발명에 따른 재활용품을 선별하기 위한 서버(10)를 개략적으로 나타낸 블록도이다.
도 2b는 본 발명에 따른 로봇(40)의 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 바늘판(43)으로 구성된 것을 나타낸 예시도이다.
도 2c는 본 발명에 따른 로봇(40)의 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 흡착기판(46)로 구성된 것을 나타낸 예시도이다.
이하, 도 1 내지 도 2c를 참조하여, 본 발명에 따른 프로젝트 보상액을 예측하기 위한 서버(10)에 대해서 설명하도록 한다.
재활용 시스템(1)은 복수의 재활용품을 이동시키는 컨베이어를 각 선별영역마다 정지시키고 각 선별영역마다 컨베이어가 정지된 상태에서 컨베이어 위에 위치한 복수의 재활용품에 대한 이미지를 촬영하거나 복수의 재활용품을 종류 별로 수거함으로써 재활용품의 수거의 효율을 높이는 효과를 가질 수 있다.
구체적으로, 재활용 시스템(1)은 컨베이어를 정지시킨 상태에서 컨베이어 위에 위치하는 재활용품을 촬영하고, 이를 기반으로 재활용품을 종류 별로 분리함으로써 기존에 움직이는 컨베이어에서 재활용품을 분류해오던 방식과 달리 높은 정확도를 가질 수 있다.
여기서, 재활용품은, 캔, 유리 제품, 플라스틱 제품, 종이제품, 비닐 중 적어도 하나를 포함할 수 있다.
이러한, 재활용 시스템(1)은 복수의 재활용품을 선별하기 위한 서버(10), 상기 복수의 재활용품을 이동시키도록 구동되는 컨베이어(20), 상기 복수의 재활용품이 포함된 이미지를 획득하기 위한 카메라(30), 상기 컨베이어(20)에서 상기 복수의 재활용품 중 할당된 재활용 종류에 해당하는 재활용품만을 수거하는 로봇(40) 및 통신망(50)을 포함할 수 있다.
여기서, 재활용 시스템(1)은 도 1에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수 있다.
또한, 상기 카메라(30)와 상기 로봇(40)의 배치는 다양하게 구성될 수 있다.
이러한, 서버(10)는 통신부(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 여기서, 서버(10)는 도 2에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수 있다. 또한, 서버(10)는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함될 수 있다.
통신부(110)는 서버(10)와 컨베이어(20) 사이, 서버(10)와 카메라(30) 사이, 서버(10)와 로봇(40) 사이, 서버(10)와 외부 서버(미도시) 사이 또는 서버(10)와 통신망(50) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
또한, 통신부(110)는 서버(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
메모리(120)는 서버(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(120)는 서버(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 서버(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 서버(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(120)에 저장되고, 서버(10) 상에 설치되어, 프로세서(130)에 의하여 상기 서버(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
또한, 메모리(120)는 프로젝트 상기 재활용품을 선별하기 위한 복수의 프로세스를 구비할 수 있다. 여기서, 상기 복수의 프로세스는 프로세서(130)에 대한 동작을 설명할 때 후술하도록 한다.
프로세서(130)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 서버(10)의 전반적인 동작을 제어할 수 있다. 프로세서(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(130)는 메모리(120)에 저장된 응용 프로그램을 구동하기 위하여, 도 2와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(130)는 상기 응용 프로그램의 구동을 위하여, 서버(10)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.
프로세서(130)는 상기 재활용 시스템(1)의 컨베이어(20)를 통해 상기 복수의 재활용품을 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어(20)의 이송을 정지시킬 수 있다.
여기서, 프로세서(130)는 상기 복수의 프로세스 중 제1 프로세스를 기반으로 상기 컨베이어(20)를 통해 상기 복수의 재활용품을 상기 제1 선별영역으로 이송시킨 후 상기 컨베이어(20)의 이송을 정지시킬 수 있다.
상기 복수의 선별영역은, 제1 선별영역 내지 제N 선별영역을 포함할 수 있고, 여기서, N은 자연수일 수 있다.
또한, 상기 제1 선별영역 내지 제N 선별영역의 간격은 동일할 수 있다.
프로세서(130)는 상기 재활용 시스템(1)의 카메라(30)를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
여기서, 프로세서(130)는 상기 복수의 프로세스 중 제2 프로세스를 기반으로 상기 카메라(30)를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
또는, 프로세서(130)는 상기 재활용 시스템(1)의 키넥트 센서(미도시)를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품에 대한 이미지를 획득할 수 있다.
여기서, 이미지는 상기 제1 선별영역 상에 위치된 복수의 재활용품이 겹쳐진 상태의 이미지로, 상기 복수의 재활용품이 겹쳐진 상태의 깊이 정보가 메타데이터로 포함될 수 있다.
따라서, 프로세서(130)는 상기 이미지에 포함되는 상기 깊이 정보를 기반으로 복수의 재활용품 중 하단에 깔려 있는 기 설정된 이상의 무게가 나가는 재활용품의 경우 상기 로봇(40)의 고장을 줄이기 위해 선별하지 않고 지나가도록 결정할 수 있다.
또한, 키넥트 센서(미도시)는 상기 카메라(30)가 위치되는 선별영역 상에 추가로 위치될 수 있다. 또는, 키넥트 센서(미도시)는 상기 카메라(30)에 포함되어 상기 선별영역 상에 위치될 수 있다.
프로세서(130)는 인공지능 모델을 기반으로 상기 이미지 내에서 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식할 수 있다.
여기서, 프로세서(130)는 상기 복수의 프로세스 중 제3 프로세스를 기반으로 상기 인공지능 모델을 기반으로 상기 이미지 내에서 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식할 수 있다.
이때, 프로세서(130)는 상기 이미지에서 상기 재활용품을 복수의 재활용 종류 별로 인식하는 경우, 빠른 속도로 인식하지 않아도 위에 기재한 동작을 수행할 수 있다.
즉, 프로세서(130)가 상기 이미지에서 복수의 재활용품들을 인식하고 이중에서 복수의 재활용 종류 별로 인식해야 하기 때문에 빠른 속도로 인식하려면 매우 고성능의 GPU(Graphics Processing Unit)가 필요하지만 상기 프로세서(130)는 빠른 속도로 위에 기재한 동작을 수행하지 않아도 됨으로 상기 고성능의 GPU 설치에 따른 비용을 절감할 수 있다.
여기서, 상기 인공지능 모델은 콘볼루션 뉴럴 네트워크(CNN, convolutional neural network, 이하 CNN이라고 명칭함)를 포함할 수 있으나 반드시 이에 한정되지 않고, 다양한 구조의 신경망으로 형성될 수 있다.
이러한, CNN은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 콘볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
보다 상세하게는 상기 인공지능 모델은 상기 복수의 재활용품의 복수의 재활용 종류 별로 다양한 형태에 대해 다양한 각도에서 촬영된 이미지를 학습데이터 세트로 구축하고, 상기 구축된 학습데이터 세트를 기반으로 기계 학습될 수 있다.
이에 따라, 일 예로, 상기 인공지능 모델은 상기 재활용품 중 캔의 경우, 다양한 형태로 찌그러진 캔, 일부분이 절단된 캔, 종이 또는 비닐 등이 부착된 캔 등에 대해 다양한 각도에서 촬영된 이미지를 학습데이터 세트로 구축할 수 있다.
여기서, 상기 인공지능 모델은 일 예로, 상기 재활용품 중 종이 또는 비닐 등이 부착된 캔에 대해 상기 종이 또는 비닐이 아닌 상기 캔으로 인식하도록 기계 학습될 수 있다.
또한, 다른 예로, 상기 인공지능 모델은 상기 재활용품 중 유리 제품의 경우, 다양한 형태로 깨진 유리 제품, 종이 또는 비닐 등이 부착된 유리 제품에 대해 다양한 각도에서 촬영된 이미지를 학습데이터 세트로 구축할 수 있다.
여기서, 상기 인공지능 모델은 일 예로, 상기 재활용품 중 종이 또는 비닐 등이 부착된 유리 제품에 대해 상기 종이 또는 비닐이 아닌 상기 유리 제품으로 인식하도록 기계 학습될 수 있다.
또한, 다른 예로, 상기 인공지능 모델은 상기 재활용품 중 종이제품의 경우, 다양한 형태로 찌그러진 종이제품, 일부분일 절단된 종이제품, 비닐이 부착된 종이제품 등에 대해 다양한 각도에서 촬영된 이미지를 학습데이터 세트로 구축할 수 있다.
여기서, 상기 인공지능 모델은 일 예로, 상기 재활용품 중 비닐이 부착된 캔에 대해 상기 비닐이 아닌 상기 종이제품으로 인식하도록 기계 학습될 수 있다.
또한, 다른 예로, 상기 인공지능 모델은 상기 재활용품 중 플라스틱 제품의 경우, 다양한 형태로 찌그러진 플라스틱 제품, 일부분이 절단된 플라스틱 제품, 종이 또는 비닐 등이 부착된 플라스틱 제품 등에 대해 다양한 각도에서 촬영된 이미지를 학습데이터 세트로 구축할 수 있다.
여기서, 상기 인공지능 모델은 일 예로, 상기 재활용품 중 종이 또는 비닐 등이 부착된 플라스틱 제품에 대해 상기 종이 또는 비닐이 아닌 상기 플라스틱 제품으로 인식하도록 기계 학습될 수 있다.
따라서, 상기 인공지능 모델은 상기 복수의 재활용품의 복수의 재활용 종류 별로 다양한 이미지로 학습됨으로써 상기 카메라(30)를 통해 획득한 이미지에서 상기 복수의 재활용 종류 별 인식이 가능할 수 있다.
프로세서(130)는 상기 인식이 완료되면, 상기 컨베이어(20)를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어의 이송을 정지시킬 수 있다.
여기서, 프로세서(130)는 상기 복수의 프로세스 중 제4 프로세스를 기반으로 상기 인식이 완료되면, 상기 컨베이어(20)를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 컨베이어의 이송을 정지시킬 수 있다.
보다 상세하게는, 프로세서(130)는 상기 인식이 완료되면, 상기 로봇(40)에 할당된 재활용 종류에 해당하는 재활용품의 개수, 위치, 크기, 수거 순서 등의 정보를 생성할 수 있다.
그리고, 프로세서(130)는 상기 로봇(40)이 할당된 재활용 종류에 해당하는 재활용품을 정확하게 수거할 수 있도록 상기 생성된 정보를 상기 로봇(40)으로 전송할 수 있다.
프로세서(130)는 상기 재활용 시스템(1)의 로봇(40)을 통해, 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇(40)에 할당된 재활용 종류에 해당하는 재활용품만을 수거할 수 있다.
여기서, 프로세서(130)는 상기 복수의 프로세스 중 제5 프로세스를 기반으로 상기 로봇(40)을 통해, 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇(40)에 할당된 재활용 종류에 해당하는 재활용품만을 수거할 수 있다.
보다 상세하게는, 프로세서(130)는 상기 로봇(40)의 일측에 구비되는 인식모듈(41)을 기반으로 상기 재활용품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득할 수 있다.
이후, 프로세서(130)는 상기 컨베이어(20)의 구동에 따라 또는 재활용품의 수거에 따라 위치가 변경되는 경우, 제2 인공지능 모델을 기반으로 상기 획득한 부분 이미지 내에서 상기 재활용품을 재인식할 수 있다.
여기서, 프로세서(130)는 상기 제2 인공지능 모델을 기반으로 빠른 속도로 상기 재활용품을 재인식을 해야 하지만 상기 이미지를 기반으로 인식한 상기 복수의 재활용품의 위치에 상기 재활용품이 제대로 있는지 정도를 인식하므로 고성능의 GPU는 필요하지 않을 수 있다.
즉, 프로세서(130)는 상기 컨베이어(20)가 구동됨에 따라 상기 재활물품의 위치가 다소 변경될 수 있으므로 상기 제2 인공지능 모델을 기반으로 오브젝트 디텍션을 수행해서 타겟하는 상기 재활용품의 위치를 재인식할 수 있다.
또는, 프로세서(130)는 로봇(40)이 작업을 하는 중에 상기 재활물품의 위치가 다소 변경될 수 있으므로 상기 제2 인공지능 모델을 기반으로 오브젝트 디텍션을 수행해서 타겟하는 상기 재활용품의 위치를 재인식할 수 있다.
구체적으로, 로봇(40)이 수거 작업을 진행하면서 상기 복수의 재활용품의 위치가 약간씩 변경됨에 따라 상기 로봇에 할당된 재활용 종류에 해당하는 상기 재활용품의 위치 또한 변경될 수 있다.
그러나, 위에 기재한 바와 같이, 프로세서(130)는 상기 로봇(40)의 인식모듈(41)을 기반으로 획득한 상기 부분 이미지를 기반으로 상기 제2 인공지능 모델을 통해 상기 위치가 변경된 상기 재활용품을 정확하게 재인식하여 수거할 수 있다.이후, 프로세서(130)는 상기 이미지와 상기 부분 이미지를 기반으로 상기 로봇(40)이 상기 복수의 재활용품을 순차적으로 수거하도록 제어할 수 있다.
다음으로, 컨베이어(20)는 상기 복수의 재활용품을 이동시키도록 구동되는 장치로, 상기 서버(10)의 구동 명령을 기반으로 구동될 수 있다.
보다 상세하게는, 상기 컨베이어(20)는 고무, 직무, 철망, 강판 등으로 만들어진 벨트를 순환시켜서 그 위에 상기 복수의 재활용품을 올려 놓고 상기 복수의 선별영역을 순차적으로 이동하는 장치일 수 있다.
또한, 컨베이어(20)는 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품의 개수에 따라 정지시간이 변경되되, 상기 재활용품의 개수가 많을수록 상기 정지시간이 길어질 수 있다.
일 예로, 컨베이어(20)는 상기 제2 선별영역 상에서 로봇(30)의 해당 할당된 재활용품이 캔인 경우, 상기 캔의 개수가 많을수록 상기 로봇(30)이 수거하는데 많은 시간이 소요됨으로 상기 정지시간이 길어질 수 있다.
또한, 컨베이어(20)는 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품에 대한 수거 속도에 따라 정지시간이 변경될 수 있다,
일 예로, 컨베이어(20)는 상기 제2 선별영역 상에서 로봇(30)의 해당 할당된 재활용품이 유리 제품이고, 상기 유리 제품이 다른 재활용품 밑에 위치하거나, 로봇(30)이 수거하기 어려운 위치에 위치된 경우, 많은 시간이 소요됨으로 상기 정지시간이 길어질 수 있다.
그 다음으로, 카메라(30)는 해당 선별영역 상의 상기 컨베이어(20) 위에 위치된 상기 복수의 재활용품을 촬영하여 이미지를 획득할 수 있다.
카메라(30)는 영상 촬영이 가능한 기기를 의미할 수 있다. 여기서, 카메라(30)는 서버(10)의 구동 명령을 기반으로 이미지 또는 영상을 촬영할 수 있다.
또한, 카메라(30)는 상기 서버(10)와 무선 또는 유선으로 연결될 수도 있고, 무선으로 연결되는 경우 통신부(미도시)를 통해 정보의 송수신이 가능하도록 구비될 수 있다.
그 다음으로, 로봇(40)은 상기 컨베이어(20)에서 상기 복수의 재활용품 중 할당된 재활용 종류에 해당하는 재활용품만을 수거할 수 있다.
로봇(40)은 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 재활용품 중 할당된 재활용품에 대해 수거 순서에 따라 할당된 재활용품이 포함된 부분을 실시간으로 촬영하여 부분 이미지를 획득할 수 있다.
또한, 로봇(40)은 다양한 형태로 구현 가능하며, 상기 복수의 재활용품 중 할당된 재활용 종류에 해당하는 재활용품만을 수거하도록 구성될 수 있다.
일 예로, 도 1을 보면, 로봇(40)은 상기 복수의 재활용품을 수거하는 부분이 로봇 집게(42)로 구성될 수 있다.
따라서, 로봇(40)은 인식모듈(41)을 통해 수거 순서에 따라 상기 할당된 재활용품이 포함된 부분을 실시간으로 촬영하면서 이를 기반으로 상기 로봇 집게를 통해 상기 할당된 재활용품을 수거할 수 있다.
다른 예로, 도 2b를 보면, 로봇(40)은 상기 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 바늘판(43)으로 구성될 수 있다.
여기서, 바늘판(43)은 상기 컨베이어(20)의 하나의 영역과 동일한 크기로 구성될 수 있고, 복수의 바늘(44)을 구비할 수 있다.
또한, 여기서, 바늘(44)은 적어도 하나의 돌기(45)를 가지고 있으며, 재활용품 수거시 바늘(44)에 재활용품이 박히게 되면, 상기 재활용품이 이동시 돌기를 통해 상기 재활용품이 빠지지 않도록 구성될 수 있다.
그리고, 바늘판(43)은 상기 재활용품을 수거함에 넣기 위해 바늘(44)을 상기 바늘(44)이 구비된 판쪽으로 후진하여 상기 재활용품을 분리시키도록 구성될 수 있다.
이때, 각 바늘(44)의 돌기(45)는 접히거나 상기 바늘(44) 내부로 삽입되면서 상기 재활용품이 쉽게 빠질 수 있도록 구성될 수 있다.
또 다른 예로, 도 2c를 보면, 로봇(40)은 상기 복수의 재활용품을 수거하는 부분이 로봇 집게가 아닌 흡착기판(46)로 구성될 수 있다.
여기서, 흡착기판(46)은 상기 컨베이어(20)의 하나의 영역과 동일한 크기로 구성될 수 있고, 복수의 흡착기(47)를 구비할 수 있다.
또한, 여기서, 흡착기(47)는 재활용품 수거시 흡착 패드(48)에 재활용품을 흡착시켜서 상기 재활용품이 이동시 떨어지지 않도록 구성될 수 있다.이하, 로봇(40)의 형태는 도 1 내지 도 2c에 도시된 형태 중 적어도 하나의 형태로 구성될 수 있다.
즉, 도 3 내지 도 8c에서는 로봇(40)이 상기 복수의 재활용품을 수거하는 부분이 로봇 집게(42)로 구성된 것으로 도시하고 있으나 반드시 이에 한정되는 것이 아니다.
마지막으로, 통신망(50)은 서버(10), 컨베이어(20), 카메라(30), 로봇(40) 및 외부 서버(미도시) 간의 다양한 정보를 송수신할 수 있다. 통신망(50)은 다양한 형태의 통신망이 이용될 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다.
한편, 통신망(50)은 상기에 제시된 통신방식에 한정되는 것은 아니며, 상술한 통신방식 이외에도 기타 널리 공지되었거나 향후 개발될 모든 형태의 통신 방식을 포함할 수 있다.
도 3은 본 발명에 따른 재활용 시스템(1)의 카메라(30)와 로봇(40) 간의 제1 배치구조를 나타낸 예시도이다.
도 4a 내지 도 4c는 도 3의 제1 배치구조에서의 카메라(30)와 로봇(40)을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
이하, 도 3 내지 도 4c를 참조하여, 본 발명에 따른 재활용 시스템(1)의 제1 배치구조 대해서 설명하도록 한다.
도 3 내지 도 4c를 보면, 상기 제1 배치구조의 설명을 위해 상기 복수의 선별영역인 제1 내지 제N 선별영역 중 제1 내지 제4 선별영역으로 설명하도록 한다.
도 3 내지 도 4c에서 카메라(30)는 상기 복수의 선별영역 중 상기 제1 선별영역에만 배치될 수 있고, 로봇(40)은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있다.
상기 복수의 로봇은, 상기 복수의 선별영역 중 상기 제1 선별영역을 제외한 복수의 선별영역에 각각 배치될 수 있다.
또한, 상기 복수의 로봇은, 상기 인식된 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 재활용품 만을 선별적으로 수거할 수 있다.
여기서, 제1 카메라(301)는 상기 제1 선별영역에만 배치되고, 제1 내지 제3 로봇(401, 402, 403)은 상기 제1 선별영역을 제외한 제2 내지 제4 선별영역에 각각 배치될 수 있다.
제1 로봇(401)은 상기 재활용품 중 캔을 수거하는 로봇이고, 제2 로봇(402)은 상기 재활용품 중 유리 제품을 수거하는 로봇이고, 제3 로봇(403)은 상기 재활용품 중 플라스틱 제품을 수거하는 로봇일 수 있다.
도 3을 보면, 상기 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제1 선별영역에 정지하여 위치하고, 상기 제1 선별영역에 위치한 상기 제1 카메라(301)는 상기 제1 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 이미지를 획득할 수 있다
도 4a를 보면, 상기 복수의 재활용품은 컨베이어(20)에 이송되어 상기 제2 선별영역에 정지하여 위치하고, 상기 제1 로봇(401)은 상기 제1 선별영역에 위치한 제1 카메라(301)로부터 획득된 상기 이미지를 기반으로 미리 할당된 재활용 종류인 캔을 수거할 수 있다.
보다 상세하게는, 먼저, 서버(10)의 프로세서(130)는 상기 제1 카메라(301)로부터 획득된 상기 이미지에 대한 인식이 완료되면, 상기 제1 로봇(401)에 할당된 재활용 종류에 해당하는 캔의 개수, 위치, 크기, 수거 순서 등의 정보를 생성할 수 있다.
또한, 프로세서(130)는 상기 제2 로봇(402)에 할당된 재활용 종류에 해당하는 유리 제품의 개수, 위치 크기, 수거 순서 등의 정보를 생성할 수 있다.
또한, 프로세서(130)는 상기 제3 로봇(403)에 할당된 재활용 종류에 해당하는 플라스틱 제품의 개수, 위치, 크기 등의 정보를 생성할 수 있다.
다음으로, 프로세서(130)는 상기 제1 로봇(401)이 할당된 재활용 종류가 캔이고, 상기 캔이 복수개인 경우, 상기 복수의 캔을 정확하게 수거할 수 있도록 상기 생성된 정보를 상기 제1 로봇(401)으로 전송할 수 있다.
다음으로, 프로세서(130)는 상기 제1 로봇(401)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 캔 중 상기 수거 순서에 따라 캔이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 수거 순서가 앞선 캔의 수거에 따라 상기 복수의 캔의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 부분 이미지 내에서 상기 재활용품을 재인식하고, 상기 이미지와 상기 부분 이미지를 기반으로 상기 제1 로봇(401)이 상기 복수의 캔을 순차적으로 수거하도록 제어할 수 있다.
도 4b를 보면, 복수의 재활용품은 컨베이어(20)에 이송되어 상기 제3 선별영역에 정지하여 위치하고, 상기 제2 로봇(402)은 상기 제1 선별영역에 위치한 제1 카메라(301)로부터 획득된 상기 이미지를 기반으로 미리 할당된 재활용 종류인 유리 제품을 수거할 수 있다.
여기서, 상기 제3 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품은 상기 제2 선별영역에서 상기 제1 로봇(401)에 의해 상기 캔이 수거된 후 남은 재활용품일 수 있다.
다음으로, 프로세서(130)는 상기 제2 로봇(402)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 유리 제품 중 상기 수거 순서에 따라 유리 제품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 캔의 수거에 따라 또는 상기 수거 순서가 앞선 유리 제품의 수거에 따라 상기 복수의 유리 제품의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 부분 이미지 내에서 상기 유리 제품을 재인식하고, 상기 이미지와 상기 부분 이미지를 기반으로 상기 제2 로봇(402)이 상기 복수의 유리 제품을 순차적으로 수거하도록 제어할 수 있다.
도 4c를 보면, 복수의 재활용품은 컨베이어(20)에 이송되어 상기 제4 선별영역에 정지하여 위치하고, 상기 제3 로봇(403)은 상기 제1 선별영역에 위치한 제1 카메라(301)로부터 획득된 이미지를 기반으로 미리 할당된 재활용 종류인 플라스틱 제품을 수거할 수 있다.
여기서, 상기 제4 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품은 상기 제2 선별영역에서 상기 제1 로봇(401)에 의해 상기 캔이 수거되고, 상기 제3 선별영역에서 상기 제2 로봇(402)에 의해 상기 유리 제품이 수거된 후 남은 재활용품일 수 있다.
다음으로, 프로세서(130)는 상기 제3 로봇(403)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 플라스틱 제품 중 상기 수거 순서에 따라 플라스틱 제품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 유리 제품의 수거에 따라 또는 상기 수거 순서가 앞선 플라스틱 제품의 수거에 따라 상기 복수의 플라스틱 제품의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 부분 이미지 내에서 상기 플라스틱 제품을 재인식하고, 상기 이미지와 상기 부분 이미지를 기반으로 상기 제3 로봇(403)이 상기 복수의 플라스틱 제품을 순차적으로 수거하도록 제어할 수 있다.
도 5는 본 발명에 따른 재활용 시스템(1)의 카메라(30)와 로봇(40) 간의 제2 배치구조를 나타낸 예시도이다.
도 6a 내지 도 6c는 도 5의 제2 배치구조에서의 카메라(30)와 로봇(40)을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
이하, 도 5 내지 도 6c를 참조하여, 본 발명에 따른 재활용 시스템(1)의 제2 배치구조 대해서 설명하도록 한다.
도 5 내지 도 6c를 보면, 상기 제1 배치구조의 설명을 위해 상기 복수의 선별영역인 제1 내지 제N 선별영역 중 제1 내지 제4 선별영역으로 설명하도록 한다.
도 5 내지 도 6c에서 카메라는 복수의 카메라를 포함할 수 있고, 상기 로봇은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있다.
상기 복수의 카메라 및 상기 복수의 로봇은 상기 복수의 선별영역 각각에 서로 교번적으로 배치될 수 있다.
또한, 상기 복수의 카메라는 해당 선별영역 상에 위치한 복수의 재활용품이 포함된 이미지를 각각 획득할 수 있다.
또한, 상기 복수의 로봇은 해당 선별영역의 이전 선별영역에 배치된 카메라의 이미지로부터 인식되는 재활용 종류를 기반으로 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품만을 선별적으로 수거할 수 있다.
여기서, 제1 카메라(301)은 상기 제1 선별영역에 설치되고 제2 카메라(302)는 상기 제3 선별영역에 설치되고, 상기 제1 로봇(401)은 상기 제2 선별영역에 설치되고 상기 제2 로봇(402)은 상기 제4 선별영역에 각각 배치될 수 있다.
즉, 제1 선별영역에 제1 카메라(301), 제2 선별영역에 제1 로봇(401), 제3 선별영역에 제2 카메라(302) 및 제4 선별영역에 제2 로봇(402)이 교번적으로 설치될 수 있다.
여기서, 상기 제1 로봇(401)은 상기 재활용품 중 캔을 수거하는 로봇이고, 상기 제2 로봇(402)은 상기 재활용품 중 유리 제품을 수거하는 로봇일 수 있다.
도 5를 보면, 상기 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제1 선별영역에 정지하여 위치하고, 상기 제1 선별영역에 위치한 상기 제1 카메라(301)는 상기 제1 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 제1 이미지를 획득할 수 있다.
보다 상세하게는, 먼저, 서버(10)의 프로세서(130)는 상기 제1 카메라(301)로부터 획득된 상기 제1 이미지에 대한 인식이 완료되면, 상기 제1 로봇(401)에 할당된 재활용 종류에 해당하는 캔의 개수, 위치, 크기, 수거 순서 등의 정보를 생성할 수 있다.
다음으로, 프로세서(130)는 상기 제1 로봇(401)이 할당된 재활용 종류가 캔이고, 상기 캔이 복수개인 경우, 상기 복수의 캔을 정확하게 수거할 수 있도록 상기 생성된 정보를 상기 로봇(401)으로 전송할 수 있다.
도 6a를 보면, 상기 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제2 선별영역에 정지하여 위치하고, 상기 제1 로봇(401)은 상기 제1 선별영역에 위치한 제1 카메라(301)로부터 획득된 상기 제1 이미지를 기반으로 미리 할당된 재활용 종류인 캔을 수거할 수 있다.
보다 상세하게는, 먼저, 프로세서(130)는 상기 제1 로봇(401)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 캔 중 상기 수거 순서에 따라 캔이 포함된 부분을 실시간으로 촬영한 제1 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 수거 순서가 앞선 캔의 수거에 따라 상기 복수의 캔의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 제1 부분 이미지 내에서 상기 캔을 재인식하고, 상기 제1 이미지와 상기 제1 부분 이미지를 기반으로 상기 제1 로봇(401)이 상기 복수의 캔을 순차적으로 수거하도록 제어할 수 있다.
도 6b를 보면, 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제3 선별영역에 정지하여 위치하고, 상기 제3 선별영역에 위치한 제2 카메라(302)는 상기 제3 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 재2 이미지를 획득할 수 있다.
여기서, 상기 제3 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품은 상기 제2 선별영역에서 상기 제1 로봇(401)에 의해 상기 캔이 수거된 후 남은 재활용품일 수 있다.
보다 상세하게는, 먼저, 서버(10)의 프로세서(130)는 상기 제1 카메라(301)로부터 획득된 상기 제1 이미지에 대한 인식이 완료되면, 상기 제1 로봇(401)에 할당된 재활용 종류에 해당하는 캔의 개수, 위치, 크기, 수거 순서 등의 정보를 생성할 수 있다.
다음으로, 프로세서(130)는 상기 제1 로봇(401)이 할당된 재활용 종류가 캔이고, 상기 캔이 복수개인 경우, 상기 복수의 캔을 정확하게 수거할 수 있도록 상기 생성된 정보를 상기 제1 로봇(401)으로 전송할 수 있다.
도 6c를 보면, 복수의 재활용품은 컨베이어(20)에 이송되어 상기 제4 선별영역에 정지하여 위치하고, 상기 제2 로봇(402)은 상기 제3 선별영역에 위치한 제2 카메라(302)로부터 획득된 상기 제2 이미지를 기반으로 미리 할당된 재활용 종류인 유리 제품을 수거할 수 있다.
여기서, 상기 제4 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품은 상기 제2 선별영역에서 상기 제1 로봇(401)에 의해 상기 캔이 수거된 후 남은 재활용품일 수 있다.
보다 상세하게는, 프로세서(130)는 상기 제2 로봇(402)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 유리 제품 중 상기 수거 순서에 따라 유리 제품이 포함된 부분을 실시간으로 촬영한 제2 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 캔의 수거에 따라 또는 상기 수거 순서가 앞선 유리 제품의 수거에 따라 상기 복수의 유리 제품의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 제2 부분 이미지 내에서 상기 유리 제품을 재인식하고, 상기 제2 이미지와 상기 제2 부분 이미지를 기반으로 상기 제2 로봇(401)이 상기 복수의 유리 제품을 순차적으로 수거하도록 제어할 수 있다.
도 7은 본 발명에 따른 재활용 시스템(1)의 카메라(30)와 로봇(40) 간의 제3 배치구조를 나타낸 예시도이다.
도 8a 내지 도 8c는 도 7의 제3 배치구조에서의 카메라(30)와 로봇(40)을 이용한 재활용품 선별 과정을 설명하기 위한 예시도이다.
이하, 도 7 내지 도 8c를 참조하여, 본 발명에 따른 재활용 시스템(1)의 제3 배치구조 대해서 설명하도록 한다.
도 7 내지 도 8c를 보면, 상기 제3 배치구조의 설명을 위해 상기 복수의 선별영역인 제1 내지 제N 선별영역 중 제1 내지 제4 선별영역으로 설명하도록 한다.
도 7 내지 도 8c에서 카메라는 복수의 카메라를 포함할 수 있고, 상기 로봇은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있다.
상기 제1 선별영역에는 상기 복수의 카메라 중 특정 카메라만이 배치되고, 상기 제1 선별영역을 제외한 상기 복수의 선별영역 각각에는, 상기 특정 카메라를 제외한 적어도 하나의 카메라 및 상기 복수의 로봇이 각각 하나씩 배치될 수 있다.
또한, 상기 특정 카메라를 제외한 상기 적어도 하나의 카메라는, 해당 선별영역에 함께 배치된 로봇의 수거 동작이 완료된 후에 상기 해당 선별영역 상의 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
여기서, 상기 제1 선별영역에는 제1 카메라(301)가 설치되고, 상기 제2 선별영역에는 제1 로봇(401)과 제2 카메라(302)가 설치되고, 상기 제3 선별영역에는 제2 로봇(402)과 제3 카메라(303)가 설치되고, 상기 제4 선별영역에는 제3 로봇(403)과 제4 카메라(304)가 설치될 수 있다.
즉, 제1 선별영역에 제1 카메라(301), 제2 선별영역에 제1 로봇(401), 제3 선별영역에 제2 카메라(302) 및 제4 선별영역에 제2 로봇(402)이 교번적으로 설치될 수 있다.
여기서, 상기 제1 로봇(401)은 상기 재활용품 중 캔을 수거하는 로봇이고, 상기 제2 로봇(402)은 상기 재활용품 중 유리 제품을 수거하는 로봇이고, 상기 제3 로봇(403)은 상기 재활용품 중 플라스틱 제품을 수거하는 로봇일 수 있다.
도 7을 보면, 상기 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제1 선별영역에 정지하여 위치하고, 상기 제1 선별영역에 위치한 상기 제1 카메라(301)는 상기 제1 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 제1 이미지를 획득할 수 있다.
보다 상세하게는, 먼저, 서버(10)의 프로세서(130)는 상기 제1 카메라(301)로부터 획득된 상기 제1 이미지에 대한 인식이 완료되면, 상기 제1 로봇(401)에 할당된 재활용 종류에 해당하는 캔의 개수, 위치, 크기, 수거 순서 등의 정보를 생성할 수 있다.
다음으로, 프로세서(130)는 상기 제1 로봇(401)이 할당된 재활용 종류가 캔이고, 상기 캔이 복수개인 경우, 상기 복수의 캔을 정확하게 수거할 수 있도록 상기 생성된 정보를 상기 제1 로봇(401)으로 전송할 수 있다.
도 8a를 보면, 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제2 선별영역에 정지하여 위치하고, 상기 제1 로봇(401)은 상기 제1 선별영역에 위치한 제1 카메라(301)로부터 획득된 상기 제1 이미지를 기반으로 미리 할당된 재활용 종류인 캔을 수거할 수 있다.
보다 상세하게는, 먼저, 프로세서(130)는 상기 제1 로봇(401)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 캔 중 상기 수거 순서에 따라 캔이 포함된 부분을 실시간으로 촬영한 제1 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 수거 순서가 앞선 캔의 수거에 따라 상기 복수의 캔의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 제1 부분 이미지 내에서 상기 캔을 재인식하고, 상기 제1 이미지와 상기 제1 부분 이미지를 기반으로 상기 제1 로봇(401)이 상기 복수의 캔을 순차적으로 수거하도록 제어할 수 있다.
이후, 상기 제2 선별영역에 위치한 상기 제2 카메라(302)는 상기 제2 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 제2 이미지를 획득할 수 있다.
여기서, 상기 제2 이미지는, 제2 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품이 포함된 이미지로, 상기 제2 선별영역에서 상기 제1 로봇(401)에 의해 상기 캔이 수거된 후 남은 재활용품에 대한 이미지일 수 있다.
도 8b를 보면, 상기 복수의 재활용품은 상기 컨베이어(20)에 이송되어 상기 제3 선별영역에 정지하여 위치하고, 상기 제2 로봇(402)은 상기 제2 선별영역에 위치한 제2 카메라(302)로부터 획득된 상기 제2 이미지를 기반으로 미리 할당된 재활용 종류인 유리 제품을 수거할 수 있다.
보다 상세하게는, 먼저, 프로세서(130)는 상기 제2 로봇(402)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 유리 제품 중 상기 수거 순서에 따라 유리 제품이 포함된 부분을 실시간으로 촬영한 제2 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 복수의 캔의 수거에 따라 또는 상기 수거 순서가 앞선 유리 제품의 수거에 따라 상기 복수의 유리 제품의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 제2 부분 이미지 내에서 상기 유리 제품을 재인식하고, 상기 제2 이미지와 상기 제2 부분 이미지를 기반으로 상기 제2 로봇(402)이 상기 복수의 유리 제품을 순차적으로 수거하도록 제어할 수 있다.
이후, 상기 제3 선별영역에 위치한 상기 제3 카메라(303)는 상기 제3 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 제3 이미지를 획득할 수 있다.
여기서, 상기 제3 이미지는, 제3 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품이 포함된 이미지로, 상기 제3 선별영역에서 상기 제2 로봇(401)에 의해 상기 유리 제품이 수거된 후 남은 재활용품에 대한 이미지일 수 있다.
도 8c를 보면, 상기 복수의 재활용품은 컨베이어(20)에 이송되어 상기 제4 선별영역에 정지하여 위치하고, 상기 제3 로봇(402)은 상기 제3 선별영역에 위치한 제3 카메라(302)로부터 획득된 상기 제3 이미지를 기반으로 미리 할당된 재활용 종류인 플라스틱 제품을 수거할 수 있다.
보다 상세하게는, 먼저, 프로세서(130)는 상기 제3 로봇(403)의 일측에 구비되는 인식모듈(41)을 통해 상기 복수의 플라스틱 제품 중 상기 수거 순서에 따라 플라스틱 제품이 포함된 부분을 실시간으로 촬영한 제3 부분 이미지를 획득할 수 있다.
다음으로, 상기 프로세서(130)는 상기 컨베이어(20)의 이동에 따라 또는 상기 복수의 유리 제품의 수거에 따라 또는 상기 수거 순서가 앞선 플라스틱 제품의 수거에 따라 상기 복수의 플라스틱 제품의 위치가 변경된 경우가 있을 수 있음으로, 제2 인공지능 모델을 기반으로 상기 제3 부분 이미지 내에서 상기 플라스틱 제품을 재인식하고, 상기 제3 이미지와 상기 제3 부분 이미지를 기반으로 상기 제3 로봇(403)이 상기 복수의 플라스틱 제품을 순차적으로 수거하도록 제어할 수 있다.
이후, 상기 제4 선별영역에 위치한 상기 제4 카메라(303)는 상기 제4 선별영역의 상기 컨베이어(20) 상에 위치된 복수의 재활용품이 포함된 제4 이미지를 획득할 수 있다.
여기서, 상기 제4 이미지는, 제4 선별영역의 상기 컨베이어(20)에 위치된 상기 복수의 재활용품이 포함된 이미지로, 상기 제4 선별영역에서 상기 제3 로봇(401)에 의해 상기 플라스틱 제품이 수거된 후 남은 재활용품에 대한 이미지일 수 있다.
도 9는 본 발명에 따른 재활용품을 선별하는 과정을 나타낸 흐름도이다. 여기서, 프로세서(130)의 동작은 서버(10)에서 수행 가능할 수 있다.
프로세서(130)는 컨베이어(20)를 통해 복수의 재활용품을 제1 선별영역으로 이송시킨 후 상기 컨베이어(20)의 이송을 정지시킬 수 있다(S901).
구체적으로, 프로세서(130)는 상기 재활용 시스템(1)의 컨베이어(20)를 통해 상기 복수의 재활용품을 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어(20)의 이송을 정지시킬 수 있다.
여기서, 상기 컨베이어는 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품의 개수에 따라 정지시간이 변경되되, 상기 재활용품의 개수가 많을수록 상기 정지시간이 길어질 수 있다.
또한, 상기 컨베이어는 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품에 대한 수거 속도에 따라 정시시간이 변경될 수 있다.
프로세서(130)는 카메라(30)를 통해 상기 제1 선별영역 상에 위치된 상기 복수의 재활용품이 포함된 이미지를 획득할 수 있다(S902).
구체적으로, 프로세서(130)는 상기 재활용 시스템(1)의 카메라(30)를 통해 상기 제1 선별영역 상에 상기 컨베이어(20)의 상단에 위치된 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
프로세서(130)는 상기 인공지능 모델을 기반으로 상기 이미지 내에서 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식할 수 있다(S903).
여기서, 상기 인공지능 모델은 콘볼루션 뉴럴 네트워크(CNN, convolutional neural network, 이하 CNN이라고 명칭함)를 포함할 수 있으나 반드시 이에 한정되지 않고, 다양한 구조의 신경망으로 형성될 수 있다.
프로세서(130)는 상기 인식 완료되면, 상기 컨베이어(20)를 통해 상기 복수의 재활용품을 상기 제2 선별영역으로 이송시킨 후 상기 컨베이어(20)의 이송을 정지시킬 수 있다(S904).
구체적으로, 프로세서(130)는 상기 인식이 완료되면, 상기 컨베이어(20)를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어(20)의 이송을 정지시킬 수 있다.
프로세서(103)는 로봇(40)을 통해 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇(40)에 할당된 재활용 종류에 해당하는 재활용품만을 수거할 수 있다(S905).
구체적으로, 프로세서(130)는 상기 재활용 시스템(1)의 로봇(40)을 통해, 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇(40)에 할당된 재활용 종류에 해당하는 재활용품만을 수거할 수 있다.
또한, 프로세서(130)는 상기 로봇(40)의 일측에 구비되는 인식모듈(41)을 통해 상기 재활용품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득할 수 있다.
이후, 프로세서(130)는 상기 컨베이어(20)의 이동 또는 상기 재활용품의 수거에 따라 위치가 변경되는 경우, 제2 인공지능 모델을 기반으로 상기 획득한 부분 이미지 내에서 상기 재활용품을 재인식할 수 있다.
또한, 일 예로, 상기 카메라(30)는 상기 복수의 선별영역 중 상기 제1 선별영역에만 배치될 수 있다.
또한, 상기 로봇(40)은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있고, 상기 복수의 로봇은 상기 복수의 선별영역 중 상기 제1 선별영역을 제외한 복수의 선별영역에 각각 배치될 수 있다.
또한, 상기 복수의 로봇은 상기 인식된 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품 만을 선별적으로 수거할 수 있다.
다른 예로, 상기 카메라(30)는 상기 복수의 카메라를 포함할 수 있고, 상기 로봇(40)은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있다.
여기서, 상기 복수의 카메라 및 상기 복수의 로봇을 상기 복수의 선별영역 각각에 서로 교번적으로 배치될 수 있다.
이에 따라, 상기 복수의 카메라는 해당 선별영역 상에 위치한 복수의 재활용품이 포함된 이미지를 각각 획득할 수 있다.
그리고, 상기 복수의 로봇은 해당 선별영역의 이전 선별영역에 배치된 카메라의 이미지로부터 인식되는 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품만을 선별적으로 수거할 수 있다.
또 다른 예로, 상기 카메라(30)는 상기 복수의 카메라를 포함할 수 있고, 상기 로봇(40)은 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함할 수 있다.
여기서, 상기 제1 선별영역에는 상기 복수의 카메라 중 특정 카메라만이 배치될 수 있다.
그리고, 상기 제2 선별영역을 제외한 상기 복수의 선별영역 각각에는, 상기 특정 카메라를 제외한 적어도 하나의 카메라 및 상기 복수의 로봇이 각각 하나씩 배치될 수 있다.
보다 상세하게는, 상기 특정 카메라를 제외한 상기 적어도 하나의 카메라는 해당 선별영역에 함께 배치된 로봇의 수거 동작이 완료된 후에 상기 해당 선별영역 상의 복수의 재활용품이 포함된 이미지를 획득할 수 있다.
도 9는 단계 S901 내지 단계 S905를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 9에 기재된 순서를 변경하여 실행하거나 단계 S901 내지 단계 S905 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 9는 시계열적인 순서로 한정되는 것은 아니다.
이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다. 여기서, 컴퓨터는 앞에서 설명한 서버(10)일 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (15)

  1. 재활용 시스템에 의해 수행되는, 인공지능 기반의 재활용품을 선별하는 방법에 있어서,
    상기 재활용 시스템의 컨베이어를 통해 복수의 재활용품을 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어의 이송을 정지시키는 단계;
    상기 재활용 시스템의 카메라를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지를 획득하는 단계;
    제1 인공지능 모델을 기반으로 상기 획득된 이미지 내의 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식하는 단계;
    상기 인식이 완료되면, 상기 컨베이어를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어의 이송을 정지시키는 단계; 및
    상기 재활용 시스템의 로봇을 통해 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇에 할당된 재활용 종류에 해당하는 재활용품만을 수거하는 단계;를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 카메라는, 상기 복수의 선별영역 중 상기 제1 선별영역에만 배치되고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 복수의 로봇은, 상기 복수의 선별영역 중 상기 제1 선별영역을 제외한 복수의 선별영역에 각각 배치되는, 방법.
  3. 제2항에 있어서,
    상기 복수의 로봇은, 상기 인식된 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품 만을 선별적으로 수거하는, 방법.
  4. 제1항에 있어서,
    상기 카메라는, 상기 복수의 카메라를 포함하고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 복수의 카메라 및 상기 복수의 로봇은 상기 복수의 선별영역 각각에 서로 교번적으로 배치되는, 방법.
  5. 제4항에 있어서,
    상기 복수의 카메라는, 해당 선별영역 상에 위치한 복수의 재활용품이 포함된 이미지를 각각 획득하고,
    상기 복수의 로봇은, 해당 선별영역의 이전 선별영역에 배치된 카메라의 이미지로부터 인식되는 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품만을 선별적으로 수거하는, 방법.
  6. 제1항에 있어서,
    상기 카메라는, 상기 복수의 카메라를 포함하고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 제1 선별영역에는, 상기 복수의 카메라 중 특정 카메라만이 배치되고,
    상기 제1 선별영역을 제외한 상기 복수의 선별영역 각각에는, 상기 특정 카메라를 제외한 적어도 하나의 카메라 및 상기 복수의 로봇이 각각 하나씩 배치되며,
    상기 특정 카메라를 제외한 상기 적어도 하나의 카메라는, 해당 선별영역에 함께 배치된 로봇의 수거 동작이 완료된 후에 상기 해당 선별영역 상의 복수의 재활용품이 포함된 이미지를 획득하는, 방법.
  7. 제1항에 있어서,
    상기 수거 단계는, 상기 로봇의 일측에 구비되는 인식모듈을 통해 상기 재활용품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득하고, 상기 컨베이어의 이동 또는 상기 재활용품의 수거에 따라 위치가 변경되는 경우 제2 인공지능 모델을 기반으로 상기 획득한 부분 이미지 내에서 상기 재활용품을 재인식하며,
    상기 컨베이어는, 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품의 개수에 따라 정지시간이 변경되되, 상기 재활용품의 개수가 많을수록 상기 정지시간이 길어지는, 방법.
  8. 하드웨어인 컴퓨터와 결합되어, 제1항의 방법을 실행시키기 위하여 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.
  9. 인공지능 기반의 재활용품 선별 시스템에 있어서,
    복수의 재활용품을 복수의 선별 영역으로 이송시키는 컨베이어;
    상기 복수의 재활용품을 촬영하는 카메라;
    상기 복수의 재활용품을 수거하는 로봇; 및
    상기 컨베이어를 통해 상기 복수의 재활용품을 상기 복수의 선별영역 중 제1 선별영역으로 이송시킨 후 상기 제1 선별영역에서 상기 컨베이어의 이송을 정지시키고,
    상기 카메라를 통해 상기 제1 선별영역 상에 위치된 복수의 재활용품이 포함된 이미지가 획득되면, 제1 인공지능 모델을 기반으로 상기 획득된 이미지 내의 상기 복수의 재활용품을 복수의 재활용 종류 별로 인식하고,
    상기 인식이 완료되면, 상기 컨베이어를 통해 상기 복수의 재활용품을 상기 제1 선별영역에서 제2 선별영역으로 이송시킨 후 상기 제2 선별영역에서 상기 컨베이어의 이송을 정지시키며,
    상기 로봇을 통해 상기 제2 선별영역 상에 위치된 상기 복수의 재활용품 중 상기 로봇에 할당된 재활용 종류에 해당하는 재활용품만을 수거하도록 제어하는 서버;를 포함하는, 시스템.
  10. 제9항에 있어서,
    상기 카메라는, 상기 복수의 선별영역 중 상기 제1 선별영역에만 배치되고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 복수의 로봇은, 상기 복수의 선별영역 중 상기 제1 선별영역을 제외한 복수의 선별영역에 각각 배치되는, 시스템.
  11. 제10항에 있어서,
    상기 복수의 로봇은, 상기 인식된 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품 만을 선별적으로 수거하는, 시스템.
  12. 제9항에 있어서,
    상기 카메라는, 상기 복수의 카메라를 포함하고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 복수의 카메라 및 상기 복수의 로봇은 상기 복수의 선별영역 각각에 서로 교번적으로 배치되는, 시스템.
  13. 제12항에 있어서,
    상기 복수의 카메라는, 해당 선별영역 상에 위치한 복수의 재활용품이 포함된 이미지를 각각 획득하고,
    상기 복수의 로봇은, 해당 선별영역의 이전 선별영역에 배치된 카메라의 이미지로부터 인식되는 재활용 종류를 기반으로, 상기 복수의 재활용품이 해당 선별영역으로 이송될 때마다 각각 해당 할당된 재활용품만을 선별적으로 수거하는, 시스템.
  14. 제9항에 있어서,
    상기 카메라는, 상기 복수의 카메라를 포함하고,
    상기 로봇은, 재활용품을 종류 별로 각각 수거하는 복수의 로봇을 포함하고,
    상기 제1 선별영역에는, 상기 복수의 카메라 중 특정 카메라만이 배치되고,
    상기 제1 선별영역을 제외한 상기 복수의 선별영역 각각에는, 상기 특정 카메라를 제외한 적어도 하나의 카메라 및 상기 복수의 로봇이 각각 하나씩 배치되며,
    상기 특정 카메라를 제외한 상기 적어도 하나의 카메라는, 해당 선별영역에 함께 배치된 로봇의 수거 동작이 완료된 후에 상기 해당 선별영역 상의 복수의 재활용품이 포함된 이미지를 획득하는, 시스템.
  15. 제9항에 있어서,
    상기 서버는, 상기 로봇의 일측에 구비되는 인식모듈을 통해 상기 재활용품이 포함된 부분을 실시간으로 촬영한 부분 이미지를 획득하고, 상기 컨베이어의 이동 또는 상기 재활용품의 수거에 따라 위치가 변경되는 경우 제2 인공지능 모델을 기반으로 상기 획득한 부분 이미지 내에서 상기 재활용품을 재인식하며,
    상기 컨베이어는, 상기 복수의 선별영역 상에서 해당 로봇의 해당 할당된 재활용품의 개수에 따라 정지시간이 변경되되, 상기 재활용품의 개수가 많을수록 상기 정지시간이 길어지는, 시스템.
PCT/KR2022/010389 2021-07-19 2022-07-15 인공지능 기반의 재활용품 선별 시스템 및 방법 WO2023003288A2 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210094313A KR20230013498A (ko) 2021-07-19 2021-07-19 재활용품을 선별하는 시스템 및 방법
KR10-2021-0094313 2021-07-19

Publications (2)

Publication Number Publication Date
WO2023003288A2 true WO2023003288A2 (ko) 2023-01-26
WO2023003288A3 WO2023003288A3 (ko) 2023-03-16

Family

ID=84978784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/010389 WO2023003288A2 (ko) 2021-07-19 2022-07-15 인공지능 기반의 재활용품 선별 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR20230013498A (ko)
WO (1) WO2023003288A2 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102658582B1 (ko) * 2023-05-25 2024-04-17 김형주 딥러닝 인공지능을 이용한 비전분석을 이용하는 물체 분류 장치
KR102651149B1 (ko) * 2023-09-27 2024-03-26 주식회사 에이트테크 다중 클래스 분류 기준표를 이용한 대상객체 분류 시스템
KR102650810B1 (ko) * 2023-09-27 2024-03-25 주식회사 에이트테크 대상객체와 비대상객체 분리 로봇 시스템
KR102651150B1 (ko) * 2023-09-27 2024-03-26 주식회사 에이트테크 대상객체 종류에 따른 공기압 제어를 통한 폐기물 분류 시스템
KR102651151B1 (ko) * 2023-09-27 2024-03-26 주식회사 에이트테크 공기 방향 제어를 통한 폐기물 분류 시스템

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5150307A (en) * 1990-10-15 1992-09-22 Automation Industrial Control, Inc. Computer-controlled system and method for sorting plastic items
KR100906809B1 (ko) 2007-11-30 2009-07-09 주식회사 다음커뮤니케이션 키워드 검색 방법
KR101270354B1 (ko) * 2013-02-12 2013-06-04 한국쓰리알환경산업(주) 폐기물 재활용 분류 시스템
JP7108283B2 (ja) * 2018-05-08 2022-07-28 ウエノテックス株式会社 廃棄物選別システム、教師データ生成装置、教師データ生成システム、および教師データ生成プログラム
KR102179534B1 (ko) * 2019-02-26 2020-11-16 조선대학교산학협력단 재활용품 자동 분류 수거기
KR102222176B1 (ko) * 2020-07-24 2021-03-03 주식회사 에이트테크 인공지능 기반의 재활용 분류 시스템

Also Published As

Publication number Publication date
WO2023003288A3 (ko) 2023-03-16
KR20230013498A (ko) 2023-01-26

Similar Documents

Publication Publication Date Title
WO2023003288A2 (ko) 인공지능 기반의 재활용품 선별 시스템 및 방법
WO2022065621A1 (ko) 제품 결함 이미지 원격 학습을 통한 비전 검사 시스템
WO2016209020A1 (en) Image processing apparatus and image processing method
WO2015122677A1 (ko) 자동차의 트렁크 개방 장치 및 방법과, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
WO2016052855A1 (en) Method and system for automatic selection of channel line up, set top box (stb) ir codes, and pay tv operator for televisions controlling an stb
WO2019216578A1 (en) Method and apparatus for executing cleaning operation
WO2022114731A1 (ko) 딥러닝 기반 비정상 행동을 탐지하여 인식하는 비정상 행동 탐지 시스템 및 탐지 방법
WO2020101061A1 (en) Method and device for managing food in refrigerator
WO2021112446A1 (en) Pollution source determination robot cleaner and operating method thereof
WO2015016619A1 (en) Electronic apparatus, method of controlling the same, and image reproducing apparatus and method
WO2017073852A1 (en) Photographing apparatus using multiple exposure sensor and photographing method thereof
WO2023022537A1 (ko) Ai 기반 차량 디스크 불량 검출 시스템
WO2020251086A1 (ko) 인공지능 세탁물 처리 기기
EP3649460A1 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
WO2019135475A1 (en) Electronic apparatus and control method thereof
EP3773111A1 (en) Method and apparatus for executing cleaning operation
WO2013165048A1 (ko) 영상 검색 시스템 및 영상 분석 서버
WO2020085653A1 (ko) 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템
EP4392946A1 (en) Method of processing multimodal tasks, and an apparatus for the same
WO2021206221A1 (en) Artificial intelligence apparatus using a plurality of output layers and method for same
WO2020204219A1 (ko) 인공지능을 이용한 사물 인식 학습에서 아웃라이어를 분류하는 방법 및 분류장치와 로봇
WO2020091253A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2020017814A1 (ko) 이상 개체 검출 시스템 및 방법
WO2015105287A1 (ko) 교통 정보 수집 방법, 이를 위한 장치 및 시스템
WO2022080517A1 (ko) 학습 데이터를 생성하는 인공 지능 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22846158

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE