KR102318931B1 - 폐의류를 활용한 의류 리사이클링 방법 - Google Patents

폐의류를 활용한 의류 리사이클링 방법 Download PDF

Info

Publication number
KR102318931B1
KR102318931B1 KR1020210061805A KR20210061805A KR102318931B1 KR 102318931 B1 KR102318931 B1 KR 102318931B1 KR 1020210061805 A KR1020210061805 A KR 1020210061805A KR 20210061805 A KR20210061805 A KR 20210061805A KR 102318931 B1 KR102318931 B1 KR 102318931B1
Authority
KR
South Korea
Prior art keywords
clothing
clothes
image
line
amount
Prior art date
Application number
KR1020210061805A
Other languages
English (en)
Inventor
김준현
Original Assignee
김준현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김준현 filed Critical 김준현
Priority to KR1020210061805A priority Critical patent/KR102318931B1/ko
Application granted granted Critical
Publication of KR102318931B1 publication Critical patent/KR102318931B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/361Processing or control devices therefor, e.g. escort memory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • B07C5/38Collecting or arranging articles in groups
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Mathematical Physics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 폐의류를 활용하여 의류의 리사이클링을 수행하는 방법에 있어서, 촬영 장비를 통해 의류에 대한 촬영이 수행되면, 상기 촬영 장비로부터 상기 의류의 촬영으로 생성된 제1 이미지를 획득하는 단계; 상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 의류의 종류인 제1 카테고리를 식별하는 단계; 상기 제1 카테고리의 대표 이미지와 상기 제1 이미지를 부위별로 비교하여, 상기 의류의 부위별 보정값을 설정하는 단계; 상기 보정값을 기초로 상기 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 상기 의류의 핏이 보정된 이미지인 제2 이미지를 생성하는 단계; 상기 제2 이미지를 분석하여 상기 제2 이미지에서 상기 의류가 차지하고 있는 의류 영역과 배경 영역을 구분하는 단계; 상기 제2 이미지에서 상기 배경 영역을 삭제하여, 상기 의류 영역으로만 구성된 이미지인 제3 이미지를 생성하는 단계; 상기 제3 이미지를 기초로, 상기 의류의 상태를 확인하여 상태 등급을 설정하는 단계; 상기 의류의 상태 등급이 1등급으로 설정되면, 리폼 없이 세척으로만 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 2등급으로 설정되면, 리폼을 통해 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 3등급으로 설정되면, 재활용이 가능하지 않는 의류로 구분하여, 상기 의류의 상태 등급에 따라 1차 분류를 수행하는 단계; 및 상기 제1 카테고리를 통해 확인된 의류의 모양에 따라 2차 분류를 수행하는 단계를 포함하는, 폐의류를 활용한 의류 리사이클링 방법이 제공된다.

Description

폐의류를 활용한 의류 리사이클링 방법 {METHOD FOR RECYCLING CLOTHING USING WASTE CLOTHING}
아래 실시예들은 폐의류를 활용하여 의류의 리사이클링을 수행하는 기술에 관한 것이다.
현대 사회에서는 산업화의 영향으로 대량의 물품이 생산 및 소비되고 있다. 이러한 대량 생산 및 대량 소비 특징에 따라 생활 폐기물의 발생량이 급격하게 증가하고 있으나, 이러한 생활 폐기물의 경제적 가치를 이용할 수 있는 방법은 부족한 실정이다. 뿐만 아니라, 최근에는 환경 보호에 대한 관심 또한 크게 증가되고 있어 이러한 생활 폐기물에 대한 재활용 또는 재사용을 위한 노력이 증가하고 있다.
그 중, 버려지는 의류를 수거할 수 있는 의류 수거함을 설치하는 지역이 늘어가는 추세이지만, 폐의류를 배출하는 사람들의 경제적 인식의 부재, 분리 배출의 번거로움, 의류 수거 시스템의 영세성, 의류 재활용 또는 재사용에 대한 보상 체계의 미비, 의류 재활용품에 대한 정보 부재 등의 이유로 인하여, 폐의류에 대한 재활용 또는 재사용 비율은 매우 낮은 실정이다.
이에 따라, 폐의류의 재활용 또는 재사용 비율을 높이는데 실제적으로 어려움이 있었으며, 크기, 모양, 색상 등 다양한 형태의 폐의류를 용도에 따라 분류하는데 어려움이 있어, 버려지는 폐의류의 양이 증가하고 있는 실정이다.
한국등록특허 제10-2108453호(2020.05.28) 한국등록특허 제10-1040177호(2011.06.09) 한국등록특허 제10-1921858호(2019.02.13) 한국등록특허 제10-1464713호(2014.11.27)
일실시예에 따르면, 의류의 상태에 따라 상태 등급을 설정하여, 리폼 없이 세척으로만 재활용이 가능한 1등급 의류로 구분하고, 리폼을 통해 재활용이 가능한 2등급 의류로 구분하고, 재활용이 가능하지 않은 3등급 의류로 구분하는, 폐의류를 활용한 의류 리사이클링 방법을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 폐의류를 활용하여 의류의 리사이클링을 수행하는 방법에 있어서, 촬영 장비를 통해 의류에 대한 촬영이 수행되면, 상기 촬영 장비로부터 상기 의류의 촬영으로 생성된 제1 이미지를 획득하는 단계; 상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 의류의 종류인 제1 카테고리를 식별하는 단계; 상기 제1 카테고리의 대표 이미지와 상기 제1 이미지를 부위별로 비교하여, 상기 의류의 부위별 보정값을 설정하는 단계; 상기 보정값을 기초로 상기 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 상기 의류의 핏이 보정된 이미지인 제2 이미지를 생성하는 단계; 상기 제2 이미지를 분석하여 상기 제2 이미지에서 상기 의류가 차지하고 있는 의류 영역과 배경 영역을 구분하는 단계; 상기 제2 이미지에서 상기 배경 영역을 삭제하여, 상기 의류 영역으로만 구성된 이미지인 제3 이미지를 생성하는 단계; 상기 제3 이미지를 기초로, 상기 의류의 상태를 확인하여 상태 등급을 설정하는 단계; 상기 의류의 상태 등급이 1등급으로 설정되면, 리폼 없이 세척으로만 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 2등급으로 설정되면, 리폼을 통해 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 3등급으로 설정되면, 재활용이 가능하지 않는 의류로 구분하여, 상기 의류의 상태 등급에 따라 1차 분류를 수행하는 단계; 및 상기 제1 카테고리를 통해 확인된 의류의 모양에 따라 2차 분류를 수행하는 단계를 포함하는, 폐의류를 활용한 의류 리사이클링 방법이 제공된다.
상기 폐의류를 활용한 의류 리사이클링 방법은, 상기 제3 이미지에서 상기 의류의 외곽선을 인식하고, 상기 의류의 외곽선을 상기 제1 카테고리에 미리 설정된 구간별로 분할하는 단계; 상기 의류의 외곽선에서 구간별로 분할된 복수의 선 각각을 직선과 곡선으로 분류하는 단계; 상기 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식하고, 상기 복수의 점 각각을 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 분류하는 단계; 상기 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 상기 의류의 특징 정보로 등록하는 단계; 및 상기 의류의 특징 정보를 기초로, 상기 의류의 사이즈를 구분하여 3차 분류를 수행하는 단계를 더 포함할 수 있다.
상기 복수의 선 각각을 직선과 곡선으로 분류하는 단계는, 상기 복수의 선 중 어느 하나인 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하는 단계; 상기 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식하는 단계; 상기 제1 점과 상기 제3 점을 곧은 선으로 연결한 제2 선 및 상기 제2 점과 상기 제3 점을 곧은 선으로 연결한 제3 선을 생성하는 단계; 상기 제2 선 및 상기 제3 선을 결합한 제4 선과 상기 제1 선의 일치 여부를 확인하는 단계; 및 상기 제4 선과 상기 제1 선이 일치하는 것으로 확인되면, 상기 제1 선을 직선으로 분류하고, 상기 제4 선과 상기 제1 선이 일치하지 않는 것으로 확인되면, 상기 제1 선을 곡선으로 분류하는 단계를 포함할 수 있다.
상기 폐의류를 활용한 의류 리사이클링 방법은, 상기 의류 영역 내에 있는 픽셀들의 평균 명도값인 제1 명도값을 산출하는 단계; 상기 배경 영역 내에 있는 픽셀들의 평균 명도값인 제2 명도값을 산출하는 단계; 상기 제1 명도값과 상기 제2 명도값 간의 차이인 제1 차이값을 산출하는 단계; 상기 제1 차이값이 미리 설정된 제1 기준 범위를 벗어나는 것으로 확인되면, 상기 촬영 장비의 조명 제어가 필요한 것으로 판단하는 단계; 상기 제1 차이값이 상기 제1 기준 범위의 최소값 보다 작은 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최소값 간의 차이인 제2 차이값을 산출하는 단계; 상기 제2 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 높은 레벨로 변경하는 단계; 상기 제1 차이값이 상기 제1 기준 범위의 최대값 보다 큰 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최대값 간의 차이인 제3 차이값을 산출하는 단계; 및 상기 제3 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 낮은 레벨로 변경하는 단계를 더 포함할 수 있다.
상기 폐의류를 활용한 의류 리사이클링 방법은, 상기 1등급으로 분류된 제1 의류와 상기 2등급으로 분류된 제2 의류가 창고에 입고되어 있는 경우, 상기 창고에 입고되어 있는 상기 제1 의류와 상기 제2 의류의 재고량을 각각 확인하는 단계; 상기 제1 의류 및 상기 제2 의류 중 어느 하나가 재활용을 위해 상기 창고에서 반출되면, 상기 제1 의류의 재고량 또는 상기 제2 의류의 재고량을 반출량에 따라 차감하여 갱신하는 단계; 상기 제1 의류의 재고량 및 상기 제2 의류의 재고량을 합산한 상기 창고의 재고량이 미리 설정된 제1 기준량 보다 작은 것으로 확인되면, 상기 창고에 잔여 공간이 있는 것으로 판단하는 단계; 상기 창고에 잔여 공간이 있는 것으로 판단되면, 상기 제1 의류의 재고량과 미리 설정된 상기 제1 의류의 최대 입고량을 비교하여 상기 제1 의류의 입고 가능량을 산출하고, 상기 제2 의류의 재고량과 미리 설정된 제2 의류의 최대 입고량을 비교하여 상기 제2 의류의 입고 가능량을 산출하는 단계; 상기 창고를 관리하는 관리자의 연락처를 확인하여, 상기 제1 의류의 입고 가능량 및 상기 제2 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 관리자 단말로 전송하는 단계; 상기 창고의 재고량이 상기 제1 기준량 보다 큰 것으로 확인된 상태에서, 상기 제1 의류의 재고량이 미리 설정된 제2 기준량 보다 작은 것으로 확인되면, 상기 제1 의류에 대한 입고가 가능한 것으로 판단하는 단계; 및 상기 제1 의류에 대한 입고가 가능한 것으로 판단되면, 상기 제1 의류의 재고량과 상기 제1 의류의 최대 입고량을 비교하여 상기 제1 의류의 입고 가능량을 산출하고, 상기 제1 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 상기 관리자 단말로 전송하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에 따르면, 의류의 상태에 따라 상태 등급을 설정하여, 리폼 없이 세척으로만 재활용이 가능한 1등급 의류로 구분하고, 리폼을 통해 재활용이 가능한 2등급 의류로 구분하고, 재활용이 가능하지 않은 3등급 의류로 구분함으로써, 의류를 상태에 따라 분류하여, 폐의류에 대한 재활용 비율을 높일 수 있다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 장치의 구성을 나타내는 도면이다.
도 2는 일실시예에 따른 의류의 리사이클링을 수행하는데 필요한 의류 이미지를 생성하는 과정을 순서도로 나타낸 도면이다.
도 3은 일실시예에 따른 의류를 분류하는 과정을 순서도로 나타낸 도면이다.
도 4는 일실시예에 따른 2등급으로 분류된 의류를 추가로 분류하는 과정을 순서도로 나타낸 도면이다.
도 5는 일실시예에 따른 3등급으로 분류된 의류를 추가로 분류하는 과정을 순서도로 나타낸 도면이다.
도 6은 일실시예에 따른 의류의 외관 특징을 분석하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 의류의 외곽선을 통해 복수의 선 및 복수의 점을 인식하는 과정을 설명하기 위한 도면이다.
도 8은 일실시예에 따른 복수의 선 각각을 직선과 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제1 선을 직선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 제1 선을 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 촬영 장비의 조명을 제어하는 과정을 설명하기 위한 순서도이다.
도 12는 일실시예에 따른 폐기 필요 영역 및 재활용 가능 영역을 구분하는 방법을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 원단 재활용이 가능한 의류를 추가로 분류하는 방법을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 의류 창고의 재고를 관리하는 과정을 설명하기 위한 순서도이다.
도 15는 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
도 16은 일실시예에 따른 제1 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 17은 일실시예에 따른 제2 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일실시예에 따른 장치의 구성을 나타내는 도면이다.
일실시예에 따른 장치(101)는 프로세서(102) 및 메모리(103)를 포함한다. 프로세서(102)는 도 2 내지 도 17을 통하여 후술되는 적어도 하나의 방법을 수행할 수 있다. 메모리(103)는 후술되는 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(103)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(102)는 프로그램을 실행하고, 장치(101)를 제어할 수 있다. 프로세서(102)에 의하여 실행되는 프로그램의 코드는 메모리(103)에 저장될 수 있다. 장치(101)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(101)는 인공 신경망을 학습시키는데 사용될 수 있다. 메모리(103)는 학습된 인공 신경망을 포함할 수 있다. 프로세서(102)는 메모리(103)에 저장된 인공 신경망 알고리즘을 실행할 수 있다. 인공 신경망을 학습시키는 장치(101)와 학습된 인공 신경망을 이용하는 장치(101)는 동일할 수도 있고 개별적일 수도 있다.
일실시예에 따르면, 장치(101)는 폐의류를 활용한 의류 리사이클링 방법을 수행하는 장치로서, 예를 들어 하드웨어 모듈, 소프트웨어 모듈 또는 이들의 조합으로 구현될 수 있다.
일실시예에 따르면, 장치(101)는 단말로 구현될 수 있으며, 장치(101)는 서버로 구현될 수도 있다. 서버는 단말과 통신할 수 있고, 필요한 정보를 데이터베이스로부터 열람하여 판단 동작에 채용하고, 판단의 결과물을 기반으로 데이터베이스를 갱신할 수 있다. 장치(101)에 의해 수행되는 동작은 서버 및 단말 중 어느 하나 단독으로 구현될 수도 있지만, 서버 및 단말의 상호작용에 의해 구현될 수도 있다. 서버 및 단말은 전자 장치를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
일실시예에 따른 전자 장치는 프로세서, 메모리, 사용자 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크는 일실시예에 따른 전자 장치와 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 전자 장치는 네트워크를 통해 다양한 개체들과 통신할 수 있고, 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다.
일실시예에 따른 휴대용 단말기는 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.
일실시예에 따르면, 장치(101)는 촬영 장비와 유무선을 통해 연결되어, 촬영 장비의 동작을 제어할 수 있다. 여기서, 촬영 장비는 의류를 촬영하는 촬영 장비일 수 있다. 이때, 의류는 옷, 신발, 모자 등 다양한 제품을 포함할 수 있다.
촬영 장비에서 의류에 대한 사진을 촬영하면, 장치(101)는 의류 사진에 대한 이미지를 획득하여, 이미지 상에서 의류의 테두리를 인식하여 의류 이외의 배경 영역을 자체적으로 제거하고, 의류 이미지의 파일 형식도 자유롭게 추출할 수 있다.
도 2는 일실시예에 따른 의류의 리사이클링을 수행하는데 필요한 의류 이미지를 생성하는 과정을 순서도로 나타낸 도면이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(101)는 촬영 장비를 통해 의류 제품에 대한 촬영이 수행되면, 촬영 장비로부터 의류의 촬영 이미지인 제1 이미지를 획득할 수 있다. 이때, 촬영 장비는 의류의 촬영으로 제1 이미지를 생성하고, 생성된 제1 이미지를 장치(101)로 전송할 수 있다.
장치(101)는 제1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.
구체적으로, 장치(101)는 제1 이미지의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치(101)는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 이미지를 인코딩할 수 있다.
장치(101)는 제1 입력 신호를 장치(101) 내 미리 학습된 제1 인공 신경망에 입력할 수 있다.
일실시예에 따른 제1 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 객체 후보 검출을 위한 제1 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 의류의 종류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제1 인공 신경망에 대한 자세한 설명은 도 15를 참조하여 후술한다.
장치(101)는 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.
S202 단계에서, 장치(101)는 제1 출력 신호에 기초하여, 의류의 종류인 제1 카테고리를 식별할 수 있다.
예를 들어, 장치(101)는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 의류의 종류를 옷 상의 카테고리로 식별하고, 출력값이 2인 경우, 의류의 종류를 옷 하의 카테고리로 식별하고, 출력값이 3인 경우, 의류의 종류를 신발 카테고리로 식별하고, 출력값이 4인 경우, 의류의 종류를 모자 카테고리로 식별할 수 있다.
S203 단계에서, 장치(101)는 제1 카테고리의 대표 이미지를 데이터베이스로부터 획득할 수 있다. 이를 위해, 장치(101)의 데이터베이스에는 카테고리 별로 등록된 대표 이미지가 저장되어 있을 수 있다.
S204 단계에서, 장치(101)는 제1 카테고리의 대표 이미지와 제1 이미지를 부위별로 비교하여, 의류의 부위별 보정값을 설정할 수 있다.
구체적으로, 제1 이미지를 통해 의류의 종류가 제1 카테고리로 확인되면, 장치(101)는 제1 카테고리의 대표 이미지와 제1 이미지의 파일 확장자 형식을 일치시키고, 축적 및 해상도도 일치시켜, 의류의 크기 및 형태가 어느 정도 일치하도록 조정하는 전처리 과정을 수행할 수 있다. 장치(101)는 의류의 부위별로 이미지 비교를 수행하여, 이미지 비교 결과, 크기 및 형태가 차이가 있는 부분을 파악할 수 있으며, 제1 이미지에 있는 의류를 제1 카테고리의 대표 이미지에 있는 의류와 맞춰주는 보정값을 부위별로 설정할 수 있다. 여기서, 보정값은 픽셀 유동화 작업 수행 시 적용되는 설정값으로, 특정 부분의 확장, 축소, 이동 등의 설정값을 포함할 수 있다.
즉, 장치(101)는 제1 카테고리의 대표 이미지에 있는 의류의 크기 및 형태에 맞추도록, 제1 이미지에 있는 의류의 크기 및 형태를 조절하여, 의류의 종류 별로 의류의 형태를 통일된 기준으로 설정할 수 있다.
S205 단계에서, 장치(101)는 보정값을 기초로 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 의류의 핏이 보정된 이미지인 제2 이미지를 생성할 수 있다.
예를 들어, 의류의 종류가 옷 상의인 경우, 소매, 팔, 몸통, 목 등의 부위별로 보정값이 설정될 수 있으며, 제1 카테고리의 대표 이미지와 제1 이미지를 비교한 결과, 소매 부위에 대한 차이가 많이 나는 경우, 소매 부위에 대한 보정값이 큰 값으로 설정되고, 목 부위에 대한 차이가 나지 않는 경우, 목 부위에 대한 보정값이 작은 값으로 설정될 수 있다. 장치(101)는 소매 부위에 대한 보정값을 통해 제1 이미지에서 소매 부위에 대한 픽셀 유동화 작업을 수행하여, 소매 부위에 대해서는 큰 값을 통해 이미지 보정을 수행하고, 목 부위에 대한 보정값을 통해 제1 이미지에서 목 부위에 대한 픽셀 유동화 작업을 수행하여, 목 부위에 대해서는 작은 값을 통해 이미지 보정을 수행할 수 있다.
즉, 장치(101)는 제1 카테고리의 대표 이미지에 있는 의류와 크기 및 형태를 일치시킬 수 있도록, 제1 이미지에 있는 의류의 크기 및 형태를 부위별로 보정하여, 제1 카테고리의 대표 이미지에 있는 의류와 차이가 많이 날수록 더 큰 설정값을 통해 이미지 보정을 수행하고, 제1 카테고리의 대표 이미지에 있는 의류와 유사할수록 더 작은 설정값을 통해 이미지 보정을 수행할 수 있다.
장치(101)는 제1 이미지에 있는 의류의 부위별 보정을 통해, 의류의 핏이 보정된 이미지인 제2 이미지를 생성할 수 있으며, 제2 이미지에 있는 의류는 제1 카테고리의 대표 이미지에 있는 의류와 크기 및 형태가 동일한 핏으로 보정된 상태일 수 있다.
S206 단계에서, 장치(101)는 제2 이미지를 분석하여 제2 이미지에서 의류가 차지하고 있는 의류 영역과 배경 영역을 구분할 수 있다.
구체적으로, 장치(101)는 제2 이미지에서 의류의 외곽선을 인식하고, 의류의 외곽선 내부에 있는 영역을 의류 영역으로 구분하고, 의류의 외곽선 외부에 있는 영역을 배경 영역으로 구분할 수 있다.
S207 단계에서, 장치(101)는 제2 이미지에서 배경 영역을 삭제하여, 의류 영역으로만 구성된 이미지인 제3 이미지를 생성할 수 있다.
일실시예에 따르면, 기존에 사용했던 작업 결과물인 제3 이미지를 이용하여, 다른 색의 의류에 대한 촬영을 수행할 때 작업 효율을 높일 수 있다. 즉, 제3 이미지를 통해 의류의 틀(프레임)을 생성하고, 해당 틀을 이용하여 다른 색상의 의류에 대한 이미지를 추가하는데 있어, 기존 결과물인 제3 이미지에 대입해서 색만 다르게 표현된 이미지를 추가로 획득함으로써, 동일한 형태에 색상만 다른 의류들의 경우 일관된 이미지를 표현할 수 있다.
구체적으로, 장치(101)는 제1 의류의 촬영 이미지인 제1-1 이미지를 획득하고, 제1-1 이미지를 통해 제1 의류의 핏이 보정된 이미지인 제1-2 이미지를 생성하고, 제1-2 이미지를 통해 제1 의류의 영역으로만 구성된 제1-3 이미지를 생성할 수 있다. 이때, 제1-3 이미지는 제1 의류의 형태를 나타내는 틀로 사용될 수 있다.
이후, 장치(101)는 제1 의류와 형태는 동일하지만 색상이 다른 제2 의류의 촬영 이미지인 제2-1 이미지를 획득할 수 있으며, 제2-1 이미지를 통해 제2 의류의 핏이 보정된 이미지인 제2-2 이미지를 생성하는 작업을 수행하지 않아도, 제1-3 이미지를 통해 제2 의류의 영역으로만 구성된 제2-3 이미지를 생성할 수 있다. 이때, 제2-3 이미지는 제1-3 이미지에서 제1 의류의 색이 제2 의류의 색으로 변경된 것으로, 제2 의류에 대한 핏을 보정하는 작업을 수행하지 않아도, 기존에 작업한 제1 의류의 이미지를 이용하여 제2 의류의 이미지를 용이하게 획득할 수 있다.
이에 따라, 장치(101)는 여러 의류에 대한 촬영을 수행하여 각각의 의류 이미지에 대한 작업 결과물을 생성하는데 있어, 신속도를 높일 수 있는 효과가 있다. 즉, 최초 제1 의류에 대한 작업 결과물을 생성할 때에만 의류의 핏을 보정하는 작업을 수행하고, 제2 의류, 제3 의류 등에 대한 작업 결과물을 생성할 때에는 제1 의류에 대한 작업 결과물을 이용하여 빠른 속도로 작업 결과물을 생성할 수 있으므로, 다수의 작업 결과물을 빠르게 획득할 수 있다.
일실시예에 따르면, 의류 영역으로만 구성된 이미지인 제3 이미지를 생성한 이후, 제3 이미지에서 확인된 의류의 색과 실물 의류의 색을 정확하게 맞추기 위해, 실물의 색상을 온전히 보정하여 표현하는 기법에 대한 처리 과정이 수행될 수 있다.
구체적으로, 장치(101)는 제1 의류의 촬영 이미지인 제1-1 이미지를 획득하는데 있어, 다양한 각도에서 제1 의류를 촬영한 복수의 이미지를 획득할 수 있다. 예를 들어, 제1 각도에서 제1 의류를 촬영한 이미지인 제1-1-1 이미지, 제2 각도에서 제1 의류를 촬영한 제1-1-2 등을 획득할 수 있다. 이때, 제1 각도가 메인 각도로 설정되어 있는 경우, 장치(101)는 제1-1-1 이미지를 통해 제1 의류의 핏이 보정된 이미지인 제1-2 이미지를 생성하고, 제1-2 이미지를 통해 제1 의류의 영역으로만 구성된 제1-3 이미지를 생성할 수 있다.
이후, 장치(101)는 제1-3 이미지의 색상값과 제1-1-2 이미지의 색상값을 비교한 결과, 차이값이 기준 범위를 벗어나는 것으로 확인되면, 제1-3 이미지의 색상값과 제1-1-2 이미지의 색상값의 평균값을 산출하고, 산출된 평균값을 통해 제1-3 이미지의 색상을 변경할 수 있다.
즉, 다양한 각도에서 의류를 촬영한 이미지의 색상을 비교하여 평균값으로 맞추는 과정을 수행함으로써, 의류의 실물 색상과 최대한 동일한 색이 적용되도록 처리할 수 있다.
도 3은 일실시예에 따른 의류를 분류하는 과정을 순서도로 나타낸 도면이다.
먼저, 촬영 장비를 통해 의류에 촬영이 수행되면, S301 단계에서, 장치(101)는 의류의 촬영으로 생성된 제1 이미지를 획득할 수 있다.
장치(101)는 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 의류의 핏이 보정된 이미지인 제2 이미지를 생성하고, 제2 이미지에서 배경 영역을 삭제하여, 의류 영역으로만 구성된 이미지인 제3 이미지를 생성할 수 있다.
S302 단계에서, 장치(101)는 제3 이미지 정보를 기초로, 의류의 상태를 확인하여 상태 등급을 설정할 수 있다.
예를 들어, 장치(101)는 제3 이미지 정보를 기초로, 의류가 얼마나 오염되었는지 여부, 의류가 얼마나 손상되었는지 여부, 의류의 색이 얼마나 바랬는지 여부 등의 상태를 확인하여, 의류의 상태 등급을 설정할 수 있다.
일실시예에 따르면, 장치(101)는 의류의 상태에 따라 의류의 상태 등급을 가장 높은 1등급, 그 다음 등급인 2등급, 가장 낮은 등급인 3등급 중 어느 하나로 설정할 수 있다.
S303 단계에서, 장치(101)는 의류의 상태 등급이 1등급으로 설정되면, 리폼 없이 세척으로만 재활용이 가능한 의류로 구분하고, 의류의 상태 등급이 2등급으로 설정되면, 리폼을 통해 재활용이 가능한 의류로 구분하고, 의류의 상태 등급이 3등급으로 설정되면, 재활용이 가능하지 않는 의류로 구분하여, 의류의 상태 등급에 따라 의류를 구분하는 1차 분류를 수행할 수 있다.
S304 단계에서, 장치(101)는 제1 이미지의 분석으로 식별된 제1 카테고리를 통해 의류의 모양을 확인하고, 의류의 모양에 따라 2차 분류를 수행할 수 있다.
예를 들어, 장치(101)는 제3 이미지를 기초로 의류의 상태 등급에 따라 1차 분류가 수행된 후, 제1 카테고리로 분류된 의류의 모양을 확인할 수 있으며, 의류의 모양에 따라 반팔, 긴팔, 반바지 및 긴바지, 신발, 모자 중 어느 하나로 구분하여, 의류 카테고리에 따라 의류를 구분하는 2차 분류를 수행할 수 있다.
일실시예에 따르면, 장치(101)는 1등급 및 2등급으로 분류된 의류에 대해서만 2차 분류를 수행하고, 3등급으로 분류된 의류에 대해서는 2차 분류를 수행하지 않을 수 있다.
도 4는 일실시예에 따른 2등급으로 분류된 의류를 추가로 분류하는 과정을 순서도로 나타낸 도면이다.
먼저, S401 단계에서, 장치(101)는 제3 이미지를 기초로, 2등급으로 분류된 의류의 크기와 미리 설정된 규격별 크기를 비교하여, 의류의 크기에 따라 사이즈를 구분하여 3차 분류를 수행할 수 있다.
예를 들어, 장치(101)는 제3 이미지를 통해 확인된 의류의 크기와 M 사이즈로 설정된 규격의 크기를 비교하여, 비교 결과, 임계치 미만의 차이가 있는 것으로 확인되면, 해당 의류를 M 사이즈 의류로 구분할 수 있다.
S402 단계에서, 장치(101)는 제3 이미지를 기초로, 2등급으로 분류된 의류의 영역별 색상을 확인하고, 해당 의류에서 가장 많은 비율을 차지하고 있는 색상을 대표색으로 선정하고, 선정된 대표색에 따라 색상을 구분하여 4차 분류를 수행할 수 있다.
예를 들어, 장치(101)는 의류의 영역별 색상을 확인한 결과, 빨간색이 50% 비율을 차지하고 있으며, 노란색이 30% 차지하고 있으며, 초록색이 20% 차지하고 있는 경우, 빨간색을 대표색으로 선정하여, 해당 의류를 빨간색 의류로 구분할 수 있다.
S403 단계에서, 장치(101)는 제3 이미지를 기초로, 2등급으로 분류된 의류의 입자 객체를 확인하여, 의류의 입자 객체에 따라 재질을 구분하여 5차 분류를 수행할 수 있다.
예를 들어, 장치(101)는 의류의 입자 객체를 확인할 결과, 의류의 재질이 면 100%로 확인되면, 해당 의류를 면 의류로 구분할 수 있다.
도 5는 일실시예에 따른 3등급으로 분류된 의류를 추가로 분류하는 과정을 순서도로 나타낸 도면이다.
먼저, S501 단계에서, 장치(101)는 제3 이미지를 기초로, 3등급으로 분류된 의류에서 오염으로 인해 재활용이 가능하지 않은 부분으로 확인된 폐기 필요 영역과 오염되지 않아 재활용이 가능한 부분으로 확인된 재활용 가능 영역을 구분할 수 있다.
즉, 장치(101)는 의류에서 일부만 오염되어 있는 경우, 오염된 부분을 폐기 필요 영역으로 구분하고, 오염되지 않은 부분을 재활용 가능 영역으로 구분할 수 있다. 이와 관련하여 상세한 설명은 도 12를 참조하여 후술하기로 한다.
S502 단계에서, 장치(101)는 재활용 가능 영역이 폐기 필요 영역 보다 더 넓은지 여부를 확인할 수 있다.
S502 단계에서 재활용 가능 영역이 폐기 필요 영역 보다 더 넓은 것으로 확인되면, S503 단계에서, 장치(101)는 3등급으로 분류된 의류를 원단 재활용이 가능한 의류로 분류할 수 있다.
즉, 장치(101)는 재활용 가능 영역이 폐기 필요 영역 보다 더 넓으면, 의류에 오염되지 않은 부분이 더 많기 때문에, 원단 추출을 통해 재활용이 가능한 의류로 분류할 수 있다.
S502 단계에서 폐기 필요 영역이 재활용 가능 영역 보다 더 넓은 것으로 확인되면, S504 단계에서, 장치(101)는 3등급으로 분류된 의류를 폐기 처분이 필요한 의류로 분류할 수 있다.
즉, 장치(101)는 폐기 필요 영역이 재활용 가능 영역 보다 더 넓으면, 의류에 오염된 부분이 더 많기 때문에, 원단을 추출하더라도 재활용이 불가능하여 폐기 처분이 필요한 의류로 분류할 수 있다.
S505 단계에서, 장치(101)는 3등급으로 분류된 의류가 원단 재활용이 가능한 의류로 분류되면, 재활용 가능 영역의 색상 및 재질에 따라 원단 재활용이 가능한 의류를 추가로 분류할 수 있다. 이와 관련하여 상세한 설명은 도 13을 참조하여 후술하기로 한다.
도 6은 일실시예에 따른 의류의 외관 특징을 분석하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(101)는 제3 이미지에서 의류의 외곽선을 인식할 수 있다. 제3 이미지는 의류 영역으로만 구성되어 있으므로, 이미지의 테두리를 의류의 외곽선으로 인식할 수 있다.
S602 단계에서, 장치(101)는 의류의 외곽선을 제1 카테고리에 미리 설정된 구간별로 분할할 수 있다.
예를 들어, 장치(101)는 의류의 종류에 따라 부위별로 간격이 설정되어 있어, 미리 설정된 간격에 따라 의류의 외곽선을 구간별로 분할할 수 있고, 특정 각도 이상으로 변경되는 부분을 새로운 구간의 시작으로 판단하여 의류의 외곽선을 구간별로 분할할 수 있다.
S603 단계에서, 장치(101)는 의류의 외곽선에서 구간별로 분할된 복수의 선 각각을 인식할 수 있으며, S604 단계에서, 장치(101)는 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식할 수 있다. 이와 관련된 자세한 설명은 도 7을 참조하여 후술하기로 한다.
S605 단계에서, 장치(101)는 S603 단계에서 인식된 복수의 선 각각을 유형별로 분류할 수 있다. 선의 유형은 직선과 곡선으로 구분될 수 있으며, 장치(101)는 복수의 선 각각을 직선과 곡선으로 분류할 수 있다. 이와 관련된 자세한 설명은 도 8을 참조하여 후술하기로 한다.
S606 단계에서, 장치(101)는 S604 단계에서 인식된 복수의 점 각각을 유형별로 분류할 수 있다. 점의 유형은 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 구분될 수 있으며, 장치(101)는 복수의 점 각각을 제1 유형, 제2 유형, 제3 유형 및 제4 유형으로 분류할 수 있다.
S607 단계에서, 장치(101)는 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 의류의 특징 정보로 추출하여 등록할 수 있다.
예를 들어, 제3 이미지를 통해 제1 점, 제2 점 및 제3 점이 인식된 경우, 제1 점, 제2 점 및 제3 점을 연결하는 순번과, 제1 점, 제2 점 및 제3 점 각각이 위치하고 있는 좌표, 제1 점, 제2 점 및 제3 점 각각이 분류된 유형에 대한 정보를 제3 이미지에 있는 의류의 특징 정보로 추출하여, 추출된 특징 정보를 제3 이미지와 연계하여 데이터베이스에 저장할 수 있다.
장치(101)는 의류의 특징 정보를 기초로, 의류의 사이즈를 구분할 수 있으며, 이를 통해, 의류에 대한 3차 분류를 수행할 수 있다.
도 7은 일실시예에 따른 의류의 외곽선을 통해 복수의 선 및 복수의 점을 인식하는 과정을 설명하기 위한 도면이다.
먼저, 도 7의 (a)에 도시된 바와 같이, 장치(101)는 제3 이미지에서 의류의 외곽선(700)을 인식할 수 있다. 이때, 제3 이미지는 의류의 외곽선(700)이 테두리로 구성되어, 배경 영역은 삭제되어 있는 상태이다.
이후, 장치(101)는 의류의 외곽선(700)을 제1 카테고리에 미리 설정된 구간별로 분할할 수 있다.
구체적으로, 도 7의 (b)에 도시된 바와 같이, 장치(101)는 옷 상의 카테고리에 미리 설정된 구간별로, 의류의 외곽선(700)을 제1 선(711), 제2 선(712), 제3 선(713), 제4 선(714), 제5 선(715), 제6 선(716), 제7 선(717), 제8 선(718), 제9 선(719), 제10 선(720), 제11 선(721) 및 제12 선(722)으로 분할할 수 있다. 의류의 외곽선(700)은 의류의 종류에 따라 더 많은 구간으로 분할되거나 더 적은 구간으로 분할될 수 있다.
장치(101)는 복수의 선 각각을 확인하여, 제2 선(712), 제3 선(713), 제4 선(714), 제5 선(715), 제6 선(716), 제7 선(717), 제8 선(718), 제9 선(719) 및 제10 선(720)을 직선으로 분류하고, 제1 선(711), 제11 선(721) 및 제12 선(722)을 곡선으로 분류할 수 있다.
장치(101)는 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식할 수 있다.
구체적으로, 도 7의 (c)에 도시된 바와 같이, 장치(101)는 제12 선(722)과 제1 선(711)이 연결되는 지점에 위치한 제1 점(731), 제1 선(711)과 제2 선(712)이 연결되는 지점에 위치한 제2 점(732), 제2 선(712)과 제3 선(713)이 연결되는 지점에 위치한 제3 점(733), 제3 선(713)과 제4 선(714)이 연결되는 지점에 위치한 제4 점(734), 제4 선(714)과 제5 선(715)이 연결되는 지점에 위치한 제5 점(735), 제5 선(715)과 제6 선(716)이 연결되는 지점에 위치한 제6 점(736), 제6 선(716)과 제7 선(717)이 연결되는 지점에 위치한 제7 점(737), 제7 선(717)과 제8 선(718)이 연결되는 지점에 위치한 제8 점(738), 제8 선(718)과 제9 선(719)이 연결되는 지점에 위치한 제9 점(739), 제9 선(719)과 제10 선(720)이 연결되는 지점에 위치한 제10 점(740), 제10 선(720)과 제11 선(721)이 연결되는 지점에 위치한 제11 점(741), 제11 선(721)과 제12 선(722)이 연결되는 지점에 위치한 제12 점(742)을 인식할 수 있다. 이때, 시작점이 되는 제1 점(731)과 끝점이 되는 제12 점(742)의 위치는 의류의 종류에 따라 카테고리 별로 상이하게 설정될 수 있다.
장치(101)는 복수의 점 각각에 연결되어 있는 선의 유형을 확인하여, 복수의 점 각각에 대한 유형을 분류할 수 있다.
구체적으로, 제3 점(733), 제4 점(734), 제5 점(735), 제6 점(736), 제7 점(737), 제8 점(738), 제9 점(739) 및 제10 점(740)은 직선과 직선이 연결되어 있어 제1 유형으로 분류되고, 제11 점(741)은 직선과 곡선이 연결되어 있어 제2 유형으로 분류되고, 제2 점(732)은 곡선과 직선이 연결되어 있어 제3 유형으로 분류되고, 제1 점(731) 및 제12 점(742)은 곡선과 곡선이 연결되어 있어 제4 유형으로 분류될 수 있다.
이후, 장치(101)는 제1 점(731), 제2 점(732), 제3 점(733), 제4 점(734), 제5 점(735), 제6 점(736), 제7 점(737), 제8 점(738), 제9 점(739) 및 제10 점(740), 제11 점(741) 및 제12 점(742) 각각의 순번, 좌표 및 유형에 대한 정보를 통해, 의류의 특징 정보를 추출하고, 추출된 의류의 특징 정보를 제3 이미지에 있는 의류의 특징 정보로 등록하여 데이터베이스에 저장할 수 있다.
도 8은 일실시예에 따른 복수의 선 각각을 직선과 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(101)는 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다. 이때, 장치(101)는 제3 이미지에서 인식된 의류의 외곽선을 구간별로 분할하여, 복수의 선이 형성되어 있는 상태이다.
S802 단계에서, 장치(101)는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식할 수 있다.
S803 단계에서, 장치(101)는 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.
S804 단계에서, 장치(101)는 제1 점과 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제2 점과 제3 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.
S805 단계에서, 장치(101)는 제2 선과 제3 선을 결합한 제4 선을 인식할 수 있다.
S806 단계에서, 장치(101)는 제1 선과 제4 선이 일치하는지 여부를 확인할 수 있다.
S806 단계에서 제1 선과 제4 선이 일치하는 것으로 확인되면, S807 단계에서, 장치(101)는 제1 선을 직선으로 분류할 수 있다.
S806 단계에서 제1 선과 제4 선이 일치하지 않는 것으로 확인되면, S808 단계에서, 장치(101)는 제1 선을 곡선으로 분류할 수 있다.
도 9는 일실시예에 따른 제1 선을 직선으로 분류하는 과정을 설명하기 위한 순서도이다.
먼저, 도 9의 (a)에 도시된 바와 같이, 장치(101)는 의류의 외곽선을 구간별로 분할하여 생성된 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다.
도 9의 (b)에 도시된 바와 같이, 장치(101)는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하고, 제1 선의 중간 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.
도 9의 (c)에 도시된 바와 같이, 장치(101)는 제1 점 및 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제3 점 및 제2 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.
도 9의 (d)에 도시된 바와 같이, 장치(101)는 제2 선 및 제3 선을 결합한 제4 선을 인식할 수 있다.
이후, 장치(101)는 도 9의 (a)에 도시된 제1 선과 도 9의 (d)에 도시된 제4 선을 비교하여, 제1 선과 제4 선이 일치하는 것을 확인할 수 있으며, 제1 선과 제4 선이 일치하므로, 제1 선을 직선으로 분류할 수 있다.
도 10은 일실시예에 따른 제1 선을 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
먼저, 도 10의 (a)에 도시된 바와 같이, 장치(101)는 의류의 외곽선을 구간별로 분할하여 생성된 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다.
도 10의 (b)에 도시된 바와 같이, 장치(101)는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하고, 제1 선의 중간 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.
도 10의 (c)에 도시된 바와 같이, 장치(101)는 제1 점 및 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제3 점 및 제2 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.
도 10의 (d)에 도시된 바와 같이, 장치(101)는 제2 선 및 제3 선을 결합한 제4 선을 인식할 수 있다.
이후, 장치(101)는 도 10의 (a)에 도시된 제1 선과 도 10의 (d)에 도시된 제4 선을 비교하여, 제1 선과 제4 선이 일치하지 않는 것을 확인할 수 있으며, 제1 선과 제4 선이 일치하지 않으므로, 제1 선을 곡선으로 분류할 수 있다.
도 11은 일실시예에 따른 촬영 장비의 조명을 제어하는 과정을 설명하기 위한 순서도이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(101)는 제2 이미지를 분석하여 제2 이미지에서 의류가 차지하고 있는 의류 영역과 그 외의 영역인 배경 영역을 구분할 수 있다.
S1102 단계에서, 장치(101)는 의류 영역 내에 있는 픽셀들의 평균 명도값인 제1 명도값을 산출할 수 있다. 이때, 장치(101)는 의류 영역 내에 있는 픽셀들의 명도 정보를 확인하여, 제1 명도값을 산출할 수 있다.
S1103 단계에서, 장치(101)는 배경 영역 내에 있는 픽셀들의 평균 명도값인 제2 명도값을 산출할 수 있다. 이때, 장치(101)는 배경 영역 내에 있는 픽셀들의 명도 정보를 확인하여, 제2 명도값을 산출할 수 있다.
S1104 단계에서, 장치(101)는 제1 명도값과 제2 명도값 간의 차이인 제1 차이값을 산출할 수 있다.
S1105 단계에서, 장치(101)는 제1 차이값이 제1 기준 범위 내에 있는지 여부를 확인할 수 있다. 여기서, 제1 기준 범위는 실시예에 따라 상이하게 설정될 수 있다.
S1105 단계에서 제1 차이값이 제1 기준 범위 내에 있는 것으로 확인되면, 장치(101)는 촬영 장비의 조명 제어가 필요하지 않은 것으로 판단하여, 촬영 장비의 조명에 설정되어 있는 밝기 설정 레벨을 유지하도록 처리할 수 있다.
예를 들어, 제1 기준 범위가 4 이상, 6 이하로 설정되어 있는 경우, 장치(101)는 제1 차이값이 5로 확인되면, 촬영 장비의 조명 제어가 필요하지 않은 것으로 판단할 수 있다.
S1105 단계에서 제1 차이값이 제1 기준 범위를 벗어나는 것으로 확인되면, S1106 단계에서, 장치(101)는 제1 차이값이 제1 기준 범위의 최소값 보다 작은지 여부를 확인할 수 있다.
S1106 단계에서 제1 차이값이 제1 기준 범위의 최소값 보다 작은 것으로 확인되면, S1107 단계에서, 장치(101)는 제1 차이값과 제1 기준 범위의 최소값 간의 차이인 제2 차이값을 산출할 수 있다.
S1108 단계에서, 장치(101)는 제2 차이값을 기초로 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 높은 레벨로 변경할 수 있다.
예를 들어, 촬영 장비의 조명에 대한 밝기 설정 레벨이 현재 5레벨로 설정되어 있고, 제2 차이값이 1인 경우, 밝기 설정 레벨을 5레벨에서 6레벨로 변경할 수 있으며, 제2 차이값이 2인 경우, 밝기 설정 레벨을 5레벨에서 7레벨로 변경할 수 있다.
즉, 의류 영역 내에 있는 픽셀들과 배경 영역 내에 있는 픽셀들의 명도 차이가 기준 범위를 벗어나 더 적게 나는 경우, 촬영 장비의 조명에 대한 밝기 설정을 현재 설정된 레벨 보다 더 높은 레벨로 변경하여, 현재 보다 더 밝은 조명을 통해 의류 촬영을 진행하도록 제어할 수 있다.
S1106 단계에서 제1 차이값이 제1 기준 범위의 최소값 보다 작지 않은 것으로 확인되면, 제1 차이값이 제1 기준 범위를 벗어나 있기 때문에, 제1 차이값이 제1 기준 범위의 최대값 보다 큰 것으로 확인될 수 있으며, S1109 단계에서, 장치(101)는 제1 차이값과 제1 기준 범위의 최대값 간의 차이인 제3 차이값을 산출할 수 있다.
S1110 단계에서, 장치(101)는 제3 차이값을 기초로 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 낮은 레벨로 변경할 수 있다.
예를 들어, 촬영 장비의 조명에 대한 밝기 설정 레벨이 현재 5레벨로 설정되어 있고, 제3 차이값이 1인 경우, 밝기 설정 레벨을 5레벨에서 4레벨로 변경할 수 있으며, 제3 차이값이 2인 경우, 밝기 설정 레벨을 5레벨에서 3레벨로 변경할 수 있다.
즉, 의류 영역 내에 있는 픽셀들과 배경 영역 내에 있는 픽셀들의 명도 차이가 기준 범위를 벗어나 더 많이 나는 경우, 촬영 장비의 조명에 대한 밝기 설정을 현재 설정된 레벨 보다 더 낮은 레벨로 변경하여, 현재 보다 더 어두운 조명을 통해 의류 촬영을 진행하도록 제어할 수 있다.
도 12는 일실시예에 따른 폐기 필요 영역 및 재활용 가능 영역을 구분하는 방법을 설명하기 위한 도면이다.
먼저, 도 12의 (a)에 도시된 바와 같이, 장치(101)는 의류의 촬영으로 생성된 제1 이미지를 분석 대상 이미지(1201)로 확인할 수 있다.
장치(101)는 분석 대상 이미지(1201) 내 색상 정보 및 텍스쳐 정보에 기초하여, 유효 의류 경계를 식별할 수 있다. 장치(101)는 영역 별로 의류인지 여부를 색상과 텍스쳐를 기반으로 판단할 수 있으며, 미리 정의된 단위의 필터를 슬라이딩하여 각 영역 별로 의류 여부를 판단할 수 있고, 그 필터는 색상과 텍스쳐에 따라 결과를 출력하도록 설계될 수 있다.
일실시예에 따르면, 장치(101)는 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 의류의 핏이 보정된 이미지인 제2 이미지를 생성하고, 제2 이미지에서 배경 영역을 삭제하여, 의류 영역으로만 구성된 이미지인 제3 이미지를 생성할 수 있다.
장치(101)는 제3 이미지를 기초로, 의류의 상태를 확인하여 상태 등급을 설정한 결과, 의류의 상태 등급이 3등급으로 설정되면, 제3 이미지가 의류 영역으로만 구성되어 있으므로, 제3 이미지를 통해 유효 의류 경계를 식별할 수 있다.
도 12의 (b)에 도시된 바와 같이, 장치(101)는 유효 의류 경계로 분리되는 유효 의류 영역(1202)을 추출하고, 유효 의류 영역(1202) 내 입자 객체들의 외관 특징들을 영역별로 추출할 수 있다.
예를 들어, 장치(101)는 제1 영역(1203)의 입자 객체들을 통해 제1 영역(1203)에 대한 외관 특징을 추출하고, 제2 영역(1204)의 입자 객체들을 통해 제2 영역(1204)에 대한 외관 특징을 추출할 수 있다.
장치(101)는 입자 객체들을 통해 추출된 외관 특징들에 기초하여, 입자 객체들 중 오염 객체를 식별할 수 있다. 장치(101)는 유효 의류 영역(1202) 내 분포하는 의류의 재질, 색상 및 텍스쳐 정보를 기준으로 미리 정의된 범위를 벗어나는 객체를 식별하고, 식별된 객체를 오염 객체로 판단할 수 있다.
장치(101)는 입자 객체들 중 오염 객체가 있는지 여부를 영역별로 확인하고, 오염 객체가 기준치 이상으로 확인된 영역을 폐기 필요 영역으로 구분하고, 오염 객체가 기준치 미만으로 확인된 영역을 재활용 가능 영역으로 구분할 수 있다.
도 12의 (c)에 도시된 바와 같이, 장치(101)는 제1 영역(1203)의 입자 객체들 중 오염 객체가 있지 않은 것으로 확인되면, 제1 영역(1203)을 재활용 가능 영역으로 구분할 수 있다.
도 12의 (d)에 도시된 바와 같이, 장치(101)는 제2 영역(1204)의 입자 객체들 중 오염 객체(1205)가 있는 것으로 확인되면, 제2 영역(1204)을 폐기 필요 영역으로 구분할 수 있다.
도 13은 일실시예에 따른 원단 재활용이 가능한 의류를 추가로 분류하는 방법을 설명하기 위한 도면이다.
먼저, 장치(101)는 의류가 3등급으로 분류되면, 3등급으로 분류된 의류에서 폐기 필요 영역과 재활용 가능 영역을 구분할 수 있으며, 재활용 가능 영역이 폐기 필요 영역 보다 넓은 경우, 3등급으로 분류된 의류를 원단 재활용이 가능한 의류로 분류할 수 있다.
장치(101)는 제3 이미지를 기초로, 원단 재활용이 가능한 의류로 분류된 의류를 영역 별로 확인하여, 재활용 가능 영역으로 구분된 제1 영역(1203) 내 입자 객체들의 크기 특징들(1301 내지 1304)을 추출할 수 있다.
장치(101)는 제1 영역(1203) 내 입자 객체들을 식별하고, 식별된 입자 객체들을 설명하는 정보 중 크기 특징들(1301 내지 1304)을 크기 별로 추출할 수 있다. 장치(101)는 의류의 재질을 분류하는데 기준이 되는 범위에 따라 크기 특징들(1301 내지 1304)을 크기 별로 추출하고 분류할 수 있다.
장치(101)는 크기 특징들(1301 내지 1304)에 기초하여 입자 객체들을 면 객체, 폴리에스테르 객체, 울 객체 및 나일론 객체 중 어느 하나로 각각 분류할 수 있다.
장치(101)는 면 객체로 분류된 입자 객체에 대한 제1 영역(1203) 내 제1 비율을 생성할 수 있다. 제1 비율은 제1 영역(1203) 내 의류의 재질 중 면 비율과 대응할 수 있다. 장치(101)는 제1 비율을 이용하여 면의 특성이 반영된 의류 상태 정보를 생성할 수 있다.
장치(101)는 폴리에스테르 객체로 분류된 입자 객체에 대한 제1 영역(1203) 내 제2 비율을 생성할 수 있다. 제2 비율은 제1 영역(1203) 내 의류의 재질 중 폴리에스테르 비율과 대응할 수 있다. 장치(101)는 제2 비율을 이용하여 폴리에스테르의 특성이 반영된 의류 상태 정보를 생성할 수 있다.
장치(101)는 울 객체로 분류된 입자 객체에 대한 제1 영역(1203) 내 제3 비율을 생성할 수 있다. 제3 비율은 제1 영역(1203) 내 의류의 재질 중 울 비율과 대응할 수 있다. 장치(101)는 제3 비율을 이용하여 울의 특성이 반영된 의류 상태 정보를 생성할 수 있다.
장치(101)는 나일론 객체로 분류된 입자 객체에 대한 제1 영역(1203) 내 제4 비율을 생성할 수 있다. 제4 비율은 제1 영역(1203) 내 의류의 재질 중 나일론 비율과 대응할 수 있다. 장치(101)는 제4 비율을 이용하여 나일론의 특성이 반영된 의류 상태 정보를 생성할 수 있다.
장치(101)는 제1 비율, 제2 비율, 제3 비율 및 제4 비율에 기초하여, 의류 재질 정보를 생성할 수 있다.
장치(101)는 제1 영역(1203)에서 가장 많은 비율을 차지하고 있는 색상을 대표색으로 구분하여, 대표색에 대응하는 의류 색상 정보를 생성할 수 있다.
장치(101)는 의류 재질 정보 및 의류 색상 정보에 기초하여 제1 영역(1203)에 대응하는 특징 벡터(1305)를 생성할 수 있다. 장치(101)는 특징 벡터(1305)를 미리 학습된 뉴럴 네트워크인 제2 인공 신경망(1306)에 적용하여 출력 정보(1307)를 획득할 수 있다.
제2 인공 신경망(1306)은 의류의 이미지로부터 추출된 특징들을 기반으로 생성된 의류 재질 정보와 의류의 이미지로부터 확인된 색상을 기반으로 생성된 의류 색상 정보에 따른 입력으로부터 의류 상태 정보를 추정하도록 학습될 수 있다.
장치(101)는 출력 정보(1307)에 기초하여 제1 영역(1203)에 대응하는 의류 상태 정보를 생성할 수 있다.
장치(101)는 의류 상태 정보를 통해 원단 재활용이 가능한 의류를 색상 및 재질에 따라 구분하여 분류할 수 있다.
출력 정보(1307)는 의류의 재질 별로 매칭도를 포함하는 정보이거나 의류의 색상을 설명하는 변수들로 설계될 수 있다. 또한, 출력 정보(1307)는 재질의 분류에 따라 이산적으로 설계될 수 있는데, 예를 들어, 제2 인공 신경망(1306)의 출력 레이어의 출력 노드들은 각각 의류의 재질별로 각각 대응하고, 출력 노드들은 각 의류의 재질들 별로 확률값들을 각각 출력할 수 있다. 이하 도 17를 참조하여 제2 인공 신경망(1306)의 학습 내용이 후술된다.
도 14는 일실시예에 따른 의류 창고의 재고를 관리하는 과정을 설명하기 위한 순서도이다.
도 14를 참조하면, 먼저, S1401 단계에서, 장치(101)는 등급 별로 분류된 의류를 보관하는 창고가 설치되어 있는 경우, 창고에 입고되어 있는 의류들 각각의 재고량을 확인할 수 있다. 이를 위해, 장치(101)는 창고에 의류가 입고될 때, 창고 입구에 설치된 바코드 스캐너를 통해 입고되는 의류의 종류 및 수량을 확인할 수 있다.
구체적으로, 1등급으로 분류된 제1 의류와 2등급으로 분류된 제2 의류는 각각 구분되어 창고에 입고될 수 있으며, 장치(101)는 창고에 입고되어 있는 제1 의류의 재고량과 제2 의류의 재고량을 각각 확인할 수 있다. 여기서, 제1 의류 및 제2 의류는 등급이 상이한 의류로, 제1 의류는 1등급으로 분류된 의류이고, 제2 의류는 2등급으로 분류된 의류이다.
S1402 단계에서, 장치(101)는 의류 재활용을 위해 창고에 입고된 의류가 반출되면, 의류 반출에 따라 변경되는 의류들 각각의 재고량을 갱신할 수 있다.
구체적으로, 장치(101)는 제1 의류가 창고에서 외부로 반출된 것으로 확인되면, 제1 의류의 재고량을 반출량에 따라 차감하여 갱신할 수 있으며, 제2 의류가 창고에서 외부로 반출된 것으로 확인되면, 제2 의류의 재고량을 반출량에 따라 차감하여 갱신할 수 있다.
예를 들어, 창고에 제1 의류가 10개 입고되어 있는 것으로 확인되면, 제1 의류의 재고량이 10개로 산정될 수 있다. 이후, 제1 의류가 외부로 2개가 반출된 경우, 장치(101)는 제1 의류의 재고량을 10개에서 8개로 변경하여 갱신할 수 있다.
S1403 단계에서, 장치(101)는 창고에 입고되어 있는 의류들 각각의 재고량을 합산하여, 창고 전체의 재고량을 산출할 수 있다.
구체적으로, 장치(101)는 창고에 제1 의류와 제2 의류가 입고되어 있는 경우, 제1 의류의 재고량과 제2 의류의 재고량을 합산하여, 창고의 재고량을 산출할 수 있다.
S1404 단계에서, 장치(101)는 창고의 재고량이 미리 설정된 제1 기준량 보다 작은지 여부를 확인할 수 있다. 여기서, 제1 기준량은 실시예에 따라 상이하게 설정될 수 있다.
S1404 단계에서 창고의 재고량이 제1 기준량 보다 작은 것으로 확인되면, S1405 단계에서, 장치(101)는 창고에 잔여 공간이 충분히 있는 것으로 판단하여, 창고에 의류 입고가 가능한 것으로 판단할 수 있다.
S1406 단계에서, 장치(101)는 의류 입고가 가능한 의류들 각각의 입고 가능량을 산출할 수 있다.
구체적으로, 장치(101)는 제1 의류의 재고량과 미리 설정된 제1 의류의 최대 입고량을 비교하여 제1 의류의 입고 가능량을 산출하고, 제2 의류의 재고량과 미리 설정된 제2 의류의 최대 입고량을 비교하여 제2 의류의 입고 가능량을 산출할 수 있다. 여기서, 제1 의류의 최대 입고량 및 제2 의류의 최대 입고량은 각 의류의 종류에 따라 상이하게 설정될 수 있다.
예를 들어, 제1 의류의 재고량이 5개이고, 제1 의류의 최대 입고량이 10개로 설정되어 있는 경우, 제1 의류의 입고 가능량을 5개로 산출할 수 있으며, 제2 의류의 재고량이 8개이고, 제2 의류의 최대 입고량이 10개로 설정되어 있는 경우, 제2 의류의 입고 가능량을 2개로 산출할 수 있다.
S1407 단계에서, 장치(101)는 창고를 관리하는 관리자의 연락처를 확인하여, 제1 의류의 입고 가능량 및 제2 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 관리자의 연락처에 대응하는 관리자 단말로 전송할 수 있다.
S1407 단계 이후, 입고 가능 알림 메시지의 확인으로 창고에 의류가 추가로 입고되면, S1401 단계로 되돌아가, 장치(101)는 창고에 입고되어 있는 의류들 각각의 재고량을 다시 확인할 수 있다.
한편, S1404 단계에서 창고의 재고량이 제1 기준량 보다 큰 것으로 확인되면, S1408 단계에서, 장치(101)는 제1 의류의 재고량이 제2 기준량 보다 작은지 여부를 확인할 수 있다. 여기서, 제2 기준량은 실시예에 따라 상이하게 설정될 수 있다.
S1408 단계에서 제1 의류의 재고량이 제2 기준량 보다 큰 것으로 확인되면, 제1 의류에 대한 입고가 불가능한 것으로 판단하여, S1401 단계로 되돌아가, 장치(101)는 창고에 입고되어 있는 의류들 각각의 재고량을 다시 확인할 수 있다.
S1408 단계에서 제1 의류의 재고량이 제2 기준량 보다 작은 것으로 확인되면, S1409 단계에서, 장치(101)는 제1 의류에 대한 입고가 가능한 것으로 판단할 수 있다.
예를 들어, 제1 의류의 재고량이 3개이고, 제2 의류의 재고량이 9개이고, 제1 기준량이 10개이고, 제2 기준량이 5개인 경우, 제1 의류의 재고량과 제2 의류의 재고량을 합산한 창고의 재고량이 12개로 산출되어, 창고의 재고량이 제1 기준량 보다 큰 것으로 확인되었지만, 제1 의류의 재고량이 제2 기준량 보다 작은 것으로 확인되어, 제1 의류에 대해서만 입고가 가능한 것으로 판단할 수 있다.
S1410 단계에서, 장치(101)는 제1 의류의 재고량과 미리 설정된 제1 의류의 최대 입고량을 비교하여 제1 의류의 입고 가능량을 산출할 수 있다.
S1411 단계에서, 장치(101)는 제1 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 관리자 단말로 전송할 수 있다.
S1411 단계 이후, 입고 가능 알림 메시지의 확인으로 창고에 의류가 추가로 입고되면, S1401 단계로 되돌아가, 장치(101)는 창고에 입고되어 있는 의류들 각각의 재고량을 다시 확인할 수 있다.
도 15는 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
일실시예에 따른 제1 인공 신경망(1500)은 장치(101)와 연결되어 있는 촬영 장비의 카메라로 촬영된 의류의 원본 이미지인 제1 이미지의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하고, 의류의 종류를 나타내는 정보를 출력으로 할 수 있다.
일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다.
일실시예에 따르면, 제1 인공 신경망(1500)은 특징 추출 신경망(1510)과 분류 신경망(1520)으로 구성되어 있으며, 특징 추출 신경망(1510)은 이미지에서 의류와 배경을 분리하는 작업을 수행할 수 있으며, 분류 신경망(1520)은 이미지에 있는 의류가 어느 카테고리에 속하는지 여부를 파악하는 작업을 수행할 수 있다.
특징 추출 신경망(1510)이 의류와 배경을 구분하는 방법은 이미지를 인코딩한 제1 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 의류와 배경의 경계로 삼을 수 있으나, 이에 국한하지 않는다.
특징 추출 신경망(1510)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.
분류 신경망(1520)은 특징 추출 신경망(1510)을 통해 배경으로부터 구분된 의류의 형태를 확인하고, 미리 정의된 카테고리 별 대표 의류와 유사한지 여부를 확인하여 이미지에 있는 의류가 어느 카테고리에 속하는지 여부를 파악할 수 있다. 의류의 비교를 위해 장치(101)의 데이터베이스에 저장된 정보들을 활용할 수 있다.
분류 신경망(1520)은 의류의 속하는 카테고리를 식별하는 작업을 우선으로 하며, 의류의 형태 및 크기까지 파악할 수도 있다.
분류 신경망(1520)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.
분류 신경망(1520)는 총 1개의 출력층 노드만 포함할 수 있다.
분류 신경망(1520)의 출력은 의류의 종류에 대한 출력값으로, 의류의 종류가 어느 카테고리에 속하는지 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 의류의 종류가 옷 상의 카테고리인 것을 지시하고, 출력값이 2인 경우, 의류의 종류가 옷 하의 카테고리인 것을 지시하고, 출력값이 3인 경우, 의류의 종류가 신발 카테고리인 것을 지시하고, 출력값이 4인 경우, 의류의 종류가 가방 카테고리인 것을 지시할 수 있다.
일실시예에 따르면, 제1 인공 신경망(1500)은 사용자가 제1 인공 신경망(1500)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 제1 인공 신경망(1500)에 따른 출력의 문제점은 의류의 종류가 다른 카테고리로 지시하는 출력값을 출력한 경우를 의미할 수 있다.
일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 제1 인공 신경망(1500)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 16을 참조하여 제1 인공 신경망(1500)의 학습 내용이 후술된다.
도 16은 일실시예에 따른 제1 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 제1 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치는 장치(101)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.
일실시예에 따르면, 제1 인공 신경망(1500)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 의류의 종류별 대표 이미지에 기초하여 정의될 수 있다. 제1 인공 신경망(1500)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다.
학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 제1 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치는 제1 인공 신경망(1500)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.
학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 제1 인공 신경망(1500) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.
학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 제1 인공 신경망(1500) 내 노드들 사이의 관계들이다. 학습 장치(101)는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치(101)는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.
일실시예에 따르면, 학습 장치(101)는 데이터베이스로부터 레이블드 트레이닝 의류 이미지들(1601)을 획득할 수 있다. 학습 장치(101)는 의류의 종류별로 설정된 의류 이미지들(1601)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 의류 이미지들(1601)은 미리 분류된 의류 정보에 따라 레이블링될 수 있다.
일실시예에 따르면, 학습 장치(101)는 1000개의 레이블드 트레이닝 의류 이미지들(1601)을 획득할 수 있으며, 레이블드 트레이닝 의류 이미지들(1601)에 기초하여 제1 트레이닝 의류 벡터들(1602)을 생성할 수 있다. 제1 트레이닝 의류 벡터들(1602)을 추출하는데는 다양한 방식이 채용될 수 있다.
일실시예에 따르면, 학습 장치(101)는 제1 트레이닝 의류 벡터들(1602)을 제1 인공 신경망(1500)에 적용하여 제1 트레이닝 출력들(1603)을 획득할 수 있다. 학습 장치(101)는 제1 트레이닝 출력들(1603)과 제1 레이블들(1604)에 기초하여 제1 인공 신경망(1500)을 학습시킬 수 있다. 학습 장치(101)는 제1 트레이닝 출력들(1603)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 인공 신경망(1500) 내 노드들의 연결 관계를 최적화하여 제1 인공 신경망(1500)을 학습시킬 수 있다. 장치(101)는 학습이 완료된 제1 인공 신경망(1500)을 이용하여 이미지 내에 있는 의류의 종류를 식별할 수 있다.
도 17은 일실시예에 따른 제2 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
일실시예에 따르면, 학습 장치는 분석 대상 이미지로부터 의류 상태 정보를 획득하는데 필요한 정보를 추정하기 위한 뉴럴 네트워크인 제2 인공 신경망(1704)을 학습시킬 수 있다. 학습 장치는 장치(101)와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.
일실시예에 따르면, 학습 장치는 레이블드 재질 이미지들(1701)을 획득할 수 있다. 학습 장치는 의류의 재질 별로 의류의 재질 이미지에 각각 미리 레이블링된 정보를 획득할 수 있는데, 의류의 재질 이미지는 미리 분류된 재질의 종류에 따라 레이블링될 수 있다.
일실시예에 따르면, 학습 장치는 레이블드 재질 이미지들(1701)의 색상 정보, 텍스쳐 정보 및 입자 객체들의 외관 특징들, 크기 특징들 중 적어도 하나에 기초하여, 면 객체에 대응하는 제1 비율, 폴리에스테르 객체에 대응하는 제2 비율, 울 객체에 대응하는 제3 비율 및 나일론 객체에 대응하는 제4 비율에 기초하여 의류 재질 정보(1702)를 생성할 수 있다. 학습 장치는 의류 재질 정보(1702)에 기초하여 특징 벡터들(1703)을 생성할 수 있다. 특징 벡터들(1703)을 생성하는데 있어서 의류 색상 정보가 채용될 수 있다.
일실시예에 따르면, 학습 장치는 특징 벡터들(1703)을 제2 인공 신경망(1704)에 적용하여 출력 정보(1705)를 획득할 수 있다. 학습 장치는 출력 정보(1705)와 레이블들(1706)에 기초하여 제2 인공 신경망(1704)을 학습시킬 수 있다. 학습 장치는 출력 정보(1705)에 대응하는 에러들을 계산하고, 그 에러들을 최소화하기 위해 제2 인공 신경망(1704) 내 노드들의 연결 관계를 최적화하여 제2 인공 신경망(1704)을 학습시킬 수 있다. 장치(101)는 학습이 완료된 제2 인공 신경망(1704)을 이용하여 분석 대상 이미지로부터 의류 상태 정보를 획득할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (5)

  1. 장치에 의해 수행되는, 폐의류를 활용하여 의류의 리사이클링을 수행하는 방법에 있어서,
    촬영 장비를 통해 의류에 대한 촬영이 수행되면, 상기 촬영 장비로부터 상기 의류의 촬영으로 생성된 제1 이미지를 획득하는 단계;
    상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계;
    상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
    상기 제1 출력 신호에 기초하여, 상기 의류의 종류인 제1 카테고리를 식별하는 단계;
    상기 제1 카테고리의 대표 이미지와 상기 제1 이미지를 부위별로 비교하여, 상기 의류의 부위별 보정값을 설정하는 단계;
    상기 보정값을 기초로 상기 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 상기 의류의 핏이 보정된 이미지인 제2 이미지를 생성하는 단계;
    상기 제2 이미지를 분석하여 상기 제2 이미지에서 상기 의류가 차지하고 있는 의류 영역과 배경 영역을 구분하는 단계;
    상기 제2 이미지에서 상기 배경 영역을 삭제하여, 상기 의류 영역으로만 구성된 이미지인 제3 이미지를 생성하는 단계;
    상기 제3 이미지를 기초로, 상기 의류의 상태를 확인하여 상태 등급을 설정하는 단계;
    상기 의류의 상태 등급이 1등급으로 설정되면, 리폼 없이 세척으로만 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 2등급으로 설정되면, 리폼을 통해 재활용이 가능한 의류로 구분하고, 상기 의류의 상태 등급이 3등급으로 설정되면, 재활용이 가능하지 않는 의류로 구분하여, 상기 의류의 상태 등급에 따라 1차 분류를 수행하는 단계; 및
    상기 제1 카테고리를 통해 확인된 의류의 모양에 따라 2차 분류를 수행하는 단계를 포함하는,
    폐의류를 활용한 의류 리사이클링 방법.
  2. 제1항에 있어서,
    상기 제3 이미지에서 상기 의류의 외곽선을 인식하고, 상기 의류의 외곽선을 상기 제1 카테고리에 미리 설정된 구간별로 분할하는 단계;
    상기 의류의 외곽선에서 구간별로 분할된 복수의 선 각각을 직선과 곡선으로 분류하는 단계;
    상기 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식하고, 상기 복수의 점 각각을 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 분류하는 단계;
    상기 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 상기 의류의 특징 정보로 등록하는 단계; 및
    상기 의류의 특징 정보를 기초로, 상기 의류의 사이즈를 구분하여 3차 분류를 수행하는 단계를 더 포함하는,
    폐의류를 활용한 의류 리사이클링 방법.
  3. 제2항에 있어서,
    상기 복수의 선 각각을 직선과 곡선으로 분류하는 단계는,
    상기 복수의 선 중 어느 하나인 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하는 단계;
    상기 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식하는 단계;
    상기 제1 점과 상기 제3 점을 곧은 선으로 연결한 제2 선 및 상기 제2 점과 상기 제3 점을 곧은 선으로 연결한 제3 선을 생성하는 단계;
    상기 제2 선 및 상기 제3 선을 결합한 제4 선과 상기 제1 선의 일치 여부를 확인하는 단계; 및
    상기 제4 선과 상기 제1 선이 일치하는 것으로 확인되면, 상기 제1 선을 직선으로 분류하고, 상기 제4 선과 상기 제1 선이 일치하지 않는 것으로 확인되면, 상기 제1 선을 곡선으로 분류하는 단계를 포함하는,
    폐의류를 활용한 의류 리사이클링 방법.
  4. 제1항에 있어서,
    상기 의류 영역 내에 있는 픽셀들의 평균 명도값인 제1 명도값을 산출하는 단계;
    상기 배경 영역 내에 있는 픽셀들의 평균 명도값인 제2 명도값을 산출하는 단계;
    상기 제1 명도값과 상기 제2 명도값 간의 차이인 제1 차이값을 산출하는 단계;
    상기 제1 차이값이 미리 설정된 제1 기준 범위를 벗어나는 것으로 확인되면, 상기 촬영 장비의 조명 제어가 필요한 것으로 판단하는 단계;
    상기 제1 차이값이 상기 제1 기준 범위의 최소값 보다 작은 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최소값 간의 차이인 제2 차이값을 산출하는 단계;
    상기 제2 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 높은 레벨로 변경하는 단계;
    상기 제1 차이값이 상기 제1 기준 범위의 최대값 보다 큰 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최대값 간의 차이인 제3 차이값을 산출하는 단계; 및
    상기 제3 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 낮은 레벨로 변경하는 단계를 더 포함하는,
    폐의류를 활용한 의류 리사이클링 방법.
  5. 제1항에 있어서,
    상기 1등급으로 분류된 제1 의류와 상기 2등급으로 분류된 제2 의류가 창고에 입고되어 있는 경우, 상기 창고에 입고되어 있는 상기 제1 의류와 상기 제2 의류의 재고량을 각각 확인하는 단계;
    상기 제1 의류 및 상기 제2 의류 중 어느 하나가 재활용을 위해 상기 창고에서 반출되면, 상기 제1 의류의 재고량 또는 상기 제2 의류의 재고량을 반출량에 따라 차감하여 갱신하는 단계;
    상기 제1 의류의 재고량 및 상기 제2 의류의 재고량을 합산한 상기 창고의 재고량이 미리 설정된 제1 기준량 보다 작은 것으로 확인되면, 상기 창고에 잔여 공간이 있는 것으로 판단하는 단계;
    상기 창고에 잔여 공간이 있는 것으로 판단되면, 상기 제1 의류의 재고량과 미리 설정된 상기 제1 의류의 최대 입고량을 비교하여 상기 제1 의류의 입고 가능량을 산출하고, 상기 제2 의류의 재고량과 미리 설정된 제2 의류의 최대 입고량을 비교하여 상기 제2 의류의 입고 가능량을 산출하는 단계;
    상기 창고를 관리하는 관리자의 연락처를 확인하여, 상기 제1 의류의 입고 가능량 및 상기 제2 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 관리자 단말로 전송하는 단계;
    상기 창고의 재고량이 상기 제1 기준량 보다 큰 것으로 확인된 상태에서, 상기 제1 의류의 재고량이 미리 설정된 제2 기준량 보다 작은 것으로 확인되면, 상기 제1 의류에 대한 입고가 가능한 것으로 판단하는 단계; 및
    상기 제1 의류에 대한 입고가 가능한 것으로 판단되면, 상기 제1 의류의 재고량과 상기 제1 의류의 최대 입고량을 비교하여 상기 제1 의류의 입고 가능량을 산출하고, 상기 제1 의류의 입고 가능량에 대한 입고 가능 알림 메시지를 상기 관리자 단말로 전송하는 단계를 더 포함하는,
    폐의류를 활용한 의류 리사이클링 방법.
KR1020210061805A 2021-05-13 2021-05-13 폐의류를 활용한 의류 리사이클링 방법 KR102318931B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210061805A KR102318931B1 (ko) 2021-05-13 2021-05-13 폐의류를 활용한 의류 리사이클링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210061805A KR102318931B1 (ko) 2021-05-13 2021-05-13 폐의류를 활용한 의류 리사이클링 방법

Publications (1)

Publication Number Publication Date
KR102318931B1 true KR102318931B1 (ko) 2021-10-27

Family

ID=78287066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210061805A KR102318931B1 (ko) 2021-05-13 2021-05-13 폐의류를 활용한 의류 리사이클링 방법

Country Status (1)

Country Link
KR (1) KR102318931B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240015503A (ko) * 2022-07-27 2024-02-05 김현영 옷 수선 의뢰 서비스 제공 장치
KR102650811B1 (ko) * 2023-09-27 2024-03-25 주식회사 에이트테크 폐기물 분류 사업장 별 특성을 고려한 폐기물 분류 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100043883A (ko) * 2008-10-21 2010-04-29 서울벤처정보대학원대학교 산학협력단 최대마진분류기를 이용한 의상 분류 방법
KR101040177B1 (ko) 2010-04-05 2011-06-09 성균관대학교산학협력단 의류 재활용 시스템 및 방법
KR101464713B1 (ko) 2013-02-12 2014-11-27 (주)살기좋은마을 택배 네트워크를 이용한 재활용 의류 수집 시스템 및 방법
KR101938161B1 (ko) * 2017-07-31 2019-01-15 주식회사 자이언소프트 3차원 의류 데이터 생성 시스템
KR101921858B1 (ko) 2018-04-05 2019-02-13 박성찬 중고 의류 분류 시스템
KR102108453B1 (ko) 2017-11-08 2020-05-28 유현덕 의류분리 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100043883A (ko) * 2008-10-21 2010-04-29 서울벤처정보대학원대학교 산학협력단 최대마진분류기를 이용한 의상 분류 방법
KR101040177B1 (ko) 2010-04-05 2011-06-09 성균관대학교산학협력단 의류 재활용 시스템 및 방법
KR101464713B1 (ko) 2013-02-12 2014-11-27 (주)살기좋은마을 택배 네트워크를 이용한 재활용 의류 수집 시스템 및 방법
KR101938161B1 (ko) * 2017-07-31 2019-01-15 주식회사 자이언소프트 3차원 의류 데이터 생성 시스템
KR102108453B1 (ko) 2017-11-08 2020-05-28 유현덕 의류분리 장치 및 방법
KR101921858B1 (ko) 2018-04-05 2019-02-13 박성찬 중고 의류 분류 시스템

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240015503A (ko) * 2022-07-27 2024-02-05 김현영 옷 수선 의뢰 서비스 제공 장치
KR102659337B1 (ko) * 2022-07-27 2024-04-18 김현영 옷 수선 의뢰 서비스 제공 장치
KR102650811B1 (ko) * 2023-09-27 2024-03-25 주식회사 에이트테크 폐기물 분류 사업장 별 특성을 고려한 폐기물 분류 시스템

Similar Documents

Publication Publication Date Title
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN106164980B (zh) 信息处理装置以及信息处理方法
Benedek et al. Change detection in optical aerial images by a multilayer conditional mixed Markov model
US9462160B2 (en) Color correction device, method, and program
KR102318931B1 (ko) 폐의류를 활용한 의류 리사이클링 방법
US20210174539A1 (en) A method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor
CN109271999B (zh) 图像的处理方法、装置和计算机可读存储介质
JP5450089B2 (ja) 対象検出装置および対象検出方法
CN104850219A (zh) 估计附着物体的人体姿势的设备和方法
US11023713B2 (en) Suspiciousness degree estimation model generation device
CN110689030A (zh) 属性识别装置和方法及存储介质
US11676182B2 (en) Computer vision systems and methods for automatically detecting, classifying, and pricing objects captured in images or videos
US20180005106A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN112912888A (zh) 识别视频活动的设备和方法
KR20170077366A (ko) 얼굴 인식 시스템 및 방법
CN112633297A (zh) 目标对象的识别方法、装置、存储介质以及电子装置
Maddalena et al. Exploiting color and depth for background subtraction
Azab et al. New technique for online object tracking‐by‐detection in video
KR102300500B1 (ko) 제품 입체컷 이미지 처리 방법, 장치 및 시스템
EP2639746B1 (en) Image processor, image processing method, control program, and recording medium
US20160253581A1 (en) Processing system, processing method, and recording medium
Aguirre et al. Using a deep learning model on images to obtain a 2d laser people detector for a mobile robot
Braham et al. A physically motivated pixel-based model for background subtraction in 3D images
CN115546824B (zh) 禁忌图片识别方法、设备及存储介质
CN116188789A (zh) 目标检测方法、检测装置及计算机可读存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant