KR102197620B1 - An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded - Google Patents

An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded Download PDF

Info

Publication number
KR102197620B1
KR102197620B1 KR1020190008390A KR20190008390A KR102197620B1 KR 102197620 B1 KR102197620 B1 KR 102197620B1 KR 1020190008390 A KR1020190008390 A KR 1020190008390A KR 20190008390 A KR20190008390 A KR 20190008390A KR 102197620 B1 KR102197620 B1 KR 102197620B1
Authority
KR
South Korea
Prior art keywords
recognition unit
image
occupant
gender
learning
Prior art date
Application number
KR1020190008390A
Other languages
Korean (ko)
Other versions
KR20200091290A (en
Inventor
권성근
Original Assignee
경일대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경일대학교산학협력단 filed Critical 경일대학교산학협력단
Priority to KR1020190008390A priority Critical patent/KR102197620B1/en
Publication of KR20200091290A publication Critical patent/KR20200091290A/en
Application granted granted Critical
Publication of KR102197620B1 publication Critical patent/KR102197620B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection

Abstract

본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 장치는 입산자의 전면, 측면 및 후면을 촬영하여 전면 영상, 측면 영상 및 후면 영상을 생성하는 카메라부와, 상기 전면, 측면 및 후면의 영상을 분석하여 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류를 식별하는 인식부와, 상기 입산자의 성별 및 연령대에 따라 상기 입산자가 착용한 아웃도어 의류에 대한 통계를 생성하는 통계처리부를 포함한다. An apparatus for providing statistical information of outdoor clothing according to an embodiment of the present invention includes a camera unit for generating a front image, a side image, and a rear image by photographing the front, side and rear of the occupant, and the front, side and rear A recognition unit that identifies the gender and age range of the occupant and the type of outdoor clothing worn by the occupant by analyzing the image of the occupant, and statistics on the outdoor clothing worn by the occupant according to the gender and age group of the occupant. It includes a statistics processing unit to generate.

Description

아웃도어 의류의 통계 정보를 제공하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체{An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded} An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium for providing statistical information of outdoor wear, a method therefor, and a program for performing the method therefor on which a program for carrying out the method is recorded}

본 발명은 아웃도어 의류의 통계 정보를 생성하기 위한 기술에 관한 것으로, 보다 상세하게는, 아웃도어 의류의 통계 정보를 생성하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체에 관한 것이다. The present invention relates to a technology for generating statistical information of outdoor clothing, and more particularly, an apparatus for generating statistical information of outdoor clothing, a method for the same, and a computer reading a program for performing the method is recorded. It relates to possible recording media.

아웃도어 의류는 등산, 탐험, 낚시, 스포츠 등의 야외활동 시 쾌적감 유지,인체 보호, 활동성 증대를 위해 착용하는 의복류로 다운, 고어텍스, 플리스를 이용하여 만든 것이 많다. '아웃도어'는 '야외의'라는 뜻으로 '아웃도어 웨어', '아웃도어 클로딩'은 등산, 낚시, 캠핑 등의 야외활동을 위한 기능성 의복을 말한다. 주로 저온, 눈, 비, 바람으로부터 인체를 보호하기 위한 목적이기 때문에 '헤비듀티 웨어(heavy duty wear)' 또는 '비트 더 웨더 룩(beat the weather look)' 등 다양한 표현을 사용한다. Outdoor clothing is often made of down, Gore-Tex, and fleece as clothing worn to maintain comfort, protect the human body, and increase activity during outdoor activities such as hiking, exploration, fishing, and sports. 'Outdoor' means'outdoor' and'outdoor wear' and'outdoor clothing' refer to functional clothing for outdoor activities such as hiking, fishing, and camping. Since it is mainly intended to protect the human body from low temperatures, snow, rain, and wind, various expressions such as'heavy duty wear' or'beat the weather look' are used.

한국공개특허 제2012-0001506호 2012년 01월 04일 공개 (명칭: 의류 인식 데이터를 이용한 디지털 옷장 코디네이션 및 의류 생산계획이 가능한 시스템)Korean Patent Laid-Open Patent No. 2012-0001506 published on January 04, 2012 (Name: A system that enables digital wardrobe coordination and clothing production planning using clothing recognition data)

본 발명의 목적은 입산자들이 아웃도어 웨어에 대한 통계 정보를 생성하여 제공할 수 있는 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다. It is an object of the present invention to provide a device capable of generating and providing statistical information on outdoor wear by residents, a method therefor, and a computer-readable recording medium in which a program for performing the method is recorded.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 장치는 입산자의 전면, 측면 및 후면을 촬영하여 전면 영상, 측면 영상 및 후면 영상을 생성하는 카메라부와, 상기 전면, 측면 및 후면의 영상을 분석하여 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류를 식별하는 인식부와, 상기 입산자의 성별 및 연령대에 따라 상기 입산자가 착용한 아웃도어 의류에 대한 통계를 생성하는 통계처리부를 포함하는 것을 특징으로 한다. An apparatus for providing statistical information of outdoor clothing according to a preferred embodiment of the present invention for achieving the above-described object generates a front image, a side image, and a rear image by photographing the front, side and rear of the occupant. A camera unit, a recognition unit that analyzes the image of the front, side, and back to identify the gender and age range of the occupant and the type of outdoor clothing worn by the occupant, and the entrance according to the gender and age of the occupant It characterized in that it comprises a statistical processing unit for generating statistics on the outdoor clothing worn by the person.

상기 인식부는 상기 전면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 전면인식부와, 상기 측면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 측면인식부와, 상기 후면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 후면인식부와, 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 종합하여 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 판단부를 포함한다. The recognition unit receives the front image, the gender and age range of the occupant, and a front recognition unit that outputs a probability of the type of outdoor clothing worn by the occupant, and receives the side image, and the gender of the occupant And a side recognition unit that outputs the probability of the age group and the type of outdoor clothing worn by the occupant, the rear image is input, and the gender and age group of the occupant, and the type of outdoor clothing worn by the occupant. And a rear recognition unit for outputting a probability of, and a determination unit for synthesizing outputs of the front recognition unit, the side recognition unit, and the rear recognition unit to output a probability of a type of outdoor clothing worn by the occupant.

상기 인식부는 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시킨 후, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면, 측면 및 후면 영상 모두를 이용하여 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부 모두를 학습시키는 것을 특징으로 한다. The recognition unit learns the front surface recognition unit using a front image of which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant is known, and the gender and age range of the occupant and the outdoor worn by the occupant After learning the side recognition unit using a side image of which the type of clothing is known, and learning the rear surface recognition unit using a rear image of which the gender and age group of the occupant and the type of outdoor clothing worn by the occupant are known, All of the front, side, and back images of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant are used to determine all of the front, side and rear images. It is characterized by learning.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 방법은 카메라부가 입산자의 전면, 측면 및 후면을 촬영하여 전면 영상, 측면 영상 및 후면 영상을 생성하는 단계와, 인식부가 상기 전면, 측면 및 후면의 영상을 분석하여 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류를 식별하는 단계와, 통계처리부가 상기 입산자의 성별 및 연령대에 따라 상기 입산자가 착용한 아웃도어 의류에 대한 통계를 생성하는 단계를 포함한다. In a method for providing statistical information of outdoor clothing according to a preferred embodiment of the present invention for achieving the above-described object, the camera unit captures the front, side and rear of the occupant and displays a front image, a side image, and a rear image. Generating, the recognition unit analyzing the front, side, and rear images to identify the gender and age range of the occupant and the type of outdoor clothing worn by the occupant, and the statistical processing unit And generating statistics on outdoor clothing worn by the occupant according to the age group.

상기 식별하는 단계는 상기 인식부의 전면인식부가 상기 전면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계와, 상기 인식부의 측면인식부가 상기 측면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계와, 상기 인식부의 후면인식부가 상기 후면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계와, 상기 인식부의 판단부가 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 종합하여 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계를 포함한다. The identifying step includes the step of receiving the front image by the front recognition unit of the recognition unit and outputting a probability of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant; and side recognition by the recognition unit An additional step of receiving the side image, outputting the probability of the gender and age range of the occupant, and the type of outdoor clothing worn by the occupant, and the rear recognition unit of the recognition unit receives the rear image, and the entrance The step of outputting the probability of the gender and age range of the child and the type of outdoor clothing worn by the resident, and the determination unit of the recognition unit synthesizes the outputs of the front recognition unit, the side recognition unit and the rear recognition unit to enter the mountain And outputting the probability of the type of outdoor clothing worn by the person.

상기 생성하는 단계 전, 상기 인식부가 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시키는 단계와, 상기 인식부가 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면, 측면 및 후면 영상 모두를 이용하여 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부 모두를 학습시키는 단계를 더 포함한다. Before the generating step, the recognition unit learns the front surface recognition unit using a front image of which the gender and age range of the inmate and the type of outdoor clothing worn by the inmate are known, and the gender and age range of the inmate, and the The side recognition unit is learned by using a side image of which the type of outdoor clothing worn by the occupant is known, and the rear surface image by using a rear image of which the gender and age of the occupant and the type of outdoor clothing worn by the occupant are known. Learning the recognition unit, and the recognition unit uses all of the front, side and rear images of which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant are known, and the front recognition unit, the side recognition unit, It further comprises the step of learning both the rear surface recognition unit and the determination unit.

본 발명의 다른 견지에 따르면, 전술한 본 발명의 바람직한 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공한다. According to another aspect of the present invention, there is provided a computer-readable recording medium in which a program for performing the method for providing statistical information of outdoor clothing according to a preferred embodiment of the present invention is recorded.

본 발명은 입산자들이 숫자를 계수하는 위치에서, 입산자들이 착용한 아웃도어 의복에 대한 통계를 자동으로 생성하여 제공함으로써, 아웃도어 의복을 즐겨찾는 사용자들에 대한 통계를 생성할 수 있어 이러한 통계를 이용하여 효과적인 마케팅 전략을 수립할 수 있다. The present invention automatically generates and provides statistics on the outdoor clothing worn by the residents at the position where the residents count the numbers, so that statistics on users who enjoy outdoor clothing can be generated. Can be used to establish an effective marketing strategy.

특히, 본 발명의 실시예에 따른 통계를 생성하기 위한 인공신경망에 대한 학습(machine learning)은 입산자들의 전면, 측면 및 후면 영상 각각에 대한 개별 학습과, 전면, 측면 및 후면 영상 모두를 전체적으로 학습하는 전체 학습을 통해 이루어지기 때문에 이러한 인공신경망을 통해 정확도와 신뢰도가 높은 통계 결과를 제공할 수 있다. In particular, machine learning for an artificial neural network for generating statistics according to an embodiment of the present invention is an individual learning for each of the front, side, and rear images of the inmates, and all of the front, side and rear images as a whole. Because it is achieved through the entire learning process, statistical results with high accuracy and reliability can be provided through such artificial neural networks.

도 1은 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 시스템의 구성도이다.
도 2는 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 통계장치를 설명하기 위한 블록도이다.
도 3 내지 도 7은 본 발명의 실시예에 따른 인식부의 내부 구성을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 인식부에 대한 학습 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 방법을 설명하기 위한 흐름도이다.
1 is a block diagram of a system for providing statistical information of outdoor clothing according to an embodiment of the present invention.
2 is a block diagram illustrating a statistical device for providing statistical information on outdoor clothing according to an embodiment of the present invention.
3 to 7 are views for explaining an internal configuration of a recognition unit according to an embodiment of the present invention.
8 is a flowchart illustrating a learning method for a recognition unit according to an embodiment of the present invention.
9 is a flowchart illustrating a method for providing statistical information of outdoor clothing according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, terms or words used in the present specification and claims described below should not be construed as being limited to their usual or dictionary meanings, and the inventors shall use their own invention in the best way. For explanation, based on the principle that it can be appropriately defined as a concept of terms, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, and various equivalents that can replace them at the time of application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of known functions and configurations that may obscure the subject matter of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.

먼저, 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 시스템의 구성도이다. 도 1을 참조하면, 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 시스템은 통계장치(100) 및 통계서버(400)를 포함한다. First, a system for providing statistical information of outdoor clothing according to an embodiment of the present invention will be described. 1 is a block diagram of a system for providing statistical information of outdoor clothing according to an embodiment of the present invention. Referring to FIG. 1, a system for providing statistical information of outdoor clothing according to an embodiment of the present invention includes a statistics device 100 and a statistics server 400.

통계장치(100)는 적어도 하나의 카메라 기능을 수행하는 모듈(이하, 카메라부로 칭함)을 포함한다. 통계장치(100)는 카메라부가 등산로 입구의 설치되는 개찰구(10)를 대향하여 입산자들을 촬영하도록 설치된다. 특히, 입산자들은 반드시 개찰구(10)를 통과하여야 입산이 가능하기 때문에 통계장치(100)는 카메라부를 통해 입산자들이 개찰구(10)를 통과하는 동안 입산자들의 정면, 측면, 후면을 촬영할 수 있다. 본 발명의 실시예에 따른 통계장치(100)는 입산자들의 정면, 측면, 후면을 촬영한 정면, 측면 및 후면 영상을 분석하여 입산자들의 성별 및 연령대와, 입산자들이 착용한 아웃도어 의류의 종류를 식별하고, 성별 및 연령대에 따라 착용한 아웃도어 의류의 종류에 대한 통계를 생성하고, 이를 통계서버(400)에 제공한다. 통계서버(400)는 복수의 개찰구(10)에 대응하여 설치된 통계장치(100)로부터 통계를 수신하여 이를 종합하여 해당 통계에 대한 빅데이터를 구축할 수 있다. The statistics device 100 includes a module (hereinafter referred to as a camera unit) that performs at least one camera function. The statistics device 100 is installed so that the camera unit faces the ticket gate 10 installed at the entrance of the hiking trail to photograph the inhabitants. In particular, since the residents must pass through the ticket gate 10 to be able to enter the mountain, the statistics device 100 can photograph the front, side, and rear of the residents while the residents pass through the ticket gate 10 through the camera unit. . The statistical apparatus 100 according to an embodiment of the present invention analyzes the front, side, and rear images of the front, side, and rear of the occupants, and analyzes the gender and age of the occupants and the outdoor clothing worn by the occupants. It identifies the type, generates statistics on the type of outdoor clothing worn according to gender and age group, and provides this to the statistics server 400. The statistics server 400 may receive statistics from the statistics device 100 installed in correspondence with the plurality of ticket gates 10 and aggregate them to construct big data for the statistics.

그러면, 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 통계장치(100)에 대해서 보다 상세하게 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 통계장치를 설명하기 위한 블록도이다. Then, the statistical apparatus 100 for providing statistical information of outdoor clothing according to an embodiment of the present invention will be described in more detail. 2 is a block diagram illustrating a statistical device for providing statistical information on outdoor clothing according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 통계장치(100)는 통신부(110), 카메라부(120), 입력부(130), 표시부(140), 오디오부(150), 저장부(160) 및 제어부(200)를 포함한다. Referring to FIG. 2, the statistical apparatus 100 according to an embodiment of the present invention includes a communication unit 110, a camera unit 120, an input unit 130, a display unit 140, an audio unit 150, and a storage unit 160. ) And a control unit 200.

통신부(110)는 통계서버(400)와 통신하기 위한 수단이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 통신부(110)는 본 발명의 실시예에 따른 아웃도어 의류에 대한 통계를 통계서버(400)로 전송한다. The communication unit 110 is a means for communicating with the statistics server 400. The communication unit 110 may include a radio frequency (RF) transmitter Tx for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver Rx for low-noise amplifying and down-converting a received signal. Further, the communication unit 110 may include a modem that modulates a transmitted signal and demodulates a received signal. The communication unit 110 transmits statistics on outdoor clothing according to an embodiment of the present invention to the statistics server 400.

카메라부(120)는 영상을 촬영하기 위한 것으로, 이미지 센서를 포함한다. 이미지 센서는 피사체에서 반사되는 빛을 입력받아 전기신호로 변환하며, CCD(Charged Coupled Device), CMOS(Complementary Metal-Oxide Semiconductor) 등을 기반으로 구현될 수 있다. 카메라부(120)는 아날로그-디지털 변환기(Analog to Digital Converter)를 더 포함할 수 있으며, 이미지 센서에서 출력되는 전기신호를 디지털 수열로 변환하여 제어부(200)로 출력할 수 있다. The camera unit 120 is for capturing an image and includes an image sensor. The image sensor receives light reflected from a subject and converts it into an electric signal, and may be implemented based on a Charged Coupled Device (CCD) or Complementary Metal-Oxide Semiconductor (CMOS). The camera unit 120 may further include an analog to digital converter, and may convert an electrical signal output from the image sensor into a digital sequence and output it to the controller 200.

특히, 카메라부(120)는 3D 센서를 포함한다. 3D 센서는 비접촉 방식으로 촬영된 영상의 특징점에 대한 3차원 좌표를 획득하기 위한 센서이다. 카메라부(120)가 영상을 촬영하면, 3D 센서는 촬영된 영상과 함께, 촬영한 영상의 각 픽셀까지의 거리를 검출하고, 검출된 거리를 통해 3차원 좌표를 생성하여 제어부(200)로 전달한다. 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. In particular, the camera unit 120 includes a 3D sensor. The 3D sensor is a sensor for obtaining 3D coordinates for feature points of an image captured in a non-contact method. When the camera unit 120 captures an image, the 3D sensor detects the distance to each pixel of the captured image along with the captured image, generates 3D coordinates through the detected distance and transmits it to the control unit 200 do. The 3D sensor can use various types of sensors that use laser, infrared, visible light, and the like. These 3D sensors are laser type 3D scanners using any one of TOP (Time of Flight), phase-shift and Online Waveform Analysis, laser type 3D scanners using optical trigonometry, and optics using white light or modulated light. Method 3D scanner, Handheld Real Time PHOTO, optical 3D scanner, optical method using Pattern Projection or Line Scanning, laser system full body scanner, photo scanner using photogrammetry, Kinect Fusion A real time scanner to be used can be illustrated.

입력부(130)는 통계장치(100)를 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(200)에 전달할 수 있다. 입력부(130)는 통계장치(100)를 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(130)는 표시부(140)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(140)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(130)는 생략될 수도 있다. The input unit 130 may receive a user's key manipulation for controlling the statistical apparatus 100, generate an input signal, and transmit the input signal to the control unit 200. The input unit 130 may include various keys for controlling the statistical apparatus 100. When the display unit 140 is formed of a touch screen, the input unit 130 may perform functions of various keys on the display unit 140, and when all functions can be performed only with the touch screen, the input unit 130 will be omitted. May be.

표시부(140)는 화면 표시를 위한 것으로, 통계장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공할 수 있다. 또한, 표시부(140)는 통계장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 표시부(140)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(140)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(140)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(200)로 전송한다. 특히, 표시부(140)가 터치스크린으로 이루어진 경우, 입력부(130) 기능의 일부 또는 전부는 표시부(140)를 통해 이루어질 수 있다. The display unit 140 is for screen display, and may visually provide a menu, input data, function setting information, and various other information of the statistical apparatus 100 to a user. In addition, the display unit 140 performs a function of outputting screens such as a boot screen, a standby screen, a menu screen, and the like of the statistics device 100. The display unit 140 may be formed of a liquid crystal display (LCD), an organic light emitting diode (OLED), an active matrix organic light emitting diode (AMOLED), or the like. Meanwhile, the display unit 140 may be implemented as a touch screen. In this case, the display unit 140 includes a touch sensor. The touch sensor detects a user's touch input. The touch sensor may be composed of a touch sensing sensor such as a capacitive overlay, a pressure type, a resistive overlay, or an infrared beam, or may be composed of a pressure sensor. . In addition to the above sensors, all kinds of sensor devices capable of sensing contact or pressure of an object may be used as the touch sensor of the present invention. The touch sensor detects a user's touch input, generates a detection signal, and transmits it to the controller 200. In particular, when the display unit 140 is formed of a touch screen, some or all functions of the input unit 130 may be performed through the display unit 140.

오디오부(150)는 본 발명의 실시예에 따른 음성과 같은 오디오 신호를 출력하기 위한 스피커(SPK)와, 음성과 같은 오디오 신호를 수집하기 위한 마이크(MIKE)를 포함한다. 즉, 오디오부(150)는 제어부(200)의 제어에 따라 오디오 신호를 스피커(SPK)를 통해 출력하거나, 마이크(MIKE)를 통해 입력된 오디오 신호를 제어부(200)로 전달할 수 있다. The audio unit 150 includes a speaker (SPK) for outputting an audio signal such as voice according to an embodiment of the present invention, and a microphone (MIKE) for collecting an audio signal such as voice. That is, the audio unit 150 may output an audio signal through the speaker SPK or transmit an audio signal input through the microphone (MIKE) to the controller 200 under control of the controller 200.

저장부(160)는 통계장치(100)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 저장부(160)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 160 serves to store programs and data necessary for the operation of the statistical apparatus 100. Each type of data stored in the storage unit 160 may be deleted, changed, or added according to a user's manipulation.

제어부(200)는 통계장치(100)의 전반적인 동작 및 통계장치(100)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 또한, 제어부(200)는 기본적으로, 통계장치(100)의 각 종 기능을 제어하는 역할을 수행한다. 제어부(200)는 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등을 예시할 수 있다. 제어부(200)는 인식부(210) 및 통계처리부(220)를 포함한다. 인식부(210) 및 통계처리부(220)를 포함하는 제어부(200)의 동작에 대해서는 아래에서 더 상세하게 설명될 것이다. The controller 200 may control the overall operation of the statistical apparatus 100 and a signal flow between internal blocks of the statistical apparatus 100 and perform a data processing function of processing data. In addition, the control unit 200 basically serves to control various functions of the statistical apparatus 100. The control unit 200 may be a central processing unit (CPU), a digital signal processor (DSP), or the like. The control unit 200 includes a recognition unit 210 and a statistics processing unit 220. The operation of the control unit 200 including the recognition unit 210 and the statistics processing unit 220 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 인식부(210)에 대해서 보다 상세하게 설명하기로 한다. 도 3 내지 도 7은 본 발명의 실시예에 따른 인식부의 내부 구성을 설명하기 위한 도면이다. Next, the recognition unit 210 according to an embodiment of the present invention will be described in more detail. 3 to 7 are views for explaining an internal configuration of a recognition unit according to an embodiment of the present invention.

도 3 내지 도 7을 참조하면, 인식부(220)는 전면인식부(221), 측면인식부(212) 및 후면인식부(213) 및 판단부(214)를 포함한다. 전면인식부(221), 측면인식부(212) 및 후면인식부(213) 및 판단부(214) 각각은 인공신경망(ANN: artificial neural networks)으로 이루어진다. 3 to 7, the recognition unit 220 includes a front recognition unit 221, a side recognition unit 212, a rear recognition unit 213 and a determination unit 214. Each of the front recognition unit 221, the side recognition unit 212, and the rear recognition unit 213 and the determination unit 214 is formed of artificial neural networks (ANNs).

특히, 도 4 내지 도 6에 도시된 바와 같이, 전면인식부(221), 측면인식부(212) 및 후면인식부(213) 각각은 합성곱신경망(CNN: convolutional neural networks)로 구현되는 것이 바람직하다. 하지만, 전면인식부(221), 측면인식부(212) 및 후면인식부(213)를 합성곱신경망으로 한정하는 것은 아니며, 영상를 입력받고, 영상으로부터 입산자들의 성별 및 연령대와, 입산자들이 착용한 아웃도어 의류의 종류를 식별하도록 학습(machine learning)된 인공신경망(ANN: artificial neural networks)이라면, 그 종류에 무관하게 본 발명의 실시예에 적용될 수 있을 것이다. In particular, as shown in Figs. 4 to 6, each of the front recognition unit 221, the side recognition unit 212 and the rear recognition unit 213 is preferably implemented as a convolutional neural network (CNN). Do. However, the front recognition unit 221, the side recognition unit 212, and the rear recognition unit 213 are not limited to a convolutional neural network, and an image is input, and the gender and age group of the inmates from the image, and the inmates wear it. If an artificial neural network (ANN) is machine-learned to identify a type of outdoor clothing, it may be applied to an embodiment of the present invention regardless of the type.

전면인식부(221), 측면인식부(212) 및 후면인식부(213) 각각은 복수의 계층을 포함한다. 복수의 계층은 어느 하나의 계층의 출력이 가중치가 적용되는 복수의 연산을 통해 다음 계층을 구성한다. 여기서, 가중치(W)는 계층 간 연결의 강도를 결정한다. Each of the front recognition unit 221, the side recognition unit 212 and the rear recognition unit 213 includes a plurality of layers. The plurality of layers configures the next layer through a plurality of operations in which the output of any one layer is weighted. Here, the weight (W) determines the strength of the inter-layer connection.

전면인식부(221), 측면인식부(212) 및 후면인식부(213) 각각은 입력계층(input layer: INL), 컨볼루션계층(convolution layer: CL), 풀링계층(pooling layer: PL), 완전연결계층(fully-connected layer: FCL) 및 출력계층(Output layer: ML)을 포함한다. Each of the front recognition unit 221, the side recognition unit 212 and the rear recognition unit 213 is an input layer (INL), a convolution layer (CL), a pooling layer (PL), and It includes a fully-connected layer (FCL) and an output layer (ML).

입력계층(IL)은 소정 크기의 행렬로 이루어진다. 입력계층(IL) 행렬의 각 원소 각각은 입력되는 영상의 복수의 픽셀에 대응한다. The input layer IL consists of a matrix of a predetermined size. Each element of the input layer (IL) matrix corresponds to a plurality of pixels of an input image.

도 4 내지 도 6에 도시된 바에 따르면, 2개의 컨볼루션계층(CL: CLF, CLS)과 2개의 풀링계층(PL: PLF, PLS)이 교대로 반복되는 것으로 도시하였지만, 본 발명은 이에 한정되지 않으며, 이 기술분야에서 통상의 지식을 가진자는 컨볼루션계층(CL) 및 풀링계층(PL)의 수 및 배치 순서가 인공신경망의 설계에 따라 변동될 수 있음을 이해할 수 있을 것이다. 컨볼루션계층(CL)과 풀링계층(PL) 각각은 실선의 사각형으로 표시된 복수의 특징 지도(Feature Map)로 이루어지며, 이러한 특징 지도 각각은 소정 크기의 행렬이다. 특징 지도를 이루는 행렬의 원소 각각의 값은 이전 계층에 대해 커널을 이용한 컨볼루션 연산(convolution) 혹은 풀링 연산(pooling 혹은 subsampling)을 적용하여 산출된다. 여기서, 여기서, 커널은 점선의 사각형으로 표시된 소정 크기의 행렬이며, 커널을 이루는 행렬의 각 원소의 값은 가중치(W)가 된다. 4 to 6, two convolutional layers (CL: CLF, CLS) and two pooling layers (PL: PLF, PLS) are alternately repeated, but the present invention is not limited thereto. It will be appreciated by those of ordinary skill in the art that the number and arrangement order of the convolutional layers CL and the pooling layers PL may vary depending on the design of the artificial neural network. Each of the convolutional layer CL and the pooling layer PL includes a plurality of feature maps indicated by solid squares, and each of these feature maps is a matrix having a predetermined size. The value of each element of the matrix constituting the feature map is calculated by applying a convolution operation or pooling or subsampling using a kernel to the previous layer. Here, the kernel is a matrix of a predetermined size indicated by a dotted rectangle, and the value of each element of the matrix constituting the kernel becomes a weight (W).

완전연결계층(FCL)은 복수의 노드(혹은 sigmoid: C1, C2, C3...... Cn)를 포함하며, 출력계층(OUL)은 복수의 출력노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)를 포함한다. 완전연결계층(FL)의 연산 또한 가중치(W)가 적용되어 출력계층(OL)의 복수의 출력노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)에 입력된다. 복수의 출력노드(F1 내지 Fm, S1 내지 Sm, B1 내지 Bm) 각각은 입산자들의 성별 및 연령대와, 입산자들이 착용한 아웃도어 의류의 종류에 각각 대응한다. 예컨대, 복수의 출력노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm) 각각은 남자, 여자, 10대, 20대, 30대, 40대, 50대, 60대 이상, A사 패딩, B사 패딩, C사 패딩, ..., A사 롱다운, B사 롱다운, C사 롱다운, ..., A사 플리스, B사 플리스, C사 플리스 등에 대응될 수 있다. The fully connected layer (FCL) includes a plurality of nodes (or sigmoid: C1, C2, C3......Cn), and the output layer (OUL) is a plurality of output nodes (F1 to Fm or S1 to Sm or B1 to Bm). The calculation of the fully connected layer FL is also applied to a weight W and input to a plurality of output nodes F1 to Fm or S1 to Sm or B1 to Bm of the output layer OL. Each of the plurality of output nodes (F1 to Fm, S1 to Sm, and B1 to Bm) corresponds to the gender and age group of the inhabitants and the type of outdoor clothing worn by the inhabitants. For example, each of the plurality of output nodes (F1 to Fm or S1 to Sm or B1 to Bm) is male, female, 10s, 20s, 30s, 40s, 50s, 60s or more, A company padding, B company It may correspond to padding, company C padding, ..., company A long down, company B long down, company C long down, ..., company A fleece, company B fleece, company C fleece, etc.

일례로, 제1 출력 노드(F1 또는 S1 또는 B1)는 성별 남자에 대응하며, 제2 출력 노드(F2 또는 S2 또는 B2)는 성별 여자에 대응할 수 있다. 이에 따라, 제1 출력노드(F1 또는 S1 또는 B1)의 출력값은 해당 영상의 입산자가 남자일 확률을 나타낸다. 또한, 제2 출력노드(F2 또는 S2 또는 B2)의 출력값은 해당 영상의 입산자가 여자일 확률을 나타낸다. 예컨대, 제1 출력 노드(F1 또는 S1 또는 B1)의 출력인 제1 출력값이 0.35이고, 제2 출력노드(F2 또는 S2 또는 B2)의 출력인 제2 출력값이 0.65이면, 여자일 확률이 35%이고, 남자일 확률이 65%임을 나타낸다. For example, the first output node F1 or S1 or B1 may correspond to a gender male, and the second output node F2 or S2 or B2 may correspond to a gender female. Accordingly, the output value of the first output node (F1, S1, or B1) indicates the probability that the person entering the image is a male. In addition, the output value of the second output node (F2 or S2 or B2) represents the probability that the initiating person of the corresponding image is a girl. For example, if the first output value that is the output of the first output node (F1 or S1 or B1) is 0.35 and the second output value that is the output of the second output node (F2 or S2 or B2) is 0.65, the probability of excitation is 35%. And the probability of being a male is 65%.

다른 예로, 제m 출력 노드(Fm 또는 Sm 또는 Bm)는 K사의 패딩에 대응할 수 있다. 이에 따라, 제m 출력노드(Fm 또는 Sm 또는 Bm)의 출력값은 해당 영상의 입산자가 착용한 의류가 K사의 패딩일 확률을 나타낸다. 예컨대, 제m 출력 노드(Fm 또는 Sm 또는 Bm)의 출력인 제1 출력값이 0.88이면, 해당 영상의 입산자가 착용한 의류가 K사의 패딩일 확률이 88%임을 나타낸다. As another example, the m-th output node (Fm or Sm or Bm) may correspond to the K company's padding. Accordingly, the output value of the m-th output node (Fm, Sm, or Bm) represents the probability that the clothing worn by the resident of the corresponding image is the K company's padding. For example, if the first output value, which is the output of the m-th output node (Fm or Sm or Bm), is 0.88, it indicates that the probability that the clothing worn by the resident of the corresponding image is padding of Company K is 88%.

복수의 계층(INL, CL, PL, FL, OUL) 각각은 복수의 연산을 포함한다. 복수의 계층(INL, CL, PL, FL, OUL)의 복수의 연산 각각은 가중치(w)가 적용되며, 가중치(w)가 적용된 연산 결과는 다음 계층으로 전달된다. 즉, 이전 계층의 연산 결과는 다음 계층의 입력이 된다. Each of the plurality of layers (INL, CL, PL, FL, and OUL) includes a plurality of operations. Each of a plurality of operations of a plurality of layers (INL, CL, PL, FL, and OUL) is applied with a weight (w), and the result of the operation to which the weight (w) is applied is transferred to the next layer. That is, the operation result of the previous layer becomes the input of the next layer.

전술한 바와 같이, 입력계층(IL)은 소정 크기의 행렬인 특징지도이다. 입력계층(IL)의 행렬의 원소는 픽셀 단위이다. 그 행렬의 원소 각각은 정면 영상의 각 픽셀의 픽셀값 등이 될 수 있고, 픽셀값은 이진 데이터로 입력계층(IL)의 행렬의 원소에 입력될 수 있다. As described above, the input layer IL is a feature map that is a matrix of a predetermined size. The elements of the matrix of the input layer IL are pixel units. Each element of the matrix may be a pixel value of each pixel of the front image, and the pixel value may be input as binary data to an element of the matrix of the input layer IL.

그러면, 입력계층 행렬에 대해 복수의 커널(W) 각각을 이용한 컨벌루션 연산(convolution)이 수행되며, 그 연산 결과는 제1 컨벌루션 계층(CLF)의 복수의 특징지도에 입력된다. 여기서, 복수의 커널(W) 각각은 행렬의 원소가 가중치(W)인 소정 크기의 행렬을 이용할 수 있다. 또한, 제1 컨벌루션 계층(CLF)의 복수의 특징지도 각각은 소정 크기의 행렬이다. Then, a convolution operation using each of the plurality of kernels W is performed on the input layer matrix, and the result of the operation is input to a plurality of feature maps of the first convolutional layer CLF. Here, each of the plurality of kernels W may use a matrix having a predetermined size in which an element of the matrix is a weight W. In addition, each of the plurality of feature maps of the first convolutional layer CLF is a matrix having a predetermined size.

다음으로, 제1 컨벌루션 계층(CLF)의 복수의 특징 지도에 대해 복수의 커널(W)을 이용한 풀링 연산(subsampling)이 수행된다. 복수의 커널(W) 또한 각각이 원소가 가중치(W)로 이루어진 소정 크기의 행렬이다. 이러한 풀링 연산(subsampling)의 연산 결과는 제1 풀링계층(PLF)의 복수의 특징지도에 입력된다. 제1 풀링계층(PLF)의 복수의 특징지도 역시 각각이 소정 크기의 행렬이다. Next, a pooling operation (subsampling) using a plurality of kernels W is performed on a plurality of feature maps of the first convolutional layer CLF. A plurality of kernels (W) is also a matrix of a predetermined size, each of which is composed of a weight (W). The result of the subsampling operation is input to a plurality of feature maps of the first pooling layer PLF. Each of the plurality of feature maps of the first pooling layer PLF is also a matrix having a predetermined size.

이어서, 제1 풀링계층(PLF)의 복수의 특징 지도에 대해 행렬의 원소 각각이 가중치(W)로 이루어진 소정 크기의 행렬인 커널(W)을 이용한 컨벌루션 연산(convolution)을 수행하여, 복수개의 특징 지도로 이루어진 제2 컨벌루션 계층(CLS)을 구성한다. 다음으로, 제2 컨벌루션 계층(CLS)의 복수의 특징 지도에 대해 복수의 가중치(w)로 이루어진 행렬인 커널(W)을 이용한 풀링 연산(subsampling)을 수행하여 복수의 특징 지도로 이루어진 제2 풀링계층(PLS)을 구성한다. 제2 풀링계층(PLS) 역시 각각이 소정 크기의 행렬이다. Subsequently, a convolution operation (convolution) is performed using a kernel (W), which is a matrix of a predetermined size in which each element of the matrix is a weight (W) with respect to the plurality of feature maps of the first pooling layer (PLF). A second convolutional layer (CLS) consisting of a map is constructed. Next, a second pooling consisting of a plurality of feature maps is performed by performing a subsampling operation using a kernel W, which is a matrix consisting of a plurality of weights w, for a plurality of feature maps of the second convolutional layer (CLS). Construct a layer (PLS). Each of the second pooling layers PLS is also a matrix having a predetermined size.

그런 다음, 제2 풀링계층(PLS)의 복수의 특징 지도에 대해 복수의 커널(W)을 이용한 컨벌루션 연산(convolution)을 수행한다. 복수의 커널(W) 또한 그 원소가 가중치(w)로 이루어진 소정 크기의 행렬이다. 복수의 커널(W)을 이용한 컨벌루션 연산(convolution) 결과에 따라 완전연결계층(FCL)이 생성된다. 다른 말로, 복수의 커널(W)을 이용한 컨벌루션 연산(convolution) 결과는 복수의 노드(C1 내지Cn)에 입력된다. Thereafter, a convolution operation using a plurality of kernels W is performed on a plurality of feature maps of the second pooling layer PLS. A plurality of kernels (W) is also a matrix of a predetermined size whose elements are weights (w). A fully connected layer (FCL) is generated according to a result of a convolution operation using a plurality of kernels (W). In other words, the result of a convolution operation using a plurality of kernels W is input to a plurality of nodes C1 to Cn.

완전연결계층(FL)의 복수의 노드(C1 내지Cn) 각각은 제2 풀링계층(PLS)으로부터 입력에 대해 전달함수 등을 이용한 소정의 연산을 수행하고, 그 연산에 가중치(w)를 적용하여 출력계층(OUL)의 각 노드에 입력한다. 이에 따라, 출력계층(OUL)의 복수의 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)는 완전연결계층(FCL)으로부터 입력된 값에 대해 소정의 연산을 수행하고, 그 결과인 출력값을 출력한다. 전술한 바와 같이, 복수의 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm) 각각은 입산자의 성별 및 연령대와, 입산자가 착용한 아웃도어 의류의 종류에 각각 대응하며, 이러한 복수의 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm) 각각의 출력값은 해당 정면 영상의 입산자의 성별 및 연령대와, 해당 입산자가 착용한 아웃도어 의류의 종류에 해당하는 확률값이다. Each of the plurality of nodes (C1 to Cn) of the fully connected layer (FL) performs a predetermined operation using a transfer function, etc. for an input from the second pooling layer (PLS), and applies a weight (w) to the operation. Input to each node of the output layer (OUL). Accordingly, a plurality of output nodes (F1 to Fm or S1 to Sm or B1 to Bm) of the output layer (OUL) perform a predetermined operation on the value input from the fully connected layer (FCL), and the resulting output value Prints. As described above, each of the plurality of output nodes (F1 to Fm or S1 to Sm or B1 to Bm) corresponds to the gender and age of the occupant and the type of outdoor clothing worn by the occupant, respectively, and such a plurality of output nodes (F1 to Fm or S1 to Sm or B1 to Bm) Each output value is a probability value corresponding to the gender and age range of the occupant of the corresponding front image and the type of outdoor clothing worn by the occupant.

판단부(214)는 전면인식부(221), 측면인식부(212) 및 후면인식부(213)의 출력을 종합하여, 입산자들의 성별 및 연령대와, 입산자들이 착용한 아웃도어 의류의 종류를 식별하기 위한 것이다. 특히, 판단부(214)는 도 7에 도시된 바와 같이, 전면인식부(221), 측면인식부(212) 및 후면인식부(213)의 가중치가 적용된 출력을 입력받고, 소정의 연산을 통해 출력값을 출력하는 복수의 출력 노드(O1 내지 Om)를 포함한다. 복수의 출력 노드(O1 내지 Om) 각각의 출력값은 해당 정면 영상의 입산자의 성별 및 연령대와, 해당 입산자가 착용한 아웃도어 의류의 종류에 대응하며, 그 출력값은 해당하는 확률값이다. The determination unit 214 synthesizes the outputs of the front recognition unit 221, the side recognition unit 212, and the rear recognition unit 213, and the gender and age range of the residents, and the type of outdoor clothing worn by the residents. To identify. In particular, the determination unit 214 receives the weighted output of the front recognition unit 221, the side recognition unit 212, and the rear recognition unit 213, as shown in FIG. 7, and through a predetermined operation. It includes a plurality of output nodes (O1 to Om) for outputting the output value. The output values of each of the plurality of output nodes O1 to Om correspond to the gender and age group of the occupant of the corresponding front image and the type of outdoor clothing worn by the occupant, and the output value is a corresponding probability value.

전술한 인식부(222)의 전면인식부(221), 측면인식부(212) 및 후면인식부(213) 및 판단부(214)는 입산자들의 성별 및 연령대와, 입산자들이 착용한 아웃도어 의류의 종류를 식별하도록 학습(machine learning)된다. 이러한 학습 방법에 대해서 설명하기로 한다. 도 8은 본 발명의 실시예에 따른 인식부에 대한 학습 방법을 설명하기 위한 흐름도이다. The front recognition unit 221, the side recognition unit 212, and the rear recognition unit 213 and the determination unit 214 of the above-described recognition unit 222 include the gender and age range of the residents, and the outdoor worn by the residents. It is machine learning to identify the type of clothing. This learning method will be described. 8 is a flowchart illustrating a learning method for a recognition unit according to an embodiment of the present invention.

도 8을 참조하면, 인식부(220)는 학습 데이터인 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)을 이용하여 학습을 수행한다. Referring to FIG. 8, the recognition unit 220 performs learning by using a front image (FIMG), a side image (SIMG), and a rear image (BIMG) in which the sex and age groups, which are training data, and the type of outdoor clothing worn are known. Perform.

먼저, 인식부(220)는 S110 단계에서 전면인식부(211), 측면인식부(212) 및 후면인식부(213) 각각을 개별적으로 학습시킨다. 이러한 S110 단계에서 인식부(220)는 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 정면 영상(FIMG)을 통해 전면인식부(211)를 학습시키고, 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 측면 영상(SIMG)을 통해 측면인식부(212)를 학습시키고, 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 후면 영상(BIMG)을 통해 후면인식부(213)를 학습시킨다. First, the recognition unit 220 individually learns each of the front recognition unit 211, the side recognition unit 212, and the rear recognition unit 213 in step S110. In this step S110, the recognition unit 220 learns the front recognition unit 211 through a front image (FIMG) in which the gender and age group and the type of outdoor clothing worn are known, and the gender and age group, and the worn outdoor clothing The side recognition unit 212 is learned through a side image (SIMG) of which the type is known, and the rear recognition unit 213 is learned through a rear image (BIMG) in which the gender and age group and the type of outdoor clothing worn are known.

S110 단계의 개별 학습 시, 전면인식부(211)에 대한 학습 방법에 대해서 보다 자세히 설명하면 다음과 같다. 먼저, 인식부(220)는 학습데이터인 정면 영상(FIMG)의 알려진 성별 및 연령대, 착용한 아웃도어 의류의 종류에 따라 기댓값을 설정한다. 여기서, 기댓값은 해당 정면 영상(FIMG)으로부터 학습시키고자 하는 성별 및 연령대, 착용한 아웃도어 의류의 종류에 대한 목표치가 될 수 있다. 예컨대, 정면 영상(FIMG)의 입산자가 남자이고, 40대이며, K사의 패딩을 착용한 영상이라면, 기댓값은 남자에 대응하는 노드의 기댓값이 여자에 대응하는 노드의 기댓값 보다 높은 값을 갖도록 설정되며, 40대에 대응하는 노드의 기댓값이 다른 연령대에 대응하는 노드의 기댓값에 비해 가장 높은 값을 가지도록 설정되고, K사의 패딩에 대응하는 노드의 기댓값이 다른 아웃도어 의류의 종류에 대응하는 노드에 비해 높은 값을 가지도록 설정된다. 예컨대, 남자 및 여자에 대응하는 노드 각각의 기댓값은 0.90 및 0.10으로 설정될 수 있다. 또한, 20대 미만, 30대, 40대, 50대, 60대 이상에 대응하는 노드 각각의 기댓값은 0.04, 0.16, 0.60, 0.15, 0.05로 설정될 수 있다. 그리고 아웃도어 의류의 종류의 노드가 K사의 패딩, L사 패딩 및 M사 패딩에 대응하는 노드가 존재한다고 가정하면, K사의 패딩, L사 패딩 및 M사 패딩에 대응하는 노드 각각의 기댓값은 0.80, 0.10, 0.10으로 설정될 수 있다. When individual learning in step S110, the learning method for the front recognition unit 211 will be described in more detail as follows. First, the recognition unit 220 sets an expected value according to the known gender and age range of the front image FIMG, which is the training data, and the type of outdoor clothing worn. Here, the expected value may be a target value for the gender and age group to be learned from the corresponding front image FIMG, and the type of outdoor clothing worn. For example, if the entrance of the front image (FIMG) is a male, 40s, and a video wearing K's padding, the expected value is set so that the expected value of the node corresponding to the male is higher than the expected value of the node corresponding to the female. , The expected value of the node corresponding to the 40s is set to have the highest value compared to the expected value of the node corresponding to other age groups, and the expected value of the node corresponding to company K's padding is in the node corresponding to the type of outdoor clothing different. It is set to have a higher value than that. For example, expected values of each of the nodes corresponding to men and women may be set to 0.90 and 0.10. In addition, expected values of each node corresponding to those in their 20s, 30s, 40s, 50s, 60s or more may be set to 0.04, 0.16, 0.60, 0.15, and 0.05. And, assuming that the node of the type of outdoor clothing has a node corresponding to company K's padding, company L's padding, and company M's padding, the expected value of each node corresponding to company K's padding, company L's padding, and company M's padding is 0.80 , Can be set to 0.10, 0.10.

그런 다음, 전면인식부(211)에 학습 데이터인 정면 영상(FIMG)을 입력하면, 전면인식부(211)는 학습 데이터인 정면 영상(FIMG)의 복수의 픽셀값에 대해 복수의 계층(INL, CL, PL, FL, OUL)의 가중치(W)가 적용되는 복수의 연산을 수행하여 출력 노드(F1 내지 Fm)를 통해 성별 및 연령대, 착용한 아웃도어 의류의 종류에 대응하는 출력값을 출력한다. 예컨대, 출력 노드(F1 내지 Fm) 각각은 남자, 여자, 20대 미만, 30대, 40대, 50대, 60대 이상, K사의 패딩, L사 패딩 및 M사 패딩에 대응하며, 출력 노드(F1 내지 Fm) 각각의 출력값은 0.50, 0.50, 0.14, 0.26, 0.40, 0.25, 0.15, 0.60, 0.20, 0.20과 같이 도출되었다고 가정한다. Then, when the front image FIMG, which is the training data, is input to the front recognition unit 211, the front recognition unit 211 uses a plurality of layers INL, for a plurality of pixel values of the front image FIMG, which is the training data. A plurality of operations to which the weights W of CL, PL, FL, OUL) are applied are performed, and output values corresponding to the gender and age group and the type of outdoor clothing worn are output through the output nodes F1 to Fm. For example, each of the output nodes (F1 to Fm) corresponds to male, female, under 20s, 30s, 40s, 50s, 60s or more, padding of company K, padding of company L and padding of company M, and output nodes ( F1 to Fm), each output value is assumed to be derived as 0.50, 0.50, 0.14, 0.26, 0.40, 0.25, 0.15, 0.60, 0.20, 0.20.

이와 같이, 충분한 학습이 이루어지기 전, 즉, 학습이 완료되기 전, 전면인식부(211)의 출력값은 기댓값과 차이가 있을 수 있다. 따라서 인식부(210)는 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파(back-propagation) 알고리즘을 통해 전면인식부(211)의 가중치(W)를 수정한다. In this way, before sufficient learning is performed, that is, before the learning is completed, the output value of the front recognition unit 211 may be different from the expected value. Accordingly, the recognition unit 210 compares the output value and the expected value, and corrects the weight W of the front recognition unit 211 through a back-propagation algorithm so that the difference between the expected value and the output value is minimized.

이와 같이, 인식부(210)는 기댓값이 설정된 학습 데이터를 입력하여 출력값이 도출되면, 역전파 알고리즘을 통해 전면인식부(211)의 가중치(W)를 수정하는 것을 학습 절차를 수행한다. In this way, the recognition unit 210 performs a learning procedure of modifying the weight W of the front recognition unit 211 through a backpropagation algorithm when an output value is derived by inputting training data for which an expected value is set.

인식부(210)는 서로 다른 복수의 학습 데이터인 전면 영상(FIMG)을 이용하여 전면인식부(211)에 대한 전술한 학습 절차를 반복한다. 특히, 인식부(210)는 어느 하나의 학습 데이터를 전면인식부(211)에 입력했을 때, 기댓값과 출력값의 차이가 소정 수치 이내이면서, 출력값이 변동이 없으면, 학습이 완료된 것으로 판단하고, 학습 절차를 종료한다. 인식부(210)는 전술한 전면인식부(211)에 대한 학습 절차와 동일한 방식으로, 측면인식부(212) 및 후면인식부(213)에 대한 개별 학습을 수행한다. 다만, 측면인식부(212)에 대해서는 학습 데이터로 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 측면 영상(SIMG)을 이용하며, 후면인식부(213)에 대해서는 학습 데이터로 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려진 후면 영상(BIMG)을 이용한다. The recognition unit 210 repeats the above-described learning procedure for the front recognition unit 211 by using a front image FIMG, which is a plurality of different training data. In particular, when the recognition unit 210 inputs any one learning data to the front recognition unit 211, if the difference between the expected value and the output value is within a predetermined value and there is no change in the output value, the recognition unit 210 determines that learning is complete, and the learning End the procedure. The recognition unit 210 performs individual learning on the side recognition unit 212 and the rear recognition unit 213 in the same manner as the learning procedure for the front recognition unit 211 described above. However, for the side recognition unit 212, a side image (SIMG) of which gender and age group and the type of outdoor clothing worn are known as learning data is used, and for the rear recognition unit 213, gender and age group, The rear image (BIMG) of which the type of outdoor clothing worn is known is used.

전술한 개별 학습 절차가 종료되면, 인식부(210)는 S120 단계에서 전면인식부(211), 측면인식부(212) 및 후면인식부(213) 각각을 개별적으로 학습시키는 것이 아니라, 전면인식부(211), 측면인식부(212), 후면인식부(213) 및 판단부(214)를 동시에 학습시킨다. 이러한 S120 단계는 S121 단계의 결핍 학습과, S123 단계의 완전 학습으로 구분될 수 있다. When the above-described individual learning procedure is finished, the recognition unit 210 does not individually learn each of the front recognition unit 211, the side recognition unit 212 and the rear recognition unit 213 in step S120, but the front recognition unit (211), the side recognition unit 212, the rear recognition unit 213 and the determination unit 214 are learned at the same time. This step S120 may be divided into a deficiency learning step S121 and a complete learning step S123.

S121 단계의 결핍 학습에서, 인식부(210)는 전면인식부(211)에 학습 데이터인 전면 영상(FIMG)을 입력하고, 측면인식부(212)에 학습 데이터인 측면 영상(SIMG)을 입력하고, 후면인식부(213)에 학습 데이터인 후면 영상(BIMG)을 입력해야 하지만, 전면인식부(211), 측면인식부(212) 및 후면인식부(213) 중 하나 또는 2개에 학습 데이터를 입력하지 않고, 학습을 수행한다. 반면, S123 단계의 완전 학습에서, 인식부(210)는 결핍 학습과 달리, 전면인식부(211)에 학습 데이터인 전면 영상(FIMG)을 입력하고, 측면인식부(212)에 학습 데이터인 측면 영상(SIMG)을 입력하고, 후면인식부(213)에 학습 데이터인 후면 영상(BIMG)을 입력하여 학습을 수행한다. In the deficiency learning of step S121, the recognition unit 210 inputs a front image (FIMG) as training data to the front recognition unit 211, and inputs a side image (SIMG) as training data to the side recognition unit 212 , The rear image (BIMG), which is the training data, must be input to the rear recognition unit 213, but the training data is input to one or two of the front recognition unit 211, the side recognition unit 212, and the rear recognition unit 213. Without typing, learning is performed. On the other hand, in the complete learning of step S123, the recognition unit 210 inputs a front image (FIMG), which is training data, to the front recognition unit 211, unlike deficiency learning, and the side that is learning data to the side recognition unit 212. An image (SIMG) is input, and a rear image (BIMG), which is training data, is input to the rear recognition unit 213 to perform learning.

보다 자세히, S121 단계의 결핍 학습을 설명하면 다음과 같다. 먼저, 인식부(220)는 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG) 중 1개 혹은 2개를 제외한 학습 데이터를 이용하여 결핍 학습을 수행하며, 학습 데이터의 알려진 성별 및 연령대, 착용한 아웃도어 의류의 종류에 따라 기댓값을 설정한다. 여기서, 기댓값은 해당 학습 데이터로부터 학습시키고자 하는 성별 및 연령대, 착용한 아웃도어 의류의 종류에 대한 목표치가 될 수 있다. 예컨대, 학습 데이터의 입산자가 남자이고, 40대이며, K사의 패딩을 착용한 영상이라면, 기댓값은 남자에 대응하는 노드의 기댓값이 여자에 대응하는 노드의 기댓값 보다 높은 값을 갖도록 설정되며, 40대에 대응하는 노드의 기댓값이 다른 연령대에 대응하는 노드의 기댓값에 비해 가장 높은 값을 가지도록 설정되고, K사의 패딩에 대응하는 노드의 기댓값이 다른 아웃도어 의류의 종류에 대응하는 노드에 비해 높은 값을 가지도록 설정된다. 예컨대, 남자 및 여자에 대응하는 노드 각각의 기댓값은 0.90 및 0.10으로 설정될 수 있다. 또한, 20대 미만, 30대, 40대, 50대, 60대 이상에 대응하는 노드 각각의 기댓값은 0.04, 0.16, 0.60, 0.15, 0.05로 설정될 수 있다. 그리고 아웃도어 의류의 종류의 노드가 K사의 패딩, L사 패딩 및 M사 패딩에 대응하는 노드가 존재한다고 가정하면, K사의 패딩, L사 패딩 및 M사 패딩에 대응하는 노드 각각의 기댓값은 0.80, 0.10, 0.10으로 설정될 수 있다. 이와 같이, 기댓값의 설정 방식은 개별 학습 시와 동일하다. In more detail, the deficiency learning in step S121 is as follows. First, the recognition unit 220 performs deficiency learning using learning data excluding one or two of the front image (FIMG), the side image (SIMG), and the rear image (BIMG), and the known gender and The expected value is set according to the age group and the type of outdoor clothing worn. Here, the expected value may be a target value for a gender and age group to be learned from the corresponding learning data, and a type of outdoor clothing worn. For example, if the entry into the training data is a male, in their 40s, and an image wearing K company's padding, the expected value is set so that the expected value of the node corresponding to the male is higher than the expected value of the node corresponding to the female. The expected value of the node corresponding to is set to have the highest value compared to the expected value of the node corresponding to other age groups, and the expected value of the node corresponding to company K's padding is higher than that of the node corresponding to other types of outdoor clothing. Is set to have. For example, expected values of each of the nodes corresponding to men and women may be set to 0.90 and 0.10. In addition, expected values of each node corresponding to those in their 20s, 30s, 40s, 50s, 60s or more may be set to 0.04, 0.16, 0.60, 0.15, and 0.05. And, assuming that the node of the type of outdoor clothing has a node corresponding to company K's padding, company L's padding, and company M's padding, the expected value of each node corresponding to company K's padding, company L's padding, and company M's padding is 0.80 , Can be set to 0.10, 0.10. In this way, the method of setting the expected value is the same as in individual learning.

기댓값을 설정한 후, 인식부(210)는 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG) 중 1개 또는 2개가 제외된 학습 데이터를 전면인식부(211), 측면인식부(212) 및 후면인식부(213)에 입력한다. 일례로, 인식부(210)는 정면 영상(FIMG)을 전면인식부(211)에 입력하고, 측면 영상(SIMG)을 측면인식부(212)에 입력하며, 후면 영상(BIMG)을 후면인식부(213)에 입력하지 않을 수 있다. 다른 예로, 인식부(210)는 측면 영상(SIMG)만 측면인식부(212)에 입력하고, 정면 영상(FIMG) 및 후면 영상(BIMG)을 입력하지 않을 수 있다. After setting the expected value, the recognition unit 210 converts the learning data excluding one or two of the front image (FIMG), the side image (SIMG), and the rear image (BIMG) into the front recognition unit 211 and the side recognition unit. (212) and input to the rear recognition unit 213. For example, the recognition unit 210 inputs a front image (FIMG) to the front recognition unit 211, inputs a side image (SIMG) to the side recognition unit 212, and a rear image (BIMG) to the rear recognition unit. It may not be entered in (213). As another example, the recognition unit 210 may input only the side image SIMG to the side recognition unit 212 and may not input the front image FIMG and the rear image BIMG.

전면인식부(211), 측면인식부(212) 및 후면인식부(213) 중 학습 데이터가 입력된 모듈은 학습 데이터인 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)의 복수의 픽셀값에 대해 복수의 계층(INL, CL, PL, FL, OUL)의 가중치(W)가 적용되는 복수의 연산을 수행하여 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)를 통해 출력값을 출력한다. Among the front recognition unit 211, the side recognition unit 212, and the rear recognition unit 213, the module into which the learning data is input is a plurality of front image (FIMG), side image (SIMG), and rear image (BIMG), which are training data. Through the output nodes (F1 to Fm or S1 to Sm or B1 to Bm) by performing a plurality of operations to which the weights (W) of a plurality of layers (INL, CL, PL, FL, OUL) are applied to the pixel values of Print the output value.

그리고 이러한 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)의 출력값은 도 7에 도시된 바와 같이, 가중치(W)가 적용되어, 판단부(214)의 출력 노드(O1 내지 Om)에 입력되며, 출력 노드(O1 내지 Om)는 연산을 통해 출력값을 출력한다. And the output values of these output nodes (F1 to Fm or S1 to Sm or B1 to Bm), as shown in FIG. 7, a weight (W) is applied to the output nodes (O1 to Om) of the determination unit 214 It is input, and the output nodes O1 to Om output an output value through an operation.

예컨대, 출력 노드(O1 내지 Om) 각각은 남자, 여자, 20대 미만, 30대, 40대, 50대, 60대 이상, K사의 패딩, L사 패딩 및 M사 패딩에 대응하며, 출력 노드(F1 내지 Fm) 각각의 출력값은 0.50, 0.50, 0.14, 0.26, 0.40, 0.25, 0.15, 0.60, 0.20, 0.20과 같이 도출되었다고 가정한다. For example, each of the output nodes O1 to Om corresponds to male, female, under 20s, 30s, 40s, 50s, 60s or more, padding of K company, padding of company L, and padding of company M, and output nodes ( F1 to Fm), each output value is assumed to be derived as 0.50, 0.50, 0.14, 0.26, 0.40, 0.25, 0.15, 0.60, 0.20, 0.20.

이와 같이, 충분한 학습이 이루어지기 전, 즉, 학습이 완료되기 전, 출력값은 기댓값과 차이가 있을 수 있다. 따라서 인식부(210)는 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파(back-propagation) 알고리즘을 통해 전면인식부(211), 측면인식부(212), 후면인식부(213) 및 판단부(214)의 가중치(W)를 수정한다. 이와 같이, 인식부(210)는 기댓값이 설정된 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG) 중 1개 또는 2개를 제외한 학습 데이터를 입력하여 출력값이 도출되면, 역전파 알고리즘을 통해 전면인식부(211), 측면인식부(212), 후면인식부(213) 및 판단부(214)의 가중치(W)를 수정하는 결핍 학습 절차를 수행한다. As described above, before sufficient learning is performed, that is, before learning is completed, the output value may be different from the expected value. Therefore, the recognition unit 210 compares the output value and the expected value, and uses a back-propagation algorithm to minimize the difference between the expected value and the output value. The front recognition unit 211, the side recognition unit 212, and the rear recognition unit (213) and the weight (W) of the determination unit 214 are corrected. In this way, the recognition unit 210 inputs training data excluding one or two of the front image (FIMG), the side image (SIMG), and the rear image (BIMG) in which the expected value is set, and when the output value is derived, the backpropagation algorithm Through the front recognition unit 211, the side recognition unit 212, the rear recognition unit 213, and performs a deficiency learning procedure of modifying the weight (W) of the determination unit 214.

인식부(210)는 서로 다른 복수의 학습 데이터를 이용하여 결핍 학습 절차를 반복하여 수행할 수 있다. 그리고 인식부(210)는 반복되는 결핍 학습의 수행 중 기댓값과 출력값의 차이가 소정 수치 이내이면서, 출력값이 변동이 없으면, 학습이 완료된 것으로 판단하고, 결핍 학습 절차를 종료한다. The recognition unit 210 may repeatedly perform the deficiency learning procedure using a plurality of different learning data. In addition, when the difference between the expected value and the output value is within a predetermined value while the output value does not change during the repeated deficiency learning, the recognition unit 210 determines that the learning has been completed, and ends the deficiency learning procedure.

S123 단계의 완전 학습은 학습 데이터로 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG) 모두를 이용하여 수행되며, 나머지 절차는 전술한 S121 단계의 결핍 학습과 동일한 방식으로 수행된다. The complete learning in step S123 is performed using all of the front image (FIMG), the side image (SIMG), and the rear image (BIMG) as training data, and the remaining procedures are performed in the same manner as the deficiency learning in step S121 described above.

즉, 인식부(210)는 기댓값을 설정하고, 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG) 모두를 포함하는 학습 데이터를 전면인식부(211), 측면인식부(212) 및 후면인식부(213)에 입력한 후, 기댓값과 판단부(214)의 출력 노드(O1 내지 Om)의 출력값과의 차이가 최소가 되도록 역전파(back-propagation) 알고리즘을 통해 전면인식부(211), 측면인식부(212), 후면인식부(213) 및 판단부(214)의 가중치(W)를 수정한다. 그리고 인식부(210)는 반복되는 완전 학습의 수행 중 기댓값과 출력값의 차이가 소정 수치 이내이면서, 출력값이 변동이 없으면, 학습이 완료된 것으로 판단하고, 완전 학습 절차를 종료한다. That is, the recognition unit 210 sets an expected value, and transmits training data including all of a front image (FIMG), a side image (SIMG), and a rear image (BIMG) to the front recognition unit 211 and the side recognition unit 212. And after input to the rear recognition unit 213, through a back-propagation algorithm so that the difference between the expected value and the output values of the output nodes O1 to Om of the determination unit 214 is minimal. 211), the weight (W) of the side recognition unit 212, the rear recognition unit 213 and the determination unit 214 is corrected. In addition, when the difference between the expected value and the output value is within a predetermined value while the output value does not change during the repeated complete learning, the recognition unit 210 determines that the learning has been completed, and ends the complete learning process.

학습 절차가 종료되면, 인식부(210)는 성별 및 연령대, 착용한 아웃도어 의류의 종류가 알려지지 않은 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)으로부터 성별 및 연령대, 착용한 아웃도어 의류의 종류를 식별할 수 있다. When the learning process is finished, the recognition unit 210 is the gender and age group from the front image (FIMG), the side image (SIMG), and the rear image (BIMG) of which the type of outdoor clothing worn is unknown. You can identify the type of outdoor clothing.

그러면, 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 방법에 대해서 설명하기로 한다. 도 9는 본 발명의 실시예에 따른 아웃도어 의류의 통계 정보를 제공하기 위한 방법을 설명하기 위한 흐름도이다. Then, a method for providing statistical information of outdoor clothing according to an embodiment of the present invention will be described. 9 is a flowchart illustrating a method for providing statistical information of outdoor clothing according to an embodiment of the present invention.

도 9를 참조하면, 통계장치(100)의 제어부(200)는 S210 단계에서 카메라부(120)를 통해 개찰구(10)를 통과하는 입산자의 정면, 측면 및 후면을 촬영하고, S220 단계에서 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)을 생성한다. Referring to FIG. 9, the control unit 200 of the statistics device 100 photographs the front, side and rear of the occupant passing through the ticket gate 10 through the camera unit 120 in step S210, and a front image in step S220. (FIMG), lateral image (SIMG), and rear image (BIMG) are generated.

그러면, 제어부(200)의 인식부(210)는 S230 단계에서 앞서(도 8의 실시예) 학습된 바에 따라 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)을 분석하여 해당 입산자의 성별 및 연령대, 착용한 아웃도어 의류의 종류를 식별한다. 보다 자세히 설명하면, 인식부(210)는 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)을 전면인식부(211), 측면인식부(212) 및 후면인식부(213)에 입력한다. 그러면, 전면인식부(211), 측면인식부(212) 및 후면인식부(213) 각각은 정면 영상(FIMG), 측면 영상(SIMG) 및 후면 영상(BIMG)의 복수의 픽셀값에 대해 복수의 계층(INL, CL, PL, FL, OUL)의 가중치(W)가 적용되는 복수의 연산을 수행하여 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)를 통해 출력값을 출력한다. 그리고 이러한 출력 노드(F1 내지 Fm 또는 S1 내지 Sm 또는 B1 내지 Bm)의 출력값은 도 7에 도시된 바와 같이, 가중치(W)가 적용되어, 판단부(214)의 출력 노드(O1 내지 Om)에 입력되며, 출력 노드(O1 내지 Om)는 연산을 통해 출력값을 출력한다. 예컨대, 출력 노드(O1 내지 Om) 각각은 남자, 여자, 20대 미만, 30대, 40대, 50대, 60대 이상, K사의 패딩, L사 패딩 및 M사 패딩에 대응하며, 출력 노드(F1 내지 Fm) 각각의 출력값은 0.30, 0.70, 0.14, 0.26, 0.40, 0.25, 0.15, 0.10, 0.10, 0.80과 같이 도출되었다고 가정한다. 이에 따라, 남자에 대응하는 노드가 0.30이고, 여자에 대응하는 노드가 0.70으로 남자일 확률이 30%이고, 여자일 확률이 70%이기 때문에 인식부(210)는 해당 입산자를 여자로 판별한다. 마찬가지로, 40대일 확률이 40%로 가장 높기 때문에 인식부(210)는 해당 입산자를 40대로 판별한다. 그리고 M사 패딩일 확률이 80%로 가장 높기 때문에 인식부(210)는 해당 입산자가 착용한 아웃도어 의류의 종류를 M사 패딩으로 판단한다. Then, the recognition unit 210 of the control unit 200 analyzes the front image (FIMG), the side image (SIMG), and the rear image (BIMG) according to what was previously learned in step S230 (the embodiment of FIG. 8) Identify the child's gender and age range, and the type of outdoor clothing worn. In more detail, the recognition unit 210 transmits a front image (FIMG), a side image (SIMG), and a rear image (BIMG) to the front recognition unit 211, the side recognition unit 212 and the rear recognition unit 213. Enter. Then, the front recognition unit 211, the side recognition unit 212, and the rear recognition unit 213 each have a plurality of pixel values of a front image (FIMG), a side image (SIMG), and a rear image (BIMG). A plurality of operations to which the weights W of the layers INL, CL, PL, FL, and OUL are applied are performed, and the output values are output through the output nodes F1 to Fm or S1 to Sm or B1 to Bm. And the output values of these output nodes (F1 to Fm or S1 to Sm or B1 to Bm), as shown in FIG. 7, a weight (W) is applied to the output nodes (O1 to Om) of the determination unit 214 It is input, and the output nodes O1 to Om output an output value through an operation. For example, each of the output nodes O1 to Om corresponds to male, female, under 20s, 30s, 40s, 50s, 60s or more, padding of K company, padding of company L, and padding of company M, and output nodes ( F1 to Fm), each output value is assumed to be derived as 0.30, 0.70, 0.14, 0.26, 0.40, 0.25, 0.15, 0.10, 0.10, 0.80. Accordingly, since the node corresponding to the male is 0.30, the node corresponding to the female is 0.70, the probability of being male is 30%, and the probability of being female is 70%, so the recognition unit 210 determines the inmate as female. Likewise, since the probability of being in the 40's is the highest at 40%, the recognition unit 210 determines the person in the 40's. In addition, since the probability of the company M's padding is the highest at 80%, the recognition unit 210 determines the type of outdoor clothing worn by the corresponding resident as the company M's padding.

마지막으로, 제어부(200)의 통계처리부(220)는 다른 데이터와 누적하여 인식부(210)가 인식한 바에 따라 통계를 생성한다. 즉, 통계처리부(220)는 인식부(210)가 인식한 입산자의 성별 및 연령대에 따라 입산자가 착용한 아웃도어 의류에 대한 통계를 생성한다. Finally, the statistics processing unit 220 of the control unit 200 accumulates other data and generates statistics according to the recognition unit 210 recognizes. That is, the statistics processing unit 220 generates statistics on outdoor clothing worn by the inmate according to the gender and age group of the inmate recognized by the recognition unit 210.

추가적으로, 통계처리부(220)는 통신부(110)를 통해 통계서버(400)로 생성한 통계를 전송할 수 있다. Additionally, the statistics processing unit 220 may transmit the generated statistics to the statistics server 400 through the communication unit 110.

한편, 앞서 설명된 본 발명의 실시예에 따른 방법들은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 와이어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 와이어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the methods according to the embodiments of the present invention described above may be implemented in the form of programs readable by various computer means and recorded on a computer readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of the program instruction may include not only machine language wires such as those made by a compiler, but also high-level language wires that can be executed by a computer using an interpreter or the like. These hardware devices may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not limiting. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made according to the equivalence theory without departing from the spirit of the present invention and the scope of the rights presented in the appended claims.

100: 통계장치
110: 통신부 120: 카메라부
130: 입력부 140: 표시부
150: 오디오부 160: 저장부
200: 제어부 210: 인식부
220: 통계처리부 400: 통계서버
100: statistics device
110: communication unit 120: camera unit
130: input unit 140: display unit
150: audio unit 160: storage unit
200: control unit 210: recognition unit
220: statistics processing unit 400: statistics server

Claims (7)

아웃도어 의류의 통계 정보를 제공하기 위한 장치에 있어서,
입산자의 전면, 측면 및 후면을 촬영하여 전면 영상, 측면 영상 및 후면 영상을 생성하는 카메라부;
각각이 인공신경망인 상기 전면 영상을 처리하는 전면인식부와, 상기 측면 영상을 처리하는 측면인식부와, 상기 후면 영상을 처리하는 후면인식부와, 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 처리하는 판단부를 포함하며, 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 분석하여 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류를 식별하는 인식부; 및
상기 입산자의 성별 및 연령대에 따라 상기 입산자가 착용한 아웃도어 의류에 대한 통계를 생성하는 통계처리부;를 포함하며,
상기 인식부는
입산자의 성별 및 연령대와, 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고, 입산자의 성별 및 연령대와, 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고, 입산자의 성별 및 연령대와, 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시키는 개별 학습을 수행한 후,
상기 정면 영상, 상기 측면 영상 및 상기 후면 영상 중 1개 혹은 2개를 제외한 학습 데이터를 마련하고, 마련된 학습 데이터에 대해 기댓값을 설정하고, 상기 측면 영상 및 상기 후면 영상 중 1개 혹은 2개를 제외한 학습 데이터를 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부 중 대응하는 모듈에 입력하고, 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부 중 학습 데이터가 입력된 모듈 및 상기 판단부가 학습 데이터의 복수의 픽셀값에 대해 복수의 계층의 가중치(W)가 적용되는 복수의 연산을 수행하여 출력값을 출력하면, 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파 알고리즘을 통해 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부의 가중치를 수정하는 결핍 학습을 수행하고,
상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 모두 포함하는 학습 데이터를 마련하고, 마련된 학습 데이터에 대해 기댓값을 설정하고, 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 모두 포함하는 학습 데이터를 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부에 입력하고, 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 판단부가 학습 데이터의 복수의 픽셀값에 대해 복수의 계층의 가중치가 적용되는 복수의 연산을 수행하여 출력값을 출력하면, 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파 알고리즘을 통해 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부의 가중치를 수정하는 완전학습을 수행하는
통계 정보를 제공하기 위한 장치.
In the device for providing statistical information of outdoor clothing,
A camera unit for generating a front image, a side image, and a rear image by photographing the front, side and rear of the inmate;
A front recognition unit for processing the front image, each of which is an artificial neural network, a side recognition unit for processing the side image, a rear recognition unit for processing the rear image, the front recognition unit, the side recognition unit, and the rear surface A recognition unit including a determination unit for processing an output of the recognition unit, and identifying a gender and age range of the occupant and a type of outdoor clothing worn by the occupant by analyzing the front image, the side image and the rear image; And
Includes; a statistical processing unit that generates statistics on the outdoor clothing worn by the inmate according to the gender and age of the inmate,
The recognition unit
The front image recognition unit is learned using the front image of the occupant's gender and age group and the type of outdoor clothing worn by the occupant, and a side image of which the gender and age group of the occupant and the type of outdoor clothing worn by the occupant are known After learning the side recognition unit by using and performing individual learning of learning the rear recognition unit using the rear image of which the gender and age of the occupant and the type of outdoor clothing worn by the occupant are known,
Preparing learning data excluding one or two of the front image, the side image, and the rear image, setting an expected value for the prepared learning data, excluding one or two of the side image and the rear image Input the learning data to a corresponding module among the front recognition unit, the side recognition unit, and the rear recognition unit, and the module to which learning data is input from the front recognition unit, the side recognition unit and the rear recognition unit, and the determination unit Backpropagation algorithm so that the difference between the expected value and the output value is minimized by comparing the output value and the expected value when outputting the output value by performing a plurality of operations in which the weights (W) of a plurality of layers are applied to a plurality of pixel values of the training data Through the front recognition unit, the side recognition unit, the rear recognition unit, and performing deficiency learning to correct the weight of the determination unit,
Preparing training data including all of the front image, the side image, and the rear image, setting an expected value for the prepared training data, and storing training data including all of the front image, the side image, and the rear image Input to the front recognition unit, the side recognition unit and the rear recognition unit, and the front recognition unit, the side recognition unit, the rear recognition unit, and the determination unit apply weights of a plurality of layers to a plurality of pixel values of the training data. When the output value is output by performing a plurality of operations, the output value and the expected value are compared, and the front recognition unit, the side recognition unit, the rear surface recognition unit and the determination are performed through a backpropagation algorithm so that the difference between the expected value and the output value is minimized. Performing perfect learning to modify negative weights
Device for providing statistical information.
제1항에 있어서,
상기 인식부는
상기 전면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 전면인식부;
상기 측면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 측면인식부;
상기 후면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 후면인식부; 및
상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 종합하여 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 판단부;를 포함하는 것을 특징으로 하는
통계 정보를 제공하기 위한 장치.
The method of claim 1,
The recognition unit
A front face recognition unit configured to receive the front image and output a probability of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant;
A side recognition unit configured to receive the side image and output a probability of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant;
A rear recognition unit configured to receive the rear image and output a probability of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant; And
And a determination unit for synthesizing the outputs of the front recognition unit, the side recognition unit, and the rear recognition unit to output a probability for the type of outdoor clothing worn by the occupant.
Device for providing statistical information.
제1항에 있어서,
상기 인식부는
상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고,
상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고,
상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시킨 후,
상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면, 측면 및 후면 영상 모두를 이용하여
상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부 모두를 학습시키는 것을 특징으로 하는
통계 정보를 제공하기 위한 장치.
The method of claim 1,
The recognition unit
Learning the front face recognition unit using a front image in which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant are known,
Learning the side recognition unit by using a side image in which the gender and age range of the inmate and the type of outdoor clothing worn by the inmate are known,
After learning the rear surface recognition unit using a rear image in which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant are known,
Using all of the front, side, and rear images of the gender and age range of the resident and the type of outdoor clothing worn by the resident
Characterized in that learning all of the front recognition unit, the side recognition unit, the rear recognition unit, and the determination unit
Device for providing statistical information.
아웃도어 의류의 통계 정보를 제공하기 위한 방법에 있어서,
카메라부가 입산자의 전면, 측면 및 후면을 촬영하여 전면 영상, 측면 영상 및 후면 영상을 생성하는 단계;
각각이 인공신경망인 상기 전면 영상을 처리하는 전면인식부와, 상기 측면 영상을 처리하는 측면인식부와, 상기 후면 영상을 처리하는 후면인식부와, 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 처리하는 판단부를 포함하는 인식부가 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 분석하여 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류를 식별하는 단계;
통계처리부가 상기 입산자의 성별 및 연령대에 따라 상기 입산자가 착용한 아웃도어 의류에 대한 통계를 생성하는 단계;를 포함하며,
상기 전면 영상, 측면 영상 및 후면 영상을 생성하는 단계 전,
상기 인식부가 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시키는 개별 학습을 수행하는 단계;
상기 인식부가 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상 중 1개 혹은 2개를 제외한 학습 데이터를 마련하고, 마련된 학습 데이터에 대해 기댓값을 설정하고, 상기 측면 영상 및 상기 후면 영상 중 1개 혹은 2개를 제외한 학습 데이터를 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부 중 대응하는 모듈에 입력하고, 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부 중 학습 데이터가 입력된 모듈 및 상기 판단부가 학습 데이터의 복수의 픽셀값에 대해 복수의 계층의 가중치(W)가 적용되는 복수의 연산을 수행하여 출력값을 출력하면, 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파 알고리즘을 통해 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부의 가중치를 수정하는 결핍 학습을 수행하는 단계;
상기 인식부가 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 모두 포함하는 학습 데이터를 마련하고, 마련된 학습 데이터에 대해 기댓값을 설정하고, 상기 정면 영상, 상기 측면 영상 및 상기 후면 영상을 모두 포함하는 학습 데이터를 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부에 입력하고, 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 판단부가 학습 데이터의 복수의 픽셀값에 대해 복수의 계층의 가중치가 적용되는 복수의 연산을 수행하여 출력값을 출력하면, 출력값과 기댓값을 비교하여, 기댓값과 출력값의 차이가 최소가 되도록 역전파 알고리즘을 통해 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부의 가중치를 수정하는 완전학습을 수행하는 단계;
를 더 포함하는 것을 특징으로 하는
통계 정보를 제공하기 위한 방법.
In a method for providing statistical information of outdoor clothing,
Generating a front image, a side image, and a rear image by a camera unit photographing the front, side, and rear of the occupant;
A front recognition unit for processing the front image, each of which is an artificial neural network, a side recognition unit for processing the side image, a rear recognition unit for processing the rear image, the front recognition unit, the side recognition unit, and the rear surface Identifying a gender and age range of the occupant and a type of outdoor clothing worn by the occupant by analyzing the front image, the side image, and the rear image by a recognition unit including a determination unit processing an output of the recognition unit;
Comprising, by a statistical processing unit, generating statistics on the outdoor clothing worn by the occupant according to the gender and age of the occupant,
Before the step of generating the front image, the side image and the back image,
The recognition unit learns the front surface recognition unit using a front image in which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant is known, and the gender and age range of the occupant and the outdoor clothing worn by the occupant Individual learning to learn the side recognition unit by using a side image of which the type of is known, and to learn the rear surface recognition unit using a rear image of which the gender and age of the occupant and the type of outdoor clothing worn by the occupant are known. Performing;
The recognition unit prepares training data excluding one or two of the front image, the side image, and the rear image, sets an expected value for the prepared learning data, and sets one or two of the side image and the rear image A module in which learning data excluding dogs is inputted to a corresponding module among the front recognition unit, the side recognition unit, and the rear recognition unit, and learning data is input from the front recognition unit, the side recognition unit, and the rear recognition unit, and When the determination unit outputs an output value by performing a plurality of operations in which the weights (W) of a plurality of layers are applied to a plurality of pixel values of the training data, the difference between the expected value and the output value is minimized by comparing the output value and the expected value. Performing deficiency learning of correcting weights of the front recognition unit, the side recognition unit, the rear recognition unit, and the determination unit through a back propagation algorithm;
Learning that the recognition unit prepares training data including all of the front image, the side image, and the rear image, sets an expected value for the prepared training data, and includes all of the front image, the side image, and the rear image Data is input to the front recognition unit, the side recognition unit, and the rear surface recognition unit, and the front recognition unit, the side recognition unit, the rear surface recognition unit, and the determination unit include a plurality of layers for the plurality of pixel values of the learning data. When the output value is output by performing a plurality of calculations to which the weight is applied, the front recognition unit, the side recognition unit, and the rear recognition unit are compared through a backpropagation algorithm so that the difference between the expected value and the output value is minimized. And performing complete learning of correcting the weight of the determination unit.
It characterized in that it further comprises
Methods for providing statistical information.
제4항에 있어서,
상기 식별하는 단계는
상기 인식부의 전면인식부가 상기 전면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계;
상기 인식부의 측면인식부가 상기 측면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계;
상기 인식부의 후면인식부가 상기 후면 영상을 입력받고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계; 및
상기 인식부의 판단부가 상기 전면인식부, 상기 측면인식부 및 상기 후면인식부의 출력을 종합하여 상기 입산자가 착용한 아웃도어 의류의 종류에 대한 확률을 출력하는 단계;를 포함하는 것을 특징으로 하는
통계 정보를 제공하기 위한 방법.
The method of claim 4,
The identifying step
Receiving the front image of the recognition unit, and outputting a probability of a gender and age range of the occupant and a type of outdoor clothing worn by the occupant;
Receiving the side image by the side recognition unit of the recognition unit, and outputting a probability of a gender and age range of the occupant and a type of outdoor clothing worn by the occupant;
Receiving the rear image and outputting a probability of a gender and age range of the occupant and a type of outdoor clothing worn by the occupant; And
And outputting a probability of a type of outdoor clothing worn by the occupant by synthesizing the output of the front recognition unit, the side recognition unit, and the rear recognition unit by the determination unit of the recognition unit.
Methods for providing statistical information.
제4항에 있어서,
상기 생성하는 단계 전,
상기 인식부가 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면 영상을 이용하여 상기 전면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 측면 영상을 이용하여 상기 측면인식부를 학습시키고, 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 후면 영상을 이용하여 상기 후면인식부를 학습시키는 단계; 및
상기 인식부가 상기 입산자의 성별 및 연령대와, 상기 입산자가 착용한 아웃도어 의류의 종류가 알려진 전면, 측면 및 후면 영상 모두를 이용하여 상기 전면인식부, 상기 측면인식부, 상기 후면인식부 및 상기 판단부 모두를 학습시키는 단계;를 더 포함하는 것을 특징으로 하는
통계 정보를 제공하기 위한 방법.
The method of claim 4,
Before the step of generating,
The recognition unit learns the front surface recognition unit by using a front image of which the gender and age range of the occupant and the type of outdoor clothing worn by the occupant is known, and the gender and age range of the occupant and the outdoor worn by the occupant Learning the side recognition unit using a side image of which a type of clothing is known, and learning the rear surface recognition unit using a rear image of which the gender and age group of the occupant and the type of outdoor clothing worn by the occupant are known; And
The recognition unit uses all of the front, side, and rear images of the gender and age range of the occupant and the type of outdoor clothing worn by the occupant to determine the front surface recognition unit, the side surface recognition unit, the rear surface recognition unit, and the determination The step of learning all of the parts; characterized in that it further comprises
Methods for providing statistical information.
제4항 내지 제6항 중 어느 한 항에 따른 통계 정보를 제공하기 위한 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. A computer-readable recording medium on which a program for performing the method for providing statistical information according to any one of claims 4 to 6 is recorded.
KR1020190008390A 2019-01-22 2019-01-22 An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded KR102197620B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008390A KR102197620B1 (en) 2019-01-22 2019-01-22 An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008390A KR102197620B1 (en) 2019-01-22 2019-01-22 An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded

Publications (2)

Publication Number Publication Date
KR20200091290A KR20200091290A (en) 2020-07-30
KR102197620B1 true KR102197620B1 (en) 2020-12-31

Family

ID=71839288

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008390A KR102197620B1 (en) 2019-01-22 2019-01-22 An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded

Country Status (1)

Country Link
KR (1) KR102197620B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191803A (en) * 2021-04-28 2021-07-30 精点视界(深圳)科技有限公司 Big data based face recognition advertisement service system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5959093B2 (en) * 2012-03-06 2016-08-02 学校法人東京電機大学 People search system
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120001506A (en) 2010-06-29 2012-01-04 이옥림 A system practicable to coordinate digital closet and to plan production by clothing acquisition data
KR101913750B1 (en) * 2016-08-10 2018-10-31 주식회사 원더풀플랫폼 System and method for fashion coordination

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5959093B2 (en) * 2012-03-06 2016-08-02 学校法人東京電機大学 People search system
JP6089157B1 (en) * 2016-06-16 2017-03-01 株式会社オプティム Clothing information providing system, clothing information providing method, and program

Also Published As

Publication number Publication date
KR20200091290A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7286010B2 (en) Human body attribute recognition method, device, electronic device and computer program
US11776092B2 (en) Color restoration method and apparatus
WO2019097749A1 (en) Computer-based system and computer-based method
Yang et al. Single image haze removal via region detection network
AU2021201933B2 (en) Hierarchical multiclass exposure defects classification in images
KR102134476B1 (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
CN109543632A (en) A kind of deep layer network pedestrian detection method based on the guidance of shallow-layer Fusion Features
CN108021897B (en) Picture question and answer method and device
KR102628898B1 (en) Method of processing image based on artificial intelligence and image processing device performing the same
CN115699082A (en) Defect detection method and device, storage medium and electronic equipment
CN113191479A (en) Method, system, node and storage medium for joint learning
CN113326735A (en) Multi-mode small target detection method based on YOLOv5
JP2021086322A (en) Image processing device, image processing method, and program
CN111582155A (en) Living body detection method, living body detection device, computer equipment and storage medium
KR102197620B1 (en) An apparatus for providing statistical information of outdoor wear, a method therefor and a computer readable recording medium on which a program for carrying out the method is recorded
KR102127946B1 (en) Device and method for person re-identification
WO2019128564A1 (en) Focusing method, apparatus, storage medium, and electronic device
KR102270899B1 (en) Apparatus and Method for Providing Missing Child Search Service based on Face Recognition using Deep-Learning
CN116580211B (en) Key point detection method, device, computer equipment and storage medium
KR102274581B1 (en) Method for generating personalized hrtf
KR102039164B1 (en) Apparatus for performing virtual fitting using multi-level artificial neural network, method thereof and computer recordable medium storing program to perform the method
KR20210048271A (en) Apparatus and method for performing automatic audio focusing to multiple objects
JP2019220174A (en) Image processing using artificial neural network
KR102039166B1 (en) Apparatus for performing virtual fitting using cyclic artificial neural network, method thereof and computer recordable medium storing program to perform the method
CN114529944A (en) Human image scene identification method combining human body key point heat map features

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right