KR20210014860A - Automated sales support system with consulting - Google Patents

Automated sales support system with consulting Download PDF

Info

Publication number
KR20210014860A
KR20210014860A KR1020190092823A KR20190092823A KR20210014860A KR 20210014860 A KR20210014860 A KR 20210014860A KR 1020190092823 A KR1020190092823 A KR 1020190092823A KR 20190092823 A KR20190092823 A KR 20190092823A KR 20210014860 A KR20210014860 A KR 20210014860A
Authority
KR
South Korea
Prior art keywords
image
customer
clothing
management server
interest
Prior art date
Application number
KR1020190092823A
Other languages
Korean (ko)
Inventor
성진택
Original Assignee
성진택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성진택 filed Critical 성진택
Priority to KR1020190092823A priority Critical patent/KR20210014860A/en
Publication of KR20210014860A publication Critical patent/KR20210014860A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • G06K9/00221
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to an automated sales support system capable of consulting and, specifically, to an automated sales support system capable of consulting capable of providing images of clothing, shoes, and hats worn through augmented reality to a visitor who visits a clothing store, a shoe store, and a hat store; photographing, storing, and managing a photograph including a character of a movie and the like; and allowing to keep the photographed image in a form of a photograph. In addition, according to the present invention, the system comprises: a display for displaying the image; a plurality of cameras photographing a customer; and a management server which extracts a movement path of the customer from the images photographed by the plurality of cameras, checks the clothing of interest from the extracted movement path, extracts the whole body image of the customer from the photographed image, synthesizes the image of the clothing of interest with the extracted whole body image, and outputs the synthesized image to the display.

Description

컨설팅이 가능한 자동 판매 지원 시스템{Automated sales support system with consulting}Automated sales support system with consulting}

본 발명은 컨설팅이 가능한 자동 판매 지원 시스템에 관한 것으로, 특히 의류 가게, 신발가게, 모자 가게 등을 방문하는 방문자에게 증강현실을 통하여 의류, 신발, 모자 등이 착용된 영상을 제공하고, 영화 등의 캐릭터를 포함한 사진을 촬영하여 저장하여 관리하고, 촬영된 영상을 사진 형태로 소지할 수 있도록 하는 컨설팅이 가능한 자동 판매 지원 시스템에 관한 것이다.The present invention relates to an automatic sales support system capable of consulting, and in particular, provides an image on which clothes, shoes, hats, etc. are worn through augmented reality to visitors who visit a clothing store, a shoe store, a hat store, etc. It relates to an automatic sales support system that enables consulting to take and store and manage a picture including a character, and to have the captured image in the form of a picture.

일반적으로 의류를 제조 및 판매하는 업체에서는 컴퓨터 시스템을 이용하여 고객들이 소정의 의류를 입은 상태를 표시하는 여러 가지의 표시시스템이 개발되어 사용되고 있다.In general, a company that manufactures and sells clothing has developed and used various display systems for displaying the state of customers wearing predetermined clothing using a computer system.

즉, 컴퓨터 시스템에 복수의 의류 영상을 미리 저장한 상태에서 의류를 구매하고자 하는 고객의 영상을 촬영하고, 촬영한 고객의 영상에 그 고객이 선택한 의류의 영상을 합성한 후 모니터 등에 표시하여 고객들이 구매할 의류를 직접 입어보지 않고서도 의류의 색상 및 디자인 등이 자기 자신에게 맞는지의 여부를 확인할 수 있도록 하고 있다.In other words, a plurality of clothing images are stored in the computer system in advance, an image of a customer who wants to purchase clothing is captured, and the image of the clothing selected by the customer is synthesized with the captured customer's image, and then displayed on a monitor. It allows you to check whether the color and design of the clothing suits you without having to try on the clothing you are going to purchase.

상기와 같이 고객을 촬영하여 의류를 합성하여 표시하는 기술의 일례가 [대한민국 공개특허 10-2004-0090791(2004.10.27.공개), "의류 코디 방법 및 장치"](이하 선행기술 1)에 개시되어 있다.An example of a technology for synthesizing and displaying clothes by photographing a customer as described above is disclosed in [Republic of Korea Patent Publication 10-2004-0090791 (published on October 27, 2004), "Clothing Coordination Method and Device"] (hereinafter, prior art 1). Has been.

상기 선행기술 1은 고객자신을 모델하여 선택된 의류를 직접 코디할 수 있는 기술에 관한 것으로서, 전자 카탈로그의 영상 중 의류 정보를 추출하여 저장하는 의류 정보 저장부; 카메라를 통해 입력되는 고객에 대한 영상 정보를 수신하여 저장하는 모델 정보 저장부; 다양한 의류 종류를 출력하고, 상기 다양한 의류 종류 중 하나가 선택되면 의류 정보를 출력하며, 고객의 영상 합성의 요구에 따라 선택된 의류 정보와 상기 모델 영상을 출력하도록 제어하는 제어부; 상기 모델 정보와 선택된 의류 정보를 합성하여 선택된 의류로 코디된 고객 영상인 합성 영상을 출력하는 영상 합성부; 및 의류 종류 및 의류 정보, 합성 영상을 표시하는 표시부로 이루어지는 기술을 개시하고 있다.The prior art 1 relates to a technology for directly coordinating selected clothing by modeling the customer himself, and includes a clothing information storage unit for extracting and storing clothing information from images of an electronic catalog; A model information storage unit for receiving and storing image information on a customer input through a camera; A control unit that outputs various types of clothing, outputs clothing information when one of the various types of clothing is selected, and controls to output selected clothing information and the model image according to a request for image synthesis from a customer; An image synthesizing unit for synthesizing the model information and the selected clothing information to output a composite image that is a customer image coordinated with the selected clothing; And a display unit that displays clothing type and clothing information, and a composite image.

또한, 고객을 촬영하여 의류를 합성하여 표시하는 기술의 다른 예가 [대한민국 공개특허 10-2004-0093576(2004.11.06.공개), "고객 맞춤형 의류영상 표시시스템 및 그 방법"](이하 선행기술 2)에 개시되어 있다.In addition, another example of a technology for synthesizing and displaying clothing by photographing a customer is [Korea Patent Laid-Open Patent 10-2004-0093576 (published on November 6, 2004), "Customer-customized clothing image display system and method"] (hereinafter, prior art 2) ).

상기 선행기술 2는 신체 크기 및 자세에 따라 의류 영상의 각 부위의 크기 및 각도를 조절한 후 고객의 영상과 합성하여 표시하는 기술에 관한 것으로서, 카메라로 고객을 촬영하고 복수의 의류 영상을 미리 저장하며, 출력 영상에 저장된 의류영상을 합성한 후 표시 패널에 표시하는 기술을 개시하고 있다. 특히, 상기 선행기술2는 출력 영상에서 배경화면을 제외하고 고객의 영상만을 추출하고, 추출한 고객 영상을 신체의 각 부위에 따라 분할하여 분할한 신체 각 부위의 영상에 따라 고객의 크기 및 자세를 판단하고, 의류 선택명령에 따라 선택되는 의류영상을 독출하여 독출한 의류영상을 판단한 고객의 크기 및 자세에 따라 편집하며, 그 편집한 의류영상에 상기 출력 영상에 합성한 후 출력하여 표시하는 기술을 개시하고 있다.The prior art 2 relates to a technology for synthesizing and displaying a customer's image after adjusting the size and angle of each part of the clothing image according to the size and posture of the body, and photographing a customer with a camera and storing a plurality of clothing images in advance. In addition, a technology for synthesizing clothing images stored in an output image and displaying them on a display panel is disclosed. In particular, the prior art 2 extracts only the customer's image excluding the background image from the output image, divides the extracted customer image according to each part of the body, and determines the size and posture of the customer according to the divided image of each part of the body. In addition, starting a technology for reading the clothing image selected according to the clothing selection command, editing the read clothing image according to the size and posture of the determined customer, and synthesizing the edited clothing image to the output image and outputting it. Are doing.

이와 같은 종래 기술은 사용자가 선택한 의류에 대하여 영상을 제공하는 것으로, 사용자가 관심을 가진 의류에 대한 정보 제공이 없어 사용자의 주의를 사로잡기에는 어려움이 있었다.Such a conventional technique provides an image for clothing selected by the user, and it is difficult to capture the user's attention because information on clothing that the user is interested in is not provided.

대한민국 공개특허 10-2004-0090791(2004.10.27.공개)Republic of Korea Patent Publication 10-2004-0090791 (published on October 27, 2004) 대한민국 공개특허 10-2004-0093576(2004.11.06.공개)Republic of Korea Patent Publication 10-2004-0093576 (published on November 6, 2004)

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 의류 가게, 신발 가게, 모자 가게를 방문하는 방문자에게 증강현실을 통하여 의복, 신발, 모자 등이 착용된 영상을 제공하고, 영화 등의 캐릭터를 포함한 사진을 촬영하여 저장하여 관리하고, 촬영된 영상을 사진 형태로 소지할 수 있도록 하는 컨설팅이 가능한 자동 판매 지원 시스템을 제공하는데 있다.The present invention is to solve the above problems, and provides an image wearing clothes, shoes, hats, etc. through augmented reality to visitors visiting a clothing store, a shoe store, and a hat store, and includes characters such as movies. The goal is to provide an automated sales support system that enables consulting to take and store and manage photos, and to hold the captured images in the form of photos.

본 발명에 따르면, 영상을 표시하는 디스플레이; 고객을 촬영하는 다수의 카메라; 및 상기 다수의 카메라에서 촬영된 영상에서 고객의 이동 경로를 추출하고, 추출된 이동 경로에서 관심 의류를 확인하며, 상기 촬영된 영상에서 고객의 전신 영상을 추출하고, 추출된 전신 영상에 관심 의류 영상을 합성하여 상기 디스플레이로 출력하는 관리 서버를 포함하는 컨설팅이 가능한 자동 판매 지원 시스템이 제공된다.According to the present invention, a display for displaying an image; Multiple cameras for photographing customers; And extracting the customer's moving path from the images captured by the plurality of cameras, checking the clothing of interest from the extracted moving path, extracting the customer's full body image from the captured image, and using the extracted body image to the clothing image of interest. An automatic sales support system capable of consulting is provided including a management server that synthesizes and outputs it to the display.

본 발명에 따르면, 옷가게, 신발 가게, 모자 가게를 방문하는 방문자에게 증강현실을 통하여 의복, 신발, 모자 등이 착용된 영상을 제공하고, 영화 등의 캐릭터를 포함한 사진을 촬영하여 저장하여 관리하고, 촬영된 영상을 사진 형태로 소지할 수 있도록 한다.According to the present invention, an image on which clothes, shoes, hats, etc. are worn through augmented reality are provided to visitors visiting a clothing store, a shoe store, and a hat store, and a picture including a character such as a movie is taken and stored and managed, Make it possible to carry the captured video in the form of a photo.

도 1 은 본 발명에 따른 컨설팅이 가능한 자동 판매 지원 시스템의 일 실시예의 구성을 도시한 블럭도이다.
도 2는 본 발명의 일실시예에 따른 영상처리부의 구성을 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따라 표시되는 영상의 기준선을 예시한 도면이다.
도 4는 본 발명의 일실시예에 따른 입력장치의 입력버튼들의 배열을 예시한 도면이다.
도 5는 본 발명의 일실시예에 따라 의류영상을 조절하여 합성하는 화면을 예시한 도면이다.
도 6 은 본 발명의 다른 실시예에 따른 컨설팅이 가능한 자동 판매 지원 시스템의 구성을 도시한 블럭도이다.
1 is a block diagram showing the configuration of an embodiment of an automatic sales support system capable of consulting according to the present invention.
2 is a block diagram showing the configuration of an image processing unit according to an embodiment of the present invention.
3 is a diagram illustrating a reference line of an image displayed according to an embodiment of the present invention.
4 is a diagram illustrating an arrangement of input buttons of an input device according to an embodiment of the present invention.
5 is a diagram illustrating a screen for synthesizing by adjusting a clothing image according to an embodiment of the present invention.
6 is a block diagram showing the configuration of an automatic sales support system capable of consulting according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다.Hereinafter, the present invention will be described in detail so that those skilled in the art can easily understand and reproduce the present invention through preferred embodiments described with reference to the accompanying drawings.

본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명 실시예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.In describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the embodiments of the present invention, the detailed description will be omitted.

본 발명 명세서 전반에 걸쳐 사용되는 용어들은 본 발명 실시예에서의 기능을 고려하여 정의된 용어들로서, 사용자 또는 운용자의 의도, 관례 등에 따라 충분히 변형될 수 있는 사항이므로, 이 용어들의 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Terms used throughout the specification of the present invention are terms defined in consideration of functions in the embodiments of the present invention, and can be sufficiently modified according to the intention and custom of the user or operator. It should be made based on the contents of

도 1 은 본 발명에 따른 컨설팅이 가능한 자동 판매 지원 시스템의 일 실시예의 구성을 도시한 블럭도이다.1 is a block diagram showing the configuration of an embodiment of an automatic sales support system capable of consulting according to the present invention.

도 1 을 참조하면, 본 발명에 따른 컨설팅이 가능한 자동 판매 지원 시스템은 영상을 표시하는 디스플레이(20), 고객을 촬영하는 다수의 카메라(30, 30a), 상기 다수의 카메라(30, 30a)에서 촬영된 영상에서 고객의 이동 경로를 추출하고, 추출된 이동 경로에서 관심 의류를 확인하며, 상기 촬영된 영상에서 고객의 전신 영상을 추출하고, 추출된 전신 영상에 관심 의류 영상을 합성하여 상기 디스플레이(20)로 출력하는 관리 서버(40)를 포함하여 구성된다. 추가적으로 데이터를 저장하기 위한 데이터베이스(50)를 더 포함하여 구성될 수 있다.Referring to FIG. 1, the automatic sales support system capable of consulting according to the present invention includes a display 20 displaying an image, a plurality of cameras 30 and 30a photographing a customer, and the plurality of cameras 30 and 30a. Extract the customer's movement path from the captured image, check the clothing of interest from the extracted movement path, extract the customer's full body image from the captured image, and synthesize the clothing image of interest with the extracted whole body image to display the display ( It is configured to include a management server 40 to output to 20). In addition, it may be configured to further include a database 50 for storing data.

상기 관리 서버(40)는 고객의 전신 영상에 관심 의류 영상이 합성된 영상을 고객의 휴대 단말기로 제공하여 고객이 실시간으로 확인할 수 있도록 할 수 있다.The management server 40 may provide an image in which an image of a clothing of interest is synthesized with a full body image of the customer to the customer's mobile terminal so that the customer can check it in real time.

이때, 관리 서버(40)는 고객이 지인들에게 전신 영상에 관심 의류 영상이 합성된 영상을 전송하여 착용한 의류가 고객에게 잘 어울리는지를 확인하기를 원하는 경우에, 해당 문의 그룹에게 해당 영상을 메시지나, 카카오톡으로 전송하고 "추천", "비추천" 메시지를 전송받아 합계를 계산하여 고객의 휴대 다말기에게 표시하여 고객의 구매시에 선택을 도와주도록 할 수 있다.At this time, when the customer wants to check whether the worn clothing suits the customer by transmitting an image in which the clothing image of interest is combined with the full-body image to acquaintances, the management server 40 sends a message to the corresponding inquiry group. B. It can be sent to KakaoTalk and received a "recommended" and "not recommended" message, calculated the total, and displayed on the customer's portable terminal to help the customer make a selection when purchasing.

한편, 디스플레이(20)는 영상을 출력하기 위한 장치로서, 액정표시장치(LCD, liquid crystal display), 플라스마 디스플레이 패널(PDP, Plasma Display Pannel) 등의 표시패널(21)을 구비한다. 이외에 영상을 출력할 수 있는 장치는 모두 디스플레이(20)에 해당한다. Meanwhile, the display 20 is a device for outputting an image and includes a display panel 21 such as a liquid crystal display (LCD) and a plasma display panel (PDP). In addition, all devices capable of outputting an image correspond to the display 20.

바람직하게는, 디스플레이(20)는 하부에 지지대(22)가 설치되고, 상기 지지대(22)는 복수의 바퀴(미도시) 등을 구비하여 용이하게 이동할 수 있게 한다. 또 다른 실시예로서, 디스플레이(20)는 벽면에 설치될 수 있다. 이때, 디스플레이(20)는 지지대(22)를 구비하지 않을 수 있다.Preferably, the display 20 has a support 22 installed at a lower portion thereof, and the support 22 is provided with a plurality of wheels (not shown) to facilitate movement. As another embodiment, the display 20 may be installed on a wall. In this case, the display 20 may not include the support 22.

한편, 디스플레이(20)는 표시패널(21)의 오른쪽 또는 왼쪽의 프레임에 입력을 받아들이기 위한 입력 버튼(23)들이 구비될 수 있다.Meanwhile, the display 20 may be provided with input buttons 23 for accepting an input in a frame on the right or left of the display panel 21.

바람직하게는, 상기 표시패널(21)은 터치스크린 방식의 패널로 구성될 수 있다. 이 경우 디스플레이(20)는 선택명령들을 터치스크린 방식으로 입력받는다. 예를 들면, 입력버튼(23)들이 표시패널(21)에 표시되고, 고객이 표시패널(21)에 표시된 입력버튼(23)들을 터치함으로써 입력이 받아들여진다.Preferably, the display panel 21 may be configured as a touch screen panel. In this case, the display 20 receives selection commands in a touch screen manner. For example, input buttons 23 are displayed on the display panel 21, and an input is accepted by a customer touching the input buttons 23 displayed on the display panel 21.

다수의 카메라(30)는 상점의 여러 구역에 설치되어 고객을 촬영하여 관리 서버(40)로 촬영된 영상을 제공한다.A plurality of cameras 30 are installed in various areas of the store to photograph customers and provide the captured images to the management server 40.

그러면, 관리 서버(40)는 얼굴 인식 기술을 이용하여 얼굴을 인식하여 고객을 식별하고, 식별된 고객의 이동 경로를 추적한다.Then, the management server 40 identifies a customer by recognizing a face using facial recognition technology, and tracks the movement path of the identified customer.

상기 관리 서버(40)는 고객의 이동 경로를 추적하는 도중에 고객이 의류(신발이나 모자도 동일)를 파지하고 신체에 밀착시키는 경우에 관심 의류(또는 관심 신발, 관심 모자)로 판단하여 상기 촬영된 영상에서 고객의 전신 영상을 추출하고, 추출된 전신 영상에 관심 의류 영상을 합성하여 상기 디스플레이(20)로 출력한다.The management server 40 determines that clothing of interest (or shoes of interest, hats of interest) is determined as the photographed when the customer grasps clothing (same shoes or hats) and puts them in close contact with the body while tracking the movement path of the customer. A full-body image of the customer is extracted from the image, and a clothing image of interest is synthesized with the extracted full-body image and output to the display 20.

이때, 신발 가게인 경우에 의류가 아니고 신발인 경우에도 동일하게 작동하며, 모자 가게인 경우에 의류가 아니고 모자인 경우에도 동일하게 작동한다.At this time, in the case of a shoe store, it operates in the same way even in the case of shoes rather than clothing, and in the case of a hat shop, it operates in the same manner in the case of hats and not clothes.

이때, 관리 서버(40)는 관심 의류를 여러가지 영상 기법을 사용하여 파악할 수 있다.At this time, the management server 40 may grasp the clothing of interest using various image techniques.

그리고, 데이터베이스(50)에 해당 관심 의류에 대한 관심 의류 영상(신발인 경우는 관심 신발 영상, 모자인 경우에는 관심 모자 영상)을 저장하고 있으며, 저장된 관심 의류 영상(또는 관심 신발 영상, 관심 모자 영상)을 관리 서버(40)로 제공한다.In addition, a clothing image of interest (a shoe image of interest in the case of shoes, an image of a hat of interest in case of a hat) is stored in the database 50, and the stored clothing image of interest (or a shoe image of interest, a hat image of interest) is stored. ) To the management server 40.

여기에서, 관리 서버(40)는 다수의 카메라(30)에서 측정된 고객 영상에서 고객의 전신 영상을 추출할 수 있다. Here, the management server 40 may extract the customer's whole body image from the customer images measured by the plurality of cameras 30.

이때, 고객의 전신 영상을 정확히 얻기 위해, 어느 하나의 카메라(30a)는 상기 디스플레이(20)에 부착되고 카메라(30a)의 렌즈 부분이 디스플레이(20)의 전면을 향하도록 설치될 수 있다. 따라서 카메라(30a)는 디스플레이(20)의 전면을 촬상할 수 있다. In this case, in order to accurately obtain a full-body image of the customer, any one camera 30a may be attached to the display 20 and the lens portion of the camera 30a may be installed to face the front of the display 20. Accordingly, the camera 30a can take an image of the front of the display 20.

바람직하게는, 카메라(30a)는 디스플레이(20)의 상단 중앙에 부착된다. 정면에 위치한 고객의 영상을 좌우 대칭이 되도록 촬상할 수 있기 때문이다.Preferably, the camera 30a is attached to the top center of the display 20. This is because the image of the customer located in front can be photographed in a symmetrical way.

바람직하게는, 디스플레이(20) 전면에서 일정한 거리가 떨어진 곳에 위치선이 바닥에 표시될 수 있다. 상기 위치선은 고객이 촬상될 때 위치하여야 할 곳을 표시하는 선이다. 고객(10)이 위치하는 곳을 알기 때문에, 촬상된 고객의 영상으로부터 고객(10)의 키, 폭 등 크기를 알 수 있다.Preferably, a location line may be displayed on the floor at a certain distance away from the front of the display 20. The location line is a line indicating a location to be located when the customer is photographed. Since the location of the customer 10 is known, the size of the customer 10, such as height, width, etc., can be known from the captured image of the customer.

관리 서버(40)는 컴퓨터 연산기능을 구비한 장치로서, 상기 디스플레이(20)와 다수의 카메라(30, 30a)를 제어한다. 이를 위해, 관리 서버(40)는 디스플레이(20)와 카메라(30, 30a)와 각각 연결된다.The management server 40 is a device equipped with a computer operation function and controls the display 20 and a plurality of cameras 30 and 30a. To this end, the management server 40 is connected to the display 20 and the cameras 30 and 30a, respectively.

바람직하게는, 관리 서버(40)는 개인용 컴퓨터(PC), 노트북 등 컴퓨터 단말에서 구동되는 프로그램 등에 의해 구현될 수 있다. 또, 전용단말로 구현될 수도 있다. 더욱 바람직하게는, 관리 서버(40)는 상기 디스플레이(20)에 내장되어 구현될 수도 있다. 예를 들면, 칩 형태나 PCB보드 형태로 제작되어 디스플레이(20)에 내장될 수 있다.Preferably, the management server 40 may be implemented by a program running on a computer terminal such as a personal computer (PC) or a notebook computer. In addition, it may be implemented as a dedicated terminal. More preferably, the management server 40 may be implemented by being built into the display 20. For example, it may be manufactured in the form of a chip or a PCB board and embedded in the display 20.

한편, 데이터베이스(50)는 관심 의류에 대한 정보를 저장하는 의류정보DB(51), 고객에 대한 정보를 저장하는 고객정보 DB(52)로 이루어진다. 그러나 상기 데이터베이스(50)의 구성은 바람직한 일실시예일 뿐이며, 구체적인 장치를 개발하는데 있어서, 접근 및 검색의 용이성 및 효율성 등을 감안하여 데이터베이스 구축이론에 의하여 다른 구조로 구성될 수 있다.Meanwhile, the database 50 includes a clothing information DB 51 that stores information on clothing of interest and a customer information DB 52 that stores information about customers. However, the configuration of the database 50 is only a preferred embodiment, and may be configured in a different structure according to the database construction theory in consideration of the ease and efficiency of access and search in developing a specific device.

다음으로, 본 발명의 일실시예에 따른 관리 서버(40)의 구체적인 구성을 도 2를 참조하여 설명한다.Next, a specific configuration of the management server 40 according to an embodiment of the present invention will be described with reference to FIG. 2.

도 2에서 보는 바와 같이, 촬상영상 입력부(41), 고객영상 추출부(42), 영상기준 표시부(43), 의류영상 표시부(44), 의류영상 조절부(45), 영상합성부(46)를 포함하여 구성된다.As shown in FIG. 2, a captured image input unit 41, a customer image extraction unit 42, an image reference display unit 43, a clothing image display unit 44, a clothing image adjustment unit 45, an image synthesis unit 46 Consists of including.

촬상영상 입력부(41)는 카메라(30a)를 제어하여 상기 디스플레이(20) 전면에 위치하는 고객(10)의 영상을 촬상한다.The captured image input unit 41 captures an image of the customer 10 located in front of the display 20 by controlling the camera 30a.

전술한 바와 같이, 디스플레이(20) 전면으로부터 일정한 거리에 고객이 서 있어야 하는 위치선이 바닥에 그려진다. 따라서 카메라(30a)의 포커싱(촛점)도 상기 위치선의 거리에 맞추는 것이 바람직하다. 또, 카메라(30a)는 자동 포커싱 기능을 구비하여 위치선 지점 근처에 물체가 잡히는 경우, 그 물체를 대상으로 초점을 맞춘다.As described above, a location line where the customer should stand at a certain distance from the front of the display 20 is drawn on the floor. Therefore, it is preferable that the focusing (focusing) of the camera 30a is also adjusted to the distance of the position line. Further, the camera 30a has an automatic focusing function to focus on the object when an object is caught near the position line point.

또한, 촬상영상 입력부(41)는 다수의 카메라(30)를 제어하여 고객(10)의 영상을 촬영하여 촬영된 고객의 영상을 입력받는다.In addition, the captured image input unit 41 controls a plurality of cameras 30 to capture an image of the customer 10 to receive the captured image of the customer.

촬상영상 입력부(41)는 이처럼 카메라(30, 30a)로 하여금 고객(10)의 영상을 촬상하게 하고, 촬상된 영상을 입력받아 처리가능한 형태의 디지털 이미지 데이터로 변환하여 저장한다. 카메라(30, 30a)가 자체적으로 디지털 이미지를 전처리하는 경우, 그 이미지 데이터 값을 그대로 저장할 수도 있다.In this way, the captured image input unit 41 causes the cameras 30 and 30a to capture an image of the customer 10, receives the captured image, and converts it into digital image data in a form that can be processed and stores it. When the cameras 30 and 30a themselves pre-process a digital image, the image data value may be stored as it is.

고객영상 추출부(42)는 상기 촬영된 영상에서 고객(10)의 영상을 추출하여, 얼굴을 인식하고, 전신 영상을 얻는다.The customer image extraction unit 42 extracts an image of the customer 10 from the captured image, recognizes a face, and obtains a full body image.

이를 위하여, 고객영상 추출부(42)는 질감 특징맵 추출부(미도시), 얼굴 검출부(미도시), 얼굴 인식부(미도시) 등을 포함할 수 있다.To this end, the customer image extracting unit 42 may include a texture feature map extracting unit (not shown), a face detection unit (not shown), a face recognition unit (not shown), and the like.

먼저, 질감 특징 맵 추출부는 촬상영상 입력부(41)를 통해 입력되는 영상에서의 국부 질감 특징 맵을 추출한다.First, the texture feature map extraction unit extracts a local texture feature map from an image input through the captured image input unit 41.

질감 특징 맵 추출부에서는 촬상영상 입력부(41)를 통해서 입력된 영상이 있을 경우에, 영상의 질감 특징을 추출하기 위하여, 국부 블록 질감 특징 패턴을 기반으로 질감 특징 값을 추출되게 된다.When there is an image input through the captured image input unit 41, the texture feature map extraction unit extracts a texture feature value based on the local block texture feature pattern in order to extract the texture feature of the image.

이때, 대표적인 국부 블록 질감 패턴의 예로서 국부 이진 패턴(local binary pattern)이 있다. 이러한 국부 이진 패턴 값을 이용하여 질감 특징 맵을 생성하기 위해 입력 영상에서 각각의 국부 영역에 대해 중심과 이웃하는 픽셀 값들 사이의 크기 비교를 통해 이진 부호를 얻게 되고, 이진 부호의 십진화를 통해서 특징 값이 계산되게 된다. 이때, 질감 특징 맵은 입력 영상으로부터 얻은 질감 특징 값을 갖는 영상을 의미한다. 질감 특징 값 연산 후에 모든 입력 영상의 픽셀 값에 대해 질감 특징 값을 갖는 영상을 얻게 되고 이러한 질감 특징 값으로 이루어지는 질감 특징 맵은 얼굴 검출부 및 얼굴 인식부의 입력으로 들어가게 된다.At this time, as an example of a representative local block texture pattern, there is a local binary pattern. In order to generate a texture feature map using these local binary pattern values, a binary code is obtained through size comparison between the center and neighboring pixel values for each local area in the input image, and the feature is characterized by decimating the binary code. The value is calculated. In this case, the texture feature map refers to an image having a texture feature value obtained from an input image. After calculating the texture feature values, an image having texture feature values is obtained for pixel values of all input images, and a texture feature map made of these texture feature values is input to the face detection unit and the face recognition unit.

얼굴 검출부는 질감 특징 맵을 기초로 입력 영상에서 얼굴 영역을 검출한다. 즉, 얼굴 검출부는 질감 특징 맵에 기반하여 상기 입력 영상에서 얼굴 검출을 위하여 스캔하는 일정 크기의 원도우(window)에 대한 국부 블록 질감 특징 벡터를 산출하고, 국부 블록 질감 특징 벡터를 기설정된 기준 특징 벡터와 매칭하여 입력 영상에서 얼굴 영역을 검출한다.The face detection unit detects a face area in the input image based on the texture feature map. That is, the face detection unit calculates a local block texture feature vector for a window of a predetermined size to be scanned for face detection in the input image based on the texture feature map, and uses the local block texture feature vector as a preset reference feature vector. Matching with, detects a face area in the input image.

또한, 얼굴 검출부는, 질감 특징 맵으로부터 이진맵을 생성하고, 이와 같이 생성된 이진맵을 적분하여 적분 특징 맵을 추출하며, 추출된 적분 특징맵으로부터 입력 영상의 모든 국부 블록에 대한 국부 블록 질감 특징 벡터를 산출한다.In addition, the face detection unit generates a binary map from the texture feature map, integrates the generated binary map to extract the integral feature map, and local block texture features for all local blocks of the input image from the extracted integral feature map. Yields a vector.

이때, 얼굴 검출부는 적분 특징맵을 기반으로 각각의 입력 영상에 대해서 일정 크기의 윈도우를 스캔하면서 각 윈도우 내에서 미리 정의된 n개의 국부 블록에 대해 국부 블록 질감 특징값의 빈도를 세어 각 국부 블록에 해당하는 히스토그램 벡터를 생성하고, 각 국부 블록에 대한 히스토그램 벡터를 연결시켜 윈도우에 해당하는 국부 블록 질감 특징 벡터를 산출한다At this time, the face detection unit scans a window of a certain size for each input image based on the integrated feature map, counts the frequency of the local block texture feature values for n predefined local blocks within each window, A corresponding histogram vector is generated, and a local block texture feature vector corresponding to the window is calculated by concatenating the histogram vectors for each local block.

한편, 얼굴 인식부는 얼굴 인식을 수행하여야 하는 입력 영상에 대해 질감특징맵 추출부로부터 질감 특징맵을 수신하고, 얼굴 검출부로부터 해당 입력 영상에 대한 질감 특징 벡터를 수신한다.Meanwhile, the face recognition unit receives a texture feature map from the texture feature map extraction unit for an input image to be subjected to face recognition, and receives a texture feature vector for the input image from the face detection unit.

이어, 얼굴 인식부는 질감 특징맵과 얼굴 검출부에서 얼굴영역의 검출을 위해 산출된 질감특징벡터를 재사용하여 얼굴인식을 수행한다.Subsequently, the face recognition unit performs face recognition by reusing the texture feature map and the texture feature vector calculated for detection of the face region by the face detection unit.

즉, 얼굴 인식부는 특징벡터와 사전에 마련된 얼굴 데이터베이스(data base)사이의 매칭을 통해 얼굴인식을 수행하게 되고, 매칭 결과에 따라 가장 가까운 신원 정보에 해당하는 얼굴 인식 결과를 출력하게 된다.That is, the face recognition unit performs face recognition through matching between a feature vector and a face database (data base) prepared in advance, and outputs a face recognition result corresponding to the nearest identity information according to the matching result.

이때, 데이터베이스(50) 상에는 예를 들어 인식하고자 하는 대상 얼굴들의 템플릿 특징 벡터가 저장되어 있을 수 있으며, 얼굴 검출시에 마찬가지로 질감 특징 벡터와 템플릿 특징 벡터간 유클리드 거리를 미리 정의된 임계값과 비교하여 상기 얼굴 영역에서 얼굴을 인식할 수 있다.At this time, in the database 50, for example, template feature vectors of target faces to be recognized may be stored, and the Euclidean distance between the texture feature vector and the template feature vector is compared with a predefined threshold value similarly when face is detected. A face can be recognized in the face area.

한편, 고객영상 추출부(42)는 다수의 카메라(30)를 깊이 카메라로 구현하여, 고객(10)의 자세를 촬영하여, 신체의 밸런스를 판단하고, 이를 적용한 3D 모델을 생성해 의류 영상 표시부(44)로 출력한다.On the other hand, the customer image extracting unit 42 implements a plurality of cameras 30 as depth cameras, photographs the posture of the customer 10, determines the balance of the body, and generates a 3D model applying this to a clothing image display unit. Output as (44).

생성된 3D 모델에서 관심부위(예를 들면 허리)를 직교하도록 관통하는 평편으로 슬라이스 했을 때 평면과 3D 모델이 교차하는 부위의 둘레를 측정하면 관심부위의 사이즈를 측정할 수 있다.In the created 3D model, when sliced into a plane that passes through the area of interest (for example, waist) orthogonal to each other, the size of the area of interest can be measured by measuring the perimeter of the area where the plane and the 3D model intersect.

이때 외부적인 요인(예를 들면 두꺼운 옷, 조명으로 인한 에러)에 의해서 오차가 발생하게 되는데 실제 둘레와 3D 모델 상에서 측정된 둘레의 오차범위가 0.6~0.7인치 정도로 측정될 수 있다.At this time, errors occur due to external factors (for example, errors due to thick clothes or lighting), and the error range between the actual circumference and the circumference measured on the 3D model can be measured to be about 0.6 to 0.7 inches.

한편, 영상기준 표시부(43)는 추출된 고객(10)의 영상을 다수의 기준선(61,62)에 의해 구분하여 디스플레이(20)에 표시한다. 기준선은 가로기준선(61)과 세로기준선(62)으로 구분된다.Meanwhile, the image reference display unit 43 divides the extracted image of the customer 10 by a plurality of reference lines 61 and 62 and displays it on the display 20. The reference line is divided into a horizontal reference line 61 and a vertical reference line 62.

예를 들면, 도 3에서 보는 바와 같이, 영상기준 표시부(43)는 목, 허리, 신발(또는 발목)을 중심으로 하는 가로 기준선(61)과 고객의 중심을 기준으로 하는 세로 기준선(62)으로 고객(10)의 영상을 구분한다.For example, as shown in FIG. 3, the image reference display unit 43 includes a horizontal reference line 61 centered on the neck, waist, and shoes (or ankle) and a vertical reference line 62 based on the center of the customer. Distinguish the image of the customer 10.

그 외 기준선은 더 세분화될 수도 있다. 예를 들어, 상체는 겨드랑이를 중심으로 더 세분화하여 구분할 수도 있고, 하체는 바지사이 힙(엉덩이)을 중심으로 더 세분화하여 구분될 수도 있다.Other baselines may be further subdivided. For example, the upper body may be further subdivided around the armpits, and the lower body may be further subdivided around the hips (hips) between the pants.

기준선으로 구분하는 이유는 의류에 전문적인 지식을 가지지 않는 고객이 직관적으로 자신의 의류 착용의 특징을 선택할 수 있는 가장 좋은 방법 중 하나이기 때문이다. 또, 의류영상을 고객영상과 겹칠 때, 기준선(61,62)은 겹치게 하는 기준이 된다.The reason for classification by the baseline is that it is one of the best ways for customers who do not have expertise in clothing to intuitively select the characteristics of their clothing. In addition, when the clothing image is overlapped with the customer image, the reference lines 61 and 62 become a criterion for overlapping.

처음에 고객이 이 기준선(61,62)에 맞춰 서게 된다. 하지만 기준선(61,62) 에 못 미치는 부분이나 더 큰 부분에 대해서는 입력버튼(71)을 눌러 기준선(61,62)을 늘리거나 줄이거나 할 수 있다. 예를 들어, 디스플레이(20)에 표시되는 기준선(61,62)이 고객의 허리와 비교했을 때. 고객의 허리가 더 위에 있을 경우 입력버튼(71)을 눌러 허리 기준선을 고객의 허리에 맞출 수 있다.Initially, the customer stands against this baseline (61,62). However, for portions that are less than or larger than the reference lines 61 and 62, the reference lines 61 and 62 can be increased or decreased by pressing the input button 71. For example, when the reference lines 61 and 62 displayed on the display 20 are compared to the waist of the customer. When the customer's waist is higher, pressing the input button 71 can match the waist reference line to the customer's waist.

이 기준선(61,62)을 고객영상에 맞춘 후 고객이 관심을 갖는 관심 의류의 관심 의류 영상을 불러올 수 있다.After matching the reference lines 61 and 62 with the customer image, the clothing image of interest of the clothing of interest to the customer may be called.

즉, 의류영상 표시부(44)는 상기 기준선(61,62)에 의해 구분된 영역에 맞도록 관심 의류 영상을 겹쳐지게 디스플레이(20)에 표시한다. 이때, 의류영상 표시부(44)는 관심 의류영상을 기준선(61,62)에 의해 겹쳐지게 한다.That is, the clothing image display unit 44 displays the clothing image of interest on the display 20 so as to fit in the area divided by the reference lines 61 and 62. At this time, the clothing image display unit 44 overlaps the clothing image of interest by the reference lines 61 and 62.

예를 들어, 도 3과 같이, 상의는 목과 허리의 기준선 안에 들어가도록 표시되고, 하의는 허리와 신발 사이의 기준선 안에 들어가도록 표시한다. 또는, 바지의 밸트 부분을 상기 허리 기준선과 일치하도록 의류영상을 표시한다.For example, as shown in FIG. 3, the top is marked to fit within the baseline of the neck and the waist, and the bottom is marked to fit within the baseline between the waist and the shoe. Alternatively, a clothing image is displayed so that the belt portion of the trousers coincides with the waist reference line.

한편, 의류영상 표시부(44)는 데이터베이스(50)에 저장된 의류정보들 중 고객에 의해 관심을 갖는 관심 의류 영상을 가져와서, 가져온 관심 의류영상을 디스플레이(20)에 표시한다. 관심 의류정보는 분류 또는 검색어와 함께 데이터베이스(50)에 저장되어, 고객이 분류 또는 검색어 등으로 원하는 의류를 쉽게 찾아보도록 한다. 일례로 상의에 대한 의류정보는 성별, 사이즈, 긴팔/짧은 팔, 난방/셔츠(종류), 청바지/면바지(재질) 등으로 구분되어 저장된다.On the other hand, the clothing image display unit 44 retrieves the clothing image of interest that the customer is interested in among the clothing information stored in the database 50 and displays the imported clothing image of interest on the display 20. The clothing information of interest is stored in the database 50 together with the classification or search word, so that the customer can easily find the desired clothing by classification or search word. For example, clothing information for a top is divided into gender, size, long/short arm, heating/shirt (type), jeans/cotton pants (material), and stored.

한편, 의류영상 표시부(44)는 관심 의류의 크기를 조절하는 경우, 의류 영상을 반투명하게 상기 고객(10)의 영상과 겹쳐지게 보이도록 표시한다. 도 5a에 표시되는 바와 같이, 관심 의류 영상이 반투명으로 표시되므로, 뒤에 표시되는 고객영상이 비추어져 보여진다.Meanwhile, when the size of the clothing of interest is adjusted, the clothing image display unit 44 displays the clothing image to be semi-transparently overlapped with the image of the customer 10. As shown in FIG. 5A, since the image of the clothing of interest is displayed as translucent, the image of the customer displayed behind is projected and shown.

이로 인해, 고객(10)은 관심 의류 영상 뿐만 아니라 뒤에 위치한 고객 영상도 한꺼번에 볼 수 있다. 이것은 전술한 바와 같이, 고객(10)이 관심 의류 영상을 줄이거나 늘릴 때 자신의 신체에 비하여 어느 정도 줄이거나 늘리는지를 확인할 수 있다.Accordingly, the customer 10 can view not only the image of the clothing of interest, but also the image of the customer located behind it at once. As described above, when the customer 10 reduces or increases the clothing image of interest, it is possible to check how much the customer 10 decreases or increases compared to his/her body.

의류영상 조절부(45)는 상기 구분된 영역별로 고객의 입력을 받아 표시된 관심 의류 영상의 크기를 조절한다. 특히, 의류영상 조절부(45)는 상기 기준선(61,62)에 의해 구분되는 영역별로 좌우 또는 상하의 입력을 받아 관심 의류의 좌우 길이 또는 상하 길이를 조절한다.The clothing image adjustment unit 45 adjusts the size of the displayed clothing image of interest by receiving a customer's input for each of the divided regions. In particular, the clothing image adjustment unit 45 adjusts the left and right length or the vertical length of the clothing of interest by receiving an input of left and right or up and down for each area divided by the reference lines 61 and 62.

바람직하게는, 도 4에서 보는 바와 같이, 터치스크린 방식에 의해, 의류영상을 조절하는 입력장치(70)들이 디스플레이(20)의 화면에 표시된다. 터치스크린에 표시된 입력장치(70)는 상하좌우 늘리거나 줄이는 입력버튼, 의류영상을 상하좌우로 이동시키는 입력버튼 등을 포함한다.Preferably, as shown in FIG. 4, input devices 70 for controlling a clothing image are displayed on the screen of the display 20 by a touch screen method. The input device 70 displayed on the touch screen includes an input button that increases or decreases vertically, left and right, and an input button that moves a clothing image up and down, left and right.

상기 입력장치(70)들은 구분된 영역별로 조절할 수 있도록 입력버튼들이 나누어 배치된다. 바람직하게는, 표시된 고객영상 또는 의류영상의 영역이 선택되면, 선택된 영역의 의류와 관련된 입력버튼들이 표시될 수 있다.The input devices 70 are arranged by dividing input buttons so as to be adjusted for each divided area. Preferably, when an area of the displayed customer image or clothing image is selected, input buttons related to clothing in the selected area may be displayed.

도 4에 표시되는 버튼들을 설명하면 다음과 같다.The buttons displayed in FIG. 4 will be described as follows.

"목선UP", "목선Down" 등은 목선, 허리선, 발목선 업버튼 또는 다운버튼은 각각 기준선을 상하로 조절하는 버튼이다. 또, "셔츠"버튼 아래에 있는 버튼들은 상의 의류영상이 맞지 않는 경우, 좌우 또는 상하로 이동하거나 좌우 또는 상하로 늘리는 버튼들이다. "바지"버튼 아래에 있는 버튼들은 하의 의류영상을 조절하기 위한 버튼들이다."Neckline UP", "Neckline Down", etc. are buttons for adjusting the reference line up and down, and the neckline, waistline, and ankle line up button or down button respectively. In addition, the buttons under the "shirt" button are buttons that move left or right or up and down, or stretch left or right or up and down when the upper garment image does not fit. The buttons under the "Pants" button are buttons for adjusting the image of the clothing under the clothing.

영상합성부(46)는 완료 입력을 받으면, 상기 의류 영상을 상기 의류 영상과 합성한다.When receiving a completion input, the image synthesizing unit 46 synthesizes the clothing image with the clothing image.

도 5b에서 보는 바와 같이, 영상합성부(46)는 의류영상을 조절할 때 표시되던 반투명 상태를 불투명 상태로 전환한다. 또, 상의가 아래 끝단이 하의 안으로 들어가게 입혀지거나, 밖으로 들어나는 등의 경우에는, 안쪽에 들어가는 상의 또는 하의 부분은 보여지지 않게 표시된다. 이렇게 함으로써, 고객이 실제 입은 느낌을 받을 수 있다.As shown in FIG. 5B, the image synthesizing unit 46 converts the translucent state displayed when adjusting the clothing image to an opaque state. In addition, in the case where the top is covered with the lower end of the bottom inward or outward, the top or bottom part entering the inside is displayed invisible. By doing this, you can get the feeling the customer is actually wearing.

또한, 영상합성부(46)는 의류영상과 합성된 고객영상을 배경영상에 합쳐 디스플레이(20)에 표시한다. 이로써, 디스플레이(20)는 마치 거울과 같이 비춰질 수 있다.In addition, the image synthesizing unit 46 combines the clothing image and the synthesized customer image with the background image and displays it on the display 20. Accordingly, the display 20 can be illuminated like a mirror.

한편, 고객(10)은 휴대 단말기를 구비할 수 있으면, 구비된 휴대 단말기에 증강현실을 이용한 거울 서비스 시스템을 지원하기 위한 앱(App)이 설치되어 있다.On the other hand, if the customer 10 can have a portable terminal, an App for supporting a mirror service system using augmented reality is installed in the equipped portable terminal.

그리고, 고객(10)은 앱을 설치할 때에 얼굴을 촬영하여 촬영된 얼굴 영상을 관리 서버(40)로 전송한다.Then, the customer 10 photographs a face when installing the app and transmits the photographed face image to the management server 40.

이처럼 고객(10)이 촬영한 얼굴 영상을 제공하면, 관리 서버(40)는 고객(10)이 옷가게 등에 들어오는 경우에 고객의 신원을 확인할 수 있다.If the customer 10 provides the photographed face image as described above, the management server 40 can check the identity of the customer when the customer 10 enters a clothing store.

한편, 옷가게의 의류에는 NFC 태그가 구비되어 있으며, 고객(10)이 소지한 휴대 단말기는 의류에 구비된 NFC 태그를 읽어 태크 정보를 전송한다.Meanwhile, an NFC tag is provided on the clothing of the clothing store, and the mobile terminal possessed by the customer 10 reads the NFC tag provided on the clothing and transmits the tag information.

이때, 고객(10)이 소지한 휴대 단말기는 고객(10)이 접근한 의류들에 부착된 NFC 태그들의 태크 정보를 읽어 전송하게 되며, 관리 서버(40)는 태크 정보와 카메라(30)에서 촬영된 영상 정보를 이용하여 관심 의류를 식별할 수 있다.At this time, the mobile terminal possessed by the customer 10 reads and transmits tag information of NFC tags attached to the clothes accessed by the customer 10, and the management server 40 takes the tag information and the camera 30 Clothing of interest can be identified by using the generated image information.

일반적으로, NFC 기술을 이용하는 RF 장치는 RF 신호의 수신 감도가 최대인 위치가 존재하며, 최대 위치에서 멀어질수록 수신 감도가 작아지는 특성을 갖는다. 본 발명에서는 이런 특징을 이용해 수신된 NFC 신호의 수신 감도를 측정하여 휴대단말기와 NFC 태그 사이의 거리를 측정할 수 있다. 또한, 휴대 단말기와 NFC 태그 사이에는 NFC 태그를 제거하기 전까지 NFC 신호을 계속 교환한다. 이때, 휴대 단말기는 NFC 태그로부터 수신된 신호의 감도를 측정할 수 있고, NFC 태그와의 거리를 실시간으로 측정할 수 있다. 이를 통하여, 고객(10)이 의류를 파지하고 이동시키면 휴대 단말기는 NFC 태그의 거리 변화를 실시간으로 측정하게 되고, 영상 처리부(40)는 이를 기초로 고객(10)이 파지하고 신체에 밀착중인 관심 의류인지를 판단할 수도 있다.In general, an RF device using NFC technology has a location in which the reception sensitivity of an RF signal is maximum exists, and as the distance from the maximum location increases, the reception sensitivity decreases. In the present invention, the distance between the mobile terminal and the NFC tag can be measured by measuring the reception sensitivity of the received NFC signal using this feature. In addition, NFC signals are continuously exchanged between the mobile terminal and the NFC tag until the NFC tag is removed. In this case, the mobile terminal may measure the sensitivity of the signal received from the NFC tag, and may measure the distance to the NFC tag in real time. Through this, when the customer 10 grips and moves the clothing, the mobile terminal measures the change in distance of the NFC tag in real time, and the image processing unit 40 is based on this, and the customer 10 holds the interest in close contact with the body. You can also determine whether it is clothing.

도 6 은 본 발명의 다른 실시예에 따른 컨설팅이 가능한 자동 판매 지원 시스템의 구성을 도시한 블럭도이다.6 is a block diagram showing the configuration of an automatic sales support system capable of consulting according to another embodiment of the present invention.

도 6에 도시한 바와 같이, 본 발명의 실시예에 따른 컨설팅이 가능한 자동 판매 지원 시스템(100)은 사진 촬영부(110)와, 객체 저장부(120)와, 이미지 인식부(130)와, 객체 식별부(140)와, 객체 독출부(150)와, 객체 합성부(160)와, 사진 저장부(170)와, 표시부(180), 인쇄부(190), 발매기(200), 문의부(210) 및 관리 서버(40)를 포함하여 이루어진다.As shown in Fig. 6, the automatic sales support system 100 capable of consulting according to an embodiment of the present invention includes a photo taking unit 110, an object storage unit 120, an image recognition unit 130, and An object identification unit 140, an object reading unit 150, an object synthesis unit 160, a photo storage unit 170, a display unit 180, a printing unit 190, a ticket machine 200, an inquiry unit It consists of including (210) and a management server (40).

여기에서, 사진 촬영부(110)와, 객체 저장부(120)와, 이미지 인식부(130)와, 객체 식별부(140)와, 객체 독출부(150)와, 객체 합성부(160)와, 사진 저장부(170)는 스마트 폰 등으로 구현되는 고객(10)의 휴대 단말기에 포함되어 어플 형태로 구현될 수 있다.Here, the photo taking unit 110, the object storage unit 120, the image recognition unit 130, the object identification unit 140, the object reading unit 150, the object synthesis unit 160, and , The photo storage unit 170 may be included in the mobile terminal of the customer 10 implemented as a smart phone and implemented in the form of an application.

상기 사진 촬영부(110)는 사진 촬영 구역(Photo Zone)의 사진을 촬영한다. 예컨대, 상기 사진 촬영부(110)가 CCD 카메라를 통해 사진 촬영 구역(Photo Zone)의 사진을 촬영하도록 구현될 수 있다.The photo taking unit 110 takes a picture of a photo zone. For example, the photo taking unit 110 may be implemented to take a picture of a photo zone through a CCD camera.

이때, 고객(10)은 휴대 단말기를 이용하여 신체에 합성되기를 원하는 관심 의류를 선택하여 NFC 태그 정보를 읽어 관리 서버(40)로 전송한다.In this case, the customer 10 reads the NFC tag information by selecting the clothing of interest that he wants to be synthesized in the body using the mobile terminal and transmits the information to the management server 40.

이때, 사진 촬영 구역은 가상의 2D 및 3D 객체가 포함된 증강 현실 사진을 찍을 수 있도록 설정된 영역으로, 객체 식별을 위한 배경 이미지가 배치된다.In this case, the photographing area is an area set to take an augmented reality photo including virtual 2D and 3D objects, and a background image for object identification is disposed.

예컨대, 배경 이미지는 대화면 디스플레이상에 재생되는 형태로 구현될 수 있다.For example, the background image may be implemented in the form of being reproduced on a large screen display.

상기 객체 저장부(120)는 배경 이미지에 대응하는 객체들을 저장한다. 예컨대, 상기 객체 저장부(120)가 플래시 메모리(Flash Memory) 등의 비휘발성 메모리 형태로 구현될 수 있다. 한편, 상기 객체가 정지 또는 움직임 객체일 수 있다.The object storage unit 120 stores objects corresponding to a background image. For example, the object storage unit 120 may be implemented in the form of a nonvolatile memory such as a flash memory. Meanwhile, the object may be a stationary or moving object.

이러한 객체는 상기 이미지 인식부(130)가 상기 사진 촬영부(110)에 의해 촬영되는 사진으로부터 배경 이미지를 인식하여 관리 서버(40)로 전송하여 관리 서버(40)로부터 해당 객체를 전송받아 저장하여 관리할 수 있다.The image recognition unit 130 recognizes a background image from the picture taken by the photo taking unit 110 and transmits it to the management server 40 to receive and store the corresponding object from the management server 40. Can be managed.

상기 이미지 인식부(130)는 상기 사진 촬영부(110)에 의해 촬영되는 사진으로부터 배경 이미지 및 고객을 인식한다. 이때, 상기 이미지 인식부(130)에 의해 인식된 배경 이미지에 대응하는 2D 및 3D 객체가 다수개일 수 있다.The image recognition unit 130 recognizes a background image and a customer from a picture taken by the photo taking unit 110. In this case, there may be a plurality of 2D and 3D objects corresponding to the background image recognized by the image recognition unit 130.

예컨대, 상기 이미지 인식부(130)가 사진에 포함되는 대화면 디스플레이에 의해 재생되는 배경 이미지 자체를 인식하거나 또는 배경 이미지의 특정 위치에 부착된 고유의 태그를 인식함으로써 배경 이미지를 인식하도록 구현될 수 있다.For example, the image recognition unit 130 may be implemented to recognize a background image by recognizing a background image itself reproduced by a large screen display included in a photo or by recognizing a unique tag attached to a specific position of the background image. .

한편, 상기 이미지 인식부(130)가 특징점 추출(Feature Point Extraction) 기반 객체 인식을 통해 사진으로부터 고객을 인식하도록 구현될 수 있다.Meanwhile, the image recognition unit 130 may be implemented to recognize a customer from a photo through object recognition based on Feature Point Extraction.

예컨대, 상기 이미지 인식부(130)가 신체에 대한 특징점을 추출하여 사진으로부터 고객을 인식하도록 구현될 수 있다.For example, the image recognition unit 130 may be implemented to recognize a customer from a photo by extracting a feature point for a body.

상기 객체 식별부(140)는 상기 이미지 인식부(130)에 의해 인식된 배경 이미지에 대응하는 객체를 식별한다. 예컨대, 상기 이미지 인식부(130)에 의해 인식된 배경 이미지가 영화 '타이타닉 이미지'라면, 상기 객체 식별부(140)가 '타이타닉 이미지'에 대응하는 '디카프리오', '윈슬렛', '제인' 등과 같은 배우들을 2D 및 3D 객체로 식별할 수 있다.The object identification unit 140 identifies an object corresponding to the background image recognized by the image recognition unit 130. For example, if the background image recognized by the image recognition unit 130 is a movie'Titanic image', the object identification unit 140 may use'DiCaprio','Winslet', and'Jane' corresponding to the'Titanic image'. The same actors can be identified as 2D and 3D objects.

상기 객체 독출부(150)는 상기 객체 식별부(140)에 의해 식별되는 객체를 상기 객체 저장부(120)로부터 독출한다. 이때, 배경 이미지에 대응하는 객체가 다수일 경우, 상기 객체 독출부(150)가 배경 이미지에 대응하는 다수의 객체에 대한 리스트를 표시하고, 이들 중 적어도 하나의 객체를 사용자로부터 선택받고, 선택된 객체를 객체 저장부(120)로부터 독출하도록 구현될 수 있다.The object reading unit 150 reads the object identified by the object identification unit 140 from the object storage unit 120. At this time, when there are a plurality of objects corresponding to the background image, the object reading unit 150 displays a list of a plurality of objects corresponding to the background image, at least one object is selected from the user, and the selected object May be implemented to read from the object storage unit 120.

상기 객체 합성부(160)는 상기 객체 독출부(150)에 의해 독출되는 객체를 상기 이미지 인식부(130)에 의해 인식된 고객 주변에 합성한다.The object synthesis unit 160 synthesizes the object read by the object reading unit 150 around the customer recognized by the image recognition unit 130.

이 때, 상기 객체 합성부(160)가 상기 객체 독출부(150)에 의해 다수의 2D 및 3D 객체들이 독출된 경우, 다수의 2D 및 3D 객체들을 상기 사진 촬영부(110)에 의해 촬영되는 사진 촬영 구역의 고객 주변에 합성하도록 구현될 수 있다.At this time, when the object combining unit 160 reads a plurality of 2D and 3D objects by the object reading unit 150, a picture of a plurality of 2D and 3D objects taken by the photo taking unit 110 It can be implemented to synthesize around the customer in the shooting area.

이에 더해서 상기 객체 합성부(160)는 관리 서버(40)로 객체가 합성된 사진을 전송하며, 관리 서버(40)는 고객(10)이 선택한 관심 의류가 입혀진 고객을 포함한 사진을 상기 객체 합성부(160)로 전송한다.In addition, the object synthesis unit 160 transmits a photo in which the object is synthesized to the management server 40, and the management server 40 converts a photo including a customer wearing the clothing of interest selected by the customer 10 to the object synthesis unit. Send to 160.

상기 사진 저장부(170)는 상기 객체 합성부(170)에 의해 관심 의류가 착용되고, 고객 주변에 객체가 합성된 사진을 저장한다.The photo storage unit 170 stores a photo in which clothing of interest is worn by the object combining unit 170 and an object is synthesized around the customer.

이때, 상기 사진 저장부(170)가 플래시 메모리(Flash Memory) 등의 비휘발성 메모리 형태로 구현될 수 있고, 상기 객체 저장부(120)와 동일하거나 또는 상이한 메모리일 수 있다.In this case, the photo storage unit 170 may be implemented in the form of a nonvolatile memory such as a flash memory, and may be the same as or different from the object storage unit 120.

표시부(180)는 관심 의류가 착용되고, 고객 주변에 객체가 합성된 사진을 표시한다.The display unit 180 displays a photo in which clothes of interest are worn and objects are synthesized around the customer.

한편, 인쇄부(190)는 표시부(180)를 통하여 인쇄 메뉴가 구비된 화면을 제공한다.Meanwhile, the printing unit 190 provides a screen with a print menu through the display unit 180.

고객은 저장된 사진 중에서 인쇄하고 싶은 사진을 선택하여, 고객이 휴대용 단말기에서 인쇄 실행 버튼을 클릭하면, 발매기(200)는 해당 사진을 인쇄하여 제공한다.The customer selects a picture to be printed from the stored pictures, and when the customer clicks a print execution button on the portable terminal, the vending machine 200 prints and provides the picture.

한편, 문의부(210)는 고객이 지인들에게 착용한 의복이 고객에게 잘 어울리는지를 확인하기를 원하는 경우에, 선택 그룹에게 해당 사진을 메시지나 카카오톡으로 전송하고 "추천", "비추천" 메시지를 전송받아 합계를 계산하여 고객에게 표시하여 고객의 구매시에 선택을 도와주도록 한다.On the other hand, the inquiry unit 210, if the customer wants to check whether the clothes worn by the acquaintances suit the customer well, transmits the photo to the selected group by message or KakaoTalk, and sends a "recommended" or "not recommended" message. It receives and calculates the sum and displays it to the customer to help the customer make a choice at the time of purchase.

여기에서는 주로 의류를 예로 들어 설명하였으나, 신발이나 모자인 경우에도 동일하게 적용될 수 있다.Here, the description is mainly made of clothing as an example, but the same can be applied to shoes or hats.

한편, 관리 서버(40)는 고객의 휴대 단말기에 저장되어 있는 사진들을 전송받아 고객의 스타일을 파악한 후에, 파악된 스타일에 따라 고객이 방문한 의류 매장에서 고객에게 어울리는 의류를 추천하여 제공할 수 있으며, 이때 고객에게 추천 의류가 착용된 상태의 영상을 제공할 수 있다.On the other hand, the management server 40 receives photos stored in the customer's mobile terminal and identifies the customer's style, and then recommends and provides clothing suitable to the customer at the clothing store visited by the customer according to the identified style. In this case, an image of a state in which the recommended clothing is worn may be provided to the customer.

본 발명은 첨부된 도면에 의해 참조되는 바람직한 실시예를 중심으로 기술되었지만, 이러한 기재로부터 후술하는 특허청구범위에 의해 포괄되는 범위내에서 본 발명의 범주를 벗어남이 없이 다양한 변형이 가능하다는 것은 명백하다.Although the present invention has been described based on a preferred embodiment referenced by the accompanying drawings, it is apparent that various modifications are possible without departing from the scope of the present invention within the scope covered by the claims to be described later from this description. .

10 : 고객
20 : 디스플레이
30 : 카메라
40 : 관리 서버
100 : 컨설팅이 가능한 자동 판매 지원 시스템
110 : 사진 촬영부
120 : 객체 저장부
130 : 이미지 인식부
140 : 객체 식별부
150 : 객체 독출부
160 : 객체 합성부
170 : 사진 저장부
180 : 표시부
190 : 인쇄부
200 : 표시부
210 : 문의부
10: customer
20: display
30: camera
40: management server
100: Automatic sales support system with consulting
110: photo shooter
120: object storage unit
130: image recognition unit
140: object identification unit
150: object reading unit
160: object composition unit
170: photo storage unit
180: display
190: printing unit
200: display
210: Inquiry

Claims (15)

영상을 표시하는 디스플레이;
고객을 촬영하는 다수의 카메라; 및
상기 다수의 카메라에서 촬영된 영상에서 고객의 이동 경로를 추출하고, 추출된 이동 경로에서 관심 의류를 확인하며, 상기 촬영된 영상에서 고객의 전신 영상을 추출하고, 추출된 전신 영상에 관심 의류 영상을 합성하여 상기 디스플레이로 출력하는 관리 서버를 포함하는 컨설팅이 가능한 자동 판매 지원 시스템.
A display for displaying an image;
Multiple cameras for photographing customers; And
Extracting the customer's moving path from the images taken by the multiple cameras, checking the clothing of interest from the extracted moving path, extracting the customer's full body image from the captured image, and adding the clothing image of interest to the extracted full body image An automatic sales support system capable of consulting including a management server that synthesizes and outputs the display to the display.
청구항 1항에 있어서,
상기 관리 서버는 고객의 전신 영상에 관심 의류 영상이 합성된 영상을 고객의 휴대 단말기로 제공하여 고객이 실시간으로 확인할 수 있도록 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The management server is an automatic sales support system that enables consulting to provide real-time confirmation by the customer by providing an image in which the customer's full body image and the clothing image of interest are synthesized to the customer's mobile terminal.
청구항 1항에 있어서,
상기 관리 서버는 고객이 지인들에게 전신 영상에 관심 의류 영상이 합성된 영상을 전송하여 착용한 의류가 고객에게 잘 어울리는지를 확인하기를 원하는 경우에, 해당 문의 그룹에게 해당 영상을 메시지나, 카카오톡으로 전송하고 "추천", "비추천" 메시지를 전송받아 합계를 계산하여 고객의 휴대 단말기에게 표시하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
When the customer wants to check whether the worn clothing suits the customer by transmitting an image in which the clothing image of interest is combined with the full-body image to acquaintances, the management server sends a message to the corresponding inquiry group or Kakao Talk. Automatic sales support system that allows consulting to be sent to the customer's mobile terminal by calculating the total by receiving the message "recommended" and "not recommended".
청구항 1항에 있어서,
상기 관리 서버는 의류 영상과 합성된 고객의 영상을 다수의 기준선으로 구분하고, 상기 기준선에 따라 겹쳐지게 표시된 의류 영상의 크기를 조절하는 것을 특징으로 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The management server divides the clothing image and the synthesized customer's image into a plurality of reference lines, and adjusts the size of the clothing image overlapped according to the reference line.
청구항 1항에 있어서,
상기 관리 서버는 목, 허리, 신발을 중심으로 하는 가로 기준선과 고객의 중심을 기준으로 하는 세로 기준선으로 고객의 영상을 구분하는 것을 특징으로 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The management server is an automatic sales support system capable of consulting, characterized in that the image of the customer is divided into a horizontal reference line centered on the neck, waist, and shoes and a vertical reference line based on the center of the customer.
청구항 1항에 있어서,
상기 관리 서버는 상기 기준선에 의해 구분되는 영역별로 좌우 또는 상하의 입력을 받아 의류의 좌우 길이 또는 상하 길이를 조절하는 것을 특징으로 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The management server is an automatic sales support system capable of consulting, characterized in that receiving input of left and right or up and down for each area divided by the reference line and adjusting the left and right length or top and bottom length of the clothing.
청구항 6항에 있어서,
상기 관리 서버는 상기 좌우 또는 상하의 입력을 상기 디스플레이 상에서 터치스크린 방식으로 입력받는 것을 특징으로 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 6,
The management server is an automatic sales support system capable of consulting, characterized in that receiving the input of the left and right or up and down on the display in a touch screen method.
청구항 1항에 있어서,
상기 관리 서버는 의류의 크기를 조절하는 경우, 의류 영상을 반투명하게 상기 고객의 영상과 겹쳐지게 보이도록 표시하는 것을 특징으로 하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
When the size of the clothing is adjusted, the management server displays the clothing image to be semi-transparently overlapped with the customer's image.
청구항 1항에 있어서,
상기 다수의 카메라는 상점의 여러 구역에 설치되어 고객을 촬영하여 상기 관리 서버로 촬영된 영상을 제공하며,
상기 관리 서버는 얼굴 인식 기술을 이용하여 얼굴을 인식하여 고객을 식별하고, 식별된 고객의 이동 경로를 추적하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The plurality of cameras are installed in various areas of the store to photograph customers and provide images taken by the management server,
The management server identifies a customer by recognizing a face using facial recognition technology, and an automatic sales support system that enables consulting to track the movement path of the identified customer.
청구항 1항에 있어서,
상기 관리 서버는 고객의 이동 경로를 추적하는 도중에 고객이 의류를 파지하고 신체에 밀착시키는 경우에 관심 의류로 판단하여 상기 촬영된 영상에서 고객의 전신 영상을 추출하고, 추출된 전신 영상에 관심 의류 영상을 합성하여 상기 디스플레이로 출력하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
The management server determines that the clothing is of interest when the customer grasps the clothing and puts it in close contact with the body while tracking the movement path of the customer, extracts a full body image of the customer from the captured image, and extracts the clothing image of interest from the captured image. An automatic sales support system that enables consulting to synthesize and output to the display.
청구항 1항에 있어서,
상기 다수의 카메라를 깊이 카메라로 구현하여, 고객의 자세를 촬영하며, 상기 관리 서버는 신체의 밸런스를 판단하고, 이를 적용한 3D 모델을 생성하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
An automatic sales support system that enables consulting to implement the plurality of cameras as depth cameras to photograph the customer's posture, and the management server to determine the balance of the body and generate a 3D model applying the same.
청구항 1항에 있어서,
상기 고객은 휴대 단말기를 구비할 수 있으면, 구비된 휴대 단말기에 증강현실을 이용한 거울 서비스 시스템을 지원하기 위한 앱(App)이 설치되어 있으며, 상기 고객은 앱을 설치할 때에 얼굴을 촬영하여 촬영된 얼굴 영상을 상기 관리 서버로 전송하며, 이처럼 고객이 촬영한 얼굴 영상을 제공하면, 상기 관리 서버는 고객이 상점에 들어오는 경우에 고객의 신원을 확인하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
If the customer can have a mobile terminal, an app is installed on the provided mobile terminal to support a mirror service system using augmented reality, and the customer photographs a face when installing the app. An automatic sales support system that enables consulting to verify the identity of the customer when the image is transmitted to the management server, and when the customer provides the image of the face taken by the customer, the management server when the customer enters the store.
청구항 12항에 있어서,
상기 상점의 의류에는 NFC 태그가 구비되어 있으며, 상기 고객이 소지한 휴대 단말기는 의류에 구비된 NFC 태그를 읽어 태크 정보를 전송하면, 상기 고객이 소지한 휴대 단말기는 상기 고객이 접근한 의류들에 부착된 NFC 태그들의 태크 정보를 읽어 전송하게 되며, 상기 관리 서버는 태크 정보와 상기 다수의 카메라에서 촬영된 영상 정보를 이용하여 관심 의류를 식별하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 12,
The clothing of the store is equipped with an NFC tag, and when the mobile terminal held by the customer reads the NFC tag provided on the clothing and transmits tag information, the mobile terminal held by the customer is The tag information of attached NFC tags is read and transmitted, and the management server is an automatic sales support system that enables consulting to identify clothing of interest using tag information and image information captured by the plurality of cameras.
청구항 1항에 있어서,
사진 촬영 구역에 위치하는 고객의 사진을 촬영하여 촬영되는 사진으로부터 배경 이미지 및 고객을 인식하며, 인식된 배경 이미지에 대응하는 3D 객체를 고객주변에 합성하여 합성 사진을 상기 관리 서버로 전송하고, 상기 관리 서버로 관심 의류의 NFC 태그 정보를 전송하며, 상기 관리 서버로부터 고객에 관심 의류가 착용된 사진을 전송받아 고객에게 표시하는 휴대 단말기를 포함하며,
상기 관리 서버는 상기 휴대 단말기로부터 관심 의류의 NFC 태그 정보와 합성 사진을 전송받으면, 합성 사진에 관심 의류 영상을 합성하여 합성된 사진을 상기 휴대 단말기로 전송하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 1,
Take a picture of a customer located in the photo shooting area, recognize the background image and the customer from the picture taken, synthesize a 3D object corresponding to the recognized background image around the customer, and transmit the synthesized picture to the management server, and the Transmitting the NFC tag information of the clothing of interest to the management server, and a mobile terminal for receiving a picture of the clothing of interest is worn by the customer from the management server to display to the customer,
When the management server receives the NFC tag information and the composite photo of the clothing of interest from the mobile terminal, an automated sales support system capable of consulting that synthesizes the image of the clothing of interest with the composite photo and transmits the synthesized photo to the mobile terminal.
청구항 14항에 있어서,
상기 휴대 단말기의 사진 인쇄 요청에 따라 사진을 인쇄하는 발매기를 더 포함하는 컨설팅이 가능한 자동 판매 지원 시스템.
The method of claim 14,
Consulting available automatic sales support system further comprising a vending machine that prints photos according to the photo print request of the mobile terminal.
KR1020190092823A 2019-07-31 2019-07-31 Automated sales support system with consulting KR20210014860A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190092823A KR20210014860A (en) 2019-07-31 2019-07-31 Automated sales support system with consulting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190092823A KR20210014860A (en) 2019-07-31 2019-07-31 Automated sales support system with consulting

Publications (1)

Publication Number Publication Date
KR20210014860A true KR20210014860A (en) 2021-02-10

Family

ID=74561618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190092823A KR20210014860A (en) 2019-07-31 2019-07-31 Automated sales support system with consulting

Country Status (1)

Country Link
KR (1) KR20210014860A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040090791A (en) 2003-04-18 2004-10-27 주식회사 대우일렉트로닉스 Method and apparatus for coordinating clothes
KR20040093576A (en) 2003-04-30 2004-11-06 주식회사 아카넷티비 System and method for displaying clothing image especially fitted for customer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040090791A (en) 2003-04-18 2004-10-27 주식회사 대우일렉트로닉스 Method and apparatus for coordinating clothes
KR20040093576A (en) 2003-04-30 2004-11-06 주식회사 아카넷티비 System and method for displaying clothing image especially fitted for customer

Similar Documents

Publication Publication Date Title
US9369638B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US10827133B2 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US8982110B2 (en) Method for image transformation, augmented reality, and teleperence
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
US8976160B2 (en) User interface and authentication for a virtual mirror
AU2014304760B2 (en) Devices, systems and methods of virtualizing a mirror
US20200358984A1 (en) Method and System for Providing At Least One Image Captured By a Scene Camera of a Vehicle
US10109315B2 (en) Devices, systems and methods for auto-delay video presentation
CN108010008B (en) Target tracking method and device and electronic equipment
US20190228448A1 (en) System, Platform and Method for Personalized Shopping Using a Virtual Shopping Assistant
JP5791812B2 (en) Clothes image processing device, clothes image display method, and program
US20220188897A1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
JP5439787B2 (en) Camera device
CN108351522A (en) Direction of gaze maps
WO2016112346A1 (en) Devices, systems and methods for auto-delay video presentation
KR101923177B1 (en) Appratus and method for providing augmented reality information based on user
TW201344616A (en) Clothing image processing system, clothing image processing device, clothing image processing method, computer program product, and information recording medium
KR101643917B1 (en) The smart fitting apparatus based real image
KR101554776B1 (en) A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor
KR101556158B1 (en) The social service system based on real image using smart fitting apparatus
KR20200079721A (en) Smart clothes management system and method thereof
KR20100135001A (en) A digital virtual mirror system for wearing clothes and the processing method thereof
CN111429194A (en) User track determination system, method, device and server
KR20210014860A (en) Automated sales support system with consulting
CN112102018A (en) Intelligent fitting mirror implementation method and related device