KR102585358B1 - Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model - Google Patents

Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model Download PDF

Info

Publication number
KR102585358B1
KR102585358B1 KR1020210104566A KR20210104566A KR102585358B1 KR 102585358 B1 KR102585358 B1 KR 102585358B1 KR 1020210104566 A KR1020210104566 A KR 1020210104566A KR 20210104566 A KR20210104566 A KR 20210104566A KR 102585358 B1 KR102585358 B1 KR 102585358B1
Authority
KR
South Korea
Prior art keywords
customer
image data
product
store
sensor
Prior art date
Application number
KR1020210104566A
Other languages
Korean (ko)
Other versions
KR20230022596A (en
Inventor
양주섭
Original Assignee
양주섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 양주섭 filed Critical 양주섭
Priority to KR1020210104566A priority Critical patent/KR102585358B1/en
Publication of KR20230022596A publication Critical patent/KR20230022596A/en
Application granted granted Critical
Publication of KR102585358B1 publication Critical patent/KR102585358B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

상기한 목적을 달성하기 위한 본 발명의 일 양태는 컴퓨팅 장치에서의, 무인 매장 내 고객 행동 패턴 분석 방법을 개시하고 있다. 상기 방법은, 제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 기반으로, 상기 무인 매장 내에 배치된 제 1 카메라로부터 촬영된 영상 데이터를 수신하는 단계(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 제 2 센서로부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 기반으로 상기 무인 매장 내에 배치된 제 2 카메라로부터 촬영된 제 2 영상 데이터를 수신하는 단계(상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임) 상기 무인 매장 내 결제 단말로부터 결제 개시 정보를 기반으로, 상기 무인 매장 내에 배치된 제 3 카메라로부터 촬영된 제 3 영상 데이터를 수신하는 단계 및 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 단계를 포함한다.One aspect of the present invention for achieving the above object discloses a method for analyzing customer behavior patterns in an unmanned store using a computing device. The method includes receiving image data captured from a first camera disposed in the unmanned store based on first sensing information related to the customer's entry and exit from the first sensor (the first sensor detects the customer's entry and exit into the store). (a sensor that detects), receiving second image data captured from a second camera placed in the unmanned store based on second sensing information related to the customer's product selection from a second sensor (the second sensor is (It is a sensor that is arranged in or around a product warehouse that stores products, and detects the customer's product selection behavior for the product warehouse) Based on payment initiation information from the payment terminal in the unmanned store, it is placed in the unmanned store. It includes receiving third image data captured from a third camera and analyzing customer behavior patterns by combining the first image data, the second image data, and the third image data.

Figure R1020210104566
Figure R1020210104566

Description

인공지능 기반의 영상 분석 모델을 이용하여 무인 매장 고객의 행동 패턴을 분석하는 방법 및 장치{METHOD AND APPARATUS FOR ANALYZING BEHAVIOR PATTERN OF CUSTOMER IN UNMANNED SHOP USING AI-BASED IMAGE PROCESSING MODEL}Method and device for analyzing behavioral patterns of unmanned store customers using an artificial intelligence-based video analysis model {METHOD AND APPARATUS FOR ANALYZING BEHAVIOR PATTERN OF CUSTOMER IN UNMANNED SHOP USING AI-BASED IMAGE PROCESSING MODEL}

본 발명은 패턴 분석 방법에 관한 것으로, 보다 상세하게는, 무인 매장에 출입한 고객의 행동 패턴을 분석하는 방법에 관한 것이다.The present invention relates to a pattern analysis method, and more specifically, to a method of analyzing the behavioral patterns of customers entering an unmanned store.

무인 매장의 운영에 있어서 방범 및 보안은 매우 중요한 요소라고 할 수 있다. 현재의 방범 및 보안 체계는 오픈된 시간 동안 CCTV를 통한 관찰 및 마감 시간 이후의 움직임에 대한 분석 및 이를 통한 신고 과정 등이 있을 수 있다. 다만, 사용자에 최적화된 주문 접수가 어려워 비효율을 초래할 수 있고, 도난 및 파손에 대한 신속하고 정확한 대응이 어렵다. 특히, 무인 상태가 장기간 지속된 상태에서, 도난 및 파손이 발생한 경우, 관리자는 다수의 CCTV의 전체 시간 구간을 일일이 재생시키면서 그 사이 출입했던 모든 고객의 행동을 유심히 살펴봐야 하기에, 도난 관련 사고의 범인 검출에 있어, 매우 비효율적이며, 실제로 이런 방식이면, 도난 및 파손의 원인을 찾는 것은 거의 불가능에 가깝다.Crime prevention and security can be said to be very important factors in operating an unmanned store. The current crime prevention and security system may include observation through CCTV during open hours, analysis of movements after closing hours, and reporting processes through this. However, it may be difficult to receive user-optimized orders, resulting in inefficiency, and it is difficult to respond quickly and accurately to theft and damage. In particular, in the event of theft or damage while unattended for a long period of time, the manager must replay the entire time section of multiple CCTVs and carefully examine the behavior of all customers who entered during the time, so there is no risk of theft-related incidents. It is very inefficient when it comes to detecting criminals, and in reality, if this method is used, it is almost impossible to find the cause of the theft or damage.

더욱이, 무인 매장의 경우, 흡연 및 음주에 따른 재난이 매우 빈번이 발생함에도, 이에 대응할 수 있는 매뉴얼이 따로 구분되어 존재하지 않으며, 이와 관련된 정보를 저장하는 수단도 미비한 것이 현실이다. Moreover, in the case of unmanned stores, although disasters due to smoking and drinking occur very frequently, there is no separate manual to respond to them, and the means for storing related information are insufficient.

따라서, 매장 관리자에게 방법 및 보안 측면뿐만 아니라 매장 경영에도 최적화된 사용 환경을 제공하고, 도난 및 파손에 대응하기 위한 수단을 제공하며, 흡연 및 음주에 따른 사고 이벤트에도 즉각적으로 대응할 수 있는 기술의 개발이 요구된다.Therefore, we provide store managers with an optimized usage environment not only in terms of methods and security, but also store management, provide means to respond to theft and damage, and develop technology that can immediately respond to accident events caused by smoking and drinking. This is required.

상술한 문제점을 해결하기 위한 본 발명의 일 양태에 따른 목적은, 무인 매장 내 구비된 센서들과 복수의 카메라 영상을 기반으로 인공지능 기반의 기계 학습 모델에 따라 영상 분석한 결과를 이용하여 무인 매장의 보안 관련 상황을 관리하고, 나아가 매장 경영과 관련된 정보를 효율적으로 추출하는 무인 매장 고객 행동 패턴 분석 방법 및 장치를 제공하는 것이다. The purpose of one aspect of the present invention to solve the above-described problem is to use the results of image analysis according to an artificial intelligence-based machine learning model based on sensors provided in the unmanned store and images from a plurality of cameras. The goal is to provide a method and device for analyzing customer behavior patterns in unmanned stores that manages security-related situations and further efficiently extracts information related to store management.

상기한 목적을 달성하기 위한 본 발명의 일 양태에 따른, 컴퓨팅 장치에서의, 무인 매장 내 고객 행동 패턴 분석 방법은, 제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 수신하는 단계(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 상기 제 1 센싱 정보를 제 1 카메라로 제공하는 단계(상기 제 1 센싱 정보를 기반으로, 상기 제 1 카메라로부터 촬영된 제 1 영상 데이터를 수신하는 단계, 상기 제 1 영상 데이터는 고객의 출입과 관련된 영상을 포함함), 제 2 센서부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 수신하는 단계(상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임), 상기 제 2 센싱 정보를 제 2 카메라로 제공하는 단계, 상기 제 2 센싱 정보를 기반으로, 상기 제 2 카메라로부터 촬영된 제 2 영상 데이터를 수신하는 단계(상기 제 2 영상 데이터는 고객의 상품 선택과 관련된 영상을 포함함), 상기 무인 매장 내 결제 단말로부터 결제 정보를 수신하는 단계, 상기 결제 정보를 제 3 카메라로 제공하는 단계, 상기 결제 정보를 기반으로, 상기 제 3 카메라로부터 촬영된 제 3 영상 데이터를 수신하는 단계(상기 제 3 영상 데이터는 고객의 상품 결제와 관련된 영상을 포함함) 및 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 단계를 포함할 수 있다.According to an aspect of the present invention for achieving the above object, a method of analyzing customer behavior patterns in an unmanned store on a computing device includes receiving first sensing information related to the customer's entry into the store from a first sensor ( The first sensor is a sensor that detects the entrance and exit of a customer), providing the first sensing information to the first camera (based on the first sensing information, first image data captured from the first camera Receiving, the first image data includes images related to the customer's entry and exit), receiving second sensing information related to the customer's product selection from a second sensor (the second sensor is a (a sensor arranged in or around the product storage and detecting the customer's product selection behavior for the product storage), providing the second sensing information to a second camera, based on the second sensing information, Receiving second image data captured from a second camera (the second image data includes an image related to the customer's product selection), receiving payment information from the unmanned in-store payment terminal, the payment information providing to a third camera, receiving third image data captured from the third camera based on the payment information (the third image data includes images related to the customer's product payment), and It may include analyzing a customer's behavior pattern by combining the first image data, the second image data, and the third image data.

상기 고객의 행동 패턴을 분석하는 단계는, 상기 제 1 영상 데이터로부터 상기 무인 매장에 출입한 고객을 개별적으로 식별하여 라벨링(labeling)함에 의해 개별 고객마다 라벨을 부여하는 단계 및 상기 부여된 고객의 라벨을 기반으로 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 내의 고객을 라벨링하는 단계 및 상기 라벨링된, 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 기반으로 고객의 행동을 분석하는 단계를 포함할 수 있다.The step of analyzing the customer's behavior pattern includes assigning a label to each individual customer by individually identifying and labeling the customer who entered the unmanned store from the first image data, and labeling the customer. labeling a customer in the second image data and the third image data based on and analyzing customer behavior based on the labeled first image data, the second image data, and the third image data. May include steps.

상기 제 1 영상 데이터를 통해 라벨링된 고객의 형상과, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 적어도 하나 내의 고객의 형상을 비교하여 동일 고객인지 여부를 판단함에 의해 상기 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 적어도 하나 내의 고객에 대한 라벨링을 수행할 수 있다.By comparing the shape of the customer labeled through the first image data with the shape of the customer in at least one of the second image data and the third image data to determine whether they are the same customer, the second image data and Labeling of a customer in at least one of the third image data may be performed.

동일 고객인지 여부의 판단은, 인공지능 기반의 얼굴 트랙킹(face tracking) 알고리즘, 및 사람의 인상착의를 트랙킹하는 영상 분석 모델 중 적어도 하나를 통해 이루어질 수 있다.Determination of whether they are the same customer can be made through at least one of an artificial intelligence-based face tracking algorithm and a video analysis model that tracks a person's facial expressions and clothing.

상기 인공지능 기반의 얼굴 트랙킹 알고리즘 및 사람의 인상착의를 트랙킹하는 영상 분석 모델의 학습 데이터 셋은 크라우드 소싱(crowd sourcing)을 통해 수집될 수 있다.The training data set for the artificial intelligence-based face tracking algorithm and the video analysis model that tracks people's facial expressions and clothing can be collected through crowd sourcing.

상기 인공지능 기반의 얼굴 트랙킹 알고리즘 및 사람의 인상착의를 트랙킹하는 영상 분석 모델은 실제 제 1 내지 제 3 영상 데이터 분석 결과를 다시 학습 데이터 셋으로 생성하여 자가 학습될 수 있다.The artificial intelligence-based face tracking algorithm and the image analysis model that tracks a person's facial expression and clothing can be self-trained by generating the actual first to third image data analysis results as a learning data set.

고객의 라벨과 관련된 영상 데이터를 추출하여 고객의 행동 패턴을 분석할 때, (i) 상기 제 1 영상 데이터를 이용하여 개별 고객의 출입 여부를 체크(check)하고, (ii) 상기 제 2 영상 데이터를 이용하여 개별 고객의 상품 선택 여부를 체크하며, (iii) 상기 제 3 영상 데이터를 이용하여 개별 고객의 상품 결제 여부를 체크할 수 있다.When extracting video data related to the customer's label and analyzing the customer's behavior pattern, (i) the first video data is used to check whether the individual customer enters or exits, and (ii) the second video data is used to check whether the individual customer enters or exits. You can check whether an individual customer has selected a product using , and (iii) you can check whether an individual customer has paid for a product using the third video data.

제 1 고객에 대해 제 1 영상 데이터만 존재할 뿐, 제 2 및 제 3 영상 데이터가 존재하지 않음에 대응하여, 상기 제 1 고객은 매장 내 출입만 하고 상품 선택 및 상품 결제는 하지 않은 제 1 타입(type)의 고객으로 판단할 수 있다.In response to the fact that only the first image data exists for the first customer, and the second and third image data do not exist, the first customer enters the store but does not select the product or pay for the product (type 1) type) of customer.

상기 제 1 고객에 대해 제 1 영상 데이터 및 제 2 영상 데이터만 존재할 뿐, 제 3 영상 데이터가 존재하지 않음에 대응하여, 상기 제 1 고객은 매장 내 출입 및 상품 선택만 하고, 상품 결제는 하지 않은 제 2 타입의 고객으로 판단할 수 있다.In response to the fact that only first image data and second image data exist for the first customer and no third image data, the first customer only enters the store and selects a product, but does not pay for the product. It can be judged as a second type of customer.

상기 제 1 고객에 대해 제 1 영상 데이터, 제 2 영상 데이터 및 제 3 영상 데이터가 모두 존재함에 대응하여, 상기 제 1 고객은 매장 내 출입, 상품 선택 및 상품 결제까지 모두 수행한 제 3 타입의 고객으로 판단할 수 있다.In response to the existence of all first image data, second image data, and third image data for the first customer, the first customer is a third type of customer who has entered the store, selected a product, and paid for the product. It can be judged as follows.

상기 방법은, 매장 내 퇴장과 관련된 제 3 센싱 정보를 기반으로 촬영된 제 4 영상 데이터를 획득하는 단계 및 상기 제 4 영상 데이터 내의 개별 고객에 대해, 상기 제 1 영상 데이터를 기반으로 라벨링하는 단계를 더 포함할 수 있다.The method includes acquiring fourth image data captured based on third sensing information related to exiting the store and labeling individual customers in the fourth image data based on the first image data. More may be included.

상기 방법은, 상기 제 4 영상 데이터를 분석하여 라벨링된 고객이 상품을 들고 나가는지 여부를 판단하는 단계를 더 포함할 수 있다.The method may further include analyzing the fourth image data to determine whether the labeled customer leaves with the product.

상기 제 4 영상 데이터와 상기 제 3 영상 데이터를 함께 분석하여, 상기 제 4 영상 데이터에서 라벨링된 제 2 고객에 대해, (i) 상품 결제하는 제 3 영상 데이터는 존재하지 않고, (ii) 상기 제 4 영상 데이터 내에서 상품을 들고 나갔음에 대응하여, 제 4 타입의 고객으로 구분할 수 있다.By analyzing the fourth image data and the third image data together, for the second customer labeled in the fourth image data, (i) there is no third image data paying for the product, and (ii) the third customer is labeled in the fourth image data. 4 Customers can be classified into a fourth type according to the fact that they carry out the product in the video data.

상기 방법은, 상기 제 2 영상 데이터를 분석하여, 고객이 상품을 집어드는 행위, 고객이 상품을 장바구니에 넣는 행위 및 고객이 상품을 장바구니에서 빼내는 행위를 검출하여 세분화된 영상으로 생성하는 단계를 더 포함할 수 있다.The method further includes the step of analyzing the second video data to detect the customer's act of picking up the product, the customer's act of putting the product into the shopping cart, and the customer's act of removing the product from the shopping cart, and generating a segmented image. It can be included.

상기 제 2 영상 데이터를 분석하여 고객이 선택한 상품의 종류 및 갯수 정보를 획득하고, 상기 획득된 상품의 종류 및 갯수 정보를 상기 결제 단말로부터 획득된 결제 내역의 상품 종류 및 갯수 정보와 비교하여, 결제시 누락된 상품을 산출할 수 있다.By analyzing the second video data, information on the type and number of products selected by the customer is obtained, and the obtained information on the type and number of products is compared with the type and number of products in the payment history obtained from the payment terminal, and when payment is made, Missing products can be calculated.

인공지능 기반의 기계 학습 모델을 이용하여, 상기 고객의 행동 패턴 분석 결과와, 매장 매출 지표를 학습 데이터 셋으로 하여, 상기 고객의 행동 패턴 분석 결과와 매장 매출과의 연관성을 도출할 수 있다.Using an artificial intelligence-based machine learning model, the customer's behavior pattern analysis result and the store sales index can be used as a learning data set to derive the correlation between the customer's behavior pattern analysis result and store sales.

상품 진열 포맷(format)을 변경하면서, 상기 기계 학습 모델을 기반으로 도출된 매장 매출과의 연관성을 고려하여, 매장 매출을 최대화하기 위한 상품 진열 포맷을 추론할 수 있다.While changing the product display format, the product display format to maximize store sales can be inferred by considering the correlation with store sales derived based on the machine learning model.

상기한 목적을 달성하기 위한 본 발명의 다른 양태에 따른, 무인 매장 내 고객 행동 패턴 분석 장치는, 제 1 센서 - 상기 제 1 센서는 고객의 출입을 감지하는 센서임 - 로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 수신하여, 제 1 카메라로 제공함에 의해, 상기 제 1 카메라로부터 촬영된 제 1 영상 데이터 - 상기 제 1 영상 데이터는 고객의 출입과 관련된 영상을 포함함 - 를 수신하고, 제 2 센서 - 상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임 - 로부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 수신하여, 제 2 카메라로 제공함에 의해, 상기 제 2 카메라로부터 촬영된 제 2 영상 데이터 - 상기 제 2 영상 데이터는 고객의 상품 선택과 관련된 영상을 포함함 - 를 수신하며, 상기 무인 매장 내 결제 단말로부터 결제 정보를 수신하여, 제 3 카메라로 제공함에 의해, 상기 제 3 카메라로부터 촬영된 제 3 영상 데이터 - 상기 제 3 영상 데이터는 고객의 상품 결제와 관련된 영상을 포함함 - 를 수신하는 통신부 및 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 프로세서를 포함할 수 있다.According to another aspect of the present invention for achieving the above object, a device for analyzing customer behavior patterns in an unmanned store detects the customer's entry and exit into the store from a first sensor - the first sensor is a sensor that detects the customer's entry and exit. Receiving related first sensing information and providing it to a first camera, thereby receiving first image data captured from the first camera - the first image data includes images related to the customer's entrance and exit - 2 Sensor - The second sensor is arranged in or around a product warehouse storing products, and is a sensor that detects the customer's product selection behavior for the product storage - second sensing information related to the customer's product selection from the sensor. Receives second image data captured from the second camera - the second image data includes images related to the customer's product selection - by receiving and providing it to the second camera, and the unmanned in-store payment terminal A communication unit that receives payment information from and provides it to a third camera, thereby receiving third image data captured by the third camera - the third image data includes images related to the customer's payment for the product - and It may include a processor that analyzes the customer's behavior pattern by combining the first image data, the second image data, and the third image data.

상기한 목적을 달성하기 위한 본 발명의 또 다른 양태에 따른, 컴퓨팅 장치에서의, 무인 매장 내 고객 행동 패턴 분석 방법은, 제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 기반으로, 상기 무인 매장 내에 배치된 제 1 카메라로부터 촬영된 영상 데이터를 수신하는 단계(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 제 2 센서로부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 기반으로 상기 무인 매장 내에 배치된 제 2 카메라로부터 촬영된 제 2 영상 데이터를 수신하는 단계(상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임) 상기 무인 매장 내 결제 단말로부터 결제 개시 정보를 기반으로, 상기 무인 매장 내에 배치된 제 3 카메라로부터 촬영된 제 3 영상 데이터를 수신하는 단계 및 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 단계를 포함할 수 있다.According to another aspect of the present invention for achieving the above object, a method of analyzing customer behavior patterns in an unmanned store on a computing device is based on first sensing information related to the customer's entry into the store from a first sensor, Receiving image data captured from a first camera placed in the unmanned store (the first sensor is a sensor that detects the customer's entry and exit), based on second sensing information related to the customer's product selection from the second sensor Receiving second image data captured from a second camera disposed in the unmanned store (the second sensor is arranged in or around a product warehouse storing products, and the customer selects a product for the product warehouse) (a sensor that detects an action) receiving third image data captured from a third camera disposed in the unmanned store based on payment initiation information from the payment terminal in the unmanned store, and the first image data, the first It may include the step of analyzing the customer's behavior pattern by combining the second video data and the third video data.

본 발명의 무인 매장 고객 행동 패턴 분석 방법 및 장치에 따르면, 무인 매장 내 인-바운드(In-Bound) 장비에서 획득된 센싱 및 영상 데이터를 이용하여 무인 매장에 출입하는 고객의 행동 패턴을 분석함에 따라 무인 매장의 보안을 강화하는 효과가 있고, 나아가 무인 매장의 매출 증대를 위한 방안을 도출하는 효과가 있다.According to the method and device for analyzing customer behavior patterns in unmanned stores of the present invention, the behavioral patterns of customers entering and exiting unmanned stores are analyzed using sensing and image data obtained from in-bound equipment in unmanned stores. It has the effect of strengthening the security of unmanned stores and further has the effect of deriving ways to increase sales of unmanned stores.

도 1은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 개념도,
도 2는 본 발명의 다른 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 도면,
도 3은 도 1 또는 도 2의 무인 매장 내 장비들 간의 정보 교류 과정을 나타낸 흐름도,
도 4는 무인 매장 내 다수의 카메라 장비를 통해 획득된 영상 데이터들에 라벨링(Labeling)을 수행하여 고객을 일괄적으로 관리하는 방법을 설명하기 위한 개념도,
도 5는 도 4의 라벨링된 영상 데이터를 분석한 결과를 표현하는 테이블,
도 6은 무인 매장의 재고 수량이 맞지 않을 때 영상 데이터 분석 결과를 사용자가 직관적으로 이해하도록 시각화하는 방법을 나타낸 흐름도,
도 7은 도 6의 방법에 따라 시각화하는 중에, 사용자 입력이 있을 때, 그에 대응하는 영상 데이터를 효율적으로 재생하는 방법을 설명하기 위한 개념도,
도 8은 도 1의 매장 내 디스플레이 장비 및 스피커를 통해 매장 내 고객의 행동 패턴을 실시간으로 나타내는 동작을 설명하기 위한 개념도,
도 9는 매장 내 연기 감지시 매장 내 디스플레이 장비 및 스피커를 통해 흡연자에게 경고하는 방법을 설명하기 위한 흐름도,
도 10은 도 1의 시스템을 통해 획득된 데이터를 무인 매장 경영 측에 활용하여 최적의 상품 진열 방법을 추론하는 인공지능 모델을 학습시키는 방법을 설명하기 위한 개념도,
도 11은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 구성하는 장치의 구성을 구체적으로 나타낸 상세 블록도이다.
1 is a conceptual diagram showing an unmanned store system that performs customer behavior pattern analysis according to an embodiment of the present invention;
Figure 2 is a diagram showing an unmanned store system that performs customer behavior pattern analysis according to another embodiment of the present invention;
Figure 3 is a flow chart showing the information exchange process between equipment in the unmanned store of Figure 1 or Figure 2;
Figure 4 is a conceptual diagram illustrating a method of collectively managing customers by labeling video data acquired through multiple camera equipment in an unmanned store;
Figure 5 is a table expressing the results of analyzing the labeled image data of Figure 4;
Figure 6 is a flowchart showing a method of visualizing the video data analysis results so that users can intuitively understand them when the inventory quantity in an unmanned store does not match;
FIG. 7 is a conceptual diagram illustrating a method of efficiently reproducing video data corresponding to a user input during visualization according to the method of FIG. 6;
Figure 8 is a conceptual diagram for explaining the operation of displaying in-store customer behavior patterns in real time through the in-store display equipment and speakers of Figure 1;
Figure 9 is a flowchart illustrating a method of warning smokers through display equipment and speakers in the store when smoke is detected in the store;
Figure 10 is a conceptual diagram illustrating a method of learning an artificial intelligence model that infers the optimal product display method by utilizing data acquired through the system of Figure 1 for unmanned store management;
Figure 11 is a detailed block diagram specifically showing the configuration of a device that constitutes an unmanned store system that performs customer behavior pattern analysis according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all changes, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may be referred to as a first component without departing from the scope of the present invention. The term and/or includes any of a plurality of related stated items or a combination of a plurality of related stated items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in this application are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the attached drawings. In order to facilitate overall understanding when describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 개념도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 무인 매장 시스템은, 출입문 센서(112), 카메라(120), 상품 보관소 센서(132), 카메라(134), 결제 단말(140), 카메라(142), 디스플레이 장치(150), 스피커(160), 액세스 포인트(170: AP(Access Point)), 프록시 서버(180) 및 통합 서버(190)를 포함할 수 있다.1 is a conceptual diagram showing an unmanned store system that performs customer behavior pattern analysis according to an embodiment of the present invention. As shown in Figure 1, the unmanned store system according to an embodiment of the present invention includes a door sensor 112, a camera 120, a product storage sensor 132, a camera 134, a payment terminal 140, It may include a camera 142, a display device 150, a speaker 160, an access point (AP) 170, a proxy server 180, and an integrated server 190.

도 1을 참조하면, 출입문 센서(112)는 무인 매장에 출입하는 고객을 감지하는 센서이다. 이는 도어 개폐 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 출입문 센서(112)가 고객의 출입을 감지하면, 카메라(120)가 동작하여 출입문으로 들어오는 고객의 형상을 촬영한다. 이때, 고객의 전체 형상을 촬영하는 것이 바람직하며, 특히, 추후, 얼굴 트랙킹(face tracking) 등의 기술을 사용하기 위해서, 고객 얼굴 형상이 나타나는 방향으로 촬영하는 것이 바람직하다. 출입문 센서(112)는 고객의 입장뿐만 아니라 퇴장시에도 센싱을 수행하고, 카메라(120)에 센싱된 신호를 보내 고객의 매장 퇴장 모습도 촬영될 수 있도록 할 수 있다.Referring to Figure 1, the door sensor 112 is a sensor that detects customers entering an unmanned store. This may include at least one of a door opening/closing sensor, an access sensor, a motion recognition sensor, and an infrared sensor. When the door sensor 112 detects the customer's entrance, the camera 120 operates to capture the image of the customer entering the door. At this time, it is desirable to photograph the entire shape of the customer, and in particular, in order to use technology such as face tracking in the future, it is desirable to photograph in the direction in which the shape of the customer's face appears. The door sensor 112 can sense not only the customer's entrance but also the customer's exit, and can send a sensed signal to the camera 120 so that the customer's exit from the store can also be captured.

무인 매장 내에는 다수의 상품 보관소(130)가 존재할 수 있다. 상품 보관소(130)라는 용어를 사용하였지만, 상품을 내부에 보관하는 박스 형태의 장소가 아니라, 단순히 상품을 진열하는 진열대로 구현될 수도 있다. 즉, 상품이 놓인 단위 공간을 의미한다. 일 예에서, 상품 보관소(130)는 냉장고, 냉동고, 진열대 등을 포함할 수 있다. 그리고, 고객이 상품 구매를 위해 상품을 선택하는 동작(상품을 집는 동작)을 감지하기 위해, 상품 보관소(120) 내에, 또는 주변에, 센서(132)가 배치된다. 센서(132)는 도어 개폐 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나를 포함한다. 특히, 냉장고 또는 냉동고와 같이, 문이 닫힌 상태로 상품들이 보관되는 상황이라면, 고객이 상품 구매를 위해 특정 상품을 선택하는 동작은 도어 개폐 감지 센서를 통해 감지하는 것이 바람직하다. 진열대와 같이 특별한 도어 개폐 동작을 요구하지 않는 환경이라면, 접근 센서, 모션 인식 센서, 적외선 센서 등을 통해 고객이 상품을 선택하는 동작을 감지할 수 있다. There may be multiple product storage units 130 within an unmanned store. Although the term product storage 130 is used, it may not be implemented as a box-shaped place for storing products inside, but may simply be implemented as a display stand for displaying products. In other words, it means the unit space where the product is placed. In one example, product storage 130 may include a refrigerator, freezer, display rack, etc. In addition, a sensor 132 is disposed within or around the product storage unit 120 to detect the customer's action of selecting a product for purchase (an action of picking up the product). The sensor 132 includes at least one of a door open/close sensor, an approach sensor, a motion recognition sensor, and an infrared sensor. In particular, in situations where products are stored with the door closed, such as in a refrigerator or freezer, it is desirable to detect the customer's action of selecting a specific product for purchase through a door opening/closing sensor. In an environment that does not require special door opening and closing operations, such as a display shelf, the customer's action of selecting a product can be detected through proximity sensors, motion recognition sensors, and infrared sensors.

한편, 센서(132)를 통해, 고객의 특정 상품보관소(130)와 관련된 상품을 선택하는 행위가 감지되면, 그에 대응하는 카메라(134)가 상품 선택 중인 고객을 촬영한다. 센서(132)와 카메라(134)는 개별 상품 보관소(130)마다 하나 또는 그 이상씩 구비될 수 있다. 따라서, 제 1 상품보관소(130)의 센서(132)에서 고객의 상품 선택 행위가 감지되면, 그에 대응하는 카메라(134)에서 촬영이 이루어지고, 다른 상품보관소의 센서에서 고객의 상품 선택 행위가 감지되면, 그에 대응하는 다른 카메라에서 촬영이 이루어진다. 여기서도, 고객의 전면 또는 후면, 윗면을 바라보는 방향으로 촬영이 수행될 수 있다. Meanwhile, when the customer's action of selecting a product related to the specific product storage 130 is detected through the sensor 132, the corresponding camera 134 photographs the customer selecting the product. One or more sensors 132 and cameras 134 may be provided in each individual product storage 130. Therefore, when the customer's product selection behavior is detected by the sensor 132 of the first product storage 130, the corresponding camera 134 takes pictures, and the customer's product selection behavior is detected by the sensor of the other product storage. When this happens, shooting is done with another corresponding camera. Here too, photography can be performed in a direction looking at the front, back, or top of the customer.

고객이 상품 선택을 하고 나면, 결제가 요구된다. 따라서, 결제 단말(140)로 접근하여, 결제 단말(140)에 결제 관련 사용자 입력을 입력함에 의해, 결제를 진행한다. 이때, 결제 단말(140)의 실행 및/또는 결제 단말(140) 주변에 별도로 구비된 접근 센서(미도시) 등을 통해 고객의 상품 결제 행위를 감지할 수 있다. 이렇게 감지된 고객의 결제 (개시) 행위에 대응하여, 카메라(142)가 촬영을 개시한다. 결제 단말(140)은 키오스크 및 POS 단말을 포함한다. 또는, POS 단말 기능이 포함되어 있는 키오스크 장치일 수 있다. After the customer selects a product, payment is required. Accordingly, payment is made by approaching the payment terminal 140 and entering payment-related user input into the payment terminal 140. At this time, the customer's product payment behavior can be detected through the execution of the payment terminal 140 and/or an access sensor (not shown) separately provided around the payment terminal 140. In response to the customer's payment (initiation) behavior detected in this way, the camera 142 starts filming. The payment terminal 140 includes a kiosk and a POS terminal. Alternatively, it may be a kiosk device that includes POS terminal functions.

본 발명의 실시예에 따르면, 매장 내 인바운드(In-bound) 장비는 근거리 통신을 이용하여 서로 통신할 수 있다. 이때, 근거리 통신은 와이-파이(Wi-Fi), 지그비(Zigbee), 블루투스(Bluetooth) 등을 포함할 수 있다. 와이-파이 통신을 할 때, 액세스 포인트(170)를 매개로 내부적으로 분배된 IP를 이용하여 서로 정보를 송수신한다. 즉, 액세스 포인트(170)는 센서(112, 132) 및 결제 단말(140), 그리고 카메라들(120, 134, 142)에 각각 개별 IP를 할당하고, 인바운드 장비들 간에 서로의 IP를 기억하여 정보를 송수신할 수 있다. 예를 들어, 인바운드 장비들이 프록시 서버(180)를 거치지 않고 직접 통신하는 실시예에서, 제 1 센서(112)는 카메라(120)의 IP를 통해 카메라(120)로 센싱 정보를 전달하고, 제 2 센서(132)는 카메라(134)의 IP를 매개로 카메라(134)로 센싱 정보를 전달하며, 결제 단말(140)은 카메라(142)의 IP를 매개로 카메라(142)로 결제 개시 정보를 전달하여, 각각의 카메라들(120, 134, 142)에서 촬영을 활성화하도록 제어할 수 있다. 관리자는 관리자 단말(105)을 이용하여, 통합 서버(190) 또는 프록시 서버(180)를 매개로 개별 센서(112, 132) 및/또는 결제 단말(140)에게 그들이 센싱한 정보를 전달해야 할 수신처에 대한 IP 정보를 결정할 수 있다. 그리고, 원하는 때, 이를 변경할 수도 있다. 즉, 센서/단말과 카메라간 매핑 관계를 임의로 설정할 수 있다. 다른 예에서, 매장 내 인바운드 장비들은 반드시 근거리 통신만을 이용해야 하는 것은 아니고, NB-IoT(NarrowBand IoT), 로라(LoRa), 원엠투엠(oneM2M), OCF(Open Connectivity Foundation), LwM2M(Lightweight M2M) 등 글로벌 IoT 표준에서 제정한 표준 통신 프로토콜 중 적어도 하나에 따라 서로 간에 또는 외부 장치로 정보를 송수신할 수 있다. According to an embodiment of the present invention, in-bound equipment within a store can communicate with each other using short-distance communication. At this time, short-distance communication may include Wi-Fi, Zigbee, Bluetooth, etc. When performing Wi-Fi communication, information is transmitted and received from each other using an internally distributed IP via the access point 170. That is, the access point 170 allocates individual IPs to the sensors 112 and 132, the payment terminal 140, and the cameras 120, 134, and 142, and remembers each other's IPs among the inbound devices to provide information. can be sent and received. For example, in an embodiment in which inbound devices communicate directly without going through the proxy server 180, the first sensor 112 transmits sensing information to the camera 120 through the IP of the camera 120, and the second sensor 112 transmits sensing information to the camera 120 through the IP of the camera 120. The sensor 132 transmits sensing information to the camera 134 through the IP of the camera 134, and the payment terminal 140 transmits payment initiation information to the camera 142 through the IP of the camera 142. Thus, each camera 120, 134, and 142 can be controlled to activate shooting. The administrator uses the administrator terminal 105 to transmit the sensed information to the individual sensors 112, 132 and/or the payment terminal 140 through the integrated server 190 or proxy server 180. IP information can be determined. And, you can change it whenever you want. In other words, the mapping relationship between the sensor/terminal and the camera can be arbitrarily set. In another example, inbound devices within a store do not necessarily have to use only short-range communications, but also use NarrowBand IoT (NB-IoT), LoRa, oneM2M, Open Connectivity Foundation (OCF), and Lightweight M2M (LwM2M). Information can be transmitted and received between each other or to an external device according to at least one of the standard communication protocols established by global IoT standards such as.

또한, 적어도 두 개의 센서들(112, 132)에서의 센싱 정보, 적어도 세 개의 카메라(120, 134, 142)에서 촬영된 영상 데이터(이는 동영상(video)을 포함함), 그리고 결제 단말(140)에서의 결제 개시 및 진행 정보, 그리고 결제 내역 정보는 프록시 서버(180)로 제공될 수 있다. 그리고, 프록시 서버(180)는 해당 데이터들을 광대역 통신망을 이용하여 통합 서버(190)로 제공할 수 있다. Additionally, sensing information from at least two sensors 112 and 132, image data captured from at least three cameras 120, 134 and 142 (this includes video), and payment terminal 140. Payment initiation and progress information and payment history information may be provided to the proxy server 180. And, the proxy server 180 can provide the corresponding data to the integrated server 190 using a broadband communication network.

프록시 서버(180)는 무인 매장 현장에 배치된 서버이다. 이는 무인 매장에 배치된 컴퓨팅 장치에 데몬 툴(daemon tool)이 에뮬레이팅된(emulated) 형태로 존재할 수 있다. 해당 서버는 통합 서버(190)와 연동한다. 이는 통합 서버(190)에서 제공하는 무인 매장 보안 및 경영 관리 서비스를 이용하는 회원 매장에 설치하는 서버 또는 프로그램일 수 있다. The proxy server 180 is a server placed at an unmanned store site. This may exist in the form of an emulated daemon tool on a computing device deployed in an unmanned store. The server is linked with the integrated server 190. This may be a server or program installed in a member store that uses the unmanned store security and business management service provided by the integrated server 190.

다만, 본 발명의 실시예에 따르면, 프록시 서버(180)가 반드시 필요하지 않을 수 있다. 프록시 서버(180)를 거치지 않고, 센서들(112, 132), 카메라(120, 134, 142) 및 결제 단말(140)이 관련 정보를 직접 통합 서버(190)로 보낼 수도 있다. However, according to an embodiment of the present invention, the proxy server 180 may not necessarily be needed. Instead of going through the proxy server 180, the sensors 112 and 132, the cameras 120, 134 and 142, and the payment terminal 140 may send related information directly to the integrated server 190.

통합 서버(190)는 수신된 센싱 정보, 영상 데이터 및 결제 정보를 기반으로, 영상 데이터 내의 고객을 라벨링(labeling)함에 따라 고객의 행동 패턴을 분석하고, 분석 결과를 관리자 단말(105), 매장 내 디스플레이 장비(150) 및 스피커(160)를 통해 출력하도록 제어한다. 매장 내 디스플레이 장비(150) 및 스피커(160)로의 출력은 프록시 서버(180)를 매개로 이루어질 수 있다. 디스플레이 장비(150) 및 스피커(160)는 출력장치라 불릴 수 있고, 이는 고객 행동 패턴 분석 결과(및 분석 결과에 대한 표현 방법)을 획득하는 정보 획득부(미도시) 및 이를 출력하는 출력부(미도시)를 포함할 수 있다. 또한, 통합 서버(190)(또는 프록시 서버(180))는 출력 제어 장치, 시각화 장치, 시각적 표현 장치, 청각적 표현 장치, 표현 제어 장치 등으로 불릴 수 있다. The integrated server 190 analyzes customer behavior patterns by labeling customers in the video data based on the received sensing information, video data, and payment information, and sends the analysis results to the manager terminal 105 and the store. Controls output through the display equipment 150 and speaker 160. Output to the in-store display equipment 150 and speaker 160 may be performed through the proxy server 180. The display equipment 150 and the speaker 160 may be called an output device, which includes an information acquisition unit (not shown) that obtains the customer behavior pattern analysis results (and a method of expressing the analysis results) and an output unit ( (not shown) may be included. Additionally, the integration server 190 (or proxy server 180) may be called an output control device, a visualization device, a visual expression device, an auditory expression device, an expression control device, etc.

한편, 고객의 행동 패턴은 카메라(120)에서 촬영된 영상을 기반으로 매장 출입 동작을 분석하고, 카메라(134)에서 촬영된 영상을 기반으로 고객의 상품 선택 동작을 분석하며, 카메라(142)에서 촬영된 영상을 기반으로 고객의 상품 결제 동작을 분석한 결과를 종합적으로 분석하여 도출된다. 이에 따라, 어떤 고객은 출입만 하고 매장을 나갔는지, 어떤 고객은 출입 및 상품 선택까지만 하고 결제는 하지 않고 매장을 나갔는지, 또 어떤 고객은 출입부터 상품 선택, 그리고 결제까지 모두 진행하고 매장을 나갔는지를 확인하여, 고객을 타입별로 분류할 수 있고, 분류된 결과를 관리자 단말(105) 또는 매장 내 출력 장치(150, 160)로 제공할 수 있다. Meanwhile, the customer's behavior pattern is analyzed based on the video captured by the camera 120, the store entry behavior is analyzed, the customer's product selection behavior is analyzed based on the video captured by the camera 134, and the customer's product selection behavior is analyzed based on the video captured by the camera 142. It is derived by comprehensively analyzing the results of analyzing the customer's product payment behavior based on the captured video. Accordingly, some customers only entered and left the store, some customers only entered and selected products but left the store without making payment, and some customers left the store after completing everything from entry to product selection and payment. By checking whether customers have gone to the store, customers can be classified by type, and the classified results can be provided to the manager terminal 105 or the in-store output devices 150 and 160.

또한, 통합 서버(190)는 상기 센싱 정보, 영상 데이터 및 결제 정보를 데이터베이스(192)에 고객별로, 상품별로 및/또는 시간별로 구분하여 저장한다. 그리고는, 저장된 정보들을 이용하여 인공지능 기반의 기계 학습 모델을 통해, 매출 증대를 위한 방안을 도출해낼 수 있다. 도출되는 방안 중 예시적인 하나는, 고객의 상품 선택 성향에 맞는 상품 진열 방식이 될 수 있다. Additionally, the integrated server 190 stores the sensing information, image data, and payment information in the database 192 by dividing them by customer, product, and/or time. Then, using the stored information, measures to increase sales can be derived through an artificial intelligence-based machine learning model. One example of the methods derived could be a product display method that suits the customer's product selection tendency.

한편, 통합 서버(190)에서의 기능은 매장 내 배치된 프록시 서버(180)에서 수행될 수 있다. 즉, 통합 서버(190)에서 제공하는 분석 기능이 프록시 서버(180)에 에이전트 형태로 설치되어, 프록시 서버(180) 자체적으로 분석 및 분석 결과 출력이 가능하게 동작할 수 있다. 통합 서버(190) 또는 프록시 서버(180)는 센싱 정보 및/또는 영상 정보를 분석하기에, 분석 장치, 영상 분석 장치 등으로 불릴 수 있다.Meanwhile, functions in the integrated server 190 may be performed in the proxy server 180 placed within the store. That is, the analysis function provided by the integrated server 190 is installed in the proxy server 180 in the form of an agent, so that the proxy server 180 can operate itself to perform analysis and output analysis results. Since the integrated server 190 or proxy server 180 analyzes sensing information and/or image information, it may be called an analysis device, an image analysis device, etc.

센서(112, 132)는 위에서 예시로 든 것 이외에, 다양한 형태의 IoT 센서로 구현될 수 있다. 여기에는, 온도 센서, 습도 센서, 모션 감지 센서 등을 포함할 수 있다. 또한, 센서(112, 132) 및 결제 단말(140) 위치의 센서 이외에 매장 내 또는 매장 주변의 다른 위치에 하나 또는 다수의 다른 센서들이 존재할 수도 있다. 또한, 카메라(120, 134, 142) 중 적어도 하나는 위와 같이 다른 곳에 배치된 센서들과 연동하여, 영상을 촬영할 수 있고, 이를 통합 서버(190)로 전송할 수 있다. The sensors 112 and 132 may be implemented as various types of IoT sensors other than those exemplified above. This may include a temperature sensor, humidity sensor, motion detection sensor, etc. Additionally, in addition to the sensors 112 and 132 and the sensors at the payment terminal 140, one or more other sensors may be present at other locations within the store or around the store. Additionally, at least one of the cameras 120, 134, and 142 can capture images in conjunction with sensors placed elsewhere as described above and transmit them to the integrated server 190.

관리자 단말(105)은 매장 관리를 수행하는 관리자가 소지한 사용자 단말로, 스마트폰(smart phone), 데스크톱(dest top), 랩톱(laptop), PDA(Personal Digital Assistants) 등으로 구현될 수 있다. 관리자 단말(105)은 통합 서버(190)에서 제공하는 애플리케이션(Application: 이하 "앱"이라 부름)을 설치하여 통합 서버(190)와 연동가능하며, 통합 서버(190)에서 제공하는 정보를 앱에서 제공하는 사용자 인터페이스(UX/UI)를 통해 표시할 수 있다. 특수한 경우에, 관리자 단말(105)은 매장 내의 단말로 구현될 수 있고, 프록시 서버(180)와 관리자 단말(105)은 하나의 장비로 구현될 수 있다.The manager terminal 105 is a user terminal owned by a manager who performs store management, and may be implemented as a smart phone, desktop, laptop, or PDA (Personal Digital Assistants). The administrator terminal 105 can be linked with the integrated server 190 by installing an application (Application: hereinafter referred to as “app”) provided by the integrated server 190, and the information provided by the integrated server 190 is stored in the app. It can be displayed through the provided user interface (UX/UI). In special cases, the manager terminal 105 may be implemented as a terminal within a store, and the proxy server 180 and the manager terminal 105 may be implemented as a single device.

도 2는 본 발명의 다른 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 도면이다. Figure 2 is a diagram showing an unmanned store system that performs customer behavior pattern analysis according to another embodiment of the present invention.

도 2를 참조하면, 상품보관소에 부착되어 고객의 상품 선택 동작을 감지하기 위한 센서와 카메라의 관계는 반드시 1:1의 관계를 가져야 하는 것은 아니다. 1:N, N:1, N:M의 관계를 가질 수 있다. Referring to Figure 2, the relationship between a sensor and a camera attached to a product storage unit to detect a customer's product selection operation does not necessarily have to be a 1:1 relationship. Relationships can be 1:N, N:1, or N:M.

도 2의 실시예에서처럼, 6개의 센서가 4개의 카메라에 대응될 수도 있다. 이때, 개별 센서와 대응되는 카메라와의 매칭 관계는 미리 정해져 있을 수 있다. 예를 들어, 제 1 센서와 제 2 센서는 제 1 카메라와, 제 3 센서와 제 4 센서는 제 2 카메라와 제 3 카메라와, 제 5 센서는 제 3 카메라와 제 4 카메라와, 제 6 센서는 제 4 카메라와 매칭되어 있을 수 있다. 이와 같은 시나리오는, 통합 서버에서 설정할 수 있고, 관리자 단말을 이용하여 통합 서버 및 프록시 서버를 매개로 설정할 수도 있다. As in the embodiment of Figure 2, six sensors may correspond to four cameras. At this time, the matching relationship between the individual sensor and the corresponding camera may be predetermined. For example, the first sensor and the second sensor are connected to the first camera, the third sensor and the fourth sensor are connected to the second camera and the third camera, the fifth sensor is connected to the third camera, the fourth camera, and the sixth sensor. may be matched with the fourth camera. This scenario can be set in the integrated server, and can also be set through the integrated server and proxy server using an administrator terminal.

본 발명의 실시예에 따르면, 카메라들 중 적어도 일부는 회전이 가능하게 설치되어, 센서로부터의 센싱 정보가 수신되면, 센싱된 상품 보관소를 향하는 방향으로 회전하고, 회전된 상태에서 해당 상품보관소를 바라보는 방향으로 촬영을 개시하도록 제어될 수 있다. 이러한 카메라의 회전은 PTZ(Pan Tilt Zoom) 제어를 포함한다. 또한, 이러한 회전 및 PTZ 제어 메카니즘은 고객의 상품 선택 동작 촬영 이외에, 고객의 매장 출입 동작을 촬영하는 카메라, 상품 결제 동작을 촬영하는 카메라 등에도 응용될 수 있다. According to an embodiment of the present invention, at least some of the cameras are installed to be rotatable, and when sensing information from the sensor is received, they rotate in a direction toward the sensed product storage and look at the product storage in the rotated state. It can be controlled to start shooting in the viewing direction. This camera rotation includes PTZ (Pan Tilt Zoom) control. In addition, this rotation and PTZ control mechanism can be applied to cameras that film the customer's product selection motion, cameras that film the customer's entering and exiting the store, and cameras that film the product payment motion, etc.

도 3은 도 1 또는 도 2의 무인 매장 내 장비들 간의 정보 교류 과정을 나타낸 흐름도이다. Figure 3 is a flowchart showing the information exchange process between equipment in the unmanned store of Figure 1 or Figure 2.

도 3을 참조하면, 출입 센서가 고객의 입장을 센싱하면(S310), 관련 정보는 제 1 카메라(도 1의 120)로 제공된다(S312). 제 1 카메라는 상기 센싱 정보를 기반으로 촬영을 개시한다(S314). 촬영은 기설정된 시간동안 진행된다. 예를 들어, 1분의 시간동안 촬영할 수 있다. 다만, 반드시 1분으로 설정되어야만 하는 것은 아니고, 2분, 3분, 4분, 5분, 10분, 15분, 20분으로 설정되도 무방하다. 제 1 카메라가 영상을 촬영하면, 촬영된 영상 데이터는 프록시 서버로 전달된다(S316). 프록시 서버는 수신한 영상 데이터를 실시간으로 통합 서버로 전송한다(S318). Referring to FIG. 3, when the entrance sensor senses the customer's position (S310), related information is provided to the first camera (120 in FIG. 1) (S312). The first camera starts shooting based on the sensing information (S314). Filming continues for a preset time. For example, you can shoot for a period of 1 minute. However, it does not necessarily have to be set to 1 minute, and may be set to 2 minutes, 3 minutes, 4 minutes, 5 minutes, 10 minutes, 15 minutes, or 20 minutes. When the first camera captures an image, the captured image data is transmitted to the proxy server (S316). The proxy server transmits the received video data to the integrated server in real time (S318).

상품 보관소 도어 개폐 센서가 도어의 개폐를 센싱하면(S320), 이를 고객의 상품 선택 행위로 간주하고, 센싱 정보를 제 2 카메라(도 1의 134)로 제공한다(S322). 제 2 카메라는 개폐 센싱 정보를 트리거로 하여 영상 촬영을 개시하고(S324), 프록시 서버로 제공한다(S326). 프록시 서버는 이를 통합 서버로 전송한다(S328). When the product storage door opening/closing sensor senses the opening/closing of the door (S320), this is regarded as the customer's product selection behavior, and the sensing information is provided to the second camera (134 in FIG. 1) (S322). The second camera starts taking images using the opening/closing sensing information as a trigger (S324) and provides the video to the proxy server (S326). The proxy server transmits this to the integrated server (S328).

다음으로, 상품 결제와 관련하여, 결제 단말에서 결제 프로세스가 진행되면(S330), 결제 단말은 결제 진행과 관련된 정보를 제 3 카메라(도 1의 142)에 제공한다(S332). 제 3 카메라는 이를 트리거로 하여, 영상 촬영을 개시하고(S334), 프록시 서버로 제공한다(S336). 프록시 서버는 이를 통합 서버로 전송한다(S338). Next, in relation to product payment, when the payment process proceeds at the payment terminal (S330), the payment terminal provides information related to the payment progress to the third camera (142 in FIG. 1) (S332). The third camera uses this as a trigger to start recording video (S334) and provides it to the proxy server (S336). The proxy server transmits this to the integrated server (S338).

도 3의 실시예에서는, 개별 센서들이 직접 센싱 정보를 대응하는 카메라로 제공하는 것으로 설명하고 있지만, 직접 센싱 정보를 송수신하지 않고, 프록시 서버를 거쳐 정보를 송수신할 수도 있다. 예를 들어, 출입 센서가 고객의 출입을 센싱하면, 센싱 정보를 프록시 서버로 전달하고, 프록시 서버는 어느 센서로부터의 센싱 정보인지 식별한 후, 그에 대응하는 카메라(즉, 제 1 카메라)로 촬영 요청 메시지를 전송하는 방식으로 동작할 수 있다. 즉, 센서는 센싱 정보를 모두 프록시 서버로 전송하고, 프록시 서버는 센서로부터의 센싱 정보를 식별하여 그에 대응하는 카메라를 추출한 뒤, 추출된 카메라로 촬영 요청 메시지를 전달한다. 본 실시예에서, 프록시 서버는 센서와 카메라 간의 매핑 관계를 나타내는 매핑 테이블을 보유하고 있을 수 있다. 또한 관리자는 이를 임의로 변경 또는 새로 설정할 수 있다. In the embodiment of FIG. 3, it is explained that individual sensors directly provide sensing information to the corresponding camera, but instead of directly transmitting and receiving sensing information, information may be transmitted and received through a proxy server. For example, when an access sensor senses a customer's entrance, the sensing information is transmitted to the proxy server, and the proxy server identifies which sensor the sensing information is from and then takes a picture with the corresponding camera (i.e., the first camera). It can operate by sending a request message. In other words, the sensor transmits all sensing information to the proxy server, and the proxy server identifies the sensing information from the sensor, extracts the corresponding camera, and then delivers a shooting request message to the extracted camera. In this embodiment, the proxy server may maintain a mapping table representing the mapping relationship between sensors and cameras. Additionally, the administrator can change or set new settings at will.

또한, 본 발명의 다른 실시예에 따르면, 센싱이 이루어졌을 때, 촬영을 개시할 수도 있으나, 카메라가 촬영을 계속하고 있는 상태에서 다른 동작이 수행되도록 할 수도 있다. 카메라는, 센싱 정보에 기반하여, 고객의 행동 패턴 또는 행동 단계 식별을 위한 기준 시점을 설정하도록 제어할 수 있다. 예를 들어, 제 1 카메라는 출입문 방향을 계속하여 촬영하고 있다가, 출입 센서로부터 센싱 정보를 수신함에 대응하여, 센싱 정보 수신 시점을 고객의 매장 출입 시점으로 인식할 수 있다. 이에 따라, 고객의 매장 출입 시점을 센싱 정보 수신 시점을 기준으로 설정하여, 영상 분석에 활용할 수 있다. 일 예로, 기준 시점 전후 기설정된 일정 시간의 영상을 해당 고객 관련 매장 출입 영상으로 구분하고, 매장 출입 영상이 필요할 때, 이 일정 시간의 영상을 호출하여 분석에 이용할 수 있다. 즉, 카메라는 센싱 정보를 기반으로 영상에 시점 관련 기준 인덱스(index)를 부여하는 형태로 동작한다. Additionally, according to another embodiment of the present invention, when sensing is achieved, shooting may be started, but other operations may be performed while the camera continues shooting. The camera can be controlled to set a reference point for identifying customer behavior patterns or action steps based on sensing information. For example, the first camera may continuously capture images in the direction of the door, and in response to receiving sensing information from the entrance sensor, may recognize the point in time at which the sensing information is received as the point in time at which the customer enters the store. Accordingly, the customer's store entry point can be set based on the sensing information reception point and used for video analysis. For example, videos of a preset period of time before and after the reference point can be divided into store entrance videos related to the customer, and when store entrance videos are needed, the videos of this certain time can be called and used for analysis. In other words, the camera operates by assigning a viewpoint-related standard index to the image based on sensing information.

도 4는 무인 매장 내 다수의 카메라 장비를 통해 획득된 영상 데이터들에 라벨링(Labeling)을 수행하여 일괄적으로 관리하는 방법을 설명하기 위한 개념도이다. Figure 4 is a conceptual diagram to explain a method of labeling and collectively managing image data acquired through multiple camera equipment in an unmanned store.

도 4를 참조하면, 통합 서버는 출입 감지 카메라로부터 획득한 제 1 영상 데이터, 상품 선택과 관련된 카메라로부터 획득한 제 2 영상 데이터 및 상품 결제와 관련된 카메라로부터 획득한 제 3 영상 데이터를 수집하여, 개별 영상 내에 존재하는 고객마다 라벨링을 수행한다. 둘 이상의 고객이 하나의 영상에 존재할 때는 각각 서로 다른 라벨을 부착한다. 제 1 영상 데이터에는 두 명의 고객이 있어, 하나는 #1, 다른 하나는 #2의 라벨이 부착된다. 영상 내 고객의 검출은 인공지능(AI: Artificial Intelligence) 기반의 기계 학습 모델(Machine Learning Model)(이하, '인공지능 모델'로 부를 수 있음)을 통해 수행된다. 즉, 얼굴 트랙킹(face tracking), 또는 기타 사람의 인상착의를 트랙킹하는 영상 분석/객체 검출 모델을 이용하여 영상 내의 사람을 인식하고, 복수의 인식된 사람을 구분할 수 있다. Referring to FIG. 4, the integrated server collects first image data obtained from an entry detection camera, second image data obtained from a camera related to product selection, and third image data obtained from a camera related to product payment, and individual Labeling is performed for each customer present in the video. When more than one customer is present in one video, different labels are attached to each customer. There are two customers in the first video data, one is labeled #1 and the other is labeled #2. Detection of customers in the video is performed through an artificial intelligence (AI)-based machine learning model (hereinafter referred to as an ‘artificial intelligence model’). In other words, it is possible to recognize people in a video and distinguish a plurality of recognized people using face tracking or other image analysis/object detection models that track people's facial expressions and clothing.

위와 같은 인공지능 모델을 통해, 제 1 영상 데이터에서 라벨링이 이루어지고 나면, 제 2 영상 데이터(상품 선택 동작 촬영 데이터)들 중에서 라벨링된 고객의 영상을 검출한다. 그리고는, 해당 영상에도 동일하게 라벨링을 수행한다. 즉, 다수의 제 2 영상 데이터에서 #1로 라벨링된 고객을 검출하여, 검출된 영상 내의 고객을 #1로 라벨링한다. 이와 동일한 방식으로 다수의 제 3 영상 데이터(상품 결제 동작 촬영 데이터)에서도 #1로 라벨링된 고객을 검출하여, 검출된 영상 내의 고객을 #1로 라벨링한다. After labeling is done in the first image data through the above artificial intelligence model, the labeled customer's image is detected from the second image data (product selection motion shooting data). Then, the same labeling is performed on the corresponding image. That is, a customer labeled as #1 is detected from a plurality of second image data, and the customer in the detected image is labeled as #1. In the same way, a customer labeled as #1 is detected in a plurality of third image data (product payment operation capture data), and the customer in the detected image is labeled as #1.

그리고는, #1로 라벨링된 고객이 포함된 영상을 데이터베이스 내의 특정 물리적 위치(#1로 표시된 폴더)에 저장한다. 동일한 방식으로 #2로 라벨링된 고객과 관련된 영상은 다른 물리적 위치(#2로 표시된 폴더)에 저장한다. 영상 내에 다수의고객의 존재할 때, 하나의 영상 데이터는 다수의 폴더에 동시에 저장될 수 있다. 이러한 라벨링은 특정 상품을 대상으로 이루어질 수도 있고, 상품별 영상 데이터가 기지정된 물리적 위치에 저장될 수도 있다. Then, the video containing the customer labeled #1 is saved to a specific physical location in the database (folder labeled #1). In the same way, videos related to customers labeled #2 are stored in a different physical location (folder labeled #2). When there are multiple customers in a video, one video data can be stored in multiple folders simultaneously. Such labeling may be performed for specific products, and image data for each product may be stored in a predetermined physical location.

한편, 통합 서버는 고객의 동작을 인공지능 기반의 모션 인식 모델을 이용하여 구분할 수 있다. 예를 들어, 고객의 입장 및 퇴장은 기본적인 출입 동작에서 크게 벗어남이 없겠지만, 상품의 선택 동작은 다양한 모션이 존재할 수 있다. 예를 들어, 상품을 집어드는 행위, 집었다가 다시 놓는 행위, 냉장고 도어만 개폐하는 행위, 상품을 다양하게 시험해보는 행위 등이 존재할 수 있다. Meanwhile, the integrated server can distinguish customer movements using an artificial intelligence-based motion recognition model. For example, a customer's entry and exit may not deviate significantly from the basic entry and exit motions, but the product selection motion may have various motions. For example, there may be actions such as picking up a product, picking it up and putting it back, opening and closing the refrigerator door, or testing various products.

이러한 다양한 동작을 크라우드 소싱(Crowd Sourcing) 등의 방법을 통해 다양한 학습데이터로 생성하여 보다 세분화된 동작으로 구분할 수도 있다. 즉, 크라우드 소싱을 통해 전세계 관련 영상들을 수집함으로써 방대한 양의 학습 데이터 셋을 확보할 수 있다. 또한, 실제 인공지능 모델을 실행하면서 촬영된 영상 데이터 및 그에 대한 분석 결과를 다시 학습 데이터 셋으로 생성하여 자가 학습을 수행할 수도 있다.These various movements can be divided into more detailed movements by generating various learning data through methods such as crowd sourcing. In other words, a massive amount of learning data set can be secured by collecting related videos from around the world through crowdsourcing. In addition, self-learning can be performed by generating image data captured while running an actual artificial intelligence model and its analysis results as a learning data set.

이때, 세분화된 동작 구분과 관련하여, 제 2 영상 데이터를 상품 선택 관련 영상으로 할 것이 아니라, 제 2-1 영상으로 상품을 집어드는 영상, 제 2-2 영상으로 상품을 장바구니에 넣는 행위와 관련된 영상, 제 2-3 영상으로 상품을 장바구니에서 빼내는 행위와 관련된 영상 등 보다 세분화된 동작을 지시하는 영상으로 구분하고, 이를 고객의 행동 패턴 또는 행동 단계로 적용할 수 있다. At this time, in relation to the segmentation of actions, the second video data should not be a video related to product selection, but rather a video of picking up a product in video 2-1 and an act of putting a product into a shopping cart in video 2-2. Videos can be divided into videos that instruct more detailed actions, such as videos related to removing products from the shopping cart, and can be applied to customer behavior patterns or action steps.

결제 행위와 관련하여서도, 상품을 장바구니에서 빼내는 행위, 계산대에 놓는 행위, 상품 내의 바코드를 바코드 리더에 읽히는 행위, 결제 카드를 삽입하는 행위 등을 구분할 수 있다. 더 나아가서는, 계산대에 물건을 놓는 행위를 기반으로 계산대에 놓은 상품의 갯수를 추론할 수 있고, 상품 바코드를 읽히는 행위 및 결제 내역을 기반으로 결제된 상품의 갯수를 추론할 수 있으며, 둘 간의 차이를 비교하여 결제시 누락된 상품의 갯수를 추론할 수 있다. Regarding payment behavior, actions such as removing a product from the shopping cart, placing it at the checkout counter, reading the barcode in the product with a barcode reader, and inserting a payment card can be distinguished. Furthermore, the number of products placed at the checkout can be inferred based on the act of placing items at the checkout, and the number of products paid for can be inferred based on the act of reading the product barcode and payment history, and the difference between the two. By comparing, you can infer the number of products missing during payment.

또한, 카메라(134)를 통해 획득된 제 2 영상 데이터 내에서, 라벨링된 고객이 선택한 상품의 종류 및 갯수에 대한 정보와 결제 단말을 통해 획득되는 결제 내역에서, 결제된 상품의 종류 및 갯수를 비교하여, 누락된 상품이 존재하는지 여부 및 누락된 상품의 갯수를 산출할 수 있다.In addition, in the second image data acquired through the camera 134, information on the type and number of products selected by the labeled customer is compared with the type and number of products paid in the payment history obtained through the payment terminal. Thus, it is possible to calculate whether a missing product exists and the number of missing products.

특히, 인공지능 기반의 객체 검출 및 모션 인식 기술을 통해, 세분화된 단계 및/또는 패턴이 많을수록 도난 및 보안 관련 분석을 위한 데이터 및 매장의 매출 증대를 위한 경영 데이터로서의 활용성은 증가된다.In particular, through artificial intelligence-based object detection and motion recognition technology, the more granular steps and/or patterns there are, the more useful it becomes as data for theft and security-related analysis and as management data to increase store sales.

기본적으로, 통합 서버는 고객을 위의 제 1 내지 제 3 영상 데이터 내의 라벨링된 고객의 존재 및 고객의 행동 분석을 통해, 특정 고객이 매장에 입장만 한 고객인지, 상품 선택까지 한 고객인지, 상품 결제까지 한 고객인지 구분할 수 있다. 즉, #1의 고객은 제 1 영상 데이터에도 존재하고, 제 2 영상 데이터에도 존재하며, 제 3 영상 데이터에도 존재함에 근거하여, 매장 출입부터, 상품 선택 및 상품 결제까지 한 고객으로 판단할 수 있다. #2의 고객은 제 1 영상 데이터에는 존재하나 제 2 영상 데이터 및 제 3 영상 데이터에는 존재하지 않음에 근거하여, 매장 출입만 하고, 상품 선택 및 상품 결제는 하지 않고 나간 고객으로 판단할 수 있다. 또한, 제 1 영상 데이터와 제 2 영상 데이터에는 존재하나, 제 3 영상 데이터에는 존재하지 않는 고객은, 매장 출입과 상품 선택까지 하였으나, 상품 결제는 하지 않은 고객으로 판단할 수 있다. 이때, 제 2 영상 데이터를 세분화하여, 상품을 도로 상품보관소에 놓는 행위와 관련된 데이터가 있는지 확인하는 것이 바람직하다. 더욱이, 고객의 퇴장 영상(제 4 영상 데이터(미도시))을 활용하면 보다 효과적으로 고객의 행동 패턴을 분석할 수 있다. 퇴장 영상 분석을 통해, 고객이 상품을 들고 나갔는지 들고 나가지 않았는지를 명확히 확인할 수 있기 때문이다. Basically, the integrated server analyzes the existence of labeled customers in the first to third image data above and analyzes the customer's behavior to determine whether a specific customer is a customer who only entered the store or a customer who selected the product. You can distinguish whether a customer has made a payment or not. In other words, based on the fact that customer #1 exists in the first video data, the second video data, and the third video data, it can be determined as a customer who entered the store, selected the product, and paid for the product. . Based on the fact that customer #2 exists in the first image data but does not exist in the second and third image data, it can be judged as a customer who entered the store and left without selecting a product or paying for the product. Additionally, a customer who exists in the first and second image data but does not exist in the third image data may be determined as a customer who entered the store and selected a product, but did not pay for the product. At this time, it is desirable to segment the second image data to check whether there is data related to the act of placing the product in the road product storage. Moreover, by using the customer's exit video (fourth video data (not shown)), the customer's behavior pattern can be analyzed more effectively. This is because, through exit video analysis, it is possible to clearly check whether the customer left with the product or not.

다시 말해, 통합 서버는, 제 1 영상 데이터를 이용하여 개별 고객의 출입 여부를 체크(check)하고, 제 2 영상 데이터를 이용하여 고객의 상품 선택 여부를 체크하며, 제 3 영상 데이터 및/또는 결제 정보를 이용하여 고객의 상품 결제 여부를 체크할 수 있다. 또한, 퇴장 영상 데이터를 이용하여 고객이 상품을 가지고 나갔는지, 가져가지 않고 들어올 때와 동일 또는 유사하게 나갔는지를 최종 점검할 수 있다. 이때, 고객이 상품을 들고 나가는 백(bag)이 비닐 봉지와 같이 내부가 보이는 백인 경우에는, 가져나간 상품의 종류 및 갯수까지 보다 명확하게 분별할 수 있다.In other words, the integrated server uses the first image data to check whether the individual customer enters or exits, uses the second image data to check whether the customer has selected a product, and uses the third image data and/or payment. You can use the information to check whether the customer has paid for the product. In addition, using exit video data, it is possible to finally check whether the customer left with the product or left in the same or similar manner as when he or she entered. At this time, if the bag that the customer carries the product in is a bag with the inside visible, such as a plastic bag, the type and number of products taken can be more clearly distinguished.

특히, 카메라가 촬영한 영상 데이터에는 모두 시간 정보가 포함되어 있기 때문에, 시간의 흐름에 따른 고객의 행동을 보다 명확하게 유추할 수 있다. 즉, 매장 출입 후, 제 1 냉장고로 가서 상품을 선택하였고, 그 다음 제 3 냉장고로, 그 다음 제 2 냉장고로 가서 상품을 선택하였으며, 이후 상품 결제 후, 14시 05분 12초에 퇴장하였다는 일련의 고객의 매장 내 행동 흐름을 거의 완벽하게 파악할 수 있다. 위와 같은 고객의 중요 행위마다 센싱 정보, 및 결제 정보가 존재하고, 이를 기반으로 동작하는 카메라가 존재하기 때문에, 영상 내의 특정 행동 관련 인덱스를 기반으로 고객의 행동 흐름을 조합할 수 있는 것이다. In particular, since all video data captured by the camera includes time information, customer behavior over time can be inferred more clearly. In other words, after entering the store, he went to the first refrigerator and selected a product, then went to the third refrigerator, then went to the second refrigerator and selected a product, and after paying for the product, he left at 14:05:12. You can almost completely understand the in-store behavior flow of a series of customers. Since there is sensing information and payment information for each important customer action as above, and there is a camera that operates based on this, the customer's action flow can be combined based on the index related to specific actions in the video.

도 5는 도 4의 라벨링된 영상 데이터를 분석한 결과를 표현하는 테이블이다. Figure 5 is a table expressing the results of analyzing the labeled image data of Figure 4.

도 5를 참조하면, 통합 서버는, 도 4의 영상 분석 방법을 통해, 행동 패턴을 기설정된 복수 개의 타입으로 구분할 수 있다. 도 4의 실시예에서는 A부터 C까지 3가지 타입으로 구분하였지만, 행동 패턴 시나리오를 다르게 설정함에 따라 더 많은 타입으로 세분화될 수 있음은 본 발명이 속하는 기술분야의 통상의 기술자에게는 자명한 것일 것이다. Referring to FIG. 5, the integrated server can classify behavior patterns into a plurality of preset types through the video analysis method of FIG. 4. In the embodiment of FIG. 4, it is divided into three types from A to C, but it will be obvious to those skilled in the art that it can be subdivided into more types by setting different behavior pattern scenarios.

먼저, 통합 서버는 매장 입장, 상품 선택 및 결제까지 수행한 #1과 같은 고객은 A 타입(type)으로 구분할 수 있다. 그리고, 매장 입장 및 상품 선택을 하였으나, 결제는 수행하지 않은 #2와 같은 고객을 B 타입으로 구분할 수 있다. 또한, 매장 입장만 하고, 상품 선택 및 결제를 하지 않은 #3과 같은 고객을 C 타입으로 구분할 수 있다. 즉, 이와 같은 구분법을 이용하여 사용자가 설정한 제 1 시점부터 제 2 시점까지의 고객에 대해 모두 행동 패턴을 분석하여 3가지 타입 중 하나로 구분할 수 있다. First, the integrated server can classify customers like #1, who entered the store, selected products, and made payments, into type A. Additionally, customers such as #2 who entered the store and selected a product but did not make a payment can be classified as type B. Additionally, customers such as #3, who only entered the store but did not select products or pay, can be classified as Type C. In other words, using this classification method, the behavior patterns of all customers from the first time point to the second time point set by the user can be analyzed and classified into one of three types.

본 발명의 실시예에 따르면, 통합 서버는 위 3가지 타입에 대해 서로 다른 시각적 표현으로 디스플레이 수단에서 표시되도록 제어할 수 있다. 또는, 청각적 표현을 다르게 할 수도 있다. 예를 들어, 관리자 단말에서 상기와 같이 타입 구분된 고객 행동 패턴 분석 결과를 표시할 때, 서버는 A 타입 고객은 푸른 색으로, C 타입 고객은 노란 색으로, B 타입 고객은 붉은 색으로 표시되도록 제어할 수 있다. 상대적으로, 도난과 관련하여, A 타입 고객이 가장 정상적인 구매 행위를 한 고객으로 볼 수 있고, 그 다음이 C 타입 고객, 그리고, B 타입 고객이, 가장 이상한 행동 패턴을 보인 고객으로 볼 수 있기 때문이다. 다시 말해, 매장 입장 및 상품 선택까지 했는데, 결제를 하지 않은 것은 상품을 가지고 결제하지 않고 그냥 가지고 나갔을 가능성을 배제할 수 없기 때문이다. According to an embodiment of the present invention, the integrated server can control the above three types to be displayed on the display means with different visual expressions. Alternatively, the auditory expression may be different. For example, when displaying the results of customer behavior pattern analysis divided by type as above on the administrator terminal, the server displays Type A customers in blue, Type C customers in yellow, and Type B customers in red. You can control it. Relatively, in relation to theft, type A customers can be seen as those with the most normal purchasing behavior, followed by type C customers, and type B customers can be seen as customers with the most unusual behavior patterns. am. In other words, the reason they entered the store and selected the product but did not pay is because we cannot rule out the possibility that they just took the product out without paying for it.

한편, 앞서 도 4에서도 언급한 바와 같이, 인공지능 모델은 보다 다양한 모션 인식이 가능하고, 이에 따라 세분화된 행동을 기반으로 3개보다 더 세분화된 행동 타입 설정 또한 가능하다. 예를 들어, 매장 퇴장 영상을 분석하여, 퇴장시 상품을 들고 나갔는지에 따라 타입을 구분할 수 있다. 특히, B 타입의 고객 중 퇴장시 영상을 기반으로 상품을 들고 나가지 않은 고객은 B-1 타입으로, 상품을 들고 나간 고객은 B-2 타입으로 보다 세분화할 수 있다. 이때, B-2 타입의 고객은 하이라이트 표시가 되도록 할 수도 있다. Meanwhile, as previously mentioned in FIG. 4, the artificial intelligence model is capable of recognizing more diverse motions, and accordingly, it is also possible to set more detailed action types than three based on the detailed actions. For example, by analyzing store exit videos, it is possible to classify types depending on whether a product is taken with it upon exit. In particular, among type B customers, based on the video when leaving, customers who did not take the product with them can be further subdivided into type B-1, and customers who left with the product can be further subdivided into type B-2. At this time, B-2 type customers may be highlighted.

도 6은 무인 매장의 재고 수량이 맞지 않을 때 영상 데이터 분석 결과를 사용자가 직관적으로 이해하도록 시각화하는 방법을 나타낸 흐름도이다. Figure 6 is a flowchart showing a method of visualizing the video data analysis results so that users can intuitively understand them when the inventory quantity in an unmanned store does not match.

도 6을 참조하면, 무인 매장 관리자는 정기적으로 재고 수량을 확인할 수 있다(S610). 관리자는 이미 재고 수량을 확인한 제 1 시점부터 다음 재고 수량 확인을 위한 제 2 시점까지의 기간 정보를 설정하고, 고객 행동 패턴 분석 결과를 활용할 수 있다. 즉, 관리자가 설정한 기간 내의 재고 수량과 결제된 상품 수량을 비교하여, 이상이 없는지 확인한다(S620). 제 1 시점의 재고는 제 2 시점의 재고에 결제된 상품을 더한 값과 일치해야 도난 없이 해당 기간 동안 모든 상품이 결제되어 빠져나간 셈이 된다. 이는 정상적이라 볼 수 있다. 그런데, 위 두 값이 맞지 않으면, 도난과 관련하여, 고객들의 영상 분석 결과를 살펴보는 것이 바람직하다. Referring to Figure 6, the unmanned store manager can regularly check the inventory quantity (S610). The manager can set the period information from the first time when the inventory quantity has already been confirmed to the second time to confirm the next inventory quantity, and utilize the results of customer behavior pattern analysis. In other words, the inventory quantity within the period set by the manager is compared with the paid product quantity to check whether there are any abnormalities (S620). The inventory at the first point in time must match the inventory at the second point in time plus the paid products to ensure that all products have been paid for and taken out during that period without theft. This can be considered normal. However, if the above two values do not match, it is desirable to look at the results of customers' video analysis in relation to theft.

이때, 영상 분석 결과를 표시함에 있어서, 도난과 관련되어 있을 가능성이 높은 타입의 고객들을 먼저 표시한다. 즉, B 타입의 고객을 먼저 표시하고(S630), 그 다음 C 타입의 고객(S640), 그리고 마지막에 A 타입의 고객들을 표시한다(S650). 표시할 때, 도 5와 같이, 테이블 형태로 해당 타입의 고객들을 표시한다. 행에는 고객의 라벨이 열에는 고객의 행동 단계가 표시되도록 할 수 있다. 그 반대여도 무방하다. At this time, when displaying the video analysis results, the types of customers most likely to be involved in theft are displayed first. That is, type B customers are displayed first (S630), then type C customers (S640), and finally type A customers (S650). When displaying, customers of the corresponding type are displayed in a table format, as shown in Figure 5. You can display customer labels in rows and customer action steps in columns. It is okay to do the opposite.

관리자는 먼저 B 타입의 고객을 정렬하여 볼 수 있고, 그 다음 C 타입의 고객을 본다. 그리고 나서, A 타입의 고객을 보면서 도난과 관련된 행위를 한 고객을 찾아낸다. 이하 도 7을 통해 이 과정을 보다 상세히 설명한다. The manager can sort through type B customers first, and then look at type C customers. Then, by looking at Type A customers, it identifies customers who have committed acts related to theft. This process will be described in more detail below with reference to FIG. 7.

도 7은 도 6의 방법에 따라 시각화하는 중에, 사용자 입력이 있을 때, 그에 대응하는 영상 데이터를 효율적으로 재생하는 방법을 설명하기 위한 개념도이다. FIG. 7 is a conceptual diagram illustrating a method of efficiently reproducing image data corresponding to a user input during visualization according to the method of FIG. 6 .

도 7을 참조하면, 통합 서버는 관리자 단말이든, 프록시 서버와 연결된 디스플레이 수단이든, 매장 내 디스플레이 장치든, 고객의 행동 패턴이 시각화되어 표시되도록 제어한다. 이때, 도 6의 방법과 같이, 개별 타입별로 고객들을 정리하는 형식으로 표시하는 것이 바람직하다. 예를 들어, B 타입의 고객들만 나열하여 표시하는 경우, 도 7의 실시예와 같이, 해당 설정된 기간 내에는 #3, #7, 및 #8의 고객들만이 표시될 수 있다. 이들은 모두, 매장 입장과 상품 선택을 했지만, 상품 결제는 하지 않고 간 고객들이다. Referring to FIG. 7, the integrated server controls the customer's behavior pattern to be visualized and displayed, whether it is an administrator terminal, a display means connected to a proxy server, or an in-store display device. At this time, it is desirable to display it in a format that organizes customers by individual type, as in the method of FIG. 6. For example, when only type B customers are listed and displayed, as in the embodiment of FIG. 7, only customers #3, #7, and #8 can be displayed within the set period. These are all customers who entered the store and selected a product, but did not pay for the product.

이때, 통합 서버는 고객의 퇴장 영상을 고려하여, 고객의 입장부터 퇴장까지의 체류 시간을 더 표시해줄 수 있다. 다른 예에서, 앞서 설명한 바와 같이, 퇴장시 고객이 상품을 들고 나갔는지를 분석하여 표시해줄 수 있다. At this time, the integrated server can further display the customer's stay time from entry to exit by considering the customer's exit video. In another example, as described above, it is possible to analyze and display whether the customer left with the product upon exiting.

일반적으로 이러한 도난 사고가 발생했을 때, 관리자는 매장 내 설치된 CCTV 화면을 백워드 재생(backward play)하여 사고 당시 화면을 찾아낸다. 즉, 설정된 기간동안의 영상을 빠르게 포워딩한다 하더라도, 모든 시간대의 영상을 일일이 확인하여야 하기에, 효율적이지 못하다. 실제 도난 사고 화면을 찾아내기도 어렵다.Typically, when such a theft incident occurs, the manager plays backwards the CCTV footage installed in the store to find the scene at the time of the incident. In other words, even if the video for a set period is quickly forwarded, it is not efficient because the video in all time periods must be checked one by one. It is also difficult to find a screen of the actual theft incident.

하지만, 본 발명의 일 실시예에 따른, 무인 매장 시스템은 타입별 고객들을 테이블로 표시하는 사용자 인터페이스 상에서, 특정 라벨의 고객을 선택하여, 해당 고객의 영상 데이터를 신속하게 로딩하여 재생함으로써 도난 사고와 관련된 영상을 빠르게 확인할 수 있다. However, according to an embodiment of the present invention, the unmanned store system selects a customer of a specific label on a user interface that displays customers by type in a table, and quickly loads and plays the customer's video data to prevent theft accidents and You can quickly check related videos.

도 7의 실시예에서, #8의 고객의 체류시간이 비정상적으로 긴 것을 인지한 관리자는 상기 테이블에서 #8 고객을 클릭하여, 해당 고객과 관련된 영상 데이터를 전체 로딩 후 재생할 수 있다. 이때, 영상 데이터는 #8 고객과 관련된 모든 영상(예를 들어, 제 1 영상부터 제 n 영상)까지 준비될 수 있다. 그리고, 개별 영상 데이터는 특정 행위가 발생한 시점을 기준으로 전후 ±1분의 시간동안의 영상을 추출하여 재생하는 것이기 때문에, 이를 확인하는데 그리 오랜 시간이 걸리지 않는다. 이러한 방법을 활용하기에, 관리자는 설정 기간 전체에 대한 영상을 일일이 확인할 필요가 없다. 여기서, 전후 ±n 분의 시간은 반드시 1분일 필요는 없고, 2분, 3분, 4분, 5분, 10분, 20분 등 다른 기간으로 설정되어도 무방하다. 예를 들어, #8 고객의 매장 출입 영상을 재생할 때, #8 고객의 매장 출입 시점을 기준점으로 하여, 매장 출입 전 1분부터 매장 출입 후 1분까지의 영상(카메라(120)을 통해 촬영된 영상)을 재생한다. 그리고, 상품 선택과 관련하여, #8 고객과 관련된 제 2 영상 데이터가 존재할 때, 상품 선택 시점을 기준으로, 상품 선택 전 1분부터 상품 선택 후 1분까지의 영상을 준비하여 재생한다. 상품 선택 관련하여서는, 다수의 냉장고(냉장고 1, 냉장고 3, 냉장고 4, ...)를 뒤져가며 선택을 할 수도 있기 때문에, 다수의 상품 선택 영상 데이터에서, 상품 선택 시점을 기준으로 ±1분의 영상을 다수 재생할 수 있다. 여기서, 상품 선택 시점은 냉장고의 경우, 냉장고 도어 개폐 시점이 될 수 있다. 또한, 출입문, 냉장고, 결제 단말 외, 다른 곳을 비추는 영상 데이터 상에 #8의 고객이 표시되는 경우, 해당 고객의 표시 시점을 기준으로 표시되기 전 1분부터 표시된 후 1분의 데이터를 준비하여 재생시킬 수 있다. 이때, 사용자가 기준시점 이전 또는 이후로 더 많은 시간 구간에 대한 영상을 보고 싶으면, 사용자의 명령 입력에 의해, 해당 영상의 1분 이전 구간 또는 1분 이후 구간에 대한 컨텐츠를 재생할 수 있다. In the embodiment of Figure 7, the manager who recognizes that customer #8's stay time is abnormally long can click customer #8 in the table, load all video data related to that customer, and then play it. At this time, video data may be prepared from all images related to customer #8 (for example, from the first image to the nth image). In addition, since individual video data is extracted and played back for a period of ±1 minute before and after the time when a specific action occurred, it does not take a long time to check it. By using this method, the administrator does not need to manually check the video for the entire set period. Here, the time ±n minutes before and after does not necessarily have to be 1 minute, and may be set to other periods such as 2 minutes, 3 minutes, 4 minutes, 5 minutes, 10 minutes, and 20 minutes. For example, when playing a video of customer #8 entering the store, the time of customer #8 entering the store is used as a reference point, and the video (captured through the camera 120) from 1 minute before entering the store to 1 minute after entering the store video) is played. In relation to product selection, when second video data related to customer #8 exists, videos from 1 minute before product selection to 1 minute after product selection are prepared and played based on the time of product selection. Regarding product selection, since selection can be made by looking through multiple refrigerators (refrigerator 1, refrigerator 3, refrigerator 4, ...), in the video data of multiple product selections, ±1 minute is recorded based on the time of product selection. Multiple videos can be played. Here, in the case of a refrigerator, the time of product selection may be the time of opening or closing the refrigerator door. In addition, if customer #8 is displayed on video data that is projected somewhere other than the door, refrigerator, payment terminal, etc., we prepare data from 1 minute before display to 1 minute after display based on the customer's display time. It can be regenerated. At this time, if the user wants to view the video for a longer time period before or after the reference point, the content for the section 1 minute before or 1 minute after the video can be played by inputting a command from the user.

앞서 도 5의 실시예에서, 보다 세분화된 동작으로 구분할 수 있다는 것을 언급하였듯이, 도 7의 테이블 상에서 상품 선택과 더불어 상품 선택 취소 동작을 인식할 수 있고, 상품 선택 취소 동작의 유무를 테이블 상에 표시해줄 수 있다. 즉, #3 및 #8 고객은 상품 선택 동작도 있고, 상품 선택 취소 동작도 있는 반면, #7 고객은 상품 선택 동작만 있고, 상품 선택 취소 동작이 없는 분석 결과를 관리자에게 표시해줄 수도 있다. 그러면, 관리자는 #7 고객의 세부 영상을 보고자 할 것이고, 관리자는 #7 고객 관련 영상을 살펴봄으로써 어디에서 도난이 발생하였는지를 확인할 수 있다. As previously mentioned in the embodiment of FIG. 5 that it can be divided into more detailed operations, a product selection cancellation operation can be recognized in addition to a product selection on the table of FIG. 7, and the presence or absence of a product selection cancellation operation is displayed on the table. I can do it. In other words, while customers #3 and #8 have both a product selection action and a product selection cancellation action, the analysis results for #7 customer only have a product selection action and no product selection cancellation action can be displayed to the manager. Then, the manager will want to look at the detailed video of customer #7, and by looking at the video related to customer #7, the manager can check where the theft occurred.

본 발명의 실시예에 따르면, 테이블 내의 고객 라벨 부분(710)과 동작 부분(720-1, 720-2, ...)을 특정하여 클릭함으로써, 해당 고객의 해당 동작에 대응하는 화면만 표시되도록 제어할 수 있다. 예를 들어, 고객의 라벨 부분(710)을 클릭하면, 해당 고객과 관련된 모든 영상이 준비될 수 있다. 다만, 특정 고객의 매장 입장 부분(720-1)을 클릭하면, 매장 입장과 관련된 제 1 영상 데이터만 재생되도록 할 수 있다. 상품 선택 부분만 보고 싶은 땐, 해당 고객의 열 내에서 상품 선택 동작을 지시하는 행 부분(720-2)을 클릭하면, 해당 동작과 관련된 제 2 영상 데이터만이 재생되도록 할 수 있다. According to an embodiment of the present invention, by specifically clicking on the customer label part 710 and the action parts 720-1, 720-2, ... in the table, only the screen corresponding to the corresponding action of the customer is displayed. You can control it. For example, if you click on the customer's label part 710, all videos related to that customer can be prepared. However, if a specific customer clicks on the store entry portion (720-1), only the first video data related to the store entry can be played. If you want to view only the product selection portion, click on the row portion (720-2) that indicates the product selection action within the corresponding customer's column, and only the second video data related to the corresponding action can be played.

도 8은 도 1의 매장 내 디스플레이 장비 및 스피커를 통해 매장 내 고객의 행동 패턴을 실시간으로 나타내는 동작을 설명하기 위한 개념도이다. FIG. 8 is a conceptual diagram illustrating an operation of displaying in-store customer behavior patterns in real time through the in-store display equipment and speakers of FIG. 1.

도 8을 참조하면, 통합 서버(또는 프록시 서버)는 매장 내 고객의 행동 패턴을 실시간으로 분석하여, 매장 내 디스플레이 장치 및/또는 스피커로 출력되도록 할 수 있다. 예를 들어, 디스플레이 장치의 화면을 분할하여, 다수의 고객을 표시하도록 하고, 현재 입장된 고객들에 대해, 고객을 촬영하는 영상을 고객 라벨과 함께 출력하도록 하며, 이때, 고객의 행동 단계를 앞서 행동 패턴 분석과 동일 또는 유사한 형태로 파악하여 출력할 수 있다. 예를 들어, #1의 고객이 입장 후, 상품 선택도 완료하였고, 현재 결제 단말에서 결제를 수행하고 있다면, 고객 입장이 감지되었을 때, 제 1 카메라(도 1의 120) 영상을 (동시에 라벨링도 수행) 표시하면서 "입장"이라는 동작 단계를 표시하고, 상품 선택 센싱 정보가 있을 때, 제 2 카메라(도 1의 134) 영상을 표시하면서 "상품 선택"이라는 동작 단계를 표시하며, 결제 단말에서 결제 진행이 감지될 때, 제 3 카메라(도 1의 142) 영상을 표시하면서 "결제 중"이라는 동작 단계를 표시하도록 제어할 수 있다. 이를 통해, 고객이 매장 내에 있을 때, 자신의 행동이 계속하여 모니터링된다는 것을 느끼게 하여, 도난 및 파손 행위를 방지하는 효과를 가질 수 있다. 동작 단계의 표현는 영상으로만 출력하는 것이 아니라, 스피커를 통해 "2번 고객님 입장하였습니다" 또는 "3번 고객님 상품 선택 중이십니다" 등과 같이, 고객의 라벨과 동작 단계 정보를 음성으로 출력되게 제어할 수 있다. Referring to FIG. 8, the integrated server (or proxy server) can analyze customer behavior patterns within the store in real time and output them to a display device and/or speaker within the store. For example, the screen of the display device is divided to display multiple customers, and for currently entered customers, a video of the customer is output along with a customer label. At this time, act ahead of the customer's action stage. It can be identified and output in the same or similar form as pattern analysis. For example, if customer #1 enters, completes product selection, and is currently making a payment at the payment terminal, when the customer's entry is detected, the image from the first camera (120 in Figure 1) is displayed (and also labeled at the same time). When there is product selection sensing information, the second camera (134 in FIG. 1) displays an image of the second camera (134 in FIG. 1) and displays an action step called “product selection”, and payment is made at the payment terminal. When progress is detected, it can be controlled to display the operation stage “paying” while displaying the image of the third camera (142 in FIG. 1). This can have the effect of preventing theft and vandalism by making customers feel that their actions are continuously monitored when they are in the store. The expression of the action step is not only output as a video, but the customer's label and action step information can be controlled to be output by voice through the speaker, such as "Customer number 2 has entered" or "Customer number 3 is selecting a product." there is.

한편, 디스플레이 장치 내에서 특정 고객의 영상은 해당 고객이 퇴장한 후 5분 후에 삭제되도록 할 수 있다. 이때, 반드시 5분일 필요는 없고, 1분, 2분 등으로 설정되어도 무방하다. Meanwhile, the video of a specific customer within the display device can be deleted 5 minutes after the customer leaves. At this time, it does not necessarily have to be 5 minutes, and may be set to 1 minute, 2 minutes, etc.

또한, 매장 내 고객이 많아질수록, 화면 분할을 보다 세분화하여, 더 작게 분할된 다수의 화면을 확보하는 것이 바람직하다. 이는 입장 고객 수에 맞게 적응적으로 실행도리 수 있다. Additionally, as the number of customers in the store increases, it is desirable to further segment the screen and secure a number of smaller screens. This can be implemented adaptively according to the number of customers entering.

도 9는 매장 내 연기 감지시 매장 내 디스플레이 장비 및 스피커를 통해 흡연자에게 경고하는 방법을 설명하기 위한 흐름도이다. Figure 9 is a flow chart to explain a method of warning smokers through display equipment and speakers within the store when smoke is detected within the store.

도 9를 참조하면, 본 발명의 일 실시예에 따른 무인 매장 시스템은 흡연 등을 감지하여 경고하는 시스템을 포함한다. 앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 무인 매장 시스템은 다양한 IoT 센서들과 연동할 수 있다. 일 예로, 연기 감지 센서를 일정 구역마다 배열하여, 전체 매장 내에서의 흡연 연기를 감지할 수 있다. 실제로, 무인 매장 내에서의 흡연은 큰 문제가 되고 있음에도 매장 내 사람이 없기에, 이를 검거하지 못하고 있는 실정이다. Referring to FIG. 9, the unmanned store system according to an embodiment of the present invention includes a system that detects and warns of smoking, etc. As described above, the unmanned store system according to an embodiment of the present invention can be linked with various IoT sensors. For example, smoke detection sensors can be arranged in certain areas to detect smoking smoke throughout the entire store. In fact, although smoking in unmanned stores is a big problem, it is not possible to arrest it because there are no people in the stores.

따라서, 본 발명의 일 실시예에 따른 무인 매장 시스템은 흡연 감지 센서를 구비하고, 연기가 감지될 때, 도 8의 실시예와 같이, 매장 내 디스플레이 장치를 통해 경고 메시지를 표시한다. 이때, 라벨링된 해당 고객의 현재 위치에 대응하는 카메라의 영상을 함께 표시한다. B 구역의 경우, 카메라 1과 매핑관계를 가질 수 있고, B 구역 연기 감지에 대응하여, 카메라 1에서 해당 고객의 영상을 촬영하며, 촬영된 영상을 디스플레이 장치에 표시된다. 이때, "흡연 금지"라는 문구와 함께 붉은 색으로 배경 화면을 변경시켜 경고 메시지를 표시한다. 이때, 스피커를 통해 음성 경고도 함께 출력하는 것이 바람직하다. 예를 들어, "9번 고객님 흡연 금지 구역입니다. 흡연을 금하여 주시기 바랍니다"라는 코멘트를 출력할 수 있다. 이러한 1차적인 경고에도 불구하고, 연기 감지 센서를 통해 계속하여 (임계 시간 이상동안) 흡연이 감지되면, 서버는 기설정된 보안 시스템과 연계하여 보안 요원이 출동하는 등의 조치를 취할 수 있다. 또는 관리자 단말로 흡연 감지 메시지를 전송하여 관리자로 하여금 적절한 조치를 취할 수 있도록 지원한다. Therefore, the unmanned store system according to an embodiment of the present invention is equipped with a smoking detection sensor, and when smoke is detected, displays a warning message through an in-store display device, as shown in the embodiment of FIG. 8. At this time, the video from the camera corresponding to the labeled current location of the customer is also displayed. In the case of Zone B, there may be a mapping relationship with Camera 1, and in response to smoke detection in Zone B, Camera 1 captures the customer's image, and the captured image is displayed on the display device. At this time, a warning message is displayed by changing the background screen to red along with the phrase “No smoking.” At this time, it is desirable to also output a voice warning through a speaker. For example, a comment such as “Customer number 9, this is a no-smoking area. Please refrain from smoking” can be printed. Despite this primary warning, if smoking continues to be detected (for more than a threshold time) through the smoke detection sensor, the server may take action such as dispatching a security guard in conjunction with a preset security system. Alternatively, a smoking detection message is sent to the administrator's terminal to help the administrator take appropriate action.

흡연과 마찬가지로, 매장 내 주류 취식도 사회적으로 큰 문제가 되고 있다. 본 발명의 일 실시예에 따른 무인 매장 시스템은 주류 상품류가 배열된 장소에 센서(도어 개폐 센서, 접근센서, 적외선 센서 등)를 배치하여, 주류 상품이 고객에 의해 선택되었음을 감지할 수 있다. 주류 선택이 감지되면, 해당 센서와 대응하는 카메라를 통해 해당 고객의 영상을 촬영하게 되는데, 이때, 주류 취식 행위(음주 행위)가 인공지능 기반의 모션 감지 모델을 통해 검출되면, 시스템은 흡연시와 유사하게, 매장 내 디스플레이 장치를 통해 주류 취식 영상과 경고 메시지를 함께 표시한다. 또한, 스피커로 경고할 수 있다. 위와 같은 1차 경고에도 불구하고, 계속하여 주류 취식이 이어지면, 서버는, 기설정된 보안 시스템과 연계하여 보안 요원이 출동케 하는 조치를 취하거나 관리자 단말로 주류 취식 감지 메시지를 전송하여 적절한 조취가 취해지도록 할 수 있다. Like smoking, drinking alcohol in stores is becoming a major social problem. The unmanned store system according to an embodiment of the present invention can detect that a mainstream product has been selected by a customer by placing sensors (door open/close sensor, access sensor, infrared sensor, etc.) in a location where mainstream products are arranged. When the choice of alcohol is detected, a video of the customer is captured through a camera corresponding to the sensor. At this time, if the act of consuming alcohol (drinking) is detected through an artificial intelligence-based motion detection model, the system Similarly, videos of alcohol consumption and warning messages are displayed together through in-store display devices. Additionally, a warning can be issued through the speaker. Despite the above primary warning, if alcohol consumption continues, the server takes action to dispatch security personnel in conjunction with the pre-set security system or sends an alcohol consumption detection message to the administrator terminal to take appropriate action. You can get drunk.

도 10은 도 1의 시스템을 통해 획득된 데이터를 무인 매장 경영 측에 활용하여 최적의 상품 진열 방법을 추론하는 인공지능 모델을 학습시키는 방법을 설명하기 위한 개념도이다. FIG. 10 is a conceptual diagram illustrating a method of learning an artificial intelligence model that infers the optimal product display method by using data acquired through the system of FIG. 1 for unmanned store management.

도 10을 참조하면, 본 발명의 일 실시예에 따른 무인 매장 시스템의 통합 서버는 매장 입장 수, 상품 선택 수, 결제 상품 수, 매장 매출 등을 고객의 행동 패턴과 함께 분석하여 매장 경영과 관련된 데이터를 도출할 수 있다. Referring to FIG. 10, the integrated server of the unmanned store system according to an embodiment of the present invention analyzes the number of store entries, number of product selections, number of paid products, store sales, etc. along with customer behavior patterns to generate data related to store management. can be derived.

일 예로, 시간대별 매장 입장 수, 상품 선택 수, 결제 상품 수 및 매장 매출 지표 중 적어도 일부를 학습 데이터 셋으로 하여, 상품 진열을 변경(A-B-C-D → B-C-A-D → ...)해가며, 상기 학습 데이터 셋을 인공지능 기반의 기계 학습 모델에 입력했을 때, 매장 매출을 최대화하는 방향으로 최적의 상품 진열 방법이 추론될 수 있다. 이때, 진열과 관련된 파라미터도 함께 입력으로 들어갈 수 있으며, 진열 파라미터를 변경하면서, 매장 매출 지표 및/또는 상품 선택 횟수와의 관계를 추론할 때, 매장 매출 지표 및/또는 상품 선택 횟수가 증대되는 방향으로 최적의 상품 배열 방안을 추론하는 형태로 인공지능 모델을 학습한다. 서버는, 이와 같은 방법으로 학습된 모델을 이용하여 최적의 상품 배열 방안을 추론한다. As an example, at least some of the number of store admissions by time, number of product selections, number of products paid, and store sales indicators are used as a learning data set, and the product display is changed (A-B-C-D → B-C-A-D → ...), and the learning data set When input into an artificial intelligence-based machine learning model, the optimal product display method can be inferred to maximize store sales. At this time, parameters related to display can also be entered as input, and when changing the display parameters and inferring the relationship with the store sales index and/or the number of product selections, the store sales index and/or the number of product selections are increased. An artificial intelligence model is learned to infer the optimal product arrangement method. The server infers the optimal product arrangement method using the model learned in this manner.

특히, 상품 선택수와 결제 상품 수와의 관계에서 최적 상품 진열을 추론할 수 있다. 통합 서버는, 상품별 선택 횟수 및 결제 횟수를 분석하여, 선택은 많았으나, 결제까지 이루어지지 않은 상품을 검출할 수 있고, 이를 관리자에게 표시할 수 있다. 예를 들어, 아이스크림 A 상품은 선택을 많이 되었으나, 선택했다가 다시 냉장고에 놓아지는 경우가 많을 수 있다. 이는, 앞서 설명하였던, 모션 인식 인공지능 모델을 통해, 상품별로 고객의 동작 패턴 인식을 통해 확인할 수 있다. 서버는, 이러한 상품은 현재 진열 형태가 적절하지 않다고 판단하고, 이를 변경할 수 있으며, 변경된 상품 진열 포맷을 학습데이터로 입력할 수 있다. 이와 함께, 상품 진열 포맷 변경과 그에 따른 매출 증대 또는 상품 진열 포맷 변경에 따라 상품 선택 후 다시 회귀하지 않고 결제까지 이루어지는지 여부 등의 결과 값을 함께 학습데이터로 생성하여, 최적의 상품 진열 포맷을 도출하는 인공지능 모델을 생성, 학습 및 실행할 수 있다. In particular, optimal product display can be inferred from the relationship between the number of product selections and the number of purchased products. The integrated server can analyze the number of selections and payments for each product, detect products that have been selected a lot but have not yet been paid for, and display this to the manager. For example, product A, ice cream, is often selected, but there may be many cases where it is placed back in the refrigerator after selection. This can be confirmed by recognizing customer movement patterns for each product through the motion recognition artificial intelligence model explained earlier. The server determines that the current display format for these products is not appropriate, can change this, and input the changed product display format as learning data. In addition, result values such as changes in product display format and subsequent increase in sales or whether payment is made without returning after product selection according to change in product display format are generated as learning data to derive the optimal product display format. You can create, learn, and run artificial intelligence models.

다른 예에서, 서버는, 시간대별 매출 지표 및, 고객 행동 패턴 분석 결과를 기반으로, 특정 시간대에는 매장 입장은 많음에 비해, 상품 선택 및 상품 결제가 많이 이루어지지 않음에 대응하여, 해당 시간대를 추출, 추출된 시간대에 입장한 고객들에게는 상품 할인 등의 이벤트를 추천하는 형태로 관리자에게 도움을 줄 수 있다. In another example, the server extracts the corresponding time zone based on sales indicators by time zone and customer behavior pattern analysis results in response to the fact that there are many store entries at a certain time, but not many product selections and product payments are made. , It can provide help to the manager in the form of recommending events such as product discounts to customers who entered the extracted time zone.

도 11은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 구성하는 장치의 구성을 구체적으로 나타낸 상세 블록도이다. 도 11에 도시된 바와 같이, 본 발명의 일 실시예에 따른, 무인 매장 시스템의 장치는, 통신부(1110), 프로세서(1120), 메모리(1130) 및 입출력 모듈(1140)을 포함할 수 있다. 여기서, 장치는 프록시 서버 또는 통합 서버일 수 있다. Figure 11 is a detailed block diagram specifically showing the configuration of a device that constitutes an unmanned store system that performs customer behavior pattern analysis according to an embodiment of the present invention. As shown in FIG. 11, the device of the unmanned store system according to an embodiment of the present invention may include a communication unit 1110, a processor 1120, a memory 1130, and an input/output module 1140. Here, the device may be a proxy server or an integrated server.

도 11을 참조하면, 통신부(1110)는 유선 또는 무선 네트워크를 이용하여 타 단말과 주고받기 위한 구성요소이다. 통신부(1210)는 안테나를 포함할 수 있다. 통신부(1110)는 센서들로부터 센싱 정보, 결제 단말로부터 결제 정보뿐만 아니라, 카메라들로부터 영상 데이터를 수신한다.Referring to FIG. 11, the communication unit 1110 is a component for communicating with other terminals using a wired or wireless network. The communication unit 1210 may include an antenna. The communication unit 1110 receives sensing information from sensors, payment information from a payment terminal, as well as image data from cameras.

프로세서(1120)는 통신부(1110)를 통해 수신된 정보를 처리하는 구성요소이다. 이는 하드웨어적으로 마이크로 프로세서로 구현될 수 있다. 프로세서(1120)는 센서로부터의 센싱 정보를 식별하여, 그에 대응하는 카메라에 촬영 명령을 전달한다. 그리고, 수집된 영상 데이터를 얼굴 인식, 객체 검출 및 모션 인식 등의 인공지능 모델을 실행시켜 고객 별로 라벨링하고, 고객의 행동 패턴 및 단계를 분석한다. The processor 1120 is a component that processes information received through the communication unit 1110. This can be implemented in hardware with a microprocessor. The processor 1120 identifies sensing information from the sensor and transmits a shooting command to the corresponding camera. Then, the collected video data is run through artificial intelligence models such as face recognition, object detection, and motion recognition to label each customer and analyze customer behavior patterns and stages.

프로세서(1120)는 메모리(1130)와 신호선을 통해 연결되어 있으며, 메모리(1130)에 저장된 프로그램을 실행한다. 프로세서(1120)는 앞서 설명한 바와 같이, 도난 및 보안 관련 고객의 행동을 분석할 뿐만 아니라, 분석된 고객의 행동 패턴을 매출 지표와 연계하여, 매장 경영에 도움이 되는 데이터로 가공한다. 이때도 역시 인공지능 기반의 학습 모델이 실행될 수 있다. The processor 1120 is connected to the memory 1130 through a signal line and executes the program stored in the memory 1130. As described above, the processor 1120 not only analyzes customer behavior related to theft and security, but also links the analyzed customer behavior pattern with sales indicators and processes it into data helpful for store management. At this time, an artificial intelligence-based learning model can also be executed.

메모리(1130)는 프로세서(1120)에서 수행해야 할 프로그램들과 연관된 명령어들을 저장하고 있으며, 프로세서(1120)에서 요구하는 각종 데이터를 저장하고 있는 저장장치이다. 메모리(1130)는 매장 내 센서로부터 획득되는 각종 센싱 데이터 및 카메라로부터 획득되는 영상 데이터를 저장하고 있다. 또한, 센서와 카메라와의 매핑 관계뿐만 아니라, 센싱 정보를 획득했을 때 다음 동작으로 어떤 동작을 행해야 하는 등의 시나리오를 프로그램 언어의 형태로 저장하고 있을 수 있다. 메모리(1130)는 장치 내부의 로컬 메모리 또는 외부의 대용량 데이터베이스로써 구현될 수 있다. The memory 1130 is a storage device that stores instructions related to programs to be performed by the processor 1120 and various data required by the processor 1120. The memory 1130 stores various sensing data obtained from sensors in the store and image data obtained from cameras. In addition, not only the mapping relationship between the sensor and the camera, but also a scenario such as what action to perform as the next action when sensing information is obtained may be stored in the form of a program language. The memory 1130 may be implemented as a local memory inside the device or as an external large-capacity database.

입출력 모듈(1140)은 키보드, 마우스와 같은 정보 입력 수단 및 모니터, TV, 터치스크린과 같은 정보 출력 수단을 포함한다. 입출력 모듈(1140)은 고객 행동 패턴 분석 대상 시간 구간의 설정 등 각종 설정값을 변경하고 분석 결과 등을 표시하는데 사용될 수 있다. The input/output module 1140 includes information input means such as a keyboard and mouse, and information output means such as a monitor, TV, and touch screen. The input/output module 1140 can be used to change various settings, such as setting a time section subject to customer behavior pattern analysis, and to display analysis results.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the systems, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), etc. ), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Methods according to embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (19)

컴퓨팅 장치에서의, 무인 매장 내 고객 행동 패턴 분석 방법에 있어서,
제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 수신하는 단계, 상기 제 1 센서는 고객의 출입을 감지하는 센서임;
상기 제 1 센싱 정보를 제 1 카메라로 제공하는 단계;
상기 제 1 센싱 정보를 기반으로, 상기 제 1 카메라로부터 촬영된 제 1 영상 데이터를 수신하는 단계, 상기 제 1 영상 데이터는 고객의 출입과 관련된 영상을 포함함;
제 2 센서부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 수신하는 단계, 상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임;
상기 제 2 센싱 정보를 제 2 카메라로 제공하는 단계;
상기 제 2 센싱 정보를 기반으로, 상기 제 2 카메라로부터 촬영된 제 2 영상 데이터를 수신하는 단계, 상기 제 2 영상 데이터는 고객의 상품 선택과 관련된 영상을 포함함;
상기 무인 매장 내 결제 단말로부터 결제 정보를 수신하는 단계;
상기 결제 정보를 제 3 카메라로 제공하는 단계;
상기 결제 정보를 기반으로, 상기 제 3 카메라로부터 촬영된 제 3 영상 데이터를 수신하는 단계, 상기 제 3 영상 데이터는 고객의 상품 결제와 관련된 영상을 포함함; 및
상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 단계를 포함하되,
제 1 시점의 재고, 제 2 시점의 재고 및 상기 제 1 시점부터 상기 제 2 시점 사이에 결제된 상품의 수량에 기반하여 도난 발생을 감지하고, 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 도난과 관련된 타입의 고객에 대한 영상을 먼저 표시하되, 상기 도난과 관련된 타입의 고객의 세분화된 행동을 분석함에 기반하여 결제하지 않은 상품을 들고 나간 것으로 추정되는 고객의 영상을 하이라이트하여 표시하는 무인 매장 내 고객 행동 패턴 분석 방법.
In a method of analyzing customer behavior patterns in an unmanned store on a computing device,
Receiving first sensing information related to a customer's entry into a store from a first sensor, wherein the first sensor is a sensor that detects the customer's entry and exit;
Providing the first sensing information to a first camera;
Receiving first image data captured from the first camera based on the first sensing information, the first image data including an image related to the customer's entrance and exit;
Receiving second sensing information related to the customer's product selection from a second sensor, wherein the second sensor is arranged in or around a product warehouse storing products, and detects the customer's product selection behavior for the product storage. It is a sensor that does;
Providing the second sensing information to a second camera;
Receiving second image data captured from the second camera based on the second sensing information, the second image data including an image related to a customer's product selection;
Receiving payment information from the unmanned in-store payment terminal;
providing the payment information to a third camera;
Receiving third image data captured from the third camera based on the payment information, the third image data including an image related to the customer's payment for the product; and
Comprising the step of analyzing a customer's behavior pattern by combining the first image data, the second image data, and the third image data,
Detect the occurrence of theft based on inventory at a first point in time, inventory at a second point in time, and the quantity of products paid between the first point in time and the second point in time, and detect the occurrence of the first image data, the second image data, and the Among the third video data, videos of customers of the type related to theft are displayed first, but based on analysis of the detailed behavior of the type of customer related to theft, the video of the customer who is estimated to have walked out with unpaid products is highlighted. A method of analyzing customer behavior patterns in unmanned stores.
제 1 항에 있어서, 상기 고객의 행동 패턴을 분석하는 단계는,
상기 제 1 영상 데이터로부터 상기 무인 매장에 출입한 고객을 개별적으로 식별하여 라벨링(labeling)함에 의해 개별 고객마다 라벨을 부여하는 단계;
상기 부여된 고객의 라벨을 기반으로 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 내의 고객을 라벨링하는 단계; 및
상기 라벨링된, 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 기반으로 고객의 행동을 분석하는 단계를 포함하는, 무인 매장 내 고객 행동 패턴 분석 방법.
The method of claim 1, wherein analyzing the customer's behavior pattern comprises:
assigning a label to each individual customer by individually identifying and labeling customers who entered the unmanned store from the first image data;
labeling customers in the second image data and the third image data based on the assigned customer label; and
A method of analyzing customer behavior patterns in an unmanned store, comprising the step of analyzing customer behavior based on the labeled first image data, the second image data, and the third image data.
제 2 항에 있어서,
상기 제 1 영상 데이터를 통해 라벨링된 고객의 형상과, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 적어도 하나 내의 고객의 형상을 비교하여 동일 고객인지 여부를 판단함에 의해 상기 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 적어도 하나 내의 고객에 대한 라벨링을 수행하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 2,
By comparing the shape of the customer labeled through the first image data with the shape of the customer in at least one of the second image data and the third image data to determine whether they are the same customer, the second image data and A method of analyzing customer behavior patterns in an unmanned store, which performs labeling of a customer in at least one of the third image data.
제 3 항에 있어서,
동일 고객인지 여부의 판단은, 인공지능 기반의 얼굴 트랙킹(face tracking) 알고리즘, 및 사람의 인상착의를 트랙킹하는 영상 분석 모델 중 적어도 하나를 통해 이루어지는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 3,
A method of analyzing customer behavior patterns in an unmanned store where the determination of whether the customer is the same is made through at least one of an artificial intelligence-based face tracking algorithm and a video analysis model that tracks a person's impression and clothing.
제 4 항에 있어서,
상기 인공지능 기반의 얼굴 트랙킹 알고리즘 및 사람의 인상착의를 트랙킹하는 영상 분석 모델의 학습 데이터 셋은 크라우드 소싱(crowd sourcing)을 통해 수집되는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 4,
A method of analyzing customer behavior patterns in an unmanned store in which the learning data set of the artificial intelligence-based face tracking algorithm and the video analysis model that tracks people's impressions and clothes is collected through crowd sourcing.
제 4 항에 있어서,
상기 인공지능 기반의 얼굴 트랙킹 알고리즘 및 사람의 인상착의를 트랙킹하는 영상 분석 모델은 실제 제 1 내지 제 3 영상 데이터 분석 결과를 다시 학습 데이터 셋으로 생성하여 자가 학습되는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 4,
The artificial intelligence-based face tracking algorithm and the image analysis model that tracks a person's impression and clothing are self-learned by generating the actual first to third image data analysis results as a learning data set. A method of analyzing customer behavior patterns in an unmanned store. .
제 3 항에 있어서,
고객의 라벨과 관련된 영상 데이터를 추출하여 고객의 행동 패턴을 분석할 때,
(i) 상기 제 1 영상 데이터를 이용하여 개별 고객의 출입 여부를 체크(check)하고,
(ii) 상기 제 2 영상 데이터를 이용하여 개별 고객의 상품 선택 여부를 체크하며,
(iii) 상기 제 3 영상 데이터를 이용하여 개별 고객의 상품 결제 여부를 체크하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 3,
When analyzing customer behavior patterns by extracting video data related to the customer's label,
(i) Using the first image data, check whether an individual customer enters or exits,
(ii) Using the second video data, check whether an individual customer has selected a product,
(iii) A method of analyzing customer behavior patterns in unmanned stores that checks whether individual customers have paid for products using the third video data.
제 7 항에 있어서,
제 1 고객에 대해 제 1 영상 데이터만 존재할 뿐, 제 2 및 제 3 영상 데이터가 존재하지 않음에 대응하여, 상기 제 1 고객은 매장 내 출입만 하고 상품 선택 및 상품 결제는 하지 않은 제 1 타입(type)의 고객으로 판단하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 7,
In response to the fact that only the first image data exists for the first customer, and the second and third image data do not exist, the first customer enters the store but does not select the product or pay for the product (type 1) A method of analyzing customer behavior patterns in an unmanned store to determine the type of customer.
제 8 항에 있어서,
상기 제 1 고객에 대해 제 1 영상 데이터 및 제 2 영상 데이터만 존재할 뿐, 제 3 영상 데이터가 존재하지 않음에 대응하여, 상기 제 1 고객은 매장 내 출입 및 상품 선택만 하고, 상품 결제는 하지 않은 제 2 타입의 고객으로 판단하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 8,
In response to the fact that only first image data and second image data exist for the first customer and no third image data, the first customer only enters the store and selects a product, but does not pay for the product. A method of analyzing customer behavior patterns in unmanned stores to determine the second type of customer.
제 9 항에 있어서,
상기 제 1 고객에 대해 제 1 영상 데이터, 제 2 영상 데이터 및 제 3 영상 데이터가 모두 존재함에 대응하여, 상기 제 1 고객은 매장 내 출입, 상품 선택 및 상품 결제까지 모두 수행한 제 3 타입의 고객으로 판단하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to clause 9,
In response to the existence of all first image data, second image data, and third image data for the first customer, the first customer is a third type of customer who has entered the store, selected a product, and paid for the product. A method of analyzing customer behavior patterns in unmanned stores.
제 10 항에 있어서,
매장 내 퇴장과 관련된 제 3 센싱 정보를 기반으로 촬영된 제 4 영상 데이터를 획득하는 단계; 및
상기 제 4 영상 데이터 내의 개별 고객에 대해, 상기 제 1 영상 데이터를 기반으로 라벨링하는 단계를 더 포함하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 10,
Obtaining fourth image data captured based on third sensing information related to leaving the store; and
A method of analyzing customer behavior patterns in an unmanned store, further comprising labeling individual customers in the fourth video data based on the first video data.
제 11 항에 있어서,
상기 제 4 영상 데이터를 분석하여 라벨링된 고객이 상품을 들고 나가는지 여부를 판단하는 단계를 더 포함하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 11,
A method for analyzing customer behavior patterns in an unmanned store, further comprising the step of analyzing the fourth video data to determine whether the labeled customer leaves with the product.
제 12 항에 있어서,
상기 제 4 영상 데이터와 상기 제 3 영상 데이터를 함께 분석하여, 상기 제 4 영상 데이터에서 라벨링된 제 2 고객에 대해, (i) 상품 결제하는 제 3 영상 데이터는 존재하지 않고, (ii) 상기 제 4 영상 데이터 내에서 상품을 들고 나갔음에 대응하여, 제 4 타입의 고객으로 구분하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 12,
By analyzing the fourth image data and the third image data together, for the second customer labeled in the fourth image data, (i) there is no third image data paying for the product, and (ii) the third customer is labeled in the fourth image data. 4 A method of analyzing customer behavior patterns in unmanned stores, classifying customers into 4 types in response to carrying out products in the video data.
제 1 항에 있어서,
상기 제 2 영상 데이터를 분석하여, 고객이 상품을 집어드는 행위, 고객이 상품을 장바구니에 넣는 행위 및 고객이 상품을 장바구니에서 빼내는 행위를 검출하여 세분화된 영상으로 생성하는 단계를 더 포함하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 1,
Analyzing the second video data, the unmanned device further includes the step of detecting the customer's actions of picking up the product, the customer's action of putting the product into the shopping cart, and the customer's action of removing the product from the shopping cart, and generating a segmented image. How to analyze customer behavior patterns in stores.
제 1 항에 있어서,
상기 제 2 영상 데이터를 분석하여 고객이 선택한 상품의 종류 및 갯수 정보를 획득하고,
상기 획득된 상품의 종류 및 갯수 정보를 상기 결제 단말로부터 획득된 결제 내역의 상품 종류 및 갯수 정보와 비교하여, 결제시 누락된 상품을 산출하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 1,
Analyze the second video data to obtain information on the type and number of products selected by the customer,
A method of analyzing customer behavior patterns in an unmanned store, which compares the type and quantity information of the obtained product with the product type and quantity information of the payment history obtained from the payment terminal to calculate the missing product at the time of payment.
제 1 항에 있어서,
인공지능 기반의 기계 학습 모델을 이용하여, 상기 고객의 행동 패턴 분석 결과와, 매장 매출 지표를 학습 데이터 셋으로 하여, 상기 고객의 행동 패턴 분석 결과와 매장 매출과의 연관성을 도출하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 1,
Using an artificial intelligence-based machine learning model, the customer's behavior pattern analysis results and store sales indicators are used as learning data sets, and the correlation between the customer's behavior pattern analysis results and store sales is derived in an unmanned store. How to analyze customer behavior patterns.
제 16 항에 있어서,
상품 진열 포맷(format)을 변경하면서, 상기 기계 학습 모델을 기반으로 도출된 매장 매출과의 연관성을 고려하여, 매장 매출을 최대화하기 위한 상품 진열 포맷을 추론하는, 무인 매장 내 고객 행동 패턴 분석 방법.
According to claim 16,
A method of analyzing customer behavior patterns in an unmanned store that changes the product display format and infers the product display format to maximize store sales by considering the correlation with store sales derived based on the machine learning model.
무인 매장 내 고객 행동 패턴 분석 장치에 있어서,
제 1 센서 - 상기 제 1 센서는 고객의 출입을 감지하는 센서임 - 로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 수신하여, 제 1 카메라로 제공함에 의해, 상기 제 1 카메라로부터 촬영된 제 1 영상 데이터 - 상기 제 1 영상 데이터는 고객의 출입과 관련된 영상을 포함함 - 를 수신하고, 제 2 센서 - 상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임 - 로부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 수신하여, 제 2 카메라로 제공함에 의해, 상기 제 2 카메라로부터 촬영된 제 2 영상 데이터 - 상기 제 2 영상 데이터는 고객의 상품 선택과 관련된 영상을 포함함 - 를 수신하며, 상기 무인 매장 내 결제 단말로부터 결제 정보를 수신하여, 제 3 카메라로 제공함에 의해, 상기 제 3 카메라로부터 촬영된 제 3 영상 데이터 - 상기 제 3 영상 데이터는 고객의 상품 결제와 관련된 영상을 포함함 - 를 수신하는 통신부; 및
상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 프로세서를 포함하되,
상기 프로세서는, 제 1 시점의 재고, 제 2 시점의 재고 및 상기 제 1 시점부터 상기 제 2 시점 사이에 결제된 상품의 수량에 기반하여 도난 발생을 감지하고, 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 도난과 관련된 타입의 고객에 대한 영상을 먼저 표시하되, 상기 도난과 관련된 타입의 고객의 세분화된 행동을 분석함에 기반하여 결제하지 않은 상품을 들고 나간 것으로 추정되는 고객의 영상을 하이라이트하여 표시하는 무인 매장 내 고객 행동 패턴 분석 장치.
In the device for analyzing customer behavior patterns in an unmanned store,
First sensing information related to the customer's entrance into the store is received from the first sensor - the first sensor is a sensor that detects the customer's entrance and exit - and is provided to the first camera, so that the first sensing information captured by the first camera is received. 1 image data - the first image data includes images related to the entry and exit of a customer - to receive, and a second sensor - the second sensor is arranged in or around a goods storage room storing goods, the goods storage area It is a sensor that detects the customer's product selection behavior - receives second sensing information related to the customer's product selection from and provides it to the second camera, so that second image data captured from the second camera - the first 2. The video data includes a video related to the customer's product selection. Payment information is received from the payment terminal in the unmanned store and provided to a third camera, so that the third video is captured from the third camera. a communication unit that receives data - the third image data includes images related to a customer's payment for a product; and
A processor that analyzes customer behavior patterns by combining the first image data, the second image data, and the third image data,
The processor detects the occurrence of theft based on inventory at a first time point, inventory at a second time point, and the quantity of products paid between the first time point and the second time point, and uses the first image data and the second time point. Among the video data and the third video data, the video of the customer of the type related to theft is displayed first, but based on the analysis of the detailed behavior of the customer of the type related to theft, the customer is estimated to have walked out with the product that has not been paid for. A device for analyzing customer behavior patterns in unmanned stores that highlights and displays videos.
컴퓨팅 장치에서의, 무인 매장 내 고객 행동 패턴 분석 방법에 있어서,
제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보를 기반으로, 상기 무인 매장 내에 배치된 제 1 카메라로부터 촬영된 영상 데이터를 수신하는 단계, 상기 제 1 센서는 고객의 출입을 감지하는 센서임;
제 2 센서로부터 고객의 상품 선택과 관련된 제 2 센싱 정보를 기반으로 상기 무인 매장 내에 배치된 제 2 카메라로부터 촬영된 제 2 영상 데이터를 수신하는 단계, 상기 제 2 센서는 상품을 보관하고 있는 상품 보관소 내 또는 주변에 배열되며, 상기 상품 보관소에 대한 고객의 상품 선택 행위를 감지하는 센서임; 및
상기 무인 매장 내 결제 단말로부터 결제 개시 정보를 기반으로, 상기 무인 매장 내에 배치된 제 3 카메라로부터 촬영된 제 3 영상 데이터를 수신하는 단계; 및
상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터를 조합하여 고객의 행동 패턴을 분석하는 단계를 포함하되,
제 1 시점의 재고, 제 2 시점의 재고 및 상기 제 1 시점부터 상기 제 2 시점 사이에 결제된 상품의 수량에 기반하여 도난 발생을 감지하고, 상기 제 1 영상 데이터, 상기 제 2 영상 데이터 및 상기 제 3 영상 데이터 중 도난과 관련된 타입의 고객에 대한 영상을 먼저 표시하되, 상기 도난과 관련된 타입의 고객의 세분화된 행동을 분석함에 기반하여 결제하지 않은 상품을 들고 나간 것으로 추정되는 고객의 영상을 하이라이트하여 표시하는 단계를 더 포함하는 무인 매장 내 고객 행동 패턴 분석 방법.
In a method of analyzing customer behavior patterns in an unmanned store on a computing device,
Receiving image data captured from a first camera placed in the unmanned store based on first sensing information related to the customer's entry into the store from a first sensor, wherein the first sensor is a sensor that detects the customer's entry and exit lim;
Receiving second image data captured from a second camera placed in the unmanned store based on second sensing information related to the customer's product selection from a second sensor, the second sensor being a product storage unit storing products It is a sensor arranged in or around the product storage and detects the customer's product selection behavior for the product storage; and
Receiving third image data captured from a third camera disposed in the unmanned store based on payment initiation information from the payment terminal in the unmanned store; and
Comprising the step of analyzing a customer's behavior pattern by combining the first image data, the second image data, and the third image data,
Detect the occurrence of theft based on inventory at a first point in time, inventory at a second point in time, and the quantity of products paid between the first point in time and the second point in time, and detect the occurrence of the first image data, the second image data, and the Among the third video data, videos of customers of the type related to theft are displayed first, but based on analysis of the detailed behavior of the type of customer related to theft, the video of the customer who is estimated to have walked out with unpaid products is highlighted. A method of analyzing customer behavior patterns in an unmanned store that further includes the step of displaying.
KR1020210104566A 2021-08-09 2021-08-09 Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model KR102585358B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210104566A KR102585358B1 (en) 2021-08-09 2021-08-09 Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210104566A KR102585358B1 (en) 2021-08-09 2021-08-09 Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model

Publications (2)

Publication Number Publication Date
KR20230022596A KR20230022596A (en) 2023-02-16
KR102585358B1 true KR102585358B1 (en) 2023-10-05

Family

ID=85326050

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210104566A KR102585358B1 (en) 2021-08-09 2021-08-09 Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model

Country Status (1)

Country Link
KR (1) KR102585358B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101868112B1 (en) * 2017-10-30 2018-06-15 주식회사 에이씨큐 Pos video search method and system for shop management
JP2019079153A (en) * 2017-10-20 2019-05-23 ソフトバンク株式会社 Information processing apparatus, control method for information processing apparatus, and control program for information processing apparatus, and article providing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012104830A1 (en) * 2011-02-03 2012-08-09 Vizi Labs Inc. Systems and methods for image-to-text and text-to-image association
CA3109571A1 (en) * 2018-07-16 2020-01-23 Accel Robotics Corporation Autonomous store tracking system
KR102254639B1 (en) * 2019-03-05 2021-05-20 롯데정보통신 주식회사 System and method for managing stores

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019079153A (en) * 2017-10-20 2019-05-23 ソフトバンク株式会社 Information processing apparatus, control method for information processing apparatus, and control program for information processing apparatus, and article providing system
KR101868112B1 (en) * 2017-10-30 2018-06-15 주식회사 에이씨큐 Pos video search method and system for shop management

Also Published As

Publication number Publication date
KR20230022596A (en) 2023-02-16

Similar Documents

Publication Publication Date Title
RU2753959C2 (en) Video analysis module and method for generating materials for investigating user's behavior
US10965913B2 (en) Monitoring apparatus, monitoring system and monitoring method
US9407878B2 (en) Object tracking and alerts
US10387897B2 (en) Retail sales opportunity loss cause analysis based on image analysis of shelf display
JP7038543B2 (en) Information processing equipment, systems, control methods for information processing equipment, and programs
US20080018738A1 (en) Video analytics for retail business process monitoring
US20160300181A1 (en) Product monitoring device, product monitoring system, and product monitoring method
US20070282665A1 (en) Systems and methods for providing video surveillance data
JP5834193B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5834196B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
US11881090B2 (en) Investigation generation in an observation and surveillance system
TW200841737A (en) Video analytics for banking business process monitoring
WO2012038241A1 (en) Activity determination as function of transaction log
US20190327451A1 (en) Video image analysis apparatus and video image analysis method
KR102260123B1 (en) Apparatus for Sensing Event on Region of Interest and Driving Method Thereof
US9922257B2 (en) Image auditing method and system
WO2018104999A1 (en) Information processing device, control method, and program
KR102585358B1 (en) Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model
KR102620264B1 (en) Method and apparatus, and system for representing behavior analysis result of customer in unmanned shop analyzed using ai model
KR102585357B1 (en) Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
CN116471384B (en) Control method and control device of unattended store monitoring system
EP4372653A1 (en) Risk identification method, apparatus, device and storage medium for self-service checkout
CN116471383B (en) Display method and device for unattended store monitoring interface
US20230419674A1 (en) Automatically generating best digital images of a person in a physical environment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant