KR20230022595A - Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop - Google Patents

Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop Download PDF

Info

Publication number
KR20230022595A
KR20230022595A KR1020210104563A KR20210104563A KR20230022595A KR 20230022595 A KR20230022595 A KR 20230022595A KR 1020210104563 A KR1020210104563 A KR 1020210104563A KR 20210104563 A KR20210104563 A KR 20210104563A KR 20230022595 A KR20230022595 A KR 20230022595A
Authority
KR
South Korea
Prior art keywords
camera
sensor
customer
information
payment
Prior art date
Application number
KR1020210104563A
Other languages
Korean (ko)
Other versions
KR102585357B1 (en
Inventor
양주섭
Original Assignee
양주섭
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 양주섭 filed Critical 양주섭
Priority to KR1020210104563A priority Critical patent/KR102585357B1/en
Publication of KR20230022595A publication Critical patent/KR20230022595A/en
Application granted granted Critical
Publication of KR102585357B1 publication Critical patent/KR102585357B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47FSPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
    • A47F3/00Show cases or show cabinets
    • A47F3/04Show cases or show cabinets air-conditioned, refrigerated
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47FSPECIAL FURNITURE, FITTINGS, OR ACCESSORIES FOR SHOPS, STOREHOUSES, BARS, RESTAURANTS OR THE LIKE; PAYING COUNTERS
    • A47F5/00Show stands, hangers, or shelves characterised by their constructional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/10Actuation by presence of smoke or gases, e.g. automatic alarm devices for analysing flowing fluid materials by the use of optical means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Abstract

According to one aspect of the present invention, a method for transmitting and receiving information by a device in an unmanned store is disclosed. The method comprises the steps of: providing, in response to sensing first sensing information related to customer entering and leaving to a store from a first sensor, the first sensing information to a first camera, wherein the first sensor is a sensor which detects the customer entering and leaving; photographing, in response to the first camera receiving the first sensing information, the customer entering and leaving; transmitting an image captured by the first camera to a server; providing, in response to a second sensor sensing a customer into a product warehouse, second sensing information to the second camera; photographing, in response to the second camera receiving the second sensing information, the customer located around the product warehouse; transmitting n image captured by the second camera to the server; providing, in response to initiation of payment at a payment terminal, payment initiation information to a third camera; photographing, in response to the third camera receiving the payment initiation information, a customer performing payment for a product; and transmitting an image captured by the third camera to the server. Accordingly, security of the unmanned store is strengthened, and store management becomes more efficient.

Description

무인 매장 내 장치의 효율적인 정보 송수신 방법, 및 효율적인 정보 송수신을 위한 무인 매장 시스템{EFFICIENT METHOD FOR TRANSMITTING AND RECEIVING IMFORMATION BETWEEN APPARATUSES IN UNMANNED SHOP}Efficient information transmission/reception method of device in unmanned store, and unmanned store system for efficient information transmission/reception

본 발명은 정보 송수신 방법에 관한 것으로, 보다 상세하게는, 효율적으로 무인 매장 내의 장비 간에 정보를 송수신하는 방법에 관한 것이다.The present invention relates to a method for transmitting and receiving information, and more particularly, to a method for efficiently transmitting and receiving information between equipment in an unmanned store.

무인 매장의 운영에 있어서 방범 및 보안은 매우 중요한 요소라고 할 수 있다. 현재의 방범 및 보안 체계는 오픈된 시간 동안 CCTV를 통한 관찰 및 마감 시간 이후의 움직임에 대한 분석 및 이를 통한 신고 과정 등이 있을 수 있다. 다만, 사용자에 최적화된 주문 접수가 어려워 비효율을 초래할 수 있고, 도난 및 파손에 대한 신속하고 정확한 대응이 어렵다. 특히, 무인 상태가 장기간 지속된 상태에서, 도난 및 파손이 발생한 경우, 관리자는 다수의 CCTV의 전체 시간 구간을 일일이 재생시키면서 그 사이 출입했던 모든 고객의 행동을 유심히 살펴봐야 하기에, 도난 관련 사고의 범인 검출에 있어, 매우 비효율적이며, 실제로 이런 방식이면, 도난 및 파손의 원인을 찾는 것은 거의 불가능에 가깝다.In the operation of an unmanned store, crime prevention and security are very important factors. The current crime prevention and security system may include observation through CCTV during open hours, analysis of movements after closing hours, and a reporting process through them. However, it is difficult to receive orders optimized for users, which can lead to inefficiency, and it is difficult to respond quickly and accurately to theft and damage. In particular, when theft or damage occurs while the unattended state lasts for a long time, the manager must carefully examine the behavior of all customers who have entered and exited during that time while replaying the entire time section of multiple CCTVs one by one. It is very inefficient in detecting the culprit, and in practice, it is almost impossible to find the cause of theft or damage.

더욱이, 무인 매장의 경우, 흡연 및 음주에 따른 재난이 매우 빈번이 발생함에도, 이에 대응할 수 있는 매뉴얼이 따로 구분되어 존재하지 않으며, 이와 관련된 정보를 저장하는 수단도 미비한 것이 현실이다. Moreover, in the case of unmanned stores, even though disasters caused by smoking and drinking occur very frequently, there is no separate manual that can respond to them, and a means for storing related information is insufficient.

따라서, 매장 관리자에게 방법 및 보안 측면뿐만 아니라 매장 경영에도 최적화된 사용 환경을 제공하고, 도난 및 파손에 대응하기 위한 수단을 제공하며, 흡연 및 음주에 따른 사고 이벤트에도 즉각적으로 대응할 수 있는 기술의 개발이 요구된다.Therefore, development of technology that provides store managers with an optimized use environment for store management as well as method and security aspects, provides means to respond to theft and damage, and responds immediately to accident events caused by smoking and drinking. this is required

상술한 문제점을 해결하기 위한 본 발명의 일 양태에 따른 목적은, 무인 매장 내 구비된 센서들과 복수의 카메라 영상을 서버에서 분석하는 시스템 상에서 무인 매장 내 인바운드(In-Bound) 장비 간, 또는 인바운드 장비와 외부 장비 간에 효율적인 통신을 가능케 하는 무인 매장 내 장치의 정보 송수신 방법을 제공하는 것이다.An object according to an aspect of the present invention for solving the above-described problems is to analyze sensors and a plurality of camera images provided in an unmanned store in a server, between in-bound equipment in an unmanned store, or inbound It is to provide a method for transmitting and receiving information of a device in an unmanned store that enables efficient communication between equipment and external equipment.

상기한 목적을 달성하기 위한 본 발명의 일 양태에 따른, 무인 매장 내 장치의 정보 송수신 방법은, 제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 카메라로 제 1 센싱 정보를 제공하는 단계(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 상기 제 1 카메라가 제 1 센싱 정보를 수신함에 대응하여, 출입하는 고객을 촬영하는 단계, 상기 제 1 카메라가 촬영한 영상을 서버로 전송하는 단계, 제 2 센서가 상품 보관소로의 고객을 센싱함에 대응하여 제 2 카메라로 제 2 센싱 정보를 제공하는 단계, 상기 제 2 카메라가 제 2 센싱 정보를 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하는 단계, 상기 제 2 카메라가 촬영한 영상을 상기 서버로 전송하는 단계, 결제 단말에서 결제가 개시됨에 대응하여 제 3 카메라로 결제 개시 정보를 제공하는 단계, 상기 제 3 카메라가 결제 개시 정보를 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하는 단계 및 상기 제 3 카메라가 촬영한 영상을 상기 서버로 전송하는 단계를 포함할 수 있다.According to an aspect of the present invention for achieving the above object, a method for transmitting and receiving information of a device in an unmanned store is provided by a first camera in response to sensing first sensing information related to a customer entering and exiting a store from a first sensor. Providing first sensing information (the first sensor is a sensor for detecting entry/exit of a customer), photographing a customer entering or exiting in response to receiving the first sensing information by the first camera, Transmitting the image taken by the camera to the server, providing second sensing information to the second camera in response to the second sensor sensing the customer going to the product storage, the second camera receiving the second sensing information Corresponding to, photographing a customer located near the product storage, transmitting an image captured by the second camera to the server, providing payment start information to a third camera in response to payment being initiated at the payment terminal The third camera may include a step of photographing a customer performing product payment in response to receiving payment start information, and a step of transmitting an image captured by the third camera to the server.

상기 제 1 센서 및 제 2 센서 중 적어도 하나는 도어 개폐 감지 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나을 포함할 수 있다.At least one of the first sensor and the second sensor may include at least one of a door open/close detection sensor, an approach sensor, a motion recognition sensor, and an infrared sensor.

상기 상품보관소는 상품을 냉장 보관하는 냉장고, 상품을 냉동 보관하는 냉동고 및 선반 형태로 상품을 진열하는 상품 진열대 중 적어도 하나를 포함할 수 있다.The product storage may include at least one of a refrigerator for refrigerating products, a freezer for storing products in a frozen state, and a product display stand for displaying products in the form of a shelf.

상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말로부터의 신호를 수신함에 트리거링(triggering)되어 촬영을 개시할 수 있다.The first camera, the second camera, and the third camera may start photographing by being triggered by receiving signals from the first sensor, the second sensor, and the payment terminal.

상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말로부터의 신호를 수신함에 트리거링(triggering)되어 수신 시점을 촬영된 동영상 내의 기준 시점 인덱스(index)로 부여할 수 있다.The first camera, the second camera, and the third camera are triggered when signals from the first sensor, the second sensor, and the payment terminal are received, and the reception time point is a reference point index in the captured video. (index).

상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 매장 내 액세스 포인트(AP: Access Point)로부터 할당된 IP 주소를 가지고 있으며, 상기 제 1 센서는 그와 매핑관계를 갖는 제 1 카메라의 IP를 매개로 상기 제 1 카메라로 상기 제 1 센싱 정보를 전송하고, 상기 제 2 센서는 그와 매핑관계를 갖는 제 2 카메라의 IP를 매개로 상기 제 2 카메라로 상기 제 2 센싱 정보를 전송하며, 상기 결제 단말은 그와 매핑관계를 갖는 제 3 카메라의 IP를 매개로 상기 제 3 카메라로 상기 결제 개시 정보를 전송할 수 있다.The first sensor, the second sensor, the payment terminal, and the first camera, the second camera, and the third camera have IP addresses allocated from an access point (AP) in the store, and , The first sensor transmits the first sensing information to the first camera via the IP of the first camera having a mapping relationship therewith, and the second sensor transmits the IP of the second camera having a mapping relationship therewith. The second sensing information is transmitted to the second camera through the medium, and the payment terminal can transmit the payment initiation information to the third camera through the IP of the third camera having a mapping relationship therewith.

상기 제 1 센서, 상기 제 2 센서 및 상기 결제 단말 중 하나에 복수 개의 카메라가 매핑 관계를 가질 수 있다.A plurality of cameras may have a mapping relationship with one of the first sensor, the second sensor, and the payment terminal.

상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말은 상기 액세스 포인트를 매개로 상기 서버로 상기 제 1 센싱 정보, 상기 제 2 센싱 정보 및 상기 결제 개시 정보를 전송할 수 있다.The first sensor, the second sensor, and the payment terminal may transmit the first sensing information, the second sensing information, and the payment start information to the server via the access point.

상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 와이-파이(Wi-Fi), 지그비(Zigbee) 및 블루투스(Bluetooth) 중 적어도 하나를 이용하여 서로 간에 통신할 수 있다.The first sensor, the second sensor, and the payment terminal, and the first camera, the second camera, and the third camera are Wi-Fi, Zigbee, and Bluetooth At least one of them may be used to communicate with each other.

상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 NB-IoT(NarrowBand IoT), 로라(LoRa), 원엠투엠(oneM2M), OCF(Open Connectivity Foundation), LwM2M(Lightweight M2M) 중 적어도 하나와 관련된 통신 프로토콜을 이용하여 서로 간에 통신할 수 있다.The first sensor, the second sensor, and the payment terminal, and the first camera, the second camera, and the third camera are NarrowBand IoT (NB-IoT), LoRa, and oneM2M .

연기 감지 센서가 연기를 감지함에 대응하여, 상기 연기 감지 센서와 매핑관계를 갖는 제 4 카메라로 연기 감지 신호를 전송하고, 상기 제 4 카메라는 연기 감지 신호를 수신함에 대응하여, 촬영을 활성화할 수 있다.In response to the smoke detection sensor detecting smoke, the smoke detection signal may be transmitted to a fourth camera having a mapping relationship with the smoke detection sensor, and the fourth camera may activate photographing in response to receiving the smoke detection signal. there is.

상기 연기 감지 센서는 상기 무인 매장을 구역 별로 나누어 센싱하도록 복수 개가 배열되며, 상기 복수 개의 연기 감지 센서는 대응하는 제 4 카메라의 IP 주소를 개별적으로 가지고 동작하되, 하나의 연기 감지 센서는 하나 또는 그 이상의 제 4 카메라와 대응되는, 촬영을 활성화할 수 있다.The plurality of smoke detection sensors are arranged to sense the unmanned store by zone, and the plurality of smoke detection sensors individually operate with the IP address of the corresponding fourth camera. Shooting corresponding to the above fourth camera may be activated.

상기 결제 단말은 키오스크(Kiosk) 및 포스(POS) 단말 중 적어도 하나를 포함할 수 있다.The payment terminal may include at least one of a kiosk and a POS terminal.

상기 제 1 센서와 상기 제 1 카메라와의 매핑 관계, 상기 제 2 센서와 상기 제 2 카메라와의 매핑 관계 및 상기 제 3 센서와 상기 제 3 카메라와의 매핑 관계는 상기 서버 또는 관리자 단말에 의해 설정될 수 있다.The mapping relationship between the first sensor and the first camera, the mapping relationship between the second sensor and the second camera, and the mapping relationship between the third sensor and the third camera are set by the server or manager terminal It can be.

상기한 목적을 달성하기 위한 본 발명의 다른 양태에 따른, 정보 송수신을 위한 무인 매장 시스템은, 고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 카메라로 제 1 센싱 정보를 제공하는 제 1 센서(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 상기 제 1 센싱 정보를 수신함에 대응하여, 출입하는 고객을 촬영하여 서버로 전송하는 제 1 카메라, 상품 보관소로의 고객을 센싱함에 대응하여 제 2 카메라로 제 2 센싱 정보를 제공하는 제 2 센서, 상기 제 2 센싱 정보를 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하여 상기 서버로 전송하는 제 2 카메라, 결제가 개시됨에 대응하여 제 3 카메라로 결제 개시 정보를 제공하는 결제 단말 및 상기 결제 개시 정보를 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하여 상기 서버로 전송하는 제 3 카메라를 포함할 수 있다.According to another aspect of the present invention for achieving the above object, an unmanned store system for transmitting and receiving information sends first sensing information to a first camera in response to sensing first sensing information related to a customer entering and exiting a store. A first sensor (the first sensor is a sensor that detects the customer's entry/exit), a first camera that photographs and transmits a photograph of a customer entering and exiting to a server in response to receiving the first sensing information, and a A second sensor for providing second sensing information to a second camera in response to sensing a customer, a second camera for photographing a customer located near a product storage and transmitting the photograph to the server in response to receiving the second sensing information, It may include a payment terminal for providing payment initiation information to a third camera in response to initiation of payment, and a third camera for photographing a customer making a product payment and transmitting the photograph to the server in response to receiving the payment initiation information. there is.

상기한 목적을 달성하기 위한 본 발명의 또 다른 양태에 따른, 정보 송수신을 위한 무인 매장 시스템은, 고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 센싱 정보를 서버로 제공하는 제 1 센서(상기 제 1 센서는 고객의 출입을 감지하는 센서임), 상기 제 1 센싱 정보를 상기 서버로부터 수신함에 대응하여, 출입하는 고객을 촬영하여 상기 서버로 전송하는 제 1 카메라, 상품 보관소로의 고객을 센싱함에 대응하여 상기 서버로 제 2 센싱 정보를 제공하는 제 2 센서, 상기 제 2 센싱 정보를 상기 서버로부터 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하여 상기 서버로 전송하는 제 2 카메라, 결제가 개시됨에 대응하여 상기 서버로 결제 개시 정보를 제공하는 결제 단말 및 상기 결제 개시 정보를 상기 서버로부터 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하여 상기 서버로 전송하는 제 3 카메라를 포함할 수 있다.According to another aspect of the present invention for achieving the above object, an unmanned store system for transmitting and receiving information provides the first sensing information to the server in response to sensing the first sensing information related to the customer entering and exiting the store A first sensor (the first sensor is a sensor that detects the entry and exit of a customer), a first camera for photographing and transmitting a customer entering and exiting to the server in response to receiving the first sensing information from the server, and a product A second sensor providing second sensing information to the server in response to sensing a customer entering the storage space, and a photograph of a customer located near the product storage space and transmitting the second sensing information to the server in response to reception of the second sensing information from the server. A second camera for photographing a payment terminal providing payment start information to the server in response to payment initiation and a customer making a product payment in response to receiving the payment start information from the server and transmitting the photograph to the server A third camera may be included.

본 발명의 무인 매장 내 장치의 정보 송수신 방법에 따르면, 무인 매장 내 인-바운드(In-Bound) 장비 간 또는 인바운드 장비와 외부 장비가 효율적인 통신을 가능케 함에 따라 무인 매장의 보안을 강화하고 및 매장 경영을 보다 효율적으로 하도록 지원하는 효과가 있다. According to the information transmission and reception method of the device in the unmanned store of the present invention, the security of the unmanned store is strengthened and the store management is enhanced by enabling efficient communication between in-bound equipment or inbound equipment and external equipment in the unmanned store has the effect of helping to make it more efficient.

도 1은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 개념도,
도 2는 본 발명의 다른 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 도면,
도 3은 도 1 또는 도 2의 무인 매장 내 장비들 간의 정보 교류 과정을 나타낸 흐름도,
도 4는 무인 매장 내 다수의 카메라 장비를 통해 획득된 영상 데이터들에 라벨링(Labeling)을 수행하여 고객을 일괄적으로 관리하는 방법을 설명하기 위한 개념도,
도 5는 도 4의 라벨링된 영상 데이터를 분석한 결과를 표현하는 테이블,
도 6은 무인 매장의 재고 수량이 맞지 않을 때 영상 데이터 분석 결과를 사용자가 직관적으로 이해하도록 시각화하는 방법을 나타낸 흐름도,
도 7은 도 6의 방법에 따라 시각화하는 중에, 사용자 입력이 있을 때, 그에 대응하는 영상 데이터를 효율적으로 재생하는 방법을 설명하기 위한 개념도,
도 8은 도 1의 매장 내 디스플레이 장비 및 스피커를 통해 매장 내 고객의 행동 패턴을 실시간으로 나타내는 동작을 설명하기 위한 개념도,
도 9는 매장 내 연기 감지시 매장 내 디스플레이 장비 및 스피커를 통해 흡연자에게 경고하는 방법을 설명하기 위한 흐름도,
도 10은 도 1의 시스템을 통해 획득된 데이터를 무인 매장 경영 측에 활용하여 최적의 상품 진열 방법을 추론하는 인공지능 모델을 학습시키는 방법을 설명하기 위한 개념도,
도 11은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 구성하는 장치의 구성을 구체적으로 나타낸 상세 블록도이다.
1 is a conceptual diagram showing an unmanned store system for performing customer behavior pattern analysis according to an embodiment of the present invention;
2 is a view showing an unmanned store system for performing customer behavior pattern analysis according to another embodiment of the present invention;
3 is a flow chart showing an information exchange process between equipment in an unmanned store of FIG. 1 or 2;
4 is a conceptual diagram for explaining a method of collectively managing customers by labeling image data obtained through a plurality of camera equipment in an unmanned store;
5 is a table expressing results of analyzing the labeled image data of FIG. 4;
6 is a flowchart showing a method of visualizing the video data analysis result so that the user can intuitively understand when the inventory quantity of the unmanned store does not match;
7 is a conceptual diagram for explaining a method of efficiently reproducing image data corresponding to a user input when there is a user input during visualization according to the method of FIG. 6;
8 is a conceptual diagram for explaining an operation of displaying in-store customer behavior patterns in real time through the in-store display equipment and speakers of FIG. 1;
9 is a flowchart for explaining a method of warning a smoker through an in-store display device and a speaker when smoke is detected in the store;
10 is a conceptual diagram for explaining a method of learning an artificial intelligence model that infers an optimal product display method by using data obtained through the system of FIG. 1 for unmanned store management;
11 is a detailed block diagram showing the configuration of a device constituting an unmanned store system for performing customer behavior pattern analysis according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.Since the present invention can make various changes and have various embodiments, specific embodiments are illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. In order to facilitate overall understanding in the description of the present invention, the same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 개념도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 무인 매장 시스템은, 출입문 센서(112), 카메라(120), 상품 보관소 센서(132), 카메라(134), 결제 단말(140), 카메라(142), 디스플레이 장치(150), 스피커(160), 액세스 포인트(170: AP(Access Point)), 프록시 서버(180) 및 통합 서버(190)를 포함할 수 있다.1 is a conceptual diagram illustrating an unmanned store system for performing customer behavior pattern analysis according to an embodiment of the present invention. As shown in FIG. 1, the unmanned store system according to an embodiment of the present invention includes a door sensor 112, a camera 120, a product storage sensor 132, a camera 134, a payment terminal 140, It may include a camera 142 , a display device 150 , a speaker 160 , an access point 170 (Access Point (AP)), a proxy server 180 and an integrated server 190 .

도 1을 참조하면, 출입문 센서(112)는 무인 매장에 출입하는 고객을 감지하는 센서이다. 이는 도어 개폐 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 출입문 센서(112)가 고객의 출입을 감지하면, 카메라(120)가 동작하여 출입문으로 들어오는 고객의 형상을 촬영한다. 이때, 고객의 전체 형상을 촬영하는 것이 바람직하며, 특히, 추후, 얼굴 트랙킹(face tracking) 등의 기술을 사용하기 위해서, 고객 얼굴 형상이 나타나는 방향으로 촬영하는 것이 바람직하다. 출입문 센서(112)는 고객의 입장뿐만 아니라 퇴장시에도 센싱을 수행하고, 카메라(120)에 센싱된 신호를 보내 고객의 매장 퇴장 모습도 촬영될 수 있도록 할 수 있다.Referring to FIG. 1 , the door sensor 112 is a sensor that detects customers entering and exiting the unmanned store. This may include at least one of a door open/close sensor, an approach sensor, a motion recognition sensor, and an infrared sensor. When the door sensor 112 detects a customer entering or exiting, the camera 120 operates to photograph the shape of the customer entering the door. At this time, it is preferable to photograph the entire shape of the customer, and in particular, it is preferable to photograph in the direction in which the shape of the customer's face appears in order to use technology such as face tracking later. The door sensor 112 performs sensing not only when a customer enters but also when exiting the store, and sends the sensed signal to the camera 120 so that the appearance of the customer leaving the store can be captured as well.

무인 매장 내에는 다수의 상품 보관소(130)가 존재할 수 있다. 상품 보관소(130)라는 용어를 사용하였지만, 상품을 내부에 보관하는 박스 형태의 장소가 아니라, 단순히 상품을 진열하는 진열대로 구현될 수도 있다. 즉, 상품이 놓인 단위 공간을 의미한다. 일 예에서, 상품 보관소(130)는 냉장고, 냉동고, 진열대 등을 포함할 수 있다. 그리고, 고객이 상품 구매를 위해 상품을 선택하는 동작(상품을 집는 동작)을 감지하기 위해, 상품 보관소(120) 내에, 또는 주변에, 센서(132)가 배치된다. 센서(132)는 도어 개폐 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나를 포함한다. 특히, 냉장고 또는 냉동고와 같이, 문이 닫힌 상태로 상품들이 보관되는 상황이라면, 고객이 상품 구매를 위해 특정 상품을 선택하는 동작은 도어 개폐 감지 센서를 통해 감지하는 것이 바람직하다. 진열대와 같이 특별한 도어 개폐 동작을 요구하지 않는 환경이라면, 접근 센서, 모션 인식 센서, 적외선 센서 등을 통해 고객이 상품을 선택하는 동작을 감지할 수 있다. A plurality of product storage 130 may exist in an unmanned store. Although the term product storage 130 is used, it may be implemented as a display stand that simply displays products, rather than a place in the form of a box for storing products therein. That is, it means a unit space in which a product is placed. In one example, merchandise storage 130 may include a refrigerator, freezer, display stand, and the like. In addition, a sensor 132 is disposed in or around the product storage 120 to detect an action of selecting a product (an action of picking up the product) by the customer to purchase the product. The sensor 132 includes at least one of a door open/close sensor, an approach sensor, a motion recognition sensor, and an infrared sensor. In particular, in a situation where products are stored with the door closed, such as in a refrigerator or freezer, it is preferable to detect a customer's operation of selecting a specific product to purchase through a door open/close detection sensor. In an environment that does not require a special door opening/closing operation, such as a shelf, a customer's selection of a product can be detected through an approach sensor, a motion recognition sensor, an infrared sensor, and the like.

한편, 센서(132)를 통해, 고객의 특정 상품보관소(130)와 관련된 상품을 선택하는 행위가 감지되면, 그에 대응하는 카메라(134)가 상품 선택 중인 고객을 촬영한다. 센서(132)와 카메라(134)는 개별 상품 보관소(130)마다 하나 또는 그 이상씩 구비될 수 있다. 따라서, 제 1 상품보관소(130)의 센서(132)에서 고객의 상품 선택 행위가 감지되면, 그에 대응하는 카메라(134)에서 촬영이 이루어지고, 다른 상품보관소의 센서에서 고객의 상품 선택 행위가 감지되면, 그에 대응하는 다른 카메라에서 촬영이 이루어진다. 여기서도, 고객의 전면 또는 후면, 윗면을 바라보는 방향으로 촬영이 수행될 수 있다. Meanwhile, when an act of selecting a product related to a specific product storage 130 of a customer is detected through the sensor 132 , a camera 134 corresponding thereto takes a picture of the customer during product selection. One or more sensors 132 and cameras 134 may be provided for each individual product storage 130 . Therefore, when the sensor 132 of the first product storage 130 detects the customer's product selection behavior, the corresponding camera 134 takes a picture, and the customer's product selection behavior is detected by the sensor of the other product storage. When it is, the shooting is performed by another camera corresponding to it. Here, also, photographing may be performed in a direction of looking at the front, back, or top of the customer.

고객이 상품 선택을 하고 나면, 결제가 요구된다. 따라서, 결제 단말(140)로 접근하여, 결제 단말(140)에 결제 관련 사용자 입력을 입력함에 의해, 결제를 진행한다. 이때, 결제 단말(140)의 실행 및/또는 결제 단말(140) 주변에 별도로 구비된 접근 센서(미도시) 등을 통해 고객의 상품 결제 행위를 감지할 수 있다. 이렇게 감지된 고객의 결제 (개시) 행위에 대응하여, 카메라(142)가 촬영을 개시한다. 결제 단말(140)은 키오스크 및 POS 단말을 포함한다. 또는, POS 단말 기능이 포함되어 있는 키오스크 장치일 수 있다. After the customer makes a product selection, payment is requested. Accordingly, payment is performed by accessing the payment terminal 140 and inputting a payment-related user input to the payment terminal 140 . At this time, the customer's product payment behavior may be detected through the execution of the payment terminal 140 and/or an access sensor (not shown) separately provided around the payment terminal 140 . In response to the customer's payment (initiation) behavior detected in this way, the camera 142 starts shooting. The payment terminal 140 includes a kiosk and a POS terminal. Alternatively, it may be a kiosk device including a POS terminal function.

본 발명의 실시예에 따르면, 매장 내 인바운드(In-bound) 장비는 근거리 통신을 이용하여 서로 통신할 수 있다. 이때, 근거리 통신은 와이-파이(Wi-Fi), 지그비(Zigbee), 블루투스(Bluetooth) 등을 포함할 수 있다. 와이-파이 통신을 할 때, 액세스 포인트(170)를 매개로 내부적으로 분배된 IP를 이용하여 서로 정보를 송수신한다. 즉, 액세스 포인트(170)는 센서(112, 132) 및 결제 단말(140), 그리고 카메라들(120, 134, 142)에 각각 개별 IP를 할당하고, 인바운드 장비들 간에 서로의 IP를 기억하여 정보를 송수신할 수 있다. 예를 들어, 인바운드 장비들이 프록시 서버(180)를 거치지 않고 직접 통신하는 실시예에서, 제 1 센서(112)는 카메라(120)의 IP를 통해 카메라(120)로 센싱 정보를 전달하고, 제 2 센서(132)는 카메라(134)의 IP를 매개로 카메라(134)로 센싱 정보를 전달하며, 결제 단말(140)은 카메라(142)의 IP를 매개로 카메라(142)로 결제 개시 정보를 전달하여, 각각의 카메라들(120, 134, 142)에서 촬영을 활성화하도록 제어할 수 있다. 관리자는 관리자 단말(105)을 이용하여, 통합 서버(190) 또는 프록시 서버(180)를 매개로 개별 센서(112, 132) 및/또는 결제 단말(140)에게 그들이 센싱한 정보를 전달해야 할 수신처에 대한 IP 정보를 결정할 수 있다. 그리고, 원하는 때, 이를 변경할 수도 있다. 즉, 센서/단말과 카메라간 매핑 관계를 임의로 설정할 수 있다. 다른 예에서, 매장 내 인바운드 장비들은 반드시 근거리 통신만을 이용해야 하는 것은 아니고, NB-IoT(NarrowBand IoT), 로라(LoRa), 원엠투엠(oneM2M), OCF(Open Connectivity Foundation), LwM2M(Lightweight M2M) 등 글로벌 IoT 표준에서 제정한 표준 통신 프로토콜 중 적어도 하나에 따라 서로 간에 또는 외부 장치로 정보를 송수신할 수 있다. According to an embodiment of the present invention, in-store equipment may communicate with each other using short-range communication. In this case, the short-range communication may include Wi-Fi, Zigbee, Bluetooth, and the like. When performing Wi-Fi communication, information is transmitted and received to each other using the internally distributed IP through the access point 170. That is, the access point 170 allocates individual IPs to the sensors 112 and 132, the payment terminal 140, and the cameras 120, 134, and 142, and stores each other's IPs among inbound devices to obtain information. can send and receive. For example, in an embodiment in which inbound devices communicate directly without going through the proxy server 180, the first sensor 112 transmits sensing information to the camera 120 through the IP of the camera 120, and The sensor 132 transmits sensing information to the camera 134 via the IP of the camera 134, and the payment terminal 140 transmits payment initiation information to the camera 142 via the IP of the camera 142. Thus, it is possible to control each of the cameras 120, 134, and 142 to activate shooting. The manager uses the manager terminal 105 to transmit the information sensed by the manager to the individual sensors 112 and 132 and/or the payment terminal 140 via the integration server 190 or the proxy server 180. IP information can be determined. And, you can change it whenever you want. That is, a mapping relationship between a sensor/terminal and a camera may be arbitrarily set. In another example, inbound devices in the store do not necessarily use only short-range communication, but NarrowBand IoT (NB-IoT), LoRa, oneM2M, Open Connectivity Foundation (OCF), Lightweight M2M (LwM2M) Information may be transmitted and received between each other or to an external device according to at least one of the standard communication protocols established by the global IoT standard.

또한, 적어도 두 개의 센서들(112, 132)에서의 센싱 정보, 적어도 세 개의 카메라(120, 134, 142)에서 촬영된 영상 데이터(이는 동영상(video)을 포함함), 그리고 결제 단말(140)에서의 결제 개시 및 진행 정보, 그리고 결제 내역 정보는 프록시 서버(180)로 제공될 수 있다. 그리고, 프록시 서버(180)는 해당 데이터들을 광대역 통신망을 이용하여 통합 서버(190)로 제공할 수 있다. In addition, sensing information from at least two sensors 112 and 132, image data captured by at least three cameras 120, 134 and 142 (including video), and payment terminal 140 Payment initiation and progress information and payment detail information in may be provided to the proxy server 180 . In addition, the proxy server 180 may provide corresponding data to the integrated server 190 using a broadband communication network.

프록시 서버(180)는 무인 매장 현장에 배치된 서버이다. 이는 무인 매장에 배치된 컴퓨팅 장치에 데몬 툴(daemon tool)이 에뮬레이팅된(emulated) 형태로 존재할 수 있다. 해당 서버는 통합 서버(190)와 연동한다. 이는 통합 서버(190)에서 제공하는 무인 매장 보안 및 경영 관리 서비스를 이용하는 회원 매장에 설치하는 서버 또는 프로그램일 수 있다. The proxy server 180 is a server deployed at an unmanned store site. This may exist in the form of a daemon tool emulated in a computing device disposed in an unmanned store. The corresponding server works with the integrated server 190. This may be a server or program installed in member stores using unmanned store security and business management services provided by the integrated server 190 .

다만, 본 발명의 실시예에 따르면, 프록시 서버(180)가 반드시 필요하지 않을 수 있다. 프록시 서버(180)를 거치지 않고, 센서들(112, 132), 카메라(120, 134, 142) 및 결제 단말(140)이 관련 정보를 직접 통합 서버(190)로 보낼 수도 있다. However, according to an embodiment of the present invention, the proxy server 180 may not necessarily be required. The sensors 112 and 132 , the cameras 120 , 134 and 142 , and the payment terminal 140 may directly send related information to the integration server 190 without going through the proxy server 180 .

통합 서버(190)는 수신된 센싱 정보, 영상 데이터 및 결제 정보를 기반으로, 영상 데이터 내의 고객을 라벨링(labeling)함에 따라 고객의 행동 패턴을 분석하고, 분석 결과를 관리자 단말(105), 매장 내 디스플레이 장비(150) 및 스피커(160)를 통해 출력하도록 제어한다. 매장 내 디스플레이 장비(150) 및 스피커(160)로의 출력은 프록시 서버(180)를 매개로 이루어질 수 있다. 디스플레이 장비(150) 및 스피커(160)는 출력장치라 불릴 수 있고, 이는 고객 행동 패턴 분석 결과(및 분석 결과에 대한 표현 방법)을 획득하는 정보 획득부(미도시) 및 이를 출력하는 출력부(미도시)를 포함할 수 있다. 또한, 통합 서버(190)(또는 프록시 서버(180))는 출력 제어 장치, 시각화 장치, 시각적 표현 장치, 청각적 표현 장치, 표현 제어 장치 등으로 불릴 수 있다. The integration server 190 analyzes the customer's behavioral pattern according to labeling of the customer in the video data based on the received sensing information, video data, and payment information, and sends the analysis result to the manager terminal 105, in-store Control to output through the display device 150 and the speaker 160. Output to the in-store display equipment 150 and the speaker 160 may be made through the proxy server 180 . The display equipment 150 and the speaker 160 may be referred to as an output device, which is an information acquisition unit (not shown) that obtains a customer behavior pattern analysis result (and an expression method for the analysis result) and an output unit that outputs it ( not shown) may be included. In addition, the integration server 190 (or proxy server 180) may be called an output control device, a visualization device, a visual expression device, an auditory expression device, an expression control device, and the like.

한편, 고객의 행동 패턴은 카메라(120)에서 촬영된 영상을 기반으로 매장 출입 동작을 분석하고, 카메라(134)에서 촬영된 영상을 기반으로 고객의 상품 선택 동작을 분석하며, 카메라(142)에서 촬영된 영상을 기반으로 고객의 상품 결제 동작을 분석한 결과를 종합적으로 분석하여 도출된다. 이에 따라, 어떤 고객은 출입만 하고 매장을 나갔는지, 어떤 고객은 출입 및 상품 선택까지만 하고 결제는 하지 않고 매장을 나갔는지, 또 어떤 고객은 출입부터 상품 선택, 그리고 결제까지 모두 진행하고 매장을 나갔는지를 확인하여, 고객을 타입별로 분류할 수 있고, 분류된 결과를 관리자 단말(105) 또는 매장 내 출력 장치(150, 160)로 제공할 수 있다. On the other hand, the customer's behavior pattern analyzes the store entry and exit behavior based on the image captured by the camera 120, analyzes the customer's product selection behavior based on the image captured by the camera 134, and analyzes the customer's product selection behavior based on the image captured by the camera 142. It is derived by comprehensively analyzing the results of analyzing the customer's product payment behavior based on the captured video. Accordingly, some customers only entered and left the store, some customers only entered and selected products and left the store without paying, and some customers left the store after proceeding from entry to product selection and payment. After confirming whether or not the customer has gone, customers can be classified by type, and the classified result can be provided to the manager terminal 105 or the in-store output devices 150 and 160 .

또한, 통합 서버(190)는 상기 센싱 정보, 영상 데이터 및 결제 정보를 데이터베이스(192)에 고객별로, 상품별로 및/또는 시간별로 구분하여 저장한다. 그리고는, 저장된 정보들을 이용하여 인공지능 기반의 기계 학습 모델을 통해, 매출 증대를 위한 방안을 도출해낼 수 있다. 도출되는 방안 중 예시적인 하나는, 고객의 상품 선택 성향에 맞는 상품 진열 방식이 될 수 있다. In addition, the integration server 190 classifies and stores the sensing information, image data, and payment information in the database 192 by customer, by product, and/or by time. Then, a plan for increasing sales can be derived through an artificial intelligence-based machine learning model using the stored information. An exemplary one of the methods derived may be a product display method suitable for a customer's product selection propensity.

한편, 통합 서버(190)에서의 기능은 매장 내 배치된 프록시 서버(180)에서 수행될 수 있다. 즉, 통합 서버(190)에서 제공하는 분석 기능이 프록시 서버(180)에 에이전트 형태로 설치되어, 프록시 서버(180) 자체적으로 분석 및 분석 결과 출력이 가능하게 동작할 수 있다. 통합 서버(190) 또는 프록시 서버(180)는 센싱 정보 및/또는 영상 정보를 분석하기에, 분석 장치, 영상 분석 장치 등으로 불릴 수 있다.Meanwhile, the functions of the integration server 190 may be performed by the proxy server 180 disposed in the store. That is, the analysis function provided by the integrated server 190 is installed in the proxy server 180 in the form of an agent, so that the proxy server 180 itself can analyze and output analysis results. Since the integrated server 190 or the proxy server 180 analyzes sensing information and/or image information, it may be referred to as an analysis device or an image analysis device.

센서(112, 132)는 위에서 예시로 든 것 이외에, 다양한 형태의 IoT 센서로 구현될 수 있다. 여기에는, 온도 센서, 습도 센서, 모션 감지 센서 등을 포함할 수 있다. 또한, 센서(112, 132) 및 결제 단말(140) 위치의 센서 이외에 매장 내 또는 매장 주변의 다른 위치에 하나 또는 다수의 다른 센서들이 존재할 수도 있다. 또한, 카메라(120, 134, 142) 중 적어도 하나는 위와 같이 다른 곳에 배치된 센서들과 연동하여, 영상을 촬영할 수 있고, 이를 통합 서버(190)로 전송할 수 있다. The sensors 112 and 132 may be implemented as various types of IoT sensors other than those listed as examples above. This may include a temperature sensor, a humidity sensor, a motion detection sensor, and the like. In addition, one or more other sensors may be present in the store or at other locations around the store in addition to the sensors 112 and 132 and the sensor at the location of the payment terminal 140 . In addition, at least one of the cameras 120 , 134 , and 142 may take an image by interlocking with sensors disposed elsewhere as above, and transmit the image to the integrated server 190 .

관리자 단말(105)은 매장 관리를 수행하는 관리자가 소지한 사용자 단말로, 스마트폰(smart phone), 데스크톱(dest top), 랩톱(laptop), PDA(Personal Digital Assistants) 등으로 구현될 수 있다. 관리자 단말(105)은 통합 서버(190)에서 제공하는 애플리케이션(Application: 이하 "앱"이라 부름)을 설치하여 통합 서버(190)와 연동가능하며, 통합 서버(190)에서 제공하는 정보를 앱에서 제공하는 사용자 인터페이스(UX/UI)를 통해 표시할 수 있다. 특수한 경우에, 관리자 단말(105)은 매장 내의 단말로 구현될 수 있고, 프록시 서버(180)와 관리자 단말(105)은 하나의 장비로 구현될 수 있다.The manager terminal 105 is a user terminal possessed by a manager who performs store management, and may be implemented as a smart phone, a desktop, a laptop, or a personal digital assistant (PDA). The manager terminal 105 can be linked with the integration server 190 by installing an application (Application: hereinafter referred to as "app") provided by the integration server 190, and the information provided by the integration server 190 is stored in the app. It can be displayed through the provided user interface (UX/UI). In a special case, the manager terminal 105 may be implemented as a terminal in a store, and the proxy server 180 and the manager terminal 105 may be implemented as one device.

도 2는 본 발명의 다른 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 나타낸 도면이다. 2 is a diagram illustrating an unmanned store system for performing customer behavior pattern analysis according to another embodiment of the present invention.

도 2를 참조하면, 상품보관소에 부착되어 고객의 상품 선택 동작을 감지하기 위한 센서와 카메라의 관계는 반드시 1:1의 관계를 가져야 하는 것은 아니다. 1:N, N:1, N:M의 관계를 가질 수 있다. Referring to FIG. 2 , the relationship between a sensor attached to a product storage and detecting a customer's product selection operation and a camera does not necessarily have to be a 1:1 relationship. It can have a 1:N, N:1, or N:M relationship.

도 2의 실시예에서처럼, 6개의 센서가 4개의 카메라에 대응될 수도 있다. 이때, 개별 센서와 대응되는 카메라와의 매칭 관계는 미리 정해져 있을 수 있다. 예를 들어, 제 1 센서와 제 2 센서는 제 1 카메라와, 제 3 센서와 제 4 센서는 제 2 카메라와 제 3 카메라와, 제 5 센서는 제 3 카메라와 제 4 카메라와, 제 6 센서는 제 4 카메라와 매칭되어 있을 수 있다. 이와 같은 시나리오는, 통합 서버에서 설정할 수 있고, 관리자 단말을 이용하여 통합 서버 및 프록시 서버를 매개로 설정할 수도 있다. As in the embodiment of FIG. 2 , 6 sensors may correspond to 4 cameras. In this case, a matching relationship between an individual sensor and a corresponding camera may be predetermined. For example, the first sensor and the second sensor are connected to the first camera, the third sensor and the fourth sensor are connected to the second camera and the third camera, the fifth sensor is connected to the third camera and the fourth camera, and the sixth sensor may be matched with the fourth camera. Such a scenario can be set in the integration server, or can be set through the integration server and proxy server using an administrator's terminal.

본 발명의 실시예에 따르면, 카메라들 중 적어도 일부는 회전이 가능하게 설치되어, 센서로부터의 센싱 정보가 수신되면, 센싱된 상품 보관소를 향하는 방향으로 회전하고, 회전된 상태에서 해당 상품보관소를 바라보는 방향으로 촬영을 개시하도록 제어될 수 있다. 이러한 카메라의 회전은 PTZ(Pan Tilt Zoom) 제어를 포함한다. 또한, 이러한 회전 및 PTZ 제어 메카니즘은 고객의 상품 선택 동작 촬영 이외에, 고객의 매장 출입 동작을 촬영하는 카메라, 상품 결제 동작을 촬영하는 카메라 등에도 응용될 수 있다. According to an embodiment of the present invention, at least some of the cameras are installed to be rotatable, and when sensing information is received from the sensor, they rotate in a direction toward the sensed product storage area and look at the product storage area in a rotated state. It can be controlled to start shooting in the viewing direction. Rotation of such a camera includes PTZ (Pan Tilt Zoom) control. In addition, such a rotation and PTZ control mechanism can be applied to a camera that photographs a customer's action of entering a store, a camera that photographs a product payment action, and the like, in addition to photographing a customer's action of selecting a product.

도 3은 도 1 또는 도 2의 무인 매장 내 장비들 간의 정보 교류 과정을 나타낸 흐름도이다. 3 is a flowchart illustrating an information exchange process between equipment in an unmanned store of FIG. 1 or 2 .

도 3을 참조하면, 출입 센서가 고객의 입장을 센싱하면(S310), 관련 정보는 제 1 카메라(도 1의 120)로 제공된다(S312). 제 1 카메라는 상기 센싱 정보를 기반으로 촬영을 개시한다(S314). 촬영은 기설정된 시간동안 진행된다. 예를 들어, 1분의 시간동안 촬영할 수 있다. 다만, 반드시 1분으로 설정되어야만 하는 것은 아니고, 2분, 3분, 4분, 5분, 10분, 15분, 20분으로 설정되도 무방하다. 제 1 카메라가 영상을 촬영하면, 촬영된 영상 데이터는 프록시 서버로 전달된다(S316). 프록시 서버는 수신한 영상 데이터를 실시간으로 통합 서버로 전송한다(S318). Referring to FIG. 3 , when the entrance sensor senses the customer's position (S310), related information is provided to the first camera (120 in FIG. 1) (S312). The first camera starts shooting based on the sensing information (S314). Shooting is performed for a predetermined time. For example, it may be taken for one minute. However, it does not necessarily have to be set to 1 minute, and it may be set to 2 minutes, 3 minutes, 4 minutes, 5 minutes, 10 minutes, 15 minutes, and 20 minutes. When the first camera captures an image, the captured image data is transmitted to the proxy server (S316). The proxy server transmits the received image data to the integration server in real time (S318).

상품 보관소 도어 개폐 센서가 도어의 개폐를 센싱하면(S320), 이를 고객의 상품 선택 행위로 간주하고, 센싱 정보를 제 2 카메라(도 1의 134)로 제공한다(S322). 제 2 카메라는 개폐 센싱 정보를 트리거로 하여 영상 촬영을 개시하고(S324), 프록시 서버로 제공한다(S326). 프록시 서버는 이를 통합 서버로 전송한다(S328). When the door opening/closing sensor of the warehouse senses the opening and closing of the door (S320), it is regarded as the customer's act of selecting a product, and the sensing information is provided to the second camera (134 in FIG. 1) (S322). The second camera starts capturing images by triggering the opening/closing sensing information (S324) and provides the image to the proxy server (S326). The proxy server transmits it to the integration server (S328).

다음으로, 상품 결제와 관련하여, 결제 단말에서 결제 프로세스가 진행되면(S330), 결제 단말은 결제 진행과 관련된 정보를 제 3 카메라(도 1의 142)에 제공한다(S332). 제 3 카메라는 이를 트리거로 하여, 영상 촬영을 개시하고(S334), 프록시 서버로 제공한다(S336). 프록시 서버는 이를 통합 서버로 전송한다(S338). Next, in relation to product payment, when the payment process proceeds in the payment terminal (S330), the payment terminal provides information related to the payment process to the third camera (142 in FIG. 1) (S332). The third camera uses this as a trigger to start capturing an image (S334) and provides it to the proxy server (S336). The proxy server transmits it to the integration server (S338).

도 3의 실시예에서는, 개별 센서들이 직접 센싱 정보를 대응하는 카메라로 제공하는 것으로 설명하고 있지만, 직접 센싱 정보를 송수신하지 않고, 프록시 서버를 거쳐 정보를 송수신할 수도 있다. 예를 들어, 출입 센서가 고객의 출입을 센싱하면, 센싱 정보를 프록시 서버로 전달하고, 프록시 서버는 어느 센서로부터의 센싱 정보인지 식별한 후, 그에 대응하는 카메라(즉, 제 1 카메라)로 촬영 요청 메시지를 전송하는 방식으로 동작할 수 있다. 즉, 센서는 센싱 정보를 모두 프록시 서버로 전송하고, 프록시 서버는 센서로부터의 센싱 정보를 식별하여 그에 대응하는 카메라를 추출한 뒤, 추출된 카메라로 촬영 요청 메시지를 전달한다. 본 실시예에서, 프록시 서버는 센서와 카메라 간의 매핑 관계를 나타내는 매핑 테이블을 보유하고 있을 수 있다. 또한 관리자는 이를 임의로 변경 또는 새로 설정할 수 있다. In the embodiment of FIG. 3 , it is described that individual sensors directly provide sensing information to a corresponding camera, but information may be transmitted and received through a proxy server without directly transmitting and receiving sensing information. For example, when an access sensor senses a customer's entry, it transfers the sensing information to a proxy server, the proxy server identifies which sensor the sensing information is from, and then takes a picture with a corresponding camera (ie, a first camera). It can operate by sending a request message. That is, the sensor transmits all sensing information to the proxy server, the proxy server identifies the sensing information from the sensor, extracts a corresponding camera, and transmits a photographing request message to the extracted camera. In this embodiment, the proxy server may have a mapping table representing a mapping relationship between sensors and cameras. In addition, the administrator can change or newly set it arbitrarily.

또한, 본 발명의 다른 실시예에 따르면, 센싱이 이루어졌을 때, 촬영을 개시할 수도 있으나, 카메라가 촬영을 계속하고 있는 상태에서 다른 동작이 수행되도록 할 수도 있다. 카메라는, 센싱 정보에 기반하여, 고객의 행동 패턴 또는 행동 단계 식별을 위한 기준 시점을 설정하도록 제어할 수 있다. 예를 들어, 제 1 카메라는 출입문 방향을 계속하여 촬영하고 있다가, 출입 센서로부터 센싱 정보를 수신함에 대응하여, 센싱 정보 수신 시점을 고객의 매장 출입 시점으로 인식할 수 있다. 이에 따라, 고객의 매장 출입 시점을 센싱 정보 수신 시점을 기준으로 설정하여, 영상 분석에 활용할 수 있다. 일 예로, 기준 시점 전후 기설정된 일정 시간의 영상을 해당 고객 관련 매장 출입 영상으로 구분하고, 매장 출입 영상이 필요할 때, 이 일정 시간의 영상을 호출하여 분석에 이용할 수 있다. 즉, 카메라는 센싱 정보를 기반으로 영상에 시점 관련 기준 인덱스(index)를 부여하는 형태로 동작한다. Further, according to another embodiment of the present invention, when sensing is performed, photographing may be started, but other operations may be performed while the camera continues photographing. The camera may be controlled to set a reference viewpoint for identifying a customer's behavioral pattern or behavioral stage based on the sensing information. For example, the first camera may continue to photograph the direction of the door, and recognize the receiving time of the sensing information as the time of entering the store by the customer in response to receiving sensing information from the entrance sensor. Accordingly, it is possible to set the customer's access point to the store based on the sensing information reception point and use it for image analysis. For example, an image of a predetermined predetermined time before and after a reference point may be classified as a store access video related to a corresponding customer, and when a store access video is needed, the video of the predetermined time may be called and used for analysis. That is, the camera operates in a form of assigning a view-related reference index to an image based on sensing information.

도 4는 무인 매장 내 다수의 카메라 장비를 통해 획득된 영상 데이터들에 라벨링(Labeling)을 수행하여 일괄적으로 관리하는 방법을 설명하기 위한 개념도이다. 4 is a conceptual diagram illustrating a method of collectively managing image data obtained through a plurality of camera equipment in an unmanned store by labeling them.

도 4를 참조하면, 통합 서버는 출입 감지 카메라로부터 획득한 제 1 영상 데이터, 상품 선택과 관련된 카메라로부터 획득한 제 2 영상 데이터 및 상품 결제와 관련된 카메라로부터 획득한 제 3 영상 데이터를 수집하여, 개별 영상 내에 존재하는 고객마다 라벨링을 수행한다. 둘 이상의 고객이 하나의 영상에 존재할 때는 각각 서로 다른 라벨을 부착한다. 제 1 영상 데이터에는 두 명의 고객이 있어, 하나는 #1, 다른 하나는 #2의 라벨이 부착된다. 영상 내 고객의 검출은 인공지능(AI: Artificial Intelligence) 기반의 기계 학습 모델(Machine Learning Model)(이하, '인공지능 모델'로 부를 수 있음)을 통해 수행된다. 즉, 얼굴 트랙킹(face tracking), 또는 기타 사람의 인상착의를 트랙킹하는 영상 분석/객체 검출 모델을 이용하여 영상 내의 사람을 인식하고, 복수의 인식된 사람을 구분할 수 있다. Referring to FIG. 4, the integrated server collects first image data obtained from an access detection camera, second image data obtained from a camera related to product selection, and third image data obtained from a camera related to product payment, and individually Labeling is performed for each customer present in the image. When more than one customer is present in a single image, each is labeled differently. There are two customers in the first image data, one labeled #1 and the other #2. The detection of customers in the video is performed through an artificial intelligence (AI)-based machine learning model (hereinafter referred to as an 'artificial intelligence model'). That is, a person in an image may be recognized and a plurality of recognized persons may be distinguished by using face tracking or an image analysis/object detection model that tracks a person's impression.

위와 같은 인공지능 모델을 통해, 제 1 영상 데이터에서 라벨링이 이루어지고 나면, 제 2 영상 데이터(상품 선택 동작 촬영 데이터)들 중에서 라벨링된 고객의 영상을 검출한다. 그리고는, 해당 영상에도 동일하게 라벨링을 수행한다. 즉, 다수의 제 2 영상 데이터에서 #1로 라벨링된 고객을 검출하여, 검출된 영상 내의 고객을 #1로 라벨링한다. 이와 동일한 방식으로 다수의 제 3 영상 데이터(상품 결제 동작 촬영 데이터)에서도 #1로 라벨링된 고객을 검출하여, 검출된 영상 내의 고객을 #1로 라벨링한다. After labeling is performed in the first image data through the artificial intelligence model as described above, the labeled image of the customer is detected from among the second image data (product selection action shooting data). Then, the same labeling is performed on the corresponding image. That is, a customer labeled as #1 is detected in the plurality of second image data, and the customer in the detected image is labeled as #1. In the same way, a customer labeled as #1 is detected in a plurality of third image data (product payment action photographing data), and the customer in the detected image is labeled as #1.

그리고는, #1로 라벨링된 고객이 포함된 영상을 데이터베이스 내의 특정 물리적 위치(#1로 표시된 폴더)에 저장한다. 동일한 방식으로 #2로 라벨링된 고객과 관련된 영상은 다른 물리적 위치(#2로 표시된 폴더)에 저장한다. 영상 내에 다수의고객의 존재할 때, 하나의 영상 데이터는 다수의 폴더에 동시에 저장될 수 있다. 이러한 라벨링은 특정 상품을 대상으로 이루어질 수도 있고, 상품별 영상 데이터가 기지정된 물리적 위치에 저장될 수도 있다. Then, the image containing the customer labeled #1 is stored in a specific physical location (folder labeled #1) in the database. In the same way, images related to the customer labeled #2 are stored in another physical location (folder labeled #2). When there are multiple customers in an image, one image data can be simultaneously stored in multiple folders. Such labeling may be performed for a specific product, and image data for each product may be stored in a predetermined physical location.

한편, 통합 서버는 고객의 동작을 인공지능 기반의 모션 인식 모델을 이용하여 구분할 수 있다. 예를 들어, 고객의 입장 및 퇴장은 기본적인 출입 동작에서 크게 벗어남이 없겠지만, 상품의 선택 동작은 다양한 모션이 존재할 수 있다. 예를 들어, 상품을 집어드는 행위, 집었다가 다시 놓는 행위, 냉장고 도어만 개폐하는 행위, 상품을 다양하게 시험해보는 행위 등이 존재할 수 있다. On the other hand, the integration server can classify the customer's motion using an artificial intelligence-based motion recognition model. For example, a customer's entrance and exit will not deviate much from the basic entry and exit operations, but various motions may exist for product selection operations. For example, there may be an act of picking up a product, an act of picking up and putting it back, an act of opening and closing only a refrigerator door, an act of testing a product in various ways, and the like.

이러한 다양한 동작을 크라우드 소싱(Crowd Sourcing) 등의 방법을 통해 다양한 학습데이터로 생성하여 보다 세분화된 동작으로 구분할 수도 있다. 즉, 크라우드 소싱을 통해 전세계 관련 영상들을 수집함으로써 방대한 양의 학습 데이터 셋을 확보할 수 있다. 또한, 실제 인공지능 모델을 실행하면서 촬영된 영상 데이터 및 그에 대한 분석 결과를 다시 학습 데이터 셋으로 생성하여 자가 학습을 수행할 수도 있다.These various motions may be generated as various learning data through a method such as crowd sourcing and classified into more subdivided motions. In other words, it is possible to secure a vast amount of learning data set by collecting relevant images from all over the world through crowdsourcing. In addition, self-learning can be performed by creating a learning data set again with image data captured while executing an actual artificial intelligence model and analysis results thereof.

이때, 세분화된 동작 구분과 관련하여, 제 2 영상 데이터를 상품 선택 관련 영상으로 할 것이 아니라, 제 2-1 영상으로 상품을 집어드는 영상, 제 2-2 영상으로 상품을 장바구니에 넣는 행위와 관련된 영상, 제 2-3 영상으로 상품을 장바구니에서 빼내는 행위와 관련된 영상 등 보다 세분화된 동작을 지시하는 영상으로 구분하고, 이를 고객의 행동 패턴 또는 행동 단계로 적용할 수 있다. At this time, in relation to the subdivided motion classification, the second image data is not an image related to product selection, but a video of picking up a product as the 2-1 image and a video related to the act of putting the product into the shopping cart as the 2-2 image. It can be divided into images indicative of more subdivided actions, such as images related to an act of taking products out of a shopping cart, such as images and second and third images, and can be applied as customer behavior patterns or behavior stages.

결제 행위와 관련하여서도, 상품을 장바구니에서 빼내는 행위, 계산대에 놓는 행위, 상품 내의 바코드를 바코드 리더에 읽히는 행위, 결제 카드를 삽입하는 행위 등을 구분할 수 있다. 더 나아가서는, 계산대에 물건을 놓는 행위를 기반으로 계산대에 놓은 상품의 갯수를 추론할 수 있고, 상품 바코드를 읽히는 행위 및 결제 내역을 기반으로 결제된 상품의 갯수를 추론할 수 있으며, 둘 간의 차이를 비교하여 결제시 누락된 상품의 갯수를 추론할 수 있다. Regarding the payment action, an action of removing a product from a shopping cart, an action of putting a product on a checkout counter, an action of reading a barcode in a product with a barcode reader, and an action of inserting a payment card can be distinguished. Furthermore, the number of products placed on the checkout counter can be inferred based on the act of placing an object on the counter, and the number of paid products can be inferred based on the act of reading the barcode of the product and the payment history, and the difference between the two By comparing , it is possible to infer the number of products that are missing at the time of payment.

또한, 카메라(134)를 통해 획득된 제 2 영상 데이터 내에서, 라벨링된 고객이 선택한 상품의 종류 및 갯수에 대한 정보와 결제 단말을 통해 획득되는 결제 내역에서, 결제된 상품의 종류 및 갯수를 비교하여, 누락된 상품이 존재하는지 여부 및 누락된 상품의 갯수를 산출할 수 있다.In addition, in the second image data obtained through the camera 134, the information on the type and number of products selected by the labeled customer is compared with the type and number of paid products in the payment details obtained through the payment terminal Thus, it is possible to calculate whether there are missing products and the number of missing products.

특히, 인공지능 기반의 객체 검출 및 모션 인식 기술을 통해, 세분화된 단계 및/또는 패턴이 많을수록 도난 및 보안 관련 분석을 위한 데이터 및 매장의 매출 증대를 위한 경영 데이터로서의 활용성은 증가된다.In particular, through artificial intelligence-based object detection and motion recognition technology, the more subdivided steps and/or patterns, the more useful it is for data for theft and security-related analysis and management data for increasing store sales.

기본적으로, 통합 서버는 고객을 위의 제 1 내지 제 3 영상 데이터 내의 라벨링된 고객의 존재 및 고객의 행동 분석을 통해, 특정 고객이 매장에 입장만 한 고객인지, 상품 선택까지 한 고객인지, 상품 결제까지 한 고객인지 구분할 수 있다. 즉, #1의 고객은 제 1 영상 데이터에도 존재하고, 제 2 영상 데이터에도 존재하며, 제 3 영상 데이터에도 존재함에 근거하여, 매장 출입부터, 상품 선택 및 상품 결제까지 한 고객으로 판단할 수 있다. #2의 고객은 제 1 영상 데이터에는 존재하나 제 2 영상 데이터 및 제 3 영상 데이터에는 존재하지 않음에 근거하여, 매장 출입만 하고, 상품 선택 및 상품 결제는 하지 않고 나간 고객으로 판단할 수 있다. 또한, 제 1 영상 데이터와 제 2 영상 데이터에는 존재하나, 제 3 영상 데이터에는 존재하지 않는 고객은, 매장 출입과 상품 선택까지 하였으나, 상품 결제는 하지 않은 고객으로 판단할 수 있다. 이때, 제 2 영상 데이터를 세분화하여, 상품을 도로 상품보관소에 놓는 행위와 관련된 데이터가 있는지 확인하는 것이 바람직하다. 더욱이, 고객의 퇴장 영상(제 4 영상 데이터(미도시))을 활용하면 보다 효과적으로 고객의 행동 패턴을 분석할 수 있다. 퇴장 영상 분석을 통해, 고객이 상품을 들고 나갔는지 들고 나가지 않았는지를 명확히 확인할 수 있기 때문이다. Basically, the integration server determines whether a specific customer is a customer who has only entered the store, has selected a product, and a product through analysis of the existence of the labeled customer in the first to third video data and the customer's behavior. You can distinguish whether a customer has made a payment. That is, based on the fact that the customer #1 also exists in the first video data, the second video data, and the third video data, it can be determined that the customer has entered the store, selected a product, and paid for the product. . Based on the fact that the customer #2 exists in the first image data but does not exist in the second and third image data, it can be determined as a customer who only entered the store and left without selecting a product or paying for a product. In addition, a customer who exists in the first image data and the second image data but does not exist in the third image data may be determined as a customer who entered the store and even selected a product, but did not pay for the product. At this time, it is preferable to subdivide the second image data and check whether there is data related to the act of placing the product in the road product storage. Furthermore, by using the customer's exit video (fourth video data (not shown)), the customer's behavior pattern can be analyzed more effectively. This is because through the exit video analysis, it is possible to clearly confirm whether the customer carried the product or not.

다시 말해, 통합 서버는, 제 1 영상 데이터를 이용하여 개별 고객의 출입 여부를 체크(check)하고, 제 2 영상 데이터를 이용하여 고객의 상품 선택 여부를 체크하며, 제 3 영상 데이터 및/또는 결제 정보를 이용하여 고객의 상품 결제 여부를 체크할 수 있다. 또한, 퇴장 영상 데이터를 이용하여 고객이 상품을 가지고 나갔는지, 가져가지 않고 들어올 때와 동일 또는 유사하게 나갔는지를 최종 점검할 수 있다. 이때, 고객이 상품을 들고 나가는 백(bag)이 비닐 봉지와 같이 내부가 보이는 백인 경우에는, 가져나간 상품의 종류 및 갯수까지 보다 명확하게 분별할 수 있다.In other words, the integration server checks whether an individual customer has entered or exited using the first image data, checks whether or not the customer has selected a product using the second image data, and checks whether the customer has selected a product using the third image data and/or payment Using the information, it is possible to check whether the customer has paid for the product. In addition, it is possible to finally check whether the customer went out with the product or went out in the same or similar way as when the customer came in without taking the product by using the exit video data. At this time, if the bag that the customer carries out the product is a white bag with the inside visible, such as a plastic bag, the type and number of products taken can be more clearly identified.

특히, 카메라가 촬영한 영상 데이터에는 모두 시간 정보가 포함되어 있기 때문에, 시간의 흐름에 따른 고객의 행동을 보다 명확하게 유추할 수 있다. 즉, 매장 출입 후, 제 1 냉장고로 가서 상품을 선택하였고, 그 다음 제 3 냉장고로, 그 다음 제 2 냉장고로 가서 상품을 선택하였으며, 이후 상품 결제 후, 14시 05분 12초에 퇴장하였다는 일련의 고객의 매장 내 행동 흐름을 거의 완벽하게 파악할 수 있다. 위와 같은 고객의 중요 행위마다 센싱 정보, 및 결제 정보가 존재하고, 이를 기반으로 동작하는 카메라가 존재하기 때문에, 영상 내의 특정 행동 관련 인덱스를 기반으로 고객의 행동 흐름을 조합할 수 있는 것이다. In particular, since time information is included in all image data captured by the camera, the customer's behavior over time can be inferred more clearly. That is, after entering the store, he went to the first refrigerator to select a product, then to the third refrigerator, then to the second refrigerator to select a product, and after paying for the product, he left at 14:05:12. It provides an almost perfect picture of the in-store behavioral flow of a series of customers. Since there is sensing information and payment information for each of the customer's important actions as described above, and there is a camera operating based on this, it is possible to combine the customer's behavioral flow based on a specific behavioral index in the video.

도 5는 도 4의 라벨링된 영상 데이터를 분석한 결과를 표현하는 테이블이다. FIG. 5 is a table expressing a result of analyzing the labeled image data of FIG. 4 .

도 5를 참조하면, 통합 서버는, 도 4의 영상 분석 방법을 통해, 행동 패턴을 기설정된 복수 개의 타입으로 구분할 수 있다. 도 4의 실시예에서는 A부터 C까지 3가지 타입으로 구분하였지만, 행동 패턴 시나리오를 다르게 설정함에 따라 더 많은 타입으로 세분화될 수 있음은 본 발명이 속하는 기술분야의 통상의 기술자에게는 자명한 것일 것이다. Referring to FIG. 5 , the integrated server may classify a behavior pattern into a plurality of preset types through the video analysis method of FIG. 4 . In the embodiment of FIG. 4, three types are classified from A to C, but it will be obvious to those skilled in the art that more types can be subdivided as behavior pattern scenarios are set differently.

먼저, 통합 서버는 매장 입장, 상품 선택 및 결제까지 수행한 #1과 같은 고객은 A 타입(type)으로 구분할 수 있다. 그리고, 매장 입장 및 상품 선택을 하였으나, 결제는 수행하지 않은 #2와 같은 고객을 B 타입으로 구분할 수 있다. 또한, 매장 입장만 하고, 상품 선택 및 결제를 하지 않은 #3과 같은 고객을 C 타입으로 구분할 수 있다. 즉, 이와 같은 구분법을 이용하여 사용자가 설정한 제 1 시점부터 제 2 시점까지의 고객에 대해 모두 행동 패턴을 분석하여 3가지 타입 중 하나로 구분할 수 있다. First, the integrated server can classify a customer like #1 who entered the store, selected a product, and paid as type A. In addition, customers such as #2 who entered the store and selected products but did not pay may be classified as type B. In addition, customers such as #3 who only entered the store, but did not select products and pay, can be classified as type C. That is, by using such a classification method, behavior patterns of all customers from the first time point to the second time point set by the user can be analyzed and classified into one of three types.

본 발명의 실시예에 따르면, 통합 서버는 위 3가지 타입에 대해 서로 다른 시각적 표현으로 디스플레이 수단에서 표시되도록 제어할 수 있다. 또는, 청각적 표현을 다르게 할 수도 있다. 예를 들어, 관리자 단말에서 상기와 같이 타입 구분된 고객 행동 패턴 분석 결과를 표시할 때, 서버는 A 타입 고객은 푸른 색으로, C 타입 고객은 노란 색으로, B 타입 고객은 붉은 색으로 표시되도록 제어할 수 있다. 상대적으로, 도난과 관련하여, A 타입 고객이 가장 정상적인 구매 행위를 한 고객으로 볼 수 있고, 그 다음이 C 타입 고객, 그리고, B 타입 고객이, 가장 이상한 행동 패턴을 보인 고객으로 볼 수 있기 때문이다. 다시 말해, 매장 입장 및 상품 선택까지 했는데, 결제를 하지 않은 것은 상품을 가지고 결제하지 않고 그냥 가지고 나갔을 가능성을 배제할 수 없기 때문이다. According to an embodiment of the present invention, the integration server can control display means to display different visual expressions for the above three types. Alternatively, the auditory expression may be different. For example, when displaying the customer behavior pattern analysis results classified by type as described above in the administrator terminal, the server displays Type A customers in blue, Type C customers in yellow, and Type B customers in red. You can control it. Relatively, in terms of theft, type A customers can be seen as the customers with the most normal purchasing behavior, followed by type C customers, and type B customers with the most unusual behavior patterns. am. In other words, even though I entered the store and selected a product, I did not pay because I cannot rule out the possibility that I just took the product and left without paying.

한편, 앞서 도 4에서도 언급한 바와 같이, 인공지능 모델은 보다 다양한 모션 인식이 가능하고, 이에 따라 세분화된 행동을 기반으로 3개보다 더 세분화된 행동 타입 설정 또한 가능하다. 예를 들어, 매장 퇴장 영상을 분석하여, 퇴장시 상품을 들고 나갔는지에 따라 타입을 구분할 수 있다. 특히, B 타입의 고객 중 퇴장시 영상을 기반으로 상품을 들고 나가지 않은 고객은 B-1 타입으로, 상품을 들고 나간 고객은 B-2 타입으로 보다 세분화할 수 있다. 이때, B-2 타입의 고객은 하이라이트 표시가 되도록 할 수도 있다. On the other hand, as previously mentioned in FIG. 4, the artificial intelligence model can recognize more diverse motions, and accordingly, it is possible to set more subdivided action types than three based on subdivided actions. For example, by analyzing a store exit video, a type may be classified according to whether a product was taken out upon exit. In particular, among B-type customers, customers who did not take out the product based on the video at the time of exiting can be further subdivided into B-1 types, and customers who took out products into B-2 types. At this time, the B-2 type customer may be highlighted.

도 6은 무인 매장의 재고 수량이 맞지 않을 때 영상 데이터 분석 결과를 사용자가 직관적으로 이해하도록 시각화하는 방법을 나타낸 흐름도이다. 6 is a flowchart illustrating a method of visualizing an image data analysis result so that a user can intuitively understand when the inventory quantity of an unmanned store does not match.

도 6을 참조하면, 무인 매장 관리자는 정기적으로 재고 수량을 확인할 수 있다(S610). 관리자는 이미 재고 수량을 확인한 제 1 시점부터 다음 재고 수량 확인을 위한 제 2 시점까지의 기간 정보를 설정하고, 고객 행동 패턴 분석 결과를 활용할 수 있다. 즉, 관리자가 설정한 기간 내의 재고 수량과 결제된 상품 수량을 비교하여, 이상이 없는지 확인한다(S620). 제 1 시점의 재고는 제 2 시점의 재고에 결제된 상품을 더한 값과 일치해야 도난 없이 해당 기간 동안 모든 상품이 결제되어 빠져나간 셈이 된다. 이는 정상적이라 볼 수 있다. 그런데, 위 두 값이 맞지 않으면, 도난과 관련하여, 고객들의 영상 분석 결과를 살펴보는 것이 바람직하다. Referring to FIG. 6 , the unmanned store manager may periodically check the stock quantity (S610). The manager may set period information from the first point in time when the inventory quantity has already been confirmed to the second time point for checking the next inventory quantity, and may utilize the customer behavior pattern analysis result. That is, by comparing the quantity in stock within the period set by the manager with the quantity of products paid, it is checked whether there is any abnormality (S620). The inventory at the first point in time must match the value added to the inventory at the second point in time so that all products have been paid for during the period without being stolen. This can be considered normal. By the way, if the above two values do not match, it is desirable to look at the results of image analysis of customers in relation to theft.

이때, 영상 분석 결과를 표시함에 있어서, 도난과 관련되어 있을 가능성이 높은 타입의 고객들을 먼저 표시한다. 즉, B 타입의 고객을 먼저 표시하고(S630), 그 다음 C 타입의 고객(S640), 그리고 마지막에 A 타입의 고객들을 표시한다(S650). 표시할 때, 도 5와 같이, 테이블 형태로 해당 타입의 고객들을 표시한다. 행에는 고객의 라벨이 열에는 고객의 행동 단계가 표시되도록 할 수 있다. 그 반대여도 무방하다. At this time, in displaying the result of image analysis, customers of a type most likely to be related to theft are displayed first. That is, B-type customers are displayed first (S630), then C-type customers (S640), and A-type customers are displayed at the end (S650). When displaying, as shown in FIG. 5, customers of the corresponding type are displayed in a table form. You can have the customer's label in the row and the customer's action stage in the column. The opposite is also fine.

관리자는 먼저 B 타입의 고객을 정렬하여 볼 수 있고, 그 다음 C 타입의 고객을 본다. 그리고 나서, A 타입의 고객을 보면서 도난과 관련된 행위를 한 고객을 찾아낸다. 이하 도 7을 통해 이 과정을 보다 상세히 설명한다. The manager can sort and view the B-type customers first, then the C-type customers. Then, while looking at the A-type customer, it finds out the customer who has committed an act related to theft. Hereinafter, this process will be described in detail with reference to FIG. 7 .

도 7은 도 6의 방법에 따라 시각화하는 중에, 사용자 입력이 있을 때, 그에 대응하는 영상 데이터를 효율적으로 재생하는 방법을 설명하기 위한 개념도이다. FIG. 7 is a conceptual diagram for explaining a method of efficiently reproducing image data corresponding to a user input when there is a user input during visualization according to the method of FIG. 6 .

도 7을 참조하면, 통합 서버는 관리자 단말이든, 프록시 서버와 연결된 디스플레이 수단이든, 매장 내 디스플레이 장치든, 고객의 행동 패턴이 시각화되어 표시되도록 제어한다. 이때, 도 6의 방법과 같이, 개별 타입별로 고객들을 정리하는 형식으로 표시하는 것이 바람직하다. 예를 들어, B 타입의 고객들만 나열하여 표시하는 경우, 도 7의 실시예와 같이, 해당 설정된 기간 내에는 #3, #7, 및 #8의 고객들만이 표시될 수 있다. 이들은 모두, 매장 입장과 상품 선택을 했지만, 상품 결제는 하지 않고 간 고객들이다. Referring to FIG. 7 , the integration server controls a customer's behavior pattern to be visualized and displayed, whether it is a manager terminal, a display means connected to a proxy server, or a display device in a store. At this time, as in the method of FIG. 6, it is preferable to display the customers in a format in which each individual type is organized. For example, when only B-type customers are listed and displayed, as in the embodiment of FIG. 7 , only customers #3, #7, and #8 may be displayed within the set period. These are all customers who entered the store and selected products, but did not pay for the products.

이때, 통합 서버는 고객의 퇴장 영상을 고려하여, 고객의 입장부터 퇴장까지의 체류 시간을 더 표시해줄 수 있다. 다른 예에서, 앞서 설명한 바와 같이, 퇴장시 고객이 상품을 들고 나갔는지를 분석하여 표시해줄 수 있다. At this time, the integration server may further display the staying time from the customer's entrance to the exit in consideration of the customer's exit video. In another example, as described above, it may be analyzed and displayed whether the customer has taken out the product when leaving.

일반적으로 이러한 도난 사고가 발생했을 때, 관리자는 매장 내 설치된 CCTV 화면을 백워드 재생(backward play)하여 사고 당시 화면을 찾아낸다. 즉, 설정된 기간동안의 영상을 빠르게 포워딩한다 하더라도, 모든 시간대의 영상을 일일이 확인하여야 하기에, 효율적이지 못하다. 실제 도난 사고 화면을 찾아내기도 어렵다.In general, when such a theft accident occurs, the administrator finds the screen at the time of the accident by playing backwards the CCTV screen installed in the store. That is, even if images for a set period are quickly forwarded, it is not efficient because images for all time periods must be checked one by one. It is also difficult to find the actual theft accident screen.

하지만, 본 발명의 일 실시예에 따른, 무인 매장 시스템은 타입별 고객들을 테이블로 표시하는 사용자 인터페이스 상에서, 특정 라벨의 고객을 선택하여, 해당 고객의 영상 데이터를 신속하게 로딩하여 재생함으로써 도난 사고와 관련된 영상을 빠르게 확인할 수 있다. However, according to an embodiment of the present invention, the unmanned store system selects a customer with a specific label on a user interface displaying customers by type in a table, and quickly loads and reproduces the customer's image data to prevent theft and prevent accidents. You can quickly check related videos.

도 7의 실시예에서, #8의 고객의 체류시간이 비정상적으로 긴 것을 인지한 관리자는 상기 테이블에서 #8 고객을 클릭하여, 해당 고객과 관련된 영상 데이터를 전체 로딩 후 재생할 수 있다. 이때, 영상 데이터는 #8 고객과 관련된 모든 영상(예를 들어, 제 1 영상부터 제 n 영상)까지 준비될 수 있다. 그리고, 개별 영상 데이터는 특정 행위가 발생한 시점을 기준으로 전후 ±1분의 시간동안의 영상을 추출하여 재생하는 것이기 때문에, 이를 확인하는데 그리 오랜 시간이 걸리지 않는다. 이러한 방법을 활용하기에, 관리자는 설정 기간 전체에 대한 영상을 일일이 확인할 필요가 없다. 여기서, 전후 ±n 분의 시간은 반드시 1분일 필요는 없고, 2분, 3분, 4분, 5분, 10분, 20분 등 다른 기간으로 설정되어도 무방하다. 예를 들어, #8 고객의 매장 출입 영상을 재생할 때, #8 고객의 매장 출입 시점을 기준점으로 하여, 매장 출입 전 1분부터 매장 출입 후 1분까지의 영상(카메라(120)을 통해 촬영된 영상)을 재생한다. 그리고, 상품 선택과 관련하여, #8 고객과 관련된 제 2 영상 데이터가 존재할 때, 상품 선택 시점을 기준으로, 상품 선택 전 1분부터 상품 선택 후 1분까지의 영상을 준비하여 재생한다. 상품 선택 관련하여서는, 다수의 냉장고(냉장고 1, 냉장고 3, 냉장고 4, ...)를 뒤져가며 선택을 할 수도 있기 때문에, 다수의 상품 선택 영상 데이터에서, 상품 선택 시점을 기준으로 ±1분의 영상을 다수 재생할 수 있다. 여기서, 상품 선택 시점은 냉장고의 경우, 냉장고 도어 개폐 시점이 될 수 있다. 또한, 출입문, 냉장고, 결제 단말 외, 다른 곳을 비추는 영상 데이터 상에 #8의 고객이 표시되는 경우, 해당 고객의 표시 시점을 기준으로 표시되기 전 1분부터 표시된 후 1분의 데이터를 준비하여 재생시킬 수 있다. 이때, 사용자가 기준시점 이전 또는 이후로 더 많은 시간 구간에 대한 영상을 보고 싶으면, 사용자의 명령 입력에 의해, 해당 영상의 1분 이전 구간 또는 1분 이후 구간에 대한 컨텐츠를 재생할 수 있다. In the embodiment of FIG. 7 , the manager who recognizes that the staying time of the customer #8 is abnormally long clicks the customer #8 in the table, loads the entire image data related to the customer, and then plays it. At this time, image data may be prepared for all images related to customer #8 (eg, the first image to the nth image). In addition, since the individual image data is extracted and reproduced for a time of ±1 minute before and after the specific action, it does not take a long time to check it. Since this method is used, the administrator does not need to check the video for the entire set period one by one. Here, the time of ±n minutes before and after does not necessarily need to be 1 minute, and may be set to other periods such as 2 minutes, 3 minutes, 4 minutes, 5 minutes, 10 minutes, and 20 minutes. For example, when reproducing a video of customer #8 entering the store, the video from 1 minute before entering the store to 1 minute after entering the store (photographed through the camera 120 video) to play. And, in relation to product selection, when the second image data related to customer #8 exists, based on the product selection time point, a video from 1 minute before product selection to 1 minute after product selection is prepared and reproduced. Regarding product selection, since selection can be made while searching through a number of refrigerators (Refrigerator 1, Refrigerator 3, Refrigerator 4, ...), in the multiple product selection video data, Multiple images can be played. Here, in the case of a refrigerator, the product selection time may be the time when the refrigerator door is opened and closed. In addition, if the customer #8 is displayed on the video data that illuminates other places, such as the door, refrigerator, and payment terminal, data for one minute before and after the display is prepared based on the customer's display time. can be reproduced. In this case, if the user wants to view images for more time sections before or after the reference point, content for a section one minute before or one minute after the corresponding video can be reproduced by inputting a command from the user.

앞서 도 5의 실시예에서, 보다 세분화된 동작으로 구분할 수 있다는 것을 언급하였듯이, 도 7의 테이블 상에서 상품 선택과 더불어 상품 선택 취소 동작을 인식할 수 있고, 상품 선택 취소 동작의 유무를 테이블 상에 표시해줄 수 있다. 즉, #3 및 #8 고객은 상품 선택 동작도 있고, 상품 선택 취소 동작도 있는 반면, #7 고객은 상품 선택 동작만 있고, 상품 선택 취소 동작이 없는 분석 결과를 관리자에게 표시해줄 수도 있다. 그러면, 관리자는 #7 고객의 세부 영상을 보고자 할 것이고, 관리자는 #7 고객 관련 영상을 살펴봄으로써 어디에서 도난이 발생하였는지를 확인할 수 있다. As mentioned earlier in the embodiment of FIG. 5, the operation can be divided into more subdivided operations, it is possible to recognize the product selection cancellation operation along with the product selection on the table of FIG. 7, and the presence or absence of the product selection cancellation operation is displayed on the table. can do it That is, customers #3 and #8 both have a product selection action and a product selection cancellation action, while #7 customers have only a product selection action and no product selection cancellation action, and the analysis result may be displayed to the manager. Then, the manager will want to view the detailed video of customer #7, and the manager can check where the theft occurred by looking at the video related to customer #7.

본 발명의 실시예에 따르면, 테이블 내의 고객 라벨 부분(710)과 동작 부분(720-1, 720-2, ...)을 특정하여 클릭함으로써, 해당 고객의 해당 동작에 대응하는 화면만 표시되도록 제어할 수 있다. 예를 들어, 고객의 라벨 부분(710)을 클릭하면, 해당 고객과 관련된 모든 영상이 준비될 수 있다. 다만, 특정 고객의 매장 입장 부분(720-1)을 클릭하면, 매장 입장과 관련된 제 1 영상 데이터만 재생되도록 할 수 있다. 상품 선택 부분만 보고 싶은 땐, 해당 고객의 열 내에서 상품 선택 동작을 지시하는 행 부분(720-2)을 클릭하면, 해당 동작과 관련된 제 2 영상 데이터만이 재생되도록 할 수 있다. According to an embodiment of the present invention, by specifically clicking the customer label part 710 and the action parts 720-1, 720-2, ... in the table, only the screen corresponding to the corresponding action of the corresponding customer is displayed. You can control it. For example, if a customer's label portion 710 is clicked, all images related to the customer may be prepared. However, if a specific customer's store entrance part 720-1 is clicked, only the first image data related to the store entrance may be reproduced. If you want to see only the product selection part, click the row part 720-2 indicating the product selection operation within the column of the corresponding customer, and only the second image data related to the corresponding operation can be reproduced.

도 8은 도 1의 매장 내 디스플레이 장비 및 스피커를 통해 매장 내 고객의 행동 패턴을 실시간으로 나타내는 동작을 설명하기 위한 개념도이다. FIG. 8 is a conceptual diagram illustrating an operation of displaying a behavioral pattern of a customer in a store in real time through the in-store display equipment and speaker of FIG. 1 .

도 8을 참조하면, 통합 서버(또는 프록시 서버)는 매장 내 고객의 행동 패턴을 실시간으로 분석하여, 매장 내 디스플레이 장치 및/또는 스피커로 출력되도록 할 수 있다. 예를 들어, 디스플레이 장치의 화면을 분할하여, 다수의 고객을 표시하도록 하고, 현재 입장된 고객들에 대해, 고객을 촬영하는 영상을 고객 라벨과 함께 출력하도록 하며, 이때, 고객의 행동 단계를 앞서 행동 패턴 분석과 동일 또는 유사한 형태로 파악하여 출력할 수 있다. 예를 들어, #1의 고객이 입장 후, 상품 선택도 완료하였고, 현재 결제 단말에서 결제를 수행하고 있다면, 고객 입장이 감지되었을 때, 제 1 카메라(도 1의 120) 영상을 (동시에 라벨링도 수행) 표시하면서 "입장"이라는 동작 단계를 표시하고, 상품 선택 센싱 정보가 있을 때, 제 2 카메라(도 1의 134) 영상을 표시하면서 "상품 선택"이라는 동작 단계를 표시하며, 결제 단말에서 결제 진행이 감지될 때, 제 3 카메라(도 1의 142) 영상을 표시하면서 "결제 중"이라는 동작 단계를 표시하도록 제어할 수 있다. 이를 통해, 고객이 매장 내에 있을 때, 자신의 행동이 계속하여 모니터링된다는 것을 느끼게 하여, 도난 및 파손 행위를 방지하는 효과를 가질 수 있다. 동작 단계의 표현는 영상으로만 출력하는 것이 아니라, 스피커를 통해 "2번 고객님 입장하였습니다" 또는 "3번 고객님 상품 선택 중이십니다" 등과 같이, 고객의 라벨과 동작 단계 정보를 음성으로 출력되게 제어할 수 있다. Referring to FIG. 8 , the integrated server (or proxy server) analyzes the customer's behavior pattern in real time and outputs the result to a display device and/or a speaker in the store. For example, divide the screen of the display device to display a plurality of customers, and for currently entered customers, to output an image of the customer with a customer label, and at this time, take action ahead of the customer's action step. It can be identified and output in the same or similar form as the pattern analysis. For example, if the customer #1 has entered, completed product selection, and is currently making a payment at the payment terminal, when the customer's entry is detected, the first camera (120 in FIG. 1) image is recorded (at the same time, labeling When there is product selection sensing information, the second camera (134 in FIG. 1) image is displayed while displaying the operation step "product selection", and payment is made at the payment terminal. When progress is sensed, it can be controlled to display an operation step of “paying” while displaying an image of a third camera (142 in FIG. 1). Through this, when the customer is in the store, it is possible to have the effect of preventing theft and vandalism by making the customer feel that his/her behavior is continuously monitored. The expression of the action step is not output only as a video, but through the speaker, you can control the customer's label and action step information to be output through the speaker, such as "Customer No. 2 has entered" or "Customer No. 3 is selecting a product." there is.

한편, 디스플레이 장치 내에서 특정 고객의 영상은 해당 고객이 퇴장한 후 5분 후에 삭제되도록 할 수 있다. 이때, 반드시 5분일 필요는 없고, 1분, 2분 등으로 설정되어도 무방하다. Meanwhile, the image of a specific customer in the display device may be deleted 5 minutes after the customer leaves. At this time, it is not necessarily 5 minutes, and it may be set to 1 minute, 2 minutes, etc.

또한, 매장 내 고객이 많아질수록, 화면 분할을 보다 세분화하여, 더 작게 분할된 다수의 화면을 확보하는 것이 바람직하다. 이는 입장 고객 수에 맞게 적응적으로 실행도리 수 있다. In addition, as the number of customers in the store increases, it is desirable to further subdivide the screen division to secure a plurality of smaller screen divisions. This can be done adaptively according to the number of customers entering.

도 9는 매장 내 연기 감지시 매장 내 디스플레이 장비 및 스피커를 통해 흡연자에게 경고하는 방법을 설명하기 위한 흐름도이다. 9 is a flowchart illustrating a method of warning a smoker through an in-store display device and a speaker when detecting smoke in the store.

도 9를 참조하면, 본 발명의 일 실시예에 따른 무인 매장 시스템은 흡연 등을 감지하여 경고하는 시스템을 포함한다. 앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 무인 매장 시스템은 다양한 IoT 센서들과 연동할 수 있다. 일 예로, 연기 감지 센서를 일정 구역마다 배열하여, 전체 매장 내에서의 흡연 연기를 감지할 수 있다. 실제로, 무인 매장 내에서의 흡연은 큰 문제가 되고 있음에도 매장 내 사람이 없기에, 이를 검거하지 못하고 있는 실정이다. Referring to FIG. 9 , an unmanned store system according to an embodiment of the present invention includes a system for detecting and warning smoking. As described above, the unmanned store system according to an embodiment of the present invention can interwork with various IoT sensors. For example, smoking smoke in the entire store may be detected by arranging smoke detection sensors for each predetermined area. In fact, although smoking in unmanned stores has become a big problem, it is not possible to arrest it because there is no person in the store.

따라서, 본 발명의 일 실시예에 따른 무인 매장 시스템은 흡연 감지 센서를 구비하고, 연기가 감지될 때, 도 8의 실시예와 같이, 매장 내 디스플레이 장치를 통해 경고 메시지를 표시한다. 이때, 라벨링된 해당 고객의 현재 위치에 대응하는 카메라의 영상을 함께 표시한다. B 구역의 경우, 카메라 1과 매핑관계를 가질 수 있고, B 구역 연기 감지에 대응하여, 카메라 1에서 해당 고객의 영상을 촬영하며, 촬영된 영상을 디스플레이 장치에 표시된다. 이때, "흡연 금지"라는 문구와 함께 붉은 색으로 배경 화면을 변경시켜 경고 메시지를 표시한다. 이때, 스피커를 통해 음성 경고도 함께 출력하는 것이 바람직하다. 예를 들어, "9번 고객님 흡연 금지 구역입니다. 흡연을 금하여 주시기 바랍니다"라는 코멘트를 출력할 수 있다. 이러한 1차적인 경고에도 불구하고, 연기 감지 센서를 통해 계속하여 (임계 시간 이상동안) 흡연이 감지되면, 서버는 기설정된 보안 시스템과 연계하여 보안 요원이 출동하는 등의 조치를 취할 수 있다. 또는 관리자 단말로 흡연 감지 메시지를 전송하여 관리자로 하여금 적절한 조치를 취할 수 있도록 지원한다. Accordingly, the unmanned store system according to an embodiment of the present invention includes a smoking detection sensor and displays a warning message through an in-store display device when smoke is detected, as in the embodiment of FIG. 8 . At this time, an image of a camera corresponding to the current location of the labeled customer is displayed together. In the case of zone B, it may have a mapping relationship with camera 1, and in response to detection of smoke in zone B, an image of the customer is taken by camera 1, and the captured image is displayed on the display device. At this time, a warning message is displayed by changing the background screen to red along with the phrase "smoking prohibited". At this time, it is preferable to also output a voice warning through a speaker. For example, a comment such as "This is a no-smoking area for customer No. 9. Please refrain from smoking" may be output. In spite of this primary warning, if smoking is continuously detected through the smoke detection sensor (for more than a critical period of time), the server may take measures such as dispatching security personnel in association with a preset security system. Alternatively, a smoking detection message is transmitted to the administrator's terminal so that the administrator can take appropriate action.

흡연과 마찬가지로, 매장 내 주류 취식도 사회적으로 큰 문제가 되고 있다. 본 발명의 일 실시예에 따른 무인 매장 시스템은 주류 상품류가 배열된 장소에 센서(도어 개폐 센서, 접근센서, 적외선 센서 등)를 배치하여, 주류 상품이 고객에 의해 선택되었음을 감지할 수 있다. 주류 선택이 감지되면, 해당 센서와 대응하는 카메라를 통해 해당 고객의 영상을 촬영하게 되는데, 이때, 주류 취식 행위(음주 행위)가 인공지능 기반의 모션 감지 모델을 통해 검출되면, 시스템은 흡연시와 유사하게, 매장 내 디스플레이 장치를 통해 주류 취식 영상과 경고 메시지를 함께 표시한다. 또한, 스피커로 경고할 수 있다. 위와 같은 1차 경고에도 불구하고, 계속하여 주류 취식이 이어지면, 서버는, 기설정된 보안 시스템과 연계하여 보안 요원이 출동케 하는 조치를 취하거나 관리자 단말로 주류 취식 감지 메시지를 전송하여 적절한 조취가 취해지도록 할 수 있다. As with smoking, in-store consumption of alcoholic beverages is a major social problem. An unmanned store system according to an embodiment of the present invention may detect that a liquor product is selected by a customer by arranging sensors (a door open/close sensor, an proximity sensor, an infrared sensor, etc.) at a place where liquor products are arranged. When alcohol selection is detected, an image of the customer is taken through a camera corresponding to the corresponding sensor. At this time, when the act of drinking alcohol (drinking) is detected through an artificial intelligence-based motion detection model, the system detects smoking and smoking Similarly, a liquor consumption image and a warning message are displayed together through a display device in a store. In addition, a warning can be made through a speaker. If the consumption of alcoholic beverages continues despite the above primary warning, the server takes measures to have security personnel dispatched in connection with the preset security system or sends a message to detect drinking alcohol to the administrator terminal so that appropriate measures can be taken. can be made to be taken.

도 10은 도 1의 시스템을 통해 획득된 데이터를 무인 매장 경영 측에 활용하여 최적의 상품 진열 방법을 추론하는 인공지능 모델을 학습시키는 방법을 설명하기 위한 개념도이다. FIG. 10 is a conceptual diagram illustrating a method of learning an artificial intelligence model that infers an optimal product display method by using data acquired through the system of FIG. 1 for unmanned store management.

도 10을 참조하면, 본 발명의 일 실시예에 따른 무인 매장 시스템의 통합 서버는 매장 입장 수, 상품 선택 수, 결제 상품 수, 매장 매출 등을 고객의 행동 패턴과 함께 분석하여 매장 경영과 관련된 데이터를 도출할 수 있다. Referring to FIG. 10, the integrated server of the unmanned store system according to an embodiment of the present invention analyzes the number of store entries, the number of product selections, the number of paid products, store sales, etc. together with customer behavior patterns to provide data related to store management. can be derived.

일 예로, 시간대별 매장 입장 수, 상품 선택 수, 결제 상품 수 및 매장 매출 지표 중 적어도 일부를 학습 데이터 셋으로 하여, 상품 진열을 변경(A-B-C-D → B-C-A-D → ...)해가며, 상기 학습 데이터 셋을 인공지능 기반의 기계 학습 모델에 입력했을 때, 매장 매출을 최대화하는 방향으로 최적의 상품 진열 방법이 추론될 수 있다. 이때, 진열과 관련된 파라미터도 함께 입력으로 들어갈 수 있으며, 진열 파라미터를 변경하면서, 매장 매출 지표 및/또는 상품 선택 횟수와의 관계를 추론할 때, 매장 매출 지표 및/또는 상품 선택 횟수가 증대되는 방향으로 최적의 상품 배열 방안을 추론하는 형태로 인공지능 모델을 학습한다. 서버는, 이와 같은 방법으로 학습된 모델을 이용하여 최적의 상품 배열 방안을 추론한다. For example, by using at least some of the number of store entries, the number of product selections, the number of paid products, and store sales indicators by time slot as a learning data set, the product display is changed (A-B-C-D → B-C-A-D → ...), and the learning data set When input into an artificial intelligence-based machine learning model, the optimal product display method can be inferred in the direction of maximizing store sales. At this time, parameters related to display may also be entered as inputs, and when inferring the relationship between store sales index and/or number of product selections while changing display parameters, the direction in which store sales index and/or number of product selections increase It learns an artificial intelligence model in the form of inferring the optimal product arrangement method. The server infers an optimal product arrangement method using the model learned in this way.

특히, 상품 선택수와 결제 상품 수와의 관계에서 최적 상품 진열을 추론할 수 있다. 통합 서버는, 상품별 선택 횟수 및 결제 횟수를 분석하여, 선택은 많았으나, 결제까지 이루어지지 않은 상품을 검출할 수 있고, 이를 관리자에게 표시할 수 있다. 예를 들어, 아이스크림 A 상품은 선택을 많이 되었으나, 선택했다가 다시 냉장고에 놓아지는 경우가 많을 수 있다. 이는, 앞서 설명하였던, 모션 인식 인공지능 모델을 통해, 상품별로 고객의 동작 패턴 인식을 통해 확인할 수 있다. 서버는, 이러한 상품은 현재 진열 형태가 적절하지 않다고 판단하고, 이를 변경할 수 있으며, 변경된 상품 진열 포맷을 학습데이터로 입력할 수 있다. 이와 함께, 상품 진열 포맷 변경과 그에 따른 매출 증대 또는 상품 진열 포맷 변경에 따라 상품 선택 후 다시 회귀하지 않고 결제까지 이루어지는지 여부 등의 결과 값을 함께 학습데이터로 생성하여, 최적의 상품 진열 포맷을 도출하는 인공지능 모델을 생성, 학습 및 실행할 수 있다. In particular, optimal product display can be inferred from the relationship between the number of product choices and the number of payment products. The integration server analyzes the number of selections and payments for each product, detects products that have been selected a lot, but has not been paid for, and can display them to a manager. For example, there may be many cases in which product A of ice cream is selected, but is placed in the refrigerator again after being selected. This can be confirmed by recognizing the customer's motion pattern for each product through the motion recognition artificial intelligence model described above. The server may determine that the current display form is not appropriate for these products, may change it, and may input the changed product display format as learning data. In addition, the product display format change and the resultant value, such as whether sales increase or payment is made without returning after product selection according to the product display format change, is created as learning data to derive the optimal product display format. can create, train, and run artificial intelligence models that

다른 예에서, 서버는, 시간대별 매출 지표 및, 고객 행동 패턴 분석 결과를 기반으로, 특정 시간대에는 매장 입장은 많음에 비해, 상품 선택 및 상품 결제가 많이 이루어지지 않음에 대응하여, 해당 시간대를 추출, 추출된 시간대에 입장한 고객들에게는 상품 할인 등의 이벤트를 추천하는 형태로 관리자에게 도움을 줄 수 있다. In another example, the server extracts the corresponding time zone based on the sales index and customer behavior pattern analysis result for each time zone, in response to the fact that there are not many product selection and product payment compared to the large number of store admissions during a specific time period. , it is possible to help the manager in the form of recommending events such as product discounts to customers who entered the extracted time zone.

도 11은 본 발명의 일 실시예에 따른 고객 행동 패턴 분석을 수행하는 무인 매장 시스템을 구성하는 장치의 구성을 구체적으로 나타낸 상세 블록도이다. 도 11에 도시된 바와 같이, 본 발명의 일 실시예에 따른, 무인 매장 시스템의 장치는, 통신부(1110), 프로세서(1120), 메모리(1130) 및 입출력 모듈(1140)을 포함할 수 있다. 여기서, 장치는 프록시 서버 또는 통합 서버일 수 있다. 11 is a detailed block diagram showing the configuration of a device constituting an unmanned store system for performing customer behavior pattern analysis according to an embodiment of the present invention. As shown in FIG. 11 , the device of the unmanned store system according to an embodiment of the present invention may include a communication unit 1110, a processor 1120, a memory 1130, and an input/output module 1140. Here, the device may be a proxy server or an integrated server.

도 11을 참조하면, 통신부(1110)는 유선 또는 무선 네트워크를 이용하여 타 단말과 주고받기 위한 구성요소이다. 통신부(1210)는 안테나를 포함할 수 있다. 통신부(1110)는 센서들로부터 센싱 정보, 결제 단말로부터 결제 정보뿐만 아니라, 카메라들로부터 영상 데이터를 수신한다.Referring to FIG. 11 , a communication unit 1110 is a component for exchanging data with another terminal using a wired or wireless network. The communication unit 1210 may include an antenna. The communication unit 1110 receives image data from cameras as well as sensing information from sensors and payment information from payment terminals.

프로세서(1120)는 통신부(1110)를 통해 수신된 정보를 처리하는 구성요소이다. 이는 하드웨어적으로 마이크로 프로세서로 구현될 수 있다. 프로세서(1120)는 센서로부터의 센싱 정보를 식별하여, 그에 대응하는 카메라에 촬영 명령을 전달한다. 그리고, 수집된 영상 데이터를 얼굴 인식, 객체 검출 및 모션 인식 등의 인공지능 모델을 실행시켜 고객 별로 라벨링하고, 고객의 행동 패턴 및 단계를 분석한다. The processor 1120 is a component that processes information received through the communication unit 1110 . This may be implemented as a microprocessor in terms of hardware. The processor 1120 identifies sensing information from the sensor and transmits a photographing command to a corresponding camera. In addition, the collected image data is labeled by customer by executing an artificial intelligence model such as face recognition, object detection, and motion recognition, and the customer's behavior pattern and stage are analyzed.

프로세서(1120)는 메모리(1130)와 신호선을 통해 연결되어 있으며, 메모리(1130)에 저장된 프로그램을 실행한다. 프로세서(1120)는 앞서 설명한 바와 같이, 도난 및 보안 관련 고객의 행동을 분석할 뿐만 아니라, 분석된 고객의 행동 패턴을 매출 지표와 연계하여, 매장 경영에 도움이 되는 데이터로 가공한다. 이때도 역시 인공지능 기반의 학습 모델이 실행될 수 있다. The processor 1120 is connected to the memory 1130 through a signal line, and executes a program stored in the memory 1130. As described above, the processor 1120 not only analyzes customer behavior related to theft and security, but also processes the analyzed customer behavior pattern into data useful for store management by linking it with a sales index. At this time, an artificial intelligence-based learning model can also be executed.

메모리(1130)는 프로세서(1120)에서 수행해야 할 프로그램들과 연관된 명령어들을 저장하고 있으며, 프로세서(1120)에서 요구하는 각종 데이터를 저장하고 있는 저장장치이다. 메모리(1130)는 매장 내 센서로부터 획득되는 각종 센싱 데이터 및 카메라로부터 획득되는 영상 데이터를 저장하고 있다. 또한, 센서와 카메라와의 매핑 관계뿐만 아니라, 센싱 정보를 획득했을 때 다음 동작으로 어떤 동작을 행해야 하는 등의 시나리오를 프로그램 언어의 형태로 저장하고 있을 수 있다. 메모리(1130)는 장치 내부의 로컬 메모리 또는 외부의 대용량 데이터베이스로써 구현될 수 있다. The memory 1130 is a storage device that stores instructions related to programs to be executed by the processor 1120 and various data requested by the processor 1120 . The memory 1130 stores various sensing data obtained from sensors in the store and image data obtained from a camera. In addition, not only the mapping relationship between the sensor and the camera, but also a scenario such as a certain operation to be performed as a next operation when sensing information is obtained may be stored in the form of a program language. The memory 1130 may be implemented as a local memory inside the device or as an external large-capacity database.

입출력 모듈(1140)은 키보드, 마우스와 같은 정보 입력 수단 및 모니터, TV, 터치스크린과 같은 정보 출력 수단을 포함한다. 입출력 모듈(1140)은 고객 행동 패턴 분석 대상 시간 구간의 설정 등 각종 설정값을 변경하고 분석 결과 등을 표시하는데 사용될 수 있다. The input/output module 1140 includes information input means such as a keyboard and mouse, and information output means such as a monitor, TV, and touch screen. The input/output module 1140 may be used to change various setting values such as the setting of a target time period for customer behavior pattern analysis and to display analysis results.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, systems, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) ), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (16)

무인 매장 내 장치의 정보 송수신 방법에 있어서,
제 1 센서로부터 고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 카메라로 제 1 센싱 정보를 제공하는 단계, 상기 제 1 센서는 고객의 출입을 감지하는 센서임;
상기 제 1 카메라가 제 1 센싱 정보를 수신함에 대응하여, 출입하는 고객을 촬영하는 단계;
상기 제 1 카메라가 촬영한 영상을 서버로 전송하는 단계;
제 2 센서가 상품 보관소로의 고객을 센싱함에 대응하여 제 2 카메라로 제 2 센싱 정보를 제공하는 단계;
상기 제 2 카메라가 제 2 센싱 정보를 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하는 단계;
상기 제 2 카메라가 촬영한 영상을 상기 서버로 전송하는 단계;
결제 단말에서 결제가 개시됨에 대응하여 제 3 카메라로 결제 개시 정보를 제공하는 단계;
상기 제 3 카메라가 결제 개시 정보를 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하는 단계; 및
상기 제 3 카메라가 촬영한 영상을 상기 서버로 전송하는 단계를 포함하는, 무인 매장 내 장치의 정보 송수신 방법.
In the information transmission and reception method of the device in the unmanned store,
providing first sensing information to a first camera in response to sensing of first sensing information related to a customer entering and exiting a store from a first sensor, wherein the first sensor is a sensor for detecting a customer entering and exiting the store;
In response to receiving the first sensing information by the first camera, photographing a customer entering or exiting;
Transmitting an image captured by the first camera to a server;
providing second sensing information to a second camera in response to the second sensor sensing a customer entering the product storage;
In response to the second sensing information being received by the second camera, photographing a customer located around the product storage;
transmitting the image captured by the second camera to the server;
providing payment start information to a third camera in response to payment being initiated in the payment terminal;
photographing, by the third camera, a customer who pays for a product in response to receiving payment start information; and
A method for transmitting and receiving information of a device in an unmanned store comprising transmitting an image captured by the third camera to the server.
제 1 항에 있어서,
상기 제 1 센서 및 제 2 센서 중 적어도 하나는 도어 개폐 감지 센서, 접근 센서, 모션 인식 센서 및 적외선 센서 중 적어도 하나을 포함하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
At least one of the first sensor and the second sensor includes at least one of a door open/close detection sensor, an approach sensor, a motion recognition sensor, and an infrared sensor.
제 1 항에 있어서,
상기 상품보관소는 상품을 냉장 보관하는 냉장고, 상품을 냉동 보관하는 냉동고 및 선반 형태로 상품을 진열하는 상품 진열대 중 적어도 하나를 포함하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The method of transmitting and receiving information of a device in an unmanned store, wherein the product storage includes at least one of a refrigerator for refrigerating products, a freezer for storing products frozen, and a product display stand for displaying products in the form of a shelf.
제 1 항에 있어서,
상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말로부터의 신호를 수신함에 트리거링(triggering)되어 촬영을 개시하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The first camera, the second camera, and the third camera are triggered by receiving signals from the first sensor, the second sensor, and the payment terminal to start shooting. How to send and receive information.
제 1 항에 있어서,
상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말로부터의 신호를 수신함에 트리거링(triggering)되어 수신 시점을 촬영된 동영상 내의 기준 시점 인덱스(index)로 부여하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The first camera, the second camera, and the third camera are triggered when signals from the first sensor, the second sensor, and the payment terminal are received, and the reception time point is a reference point index in the captured video. (index), a method of transmitting and receiving information of a device in an unmanned store.
제 1 항에 있어서,
상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 매장 내 액세스 포인트(AP: Access Point)로부터 할당된 IP 주소를 가지고 있으며,
상기 제 1 센서는 그와 매핑관계를 갖는 제 1 카메라의 IP를 매개로 상기 제 1 카메라로 상기 제 1 센싱 정보를 전송하고,
상기 제 2 센서는 그와 매핑관계를 갖는 제 2 카메라의 IP를 매개로 상기 제 2 카메라로 상기 제 2 센싱 정보를 전송하며,
상기 결제 단말은 그와 매핑관계를 갖는 제 3 카메라의 IP를 매개로 상기 제 3 카메라로 상기 결제 개시 정보를 전송하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The first sensor, the second sensor, the payment terminal, and the first camera, the second camera, and the third camera have IP addresses allocated from an access point (AP) in the store, and ,
The first sensor transmits the first sensing information to the first camera via the IP of the first camera having a mapping relationship with the first sensor;
The second sensor transmits the second sensing information to the second camera via the IP of the second camera having a mapping relationship therewith,
wherein the payment terminal transmits the payment start information to the third camera via the IP of the third camera having a mapping relationship therewith.
제 6 항에 있어서,
상기 제 1 센서, 상기 제 2 센서 및 상기 결제 단말 중 하나에 복수 개의 카메라가 매핑 관계를 갖는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 6,
A method for transmitting and receiving information of a device in an unmanned store, wherein a plurality of cameras have a mapping relationship with one of the first sensor, the second sensor, and the payment terminal.
제 6 항에 있어서,
상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말은 상기 액세스 포인트를 매개로 상기 서버로 상기 제 1 센싱 정보, 상기 제 2 센싱 정보 및 상기 결제 개시 정보를 전송하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 6,
The first sensor, the second sensor, and the payment terminal transmit the first sensing information, the second sensing information, and the payment initiation information to the server via the access point. How to send and receive.
제 6 항에 있어서,
상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 와이-파이(Wi-Fi), 지그비(Zigbee) 및 블루투스(Bluetooth) 중 적어도 하나를 이용하여 서로 간에 통신하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 6,
The first sensor, the second sensor, and the payment terminal, and the first camera, the second camera, and the third camera are Wi-Fi, Zigbee, and Bluetooth A method for transmitting and receiving information between devices in an unmanned store, which communicate with each other using at least one of the following.
제 6 항에 있어서,
상기 제 1 센서, 상기 제 2 센서, 및 상기 결제 단말, 그리고, 상기 제 1 카메라, 상기 제 2 카메라 및 상기 제 3 카메라는 NB-IoT(NarrowBand IoT), 로라(LoRa), 원엠투엠(oneM2M), OCF(Open Connectivity Foundation), LwM2M(Lightweight M2M) 중 적어도 하나와 관련된 통신 프로토콜을 이용하여 서로 간에 통신하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 6,
The first sensor, the second sensor, and the payment terminal, and the first camera, the second camera, and the third camera are NarrowBand IoT (NB-IoT), LoRa, and oneM2M , OCF (Open Connectivity Foundation), LwM2M (Lightweight M2M) using at least one related communication protocol to communicate with each other, a method for transmitting and receiving information between devices in an unmanned store.
제 1 항에 있어서,
연기 감지 센서가 연기를 감지함에 대응하여, 상기 연기 감지 센서와 매핑관계를 갖는 제 4 카메라로 연기 감지 신호를 전송하고,
상기 제 4 카메라는 연기 감지 신호를 수신함에 대응하여, 촬영을 활성화하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
In response to the smoke detection sensor detecting smoke, a smoke detection signal is transmitted to a fourth camera having a mapping relationship with the smoke detection sensor;
wherein the fourth camera activates photographing in response to receiving a smoke detection signal.
제 11 항에 있어서,
상기 연기 감지 센서는 상기 무인 매장을 구역 별로 나누어 센싱하도록 복수 개가 배열되며,
상기 복수 개의 연기 감지 센서는 대응하는 제 4 카메라의 IP 주소를 개별적으로 가지고 동작하되,
하나의 연기 감지 센서는 하나 또는 그 이상의 제 4 카메라와 대응되는, 촬영을 활성화하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 11,
A plurality of smoke detection sensors are arranged to sense the unmanned store by zone,
The plurality of smoke detection sensors operate individually with the IP address of the corresponding fourth camera,
One smoke sensor corresponds to one or more fourth cameras.
제 1 항에 있어서,
상기 결제 단말은 키오스크(Kiosk) 및 포스(POS) 단말 중 적어도 하나를 포함하는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The payment terminal includes at least one of a kiosk and a POS terminal.
제 1 항에 있어서,
상기 제 1 센서와 상기 제 1 카메라와의 매핑 관계, 상기 제 2 센서와 상기 제 2 카메라와의 매핑 관계 및 상기 제 3 센서와 상기 제 3 카메라와의 매핑 관계는 상기 서버 또는 관리자 단말에 의해 설정되는, 무인 매장 내 장치의 정보 송수신 방법.
According to claim 1,
The mapping relationship between the first sensor and the first camera, the mapping relationship between the second sensor and the second camera, and the mapping relationship between the third sensor and the third camera are set by the server or manager terminal A method for transmitting and receiving information of a device in an unmanned store.
정보 송수신을 위한 무인 매장 시스템에 있어서,
고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 카메라로 제 1 센싱 정보를 제공하는 제 1 센서, 상기 제 1 센서는 고객의 출입을 감지하는 센서임;
상기 제 1 센싱 정보를 수신함에 대응하여, 출입하는 고객을 촬영하여 서버로 전송하는 제 1 카메라;
상품 보관소로의 고객을 센싱함에 대응하여 제 2 카메라로 제 2 센싱 정보를 제공하는 제 2 센서;
상기 제 2 센싱 정보를 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하여 상기 서버로 전송하는 제 2 카메라;
결제가 개시됨에 대응하여 제 3 카메라로 결제 개시 정보를 제공하는 결제 단말; 및
상기 결제 개시 정보를 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하여 상기 서버로 전송하는 제 3 카메라를 포함하는, 정보 송수신을 위한 무인 매장 시스템.
In the unmanned store system for transmitting and receiving information,
A first sensor that provides first sensing information to a first camera in response to sensing of first sensing information related to a customer's entering and exiting the store, wherein the first sensor is a sensor that detects a customer's entering and exiting;
In response to receiving the first sensing information, a first camera for capturing and transmitting to a server a customer entering and exiting;
a second sensor providing second sensing information to a second camera in response to sensing a customer entering the product storage;
a second camera for taking a photograph of a customer located near a product storage and transmitting the photograph to the server in response to receiving the second sensing information;
a payment terminal providing payment start information to a third camera in response to payment being initiated; and
In response to receiving the payment initiation information, a third camera for photographing a customer performing a product payment and transmitting the photograph to the server, unmanned store system for transmitting and receiving information.
정보 송수신을 위한 무인 매장 시스템에 있어서,
고객의 매장 내 출입과 관련된 제 1 센싱 정보가 센싱됨에 대응하여, 제 1 센싱 정보를 서버로 제공하는 제 1 센서, 상기 제 1 센서는 고객의 출입을 감지하는 센서임;
상기 제 1 센싱 정보를 상기 서버로부터 수신함에 대응하여, 출입하는 고객을 촬영하여 상기 서버로 전송하는 제 1 카메라;
상품 보관소로의 고객을 센싱함에 대응하여 상기 서버로 제 2 센싱 정보를 제공하는 제 2 센서;
상기 제 2 센싱 정보를 상기 서버로부터 수신함에 대응하여, 상품 보관소 주변에 위치한 고객을 촬영하여 상기 서버로 전송하는 제 2 카메라;
결제가 개시됨에 대응하여 상기 서버로 결제 개시 정보를 제공하는 결제 단말; 및
상기 결제 개시 정보를 상기 서버로부터 수신함에 대응하여, 상품 결제를 수행하는 고객을 촬영하여 상기 서버로 전송하는 제 3 카메라를 포함하는, 정보 송수신을 위한 무인 매장 시스템.

In the unmanned store system for transmitting and receiving information,
A first sensor that provides the first sensing information to a server in response to sensing of first sensing information related to a customer entering and exiting the store, wherein the first sensor is a sensor that detects a customer entering and exiting the store;
a first camera for photographing a customer entering and exiting and transmitting the photograph to the server in response to receiving the first sensing information from the server;
a second sensor providing second sensing information to the server in response to sensing a customer entering the product storage;
a second camera for taking a picture of a customer located near a product storage and transmitting the photograph to the server in response to receiving the second sensing information from the server;
a payment terminal providing payment start information to the server in response to payment being initiated; and
In response to receiving the payment initiation information from the server, the unmanned store system for transmitting and receiving information including a third camera for photographing a customer performing product payment and transmitting the photograph to the server.

KR1020210104563A 2021-08-09 2021-08-09 Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop KR102585357B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210104563A KR102585357B1 (en) 2021-08-09 2021-08-09 Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210104563A KR102585357B1 (en) 2021-08-09 2021-08-09 Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop

Publications (2)

Publication Number Publication Date
KR20230022595A true KR20230022595A (en) 2023-02-16
KR102585357B1 KR102585357B1 (en) 2023-10-05

Family

ID=85325833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210104563A KR102585357B1 (en) 2021-08-09 2021-08-09 Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop

Country Status (1)

Country Link
KR (1) KR102585357B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104774A (en) * 2012-03-15 2013-09-25 삼성테크윈 주식회사 Method and system for controlling entrance using image information
KR101868112B1 (en) * 2017-10-30 2018-06-15 주식회사 에이씨큐 Pos video search method and system for shop management
KR20200114659A (en) * 2019-03-29 2020-10-07 우석대학교 산학협력단 Auto fire reporting system for preventing wrong operation
KR20210055038A (en) * 2018-07-16 2021-05-14 악셀 로보틱스 코포레이션 Autonomous store tracking system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104774A (en) * 2012-03-15 2013-09-25 삼성테크윈 주식회사 Method and system for controlling entrance using image information
KR101868112B1 (en) * 2017-10-30 2018-06-15 주식회사 에이씨큐 Pos video search method and system for shop management
KR20210055038A (en) * 2018-07-16 2021-05-14 악셀 로보틱스 코포레이션 Autonomous store tracking system
KR20200114659A (en) * 2019-03-29 2020-10-07 우석대학교 산학협력단 Auto fire reporting system for preventing wrong operation

Also Published As

Publication number Publication date
KR102585357B1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
US20230038289A1 (en) Cashier interface for linking customers to virtual data
US10965913B2 (en) Monitoring apparatus, monitoring system and monitoring method
RU2753959C2 (en) Video analysis module and method for generating materials for investigating user's behavior
JP7038543B2 (en) Information processing equipment, systems, control methods for information processing equipment, and programs
CN105516648B (en) Activity situation analysis device, activity situation analysis system, and activity situation analysis method
JP2019527865A (en) System and method for computer vision driven applications in an environment
JP5834193B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP2006113711A (en) Marketing information providing system
JP5834196B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
KR101756840B1 (en) Method and apparatus for transmitting intention using photographing image
JP2009042956A (en) Merchandise selling device, merchandise sales management system, merchandise sales management method, and program
JP2006350751A (en) Intra-store sales analysis apparatus and method thereof
US20180157917A1 (en) Image auditing method and system
WO2015099669A1 (en) Smart shift selection in a cloud video service
KR102585358B1 (en) Method and apparatus for analyzing behavior pattern of customer in unmanned shop using ai-based image processing model
CN116471384B (en) Control method and control device of unattended store monitoring system
KR102620264B1 (en) Method and apparatus, and system for representing behavior analysis result of customer in unmanned shop analyzed using ai model
KR20230022595A (en) Efficient method for transmitting and receiving imformation between apparatuses in unmanned shop
US9767564B2 (en) Monitoring of object impressions and viewing patterns
JP6536643B2 (en) INFORMATION PROCESSING APPARATUS, CONTROL METHOD, AND PROGRAM
JP5201939B2 (en) Monitoring device
JP6498065B2 (en) Information processing apparatus, processing method, and program
JP2018190012A (en) Customer service necessity determination apparatus, customer service necessity determination method, and program
CN113129112A (en) Article recommendation method and device and electronic equipment
CN116471383B (en) Display method and device for unattended store monitoring interface

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant