KR102655145B1 - Unmanned payment system - Google Patents

Unmanned payment system Download PDF

Info

Publication number
KR102655145B1
KR102655145B1 KR1020210096967A KR20210096967A KR102655145B1 KR 102655145 B1 KR102655145 B1 KR 102655145B1 KR 1020210096967 A KR1020210096967 A KR 1020210096967A KR 20210096967 A KR20210096967 A KR 20210096967A KR 102655145 B1 KR102655145 B1 KR 102655145B1
Authority
KR
South Korea
Prior art keywords
area
product
identification information
scanning
occupied volume
Prior art date
Application number
KR1020210096967A
Other languages
Korean (ko)
Other versions
KR20230015618A (en
Inventor
정영훈
이도한
Original Assignee
주식회사 히타치엘지 데이터 스토리지 코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 히타치엘지 데이터 스토리지 코리아 filed Critical 주식회사 히타치엘지 데이터 스토리지 코리아
Priority to KR1020210096967A priority Critical patent/KR102655145B1/en
Priority to JP2022118169A priority patent/JP2023016799A/en
Publication of KR20230015618A publication Critical patent/KR20230015618A/en
Application granted granted Critical
Publication of KR102655145B1 publication Critical patent/KR102655145B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/203Inventory monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/20Point-of-sale [POS] network systems
    • G06Q20/208Input by product or record sensing, e.g. weighing or scanner processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Geometry (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

이 명세서는 무인 결제 시스템에 관한 것이다. 일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성될 수 있다.This specification relates to an unmanned payment system. An unmanned payment system according to an embodiment includes a product scanning unit for inputting identification information related to the product; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It may be configured to include a control unit to determine whether there is an abnormality in scanning the product based on the input.

Description

무인 결제 시스템 {Unmanned payment system}Unmanned payment system {Unmanned payment system}

이 명세서는 무인 결제 시스템에 관한 것으로, 더욱 구체적으로 무인 결제 시스템에서 물품의 손실을 방지하는 장치와 방법에 관한 것이다.This specification relates to an unmanned payment system, and more specifically, to a device and method for preventing loss of goods in an unmanned payment system.

최근 대형 마트에 결제 대기 라인을 줄이고 고객 편의를 향상시키기 위하여 무인 결제 창구가 설치되고 있다. 또한, 관리자가 없이 무인 결제 시스템만으로 운영되는 무인 점포도 증가하고 있다.Recently, unmanned payment counters are being installed in large supermarkets to reduce payment waiting lines and improve customer convenience. In addition, the number of unmanned stores that operate only with an unmanned payment system without a manager is increasing.

이와 같은 무인 결제 시스템이 사용자에게 편의성을 제공하는 반면, 구매자가 물품의 일부를 누락시켜 손실이 발생할 여지가 많다. 이러한 손실을 없애거나 줄이려는 노력이 진행되고 있다. 예를 들어, 물품의 중량을 연계하는 시스템이나 물품의 영상을 이용하는 시스템 등이 시도되고 있다.While this unmanned payment system provides convenience to users, there is a lot of room for loss due to buyers missing part of the product. Efforts are underway to eliminate or reduce these losses. For example, systems that link the weight of an item or a system that uses images of the item are being attempted.

하지만, 물품의 중량을 이용하는 시스템은 중량 측정을 위한 저울 장치가 물품을 구매 전에 놓는 선반과 구매 후에 놓는 선반 등에 설치되어야 하는 어려움, 물품의 중량을 사전에 측정해서 저장해야 하는 문제, 물품의 중량 범위가 넓어 정확한 중량 측정이 쉽지 않고 정확한 중량 측정을 위해서는 저울 장치의 가격이 올라가는 문제, 무게 측정 장치를 주기적으로 캘리브레이션 해야 하고 쉽게 고장나는 문제점 등이 있다. 또한, 농수산물이나 식료품 같이 물품마다 중량이 일정하지 않는 물품에는 적용하지 못하는 문제가 있다.However, the system that uses the weight of the product has difficulties in that a scale device for measuring weight must be installed on the shelf where the product is placed before purchase and the shelf where the product is placed after purchase, the problem of having to measure the weight of the product in advance and store it, and the weight range of the product. Because it is wide, it is not easy to measure weight accurately. In order to measure weight accurately, there are problems such as increasing the price of the weighing device, having to calibrate the weighing device periodically, and easily breaking down. In addition, there is a problem that it cannot be applied to products whose weight is not constant for each product, such as agricultural and marine products or foodstuffs.

또한, 카메라를 이용하여 물품의 영상을 촬영하는 시스템에서는, 물품을 잘 인식하기 위해 각 물품에 대해서 여러 방향에서 미리 이미지를 촬영하고 촬영한 이미지를 러닝 모델로 학습시켜야 한다. 하지만, 조명이나 촬영 각도에 따라 물품이 제대로 인식되지 못하거나 인식하는 데 시간이 많이 걸려 물품을 제대로 제때 식별하지 못하고, 또한 물품의 개수가 증가할수록 물품마다 러닝 모델을 훈련시키는 데 비용이 많이 들고 효율성 관점에서 타당하지 않아, 카메라를 이용한 방법은 무인 결제 시스템에 실제로 적용되지 못하고 있다.Additionally, in a system that uses a camera to capture images of an article, in order to recognize the article well, images must be taken in advance for each article from various directions and the captured images must be trained as a learning model. However, depending on the lighting or shooting angle, the item may not be recognized properly or it takes a long time to recognize the item, making it difficult to properly identify the item in a timely manner. Additionally, as the number of items increases, training a learning model for each item becomes expensive and inefficient. Since it is not valid from the perspective, the method using the camera is not actually applied to the unmanned payment system.

또한, 영상을 녹화하고 사후에 녹화한 영상을 분석하여 손실을 파악할 수도 있는데, 이 경우에도 손실이 발생한 이후에야 손실을 확인할 수 있고, 또한 녹화한 영상을 분석하는 데 시간과 비용이 많이 드는 문제가 있다.In addition, it is possible to identify loss by recording video and analyzing the recorded video afterwards. However, in this case, the loss can only be confirmed after the loss has occurred, and there is also the problem that it takes a lot of time and money to analyze the recorded video. there is.

이 명세서는, 이러한 상황을 감안한 것으로, 이 명세서의 목적은 무인 결제 시스템에서 효과적으로 손실을 확인하고 방지하는 방법을 제공하는 데 있다.This specification takes this situation into consideration, and the purpose of this specification is to provide a method to effectively identify and prevent losses in an unmanned payment system.

상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성되는 것을 특징으로 한다.An unmanned payment system according to an embodiment of the present invention for realizing the above-described problem includes an article scanning unit for inputting identification information related to the article; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It is characterized by including a control unit to determine whether there is an abnormality in the scanning of the product based on the input.

본 발명의 다른 실시예에 따른 무인 결제 시스템은, 식별 정보 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하도록 출력되는 이미지를 분석하는 단계; 이미지 분석을 통해 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어지는 것을 특징으로 한다.The unmanned payment system according to another embodiment of the present invention includes a shelf consisting of a first area where goods before inputting identification information are placed, a second area where identification information is entered, and a third area where goods are placed after inputting identification information. Analyzing an image captured and output to include distance information; calculating the occupied volume of the article in the first to third areas through image analysis; and when a change occurs in the occupied volume of the article in at least one of the first to third areas, determining whether there is an abnormality in the scanning of the article based on the change in occupied volume and input of identification information for the article through the article scanning unit. It is characterized by comprising:

따라서, 무인 결제 시스템에서 결제를 위한 스캔 없이 물품이 반출되는 것을 쉽고 간편하게 감지하게 되고, 이에 따라 매출의 손실을 줄일 수 있게 된다.Therefore, in the unmanned payment system, it is easy and convenient to detect when an item is being taken out without scanning for payment, thereby reducing sales loss.

또한, 물품 인식을 위한 별도의 사전 학습을 필요로 하지 않아 실제 현장에 바로 적용할 수 있다.In addition, it does not require separate prior learning for item recognition, so it can be applied directly to actual sites.

또한, 카메라 영상을 이용하고 러닝 모델을 학습시키는 방법에 비해 낮은 비용으로도 더 높은 인식률로 시스템을 구현할 수 있다.Additionally, compared to methods that use camera images and train a learning model, the system can be implemented with a higher recognition rate at a lower cost.

도 1은 무인 결제 시스템을 구성하는 선반의 영역을 도시한 것이고,
도 2는 무인 결제 시스템에서 물품을 스캔하고 결제하는 각 단계에서 구매자의 행동을 도시한 것이고,
도 3a 내지 도 3c는 구매자가 물품을 계산 전 적치 영역(Z1)에서 스캔 영역(Z2)을 거쳐 스캔 후 적치 영역(Z3)에 이동시키는 과정을 도시한 것이고,
도 4는 이 명세서에 따른 무인 결제 시스템의 구성을 기능 블록으로 도시한 것이고,
도 5는 무인 결제 시스템의 영상 분석부의 구체적인 구성을 기능 블록으로 도시한 것이고,
도 6은 구매자가 물품을 결제하는 과정에서 발생하는 이벤트를 구분하여 각 이벤트의 발생 조건을 구체적으로 설명한 표이고,
도 7은 도 6에 설명한 각 이벤트의 발생을 무인 결제 시스템을 구성하는 선반의 각 영역에서의 공간 점유율의 변화로 표현한 것이고,
도 8a 내지 도 8c는 실제 3D 뎁쓰 카메라를 이용하여 선반을 촬영한 이미지를 무인 결제와 관련한 이벤트를 구성하는 각 동작마다 구분하여 도시한 것이고,
도 9는 이 명세서에 따른 무인 결제 방법에 대한 동작 흐름도를 도시한 것이고,
도 10은 물품 스캔 이상 여부를 판단하는 방법에 대한 동작 흐름도를 도시한 것이다.
Figure 1 shows the area of the shelf that constitutes the unmanned payment system,
Figure 2 shows the buyer's actions at each stage of scanning and paying for items in the unmanned payment system,
Figures 3A to 3C show the process by which the buyer moves the goods from the storage area (Z1) before payment through the scanning area (Z2) to the storage area (Z3) after scanning,
Figure 4 shows the configuration of the unmanned payment system according to this specification in functional blocks,
Figure 5 shows the specific configuration of the image analysis unit of the unmanned payment system in functional blocks,
Figure 6 is a table that classifies events that occur in the process of a buyer paying for a product and explains in detail the conditions for occurrence of each event;
Figure 7 expresses the occurrence of each event described in Figure 6 as a change in space occupancy in each area of the shelf constituting the unmanned payment system,
Figures 8a to 8c show images taken of a shelf using an actual 3D depth camera, separated by each action that constitutes an event related to unmanned payment,
Figure 9 shows an operation flow chart for the unmanned payment method according to this specification,
Figure 10 shows an operation flowchart of a method for determining whether an item is scanned abnormally.

이하, 무인 결제 시스템에 대한 실시예를 첨부하는 도면에 의거하여 상세히 설명한다.Hereinafter, an embodiment of the unmanned payment system will be described in detail based on the attached drawings.

도 1은 무인 결제 시스템을 구성하는 선반의 영역을 도시한 것이고, 도 2는 무인 결제 시스템에서 물품을 스캔하고 결제하는 각 단계에서 구매자의 행동을 도시한 것이고, 도 3a 내지 도 3c는 구매자가 물품을 계산 전 적치 영역(Z1)에서 스캔 영역(Z2)을 거쳐 스캔 후 적치 영역(Z3)에 이동시키는 과정을 도시한 것이다.Figure 1 shows the area of the shelf that constitutes the unmanned payment system, Figure 2 shows the buyer's actions at each stage of scanning and paying for the product in the unmanned payment system, and Figures 3A to 3C show the buyer's purchase of the product. This shows the process of moving from the pre-calculation stacking area (Z1) through the scan area (Z2) to the stacking area (Z3) after scanning.

구입한 물품을 구매자 스스로 결제하기 위한 결제 시스템은, 구입한 물품을 올려 놓는 제1 영역(Z1), 구입한 물품의 식별 정보, 즉 물품의 포장지에 인쇄된 바코드나 QR 코드를 스캔하는 제2 영역(Z2) 및 식별 정보가 스캔된 물품을 결제가 완료되기 전까지 올려 놓는 제3 영역(Z3)으로 구성되는 선반 및 제2 영역(Z2)에서 물품을 스캔하기 위한 스캐너(SCANNER)를 구매자 인터페이스로 포함한다.The payment system for the buyer to pay for the purchased product by himself or herself includes a first area (Z1) where the purchased product is placed, and a second area where the identification information of the purchased product, that is, the barcode or QR code printed on the packaging of the product is scanned. A shelf consisting of (Z2) and a third area (Z3) where items with scanned identification information are placed until payment is completed, and a scanner (SCANNER) for scanning items in the second area (Z2) is included as a buyer interface. do.

또한, 결제 시스템은, 식별 정보를 스캔한 물품의 이름과 가격을 표시하기 위한 디스플레이와 물품 스캔이 끝난 물품을 결제하기 위한 결제 수단 등을 더 포함할 수 있다.Additionally, the payment system may further include a display for displaying the name and price of the product whose identification information has been scanned and a payment method for paying for the scanned product.

구매자는, 해당 매장에서 구매한 물품을 무인 결제 시스템을 통해 결제하기 위해 시스템으로 접근하고(Entrance), 도 3a와 같이 구매하기 위해 카트나 바구니에 담은 물품을 선반의 제1 영역(Z1)에 쌓고(Loading), 도 3b와 같이 제1 영역(Z1)에 쌓인 물품을 하나씩 제2 영역(Z2)에 옮겨 물품의 포장지에 인쇄된 바코드 등을 스캐너로 스캔하고(Scanning), 도 3C와 같이 스캔이 완료된 물품을 제3 영역(Z3)에 쌓는다. 구매자는 제1 영역(Z1)에 쌓은 각 물품에 대해 스캔 동작을 반복하여 물품을 모두 스캔하여 제3 영역(Z3)에 쌓으면, 스캔한 물품에 대한 대금을 결제하고, 대금 결제가 완료된 물품을 모두 제 3 영역(Z3)으로부터 바구니나 카트에 옮긴(Unloading) 후 시스템으로부터 퇴장한다(Exit).The buyer accesses the system (entrance) to pay for the items purchased at the store through an unmanned payment system, and stacks the items in the cart or basket for purchase in the first area (Z1) of the shelf, as shown in Figure 3a. (Loading), as shown in Figure 3b, the goods piled up in the first area (Z1) are moved one by one to the second area (Z2) and the barcode printed on the packaging of the goods is scanned with a scanner, and the scanning is performed as shown in Figure 3C. The completed items are stacked in the third area (Z3). The buyer repeats the scanning operation for each item stacked in the first area (Z1), scans all the items, and stacks them in the third area (Z3). Then, the buyer pays for the scanned items and all the items for which payment has been completed. Move it from the third area (Z3) to a basket or cart (Unloading) and then exit the system (Exit).

무인 결제 시스템이 적발하고자 하는 구매자의 부정 행위는 제1 영역(Z1)에 쌓은 물품을 제2 영역(Z2)에서 스캔하지 않고 제3 영역(Z3)으로 이동하는 것이다. 즉, 구매자가 제1 영역(Z1)에 있는 물품을 아예 스캔하지 않고 바로 제3 영역(Z3)으로 옮기거나 제1 영역(Z1)에 있는 둘 이상의 물건을 동시에 옮기면서 하나 이상의 물건에 대해 스캔을 하지 않고 둘 이상의 물건을 제3 영역(Z3)으로 옮기면서 부정 행위를 할 수 있다.The buyer's fraudulent behavior that the unmanned payment system seeks to detect is moving items piled in the first area (Z1) to the third area (Z3) without scanning them in the second area (Z2). That is, the buyer does not scan the items in the first area (Z1) at all and moves them directly to the third area (Z3), or moves two or more items in the first area (Z1) at the same time and does not scan more than one item. You can cheat by moving two or more objects to the third area (Z3) without doing so.

앞서 설명한 것과 같이, 물품의 중량을 이용하는 시스템이나 카메라로 물품의 이미지로 촬영하는 시스템 모두 이러 저러한 문제가 있어서 실제 시스템에 적용되지 못하고 있다. 특히 최근에 물품의 이미지로 딥 러닝 모델을 학습시켜 이용하려는 시도가 계속되고 있지만, 상품의 종류가 많고 새로운 상품이 꾸준히 유입되는 마트 등에서 물품 인식률이 떨어지고 인식 속도가 낮고, 또한 인식률을 올리고 인식 속도를 높이기 위해서는 고가의 카메라, 서버 등을 사용해야 해서 비용이 매우 증가하기 때문에, 실제 제품으로는 출시되지 못하고 있다.As explained earlier, both systems that use the weight of the item and systems that capture the image of the item with a camera have various problems, so they cannot be applied to actual systems. In particular, there have been ongoing attempts to learn and use deep learning models with product images in recent years, but the product recognition rate is low and the recognition speed is low in marts with many types of products and a steady flow of new products. In order to increase the cost, expensive cameras, servers, etc. must be used, which greatly increases the cost, so it has not been released as an actual product.

일반 RBG 카메라는 높은 해상도로 2차원의 영상 데이터를 캡쳐 하고 이를 이미 학습된 인공지능 모델에 입력하므로, 큰 용량의 영상 데이터를 처리해야 하기 때문에, 시스템에 부하가 많이 걸린다.General RBG cameras capture two-dimensional image data at high resolution and input it into an already learned artificial intelligence model, so a large amount of image data must be processed, putting a lot of load on the system.

반면, TOF 카메라나 3D 스테레오 카메라는, 일반 RGB 카메라보다는 해상도가 낮지만, 이미지의 각 포인트까지의 거리 정보를 얻을 수 있기 때문에, 연속되는 포인트의 거리 정보를 이용하여 물품의 면, 모서리, 꼭지점 등의 형상과 관련된 특징을 추출할 수 있고, 이를 근거로 해당 물품이 차지하는 부피를 계산 또는 추정할 수 있다.On the other hand, TOF cameras or 3D stereo cameras have lower resolution than regular RGB cameras, but they can obtain distance information to each point in the image, so they can use the distance information of consecutive points to identify the face, corner, vertex, etc. of the item. Features related to the shape of can be extracted, and based on this, the volume occupied by the item can be calculated or estimated.

이 명세서의 무인 결제 시스템은, 3D 카메라의 특성을 이용하여 물품의 부피를 계산하고, 스캔 이전 물품의 부피 변동과 스캔 이후 물품의 부피 변동의 차이 및 스캔 동작에 동기하여, 물품에 대한 스캔 동작 없이 물품을 반출하는 구매자의 부정 행위를 검출할 수 있다.The unmanned payment system of this specification calculates the volume of the product using the characteristics of the 3D camera, and synchronizes the difference between the volume change of the product before scanning and the volume change of the product after scanning and the scanning operation, without scanning the product. It is possible to detect fraudulent activity by buyers taking out goods.

무인 결제 시스템은, 구매자가 제1 영역(Z1)에 있는 물품을 옮겨 제3 영역(Z3)에 쌓는 과정을 하나의 이벤트로 관리하고, 제2 영역(Z2)에서의 스캔 동작과 이벤트를 동기하여 구매자의 부정 행위 여부를 판단할 수 있다.The unmanned payment system manages the process of a buyer moving items from the first area (Z1) and stacking them in the third area (Z3) as one event, and synchronizes the event with the scanning operation in the second area (Z2). It is possible to determine whether the buyer has committed fraud.

도 4는 이 명세서에 따른 무인 결제 시스템의 구성을 기능 블록으로 도시한 것이고, 도 5는 무인 결제 시스템의 영상 분석부의 구체적인 구성을 기능 블록으로 도시한 것이다.Figure 4 shows the configuration of the unmanned payment system according to this specification in functional blocks, and Figure 5 shows the specific configuration of the image analysis unit of the unmanned payment system in functional blocks.

무인 결제 시스템(1)은, 거리 정보를 포함하는 이미지로 물품을 촬영하고 물품의 바코드를 스캔하고 및 지불 정보를 입력 받기 위한 입력부(10), 입력부(10)가 촬영한 물품에 대해 이미지를 분석하여 물품의 점유 부피를 계산하고 선반에서 물품의 부피의 변동을 검출하고 이를 바코드 스캔과 연계하여 부정 행위에 의한 물품의 도난을 판단하기 위한 제어부(20), 스캔한 물품의 이름과 가격 및 결제할 전체 물품의 가격 등을 화면이나 소리로 출력하기 위한 출력부(30) 및 스캔한 물품의 이름과 가격을 서버에 문의하여 수신하고 지불 정보를 결제 서버에 전송하여 결제 인증에 대한 정보를 받기 위한 통신부(40)를 포함하여 구성될 수 있다.The unmanned payment system 1 has an input unit 10 for photographing an item as an image including distance information, scanning the bar code of the item, and receiving payment information, and analyzing the image for the item captured by the input unit 10. A control unit 20 calculates the occupied volume of the product, detects changes in the volume of the product on the shelf, and links this with barcode scanning to determine theft of the product due to fraudulent activity. The name and price of the scanned product and the payment method are provided. An output unit 30 for outputting the prices of all items on screen or in sound, and a communication unit for receiving information about payment authentication by inquiring and receiving the names and prices of scanned items from the server and transmitting payment information to the payment server. It may be configured including (40).

입력부(10)는, 선반에 놓인 물품을 3D로 촬영하기 위한 카메라(110), 물품을 식별하기 위해 식별 정보를 스캔하기 위한 물품 스캔부(120) 및 구매한 물품에 대한 대금을 지불하기 위한 지불 정보를 입력하기 위한 지불 정보 입력부(130)를 포함하여 구성될 수 있다. 입력부(10)는 무인 결제 시스템(1)을 이용하여 구매 물품에 대한 결제를 진행하는 구매자의 행동을 촬영하기 위한 2D 카메라를 더 포함할 수 있다.The input unit 10 includes a camera 110 for photographing items placed on a shelf in 3D, an item scanning unit 120 for scanning identification information to identify items, and a payment function for paying for purchased items. It may be configured to include a payment information input unit 130 for inputting information. The input unit 10 may further include a 2D camera for filming the actions of a buyer who uses the unmanned payment system 1 to pay for purchased goods.

카메라(110)로는 이미지를 구성하는 각 포인트까지의 거리 정보를 2차원의 이미지 데이터와 함께 제공하는 3D 뎁쓰 카메라를 채용할 수 있는데, 3D 스테레오 카메라나 TOF 카메라가 이에 해당할 수 있다.The camera 110 may be a 3D depth camera that provides distance information to each point constituting the image along with two-dimensional image data, and may be a 3D stereo camera or a TOF camera.

물품 스캔부(120)는 물품의 포장지나 물품에 인쇄된 식별 정보나 코드, 예를 들어 바코드, QR 코드, 데이터 메트릭스 등을 읽기 위한 장치로, 구매자가 손으로 들고 코드를 스캔하는 형태나 선반의 제2 영역(Z2)의 바닥에 설치되는 형태로 구현될 수 있다. 또는, 물품 스캔부(120)는, RF 신호를 이용할 수도 있는데, RF 신호를 방출하고 방출된 RF 신호에 대응하여 물품이 반사 신호로 RF 신호를 출력하면 이를 물품에 대한 식별 정보로 검출할 수도 있다.The product scanning unit 120 is a device for reading identification information or codes printed on product packaging or products, such as barcodes, QR codes, data metrics, etc., in the form of a code scanned by a buyer holding it in his hand or on a shelf. It may be implemented as installed on the floor of the second area (Z2). Alternatively, the product scanning unit 120 may use an RF signal. If the product emits an RF signal and outputs an RF signal as a reflected signal in response to the emitted RF signal, this may be detected as identification information for the product. .

제어부(20)는 카메라(110)가 선반의 제1 내지 제3 영역(Z1, Z2, Z3)을 촬영한 이미지를 분석하여 선반 위에 놓인 물품이 차지하는 점유 부피를 계산하고 물품의 이동에 따른 부피의 변동을 검출하기 위한 영상 분석부(210) 및 영상 분석부(210)가 분석한 물품의 부피 변동을 물품 스캔부(120)과 연계하여 물품이 스캔 없이 선반의 제1 영역(Z1)에서 제3 영역(Z3)이나 구매자의 바구니나 카트로 바로 옮겨지는지 판단하는 스캔 이상 판단부(220)를 포함할 수 있다.The control unit 20 analyzes images taken by the camera 110 of the first to third areas (Z1, Z2, Z3) of the shelf, calculates the occupied volume occupied by the item placed on the shelf, and calculates the volume occupied by the item as it moves. The image analysis unit 210 for detecting changes and the volume change of the article analyzed by the image analysis unit 210 are linked to the article scanning unit 120 so that the article moves from the first area Z1 of the shelf to the third area without scanning. It may include a scan abnormality determination unit 220 that determines whether the product is moved directly to the area Z3 or to the buyer's basket or cart.

출력부(30)는, 구매자가 물품을 스캔할 때마다 해당 물품의 이름과 가격을 표시하고 전체 물품의 총 결제 가격을 표시하고 물품 스캔에 이상이 발생할 때 이를 알리는 경고 문구를 표시하기 위한 디스플레이(310) 및 물품 스캔에 대응하는 소리를 출력하고 물품 스캔에 이상이 발생할 때 이를 경고하는 소리를 출력하기 위한 스피커(320)를 포함하여 구성될 수 있다.The output unit 30 has a display ( 310) and a speaker 320 for outputting a sound corresponding to the scanning of an article and a sound warning when an abnormality occurs in the scanning of the article.

영상 분석부(210)는, 카메라(110)가 촬영하여 출력하는, 거리 정보를 포함하는, 이미지를 이용하여 선반을 구성하는 각 영역, 즉 제1 내지 제3 영역(Z1, Z2, Z3) 각각에서 물품이 차지하는 점유 부피를 계산하는 부피 계산부(211), 카메라(110)가 출력하는 둘 이상의 이미지를 이용하여 제1 내지 제3 영역(Z1, Z2, Z3)에서 발생하는 움직임을 검출하는 움직임 검출부(212) 및 움직임 검출부(212)에 의해 움직임이 검출될 때 부피 계산부(211)가 출력하는 각 영역에서의 물품의 점유 부피를 근거로 각 영역에서 물품의 점유 부피의 변동을 계산하고 물품의 이동에 해당하는 이벤트인지 결정하고 이벤트를 생성하기 위한 이벤트 생성부(213)를 포함할 수 있다.The image analysis unit 210 uses images including distance information captured and output by the camera 110 to determine each area constituting the shelf, that is, the first to third areas Z1, Z2, and Z3, respectively. A volume calculation unit 211 that calculates the occupied volume occupied by the article, and a movement that detects movement occurring in the first to third areas (Z1, Z2, Z3) using two or more images output by the camera 110 When movement is detected by the detection unit 212 and the motion detection unit 212, the change in the occupied volume of the article in each area is calculated based on the occupied volume of the article in each area output by the volume calculation unit 211, and the It may include an event generator 213 for determining whether an event corresponds to movement of and generating an event.

도 2와 도 3을 참조하여 설명한 것과 같이, 구매자는, 무인 결제 시스템에 입장하여 물품을 제1 영역(Z1)에 적치하고, 각 물품에 대해 제2 영역(Z2)에서 해당 물품의 바코드나 QR 코드를 스캔한 후 제3 영역(Z3)에 쌓는 동작을 수행하고 제1 영역(Z1)에 있는 마지막 물품까지 이를 반복하고, 제1 영역(Z1)이 빈 상태가 되고 제3 영역(Z3)에 구매한 모든 물품이 쌓이면 신용 카드 등을 이용하여 결제를 하고 결제가 완료되면 제3 영역(Z3)의 물품을 구매자의 바구니나 카트에 옮긴다.As explained with reference to FIGS. 2 and 3, the buyer enters the unmanned payment system, places the products in the first area (Z1), and enters the product's barcode or QR in the second area (Z2) for each product. After scanning the code, perform a stacking operation in the third area (Z3) and repeat this until the last item in the first area (Z1), then the first area (Z1) becomes empty and the stacking operation is performed in the third area (Z3). When all purchased items are accumulated, payment is made using a credit card, etc., and once payment is completed, the items in the third area (Z3) are moved to the buyer's basket or cart.

이벤트 생성부(213)는 무인 결제 시스템에서 구매자의 정상적인 행동 패턴에 따라 몇 가지 이벤트를 생성할 수 있는데, 무인 결제 시스템에서 발생하는 이벤트와 관련하여 도 6과 도 7을 참조하여 설명한다.The event generator 213 can generate several events according to the buyer's normal behavior pattern in the unmanned payment system. Events occurring in the unmanned payment system will be described with reference to FIGS. 6 and 7.

도 6은 구매자가 물품을 결제하는 과정에서 발생하는 이벤트를 구분하여 각 이벤트의 발생 조건을 구체적으로 설명한 표이고, 도 7은 도 6에 설명한 각 이벤트의 발생을 무인 결제 시스템을 구성하는 선반의 각 영역에서의 공간 점유율의 변화로 표현한 것이다.Figure 6 is a table that classifies events that occur in the process of a buyer paying for a product and explains in detail the conditions for occurrence of each event, and Figure 7 shows the occurrence of each event described in Figure 6 at each shelf constituting the unmanned payment system. It is expressed as a change in space occupancy in the area.

구매자의 무인 결제는 구매자가 무인 결제 시스템에 등장하는 등장 이벤트(EVT-E)로 시작할 수 있다. 영상 분석부(210)의 움직임 검출부(212)가 선반 부근에 사람이 등장하여(Entrance) 카메라(110)가 촬영한 영상에서 움직임을 검출하면, 이벤트 생성부(213)는 등장 이벤트(EVT-E)를 생성할 수 있다. 즉, 이벤트 생성부(213)는 선반의 제1 영역(Z1)과 제3 영역(Z3)이 비어 있고 제2 영역(Z2)에는 아무런 변화가 없는 상태에서 선반 바깥에서 움직임이 검출되면, 등장 이벤트(EVT-E)를 생성할 수 있다. The buyer's unattended payment can begin with an appearance event (EVT-E) where the buyer appears in the unattended payment system. When the motion detection unit 212 of the image analysis unit 210 detects movement in the image captured by the camera 110 as a person appears near the shelf (entrance), the event generator 213 generates an appearance event (EVT-E ) can be created. That is, the event generator 213 generates an appearance event when movement is detected outside the shelf while the first area (Z1) and third area (Z3) of the shelf are empty and there is no change in the second area (Z2). (EVT-E) can be created.

등장 이벤트(EVT-E)가 생성된 상태에서 움직임 검출부(212)가 선반의 제1 영역(Z1)에서 움직임을 검출하고 부피 계산부(211)가 제1 영역(Z1)에서 물품이 차지하는 점유 부피를 계산하되 시간이 경과하면서 점유 부피가 증가하면, 이벤트 생성부(213)는 구매자가 구매한 물품을 선반의 제1 영역(Z1), 즉 스캔 전 영역에 적치하는 동작을 가리키는 로딩 이벤트(EVT-L)를 생성할 수 있다. 이 때, 선반의 제2 영역(Z2)에는 아무런 변화가 없고(No Change) 제3 영역(Z3)은 비어 있는(Empty) 상태여야 한다. 이벤트 생성부(213)는 선반의 제1 영역(Z1)에서 물품의 점유 부피의 증가가 멈출 때까지 로딩 이벤트(EVT-L)를 유지할 수 있다. 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에서 계산되는 부피가 구매자가 구매한 물품의 부피에 해당한다. 도 7에서 제1 영역(Z1)에 적치된 전체 물품의 점유 부피는 A에 해당한다.When an appearance event (EVT-E) is generated, the motion detection unit 212 detects movement in the first area (Z1) of the shelf, and the volume calculation unit 211 determines the occupied volume occupied by the article in the first area (Z1). Calculate , but if the occupied volume increases over time, the event generator 213 generates a loading event (EVT- L) can be created. At this time, there should be no change in the second area (Z2) of the shelf and the third area (Z3) should be empty. The event generator 213 may maintain the loading event (EVT-L) until the occupied volume of the product stops increasing in the first area (Z1) of the shelf. When the loading event (EVT-L) ends, the volume calculated in the first area (Z1) corresponds to the volume of the product purchased by the buyer. In FIG. 7, the occupied volume of all goods stored in the first area Z1 corresponds to A.

로딩 이벤트(EVT-L) 진행 중에 선반의 제3 영역(Z3)에 점유 부피가 계산되면, 스캔 이상 판단부(220)는 이를 스캔 이상, 즉 부정 행위로 간주하여 출력부(30)를 통해 경고할 수 있다.If the occupied volume is calculated in the third area (Z3) of the shelf during the loading event (EVT-L), the scan abnormality determination unit 220 regards this as a scanning abnormality, that is, fraud, and issues a warning through the output unit 30. can do.

로딩 이벤트(EVT-L)가 진행되는 동안 구매자는 매장에서 선택한 물품들을 담은 바구니나 카트에서 물품을 선반의 제1 영역(Z1)으로 순차적으로 옮기는데, 부피 계산부(211)는 구매자가 바구니로부터 제1 영역(Z1)으로 물품을 옮길 때마다 해당 물품의 부피를 계산할 수 있다.While the loading event (EVT-L) is in progress, the buyer sequentially moves the items from the basket or cart containing the items selected in the store to the first area (Z1) of the shelf, and the volume calculation unit 211 calculates the items that the buyer removes from the basket. 1 Each time an item is moved to area (Z1), the volume of that item can be calculated.

또한, 부피 계산부(211)는, 로딩 이벤트(EVT-L)가 진행되면서 물품이 제1 영역(Z1)에 순차적으로 쌓이는 동안 제1 영역(Z1)에서의 계산되는 부피의 변동을 고려하여, 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에 쌓인 전체 물품의 점유 부피를 계산할 수 있다.In addition, the volume calculation unit 211 considers the variation in the calculated volume in the first area (Z1) while the items are sequentially stacked in the first area (Z1) as the loading event (EVT-L) progresses, When the loading event (EVT-L) ends, the occupied volume of all items accumulated in the first area (Z1) can be calculated.

또한, 부피 계산부(211)는, 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에 쌓이는 전체 물품의 점유 부피를 계산하되, 로딩 이벤트(EVT-L) 중 물품을 옮기면서 계산한 각 물품의 부피를 이용하여 전체 물품의 점유 부피를 보정할 수 있다. 또한, 부피 계산부(211)는 구매자가 물품을 옮기는 동안 물품의 부피를 계산할 때 물품을 옮기는 구매자의 손의 부피를 고려하여 물품의 점유 부피를 보정할 수 있다.In addition, the volume calculation unit 211 calculates the occupied volume of all products piled up in the first area (Z1) when the loading event (EVT-L) ends, and calculates the occupied volume while moving the products during the loading event (EVT-L) The volume of each item can be used to correct the occupied volume of all items. Additionally, the volume calculation unit 211 may correct the occupied volume of the product by considering the volume of the buyer's hand moving the product when calculating the volume of the product while the buyer is moving the product.

로딩 이벤트(EVT-L)가 종료된 이후, 구매자는 선반의 제1 영역(Z1)에 쌓인 물품을 순차적으로 제2 영역(Z2)에서 물품 스캐너(120)를 통해 스캔하고 이를 다시 제3 영역(Z3)으로 이동시키는데, 이벤트 생성부(213)는 각 물품을 스캔하여 제3 영역(Z3)으로 이동하는 동작을 스캔 이벤트(EVT-S)로 생성할 수 있다.After the loading event (EVT-L) ends, the buyer sequentially scans the items stacked in the first area (Z1) of the shelf through the item scanner 120 in the second area (Z2) and scans them again in the third area (Z2). Z3), the event generator 213 can scan each item and generate an operation of moving it to the third area Z3 as a scan event (EVT-S).

스캔 이벤트(EVT-S)에서, 제1 영역(Z1)에 쌓인 물품의 부피는 스캔하는 물품의 부피만큼 감소하고, 제2 영역(Z2)에서는 구매자가 스캐너(120)를 조작하여 물품을 스캔하고 스캔한 물품을 제3 영역(Z3)으로 이동시키므로 부피의 변화가 발생하고(Change), 제3 영역(Z3)에는 새로운 물품이 더해지므로 물품의 부피가 증가한다.In a scan event (EVT-S), the volume of items piled up in the first area (Z1) is reduced by the volume of the item being scanned, and in the second area (Z2), the buyer operates the scanner 120 to scan the item. As the scanned item is moved to the third area (Z3), a change in volume occurs, and as new items are added to the third area (Z3), the volume of the item increases.

이벤트 생성부(213)는, 카메라(110)가 선반을 촬영하여 출력하는 연속되는 이미지를 이용하여 부피 계산부(211)가 제1 및 제3 영역(Z1, Z3)에서의 계산하는 부피와 움직임 검출부(212)가 제2 영역(Z2)에서 검출하는 움직임을 근거로 스캔 이벤트(EVT-S)로 판정하고, 각 물품의 이동에 대해 스캔 이벤트(EVT-S)를 생성할 수 있다.The event generator 213 calculates the volume and movement in the first and third areas Z1 and Z3 by the volume calculation unit 211 using continuous images output from the camera 110 by photographing the shelf. The detection unit 212 may determine a scan event (EVT-S) based on the movement detected in the second area (Z2) and generate a scan event (EVT-S) for the movement of each article.

도 6과 도 7에서 첫 번째 물품의 스캔에 대해 스캔1 이벤트(EVT-S1)가 생성되고 마지막 물품의 스캔에 대해 스캔F 이벤트(EVT-SF)가 생성되는데, 스캔F 이벤트(EVT-SF)의 결과로 제3 영역(Z3)의 물품의 점유 부피(A)는, 로딩 이벤트(EVT-L) 이후 제1 영역(Z1)의 물품의 점유 부피(A)와 같거나 소정의 기준 값 이하의 차이가 되어야 한다.In Figures 6 and 7, a Scan1 event (EVT-S1) is generated for the scan of the first item, and a ScanF event (EVT-SF) is generated for the scan of the last item. As a result, the occupied volume (A) of the article in the third zone (Z3) is equal to the occupied volume (A) of the article in the first zone (Z1) after the loading event (EVT-L) or is less than or equal to a predetermined reference value. There has to be a difference.

스캔 이벤트(EVT-S1 ~ EVT-SF)가 진행되는 동안, 도 7에 도시한 것과 같이, 제1 영역(Z1)에서 물품의 점유 부피는 계단 형태로 감소하고, 제2 영역(Z2)에서는 스캔이 진행되는 동안 잠깐 부피가 감지되고, 제3 영역(Z3)에서는 물품의 점유 부피가 계산 형태로 증가한다.While the scan event (EVT-S1 to EVT-SF) is in progress, as shown in FIG. 7, the occupied volume of the article in the first area (Z1) decreases in the form of steps, and in the second area (Z2), the scanned volume decreases. During this process, the volume is sensed briefly, and in the third area (Z3), the occupied volume of the item increases in a calculated form.

스캔 이벤트(EVT-S1 ~ EVT-SF)가 진행되는 동안, 즉 제1 영역(Z1)에서 부피가 줄고 제3 영역(Z3)에서 부피가 증가하지만, 물품 스캔부(120)에서 바코드나 QR 코드와 같은 해당 물품의 식별 정보의 입력이 없어 아무런 출력이 발생하지 않으면, 스캔 이상 판단부(220)는 구매자가 결제를 위한 물품 스캔 동작을 하지 않고 물품을 스캔 이후의 공간, 즉 제3 영역(Z3)으로 이동시킨 것으로 간주하고, 스캔 이상 또는 구매자의 부정 행위로 판단하여 출력부(30)를 통해 경고 메시지나 경고음을 출력할 수 있다.While the scanning event (EVT-S1 to EVT-SF) is in progress, that is, the volume decreases in the first area (Z1) and increases in the third area (Z3), the barcode or QR code is displayed in the article scanning unit 120. If no output occurs because there is no input of identification information for the product, the scan abnormality determination unit 220 does not scan the product for payment and the space after scanning the product, that is, the third area (Z3) ), and if it is judged to be a scanning error or a fraudulent act by the purchaser, a warning message or warning sound may be output through the output unit 30.

또한, 스캔 이상 판단부(220)는, 각 스캔 이벤트 이후 제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이, 즉 제1 영역(Z1)에서의 부피 감소와 제3 영역(Z3)에서의 부피 증가의 차이가 기준 값 이상일 때도, 스캔 이상 또는 구매자의 부정 행위로 판단하여 출력부(30)를 통해 경고 메시지나 경고음을 출력할 수 있다.In addition, the scan abnormality determination unit 220 determines the difference in volume fluctuations in the first and third regions (Z1, Z3) after each scan event, that is, the volume decrease in the first region (Z1) and the volume change in the third region (Z3). Even when the difference in volume increase in ) is greater than the reference value, it is determined that there is a scanning error or the purchaser's fraud, and a warning message or warning sound can be output through the output unit 30.

마지막 스캔 이벤트(EVT-SF)가 종료된 후, 구매자가 지불 정보 입력부(130)에 신용 카드나 스마트 폰의 NFC 기능을 이용하여 결제를 진행하여 결제 서버로부터 결제가 인증되면, 무인 결제 시스템(1)은 결제 완료를 알리는 내용을 출력부(30)에 출력하고 또한 프린터(미도시)를 통해 종이로 출력하거나 구매자의 스마트 폰에 결제 내용을 메시지로 전달할 수 있다.After the last scan event (EVT-SF) ends, the buyer makes a payment using a credit card or the NFC function of the smart phone in the payment information input unit 130, and when the payment is authenticated by the payment server, the unmanned payment system (1 ) outputs information indicating payment completion to the output unit 30 and can also print it on paper through a printer (not shown) or send the payment information as a message to the buyer's smartphone.

이후 구매자가 제3 영역(Z3)에 쌓인 물품을 바구니나 카트에 옮기는 언로딩 동작을 수행하면, 이벤트 생성부(213)는 언로딩 이벤트(EVT-U)를 생성한다. 이벤트 생성부(213)는 부피 계산부(211)과 움직임 검출부(212)로부터 제1 영역(Z1)의 점유 부피가 없고(Empty) 제2 영역(Z2)에 변화가 없고 제3 영역(Z3)의 점유 부피가 줄어드는 것을 확인하고 언로딩 이벤트(EVT-U)를 생성하되, 제3 영역(Z3)에서 점유 부피가 없어질 때까지 언로딩 이벤트(EVT-U)를 유지할 수 있다.Afterwards, when the buyer performs an unloading operation to move the goods accumulated in the third area Z3 to a basket or cart, the event generator 213 generates an unloading event (EVT-U). The event generator 213 determines from the volume calculation unit 211 and the motion detection unit 212 that there is no occupied volume in the first area (Z1), there is no change in the second area (Z2), and the third area (Z3) An unloading event (EVT-U) is generated after confirming that the occupied volume of is reduced, and the unloading event (EVT-U) can be maintained until the occupied volume disappears in the third area (Z3).

이후 이벤트 생성부(213)는, 움직임 검출부(212)를 통해 구매자가 카메라(110)가 출력하는 이미지에서 사라지는 것(Exit)을 검출할 때, 퇴장 이벤트(EVT-X)를 생성하여, 한 명의 구매자에 의한 물품의 결제 절차를 마무리할 수 있다.Afterwards, the event generator 213 generates an exit event (EVT-X) when the motion detector 212 detects that the buyer disappears (Exit) from the image output by the camera 110, The payment process for the product by the buyer can be completed.

도 8a 내지 도 8c는 실제 3D 뎁쓰 카메라를 이용하여 선반을 촬영한 이미지를 무인 결제와 관련한 이벤트를 구성하는 각 동작마다 구분하여 도시한 것이다.Figures 8a to 8c show images taken of a shelf using an actual 3D depth camera, separated by each action that constitutes an event related to unmanned payment.

도 8a에서는 구매자가 2개의 물품을 제1 영역(Z1)에 놓고 있고, 도 8b에서는 구매자가 제1 영역(Z1)에 있는 물품 중에서 하나를 제2 영역(Z2)으로 옮겨 바코드 스캔 동작을 수행하고 있고, 도 8c에서는 구매자가 스캔이 완료된 물품을 제3 영역(Z3)에 옮기고 있다. In Figure 8a, the buyer places two items in the first area (Z1), and in Figure 8b, the buyer moves one of the items in the first area (Z1) to the second area (Z2) and performs a barcode scanning operation. And in Figure 8c, the buyer is moving the scanned item to the third area (Z3).

3D 뎁쓰 카메라(110)는 촬영하는 이미지를 구성하는 각 포인트까지의 거리 정보를 제공한다. 도 8a 내지 도 8c에서는 카메라(110)는 촬영한 이미지를 재구성하여 표시하고 있는데, 고정된 배경에 대해서는 거리와 관련된 정보를 이미지에 표시하지 않고, 배경과 분리된 객체에 대해서만 등고선이나 격자 형태로 거리 정보를 표시하고 있다.The 3D depth camera 110 provides distance information to each point that makes up the captured image. In FIGS. 8A to 8C, the camera 110 reconstructs and displays the captured image, but does not display distance-related information in the image for a fixed background, and displays distances in the form of contour lines or grids only for objects separated from the background. Information is displayed.

영상 분석부(210)는, 3D 뎁쓰 카메라(110)가 출력하는 이미지에서 배경과 분리되는 대상에 대한 거리 정보를 이용하여, 대상의 형상과 관련된 특징을 추출하고 이를 이용하여 해당 대상의 부피를 계산할 수 있다.The image analysis unit 210 uses distance information about an object separated from the background in the image output by the 3D depth camera 110 to extract features related to the shape of the object and use this to calculate the volume of the object. You can.

도 9는 이 명세서에 따른 무인 결제 방법에 대한 동작 흐름도를 도시한 것이다.Figure 9 shows an operation flow chart for the unmanned payment method according to this specification.

카메라(110)이 무인 결제 시스템의 선반을 촬영한 이미지를 출력하면, 제어부(20)의 영상 분석부(210)(이후 편의를 고려하여 영상 분석부(210)나 스캔 이상 판단부(220)의 동작은 제어부(20)가 동작하는 것으로 설명함)는 선반의 제1 내지 제3 영역(Z1, Z2, Z3)의 이미지를 분석한다(S910).When the camera 110 outputs an image taken of the shelf of the unmanned payment system, the image analysis unit 210 of the control unit 20 (later, considering convenience, the image analysis unit 210 or the scan abnormality determination unit 220) The operation (described as the operation of the control unit 20) analyzes images of the first to third areas (Z1, Z2, and Z3) of the shelf (S910).

제어부(20)는, 카메라(110)가 출력하는 이미지에 포함된 거리 정보를 이용하여 제1 내지 제3 영역(Z1, Z2, Z3)에서 물품의 점유 부피를 계산한다(S920).The control unit 20 calculates the occupied volume of the article in the first to third areas Z1, Z2, and Z3 using the distance information included in the image output by the camera 110 (S920).

제어부(20)는, 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 변동이 있는지 여부를 확인한다(S930).The control unit 20 checks whether there is a change in the occupied volume in the first to third areas Z1, Z2, and Z3 (S930).

제어부(20)는, 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 변동이 있으면(S930에서 YES), 각 영역에서의 점유 변동에 대응하는 이벤트를 생성 또는 설정하는데(S940), 도 6과 도 7을 참조하여 설명하였듯이 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 조건에 따라 등장 이벤트(EVT-E), 로딩 이벤트(EVT-L), 스캔 이벤트(EVT-S), 언로딩 이벤트(EVT-U), 및 퇴장 이벤트(EVT-X) 중 하나를 생성할 수 있다.If there is a change in occupancy volume in the first to third areas (Z1, Z2, Z3) (YES in S930), the control unit 20 generates or sets an event corresponding to the change in occupancy in each area (S940). , As described with reference to FIGS. 6 and 7, an appearance event (EVT-E), a loading event (EVT-L), and a scan event ( EVT-S), an unloading event (EVT-U), and an exit event (EVT-X).

제어부(20)는, 설정되거나 생성된 이벤트를 물품 스캔부(120)에서의 물품 스캔 동작과 연계하여 물품 스캔에 이상이 있는지 여부를 판단하고 물품 스캔에 이상이 있을 때 출력부(30)를 통해 알릴 수 있다(S950).The control unit 20 determines whether there is a problem with the product scanning by linking the set or generated event with the product scanning operation in the product scanning unit 120, and when there is a problem with the product scanning, the control unit 20 sends a message through the output unit 30. You can notify (S950).

제어부(20)는, 제1 영역(Z1)의 점유 부피가 0인지 확인하여 물품 스캔이 종료되었는지 판단하고(S960), 물품 스캔이 종료되었다고 판단하면(S960에서 YES) 구매자가 결제를 진행하도록 안내할 수 있다(S970).The control unit 20 checks whether the occupied volume of the first area Z1 is 0 and determines whether the product scanning is complete (S960). If it determines that the product scanning is completed (YES in S960), it guides the buyer to proceed with payment. You can do it (S970).

도 10은 물품 스캔 이상 여부를 판단하는 방법에 대한 동작 흐름도를 도시한 것으로, 도 10은 스캔 이벤트(EVT-S) 때 발생하는 스캔 이상에 대한 동작을 설명한다.FIG. 10 shows an operation flowchart of a method for determining whether there is an item scanning abnormality, and FIG. 10 explains the operation for a scanning abnormality that occurs during a scan event (EVT-S).

제어부(20)는 스캔 이벤트(EVT-S)가 진행되는 동안 물품 스캔부(120)를 통한 물품의 식별 정보를 스캔하는 동작이 있었는지 확인한다(S1010).The control unit 20 checks whether there was an operation to scan the identification information of the product through the product scanning unit 120 while the scan event (EVT-S) was in progress (S1010).

스캔 이벤트(EVT-S)는 제1 영역(Z1)의 점유 부피가 감소하고 제3 영역(Z3)의 점유 부피가 증가할 때 설정 또는 생성되는데, 해당 스캔 이벤트(EVT-S) 때 물품 스캔이 발생하지 않으면(S1010에서 NO), 제어부(20)는 물품 스캔 이상 또는 구매자의 부정 행위로 판단하고 이를 경고하는 메시지나 경고음을 출력부(30)를 통해 출력할 수 있다(S1040).A scan event (EVT-S) is set or generated when the occupied volume of the first area (Z1) decreases and the occupied volume of the third area (Z3) increases, and the item is scanned at the time of the scan event (EVT-S). If it does not occur (NO in S1010), the control unit 20 determines that there is a product scanning error or the purchaser's fraudulent activity and outputs a warning message or warning sound through the output unit 30 (S1040).

제어부(20)는, 스캔 이벤트(EVT-S) 때 물품 스캔이 발생하는 경우에도(S1010에서 YES), 스캔 이벤트 이후 제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이, 즉 제1 영역(Z1)에서의 부피 감소와 제3 영역(Z3)에서의 부피 증가의 차이가 기준 값 이상인지 여부를 확인한다(S1020).Even when scanning of an article occurs during a scan event (EVT-S) (YES in S1010), the control unit 20 determines the difference in volume changes in the first and third areas (Z1, Z3) after the scan event, that is, the first It is checked whether the difference between the volume decrease in the first region (Z1) and the volume increase in the third region (Z3) is greater than or equal to the reference value (S1020).

제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이가 기준 값 이상일 때(S1020에서 YES), 제어부(20)는 물품 스캔 이상 또는 구매자의 부정 행위로 판단하고 이를 경고하는 메시지나 경고음을 출력부(30)를 통해 출력할 수 있다(S1040).When the difference in volume fluctuations in the first and third areas (Z1, Z3) is greater than the reference value (YES in S1020), the control unit 20 determines that there is a product scanning abnormality or the purchaser's misconduct, and sends a message or warning sound to warn of this. Can be output through the output unit 30 (S1040).

제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이가 기준 값보다 작을 때(S1020에서 NO), 제어부(20)는 물품 스캔이 정상적으로 이루어졌다고 판단하고 다음 이벤트로 진행할 수 있다.When the difference in volume variation in the first and third areas Z1 and Z3 is smaller than the reference value (NO in S1020), the control unit 20 determines that the item has been scanned normally and can proceed to the next event.

이와 같이 무인 결제 시스템에 3D 카메라를 적용하여 물품의 점유 부피를 계산하고, 점유 부피의 변동과 스캔 동작을 연계하여 구매자가 물품 스캔 없이 물품을 반출하는 부정 행위를 효과적을 적발할 수 있게 된다.In this way, by applying a 3D camera to the unmanned payment system, the occupied volume of the product is calculated, and by linking the change in occupied volume and the scanning operation, it is possible to effectively detect fraudulent behavior in which buyers take out the product without scanning the product.

2D 카메라를 사용하고 학습 모델을 적용하는 시스템에 비해 적은 비용으로 구현할 수 있고, 또한 물품마다 사전 학습을 할 필요가 없어서 현장에 바로 적용할 수 있다.It can be implemented at a lower cost than a system that uses a 2D camera and applies a learning model, and it can be applied right away in the field because there is no need for prior learning for each item.

이 명세서에 기재된 무인 결제 시스템 및 무인 결제 방법은 아래와 같이 설명될 수 있다.The unmanned payment system and unmanned payment method described in this specification can be described as follows.

일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성될 수 있다.An unmanned payment system according to an embodiment includes a product scanning unit for inputting identification information related to the product; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It may be configured to include a control unit to determine whether there is an abnormality in scanning the product based on the input.

일 실시예에서, 제어부는, 제1 영역이 빈 공간에서 물품으로 채워지고 제2 영역에서 식별 정보의 입력이 없고 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 제1 영역에서 물품의 점유 부피가 줄고 제2 영역에서 부피 변동이 발생하고 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 제1 영역이 빈 공간이고 제2 영역에서 부피 변동이 없고 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성할 수 있다.In one embodiment, the control unit generates a loading event when the first area is filled with an empty space and the second area contains no identification information and the third area is an empty space, and loads the item in the first area. A scan event is generated when the occupied volume decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is empty, there is no volume change in the second area, and the third area is empty. The situation in which the goods in is emptied can be created as an unloading event.

일 실시예에서, 제어부는, 스캔 이벤트에 식별 정보의 입력이 없으면 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the control unit may determine that there is an error in scanning the item if no identification information is input in the scan event.

일 실시예에서, 제어부는 스캔 이벤트에 제1 영역에서의 점유 부피의 변동과 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the control unit may determine that there is an error in scanning an item when the difference between the change in occupied volume in the first area and the change in occupied volume in the third area in the scan event is greater than or equal to a reference value.

일 실시예에서, 제어부는 로딩 이벤트가 진행하는 동안 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산할 수 있다.In one embodiment, the controller may calculate the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while a loading event is in progress.

일 실시예에서, 제어부는, 로딩 이벤트가 진행하는 동안 순차적으로 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 로딩 이벤트 종료된 이후 제1 영역에서 촬영되는 이미지를 근거로 계산한 전체 물품의 점유 부피를 계산된 각 물품의 점유 부피의 합을 이용하여 보정할 수 있다.In one embodiment, the control unit calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the total product volume based on images taken in the first area after the loading event ends. The occupied volume of can be corrected using the calculated sum of the occupied volumes of each article.

일 실시예에서, 식별 정보는, 물품의 표면에 표시되는 바코드 또는 QR 코드 및 물품 스캔부에서 방사되는 RF 신호에 대한 응답으로 물품이 출력하는 RF 신호 중 하나로부터 검출될 수 있다.In one embodiment, identification information may be detected from one of a barcode or QR code displayed on the surface of the article and an RF signal output by the article in response to an RF signal emitted from the article scanning unit.

일 실시예에서, 구매한 물품의 대금 지불을 위한 지불 정보를 입력하기 위한 지불 정보 입력부; 및 구매자가 물품 스캔부를 통해 식별 정보를 입력한 물품에 대한 가격과 물품 정보를 표시하고 제어부로부터 전송되는 물품 스캔의 이상을 알리는 경고를 화면이나 소리로 출력하기 위한 출력부를 더 포함하고, 통신부는 지불 정보 입력부를 통해 입력되는 지불 정보를 지불 서버에 전송하고 지불 서버로부터 지불 정보에 대응하여 지불 확인 정보를 수신할 수 있다.In one embodiment, a payment information input unit for inputting payment information for paying for purchased goods; and an output unit for displaying the price and product information for the product for which the purchaser inputs identification information through the product scanning unit and outputting a warning on screen or in sound indicating an abnormality in the product scan transmitted from the control unit, and the communication department pays. Payment information input through the information input unit may be transmitted to the payment server, and payment confirmation information may be received from the payment server in response to the payment information.

다른 실시예에 따른 무인 결제 방법은, 식별 정보 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하도록 출력되는 이미지를 분석하는 단계; 이미지 분석을 통해 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어질 수 있다.An unmanned payment method according to another embodiment involves photographing a shelf consisting of a first area where items before inputting identification information are placed, a second area where identification information is input, and a third area where items are placed after inputting identification information. Analyzing the output image to include information; calculating the occupied volume of the article in the first to third areas through image analysis; and when a change occurs in the occupied volume of the article in at least one of the first to third areas, determining whether there is an abnormality in the scanning of the article based on the change in occupied volume and input of identification information for the article through the article scanning unit. It can be done including.

일 실시예에서, 무인 결제 방법은, 제1 영역이 빈 공간에서 물품으로 채워지고 제2 영역에서 식별 정보의 입력이 없고 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 제1 영역에서 물품의 점유 부피가 줄고 제2 영역에서 부피 변동이 발생하고 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 제1 영역이 빈 공간이고 제2 영역에서 부피 변동이 없고 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하는 단계를 더 포함하여 이루어질 수 있다.In one embodiment, the unmanned payment method generates a loading event when the first area is filled with items in an empty space, there is no input of identification information in the second area, and the third area is an empty space, and a loading event is generated in the first area. A scan event is generated when the occupied volume of the article decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is empty, there is no volume change in the second area, and the occupied volume of the article increases in the third area. The process may further include generating an unloading event when an item in area 3 is emptied.

일 실시예에서, 판단하는 단계는 스캔 이벤트에 식별 정보의 입력이 없으면 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the determining step may determine that there is an error in scanning the item if no identification information is input in the scan event.

일 실시예에서, 판단하는 단계는 스캔 이벤트에 제1 영역에서의 점유 부피의 변동과 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the determining step may determine that there is an abnormality in scanning the item when the difference between the change in occupied volume in the first area and the change in occupied volume in the third area in the scan event is greater than or equal to a reference value.

일 실시예에서, 계산하는 단계는 로딩 이벤트가 진행하는 동안 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산할 수 있다.In one embodiment, the calculating step may calculate the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while a loading event is in progress.

일 실시예에서, 계산하는 단계는, 로딩 이벤트가 진행하는 동안 순차적으로 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 로딩 이벤트 종료된 이후 제1 영역에서 촬영되는 이미지를 근거로 계산한 전체 물품의 점유 부피를 계산된 각 물품의 점유 부피의 합을 이용하여 보정할 수 있다.In one embodiment, the calculating step calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the occupied volume based on the image taken in the first area after the loading event ends. The occupied volume of all products can be corrected using the calculated sum of the occupied volumes of each product.

일 실시예에서, 무인 결제 방법은, 스캔 이벤트 때 물품 스캔부를 통해 식별 정보가 입력된 물품에 대한 가격과 물품 정보를 표시하는 단계; 물품 스캔에 이상이 발생하였다고 판단되었을 때 이를 화면이나 소리로 출력하는 단계; 및 물품 스캔에 이상이 발생하지 않은 상태로 제1 영역이 빈 영역으로 바뀔 때, 결제를 진행하는 단계를 더 포함하여 이루어질 수 있다.In one embodiment, the unmanned payment method includes displaying the price and product information for the product for which identification information is input through the product scanning unit during a scan event; A step of outputting this on screen or in sound when it is determined that an abnormality has occurred in scanning the product; And when the first area changes to a blank area without any abnormality occurring in scanning the product, the step of proceeding with payment may be further included.

본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.The present invention is not limited to the described embodiments, and it is obvious to those skilled in the art that various modifications and changes can be made without departing from the spirit and scope of the present invention. Accordingly, such modifications or variations should be considered to fall within the scope of the claims of the present invention.

1: 무인 결제 시스템 10: 입력부
20: 제어부 30: 출력부
40: 통신부 110: 카메라
120: 물품 스캔부 130: 지불 정보 입력부
210: 영상 분석부 211: 부피 계산부
212: 움직임 검출부 213: 이벤트 생성부
220: 스캔 이상 판단부 310: 디스플레이
320: 스피커
1: Unmanned payment system 10: Input unit
20: control unit 30: output unit
40: Communication unit 110: Camera
120: product scanning unit 130: payment information input unit
210: Image analysis unit 211: Volume calculation unit
212: motion detection unit 213: event generation unit
220: Scan abnormality determination unit 310: Display
320: speaker

Claims (15)

물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부;
상기 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 상기 식별 정보의 입력이 이루어지는 제2 영역 및 상기 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라;
상기 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및
상기 이미지를 근거로 상기 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 상기 제1 내지 제3 영역에서 상기 하나 이상의 물품의 점유 부피의 변동과 상기 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 상기 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성되고,
상기 제어부는, 상기 제1 영역이 빈 공간에서 물품으로 채워지고 상기 제2 영역에서 상기 식별 정보의 입력이 없고 상기 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 상기 제1 영역에서 물품의 점유 부피가 줄고 상기 제2 영역에서 부피 변동이 발생하고 상기 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 상기 제1 영역이 빈 공간이고 상기 제2 영역에서 부피 변동이 없고 상기 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하고, 상기 스캔 이벤트에 상기 제1 영역에서의 점유 부피의 변동과 상기 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 시스템.
an article scanning unit for inputting identification information related to the article;
An image containing distance information is created by photographing a shelf consisting of a first area where the goods before the input of the identification information are placed, a second area where the identification information is entered, and a third area where the goods are placed after the input of the identification information. 3D camera for printing;
a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and
Calculate the occupied volume of one or more items placed in first to third areas of the shelf based on the image, and calculate the change in occupied volume of the one or more items in the first to third areas and the product through the item scanning unit. It is configured to include a control unit for determining whether there is an abnormality in scanning the article based on input of identification information for,
The control unit generates a loading event when the first area is filled with an empty space and the identification information is not input in the second area and the third area is an empty space, and the product is stored in the first area. A scan event is generated in which the occupied volume of the article decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is an empty space and the volume change occurs in the second area. An unloading event is generated in which the goods in the third area are emptied, and the scan event is based on the difference between the change in occupied volume in the first area and the change in occupied volume in the third area. An unmanned payment system characterized in that it is determined that there is an error in scanning the item when the value is greater than or equal to the value.
삭제delete 제1 항에 있어서,
상기 제어부는, 상기 스캔 이벤트에 상기 식별 정보의 입력이 없으면 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 시스템.
According to claim 1,
The control unit determines that there is a problem in scanning the product if the identification information is not input in the scan event.
삭제delete 제1 항에 있어서,
상기 제어부는 상기 로딩 이벤트가 진행하는 동안 상기 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산하는 것을 특징으로 하는 무인 결제 시스템.
According to claim 1,
The control unit calculates the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while the loading event is in progress.
제5 항에 있어서,
상기 제어부는, 상기 로딩 이벤트가 진행하는 동안 순차적으로 상기 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 상기 로딩 이벤트 종료된 이후 상기 제1 영역에서 촬영되는 이미지를 근거로 계산한 상기 전체 물품의 점유 부피를 상기 계산된 각 물품의 점유 부피의 합을 이용하여 보정하는 것을 특징으로 하는 무인 결제 시스템.
According to clause 5,
The control unit calculates the occupied volume of each article sequentially moving to the first area while the loading event is in progress, and the total volume calculated based on the image taken in the first area after the loading event ends. An unmanned payment system characterized in that the occupied volume of an article is corrected using the calculated sum of the occupied volume of each article.
제1 항에 있어서,
상기 식별 정보는, 물품의 표면에 표시되는 바코드 또는 QR 코드 및 상기 물품 스캔부에서 방사되는 RF 신호에 대한 응답으로 물품이 출력하는 RF 신호 중 하나로부터 검출되는 것을 특징으로 하는 무인 결제 시스템.
According to claim 1,
The identification information is an unmanned payment system characterized in that it is detected from one of a barcode or QR code displayed on the surface of the product and an RF signal output by the product in response to an RF signal emitted from the product scanning unit.
제1 항에 있어서,
구매한 물품의 대금 지불을 위한 지불 정보를 입력하기 위한 지불 정보 입력부; 및
구매자가 상기 물품 스캔부를 통해 식별 정보를 입력한 물품에 대한 가격과 물품 정보를 표시하고 상기 제어부로부터 전송되는 물품 스캔의 이상을 알리는 경고를 화면이나 소리로 출력하기 위한 출력부를 더 포함하고,
상기 통신부는 상기 지불 정보 입력부를 통해 입력되는 지불 정보를 지불 서버에 전송하고 상기 지불 서버로부터 상기 지불 정보에 대응하여 지불 확인 정보를 수신하는 것을 특징으로 하는 무인 결제 시스템.
According to claim 1,
A payment information input unit for entering payment information for paying for purchased goods; and
It further includes an output unit for displaying the price and product information for the product for which the buyer has entered identification information through the product scanning unit and outputting a warning on screen or in sound indicating an abnormality in the product scan transmitted from the control unit,
The communication unit transmits payment information input through the payment information input unit to a payment server and receives payment confirmation information corresponding to the payment information from the payment server.
물품 식별부, 3D 카메라 및 제어부를 포함하는 무인 결제 시스템에서,
상기 물품 식별부를 통한 식별 정보 입력 전의 물품이 놓이는 제1 영역, 상기 식별 정보의 입력이 이루어지는 제2 영역 및 상기 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 상기 3D 카메라가 촬영하여 거리 정보를 포함하도록 출력하는 이미지를 상기 제어부가 분석하는 단계;
상기 제어부가 상기 제1 영역이 빈 공간에서 물품으로 채워지고 상기 제2 영역에서 상기 식별 정보의 입력이 없고 상기 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 상기 제1 영역에서 물품의 점유 부피가 줄고 상기 제2 영역에서 부피 변동이 발생하고 상기 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 상기 제1 영역이 빈 공간이고 상기 제2 영역에서 부피 변동이 없고 상기 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하는 단계;
상기 제어부가 상기 이미지 분석을 통해 상기 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및
상기 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 상기 제어부가 상기 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 상기 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어지고,
상기 판단하는 단계는, 상기 스캔 이벤트에 상기 제1 영역에서의 점유 부피의 변동과 상기 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 방법.
In an unmanned payment system including an item identification unit, a 3D camera, and a control unit,
The 3D camera photographs a shelf consisting of a first area where the product is placed before inputting the identification information through the product identification unit, a second area where the identification information is input, and a third area where the product is placed after the input of the identification information. The control unit analyzing the output image to include distance information;
The control unit generates a loading event in a situation where the first area is filled with an empty space and the identification information is not input in the second area and the third area is an empty space, and the first area is filled with goods. A scan event is generated when the occupied volume decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is an empty space and a volume change occurs in the second area. generating an unloading event in a situation in which the goods in the third area are empty;
The control unit calculating an occupied volume of an article in the first to third areas through the image analysis; and
When a change occurs in the occupied volume of an article in at least one of the first to third areas, the control unit detects an abnormality in scanning the article based on the change in the occupied volume and input of identification information for the article through the article scanning unit. It includes the step of determining whether or not
The determining step is characterized in that it is determined that there is an abnormality in scanning the article when the difference between the change in the occupied volume in the first area and the change in the occupied volume in the third area in the scan event is greater than a reference value. Unmanned payment method.
삭제delete 제9 항에 있어서,
상기 판단하는 단계는, 상기 스캔 이벤트에 상기 식별 정보의 입력이 없으면 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 방법.
According to clause 9,
The determining step is an unmanned payment method characterized in that it is determined that there is a problem in scanning the item if the identification information is not input in the scan event.
삭제delete 제9 항에 있어서,
상기 계산하는 단계는, 상기 로딩 이벤트가 진행하는 동안 상기 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산하는 것을 특징으로 하는 무인 결제 방법.
According to clause 9,
The calculating step is an unmanned payment method characterized in that the occupied volume of all items purchased by the buyer is calculated based on changes in images captured in the first area while the loading event is in progress.
제13 항에 있어서,
상기 계산하는 단계는, 상기 로딩 이벤트가 진행하는 동안 순차적으로 상기 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 상기 로딩 이벤트 종료된 이후 상기 제1 영역에서 촬영되는 이미지를 근거로 계산한 상기 전체 물품의 점유 부피를 상기 계산된 각 물품의 점유 부피의 합을 이용하여 보정하는 것을 특징으로 하는 무인 결제 방법.
According to claim 13,
The calculating step calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the occupied volume based on the image taken in the first area after the loading event ends. An unmanned payment method characterized in that the occupied volume of all products is corrected using the calculated sum of occupied volumes of each product.
제9 항에 있어서,
상기 스캔 이벤트 때 상기 물품 스캔부를 통해 식별 정보가 입력된 물품에 대한 가격과 물품 정보를 표시하는 단계;
상기 물품 스캔에 이상이 발생하였다고 판단되었을 때 이를 화면이나 소리로 출력하는 단계; 및
상기 물품 스캔에 이상이 발생하지 않은 상태로 상기 제1 영역이 빈 영역으로 바뀔 때, 결제를 진행하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 무인 결제 방법.
According to clause 9,
displaying price and product information for the product for which identification information is input through the product scanning unit during the scan event;
When it is determined that an abnormality has occurred in the scanning of the product, outputting this on a screen or in sound; and
An unmanned payment method, characterized in that it further includes the step of proceeding with payment when the first area changes to a blank area without any abnormality occurring in scanning the product.
KR1020210096967A 2021-07-23 2021-07-23 Unmanned payment system KR102655145B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210096967A KR102655145B1 (en) 2021-07-23 2021-07-23 Unmanned payment system
JP2022118169A JP2023016799A (en) 2021-07-23 2022-07-25 Unmanned settlement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210096967A KR102655145B1 (en) 2021-07-23 2021-07-23 Unmanned payment system

Publications (2)

Publication Number Publication Date
KR20230015618A KR20230015618A (en) 2023-01-31
KR102655145B1 true KR102655145B1 (en) 2024-04-04

Family

ID=85109066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210096967A KR102655145B1 (en) 2021-07-23 2021-07-23 Unmanned payment system

Country Status (2)

Country Link
JP (1) JP2023016799A (en)
KR (1) KR102655145B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101807205B1 (en) * 2017-06-28 2017-12-08 주식회사 코리아세븐 Unattended payment device, Method for controlling the device, computer program for executing the method, and Apparatus for controlling the device
KR102233126B1 (en) * 2020-08-11 2021-03-26 주식회사 신세계아이앤씨 System and method for verifying barcode scanning

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101586445B1 (en) * 2015-03-26 2016-01-18 (주)아이비허브 Electronic Device for Selling Articles Automatically and System for Selling Articles Automatically Using the Same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101807205B1 (en) * 2017-06-28 2017-12-08 주식회사 코리아세븐 Unattended payment device, Method for controlling the device, computer program for executing the method, and Apparatus for controlling the device
KR102233126B1 (en) * 2020-08-11 2021-03-26 주식회사 신세계아이앤씨 System and method for verifying barcode scanning

Also Published As

Publication number Publication date
JP2023016799A (en) 2023-02-02
KR20230015618A (en) 2023-01-31

Similar Documents

Publication Publication Date Title
JP6709320B2 (en) Accounting method and accounting equipment by convolutional neural network image recognition technology
RU2739542C1 (en) Automatic registration system for a sales outlet
JP2004535030A (en) Automatic clearing system
JP7163604B2 (en) Settlement system, settlement method and program
WO2017056429A1 (en) Information processing device, information processing method, and recording medium storing program
CN103106752A (en) System and method for performing a security check at a checkout terminal
WO2019062812A1 (en) Human-computer interaction device for automatic payment and use thereof
EP4075399A1 (en) Information processing system
JP2018124988A (en) Remote weighing device
JP7264401B2 (en) Accounting methods, devices and systems
CN111222870B (en) Settlement method, device and system
WO2019165895A1 (en) Automatic vending method and system, and vending device and vending machine
JP7384516B2 (en) Information processing device, product recommendation method, program, and system
JP2024040297A (en) Article estimation device, article estimation method, and program
CN111507792A (en) Self-service shopping method, computer readable storage medium and system
KR102655145B1 (en) Unmanned payment system
JP2018185553A (en) Article information reader and program
WO2023188068A1 (en) Product quantity identification device, product quantity identification method, and recording medium
CN110070384B (en) Sales data processing apparatus and control method thereof
US11727470B2 (en) Optical scanning for weights and measures
RU2809136C2 (en) System for determining value of weight product
JP7477664B2 (en) Product data processing system and product data processing method
WO2023144992A1 (en) Store exit management system, store exit management method, and recording medium
WO2023187993A1 (en) Product quantity determination device, product quantity determination method, and recording medium
JP7258939B2 (en) SERVER, PROGRAM AND INFORMATION MANAGEMENT METHOD

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant