KR102655145B1 - Unmanned payment system - Google Patents
Unmanned payment system Download PDFInfo
- Publication number
- KR102655145B1 KR102655145B1 KR1020210096967A KR20210096967A KR102655145B1 KR 102655145 B1 KR102655145 B1 KR 102655145B1 KR 1020210096967 A KR1020210096967 A KR 1020210096967A KR 20210096967 A KR20210096967 A KR 20210096967A KR 102655145 B1 KR102655145 B1 KR 102655145B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- product
- identification information
- scanning
- occupied volume
- Prior art date
Links
- 230000008859 change Effects 0.000 claims abstract description 41
- 230000005856 abnormality Effects 0.000 claims abstract description 26
- 238000004891 communication Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 27
- 238000010191 image analysis Methods 0.000 claims description 13
- 230000007423 decrease Effects 0.000 claims description 10
- 230000004044 response Effects 0.000 claims description 4
- 238000012790 confirmation Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 241000531116 Blitum bonus-henricus Species 0.000 description 1
- 235000008645 Chenopodium bonus henricus Nutrition 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/203—Inventory monitoring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/14—Payment architectures specially adapted for billing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/18—Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/20—Point-of-sale [POS] network systems
- G06Q20/208—Input by product or record sensing, e.g. weighing or scanner processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Geometry (AREA)
- Cash Registers Or Receiving Machines (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
이 명세서는 무인 결제 시스템에 관한 것이다. 일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성될 수 있다.This specification relates to an unmanned payment system. An unmanned payment system according to an embodiment includes a product scanning unit for inputting identification information related to the product; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It may be configured to include a control unit to determine whether there is an abnormality in scanning the product based on the input.
Description
이 명세서는 무인 결제 시스템에 관한 것으로, 더욱 구체적으로 무인 결제 시스템에서 물품의 손실을 방지하는 장치와 방법에 관한 것이다.This specification relates to an unmanned payment system, and more specifically, to a device and method for preventing loss of goods in an unmanned payment system.
최근 대형 마트에 결제 대기 라인을 줄이고 고객 편의를 향상시키기 위하여 무인 결제 창구가 설치되고 있다. 또한, 관리자가 없이 무인 결제 시스템만으로 운영되는 무인 점포도 증가하고 있다.Recently, unmanned payment counters are being installed in large supermarkets to reduce payment waiting lines and improve customer convenience. In addition, the number of unmanned stores that operate only with an unmanned payment system without a manager is increasing.
이와 같은 무인 결제 시스템이 사용자에게 편의성을 제공하는 반면, 구매자가 물품의 일부를 누락시켜 손실이 발생할 여지가 많다. 이러한 손실을 없애거나 줄이려는 노력이 진행되고 있다. 예를 들어, 물품의 중량을 연계하는 시스템이나 물품의 영상을 이용하는 시스템 등이 시도되고 있다.While this unmanned payment system provides convenience to users, there is a lot of room for loss due to buyers missing part of the product. Efforts are underway to eliminate or reduce these losses. For example, systems that link the weight of an item or a system that uses images of the item are being attempted.
하지만, 물품의 중량을 이용하는 시스템은 중량 측정을 위한 저울 장치가 물품을 구매 전에 놓는 선반과 구매 후에 놓는 선반 등에 설치되어야 하는 어려움, 물품의 중량을 사전에 측정해서 저장해야 하는 문제, 물품의 중량 범위가 넓어 정확한 중량 측정이 쉽지 않고 정확한 중량 측정을 위해서는 저울 장치의 가격이 올라가는 문제, 무게 측정 장치를 주기적으로 캘리브레이션 해야 하고 쉽게 고장나는 문제점 등이 있다. 또한, 농수산물이나 식료품 같이 물품마다 중량이 일정하지 않는 물품에는 적용하지 못하는 문제가 있다.However, the system that uses the weight of the product has difficulties in that a scale device for measuring weight must be installed on the shelf where the product is placed before purchase and the shelf where the product is placed after purchase, the problem of having to measure the weight of the product in advance and store it, and the weight range of the product. Because it is wide, it is not easy to measure weight accurately. In order to measure weight accurately, there are problems such as increasing the price of the weighing device, having to calibrate the weighing device periodically, and easily breaking down. In addition, there is a problem that it cannot be applied to products whose weight is not constant for each product, such as agricultural and marine products or foodstuffs.
또한, 카메라를 이용하여 물품의 영상을 촬영하는 시스템에서는, 물품을 잘 인식하기 위해 각 물품에 대해서 여러 방향에서 미리 이미지를 촬영하고 촬영한 이미지를 러닝 모델로 학습시켜야 한다. 하지만, 조명이나 촬영 각도에 따라 물품이 제대로 인식되지 못하거나 인식하는 데 시간이 많이 걸려 물품을 제대로 제때 식별하지 못하고, 또한 물품의 개수가 증가할수록 물품마다 러닝 모델을 훈련시키는 데 비용이 많이 들고 효율성 관점에서 타당하지 않아, 카메라를 이용한 방법은 무인 결제 시스템에 실제로 적용되지 못하고 있다.Additionally, in a system that uses a camera to capture images of an article, in order to recognize the article well, images must be taken in advance for each article from various directions and the captured images must be trained as a learning model. However, depending on the lighting or shooting angle, the item may not be recognized properly or it takes a long time to recognize the item, making it difficult to properly identify the item in a timely manner. Additionally, as the number of items increases, training a learning model for each item becomes expensive and inefficient. Since it is not valid from the perspective, the method using the camera is not actually applied to the unmanned payment system.
또한, 영상을 녹화하고 사후에 녹화한 영상을 분석하여 손실을 파악할 수도 있는데, 이 경우에도 손실이 발생한 이후에야 손실을 확인할 수 있고, 또한 녹화한 영상을 분석하는 데 시간과 비용이 많이 드는 문제가 있다.In addition, it is possible to identify loss by recording video and analyzing the recorded video afterwards. However, in this case, the loss can only be confirmed after the loss has occurred, and there is also the problem that it takes a lot of time and money to analyze the recorded video. there is.
이 명세서는, 이러한 상황을 감안한 것으로, 이 명세서의 목적은 무인 결제 시스템에서 효과적으로 손실을 확인하고 방지하는 방법을 제공하는 데 있다.This specification takes this situation into consideration, and the purpose of this specification is to provide a method to effectively identify and prevent losses in an unmanned payment system.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성되는 것을 특징으로 한다.An unmanned payment system according to an embodiment of the present invention for realizing the above-described problem includes an article scanning unit for inputting identification information related to the article; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It is characterized by including a control unit to determine whether there is an abnormality in the scanning of the product based on the input.
본 발명의 다른 실시예에 따른 무인 결제 시스템은, 식별 정보 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하도록 출력되는 이미지를 분석하는 단계; 이미지 분석을 통해 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어지는 것을 특징으로 한다.The unmanned payment system according to another embodiment of the present invention includes a shelf consisting of a first area where goods before inputting identification information are placed, a second area where identification information is entered, and a third area where goods are placed after inputting identification information. Analyzing an image captured and output to include distance information; calculating the occupied volume of the article in the first to third areas through image analysis; and when a change occurs in the occupied volume of the article in at least one of the first to third areas, determining whether there is an abnormality in the scanning of the article based on the change in occupied volume and input of identification information for the article through the article scanning unit. It is characterized by comprising:
따라서, 무인 결제 시스템에서 결제를 위한 스캔 없이 물품이 반출되는 것을 쉽고 간편하게 감지하게 되고, 이에 따라 매출의 손실을 줄일 수 있게 된다.Therefore, in the unmanned payment system, it is easy and convenient to detect when an item is being taken out without scanning for payment, thereby reducing sales loss.
또한, 물품 인식을 위한 별도의 사전 학습을 필요로 하지 않아 실제 현장에 바로 적용할 수 있다.In addition, it does not require separate prior learning for item recognition, so it can be applied directly to actual sites.
또한, 카메라 영상을 이용하고 러닝 모델을 학습시키는 방법에 비해 낮은 비용으로도 더 높은 인식률로 시스템을 구현할 수 있다.Additionally, compared to methods that use camera images and train a learning model, the system can be implemented with a higher recognition rate at a lower cost.
도 1은 무인 결제 시스템을 구성하는 선반의 영역을 도시한 것이고,
도 2는 무인 결제 시스템에서 물품을 스캔하고 결제하는 각 단계에서 구매자의 행동을 도시한 것이고,
도 3a 내지 도 3c는 구매자가 물품을 계산 전 적치 영역(Z1)에서 스캔 영역(Z2)을 거쳐 스캔 후 적치 영역(Z3)에 이동시키는 과정을 도시한 것이고,
도 4는 이 명세서에 따른 무인 결제 시스템의 구성을 기능 블록으로 도시한 것이고,
도 5는 무인 결제 시스템의 영상 분석부의 구체적인 구성을 기능 블록으로 도시한 것이고,
도 6은 구매자가 물품을 결제하는 과정에서 발생하는 이벤트를 구분하여 각 이벤트의 발생 조건을 구체적으로 설명한 표이고,
도 7은 도 6에 설명한 각 이벤트의 발생을 무인 결제 시스템을 구성하는 선반의 각 영역에서의 공간 점유율의 변화로 표현한 것이고,
도 8a 내지 도 8c는 실제 3D 뎁쓰 카메라를 이용하여 선반을 촬영한 이미지를 무인 결제와 관련한 이벤트를 구성하는 각 동작마다 구분하여 도시한 것이고,
도 9는 이 명세서에 따른 무인 결제 방법에 대한 동작 흐름도를 도시한 것이고,
도 10은 물품 스캔 이상 여부를 판단하는 방법에 대한 동작 흐름도를 도시한 것이다.Figure 1 shows the area of the shelf that constitutes the unmanned payment system,
Figure 2 shows the buyer's actions at each stage of scanning and paying for items in the unmanned payment system,
Figures 3A to 3C show the process by which the buyer moves the goods from the storage area (Z1) before payment through the scanning area (Z2) to the storage area (Z3) after scanning,
Figure 4 shows the configuration of the unmanned payment system according to this specification in functional blocks,
Figure 5 shows the specific configuration of the image analysis unit of the unmanned payment system in functional blocks,
Figure 6 is a table that classifies events that occur in the process of a buyer paying for a product and explains in detail the conditions for occurrence of each event;
Figure 7 expresses the occurrence of each event described in Figure 6 as a change in space occupancy in each area of the shelf constituting the unmanned payment system,
Figures 8a to 8c show images taken of a shelf using an actual 3D depth camera, separated by each action that constitutes an event related to unmanned payment,
Figure 9 shows an operation flow chart for the unmanned payment method according to this specification,
Figure 10 shows an operation flowchart of a method for determining whether an item is scanned abnormally.
이하, 무인 결제 시스템에 대한 실시예를 첨부하는 도면에 의거하여 상세히 설명한다.Hereinafter, an embodiment of the unmanned payment system will be described in detail based on the attached drawings.
도 1은 무인 결제 시스템을 구성하는 선반의 영역을 도시한 것이고, 도 2는 무인 결제 시스템에서 물품을 스캔하고 결제하는 각 단계에서 구매자의 행동을 도시한 것이고, 도 3a 내지 도 3c는 구매자가 물품을 계산 전 적치 영역(Z1)에서 스캔 영역(Z2)을 거쳐 스캔 후 적치 영역(Z3)에 이동시키는 과정을 도시한 것이다.Figure 1 shows the area of the shelf that constitutes the unmanned payment system, Figure 2 shows the buyer's actions at each stage of scanning and paying for the product in the unmanned payment system, and Figures 3A to 3C show the buyer's purchase of the product. This shows the process of moving from the pre-calculation stacking area (Z1) through the scan area (Z2) to the stacking area (Z3) after scanning.
구입한 물품을 구매자 스스로 결제하기 위한 결제 시스템은, 구입한 물품을 올려 놓는 제1 영역(Z1), 구입한 물품의 식별 정보, 즉 물품의 포장지에 인쇄된 바코드나 QR 코드를 스캔하는 제2 영역(Z2) 및 식별 정보가 스캔된 물품을 결제가 완료되기 전까지 올려 놓는 제3 영역(Z3)으로 구성되는 선반 및 제2 영역(Z2)에서 물품을 스캔하기 위한 스캐너(SCANNER)를 구매자 인터페이스로 포함한다.The payment system for the buyer to pay for the purchased product by himself or herself includes a first area (Z1) where the purchased product is placed, and a second area where the identification information of the purchased product, that is, the barcode or QR code printed on the packaging of the product is scanned. A shelf consisting of (Z2) and a third area (Z3) where items with scanned identification information are placed until payment is completed, and a scanner (SCANNER) for scanning items in the second area (Z2) is included as a buyer interface. do.
또한, 결제 시스템은, 식별 정보를 스캔한 물품의 이름과 가격을 표시하기 위한 디스플레이와 물품 스캔이 끝난 물품을 결제하기 위한 결제 수단 등을 더 포함할 수 있다.Additionally, the payment system may further include a display for displaying the name and price of the product whose identification information has been scanned and a payment method for paying for the scanned product.
구매자는, 해당 매장에서 구매한 물품을 무인 결제 시스템을 통해 결제하기 위해 시스템으로 접근하고(Entrance), 도 3a와 같이 구매하기 위해 카트나 바구니에 담은 물품을 선반의 제1 영역(Z1)에 쌓고(Loading), 도 3b와 같이 제1 영역(Z1)에 쌓인 물품을 하나씩 제2 영역(Z2)에 옮겨 물품의 포장지에 인쇄된 바코드 등을 스캐너로 스캔하고(Scanning), 도 3C와 같이 스캔이 완료된 물품을 제3 영역(Z3)에 쌓는다. 구매자는 제1 영역(Z1)에 쌓은 각 물품에 대해 스캔 동작을 반복하여 물품을 모두 스캔하여 제3 영역(Z3)에 쌓으면, 스캔한 물품에 대한 대금을 결제하고, 대금 결제가 완료된 물품을 모두 제 3 영역(Z3)으로부터 바구니나 카트에 옮긴(Unloading) 후 시스템으로부터 퇴장한다(Exit).The buyer accesses the system (entrance) to pay for the items purchased at the store through an unmanned payment system, and stacks the items in the cart or basket for purchase in the first area (Z1) of the shelf, as shown in Figure 3a. (Loading), as shown in Figure 3b, the goods piled up in the first area (Z1) are moved one by one to the second area (Z2) and the barcode printed on the packaging of the goods is scanned with a scanner, and the scanning is performed as shown in Figure 3C. The completed items are stacked in the third area (Z3). The buyer repeats the scanning operation for each item stacked in the first area (Z1), scans all the items, and stacks them in the third area (Z3). Then, the buyer pays for the scanned items and all the items for which payment has been completed. Move it from the third area (Z3) to a basket or cart (Unloading) and then exit the system (Exit).
무인 결제 시스템이 적발하고자 하는 구매자의 부정 행위는 제1 영역(Z1)에 쌓은 물품을 제2 영역(Z2)에서 스캔하지 않고 제3 영역(Z3)으로 이동하는 것이다. 즉, 구매자가 제1 영역(Z1)에 있는 물품을 아예 스캔하지 않고 바로 제3 영역(Z3)으로 옮기거나 제1 영역(Z1)에 있는 둘 이상의 물건을 동시에 옮기면서 하나 이상의 물건에 대해 스캔을 하지 않고 둘 이상의 물건을 제3 영역(Z3)으로 옮기면서 부정 행위를 할 수 있다.The buyer's fraudulent behavior that the unmanned payment system seeks to detect is moving items piled in the first area (Z1) to the third area (Z3) without scanning them in the second area (Z2). That is, the buyer does not scan the items in the first area (Z1) at all and moves them directly to the third area (Z3), or moves two or more items in the first area (Z1) at the same time and does not scan more than one item. You can cheat by moving two or more objects to the third area (Z3) without doing so.
앞서 설명한 것과 같이, 물품의 중량을 이용하는 시스템이나 카메라로 물품의 이미지로 촬영하는 시스템 모두 이러 저러한 문제가 있어서 실제 시스템에 적용되지 못하고 있다. 특히 최근에 물품의 이미지로 딥 러닝 모델을 학습시켜 이용하려는 시도가 계속되고 있지만, 상품의 종류가 많고 새로운 상품이 꾸준히 유입되는 마트 등에서 물품 인식률이 떨어지고 인식 속도가 낮고, 또한 인식률을 올리고 인식 속도를 높이기 위해서는 고가의 카메라, 서버 등을 사용해야 해서 비용이 매우 증가하기 때문에, 실제 제품으로는 출시되지 못하고 있다.As explained earlier, both systems that use the weight of the item and systems that capture the image of the item with a camera have various problems, so they cannot be applied to actual systems. In particular, there have been ongoing attempts to learn and use deep learning models with product images in recent years, but the product recognition rate is low and the recognition speed is low in marts with many types of products and a steady flow of new products. In order to increase the cost, expensive cameras, servers, etc. must be used, which greatly increases the cost, so it has not been released as an actual product.
일반 RBG 카메라는 높은 해상도로 2차원의 영상 데이터를 캡쳐 하고 이를 이미 학습된 인공지능 모델에 입력하므로, 큰 용량의 영상 데이터를 처리해야 하기 때문에, 시스템에 부하가 많이 걸린다.General RBG cameras capture two-dimensional image data at high resolution and input it into an already learned artificial intelligence model, so a large amount of image data must be processed, putting a lot of load on the system.
반면, TOF 카메라나 3D 스테레오 카메라는, 일반 RGB 카메라보다는 해상도가 낮지만, 이미지의 각 포인트까지의 거리 정보를 얻을 수 있기 때문에, 연속되는 포인트의 거리 정보를 이용하여 물품의 면, 모서리, 꼭지점 등의 형상과 관련된 특징을 추출할 수 있고, 이를 근거로 해당 물품이 차지하는 부피를 계산 또는 추정할 수 있다.On the other hand, TOF cameras or 3D stereo cameras have lower resolution than regular RGB cameras, but they can obtain distance information to each point in the image, so they can use the distance information of consecutive points to identify the face, corner, vertex, etc. of the item. Features related to the shape of can be extracted, and based on this, the volume occupied by the item can be calculated or estimated.
이 명세서의 무인 결제 시스템은, 3D 카메라의 특성을 이용하여 물품의 부피를 계산하고, 스캔 이전 물품의 부피 변동과 스캔 이후 물품의 부피 변동의 차이 및 스캔 동작에 동기하여, 물품에 대한 스캔 동작 없이 물품을 반출하는 구매자의 부정 행위를 검출할 수 있다.The unmanned payment system of this specification calculates the volume of the product using the characteristics of the 3D camera, and synchronizes the difference between the volume change of the product before scanning and the volume change of the product after scanning and the scanning operation, without scanning the product. It is possible to detect fraudulent activity by buyers taking out goods.
무인 결제 시스템은, 구매자가 제1 영역(Z1)에 있는 물품을 옮겨 제3 영역(Z3)에 쌓는 과정을 하나의 이벤트로 관리하고, 제2 영역(Z2)에서의 스캔 동작과 이벤트를 동기하여 구매자의 부정 행위 여부를 판단할 수 있다.The unmanned payment system manages the process of a buyer moving items from the first area (Z1) and stacking them in the third area (Z3) as one event, and synchronizes the event with the scanning operation in the second area (Z2). It is possible to determine whether the buyer has committed fraud.
도 4는 이 명세서에 따른 무인 결제 시스템의 구성을 기능 블록으로 도시한 것이고, 도 5는 무인 결제 시스템의 영상 분석부의 구체적인 구성을 기능 블록으로 도시한 것이다.Figure 4 shows the configuration of the unmanned payment system according to this specification in functional blocks, and Figure 5 shows the specific configuration of the image analysis unit of the unmanned payment system in functional blocks.
무인 결제 시스템(1)은, 거리 정보를 포함하는 이미지로 물품을 촬영하고 물품의 바코드를 스캔하고 및 지불 정보를 입력 받기 위한 입력부(10), 입력부(10)가 촬영한 물품에 대해 이미지를 분석하여 물품의 점유 부피를 계산하고 선반에서 물품의 부피의 변동을 검출하고 이를 바코드 스캔과 연계하여 부정 행위에 의한 물품의 도난을 판단하기 위한 제어부(20), 스캔한 물품의 이름과 가격 및 결제할 전체 물품의 가격 등을 화면이나 소리로 출력하기 위한 출력부(30) 및 스캔한 물품의 이름과 가격을 서버에 문의하여 수신하고 지불 정보를 결제 서버에 전송하여 결제 인증에 대한 정보를 받기 위한 통신부(40)를 포함하여 구성될 수 있다.The
입력부(10)는, 선반에 놓인 물품을 3D로 촬영하기 위한 카메라(110), 물품을 식별하기 위해 식별 정보를 스캔하기 위한 물품 스캔부(120) 및 구매한 물품에 대한 대금을 지불하기 위한 지불 정보를 입력하기 위한 지불 정보 입력부(130)를 포함하여 구성될 수 있다. 입력부(10)는 무인 결제 시스템(1)을 이용하여 구매 물품에 대한 결제를 진행하는 구매자의 행동을 촬영하기 위한 2D 카메라를 더 포함할 수 있다.The
카메라(110)로는 이미지를 구성하는 각 포인트까지의 거리 정보를 2차원의 이미지 데이터와 함께 제공하는 3D 뎁쓰 카메라를 채용할 수 있는데, 3D 스테레오 카메라나 TOF 카메라가 이에 해당할 수 있다.The
물품 스캔부(120)는 물품의 포장지나 물품에 인쇄된 식별 정보나 코드, 예를 들어 바코드, QR 코드, 데이터 메트릭스 등을 읽기 위한 장치로, 구매자가 손으로 들고 코드를 스캔하는 형태나 선반의 제2 영역(Z2)의 바닥에 설치되는 형태로 구현될 수 있다. 또는, 물품 스캔부(120)는, RF 신호를 이용할 수도 있는데, RF 신호를 방출하고 방출된 RF 신호에 대응하여 물품이 반사 신호로 RF 신호를 출력하면 이를 물품에 대한 식별 정보로 검출할 수도 있다.The
제어부(20)는 카메라(110)가 선반의 제1 내지 제3 영역(Z1, Z2, Z3)을 촬영한 이미지를 분석하여 선반 위에 놓인 물품이 차지하는 점유 부피를 계산하고 물품의 이동에 따른 부피의 변동을 검출하기 위한 영상 분석부(210) 및 영상 분석부(210)가 분석한 물품의 부피 변동을 물품 스캔부(120)과 연계하여 물품이 스캔 없이 선반의 제1 영역(Z1)에서 제3 영역(Z3)이나 구매자의 바구니나 카트로 바로 옮겨지는지 판단하는 스캔 이상 판단부(220)를 포함할 수 있다.The
출력부(30)는, 구매자가 물품을 스캔할 때마다 해당 물품의 이름과 가격을 표시하고 전체 물품의 총 결제 가격을 표시하고 물품 스캔에 이상이 발생할 때 이를 알리는 경고 문구를 표시하기 위한 디스플레이(310) 및 물품 스캔에 대응하는 소리를 출력하고 물품 스캔에 이상이 발생할 때 이를 경고하는 소리를 출력하기 위한 스피커(320)를 포함하여 구성될 수 있다.The
영상 분석부(210)는, 카메라(110)가 촬영하여 출력하는, 거리 정보를 포함하는, 이미지를 이용하여 선반을 구성하는 각 영역, 즉 제1 내지 제3 영역(Z1, Z2, Z3) 각각에서 물품이 차지하는 점유 부피를 계산하는 부피 계산부(211), 카메라(110)가 출력하는 둘 이상의 이미지를 이용하여 제1 내지 제3 영역(Z1, Z2, Z3)에서 발생하는 움직임을 검출하는 움직임 검출부(212) 및 움직임 검출부(212)에 의해 움직임이 검출될 때 부피 계산부(211)가 출력하는 각 영역에서의 물품의 점유 부피를 근거로 각 영역에서 물품의 점유 부피의 변동을 계산하고 물품의 이동에 해당하는 이벤트인지 결정하고 이벤트를 생성하기 위한 이벤트 생성부(213)를 포함할 수 있다.The
도 2와 도 3을 참조하여 설명한 것과 같이, 구매자는, 무인 결제 시스템에 입장하여 물품을 제1 영역(Z1)에 적치하고, 각 물품에 대해 제2 영역(Z2)에서 해당 물품의 바코드나 QR 코드를 스캔한 후 제3 영역(Z3)에 쌓는 동작을 수행하고 제1 영역(Z1)에 있는 마지막 물품까지 이를 반복하고, 제1 영역(Z1)이 빈 상태가 되고 제3 영역(Z3)에 구매한 모든 물품이 쌓이면 신용 카드 등을 이용하여 결제를 하고 결제가 완료되면 제3 영역(Z3)의 물품을 구매자의 바구니나 카트에 옮긴다.As explained with reference to FIGS. 2 and 3, the buyer enters the unmanned payment system, places the products in the first area (Z1), and enters the product's barcode or QR in the second area (Z2) for each product. After scanning the code, perform a stacking operation in the third area (Z3) and repeat this until the last item in the first area (Z1), then the first area (Z1) becomes empty and the stacking operation is performed in the third area (Z3). When all purchased items are accumulated, payment is made using a credit card, etc., and once payment is completed, the items in the third area (Z3) are moved to the buyer's basket or cart.
이벤트 생성부(213)는 무인 결제 시스템에서 구매자의 정상적인 행동 패턴에 따라 몇 가지 이벤트를 생성할 수 있는데, 무인 결제 시스템에서 발생하는 이벤트와 관련하여 도 6과 도 7을 참조하여 설명한다.The
도 6은 구매자가 물품을 결제하는 과정에서 발생하는 이벤트를 구분하여 각 이벤트의 발생 조건을 구체적으로 설명한 표이고, 도 7은 도 6에 설명한 각 이벤트의 발생을 무인 결제 시스템을 구성하는 선반의 각 영역에서의 공간 점유율의 변화로 표현한 것이다.Figure 6 is a table that classifies events that occur in the process of a buyer paying for a product and explains in detail the conditions for occurrence of each event, and Figure 7 shows the occurrence of each event described in Figure 6 at each shelf constituting the unmanned payment system. It is expressed as a change in space occupancy in the area.
구매자의 무인 결제는 구매자가 무인 결제 시스템에 등장하는 등장 이벤트(EVT-E)로 시작할 수 있다. 영상 분석부(210)의 움직임 검출부(212)가 선반 부근에 사람이 등장하여(Entrance) 카메라(110)가 촬영한 영상에서 움직임을 검출하면, 이벤트 생성부(213)는 등장 이벤트(EVT-E)를 생성할 수 있다. 즉, 이벤트 생성부(213)는 선반의 제1 영역(Z1)과 제3 영역(Z3)이 비어 있고 제2 영역(Z2)에는 아무런 변화가 없는 상태에서 선반 바깥에서 움직임이 검출되면, 등장 이벤트(EVT-E)를 생성할 수 있다. The buyer's unattended payment can begin with an appearance event (EVT-E) where the buyer appears in the unattended payment system. When the
등장 이벤트(EVT-E)가 생성된 상태에서 움직임 검출부(212)가 선반의 제1 영역(Z1)에서 움직임을 검출하고 부피 계산부(211)가 제1 영역(Z1)에서 물품이 차지하는 점유 부피를 계산하되 시간이 경과하면서 점유 부피가 증가하면, 이벤트 생성부(213)는 구매자가 구매한 물품을 선반의 제1 영역(Z1), 즉 스캔 전 영역에 적치하는 동작을 가리키는 로딩 이벤트(EVT-L)를 생성할 수 있다. 이 때, 선반의 제2 영역(Z2)에는 아무런 변화가 없고(No Change) 제3 영역(Z3)은 비어 있는(Empty) 상태여야 한다. 이벤트 생성부(213)는 선반의 제1 영역(Z1)에서 물품의 점유 부피의 증가가 멈출 때까지 로딩 이벤트(EVT-L)를 유지할 수 있다. 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에서 계산되는 부피가 구매자가 구매한 물품의 부피에 해당한다. 도 7에서 제1 영역(Z1)에 적치된 전체 물품의 점유 부피는 A에 해당한다.When an appearance event (EVT-E) is generated, the
로딩 이벤트(EVT-L) 진행 중에 선반의 제3 영역(Z3)에 점유 부피가 계산되면, 스캔 이상 판단부(220)는 이를 스캔 이상, 즉 부정 행위로 간주하여 출력부(30)를 통해 경고할 수 있다.If the occupied volume is calculated in the third area (Z3) of the shelf during the loading event (EVT-L), the scan
로딩 이벤트(EVT-L)가 진행되는 동안 구매자는 매장에서 선택한 물품들을 담은 바구니나 카트에서 물품을 선반의 제1 영역(Z1)으로 순차적으로 옮기는데, 부피 계산부(211)는 구매자가 바구니로부터 제1 영역(Z1)으로 물품을 옮길 때마다 해당 물품의 부피를 계산할 수 있다.While the loading event (EVT-L) is in progress, the buyer sequentially moves the items from the basket or cart containing the items selected in the store to the first area (Z1) of the shelf, and the
또한, 부피 계산부(211)는, 로딩 이벤트(EVT-L)가 진행되면서 물품이 제1 영역(Z1)에 순차적으로 쌓이는 동안 제1 영역(Z1)에서의 계산되는 부피의 변동을 고려하여, 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에 쌓인 전체 물품의 점유 부피를 계산할 수 있다.In addition, the
또한, 부피 계산부(211)는, 로딩 이벤트(EVT-L)가 종료할 때 제1 영역(Z1)에 쌓이는 전체 물품의 점유 부피를 계산하되, 로딩 이벤트(EVT-L) 중 물품을 옮기면서 계산한 각 물품의 부피를 이용하여 전체 물품의 점유 부피를 보정할 수 있다. 또한, 부피 계산부(211)는 구매자가 물품을 옮기는 동안 물품의 부피를 계산할 때 물품을 옮기는 구매자의 손의 부피를 고려하여 물품의 점유 부피를 보정할 수 있다.In addition, the
로딩 이벤트(EVT-L)가 종료된 이후, 구매자는 선반의 제1 영역(Z1)에 쌓인 물품을 순차적으로 제2 영역(Z2)에서 물품 스캐너(120)를 통해 스캔하고 이를 다시 제3 영역(Z3)으로 이동시키는데, 이벤트 생성부(213)는 각 물품을 스캔하여 제3 영역(Z3)으로 이동하는 동작을 스캔 이벤트(EVT-S)로 생성할 수 있다.After the loading event (EVT-L) ends, the buyer sequentially scans the items stacked in the first area (Z1) of the shelf through the
스캔 이벤트(EVT-S)에서, 제1 영역(Z1)에 쌓인 물품의 부피는 스캔하는 물품의 부피만큼 감소하고, 제2 영역(Z2)에서는 구매자가 스캐너(120)를 조작하여 물품을 스캔하고 스캔한 물품을 제3 영역(Z3)으로 이동시키므로 부피의 변화가 발생하고(Change), 제3 영역(Z3)에는 새로운 물품이 더해지므로 물품의 부피가 증가한다.In a scan event (EVT-S), the volume of items piled up in the first area (Z1) is reduced by the volume of the item being scanned, and in the second area (Z2), the buyer operates the
이벤트 생성부(213)는, 카메라(110)가 선반을 촬영하여 출력하는 연속되는 이미지를 이용하여 부피 계산부(211)가 제1 및 제3 영역(Z1, Z3)에서의 계산하는 부피와 움직임 검출부(212)가 제2 영역(Z2)에서 검출하는 움직임을 근거로 스캔 이벤트(EVT-S)로 판정하고, 각 물품의 이동에 대해 스캔 이벤트(EVT-S)를 생성할 수 있다.The
도 6과 도 7에서 첫 번째 물품의 스캔에 대해 스캔1 이벤트(EVT-S1)가 생성되고 마지막 물품의 스캔에 대해 스캔F 이벤트(EVT-SF)가 생성되는데, 스캔F 이벤트(EVT-SF)의 결과로 제3 영역(Z3)의 물품의 점유 부피(A)는, 로딩 이벤트(EVT-L) 이후 제1 영역(Z1)의 물품의 점유 부피(A)와 같거나 소정의 기준 값 이하의 차이가 되어야 한다.In Figures 6 and 7, a Scan1 event (EVT-S1) is generated for the scan of the first item, and a ScanF event (EVT-SF) is generated for the scan of the last item. As a result, the occupied volume (A) of the article in the third zone (Z3) is equal to the occupied volume (A) of the article in the first zone (Z1) after the loading event (EVT-L) or is less than or equal to a predetermined reference value. There has to be a difference.
스캔 이벤트(EVT-S1 ~ EVT-SF)가 진행되는 동안, 도 7에 도시한 것과 같이, 제1 영역(Z1)에서 물품의 점유 부피는 계단 형태로 감소하고, 제2 영역(Z2)에서는 스캔이 진행되는 동안 잠깐 부피가 감지되고, 제3 영역(Z3)에서는 물품의 점유 부피가 계산 형태로 증가한다.While the scan event (EVT-S1 to EVT-SF) is in progress, as shown in FIG. 7, the occupied volume of the article in the first area (Z1) decreases in the form of steps, and in the second area (Z2), the scanned volume decreases. During this process, the volume is sensed briefly, and in the third area (Z3), the occupied volume of the item increases in a calculated form.
스캔 이벤트(EVT-S1 ~ EVT-SF)가 진행되는 동안, 즉 제1 영역(Z1)에서 부피가 줄고 제3 영역(Z3)에서 부피가 증가하지만, 물품 스캔부(120)에서 바코드나 QR 코드와 같은 해당 물품의 식별 정보의 입력이 없어 아무런 출력이 발생하지 않으면, 스캔 이상 판단부(220)는 구매자가 결제를 위한 물품 스캔 동작을 하지 않고 물품을 스캔 이후의 공간, 즉 제3 영역(Z3)으로 이동시킨 것으로 간주하고, 스캔 이상 또는 구매자의 부정 행위로 판단하여 출력부(30)를 통해 경고 메시지나 경고음을 출력할 수 있다.While the scanning event (EVT-S1 to EVT-SF) is in progress, that is, the volume decreases in the first area (Z1) and increases in the third area (Z3), the barcode or QR code is displayed in the
또한, 스캔 이상 판단부(220)는, 각 스캔 이벤트 이후 제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이, 즉 제1 영역(Z1)에서의 부피 감소와 제3 영역(Z3)에서의 부피 증가의 차이가 기준 값 이상일 때도, 스캔 이상 또는 구매자의 부정 행위로 판단하여 출력부(30)를 통해 경고 메시지나 경고음을 출력할 수 있다.In addition, the scan
마지막 스캔 이벤트(EVT-SF)가 종료된 후, 구매자가 지불 정보 입력부(130)에 신용 카드나 스마트 폰의 NFC 기능을 이용하여 결제를 진행하여 결제 서버로부터 결제가 인증되면, 무인 결제 시스템(1)은 결제 완료를 알리는 내용을 출력부(30)에 출력하고 또한 프린터(미도시)를 통해 종이로 출력하거나 구매자의 스마트 폰에 결제 내용을 메시지로 전달할 수 있다.After the last scan event (EVT-SF) ends, the buyer makes a payment using a credit card or the NFC function of the smart phone in the payment
이후 구매자가 제3 영역(Z3)에 쌓인 물품을 바구니나 카트에 옮기는 언로딩 동작을 수행하면, 이벤트 생성부(213)는 언로딩 이벤트(EVT-U)를 생성한다. 이벤트 생성부(213)는 부피 계산부(211)과 움직임 검출부(212)로부터 제1 영역(Z1)의 점유 부피가 없고(Empty) 제2 영역(Z2)에 변화가 없고 제3 영역(Z3)의 점유 부피가 줄어드는 것을 확인하고 언로딩 이벤트(EVT-U)를 생성하되, 제3 영역(Z3)에서 점유 부피가 없어질 때까지 언로딩 이벤트(EVT-U)를 유지할 수 있다.Afterwards, when the buyer performs an unloading operation to move the goods accumulated in the third area Z3 to a basket or cart, the
이후 이벤트 생성부(213)는, 움직임 검출부(212)를 통해 구매자가 카메라(110)가 출력하는 이미지에서 사라지는 것(Exit)을 검출할 때, 퇴장 이벤트(EVT-X)를 생성하여, 한 명의 구매자에 의한 물품의 결제 절차를 마무리할 수 있다.Afterwards, the
도 8a 내지 도 8c는 실제 3D 뎁쓰 카메라를 이용하여 선반을 촬영한 이미지를 무인 결제와 관련한 이벤트를 구성하는 각 동작마다 구분하여 도시한 것이다.Figures 8a to 8c show images taken of a shelf using an actual 3D depth camera, separated by each action that constitutes an event related to unmanned payment.
도 8a에서는 구매자가 2개의 물품을 제1 영역(Z1)에 놓고 있고, 도 8b에서는 구매자가 제1 영역(Z1)에 있는 물품 중에서 하나를 제2 영역(Z2)으로 옮겨 바코드 스캔 동작을 수행하고 있고, 도 8c에서는 구매자가 스캔이 완료된 물품을 제3 영역(Z3)에 옮기고 있다. In Figure 8a, the buyer places two items in the first area (Z1), and in Figure 8b, the buyer moves one of the items in the first area (Z1) to the second area (Z2) and performs a barcode scanning operation. And in Figure 8c, the buyer is moving the scanned item to the third area (Z3).
3D 뎁쓰 카메라(110)는 촬영하는 이미지를 구성하는 각 포인트까지의 거리 정보를 제공한다. 도 8a 내지 도 8c에서는 카메라(110)는 촬영한 이미지를 재구성하여 표시하고 있는데, 고정된 배경에 대해서는 거리와 관련된 정보를 이미지에 표시하지 않고, 배경과 분리된 객체에 대해서만 등고선이나 격자 형태로 거리 정보를 표시하고 있다.The
영상 분석부(210)는, 3D 뎁쓰 카메라(110)가 출력하는 이미지에서 배경과 분리되는 대상에 대한 거리 정보를 이용하여, 대상의 형상과 관련된 특징을 추출하고 이를 이용하여 해당 대상의 부피를 계산할 수 있다.The
도 9는 이 명세서에 따른 무인 결제 방법에 대한 동작 흐름도를 도시한 것이다.Figure 9 shows an operation flow chart for the unmanned payment method according to this specification.
카메라(110)이 무인 결제 시스템의 선반을 촬영한 이미지를 출력하면, 제어부(20)의 영상 분석부(210)(이후 편의를 고려하여 영상 분석부(210)나 스캔 이상 판단부(220)의 동작은 제어부(20)가 동작하는 것으로 설명함)는 선반의 제1 내지 제3 영역(Z1, Z2, Z3)의 이미지를 분석한다(S910).When the
제어부(20)는, 카메라(110)가 출력하는 이미지에 포함된 거리 정보를 이용하여 제1 내지 제3 영역(Z1, Z2, Z3)에서 물품의 점유 부피를 계산한다(S920).The
제어부(20)는, 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 변동이 있는지 여부를 확인한다(S930).The
제어부(20)는, 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 변동이 있으면(S930에서 YES), 각 영역에서의 점유 변동에 대응하는 이벤트를 생성 또는 설정하는데(S940), 도 6과 도 7을 참조하여 설명하였듯이 제1 내지 제3 영역(Z1, Z2, Z3)에서 점유 부피의 조건에 따라 등장 이벤트(EVT-E), 로딩 이벤트(EVT-L), 스캔 이벤트(EVT-S), 언로딩 이벤트(EVT-U), 및 퇴장 이벤트(EVT-X) 중 하나를 생성할 수 있다.If there is a change in occupancy volume in the first to third areas (Z1, Z2, Z3) (YES in S930), the
제어부(20)는, 설정되거나 생성된 이벤트를 물품 스캔부(120)에서의 물품 스캔 동작과 연계하여 물품 스캔에 이상이 있는지 여부를 판단하고 물품 스캔에 이상이 있을 때 출력부(30)를 통해 알릴 수 있다(S950).The
제어부(20)는, 제1 영역(Z1)의 점유 부피가 0인지 확인하여 물품 스캔이 종료되었는지 판단하고(S960), 물품 스캔이 종료되었다고 판단하면(S960에서 YES) 구매자가 결제를 진행하도록 안내할 수 있다(S970).The
도 10은 물품 스캔 이상 여부를 판단하는 방법에 대한 동작 흐름도를 도시한 것으로, 도 10은 스캔 이벤트(EVT-S) 때 발생하는 스캔 이상에 대한 동작을 설명한다.FIG. 10 shows an operation flowchart of a method for determining whether there is an item scanning abnormality, and FIG. 10 explains the operation for a scanning abnormality that occurs during a scan event (EVT-S).
제어부(20)는 스캔 이벤트(EVT-S)가 진행되는 동안 물품 스캔부(120)를 통한 물품의 식별 정보를 스캔하는 동작이 있었는지 확인한다(S1010).The
스캔 이벤트(EVT-S)는 제1 영역(Z1)의 점유 부피가 감소하고 제3 영역(Z3)의 점유 부피가 증가할 때 설정 또는 생성되는데, 해당 스캔 이벤트(EVT-S) 때 물품 스캔이 발생하지 않으면(S1010에서 NO), 제어부(20)는 물품 스캔 이상 또는 구매자의 부정 행위로 판단하고 이를 경고하는 메시지나 경고음을 출력부(30)를 통해 출력할 수 있다(S1040).A scan event (EVT-S) is set or generated when the occupied volume of the first area (Z1) decreases and the occupied volume of the third area (Z3) increases, and the item is scanned at the time of the scan event (EVT-S). If it does not occur (NO in S1010), the
제어부(20)는, 스캔 이벤트(EVT-S) 때 물품 스캔이 발생하는 경우에도(S1010에서 YES), 스캔 이벤트 이후 제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이, 즉 제1 영역(Z1)에서의 부피 감소와 제3 영역(Z3)에서의 부피 증가의 차이가 기준 값 이상인지 여부를 확인한다(S1020).Even when scanning of an article occurs during a scan event (EVT-S) (YES in S1010), the
제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이가 기준 값 이상일 때(S1020에서 YES), 제어부(20)는 물품 스캔 이상 또는 구매자의 부정 행위로 판단하고 이를 경고하는 메시지나 경고음을 출력부(30)를 통해 출력할 수 있다(S1040).When the difference in volume fluctuations in the first and third areas (Z1, Z3) is greater than the reference value (YES in S1020), the
제1 및 제3 영역(Z1, Z3)에서의 부피 변동의 차이가 기준 값보다 작을 때(S1020에서 NO), 제어부(20)는 물품 스캔이 정상적으로 이루어졌다고 판단하고 다음 이벤트로 진행할 수 있다.When the difference in volume variation in the first and third areas Z1 and Z3 is smaller than the reference value (NO in S1020), the
이와 같이 무인 결제 시스템에 3D 카메라를 적용하여 물품의 점유 부피를 계산하고, 점유 부피의 변동과 스캔 동작을 연계하여 구매자가 물품 스캔 없이 물품을 반출하는 부정 행위를 효과적을 적발할 수 있게 된다.In this way, by applying a 3D camera to the unmanned payment system, the occupied volume of the product is calculated, and by linking the change in occupied volume and the scanning operation, it is possible to effectively detect fraudulent behavior in which buyers take out the product without scanning the product.
2D 카메라를 사용하고 학습 모델을 적용하는 시스템에 비해 적은 비용으로 구현할 수 있고, 또한 물품마다 사전 학습을 할 필요가 없어서 현장에 바로 적용할 수 있다.It can be implemented at a lower cost than a system that uses a 2D camera and applies a learning model, and it can be applied right away in the field because there is no need for prior learning for each item.
이 명세서에 기재된 무인 결제 시스템 및 무인 결제 방법은 아래와 같이 설명될 수 있다.The unmanned payment system and unmanned payment method described in this specification can be described as follows.
일 실시예에 따른 무인 결제 시스템은, 물품과 관련된 식별 정보를 입력하기 위한 물품 스캔부; 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라; 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및 이미지를 근거로 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 제1 내지 제3 영역에서 하나 이상의 물품의 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성될 수 있다.An unmanned payment system according to an embodiment includes a product scanning unit for inputting identification information related to the product; To output an image including distance information by photographing a shelf consisting of a first area where items are placed before inputting identification information, a second area where identification information is input, and a third area where items are placed after inputting identification information. 3D camera; a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and calculating the occupied volume of one or more items placed in the first to third areas of the shelf based on the image, and identifying the change in the occupied volume of the one or more items in the first to third areas and the item through the article scanning unit. It may be configured to include a control unit to determine whether there is an abnormality in scanning the product based on the input.
일 실시예에서, 제어부는, 제1 영역이 빈 공간에서 물품으로 채워지고 제2 영역에서 식별 정보의 입력이 없고 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 제1 영역에서 물품의 점유 부피가 줄고 제2 영역에서 부피 변동이 발생하고 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 제1 영역이 빈 공간이고 제2 영역에서 부피 변동이 없고 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성할 수 있다.In one embodiment, the control unit generates a loading event when the first area is filled with an empty space and the second area contains no identification information and the third area is an empty space, and loads the item in the first area. A scan event is generated when the occupied volume decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is empty, there is no volume change in the second area, and the third area is empty. The situation in which the goods in is emptied can be created as an unloading event.
일 실시예에서, 제어부는, 스캔 이벤트에 식별 정보의 입력이 없으면 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the control unit may determine that there is an error in scanning the item if no identification information is input in the scan event.
일 실시예에서, 제어부는 스캔 이벤트에 제1 영역에서의 점유 부피의 변동과 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the control unit may determine that there is an error in scanning an item when the difference between the change in occupied volume in the first area and the change in occupied volume in the third area in the scan event is greater than or equal to a reference value.
일 실시예에서, 제어부는 로딩 이벤트가 진행하는 동안 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산할 수 있다.In one embodiment, the controller may calculate the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while a loading event is in progress.
일 실시예에서, 제어부는, 로딩 이벤트가 진행하는 동안 순차적으로 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 로딩 이벤트 종료된 이후 제1 영역에서 촬영되는 이미지를 근거로 계산한 전체 물품의 점유 부피를 계산된 각 물품의 점유 부피의 합을 이용하여 보정할 수 있다.In one embodiment, the control unit calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the total product volume based on images taken in the first area after the loading event ends. The occupied volume of can be corrected using the calculated sum of the occupied volumes of each article.
일 실시예에서, 식별 정보는, 물품의 표면에 표시되는 바코드 또는 QR 코드 및 물품 스캔부에서 방사되는 RF 신호에 대한 응답으로 물품이 출력하는 RF 신호 중 하나로부터 검출될 수 있다.In one embodiment, identification information may be detected from one of a barcode or QR code displayed on the surface of the article and an RF signal output by the article in response to an RF signal emitted from the article scanning unit.
일 실시예에서, 구매한 물품의 대금 지불을 위한 지불 정보를 입력하기 위한 지불 정보 입력부; 및 구매자가 물품 스캔부를 통해 식별 정보를 입력한 물품에 대한 가격과 물품 정보를 표시하고 제어부로부터 전송되는 물품 스캔의 이상을 알리는 경고를 화면이나 소리로 출력하기 위한 출력부를 더 포함하고, 통신부는 지불 정보 입력부를 통해 입력되는 지불 정보를 지불 서버에 전송하고 지불 서버로부터 지불 정보에 대응하여 지불 확인 정보를 수신할 수 있다.In one embodiment, a payment information input unit for inputting payment information for paying for purchased goods; and an output unit for displaying the price and product information for the product for which the purchaser inputs identification information through the product scanning unit and outputting a warning on screen or in sound indicating an abnormality in the product scan transmitted from the control unit, and the communication department pays. Payment information input through the information input unit may be transmitted to the payment server, and payment confirmation information may be received from the payment server in response to the payment information.
다른 실시예에 따른 무인 결제 방법은, 식별 정보 입력 전의 물품이 놓이는 제1 영역, 식별 정보의 입력이 이루어지는 제2 영역 및 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하도록 출력되는 이미지를 분석하는 단계; 이미지 분석을 통해 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어질 수 있다.An unmanned payment method according to another embodiment involves photographing a shelf consisting of a first area where items before inputting identification information are placed, a second area where identification information is input, and a third area where items are placed after inputting identification information. Analyzing the output image to include information; calculating the occupied volume of the article in the first to third areas through image analysis; and when a change occurs in the occupied volume of the article in at least one of the first to third areas, determining whether there is an abnormality in the scanning of the article based on the change in occupied volume and input of identification information for the article through the article scanning unit. It can be done including.
일 실시예에서, 무인 결제 방법은, 제1 영역이 빈 공간에서 물품으로 채워지고 제2 영역에서 식별 정보의 입력이 없고 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 제1 영역에서 물품의 점유 부피가 줄고 제2 영역에서 부피 변동이 발생하고 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 제1 영역이 빈 공간이고 제2 영역에서 부피 변동이 없고 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하는 단계를 더 포함하여 이루어질 수 있다.In one embodiment, the unmanned payment method generates a loading event when the first area is filled with items in an empty space, there is no input of identification information in the second area, and the third area is an empty space, and a loading event is generated in the first area. A scan event is generated when the occupied volume of the article decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is empty, there is no volume change in the second area, and the occupied volume of the article increases in the third area. The process may further include generating an unloading event when an item in area 3 is emptied.
일 실시예에서, 판단하는 단계는 스캔 이벤트에 식별 정보의 입력이 없으면 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the determining step may determine that there is an error in scanning the item if no identification information is input in the scan event.
일 실시예에서, 판단하는 단계는 스캔 이벤트에 제1 영역에서의 점유 부피의 변동과 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 물품 스캔에 이상이 있다고 판단할 수 있다.In one embodiment, the determining step may determine that there is an abnormality in scanning the item when the difference between the change in occupied volume in the first area and the change in occupied volume in the third area in the scan event is greater than or equal to a reference value.
일 실시예에서, 계산하는 단계는 로딩 이벤트가 진행하는 동안 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산할 수 있다.In one embodiment, the calculating step may calculate the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while a loading event is in progress.
일 실시예에서, 계산하는 단계는, 로딩 이벤트가 진행하는 동안 순차적으로 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 로딩 이벤트 종료된 이후 제1 영역에서 촬영되는 이미지를 근거로 계산한 전체 물품의 점유 부피를 계산된 각 물품의 점유 부피의 합을 이용하여 보정할 수 있다.In one embodiment, the calculating step calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the occupied volume based on the image taken in the first area after the loading event ends. The occupied volume of all products can be corrected using the calculated sum of the occupied volumes of each product.
일 실시예에서, 무인 결제 방법은, 스캔 이벤트 때 물품 스캔부를 통해 식별 정보가 입력된 물품에 대한 가격과 물품 정보를 표시하는 단계; 물품 스캔에 이상이 발생하였다고 판단되었을 때 이를 화면이나 소리로 출력하는 단계; 및 물품 스캔에 이상이 발생하지 않은 상태로 제1 영역이 빈 영역으로 바뀔 때, 결제를 진행하는 단계를 더 포함하여 이루어질 수 있다.In one embodiment, the unmanned payment method includes displaying the price and product information for the product for which identification information is input through the product scanning unit during a scan event; A step of outputting this on screen or in sound when it is determined that an abnormality has occurred in scanning the product; And when the first area changes to a blank area without any abnormality occurring in scanning the product, the step of proceeding with payment may be further included.
본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.The present invention is not limited to the described embodiments, and it is obvious to those skilled in the art that various modifications and changes can be made without departing from the spirit and scope of the present invention. Accordingly, such modifications or variations should be considered to fall within the scope of the claims of the present invention.
1: 무인 결제 시스템 10: 입력부
20: 제어부 30: 출력부
40: 통신부 110: 카메라
120: 물품 스캔부 130: 지불 정보 입력부
210: 영상 분석부 211: 부피 계산부
212: 움직임 검출부 213: 이벤트 생성부
220: 스캔 이상 판단부 310: 디스플레이
320: 스피커1: Unmanned payment system 10: Input unit
20: control unit 30: output unit
40: Communication unit 110: Camera
120: product scanning unit 130: payment information input unit
210: Image analysis unit 211: Volume calculation unit
212: motion detection unit 213: event generation unit
220: Scan abnormality determination unit 310: Display
320: speaker
Claims (15)
상기 식별 정보의 입력 전의 물품이 놓이는 제1 영역, 상기 식별 정보의 입력이 이루어지는 제2 영역 및 상기 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 촬영하여 거리 정보를 포함하는 이미지를 출력하기 위한 3D 카메라;
상기 물품 스캔부가 출력하는 식별 정보를 서버에 전송하고 해당 물품에 대한 가격과 이름을 포함하는 물품 정보를 수신하기 위한 통신부; 및
상기 이미지를 근거로 상기 선반의 제1 내지 제3 영역에 놓이는 하나 이상의 물품의 점유 부피를 계산하고, 상기 제1 내지 제3 영역에서 상기 하나 이상의 물품의 점유 부피의 변동과 상기 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 상기 물품 스캔의 이상 여부를 판단하기 위한 제어부를 포함하여 구성되고,
상기 제어부는, 상기 제1 영역이 빈 공간에서 물품으로 채워지고 상기 제2 영역에서 상기 식별 정보의 입력이 없고 상기 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 상기 제1 영역에서 물품의 점유 부피가 줄고 상기 제2 영역에서 부피 변동이 발생하고 상기 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 상기 제1 영역이 빈 공간이고 상기 제2 영역에서 부피 변동이 없고 상기 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하고, 상기 스캔 이벤트에 상기 제1 영역에서의 점유 부피의 변동과 상기 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 시스템.an article scanning unit for inputting identification information related to the article;
An image containing distance information is created by photographing a shelf consisting of a first area where the goods before the input of the identification information are placed, a second area where the identification information is entered, and a third area where the goods are placed after the input of the identification information. 3D camera for printing;
a communication unit for transmitting the identification information output by the product scanning unit to a server and receiving product information including the price and name of the product; and
Calculate the occupied volume of one or more items placed in first to third areas of the shelf based on the image, and calculate the change in occupied volume of the one or more items in the first to third areas and the product through the item scanning unit. It is configured to include a control unit for determining whether there is an abnormality in scanning the article based on input of identification information for,
The control unit generates a loading event when the first area is filled with an empty space and the identification information is not input in the second area and the third area is an empty space, and the product is stored in the first area. A scan event is generated in which the occupied volume of the article decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is an empty space and the volume change occurs in the second area. An unloading event is generated in which the goods in the third area are emptied, and the scan event is based on the difference between the change in occupied volume in the first area and the change in occupied volume in the third area. An unmanned payment system characterized in that it is determined that there is an error in scanning the item when the value is greater than or equal to the value.
상기 제어부는, 상기 스캔 이벤트에 상기 식별 정보의 입력이 없으면 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 시스템.According to claim 1,
The control unit determines that there is a problem in scanning the product if the identification information is not input in the scan event.
상기 제어부는 상기 로딩 이벤트가 진행하는 동안 상기 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산하는 것을 특징으로 하는 무인 결제 시스템.According to claim 1,
The control unit calculates the occupied volume of all items purchased by the buyer based on changes in images captured in the first area while the loading event is in progress.
상기 제어부는, 상기 로딩 이벤트가 진행하는 동안 순차적으로 상기 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 상기 로딩 이벤트 종료된 이후 상기 제1 영역에서 촬영되는 이미지를 근거로 계산한 상기 전체 물품의 점유 부피를 상기 계산된 각 물품의 점유 부피의 합을 이용하여 보정하는 것을 특징으로 하는 무인 결제 시스템.According to clause 5,
The control unit calculates the occupied volume of each article sequentially moving to the first area while the loading event is in progress, and the total volume calculated based on the image taken in the first area after the loading event ends. An unmanned payment system characterized in that the occupied volume of an article is corrected using the calculated sum of the occupied volume of each article.
상기 식별 정보는, 물품의 표면에 표시되는 바코드 또는 QR 코드 및 상기 물품 스캔부에서 방사되는 RF 신호에 대한 응답으로 물품이 출력하는 RF 신호 중 하나로부터 검출되는 것을 특징으로 하는 무인 결제 시스템.According to claim 1,
The identification information is an unmanned payment system characterized in that it is detected from one of a barcode or QR code displayed on the surface of the product and an RF signal output by the product in response to an RF signal emitted from the product scanning unit.
구매한 물품의 대금 지불을 위한 지불 정보를 입력하기 위한 지불 정보 입력부; 및
구매자가 상기 물품 스캔부를 통해 식별 정보를 입력한 물품에 대한 가격과 물품 정보를 표시하고 상기 제어부로부터 전송되는 물품 스캔의 이상을 알리는 경고를 화면이나 소리로 출력하기 위한 출력부를 더 포함하고,
상기 통신부는 상기 지불 정보 입력부를 통해 입력되는 지불 정보를 지불 서버에 전송하고 상기 지불 서버로부터 상기 지불 정보에 대응하여 지불 확인 정보를 수신하는 것을 특징으로 하는 무인 결제 시스템.According to claim 1,
A payment information input unit for entering payment information for paying for purchased goods; and
It further includes an output unit for displaying the price and product information for the product for which the buyer has entered identification information through the product scanning unit and outputting a warning on screen or in sound indicating an abnormality in the product scan transmitted from the control unit,
The communication unit transmits payment information input through the payment information input unit to a payment server and receives payment confirmation information corresponding to the payment information from the payment server.
상기 물품 식별부를 통한 식별 정보 입력 전의 물품이 놓이는 제1 영역, 상기 식별 정보의 입력이 이루어지는 제2 영역 및 상기 식별 정보의 입력 후의 물품이 놓이는 제3 영역으로 구성되는 선반을 상기 3D 카메라가 촬영하여 거리 정보를 포함하도록 출력하는 이미지를 상기 제어부가 분석하는 단계;
상기 제어부가 상기 제1 영역이 빈 공간에서 물품으로 채워지고 상기 제2 영역에서 상기 식별 정보의 입력이 없고 상기 제3 영역이 빈 공간인 상황을 로딩 이벤트로 생성하고, 상기 제1 영역에서 물품의 점유 부피가 줄고 상기 제2 영역에서 부피 변동이 발생하고 상기 제3 영역에서 물품의 점유 부피가 증가하는 상황을 스캔 이벤트로 생성하고, 상기 제1 영역이 빈 공간이고 상기 제2 영역에서 부피 변동이 없고 상기 제3 영역에 있는 물품이 비워지는 상황을 언로딩 이벤트로 생성하는 단계;
상기 제어부가 상기 이미지 분석을 통해 상기 제1 내지 제3 영역에서 물품의 점유 부피를 계산하는 단계; 및
상기 제1 내지 제3 영역 중 적어도 하나의 영역에서 물품의 점유 부피에 변동이 발생할 때, 상기 제어부가 상기 점유 부피의 변동과 물품 스캔부를 통한 물품에 대한 식별 정보 입력을 근거로 상기 물품 스캔의 이상 여부를 판단하는 단계를 포함하여 이루어지고,
상기 판단하는 단계는, 상기 스캔 이벤트에 상기 제1 영역에서의 점유 부피의 변동과 상기 제3 영역에서의 점유 부피의 변동의 차이가 기준 값 이상일 때 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 방법.In an unmanned payment system including an item identification unit, a 3D camera, and a control unit,
The 3D camera photographs a shelf consisting of a first area where the product is placed before inputting the identification information through the product identification unit, a second area where the identification information is input, and a third area where the product is placed after the input of the identification information. The control unit analyzing the output image to include distance information;
The control unit generates a loading event in a situation where the first area is filled with an empty space and the identification information is not input in the second area and the third area is an empty space, and the first area is filled with goods. A scan event is generated when the occupied volume decreases, a volume change occurs in the second area, and the occupied volume of the article increases in the third area, and the first area is an empty space and a volume change occurs in the second area. generating an unloading event in a situation in which the goods in the third area are empty;
The control unit calculating an occupied volume of an article in the first to third areas through the image analysis; and
When a change occurs in the occupied volume of an article in at least one of the first to third areas, the control unit detects an abnormality in scanning the article based on the change in the occupied volume and input of identification information for the article through the article scanning unit. It includes the step of determining whether or not
The determining step is characterized in that it is determined that there is an abnormality in scanning the article when the difference between the change in the occupied volume in the first area and the change in the occupied volume in the third area in the scan event is greater than a reference value. Unmanned payment method.
상기 판단하는 단계는, 상기 스캔 이벤트에 상기 식별 정보의 입력이 없으면 상기 물품 스캔에 이상이 있다고 판단하는 것을 특징으로 하는 무인 결제 방법.According to clause 9,
The determining step is an unmanned payment method characterized in that it is determined that there is a problem in scanning the item if the identification information is not input in the scan event.
상기 계산하는 단계는, 상기 로딩 이벤트가 진행하는 동안 상기 제1 영역에서 촬영되는 이미지의 변동을 근거로 구매자가 구매한 전체 물품의 점유 부피를 계산하는 것을 특징으로 하는 무인 결제 방법.According to clause 9,
The calculating step is an unmanned payment method characterized in that the occupied volume of all items purchased by the buyer is calculated based on changes in images captured in the first area while the loading event is in progress.
상기 계산하는 단계는, 상기 로딩 이벤트가 진행하는 동안 순차적으로 상기 제1 영역으로 이동하는 각 물품의 점유 부피를 계산하고, 상기 로딩 이벤트 종료된 이후 상기 제1 영역에서 촬영되는 이미지를 근거로 계산한 상기 전체 물품의 점유 부피를 상기 계산된 각 물품의 점유 부피의 합을 이용하여 보정하는 것을 특징으로 하는 무인 결제 방법.According to claim 13,
The calculating step calculates the occupied volume of each item sequentially moving to the first area while the loading event is in progress, and calculates the occupied volume based on the image taken in the first area after the loading event ends. An unmanned payment method characterized in that the occupied volume of all products is corrected using the calculated sum of occupied volumes of each product.
상기 스캔 이벤트 때 상기 물품 스캔부를 통해 식별 정보가 입력된 물품에 대한 가격과 물품 정보를 표시하는 단계;
상기 물품 스캔에 이상이 발생하였다고 판단되었을 때 이를 화면이나 소리로 출력하는 단계; 및
상기 물품 스캔에 이상이 발생하지 않은 상태로 상기 제1 영역이 빈 영역으로 바뀔 때, 결제를 진행하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 무인 결제 방법.According to clause 9,
displaying price and product information for the product for which identification information is input through the product scanning unit during the scan event;
When it is determined that an abnormality has occurred in the scanning of the product, outputting this on a screen or in sound; and
An unmanned payment method, characterized in that it further includes the step of proceeding with payment when the first area changes to a blank area without any abnormality occurring in scanning the product.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210096967A KR102655145B1 (en) | 2021-07-23 | 2021-07-23 | Unmanned payment system |
JP2022118169A JP2023016799A (en) | 2021-07-23 | 2022-07-25 | Unmanned settlement system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210096967A KR102655145B1 (en) | 2021-07-23 | 2021-07-23 | Unmanned payment system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230015618A KR20230015618A (en) | 2023-01-31 |
KR102655145B1 true KR102655145B1 (en) | 2024-04-04 |
Family
ID=85109066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210096967A KR102655145B1 (en) | 2021-07-23 | 2021-07-23 | Unmanned payment system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023016799A (en) |
KR (1) | KR102655145B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101807205B1 (en) * | 2017-06-28 | 2017-12-08 | 주식회사 코리아세븐 | Unattended payment device, Method for controlling the device, computer program for executing the method, and Apparatus for controlling the device |
KR102233126B1 (en) * | 2020-08-11 | 2021-03-26 | 주식회사 신세계아이앤씨 | System and method for verifying barcode scanning |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101586445B1 (en) * | 2015-03-26 | 2016-01-18 | (주)아이비허브 | Electronic Device for Selling Articles Automatically and System for Selling Articles Automatically Using the Same |
-
2021
- 2021-07-23 KR KR1020210096967A patent/KR102655145B1/en active IP Right Grant
-
2022
- 2022-07-25 JP JP2022118169A patent/JP2023016799A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101807205B1 (en) * | 2017-06-28 | 2017-12-08 | 주식회사 코리아세븐 | Unattended payment device, Method for controlling the device, computer program for executing the method, and Apparatus for controlling the device |
KR102233126B1 (en) * | 2020-08-11 | 2021-03-26 | 주식회사 신세계아이앤씨 | System and method for verifying barcode scanning |
Also Published As
Publication number | Publication date |
---|---|
JP2023016799A (en) | 2023-02-02 |
KR20230015618A (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6709320B2 (en) | Accounting method and accounting equipment by convolutional neural network image recognition technology | |
RU2739542C1 (en) | Automatic registration system for a sales outlet | |
JP2004535030A (en) | Automatic clearing system | |
JP7163604B2 (en) | Settlement system, settlement method and program | |
WO2017056429A1 (en) | Information processing device, information processing method, and recording medium storing program | |
CN103106752A (en) | System and method for performing a security check at a checkout terminal | |
WO2019062812A1 (en) | Human-computer interaction device for automatic payment and use thereof | |
EP4075399A1 (en) | Information processing system | |
JP2018124988A (en) | Remote weighing device | |
JP7264401B2 (en) | Accounting methods, devices and systems | |
CN111222870B (en) | Settlement method, device and system | |
WO2019165895A1 (en) | Automatic vending method and system, and vending device and vending machine | |
JP7384516B2 (en) | Information processing device, product recommendation method, program, and system | |
JP2024040297A (en) | Article estimation device, article estimation method, and program | |
CN111507792A (en) | Self-service shopping method, computer readable storage medium and system | |
KR102655145B1 (en) | Unmanned payment system | |
JP2018185553A (en) | Article information reader and program | |
WO2023188068A1 (en) | Product quantity identification device, product quantity identification method, and recording medium | |
CN110070384B (en) | Sales data processing apparatus and control method thereof | |
US11727470B2 (en) | Optical scanning for weights and measures | |
RU2809136C2 (en) | System for determining value of weight product | |
JP7477664B2 (en) | Product data processing system and product data processing method | |
WO2023144992A1 (en) | Store exit management system, store exit management method, and recording medium | |
WO2023187993A1 (en) | Product quantity determination device, product quantity determination method, and recording medium | |
JP7258939B2 (en) | SERVER, PROGRAM AND INFORMATION MANAGEMENT METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |