KR20230152961A - Electronic device to prevent theft of goods stored in cashierless store and operation method thereof - Google Patents
Electronic device to prevent theft of goods stored in cashierless store and operation method thereof Download PDFInfo
- Publication number
- KR20230152961A KR20230152961A KR1020220052558A KR20220052558A KR20230152961A KR 20230152961 A KR20230152961 A KR 20230152961A KR 1020220052558 A KR1020220052558 A KR 1020220052558A KR 20220052558 A KR20220052558 A KR 20220052558A KR 20230152961 A KR20230152961 A KR 20230152961A
- Authority
- KR
- South Korea
- Prior art keywords
- buyer
- product
- image
- electronic device
- hand
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 85
- 238000013135 deep learning Methods 0.000 claims abstract description 40
- 230000001815 facial effect Effects 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims description 52
- 239000000284 extract Substances 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000015654 memory Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000002265 prevention Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000003708 edge detection Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003706 image smoothing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/18—Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0036—Checkout procedures
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/14—Central alarm receiver or annunciator arrangements
Abstract
무인점포에 비치된 상품의 도난을 방지하는 전자장치가 개시된다. 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치는 카메라부, 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부 및 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고, 상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고, 상기 상품의 ID(identification) 및 상기 구매자를 매칭하고, 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 프로세서를 포함할 수 있다.An electronic device that prevents the theft of products stored in unmanned stores is disclosed. According to an embodiment of the present invention, an electronic device for preventing the theft of products displayed in an unmanned store includes a camera unit, a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store, and a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store. When entering a store, the camera unit is controlled to capture the buyer's face to create a facial image, perform deep learning on the buyer's appearance based on the stored image, and perform deep learning based on the deep learning results. The buyer is identified and matched with the face image, and based on the image captured by the camera unit, it is determined whether the product is picked by the buyer, and the product's ID (identification) and When matching the buyer, and a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, It may include a processor that transmits information about the time the buyer left the payment area of the unmanned store to the store owner's user terminal.
Description
본 발명은 무인점포에 비치된 상품의 도난을 방지하는 전자장치 및 이의 동작방법에 대한 것으로, 보다 상세하게는 무인점포 내에서의 도난을 사전에 방지하고, 도난 발생 시 적발이 가능한 전자장치 및 이의 동작방법에 대한 것이다.The present invention relates to an electronic device that prevents theft of products stored in an unmanned store and a method of operating the same. More specifically, an electronic device that prevents theft in an unmanned store in advance and detects theft when it occurs, and a method of operating the same. It's about how it works.
최근 빅데이터, 인공지능, 사물인터넷 등의 기술이 발달됨에 따라 실생활에 제공되는 서비스에 대한 전반적인 개선이 이루어지고 있다. 특히, 빅데이터에 기반하여 인간의 행위를 딥러닝함으로써 실 생활에 편의를 제공하고 사업 비용을 절감하는 기술이 발전하고 있다.Recently, with the development of technologies such as big data, artificial intelligence, and the Internet of Things, overall improvements are being made to services provided in real life. In particular, technology is developing to provide convenience in real life and reduce business costs by deep learning human behavior based on big data.
이러한 기술 발달은 계산대에 줄을 서고, 지갑에서 카드나 현금을 꺼내 결제를 진행하는 기존의 구매 및 결제 프로세스를 개선하고자 하는 욕구를 반영하여 오프라인 쇼핑 분야에 혁신적인 바람을 불어넣고 있다.These technological developments are bringing innovation to the offline shopping sector, reflecting the desire to improve the traditional purchase and payment process of lining up at the checkout counter and paying with a card or cash from the wallet.
미국의 전자상거래 기업 아마존(Amazon)은 무인 결제시스템을 결합한 '아마존고(Amazon Go)' 서비스를 확대하고 있다. 아마존고는 자신의 개인정보에 대응되는 바코드를 찍고 점포에 입장하여 물건을 집어 매장을 나서기만 하면 스마트폰의 어플리케이션과 연동되어 결제가 완료되는 시스템을 선보인 바 있다.Amazon, an American e-commerce company, is expanding its 'Amazon Go' service, which combines an unmanned payment system. Amazon Go has introduced a system in which payment is completed by linking with a smartphone application by simply scanning the barcode corresponding to one's personal information, entering the store, picking up an item, and leaving the store.
본 발명의 배경이 되는 기술의 일 예로, 대한민국 공개특허공보 제10-2021-0075833호(2021.06.23.)는 무인상점에 출입을 원하는 사용자의 생체정보를 획득하는 사용자 인식 모듈, 사용자가 제공하는 카드에 저장된 생체정보를 추출하는 카드 인식 모듈 및 사용자 인식 모듈에서 획득한 생체정보와 카드 인식 모듈에서 추출한 생체정보를 비교하여 사용자를 인증하는 사용자 인증 모듈을 포함하는 무인상점에서의 사용자 인증 시스템을 개시한다.As an example of the technology behind the present invention, Republic of Korea Patent Publication No. 10-2021-0075833 (2021.06.23.) is a user recognition module that acquires biometric information of a user who wants to enter an unmanned store, and Launch of a user authentication system in an unmanned store that includes a card recognition module that extracts biometric information stored in the card and a user authentication module that authenticates the user by comparing the biometric information obtained from the user recognition module with the biometric information extracted from the card recognition module. do.
상술한 바와 같이, 최근 무인점포가 활성화되고 있으나 무인점포 기술이 해결하지 못한 부분들이 있다. 예를 들어, 무인점포 관련하여 담배, 주류와 같이 성인인증이 필요한 상품에 대한 성인인증 기술이나, 도난 방지 기술에 대하여는 아직 보완해야 할 부분이 많은 실정이다.As mentioned above, unmanned stores have recently become active, but there are some issues that unmanned store technology has not been able to solve. For example, in relation to unmanned stores, there are still many areas that need to be supplemented in terms of adult authentication technology for products that require adult authentication, such as cigarettes and alcohol, and theft prevention technology.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공하는 것을 목적으로 한다.The present invention was devised to solve the above-mentioned problems. The present invention is a method of preventing the theft of products by tracking the behavior of buyers in unmanned stores and quickly responding in the event of theft through profiling of non-payment events. The purpose is to provide.
본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치는 카메라부, 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부 및 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고, 상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고, 상기 상품의 ID(identification) 및 상기 구매자를 매칭하고, 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 프로세서를 포함할 수 있다.An electronic device for preventing the theft of products displayed in an unmanned store according to various embodiments of the present invention includes a camera unit, a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store, and a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store. When entering a store, the camera unit is controlled to capture the buyer's face to create a facial image, perform deep learning on the buyer's appearance based on the stored image, and perform deep learning based on the deep learning results. The buyer is identified and matched with the face image, and based on the image captured by the camera unit, it is determined whether the product is picked by the buyer, and the product's ID (identification) and When matching the buyer, and a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, It may include a processor that transmits information about the time the buyer left the payment area of the unmanned store to the store owner's user terminal.
또한, 본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정, 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하는 과정, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하는 과정, 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정, 상기 상품의 ID 및 상기 구매자를 매칭하는 과정 및 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정을 포함할 수 있다.In addition, a method of operating an electronic device for preventing theft of products stored in an unmanned store according to various embodiments of the present invention includes the process of storing a video of a buyer purchasing a product stored in the unmanned store, When entering an unmanned store, a process of generating a facial image by photographing the face of the buyer, a process of performing deep learning on the appearance of the buyer based on the stored image, and the process of performing deep learning on the appearance of the buyer based on the performed deep learning results. A process of specifying a buyer and matching the face image, a process of determining whether the product is picked by the buyer based on the image captured by the camera unit, a process of matching the ID of the product and the buyer, and If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. It may include a process of transmitting information about the time of departure from the payment area to the store owner's user terminal.
본 발명의 다양한 실시 예에 따르면, 본 발명은 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공할 수 있다.According to various embodiments of the present invention, the present invention prevents the theft of products by tracking the behavior of buyers within an unmanned store, and provides a method of quickly responding in the event of theft through profiling of non-payment events. .
도 1은 본 발명의 일 실시 예에 따른 무인점포 도난 방지 시스템에 대한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 무인점포 서버의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 구매자를 촬영한 영상이다.
도 4는 본 발명의 일 실시 예에 따른 구매자의 손을 촬영한 영상이다.
도 5는 본 발명의 일 실시 예에 따른 전자장치의 세부 구성도이다.
도 6은 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법에 대한 흐름도이다.1 is a diagram of an unmanned store theft prevention system according to an embodiment of the present invention.
Figure 2 is a block diagram of an unmanned store server according to an embodiment of the present invention.
Figure 3 is an image taken of a purchaser according to an embodiment of the present invention.
Figure 4 is an image of a buyer's hand according to an embodiment of the present invention.
Figure 5 is a detailed configuration diagram of an electronic device according to an embodiment of the present invention.
Figure 6 is a flowchart of a method of operating an electronic device that prevents the theft of products stored in an unmanned store according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the attached drawings. Additionally, when describing embodiments of the invention, if it is determined that a detailed description of a related known function or configuration may obscure the gist of the present disclosure, the detailed description will be omitted. The terms used below are defined in consideration of the functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definitions of terms used should be interpreted based on the content and corresponding functions throughout this specification.
도 1은 본 발명의 일 실시 예에 따른 무인점포 도난 방지 시스템에 대한 도면이다.1 is a diagram of an unmanned store theft prevention system according to an embodiment of the present invention.
무인점포 도난 방지 시스템(10)은 점주 사용자 단말(10), 무인점포 서버(200) 및 외부 서버(300)를 포함할 수 있다. 여기서, 점주 사용자 단말(10), 무인점포 서버(200) 및 외부 서버(300)는 PC, 태블릿 PC, 스마트폰, 서버 등 다양한 기기로 구현될 수 있다.The unmanned store
점주 사용자 단말(100)은 무인점포의 점주가 사용하는 사용자 단말이다. 일반적으로, 점주 사용자 단말(100)은 무인점포 외부에서 무인점포의 관리, 재고관리, 비용관리, 점포상황 모니터링 등을 수행할 수 있다.The store
일 예로, 점주 사용자 단말(100)은 후술할 인점포 서버(200)와의 통신을 통해 무인점포의 실시간 상황을 전달받을 수 있다. 점주 사용자 단말(100)은 무인점포에서 도난(또는 절도) 발생 시 관련 정보를 통지받을 수 있다. 점주 사용자 단말(100)은 점주의 입력에 의해 무인점포 서버(200)에 대한 제어 신호를 송신하여 도난 사건(또는 미 결제 사건)의 처리 과정을 진행할 수 있다.As an example, the store
무인점포 서버(200)는 무인점포 도난 방지 시스템(10)을 전반적으로 제어할 수 있다. 여기서, 무인점포 서버(200)는 전자장치, 전자기기, 서버, 사용자 단말 등 다양한 용어로 정의될 수 있다.The
무인점포 서버(200)는 구매자가 무인점포에 입장하는 순간부터 퇴장하는 순간까지 구매자를 촬영할 수 있다. 무인점포 서버(200)는 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하거나 저장된 영상을 삭제할 수 있다.The
일 예로, 무인점포 서버(200)는 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성할 수 있다. 이 경우, 무인점포 서버(200)는 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행할 수 있다. 또한, 무인점포 서버(200)는 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭할 수 있다. For example, when a buyer enters an unmanned store, the
머신 러닝의 일종인 딥러닝(deep learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 과정을 포함할 수 있다. 딥러닝은 단계를 높여가면서 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.Deep learning technology, a type of machine learning, can involve the process of learning down to a deep level in multiple stages based on data. Deep learning can represent a set of machine learning algorithms that extract key data from data at increasing levels.
딥러닝 구조는 인공신경망(ANN)을 포함할 수 있으며, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(DNN)으로 구성될 수 있다. The deep learning structure may include an artificial neural network (ANN). For example, the deep learning structure consists of deep neural networks (DNN) such as convolutional neural network (CNN), recurrent neural network (RNN), and deep belief network (DBN). It can be.
본 실시 예에 따른 딥러닝 구조는 공지된 다양한 구조를 이용할 수 있다. 예를 들어, 본 발명에 따른 딥러닝 구조는 CNN, RNN, DBN 등을 포함할 수 있다. RNN은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아 올려 인공신경망 구조를 구성할 수 있다. DBN은 딥러닝 기법인 RBM(restricted boltzman machine)을 다층으로 쌓아 구성되는 딥러닝 구조를 포함할 수 있다. RBM 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN을 구성할 수 있다. The deep learning structure according to this embodiment can use various known structures. For example, the deep learning structure according to the present invention may include CNN, RNN, DBN, etc. RNN is widely used in natural language processing, etc., and is an effective structure for processing time-series data that changes over time. It can build an artificial neural network structure by stacking layers at every moment. DBN may include a deep learning structure composed of multiple layers of restricted boltzman machine (RBM), a deep learning technique. By repeating RBM learning, when a certain number of layers are reached, a DBN with that number of layers can be constructed.
CNN은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출되는 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델을 포함할 수 있다.CNN can include a model that simulates human brain function, which is created based on the assumption that when a person recognizes an object, the basic features of the object are extracted, then complex calculations are performed in the brain, and the object is recognized based on the results. there is.
한편, 인공신경망의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(back propagation) 등의 방법이 사용될 수 있다.Meanwhile, learning of an artificial neural network can be accomplished by adjusting the weight of the connection lines between nodes (adjusting the bias value if necessary) to produce the desired output for a given input. Additionally, artificial neural networks can continuously update weight values through learning. Additionally, methods such as back propagation can be used to learn artificial neural networks.
또한, 무인점포 서버(200)는 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상기 상품을 피킹(picking)한 것으로 판단하고, 상품의 ID(identification) 및 구매자를 매칭할 수 있다.In addition, the
또한, 무인점포 서버(200)는 카메라부(210)에 의해 촬영되는 영상에 기초하여, 구매자에 의해 상품이 피킹(picking)되는지 여부를 판단할 수 있다.Additionally, the
무인점포 서버(200)는 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자를 피킹한 상품에 대한 미 결제자로 결정할 수 있다. 이 경우, 무인점포 서버(200)는 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말(100)로 전송할 수 있다. 무인점포 서버(200)는 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하여 무인점포에서 미 결제 사건이 발생한 사실을 공지할 수 있다.If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the
외부 서버(300)는 일 예로, 경찰청 서버일 수 있다. 무인점포 서버(200)는 도난이 발생한 것으로 결정한 경우, 미 결제 사건범의 프로파일을 생성하고 생성된 프로파일을 외부 서버(300)로 전송할 수 있다. 이 경우, 무인점포 서버(200)는 미 결제가 발생한 사실, 미 결제가 발생한 무인점포의 위치 정보 등을 프로파일 정보와 함께 외부 서버(300)로 전송하여 경찰의 조치를 구할 수 있다.The
상술한 본 발명의 일 실시 예에 따르면, 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 구매자의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공할 수 있다.According to an embodiment of the present invention described above, it is possible to prevent product theft by tracking the buyer's behavior within an unmanned store, and to provide a method of quickly responding in case of theft through buyer profiling.
일반적으로, 본원에서 개시되는 디바이스, 시스템, 및 방법은, 예를 들면, 범용 컴퓨팅 시스템, 서버-클라이언트 컴퓨팅 시스템, 소비자-상인 컴퓨팅 시스템, 메인프레임 컴퓨팅 시스템, 클라우드 컴퓨팅 인프라(infrastructure), 전화 컴퓨팅 시스템, 랩탑 컴퓨터, 데스크탑 컴퓨터, 스마트폰, 셀룰러 폰, 개인 휴대 정보 단말(personal digital assistant; PDA), 태블릿 컴퓨터, 및 다른 모바일 디바이스를 포함하는 다수의 상이한 디바이스 및 컴퓨터 시스템을 포함할 수 있고, 그 다수의 상이한 디바이스 및 컴퓨터 시스템 내에서 구현될 수도 있다. 디바이스 및 컴퓨팅 시스템은 하나 이상의 데이터베이스와 다른 저장 장치, 서버, 및 추가 컴포넌트, 예를 들면, 프로세서, 모뎀, 단말 및 디스플레이, 컴퓨터 판독가능 매체, 알고리즘, 모듈 및 애플리케이션, 및 다른 컴퓨터 관련 컴포넌트를 구비할 수도 있다. 디바이스 및 컴퓨터 시스템 및/또는 컴퓨팅 인프라는 본원에서 개시되는 바와 같은 시스템 및 방법의 기능 및 프로세스를 수행하도록 구성되고, 프로그래밍되고, 적응된다.In general, the devices, systems, and methods disclosed herein may be used in, for example, general-purpose computing systems, server-client computing systems, consumer-merchant computing systems, mainframe computing systems, cloud computing infrastructure, and telephony computing systems. , can include a number of different devices and computer systems, including laptop computers, desktop computers, smartphones, cellular phones, personal digital assistants (PDAs), tablet computers, and other mobile devices, many of which may be implemented within different devices and computer systems. Devices and computing systems may include one or more databases and other storage devices, servers, and additional components such as processors, modems, terminals and displays, computer-readable media, algorithms, modules and applications, and other computer-related components. It may be possible. Devices and computer systems and/or computing infrastructure are configured, programmed, and adapted to perform the functions and processes of the systems and methods as disclosed herein.
도 2는 본 발명의 일 실시 예에 따른 무인점포 서버의 블록도이다.Figure 2 is a block diagram of an unmanned store server according to an embodiment of the present invention.
도 2를 참조하면, 무인점포 서버(200)는 카메라부(210), 저장부(220) 및 프로세서(230)를 포함할 수 있다.Referring to FIG. 2, the
카메라부(210)는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 카메라부(210)는 무인점포의 입구, 무인점포의 천장, 선반의 일 부분 등에 배치될 수 있다.The
일 예로, 카메라부(210)는 선반의 일 부분에 배치되어 선반에 수납(진열, 비치)되거나 다른 선반에 수납된 적어도 하나의 상품을 촬영할 수 있다. 또한, 카메라부(210)는 선반의 일 부분에 배치되어 선반에 수납된 상품을 피킹(picking)하기 위해 진입하는 오브젝트 예를 들어, 구매자의 신체 중 일부, 또는 선반의 상 측, 하 측, 좌우 측에 배치된 다른 선반에 진입하는 오브젝트 예를 들어, 구매자의 신체 중 일부를 촬영할 수 있다. 상기 구매자의 신체 중 일부는 구매자의 손일 수 있다.As an example, the
일 예로, 카메라부(210)는 점포 내 공간을 촬영할 수 있다. 예를 들어, 점포 내 공간은 복수의 공간으로 분할될 수 있는데, 카메라부(210)에 포함되는 복수의 카메라는 상술한 복수의 공간 각각을 커버하도록 배치될 수 있다. 이 경우, 복수의 카메라는 상술한 복수의 공간 각각을 실시간으로 촬영할 수 있다. 이 경우, 복수의 카메라는 구매자를 트래킹하여 구매자의 외형을 촬영할 수 있다.As an example, the
저장부(220)는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.The
저장부(220)는 하나 이상의 프로세서와 연결되는 것으로, 프로세서(220)에 의해 실행될 때, 프로세서(220)로 하여금 무인점포 서버(200)를 제어하도록 야기하는(cause) 코드들을 저장할 수 있다.The
여기서, 저장부(220)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 이러한 저장부(220)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD. CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다.Here, the
저장부(220)는 다양한 데이터 또는 정보를 저장할 수 있다. 일 예로, 저장부(220)는 카메라부(210)에 의해 촬영되는 실시간 이미지를 저장할 수 있다. 또한, 저장부(220)는 프로세서(230)에 의해 생성되는 사용자의 프로파일을 저장할 수 있다. 또한, 프로세서(230)에서 수행되는 판단, 결정 또는 연산 결과를 저장할 수 있다.The
프로세서(230)는 무인점포 서버(200)를 전반적으로 제어할 수 있다. 특히, 프로세서(230)는 무인점포에 비치된 상품의 도난을 방지하고, 도난 발생 시 조치를 취하는 동작을 수행할 수 있다.The
구체적으로, 프로세서(230)는 무인점포에 비치된 상품을 구매하는 구매자를 촬영하도록 카메라부(210)를 제어하고, 촬영된 영상을 저장하도록 저장부(220)를 제어할 수 있다. Specifically, the
또한, 프로세서(230)는 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 카메라부(210)를 제어할 수 있다. 프로세서(230)는 구매자의 얼굴 이미지를 구매자의 프로파일 정보로서 저장부(210)에 저장할 수 있다.Additionally, the
또한, 프로세서(230)는 저장부(220)에 기저장된 영상 또는 카메라부(210)에 의해 촬영된 영상에 기초하여 상품을 구매한 구매자를 특정할 수 있다. Additionally, the
일 예로, 프로세서(230)는 자세 추정(pose estimation) 알고리즘을 이용한 딥러닝(deep learning)을 통하여 구매자를 특정할 수 있다. 예를 들어, 도 3을 참조하면, 프로세서(230)는 구매자의 영상을 딥러닝하여 이동하면서 다양한 동작을 취하는 구매자를 동일한 구매자로 특정할 수 있다.As an example, the
또한, 프로세서(230)는 스켈레톤(skeleton) 추출 알고리즘을 통해 구매자의 신체의 움직임(이동) 및 움직임의 방향을 추출할 수 있다. 또한, 프로세서(230)는 컴퓨터 비전(vision) 기술 예를 들어, 옵티컬 플로우(optical flow)를 이용하여 사람의 신체의 움직임을 추출할 수 있다. Additionally, the
여기서, 프로세서(230)는 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 기저장된 얼굴 이미지를 매칭할 수 있다. 여기서, 기저장된 얼굴 이미지는 구매자의 얼굴을 포함하고, 배경화면의 적어도 일부를 삭제한 이미지일 수 있다.Here, the
한편, 프로세서(230)는 구매자가 상품을 구매하였는지 여부를 판단할 수 있다. Meanwhile, the
일 예로, 상술한 선반은 무게 센서부를 포함할 수 있다. 무게 센서부는 상품의 무게 또는 선반의 무게 변화를 센싱할 수 있다. 무게 센서부는 상품이 선반에 추가되거나 이탈되는 경우 무게 변화를 센싱하고, 센싱 결과를 프로세서(230)로 전송할 수 있다. 여기서, 프로세서(230)는 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상기 상품을 피킹(picking)한 것으로 판단할 수 있다.As an example, the above-described shelf may include a weight sensor unit. The weight sensor unit can sense changes in the weight of the product or the weight of the shelf. The weight sensor unit may sense a change in weight when a product is added to or removed from the shelf, and transmit the sensing result to the
일 예로, 도 4를 참조하면, 카메라부(210)가 선반의 상측에 선반에 수납된 상품의 상단을 촬영한다고 가정한다. 프로세서(230)는 선반에 진입하는 손의 여러가지 방향(A, B, C)을 판단할 수 있다. As an example, referring to FIG. 4, it is assumed that the
여기서, 프로세서(230)는 판단된 손의 방향에 기초하여, 구매자에 의해 상품이 피킹되는지 여부를 판단할 수 있다. 여기서, 손의 방향은 구매자의 손의 이동 시작 점(start point) 및 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정될 수 있다.Here, the
구체적으로, 프로세서(230)는 손의 이동 시작 점(start point) 및 손의 이동 정지 점(stop point)를 판단하고, 상기 손의 이동 시작 점 및 손의 이동 정지 점을 연결하는 제1 벡터를 생성할 수 있다. 또한, 프로세서(230)는 피킹된 상품의 위치와 무인점포 내에 존재하는 적어도 하나의 구매자의 위치 간의 제2 벡터를 생성한다. 프로세서(230)는 상기 제1 벡터의 방향 및 상기 제2 벡터의 방향의 일치 여부에 따라 상기 적어도 하나의 구매자가 상기 상품을 피킹하였는지 여부를 결정할 수 있다. 예를 들어, 프로세서(230)는 상기 제1 벡터의 방향 및 상기 제2 벡터의 방향이 기정의된 각도 내인 경우(또는 일치하는 경우), 상기 적어도 하나의 구매자에 의해 상기 상품이 피킹된 것으로 판단할 수 있다.Specifically, the
여기서, 프로세서(230)는 상술한 제1 벡터의 방향 및 제2 벡터의 방향을 비교한 결과에 더해, 상술한 선반의 무게 변화와의 시점을 더 고려하여 상기 상품을 피킹한 구매자를 특정할 수 있다.Here, the
상술한 본 발명의 일 실시 예에서, 프로세서(230)는 상품을 피킹한 구매자가 특정되면, 상품의 ID(identification) 및 상기 구매자를 매칭할 수 있다.In one embodiment of the present invention described above, if the buyer who picked the product is specified, the
또한, 프로세서(230)는 구매자의 미 결제 여부를 결정할 수 있다.Additionally, the
일 예로, 프로세서(230)는 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우 구매자를 피킹한 상품에 대한 미 결제자로 결정할 수 있다. 여기서, 결제구역은 무인 결제 키오스크 주변의 특정 범위, 무인점포의 입구 라인 등 무인점포의 사정에 맞게 적절하게 정해질 수 있다.For example, if a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the
이 경우, 프로세서(230)는 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말(100)로 전송할 수 있다.In this case, the
프로세서(230)는 점주의 사용자 단말(100)로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력할 수 있다.When the
일 예로, 프로세서(230)는 구매자가 복수의 상품을 피킹한 경우, 복수의 상품의 ID 각각을 구매자와 매칭할 수 있다. 프로세서(230)는 구매자가 결제한 상품의 개수가 복수의 상품의 개수보다 작은 경우, 복수의 상품의 ID 및 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정할 수 있다. 또한, 프로세서(230)는 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력할 수 있다.For example, when a buyer picks multiple products, the
일 예로, 프로세서(230)는 상품의 미 결제 상태에서 구매자가 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행할 수 있다. 또한, 출입문의 잠금 실행을 나타내는 노티(notification)를 점주의 사용자 단말(100)로 전송할 수 있다.As an example, the
한편, 프로세서(230)는 미 결제자인 구매자의 프로파일 또는 미 결제 사건에 대한 프로파일을 생성할 수 있다.Meanwhile, the
구체적으로, 프로세서(230)는 선반에 접근하는 구매자의 손을 적어도 하나의 방향에서 촬영하도록 카메라부를 제어하여 적어도 하나의 손 이미지를 생성할 수 있다. 이 경우, 프로세서(230)는 적어도 하나의 손 이미지를 저장하도록 저장부(220)를 제어할 수 있다. Specifically, the
여기서, 프로세서(230)는 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득할 수 있다. Here, the
프로세서(230)는 획득된 손바닥 이미지에서 지문을 구분 또는 추출할 수 있다. 이를 위해, 프로세서(230)는 지문 검출에 대하여 딥러닝(Deep Learning) 등 머신 러닝(machine learning)을 수행할 수 있다. 이 경우, 상술한 저장부(220)는 머신 러닝에 사용되는 데이터, 결과 데이터 등을 저장할 수 있다.The
일 예로, 프로세서(230)는 지문 영역의 경계를 추출할 수 있다. 프로세서(220)는 지문 이미지의 레벨 값을 기반으로, 2차원 배열에서 지문의 윤곽을 추출할 수 있다. 이 경우, 프로세서(230)는 지문 영역을 회색조(grayscale) 이미지로 변환할 수 있다. 또한, 프로세서(230)는 지문 영역 내 화소들의 중간 값을 산출해 배열의 중간 값을 지정하여 지문 영역의 경계를 추출할 수 있다.As an example, the
구체적으로, 프로세서(230)는 지문 영역의 레벨 값을 기반으로 한 2차원 배열에서 미분값을 구하여 윤곽의 강도와 방향을 계산할 수 있다. 여기서, 윤곽(edge)이란 사전적으로 물체의 외각을 나타내는 선을 의미하며, 이미지 처리의 차원에서는 이미지의 특징을 짓는 선 요소를 의미할 수 있다. 즉 경계선을 인지하는 것, 윤곽선에 해당하는 픽셀을 구하는 것을 에지 추출(edge detection)이라고 한다. Specifically, the
윤곽은 이미지 안에서 픽셀의 값이 갑자기 변하는 곳이다. 즉 윤곽선은 다른 명암도를 가진 두 영역 사이의 경계를 의미할 수 있으며, 픽셀의 밝기가 임계 값 보다 크게 변하는 부분을 의미할 수 있다. 여기서 임계값 은 경계유무를 판단하는 임의의 기준치 값을 의미할 수 있다.Contours are places in an image where pixel values suddenly change. In other words, the outline can mean the boundary between two areas with different brightness, and can mean the part where the brightness of the pixel changes more than the threshold. Here, the threshold may mean an arbitrary reference value for determining the presence or absence of a boundary.
프로세서(230)는 윤곽을 추출하는 알고리즘은 이미지를 미분한 그레디언트 벡터의 크기로 판단할 수 있다. 즉, 프로세서(230)는 편미분 연산자의 계산에 근거하여 기울기를 구할 수 있다. 윤곽은 농담치가 급격히 변하는 부분이기 때문에 함수의 변화분을 취하는 미분 연산이 윤곽선 추출에 사용될 수 있다. The
미분에는 1차 미분(gradient)과 2차 미분(laplacian)이 있으며, 1차 미분 값에서 그래프 기울기의 크기로 이미지에서 윤곽선의 존재 여부를 확인하고, 2차 미분 값에서 그래프 기울기의 부호로 윤곽선 픽셀의 밝고 어두운 부분의 위치를 확인할 수 있다. Differentiation includes first-order differentiation (gradient) and second-order differentiation (laplacian). The presence or absence of a contour in an image is checked using the size of the graph gradient in the first-order differential value, and the sign of the graph gradient is used to identify the outline pixel in the second-order differential value. You can check the location of the bright and dark parts of .
윤곽을 추출하는 알고리즘은 sobel edge Detection, Canny edge Detection 등을 포함할 수 있다. 또한, 프로세서(230)는 지문 영역의 정확한 경계를 찾기 위하여, '밝은 값'과 '어두운 값'을 찾기 위해 지문 영역을 회색조 이미지로 변환할 수 있다.Algorithms for extracting contours may include sobel edge detection, canny edge detection, etc. Additionally, the
프로세서(230)는 지문 영역 내 화소들의 중간 값을 산출해 배열의 중간 값을 지정함으로써, 지문 영역의 경계를 추출할 수 있다. 즉, 프로세서(230)는 회색조로 변환한 이미지를 이진화하여 중간 값을 추출하고 윤곽을 추출할 수 있다.The
예를 들어, 이미지에 미분 방식을 적용하는 방법으로 마스크를 사용할 수 있다. 프로세서(230)는 이미지의 3x3 픽셀에 마스크를 씌워 계산 후 중앙 픽셀을 결정하여 윤관선을 검출할 수 있다. 여기서, 마스크의 크기는 3x3이 일반적이나 5x5, 7x7 크기의 마스크도 적용 가능하며 마스크가 커지면 에지는 두꺼워져서 선명하게 나타날 수 있다.For example, a mask can be used as a way to apply differentiation to an image. The
또한, 프로세서(230)는 마스크 영역 내의 픽셀들 중 중간 값을 대표 값으로 취하는 필터링을 수행할 수 있다. 중간 값을 이용하여 주변 값과의 차이에 따라 적응 가중치를 설정하여 필터 처리하므로 Spot noise와 같은 임펄스성 노이즈를 줄여줄 수 있고, 이미지의 평활화(에지나 경계면 보호)가 가능하며, 선예도 차이가 크게 없으면서 잡음제거를 수행할 수 있다.Additionally, the
본 발명의 일 실시 예에서, 프로세서(230)는 지문 영역의 최종 에지 검출을 하기 전에 잡음을 제거하기 위해 중간 값(median) 필터와 같은 smoothing 필터를 적용하고 에지 검출을 위해 공간 필터를 적용할 수 있다. 즉, 프로세서(230)는 배열의 중간 값에 기초하여 판단된 후보 동질 영역에 대해 재귀 호출을 수행하고, 재귀 호출 수행 결과, 지문 이미지의 화소 값의 변화의 평균 값을 산출할 수 있다. In one embodiment of the present invention,
최종적으로, 프로세서(230)는 구매자의 지문 이미지를 획득하여 저장부(220)에 저장할 수 있다.Finally, the
한편, 프로세서(230)는 구매자가 피킹한 상품을 정상 결제한 경우, 저장된 적어도 하나의 손바닥 이미지를 삭제하고, 구매자가 피킹한 상품을 미 결제한 경우, 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 구매자와 매칭하여 저장하도록 저장부(212)를 제어할 수 있다. Meanwhile, the
또한, 프로세서(230)는 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하고, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장할 수 있다.In addition, the
또한, 프로세서(230)는 구매자가 피킹한 상품을 미 결제한 경우, 지문 이미지, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 구매자에 대한 상기 얼굴 이미지, 상품의 ID, 미 결제 피해액 및 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보 중 적어도 하나를 포함하는 미 결제자 프로파일 또는 미 결제 사건 프로파일을 생성하여 경찰청 서버로 전송할 수 있다.In addition, when the buyer does not pay for the picked product, the
상술한 본 발명의 다양한 실시 예에 따르면, 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 구매자 또는 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응할 수 있다.According to the various embodiments of the present invention described above, the theft of products can be prevented by tracking the buyer's behavior within an unmanned store, and rapid response in the event of theft can be achieved through profiling of the buyer or non-payment events.
도 5는 본 발명의 일 실시 예에 따른 전자장치의 세부 구성도이다.Figure 5 is a detailed configuration diagram of an electronic device according to an embodiment of the present invention.
도 5를 참조하면, 전자장치(500)는 통신부(510), 저장부(520) 및 프로세서(530)를 포함한다.Referring to FIG. 5 , the
통신부(510)는 통신을 수행한다. 통신부(510)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 전자기기와 통신을 수행할 수 있다.The
저장부(520)는 전자장치(500)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. The
또한, 저장부(520)는 읽고 쓰기가 가능하다.Additionally, the
프로세서(530)는 저장부(520)에 저장된 각종 프로그램을 이용하여 전자장치(500)의 동작을 전반적으로 제어한다.The
구체적으로, 프로세서(530)는 RAM(531), ROM(532), 메인 CPU(533), 그래픽 처리부(534), 제1 내지 n 인터페이스(535-1 ~ 535-n) 및 버스(536)를 포함한다.Specifically, the
여기서, RAM(531), ROM(532), 메인 CPU(533), 그래픽 처리부(534), 제1 내지 n 인터페이스(535-1 ~ 535-n) 등은 버스(536)를 통해 서로 연결될 수 있다.Here,
제1 내지 n 인터페이스(535-1 내지 535-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 535-1 to 535-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.
ROM(532)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(533)는 ROM(532)에 저장된 명령어에 따라 저장부(520)에 저장된 O/S를 RAM(531)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. The
부팅이 완료되면, 메인 CPU(533)는 저장된 각종 어플리케이션 프로그램을 RAM(531)에 복사하고, RAM(531)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.When booting is complete, the
메인 CPU(533)는 저장부(530)에 액세스하여, 저장부(530)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(533)는 저장부(530)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The
그래픽 처리부(534)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The
도 6은 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법에 대한 흐름도이다.Figure 6 is a flowchart of a method of operating an electronic device that prevents the theft of products stored in an unmanned store according to an embodiment of the present invention.
도 6을 참조하면, 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정(S610), 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정(S620), 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행하는 과정(S630), 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭하는 과정(S640), 카메라부에 의해 촬영되는 영상에 기초하여, 구매자에 의해 상품이 피킹(picking)되는지 여부를 판단하는 과정 (S650), 상품의 ID 및 구매자를 매칭하는 과정(S660), 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정(S670) 및 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력하는 과정(S680)을 포함할 수 있다.Referring to FIG. 6, the method of operating an electronic device that prevents the theft of products displayed in an unmanned store includes a process of storing a video of a buyer purchasing a product displayed in an unmanned store (S610), and a process of storing a video of a buyer purchasing a product displayed in an unmanned store. When entering, a process of generating a facial image by photographing the buyer's face (S620), a process of performing deep learning on the buyer's appearance based on the stored image (S630), and identifying the buyer based on the deep learning results. A process of specifically matching a face image (S640), a process of determining whether a product is picked by a buyer based on the image captured by the camera unit (S650), and matching the ID of the product and the buyer. Process (S660), if a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer's payment area of the unmanned store The process of transmitting information about the time of departure from the store owner to the store owner's user terminal (S670) and upon receiving a request for notification of a non-payment event from the store owner's user terminal, a face image of the buyer is displayed and information regarding the non-payment event occurs It may include a process of outputting voice (S680).
상술한 상품이 피킹되는지 여부를 판단하는 과정은 카메라부에 의해 촬영된 영상에 기초하여, 상품이 진열된 선반으로 진입하는 구매자의 손의 방향을 판단하는 과정 및 상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정을 포함할 수 있다. The process of determining whether the above-mentioned product is picked is based on the image captured by the camera unit, the process of determining the direction of the buyer's hand entering the shelf where the product is displayed, and the determined direction of the hand. , may include a process of determining whether the product is picked by the buyer.
여기서, 상술한 손의 방향은 구매자의 손의 이동 시작 점(start point) 및 구매자의 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정될 수 있다.Here, the direction of the hand described above can be determined by a vector connecting the start point of movement of the purchaser's hand and the stop point of movement of the purchaser's hand.
또한, 상술한 상품이 피킹되는지 여부를 판단하는 과정은 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상품을 피킹(picking)한 것으로 판단하는 과정을 더 포함할 수 있다.In addition, the process of determining whether the above-mentioned product is picked is when the weight of the shelf on which the product is displayed is changed by the weight of the product, and the distance between the buyer and the shelf is within a predefined distance, the buyer picks the product. ) may further include a process of determining that
상술한 전자장치의 동작방법은 구매자가 복수의 상품을 피킹한 경우, 복수의 상품의 ID 각각을 구매자와 매칭하는 과정 및 구매자가 결제한 상품의 개수가 복수의 상품의 개수보다 작은 경우, 복수의 상품의 ID 및 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 누락된 상품의 추가 결제를 요청하는 GUI를 생성하여 디스플레이하고, 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는 과정을 더 포함할 수 있다. The method of operating the above-described electronic device includes a process of matching each ID of a plurality of products with the buyer when the buyer picks multiple products, and when the number of products paid by the buyer is less than the number of the plurality of products. By comparing the ID of the product and the ID of the product paid by the buyer, the missing product is identified, a GUI is created and displayed to request additional payment for the missing product, and a voice guidance is generated to request additional payment for the missing product. This may further include an output process.
또한, 상술한 전자장치의 동작방법은 상품의 미 결제 상태에서 구매자가 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 출입문의 잠금 실행을 나타내는 노티를 점주의 사용자 단말로 전송하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-mentioned electronic device is to lock the door when the buyer leaves the payment area of the unmanned store while the product has not been paid, and to transmit a notification indicating the locking of the door to the store owner's user terminal. Additional processes may be included.
또한, 상술한 전자장치의 동작방법은 선반에 접근하는 구매자의 손을 적어도 하나의 방향에서 촬영하도록 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 적어도 하나의 손 이미지를 저장하는 과정을 더 포함할 수 있다.In addition, the method of operating the above-described electronic device further includes the steps of controlling the camera unit to capture the hand of a buyer approaching the shelf from at least one direction, generating at least one hand image, and storing the at least one hand image. can do.
또한, 상술한 전자장치의 동작방법은 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는 과정을 더 포함할 수 있다.Additionally, the method of operating the electronic device described above may further include a process of acquiring at least one palm image among at least one hand image based on the results of deep learning performed on the human hand image.
또한, 상술한 전자장치의 동작방법은 구매자가 피킹한 상품을 정상 결제한 경우, 저장된 적어도 하나의 손바닥 이미지를 삭제하는 과정 및 구매자가 피킹한 상품을 미 결제한 경우, 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 구매자와 매칭하여 저장하는 과정을 더 포함할 수 있다.In addition, the method of operating the above-described electronic device includes a process of deleting at least one stored palm image when the buyer normally pays for the picked product, and a process of deleting at least one stored palm image from the stored palm image when the buyer does not pay for the picked product. It may further include the process of acquiring a fingerprint image, matching it with the purchaser, and storing it.
또한, 상술한 전자장치의 동작방법은 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하는 과정 및 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-described electronic device includes a process of determining at least one palm image as one of a left-hand palm image and a right-hand palm image based on deep learning results performed on a human hand image, and a process of determining whether the fingerprint image is left or right-handed. It may further include the process of generating and storing an indicator indicating whether it corresponds to .
또한, 상술한 전자장치의 동작방법은 구매자가 피킹한 상품을 미 결제한 경우, 지문 이미지, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 구매자에 대한 얼굴 이미지, 상품의 ID, 미 결제 피해액 및 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-mentioned electronic device is, in the case where the buyer has not paid for the picked product, a fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, a facial image of the buyer, the ID of the product, and the amount of unpaid damage. And it may further include the process of creating a non-payment event profile including information about the time the buyer left the payment area of the unmanned store and transmitting it to an external server.
한편, 상술한 본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.Meanwhile, the method of operating an electronic device for preventing theft of products stored in an unmanned store according to various embodiments of the present invention described above is implemented as a computer-executable program code and can be used in various non-transitory computer readable media. medium) and can be provided to each server or device to be executed by a processor.
일 예로, 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정, 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정, 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행하고, 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭하는 과정, 상품의 ID 및 구매자를 매칭하는 과정(S650), 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정(S660) 및 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, the process of storing a video of a buyer purchasing a product displayed in an unmanned store, the process of generating a facial image by photographing the buyer's face when the buyer enters an unmanned store, and the process of generating a facial image of the buyer based on the stored video Process of performing deep learning on the appearance of the product, specifying the buyer based on the deep learning results and matching the face image, process of matching the ID of the product and the buyer (S650), state in which the buyer has not paid for the product If a predefined time has elapsed from the time the buyer left the payment area of the unmanned store, the face image of the buyer, the ID of the product, and information about the time the buyer left the payment area of the unmanned store are sent to the store owner's user terminal. When a request for notification of the occurrence of a non-payment event is received from the transmission process (S660) and the store owner's user terminal, a non-temporary program is stored that performs the process of displaying the face image of the buyer and outputting a voice guidance related to the occurrence of the non-payment event. A readable medium (non-transitory computer readable medium) may be provided.
비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.
이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.Although embodiments of the present invention have been shown and described above, those skilled in the art will recognize that various changes in form and details may be made without departing from the spirit and scope of the present embodiments as defined by the appended claims and their equivalents. You will understand that you can.
무인점포 도난 방지 시스템: 10
점주 사용자 단말: 100
무인점포 서버: 200
전자장치: 500
외부 서버: 300
카메라부: 210
저장부: 220, 520
프로세서: 230, 530
통신부: 510Unmanned store theft prevention system: 10
Store owner user terminal: 100
Unmanned store servers: 200
Electronics: 500
External servers: 300
Camera unit: 210
Storage: 220, 520
Processor: 230, 530
Department of Communications: 510
Claims (22)
카메라부;
상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부; 및
구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고,
상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고,
상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고,
상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고,
상기 상품의 ID(identification) 및 상기 구매자를 매칭하고,
상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는, 프로세서;를 포함하는, 전자장치.
In an electronic device that prevents the theft of products stored in an unmanned store,
camera unit;
a storage unit that stores images captured of buyers purchasing products displayed in the unmanned store; and
When a buyer enters the unmanned store, control the camera unit to capture the buyer's face and create a facial image,
Perform deep learning on the buyer's appearance based on the stored image,
Based on the deep learning results, the buyer is identified and matched with the face image,
Based on the image captured by the camera unit, determine whether the product is picked by the buyer,
Match the ID (identification) of the product and the buyer,
If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. An electronic device that includes a processor, which transmits information about the time of departure from the payment area to the store owner's user terminal.
상기 프로세서는,
상기 카메라부에 의해 촬영된 영상에 기초하여, 상기 상품이 진열된 선반으로 진입하는 상기 구매자의 손의 방향을 판단하고,
상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는, 전자장치.
According to paragraph 1,
The processor,
Based on the image captured by the camera unit, determine the direction of the buyer's hand entering the shelf where the product is displayed,
An electronic device that determines whether the product is picked by the buyer, based on the determined hand direction.
상기 손의 방향은,
상기 구매자의 상기 손의 이동 시작 점(start point) 및 상기 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정되는, 전자장치.
According to paragraph 2,
The direction of the hand is,
An electronic device determined by a vector connecting a start point of movement of the hand of the purchaser and a stop point of movement of the hand of the purchaser.
상기 프로세서는,
상기 상품이 진열된 선반의 무게가 상기 상품의 무게만큼 변경되고, 상기 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 상기 구매자가 상기 상품을 피킹(picking)한 것으로 판단하는, 전자장치.
According to paragraph 2,
The processor,
An electronic device that determines that the buyer has picked the product when the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance. .
상기 프로세서는,
상기 구매자가 복수의 상품을 피킹한 경우, 상기 복수의 상품의 ID 각각을 상기 구매자와 매칭하고,
상기 구매자가 결제한 상품의 개수가 상기 복수의 상품의 개수보다 작은 경우, 상기 복수의 상품의 ID 및 상기 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 상기 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 상기 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는, 전자장치.
According to paragraph 1,
The processor,
When the buyer picks multiple products, each ID of the plurality of products is matched with the buyer,
If the number of products paid by the buyer is less than the number of the plurality of products, the IDs of the plurality of products are compared with the IDs of the products paid by the buyer to specify the missing product, and the missing product is added. An electronic device that generates and displays a GUI (graphic user interface) requesting payment, and generates and outputs voice guidance requesting additional payment for the missing product.
상기 프로세서는,
상기 상품의 미 결제 상태에서 상기 구매자가 상기 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 상기 출입문의 잠금 실행을 나타내는 노티(notification)를 상기 점주의 사용자 단말로 전송하는, 전자장치.
According to paragraph 1,
The processor,
When the buyer leaves the payment area of the unmanned store while the product is not paid, the electronic door is locked and a notification indicating the locking of the door is transmitted to the store owner's user terminal. Device.
상기 프로세서는,
상기 선반에 접근하는 상기 구매자의 손을 적어도 하나의 방향에서 촬영하도록 상기 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 상기 적어도 하나의 손 이미지를 저장하도록 상기 저장부를 제어하는, 전자장치.
According to paragraph 2,
The processor,
An electronic device that controls the camera unit to capture the buyer's hand approaching the shelf from at least one direction to generate at least one hand image, and controls the storage unit to store the at least one hand image.
상기 프로세서는,
사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는, 전자장치.
In clause 7,
The processor,
An electronic device that acquires at least one palm image among the at least one hand image based on a deep learning result performed on a human hand image.
상기 프로세서는,
상기 구매자가 피킹한 상품을 정상 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지를 삭제하고,
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 상기 구매자와 매칭하여 저장하도록 상기 저장부를 제어하는, 전자장치.
According to clause 8,
The processor,
If the buyer normally pays for the picked product, the at least one stored palm image is deleted,
An electronic device that controls the storage unit to obtain a fingerprint image from the stored at least one palm image, match it with the purchaser, and store the fingerprint image when the purchaser has not paid for the picked product.
상기 프로세서는,
상기 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하고,
상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는, 전자장치.
According to clause 9,
The processor,
Based on deep learning results performed on the human hand image, determining the at least one palm image as one of a left palm image and a right palm image,
An electronic device that generates and stores an indicator indicating whether the fingerprint image corresponds to a left or right hand.
상기 프로세서는,
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 지문 이미지, 상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 미 결제 피해액 및 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는, 전자장치.
According to clause 10,
The processor,
If the buyer has not paid for the picked product, the fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, the face image of the buyer, the ID of the product, the amount of unpaid damage, and the buyer An electronic device that generates a non-payment event profile including information on the time of leaving the payment area of the unmanned store and transmits it to an external server.
상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정;
구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정;
상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하는 과정;
상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하는 과정;
카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하는 과정;
상기 상품의 ID(identification) 및 상기 구매자를 매칭하는 과정; 및
상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정;을 포함하는, 전자장치의 동작방법.
In a method of operating an electronic device that prevents the theft of products stored in an unmanned store,
A process of storing a video of a buyer purchasing a product provided in the unmanned store;
When a buyer enters the unmanned store, a process of generating a facial image by photographing the buyer's face;
A process of performing deep learning on the buyer's appearance based on the stored image;
A process of specifying the buyer and matching the face image based on the deep learning results performed;
A process of determining whether the product is picked by the buyer based on the image captured by the camera unit;
A process of matching the ID (identification) of the product and the buyer; and
If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. A method of operating an electronic device, including a process of transmitting information about the time of departure from the payment area to the store owner's user terminal.
상기 상품이 피킹되는지 여부를 판단하는 과정은,
상기 카메라부에 의해 촬영된 영상에 기초하여, 상기 상품이 진열된 선반으로 진입하는 상기 구매자의 손의 방향을 판단하는 과정; 및
상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정;을 포함하는, 전자장치의 동작방법.
According to clause 12,
The process of determining whether the product is picked is:
Based on the image captured by the camera unit, determining the direction of the buyer's hand entering the shelf where the product is displayed; and
A method of operating an electronic device comprising: determining whether the product is picked by the buyer, based on the determined hand direction.
상기 손의 방향은,
상기 구매자의 상기 손의 이동 시작 점(start point) 및 상기 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정되는, 전자장치의 동작방법.
According to clause 13,
The direction of the hand is,
A method of operating an electronic device, determined by a vector connecting a start point of movement of the hand of the purchaser and a stop point of movement of the hand of the purchaser.
상기 상품이 피킹되는지 여부를 판단하는 과정은,
상기 상품이 진열된 선반의 무게가 상기 상품의 무게만큼 변경되고, 상기 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 상기 구매자가 상기 상품을 피킹(picking)한 것으로 판단하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 13,
The process of determining whether the product is picked is:
If the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance, determining that the buyer has picked the product; Further comprising: a method of operating an electronic device.
상기 구매자가 복수의 상품을 피킹한 경우, 상기 복수의 상품의 ID 각각을 상기 구매자와 매칭하는 과정; 및
상기 구매자가 결제한 상품의 개수가 상기 복수의 상품의 개수보다 작은 경우, 상기 복수의 상품의 ID 및 상기 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 상기 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 상기 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 12,
When the buyer picks a plurality of products, matching each ID of the plurality of products with the buyer; and
If the number of products paid by the buyer is less than the number of the plurality of products, the IDs of the plurality of products are compared with the IDs of the products paid by the buyer to specify the missing product, and the missing product is added. A method of operating an electronic device further comprising: generating and displaying a graphic user interface (GUI) requesting payment, and generating and outputting voice guidance requesting additional payment for the missing product.
상기 상품의 미 결제 상태에서 상기 구매자가 상기 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 상기 출입문의 잠금 실행을 나타내는 노티(notification)를 상기 점주의 사용자 단말로 전송하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 12,
If the buyer leaves the payment area of the unmanned store while the product is not paid, locking the door and transmitting a notification indicating that the door has been locked to the store owner's user terminal; A method of operating an electronic device, further comprising:
상기 선반에 접근하는 상기 구매자의 손을 적어도 하나의 방향에서 촬영하도록 상기 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 상기 적어도 하나의 손 이미지를 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 13,
Controlling the camera unit to capture the buyer's hand approaching the shelf from at least one direction to generate at least one hand image, and storing the at least one hand image; further comprising: How it works.
사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 18,
A method of operating an electronic device, further comprising: acquiring at least one palm image among the at least one hand image based on a deep learning result performed on a human hand image.
상기 구매자가 피킹한 상품을 정상 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지를 삭제하는 과정; 및
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 상기 구매자와 매칭하여 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 19,
If the buyer normally pays for the picked product, deleting the stored at least one palm image; and
If the buyer has not paid for the picked product, obtaining a fingerprint image from the stored at least one palm image, matching it with the buyer, and storing it.
상기 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하는 과정; 및
상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 20,
Based on a deep learning result performed on the human hand image, determining the at least one palm image as one of a left palm image and a right palm image; and
A method of operating an electronic device further comprising: generating and storing an indicator indicating whether the fingerprint image corresponds to a left or right hand.
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 지문 이미지, 상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 미 결제 피해액 및 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는 과정;을 더 포함하는, 전자장치의 동작방법.According to clause 21,
If the buyer has not paid for the picked product, the fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, the face image of the buyer, the ID of the product, the amount of unpaid damage, and the buyer A method of operating an electronic device further comprising: generating a non-payment event profile including information on the time of leaving the payment area of the unmanned store and transmitting it to an external server.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220052558A KR20230152961A (en) | 2022-04-28 | 2022-04-28 | Electronic device to prevent theft of goods stored in cashierless store and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220052558A KR20230152961A (en) | 2022-04-28 | 2022-04-28 | Electronic device to prevent theft of goods stored in cashierless store and operation method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230152961A true KR20230152961A (en) | 2023-11-06 |
Family
ID=88748593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220052558A KR20230152961A (en) | 2022-04-28 | 2022-04-28 | Electronic device to prevent theft of goods stored in cashierless store and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230152961A (en) |
-
2022
- 2022-04-28 KR KR1020220052558A patent/KR20230152961A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11182592B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
US11222239B2 (en) | Information processing apparatus, information processing method, and non-transitory computer-readable storage medium | |
US10943126B2 (en) | Method and apparatus for processing video stream | |
US11539525B2 (en) | Systems and methods for secure tokenized credentials | |
US20230015107A1 (en) | Method and apparatus with image fusion | |
US10346464B2 (en) | Cross-modiality image matching method | |
US20210049370A1 (en) | Abnormality detection method, apparatus, and device for unmanned checkout | |
US9691158B1 (en) | Tracking objects between images | |
CN108427927B (en) | Object re-recognition method and apparatus, electronic device, program, and storage medium | |
US11704887B2 (en) | System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status | |
US10929829B1 (en) | User identification and account access using gait analysis | |
US8681232B2 (en) | Visual content-aware automatic camera adjustment | |
US20230316247A1 (en) | Methods and systems for collecting and releasing virtual objects between disparate augmented reality environments | |
US11741420B2 (en) | Systems and methods for machine vision based object recognition | |
CN114663871A (en) | Image recognition method, training method, device, system and storage medium | |
CN113642639A (en) | Living body detection method, living body detection device, living body detection apparatus, and storage medium | |
JP7054760B2 (en) | Object recognition system, location information acquisition method, and program | |
US10990859B2 (en) | Method and system to allow object detection in visual images by trainable classifiers utilizing a computer-readable storage medium and processing unit | |
CN110415113A (en) | Finance data processing method, device, server and readable storage medium storing program for executing | |
KR20230152961A (en) | Electronic device to prevent theft of goods stored in cashierless store and operation method thereof | |
CN114882576A (en) | Face recognition method, electronic device, computer-readable medium, and program product | |
CN114387496A (en) | Target detection method and electronic equipment | |
KR102027786B1 (en) | Method and system for recognizing face of user based on multiple images | |
Jurj et al. | Mobile application for receipt fraud detection based on optical character recognition | |
JP2022079775A (en) | Object recognition system, position information acquisition method, and program |