KR20230152961A - Electronic device to prevent theft of goods stored in cashierless store and operation method thereof - Google Patents

Electronic device to prevent theft of goods stored in cashierless store and operation method thereof Download PDF

Info

Publication number
KR20230152961A
KR20230152961A KR1020220052558A KR20220052558A KR20230152961A KR 20230152961 A KR20230152961 A KR 20230152961A KR 1020220052558 A KR1020220052558 A KR 1020220052558A KR 20220052558 A KR20220052558 A KR 20220052558A KR 20230152961 A KR20230152961 A KR 20230152961A
Authority
KR
South Korea
Prior art keywords
buyer
product
image
electronic device
hand
Prior art date
Application number
KR1020220052558A
Other languages
Korean (ko)
Inventor
안종훈
Original Assignee
한국정보통신주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국정보통신주식회사 filed Critical 한국정보통신주식회사
Priority to KR1020220052558A priority Critical patent/KR20230152961A/en
Publication of KR20230152961A publication Critical patent/KR20230152961A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0036Checkout procedures
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements

Abstract

무인점포에 비치된 상품의 도난을 방지하는 전자장치가 개시된다. 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치는 카메라부, 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부 및 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고, 상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고, 상기 상품의 ID(identification) 및 상기 구매자를 매칭하고, 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 프로세서를 포함할 수 있다.An electronic device that prevents the theft of products stored in unmanned stores is disclosed. According to an embodiment of the present invention, an electronic device for preventing the theft of products displayed in an unmanned store includes a camera unit, a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store, and a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store. When entering a store, the camera unit is controlled to capture the buyer's face to create a facial image, perform deep learning on the buyer's appearance based on the stored image, and perform deep learning based on the deep learning results. The buyer is identified and matched with the face image, and based on the image captured by the camera unit, it is determined whether the product is picked by the buyer, and the product's ID (identification) and When matching the buyer, and a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, It may include a processor that transmits information about the time the buyer left the payment area of the unmanned store to the store owner's user terminal.

Description

무인점포에 비치된 상품의 도난을 방지하는 전자장치 및 이의 동작방법{ELECTRONIC DEVICE TO PREVENT THEFT OF GOODS STORED IN CASHIERLESS STORE AND OPERATION METHOD THEREOF}Electronic device for preventing theft of products stored in unmanned stores and method of operating the same {ELECTRONIC DEVICE TO PREVENT THEFT OF GOODS STORED IN CASHIERLESS STORE AND OPERATION METHOD THEREOF}

본 발명은 무인점포에 비치된 상품의 도난을 방지하는 전자장치 및 이의 동작방법에 대한 것으로, 보다 상세하게는 무인점포 내에서의 도난을 사전에 방지하고, 도난 발생 시 적발이 가능한 전자장치 및 이의 동작방법에 대한 것이다.The present invention relates to an electronic device that prevents theft of products stored in an unmanned store and a method of operating the same. More specifically, an electronic device that prevents theft in an unmanned store in advance and detects theft when it occurs, and a method of operating the same. It's about how it works.

최근 빅데이터, 인공지능, 사물인터넷 등의 기술이 발달됨에 따라 실생활에 제공되는 서비스에 대한 전반적인 개선이 이루어지고 있다. 특히, 빅데이터에 기반하여 인간의 행위를 딥러닝함으로써 실 생활에 편의를 제공하고 사업 비용을 절감하는 기술이 발전하고 있다.Recently, with the development of technologies such as big data, artificial intelligence, and the Internet of Things, overall improvements are being made to services provided in real life. In particular, technology is developing to provide convenience in real life and reduce business costs by deep learning human behavior based on big data.

이러한 기술 발달은 계산대에 줄을 서고, 지갑에서 카드나 현금을 꺼내 결제를 진행하는 기존의 구매 및 결제 프로세스를 개선하고자 하는 욕구를 반영하여 오프라인 쇼핑 분야에 혁신적인 바람을 불어넣고 있다.These technological developments are bringing innovation to the offline shopping sector, reflecting the desire to improve the traditional purchase and payment process of lining up at the checkout counter and paying with a card or cash from the wallet.

미국의 전자상거래 기업 아마존(Amazon)은 무인 결제시스템을 결합한 '아마존고(Amazon Go)' 서비스를 확대하고 있다. 아마존고는 자신의 개인정보에 대응되는 바코드를 찍고 점포에 입장하여 물건을 집어 매장을 나서기만 하면 스마트폰의 어플리케이션과 연동되어 결제가 완료되는 시스템을 선보인 바 있다.Amazon, an American e-commerce company, is expanding its 'Amazon Go' service, which combines an unmanned payment system. Amazon Go has introduced a system in which payment is completed by linking with a smartphone application by simply scanning the barcode corresponding to one's personal information, entering the store, picking up an item, and leaving the store.

본 발명의 배경이 되는 기술의 일 예로, 대한민국 공개특허공보 제10-2021-0075833호(2021.06.23.)는 무인상점에 출입을 원하는 사용자의 생체정보를 획득하는 사용자 인식 모듈, 사용자가 제공하는 카드에 저장된 생체정보를 추출하는 카드 인식 모듈 및 사용자 인식 모듈에서 획득한 생체정보와 카드 인식 모듈에서 추출한 생체정보를 비교하여 사용자를 인증하는 사용자 인증 모듈을 포함하는 무인상점에서의 사용자 인증 시스템을 개시한다.As an example of the technology behind the present invention, Republic of Korea Patent Publication No. 10-2021-0075833 (2021.06.23.) is a user recognition module that acquires biometric information of a user who wants to enter an unmanned store, and Launch of a user authentication system in an unmanned store that includes a card recognition module that extracts biometric information stored in the card and a user authentication module that authenticates the user by comparing the biometric information obtained from the user recognition module with the biometric information extracted from the card recognition module. do.

상술한 바와 같이, 최근 무인점포가 활성화되고 있으나 무인점포 기술이 해결하지 못한 부분들이 있다. 예를 들어, 무인점포 관련하여 담배, 주류와 같이 성인인증이 필요한 상품에 대한 성인인증 기술이나, 도난 방지 기술에 대하여는 아직 보완해야 할 부분이 많은 실정이다.As mentioned above, unmanned stores have recently become active, but there are some issues that unmanned store technology has not been able to solve. For example, in relation to unmanned stores, there are still many areas that need to be supplemented in terms of adult authentication technology for products that require adult authentication, such as cigarettes and alcohol, and theft prevention technology.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공하는 것을 목적으로 한다.The present invention was devised to solve the above-mentioned problems. The present invention is a method of preventing the theft of products by tracking the behavior of buyers in unmanned stores and quickly responding in the event of theft through profiling of non-payment events. The purpose is to provide.

본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치는 카메라부, 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부 및 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고, 상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고, 상기 상품의 ID(identification) 및 상기 구매자를 매칭하고, 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 프로세서를 포함할 수 있다.An electronic device for preventing the theft of products displayed in an unmanned store according to various embodiments of the present invention includes a camera unit, a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store, and a storage unit that stores images of a buyer purchasing a product displayed in the unmanned store. When entering a store, the camera unit is controlled to capture the buyer's face to create a facial image, perform deep learning on the buyer's appearance based on the stored image, and perform deep learning based on the deep learning results. The buyer is identified and matched with the face image, and based on the image captured by the camera unit, it is determined whether the product is picked by the buyer, and the product's ID (identification) and When matching the buyer, and a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, It may include a processor that transmits information about the time the buyer left the payment area of the unmanned store to the store owner's user terminal.

또한, 본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정, 구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정, 상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하는 과정, 상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하는 과정, 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정, 상기 상품의 ID 및 상기 구매자를 매칭하는 과정 및 상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정을 포함할 수 있다.In addition, a method of operating an electronic device for preventing theft of products stored in an unmanned store according to various embodiments of the present invention includes the process of storing a video of a buyer purchasing a product stored in the unmanned store, When entering an unmanned store, a process of generating a facial image by photographing the face of the buyer, a process of performing deep learning on the appearance of the buyer based on the stored image, and the process of performing deep learning on the appearance of the buyer based on the performed deep learning results. A process of specifying a buyer and matching the face image, a process of determining whether the product is picked by the buyer based on the image captured by the camera unit, a process of matching the ID of the product and the buyer, and If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. It may include a process of transmitting information about the time of departure from the payment area to the store owner's user terminal.

본 발명의 다양한 실시 예에 따르면, 본 발명은 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공할 수 있다.According to various embodiments of the present invention, the present invention prevents the theft of products by tracking the behavior of buyers within an unmanned store, and provides a method of quickly responding in the event of theft through profiling of non-payment events. .

도 1은 본 발명의 일 실시 예에 따른 무인점포 도난 방지 시스템에 대한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 무인점포 서버의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 구매자를 촬영한 영상이다.
도 4는 본 발명의 일 실시 예에 따른 구매자의 손을 촬영한 영상이다.
도 5는 본 발명의 일 실시 예에 따른 전자장치의 세부 구성도이다.
도 6은 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법에 대한 흐름도이다.
1 is a diagram of an unmanned store theft prevention system according to an embodiment of the present invention.
Figure 2 is a block diagram of an unmanned store server according to an embodiment of the present invention.
Figure 3 is an image taken of a purchaser according to an embodiment of the present invention.
Figure 4 is an image of a buyer's hand according to an embodiment of the present invention.
Figure 5 is a detailed configuration diagram of an electronic device according to an embodiment of the present invention.
Figure 6 is a flowchart of a method of operating an electronic device that prevents the theft of products stored in an unmanned store according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the attached drawings. Additionally, when describing embodiments of the invention, if it is determined that a detailed description of a related known function or configuration may obscure the gist of the present disclosure, the detailed description will be omitted. The terms used below are defined in consideration of the functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definitions of terms used should be interpreted based on the content and corresponding functions throughout this specification.

도 1은 본 발명의 일 실시 예에 따른 무인점포 도난 방지 시스템에 대한 도면이다.1 is a diagram of an unmanned store theft prevention system according to an embodiment of the present invention.

무인점포 도난 방지 시스템(10)은 점주 사용자 단말(10), 무인점포 서버(200) 및 외부 서버(300)를 포함할 수 있다. 여기서, 점주 사용자 단말(10), 무인점포 서버(200) 및 외부 서버(300)는 PC, 태블릿 PC, 스마트폰, 서버 등 다양한 기기로 구현될 수 있다.The unmanned store theft prevention system 10 may include a store owner user terminal 10, an unmanned store server 200, and an external server 300. Here, the store owner user terminal 10, the unmanned store server 200, and the external server 300 can be implemented with various devices such as PCs, tablet PCs, smartphones, and servers.

점주 사용자 단말(100)은 무인점포의 점주가 사용하는 사용자 단말이다. 일반적으로, 점주 사용자 단말(100)은 무인점포 외부에서 무인점포의 관리, 재고관리, 비용관리, 점포상황 모니터링 등을 수행할 수 있다.The store owner user terminal 100 is a user terminal used by the store owner of an unmanned store. In general, the store owner user terminal 100 can perform unmanned store management, inventory management, cost management, and store situation monitoring outside the unmanned store.

일 예로, 점주 사용자 단말(100)은 후술할 인점포 서버(200)와의 통신을 통해 무인점포의 실시간 상황을 전달받을 수 있다. 점주 사용자 단말(100)은 무인점포에서 도난(또는 절도) 발생 시 관련 정보를 통지받을 수 있다. 점주 사용자 단말(100)은 점주의 입력에 의해 무인점포 서버(200)에 대한 제어 신호를 송신하여 도난 사건(또는 미 결제 사건)의 처리 과정을 진행할 수 있다.As an example, the store owner user terminal 100 can receive the real-time situation of the unmanned store through communication with the in-store server 200, which will be described later. The store owner user terminal 100 can be notified of relevant information when theft (or theft) occurs in an unmanned store. The store owner user terminal 100 may process a theft case (or non-payment case) by transmitting a control signal to the unmanned store server 200 based on the store owner's input.

무인점포 서버(200)는 무인점포 도난 방지 시스템(10)을 전반적으로 제어할 수 있다. 여기서, 무인점포 서버(200)는 전자장치, 전자기기, 서버, 사용자 단말 등 다양한 용어로 정의될 수 있다.The unmanned store server 200 can generally control the unmanned store theft prevention system 10. Here, the unmanned store server 200 may be defined by various terms such as electronic device, electronic device, server, and user terminal.

무인점포 서버(200)는 구매자가 무인점포에 입장하는 순간부터 퇴장하는 순간까지 구매자를 촬영할 수 있다. 무인점포 서버(200)는 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하거나 저장된 영상을 삭제할 수 있다.The unmanned store server 200 can photograph the buyer from the moment the buyer enters the unmanned store to the moment the buyer leaves. The unmanned store server 200 can store a video of a buyer purchasing a product provided in an unmanned store or delete the stored video.

일 예로, 무인점포 서버(200)는 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성할 수 있다. 이 경우, 무인점포 서버(200)는 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행할 수 있다. 또한, 무인점포 서버(200)는 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭할 수 있다. For example, when a buyer enters an unmanned store, the unmanned store server 200 may capture the buyer's face and generate a facial image. In this case, the unmanned store server 200 may perform deep learning on the buyer's appearance based on the stored image. Additionally, the unmanned store server 200 can specify a buyer based on deep learning results and match it with the facial image.

머신 러닝의 일종인 딥러닝(deep learning) 기술은 데이터를 기반으로 다단계로 깊은 수준까지 내려가 학습하는 과정을 포함할 수 있다. 딥러닝은 단계를 높여가면서 데이터들로부터 핵심적인 데이터를 추출하는 머신 러닝 알고리즘의 집합을 나타낼 수 있다.Deep learning technology, a type of machine learning, can involve the process of learning down to a deep level in multiple stages based on data. Deep learning can represent a set of machine learning algorithms that extract key data from data at increasing levels.

딥러닝 구조는 인공신경망(ANN)을 포함할 수 있으며, 예를 들어 딥러닝 구조는 CNN(convolutional neural network), RNN(recurrent neural network), DBN(deep belief network) 등 심층신경망(DNN)으로 구성될 수 있다. The deep learning structure may include an artificial neural network (ANN). For example, the deep learning structure consists of deep neural networks (DNN) such as convolutional neural network (CNN), recurrent neural network (RNN), and deep belief network (DBN). It can be.

본 실시 예에 따른 딥러닝 구조는 공지된 다양한 구조를 이용할 수 있다. 예를 들어, 본 발명에 따른 딥러닝 구조는 CNN, RNN, DBN 등을 포함할 수 있다. RNN은, 자연어 처리 등에 많이 이용되고 있으며, 시간의 흐름에 따라 변하는 시계열 데이터(time-series data) 처리에 효과적인 구조로 매 순간마다 레이어를 쌓아 올려 인공신경망 구조를 구성할 수 있다. DBN은 딥러닝 기법인 RBM(restricted boltzman machine)을 다층으로 쌓아 구성되는 딥러닝 구조를 포함할 수 있다. RBM 학습을 반복하여, 일정 수의 레이어가 되면 해당 개수의 레이어를 가지는 DBN을 구성할 수 있다. The deep learning structure according to this embodiment can use various known structures. For example, the deep learning structure according to the present invention may include CNN, RNN, DBN, etc. RNN is widely used in natural language processing, etc., and is an effective structure for processing time-series data that changes over time. It can build an artificial neural network structure by stacking layers at every moment. DBN may include a deep learning structure composed of multiple layers of restricted boltzman machine (RBM), a deep learning technique. By repeating RBM learning, when a certain number of layers are reached, a DBN with that number of layers can be constructed.

CNN은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출되는 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델을 포함할 수 있다.CNN can include a model that simulates human brain function, which is created based on the assumption that when a person recognizes an object, the basic features of the object are extracted, then complex calculations are performed in the brain, and the object is recognized based on the results. there is.

한편, 인공신경망의 학습은 주어진 입력에 대하여 원하는 출력이 나오도록 노드간 연결선의 웨이트(weight)를 조정(필요한 경우 바이어스(bias) 값도 조정)함으로써 이루어질 수 있다. 또한, 인공신경망은 학습에 의해 웨이트(weight) 값을 지속적으로 업데이트시킬 수 있다. 또한, 인공신경망의 학습에는 역전파(back propagation) 등의 방법이 사용될 수 있다.Meanwhile, learning of an artificial neural network can be accomplished by adjusting the weight of the connection lines between nodes (adjusting the bias value if necessary) to produce the desired output for a given input. Additionally, artificial neural networks can continuously update weight values through learning. Additionally, methods such as back propagation can be used to learn artificial neural networks.

또한, 무인점포 서버(200)는 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상기 상품을 피킹(picking)한 것으로 판단하고, 상품의 ID(identification) 및 구매자를 매칭할 수 있다.In addition, the unmanned store server 200 determines that the buyer has picked the product when the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance. And, the ID (identification) of the product and the buyer can be matched.

또한, 무인점포 서버(200)는 카메라부(210)에 의해 촬영되는 영상에 기초하여, 구매자에 의해 상품이 피킹(picking)되는지 여부를 판단할 수 있다.Additionally, the unmanned store server 200 can determine whether a product is being picked by a buyer based on the image captured by the camera unit 210.

무인점포 서버(200)는 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자를 피킹한 상품에 대한 미 결제자로 결정할 수 있다. 이 경우, 무인점포 서버(200)는 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말(100)로 전송할 수 있다. 무인점포 서버(200)는 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하여 무인점포에서 미 결제 사건이 발생한 사실을 공지할 수 있다.If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the unmanned store server 200 may determine the buyer as a person who has not paid for the picked product. In this case, the unmanned store server 200 may transmit information about the face image of the buyer, the ID of the product, and the time the buyer left the payment area of the unmanned store to the store owner's user terminal 100. When the unmanned store server 200 receives a request for notification of a non-payment event from the store owner's user terminal, the unmanned store server 200 may display a face image of the buyer to notify the fact that a non-payment event has occurred in the unmanned store.

외부 서버(300)는 일 예로, 경찰청 서버일 수 있다. 무인점포 서버(200)는 도난이 발생한 것으로 결정한 경우, 미 결제 사건범의 프로파일을 생성하고 생성된 프로파일을 외부 서버(300)로 전송할 수 있다. 이 경우, 무인점포 서버(200)는 미 결제가 발생한 사실, 미 결제가 발생한 무인점포의 위치 정보 등을 프로파일 정보와 함께 외부 서버(300)로 전송하여 경찰의 조치를 구할 수 있다.The external server 300 may be, for example, a National Police Agency server. If it is determined that theft has occurred, the unmanned store server 200 may create a profile of the person responsible for the non-payment incident and transmit the created profile to the external server 300. In this case, the unmanned store server 200 can request police action by transmitting the fact that non-payment occurred, location information of the unmanned store where non-payment occurred, etc. along with profile information to the external server 300.

상술한 본 발명의 일 실시 예에 따르면, 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 구매자의 프로파일링을 통해서 도난 발생 시 신속하게 대응하는 방법을 제공할 수 있다.According to an embodiment of the present invention described above, it is possible to prevent product theft by tracking the buyer's behavior within an unmanned store, and to provide a method of quickly responding in case of theft through buyer profiling.

일반적으로, 본원에서 개시되는 디바이스, 시스템, 및 방법은, 예를 들면, 범용 컴퓨팅 시스템, 서버-클라이언트 컴퓨팅 시스템, 소비자-상인 컴퓨팅 시스템, 메인프레임 컴퓨팅 시스템, 클라우드 컴퓨팅 인프라(infrastructure), 전화 컴퓨팅 시스템, 랩탑 컴퓨터, 데스크탑 컴퓨터, 스마트폰, 셀룰러 폰, 개인 휴대 정보 단말(personal digital assistant; PDA), 태블릿 컴퓨터, 및 다른 모바일 디바이스를 포함하는 다수의 상이한 디바이스 및 컴퓨터 시스템을 포함할 수 있고, 그 다수의 상이한 디바이스 및 컴퓨터 시스템 내에서 구현될 수도 있다. 디바이스 및 컴퓨팅 시스템은 하나 이상의 데이터베이스와 다른 저장 장치, 서버, 및 추가 컴포넌트, 예를 들면, 프로세서, 모뎀, 단말 및 디스플레이, 컴퓨터 판독가능 매체, 알고리즘, 모듈 및 애플리케이션, 및 다른 컴퓨터 관련 컴포넌트를 구비할 수도 있다. 디바이스 및 컴퓨터 시스템 및/또는 컴퓨팅 인프라는 본원에서 개시되는 바와 같은 시스템 및 방법의 기능 및 프로세스를 수행하도록 구성되고, 프로그래밍되고, 적응된다.In general, the devices, systems, and methods disclosed herein may be used in, for example, general-purpose computing systems, server-client computing systems, consumer-merchant computing systems, mainframe computing systems, cloud computing infrastructure, and telephony computing systems. , can include a number of different devices and computer systems, including laptop computers, desktop computers, smartphones, cellular phones, personal digital assistants (PDAs), tablet computers, and other mobile devices, many of which may be implemented within different devices and computer systems. Devices and computing systems may include one or more databases and other storage devices, servers, and additional components such as processors, modems, terminals and displays, computer-readable media, algorithms, modules and applications, and other computer-related components. It may be possible. Devices and computer systems and/or computing infrastructure are configured, programmed, and adapted to perform the functions and processes of the systems and methods as disclosed herein.

도 2는 본 발명의 일 실시 예에 따른 무인점포 서버의 블록도이다.Figure 2 is a block diagram of an unmanned store server according to an embodiment of the present invention.

도 2를 참조하면, 무인점포 서버(200)는 카메라부(210), 저장부(220) 및 프로세서(230)를 포함할 수 있다.Referring to FIG. 2, the unmanned store server 200 may include a camera unit 210, a storage unit 220, and a processor 230.

카메라부(210)는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 카메라부(210)는 무인점포의 입구, 무인점포의 천장, 선반의 일 부분 등에 배치될 수 있다.The camera unit 210 may include at least one camera. Here, the camera unit 210 may be placed at the entrance of the unmanned store, the ceiling of the unmanned store, or a portion of a shelf.

일 예로, 카메라부(210)는 선반의 일 부분에 배치되어 선반에 수납(진열, 비치)되거나 다른 선반에 수납된 적어도 하나의 상품을 촬영할 수 있다. 또한, 카메라부(210)는 선반의 일 부분에 배치되어 선반에 수납된 상품을 피킹(picking)하기 위해 진입하는 오브젝트 예를 들어, 구매자의 신체 중 일부, 또는 선반의 상 측, 하 측, 좌우 측에 배치된 다른 선반에 진입하는 오브젝트 예를 들어, 구매자의 신체 중 일부를 촬영할 수 있다. 상기 구매자의 신체 중 일부는 구매자의 손일 수 있다.As an example, the camera unit 210 may be placed on a portion of a shelf and photograph at least one product stored (displayed, placed) on the shelf or stored on another shelf. In addition, the camera unit 210 is disposed on a part of the shelf and detects objects that enter to pick products stored on the shelf, for example, a part of the buyer's body, or the upper, lower, left and right sides of the shelf. An object entering another shelf placed on the side, for example, a part of the buyer's body, can be photographed. Part of the buyer's body may be the buyer's hands.

일 예로, 카메라부(210)는 점포 내 공간을 촬영할 수 있다. 예를 들어, 점포 내 공간은 복수의 공간으로 분할될 수 있는데, 카메라부(210)에 포함되는 복수의 카메라는 상술한 복수의 공간 각각을 커버하도록 배치될 수 있다. 이 경우, 복수의 카메라는 상술한 복수의 공간 각각을 실시간으로 촬영할 수 있다. 이 경우, 복수의 카메라는 구매자를 트래킹하여 구매자의 외형을 촬영할 수 있다.As an example, the camera unit 210 can capture space within a store. For example, the space within a store may be divided into a plurality of spaces, and a plurality of cameras included in the camera unit 210 may be arranged to cover each of the plurality of spaces described above. In this case, the plurality of cameras can photograph each of the plurality of spaces described above in real time. In this case, a plurality of cameras can track the buyer and photograph the buyer's appearance.

저장부(220)는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.The storage unit 220 may include volatile or non-volatile recording media.

저장부(220)는 하나 이상의 프로세서와 연결되는 것으로, 프로세서(220)에 의해 실행될 때, 프로세서(220)로 하여금 무인점포 서버(200)를 제어하도록 야기하는(cause) 코드들을 저장할 수 있다.The storage unit 220 is connected to one or more processors and can store codes that, when executed by the processor 220, cause the processor 220 to control the unmanned store server 200.

여기서, 저장부(220)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 이러한 저장부(220)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있으며, DRAM, SRAM, 또는 SDRAM 등과 같은 휘발성 메모리, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, NAND 플래시 메모리, 또는 NOR 플래시 메모리 등과 같은 비휘발성 메모리, SSD. CF(compact flash) 카드, SD 카드, Micro-SD 카드, Mini-SD 카드, 또는 메모리 스틱(memory stick) 등과 같은 플래시 드라이브, 또는 HDD와 같은 저장 장치를 포함할 수 있다.Here, the storage unit 220 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto. This storage unit 220 may include internal memory and/or external memory, volatile memory such as DRAM, SRAM, or SDRAM, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, and flash ROM. , non-volatile memory such as NAND flash memory, or NOR flash memory, SSD. It may include a flash drive such as a compact flash (CF) card, SD card, Micro-SD card, Mini-SD card, or memory stick, or a storage device such as an HDD.

저장부(220)는 다양한 데이터 또는 정보를 저장할 수 있다. 일 예로, 저장부(220)는 카메라부(210)에 의해 촬영되는 실시간 이미지를 저장할 수 있다. 또한, 저장부(220)는 프로세서(230)에 의해 생성되는 사용자의 프로파일을 저장할 수 있다. 또한, 프로세서(230)에서 수행되는 판단, 결정 또는 연산 결과를 저장할 수 있다.The storage unit 220 can store various data or information. As an example, the storage unit 220 may store real-time images captured by the camera unit 210. Additionally, the storage unit 220 may store the user's profile created by the processor 230. Additionally, the results of judgments, decisions, or calculations performed by the processor 230 may be stored.

프로세서(230)는 무인점포 서버(200)를 전반적으로 제어할 수 있다. 특히, 프로세서(230)는 무인점포에 비치된 상품의 도난을 방지하고, 도난 발생 시 조치를 취하는 동작을 수행할 수 있다.The processor 230 can generally control the unmanned store server 200. In particular, the processor 230 can prevent the theft of products stored in unmanned stores and take action when theft occurs.

구체적으로, 프로세서(230)는 무인점포에 비치된 상품을 구매하는 구매자를 촬영하도록 카메라부(210)를 제어하고, 촬영된 영상을 저장하도록 저장부(220)를 제어할 수 있다. Specifically, the processor 230 may control the camera unit 210 to capture a picture of a buyer purchasing a product displayed in an unmanned store, and control the storage unit 220 to store the captured image.

또한, 프로세서(230)는 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 카메라부(210)를 제어할 수 있다. 프로세서(230)는 구매자의 얼굴 이미지를 구매자의 프로파일 정보로서 저장부(210)에 저장할 수 있다.Additionally, the processor 230 may control the camera unit 210 to capture the buyer's face and generate a facial image when the buyer enters the unmanned store. The processor 230 may store the buyer's face image as the buyer's profile information in the storage unit 210.

또한, 프로세서(230)는 저장부(220)에 기저장된 영상 또는 카메라부(210)에 의해 촬영된 영상에 기초하여 상품을 구매한 구매자를 특정할 수 있다. Additionally, the processor 230 may specify a buyer who purchased the product based on an image pre-stored in the storage unit 220 or an image captured by the camera unit 210.

일 예로, 프로세서(230)는 자세 추정(pose estimation) 알고리즘을 이용한 딥러닝(deep learning)을 통하여 구매자를 특정할 수 있다. 예를 들어, 도 3을 참조하면, 프로세서(230)는 구매자의 영상을 딥러닝하여 이동하면서 다양한 동작을 취하는 구매자를 동일한 구매자로 특정할 수 있다.As an example, the processor 230 may specify a buyer through deep learning using a pose estimation algorithm. For example, referring to FIG. 3, the processor 230 may perform deep learning on the buyer's image to identify a buyer who performs various actions while moving as the same buyer.

또한, 프로세서(230)는 스켈레톤(skeleton) 추출 알고리즘을 통해 구매자의 신체의 움직임(이동) 및 움직임의 방향을 추출할 수 있다. 또한, 프로세서(230)는 컴퓨터 비전(vision) 기술 예를 들어, 옵티컬 플로우(optical flow)를 이용하여 사람의 신체의 움직임을 추출할 수 있다. Additionally, the processor 230 may extract the movement (movement) and direction of movement of the buyer's body through a skeleton extraction algorithm. Additionally, the processor 230 may extract the movement of the human body using computer vision technology, for example, optical flow.

여기서, 프로세서(230)는 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 기저장된 얼굴 이미지를 매칭할 수 있다. 여기서, 기저장된 얼굴 이미지는 구매자의 얼굴을 포함하고, 배경화면의 적어도 일부를 삭제한 이미지일 수 있다.Here, the processor 230 can identify the buyer based on the deep learning results and match the pre-stored facial image. Here, the pre-stored face image may be an image that includes the buyer's face and has at least part of the background screen deleted.

한편, 프로세서(230)는 구매자가 상품을 구매하였는지 여부를 판단할 수 있다. Meanwhile, the processor 230 may determine whether the buyer purchased the product.

일 예로, 상술한 선반은 무게 센서부를 포함할 수 있다. 무게 센서부는 상품의 무게 또는 선반의 무게 변화를 센싱할 수 있다. 무게 센서부는 상품이 선반에 추가되거나 이탈되는 경우 무게 변화를 센싱하고, 센싱 결과를 프로세서(230)로 전송할 수 있다. 여기서, 프로세서(230)는 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상기 상품을 피킹(picking)한 것으로 판단할 수 있다.As an example, the above-described shelf may include a weight sensor unit. The weight sensor unit can sense changes in the weight of the product or the weight of the shelf. The weight sensor unit may sense a change in weight when a product is added to or removed from the shelf, and transmit the sensing result to the processor 230. Here, if the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance, the processor 230 determines that the buyer has picked the product. You can.

일 예로, 도 4를 참조하면, 카메라부(210)가 선반의 상측에 선반에 수납된 상품의 상단을 촬영한다고 가정한다. 프로세서(230)는 선반에 진입하는 손의 여러가지 방향(A, B, C)을 판단할 수 있다. As an example, referring to FIG. 4, it is assumed that the camera unit 210 photographs the top of a product stored on the shelf. The processor 230 can determine various directions (A, B, C) of the hand entering the shelf.

여기서, 프로세서(230)는 판단된 손의 방향에 기초하여, 구매자에 의해 상품이 피킹되는지 여부를 판단할 수 있다. 여기서, 손의 방향은 구매자의 손의 이동 시작 점(start point) 및 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정될 수 있다.Here, the processor 230 may determine whether the product is picked by the buyer based on the determined hand direction. Here, the direction of the hand may be determined by a vector connecting the start point of movement of the purchaser's hand and the stop point of movement of the purchaser's hand.

구체적으로, 프로세서(230)는 손의 이동 시작 점(start point) 및 손의 이동 정지 점(stop point)를 판단하고, 상기 손의 이동 시작 점 및 손의 이동 정지 점을 연결하는 제1 벡터를 생성할 수 있다. 또한, 프로세서(230)는 피킹된 상품의 위치와 무인점포 내에 존재하는 적어도 하나의 구매자의 위치 간의 제2 벡터를 생성한다. 프로세서(230)는 상기 제1 벡터의 방향 및 상기 제2 벡터의 방향의 일치 여부에 따라 상기 적어도 하나의 구매자가 상기 상품을 피킹하였는지 여부를 결정할 수 있다. 예를 들어, 프로세서(230)는 상기 제1 벡터의 방향 및 상기 제2 벡터의 방향이 기정의된 각도 내인 경우(또는 일치하는 경우), 상기 적어도 하나의 구매자에 의해 상기 상품이 피킹된 것으로 판단할 수 있다.Specifically, the processor 230 determines the hand movement start point and the hand movement stop point, and creates a first vector connecting the hand movement start point and the hand movement stop point. can be created. Additionally, the processor 230 generates a second vector between the location of the picked product and the location of at least one buyer present in the unmanned store. The processor 230 may determine whether the at least one buyer has picked the product depending on whether the direction of the first vector and the direction of the second vector match. For example, if the direction of the first vector and the direction of the second vector are within (or coincide with) a predefined angle, the processor 230 determines that the product has been picked by the at least one buyer. can do.

여기서, 프로세서(230)는 상술한 제1 벡터의 방향 및 제2 벡터의 방향을 비교한 결과에 더해, 상술한 선반의 무게 변화와의 시점을 더 고려하여 상기 상품을 피킹한 구매자를 특정할 수 있다.Here, the processor 230 can specify the buyer who picked the product by further considering the timing of the weight change of the shelf, in addition to the result of comparing the direction of the first vector and the direction of the second vector. there is.

상술한 본 발명의 일 실시 예에서, 프로세서(230)는 상품을 피킹한 구매자가 특정되면, 상품의 ID(identification) 및 상기 구매자를 매칭할 수 있다.In one embodiment of the present invention described above, if the buyer who picked the product is specified, the processor 230 may match the ID (identification) of the product with the buyer.

또한, 프로세서(230)는 구매자의 미 결제 여부를 결정할 수 있다.Additionally, the processor 230 may determine whether the purchaser has not made payment.

일 예로, 프로세서(230)는 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우 구매자를 피킹한 상품에 대한 미 결제자로 결정할 수 있다. 여기서, 결제구역은 무인 결제 키오스크 주변의 특정 범위, 무인점포의 입구 라인 등 무인점포의 사정에 맞게 적절하게 정해질 수 있다.For example, if a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the processor 230 may determine the buyer as someone who has not paid for the picked product. Here, the payment area can be appropriately determined according to the circumstances of the unmanned store, such as a specific range around the unmanned payment kiosk or the entrance line of the unmanned store.

이 경우, 프로세서(230)는 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말(100)로 전송할 수 있다.In this case, the processor 230 may transmit information about the face image of the buyer, the ID of the product, and the time the buyer left the payment area of the unmanned store to the store owner's user terminal 100.

프로세서(230)는 점주의 사용자 단말(100)로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력할 수 있다.When the processor 230 receives a request for notification of the occurrence of a non-payment event from the store owner's user terminal 100, the processor 230 may display a face image of the buyer and output a voice guidance related to the occurrence of the non-payment event.

일 예로, 프로세서(230)는 구매자가 복수의 상품을 피킹한 경우, 복수의 상품의 ID 각각을 구매자와 매칭할 수 있다. 프로세서(230)는 구매자가 결제한 상품의 개수가 복수의 상품의 개수보다 작은 경우, 복수의 상품의 ID 및 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정할 수 있다. 또한, 프로세서(230)는 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력할 수 있다.For example, when a buyer picks multiple products, the processor 230 may match each ID of the multiple products with the buyer. If the number of products paid by the buyer is smaller than the number of products, the processor 230 may identify the missing product by comparing the IDs of the plurality of products with the IDs of the products paid by the buyer. Additionally, the processor 230 may generate and display a graphic user interface (GUI) requesting additional payment for the missing product, and generate and output voice guidance requesting additional payment for the missing product.

일 예로, 프로세서(230)는 상품의 미 결제 상태에서 구매자가 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행할 수 있다. 또한, 출입문의 잠금 실행을 나타내는 노티(notification)를 점주의 사용자 단말(100)로 전송할 수 있다.As an example, the processor 230 may lock the door when the buyer leaves the payment area of the unmanned store while the product has not been paid. Additionally, a notification indicating that the door has been locked can be transmitted to the store owner's user terminal 100.

한편, 프로세서(230)는 미 결제자인 구매자의 프로파일 또는 미 결제 사건에 대한 프로파일을 생성할 수 있다.Meanwhile, the processor 230 may create a profile of a buyer who has not paid or a profile of a non-payment event.

구체적으로, 프로세서(230)는 선반에 접근하는 구매자의 손을 적어도 하나의 방향에서 촬영하도록 카메라부를 제어하여 적어도 하나의 손 이미지를 생성할 수 있다. 이 경우, 프로세서(230)는 적어도 하나의 손 이미지를 저장하도록 저장부(220)를 제어할 수 있다. Specifically, the processor 230 may control the camera unit to photograph the buyer's hand approaching the shelf from at least one direction, thereby generating at least one hand image. In this case, the processor 230 may control the storage unit 220 to store at least one hand image.

여기서, 프로세서(230)는 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득할 수 있다. Here, the processor 230 may acquire at least one palm image among at least one hand image based on the results of deep learning performed on the human hand image.

프로세서(230)는 획득된 손바닥 이미지에서 지문을 구분 또는 추출할 수 있다. 이를 위해, 프로세서(230)는 지문 검출에 대하여 딥러닝(Deep Learning) 등 머신 러닝(machine learning)을 수행할 수 있다. 이 경우, 상술한 저장부(220)는 머신 러닝에 사용되는 데이터, 결과 데이터 등을 저장할 수 있다.The processor 230 may distinguish or extract fingerprints from the acquired palm image. To this end, the processor 230 may perform machine learning, such as deep learning, on fingerprint detection. In this case, the above-described storage unit 220 can store data used for machine learning, result data, etc.

일 예로, 프로세서(230)는 지문 영역의 경계를 추출할 수 있다. 프로세서(220)는 지문 이미지의 레벨 값을 기반으로, 2차원 배열에서 지문의 윤곽을 추출할 수 있다. 이 경우, 프로세서(230)는 지문 영역을 회색조(grayscale) 이미지로 변환할 수 있다. 또한, 프로세서(230)는 지문 영역 내 화소들의 중간 값을 산출해 배열의 중간 값을 지정하여 지문 영역의 경계를 추출할 수 있다.As an example, the processor 230 may extract the boundary of the fingerprint area. The processor 220 may extract the outline of the fingerprint from the two-dimensional array based on the level value of the fingerprint image. In this case, the processor 230 may convert the fingerprint area into a grayscale image. Additionally, the processor 230 can extract the boundary of the fingerprint area by calculating the median value of the pixels within the fingerprint area and specifying the median value of the array.

구체적으로, 프로세서(230)는 지문 영역의 레벨 값을 기반으로 한 2차원 배열에서 미분값을 구하여 윤곽의 강도와 방향을 계산할 수 있다. 여기서, 윤곽(edge)이란 사전적으로 물체의 외각을 나타내는 선을 의미하며, 이미지 처리의 차원에서는 이미지의 특징을 짓는 선 요소를 의미할 수 있다. 즉 경계선을 인지하는 것, 윤곽선에 해당하는 픽셀을 구하는 것을 에지 추출(edge detection)이라고 한다. Specifically, the processor 230 can calculate the intensity and direction of the outline by obtaining a differential value from a two-dimensional array based on the level value of the fingerprint area. Here, the outline (edge) dictionary refers to a line representing the outer edge of an object, and at the level of image processing, it can refer to line elements that characterize the image. In other words, recognizing the boundary line and finding the pixel corresponding to the outline is called edge detection.

윤곽은 이미지 안에서 픽셀의 값이 갑자기 변하는 곳이다. 즉 윤곽선은 다른 명암도를 가진 두 영역 사이의 경계를 의미할 수 있으며, 픽셀의 밝기가 임계 값 보다 크게 변하는 부분을 의미할 수 있다. 여기서 임계값 은 경계유무를 판단하는 임의의 기준치 값을 의미할 수 있다.Contours are places in an image where pixel values suddenly change. In other words, the outline can mean the boundary between two areas with different brightness, and can mean the part where the brightness of the pixel changes more than the threshold. Here, the threshold may mean an arbitrary reference value for determining the presence or absence of a boundary.

프로세서(230)는 윤곽을 추출하는 알고리즘은 이미지를 미분한 그레디언트 벡터의 크기로 판단할 수 있다. 즉, 프로세서(230)는 편미분 연산자의 계산에 근거하여 기울기를 구할 수 있다. 윤곽은 농담치가 급격히 변하는 부분이기 때문에 함수의 변화분을 취하는 미분 연산이 윤곽선 추출에 사용될 수 있다. The processor 230 may determine the algorithm for extracting the outline based on the size of a gradient vector obtained by differentiating the image. That is, the processor 230 can obtain the slope based on the calculation of the partial differential operator. Since the contour is a part where the light/darkness value changes rapidly, a differential operation that takes the change in the function can be used to extract the contour.

미분에는 1차 미분(gradient)과 2차 미분(laplacian)이 있으며, 1차 미분 값에서 그래프 기울기의 크기로 이미지에서 윤곽선의 존재 여부를 확인하고, 2차 미분 값에서 그래프 기울기의 부호로 윤곽선 픽셀의 밝고 어두운 부분의 위치를 확인할 수 있다. Differentiation includes first-order differentiation (gradient) and second-order differentiation (laplacian). The presence or absence of a contour in an image is checked using the size of the graph gradient in the first-order differential value, and the sign of the graph gradient is used to identify the outline pixel in the second-order differential value. You can check the location of the bright and dark parts of .

윤곽을 추출하는 알고리즘은 sobel edge Detection, Canny edge Detection 등을 포함할 수 있다. 또한, 프로세서(230)는 지문 영역의 정확한 경계를 찾기 위하여, '밝은 값'과 '어두운 값'을 찾기 위해 지문 영역을 회색조 이미지로 변환할 수 있다.Algorithms for extracting contours may include sobel edge detection, canny edge detection, etc. Additionally, the processor 230 may convert the fingerprint area into a grayscale image to find 'light values' and 'dark values' in order to find the exact boundary of the fingerprint area.

프로세서(230)는 지문 영역 내 화소들의 중간 값을 산출해 배열의 중간 값을 지정함으로써, 지문 영역의 경계를 추출할 수 있다. 즉, 프로세서(230)는 회색조로 변환한 이미지를 이진화하여 중간 값을 추출하고 윤곽을 추출할 수 있다.The processor 230 can extract the boundary of the fingerprint area by calculating the median value of the pixels within the fingerprint area and specifying the median value of the array. That is, the processor 230 can binarize the image converted to grayscale, extract the intermediate value, and extract the outline.

예를 들어, 이미지에 미분 방식을 적용하는 방법으로 마스크를 사용할 수 있다. 프로세서(230)는 이미지의 3x3 픽셀에 마스크를 씌워 계산 후 중앙 픽셀을 결정하여 윤관선을 검출할 수 있다. 여기서, 마스크의 크기는 3x3이 일반적이나 5x5, 7x7 크기의 마스크도 적용 가능하며 마스크가 커지면 에지는 두꺼워져서 선명하게 나타날 수 있다.For example, a mask can be used as a way to apply differentiation to an image. The processor 230 can detect a contour line by applying a mask to 3x3 pixels of the image and determining the center pixel. Here, the general size of the mask is 3x3, but masks of 5x5 and 7x7 sizes are also applicable, and as the mask becomes larger, the edges become thicker and can appear clearly.

또한, 프로세서(230)는 마스크 영역 내의 픽셀들 중 중간 값을 대표 값으로 취하는 필터링을 수행할 수 있다. 중간 값을 이용하여 주변 값과의 차이에 따라 적응 가중치를 설정하여 필터 처리하므로 Spot noise와 같은 임펄스성 노이즈를 줄여줄 수 있고, 이미지의 평활화(에지나 경계면 보호)가 가능하며, 선예도 차이가 크게 없으면서 잡음제거를 수행할 수 있다.Additionally, the processor 230 may perform filtering by taking the median value among pixels within the mask area as a representative value. By using the intermediate value and filtering it by setting an adaptive weight according to the difference from the surrounding value, impulsive noise such as spot noise can be reduced, image smoothing (edge or border protection) is possible, and sharpness differences are large. Noise removal can be performed without it.

본 발명의 일 실시 예에서, 프로세서(230)는 지문 영역의 최종 에지 검출을 하기 전에 잡음을 제거하기 위해 중간 값(median) 필터와 같은 smoothing 필터를 적용하고 에지 검출을 위해 공간 필터를 적용할 수 있다. 즉, 프로세서(230)는 배열의 중간 값에 기초하여 판단된 후보 동질 영역에 대해 재귀 호출을 수행하고, 재귀 호출 수행 결과, 지문 이미지의 화소 값의 변화의 평균 값을 산출할 수 있다. In one embodiment of the present invention, processor 230 may apply a smoothing filter, such as a median filter, to remove noise before final edge detection of the fingerprint area and a spatial filter for edge detection. there is. That is, the processor 230 may perform a recursive call on the candidate homogeneous region determined based on the median value of the array, and calculate the average value of the change in pixel value of the fingerprint image as a result of the recursive call.

최종적으로, 프로세서(230)는 구매자의 지문 이미지를 획득하여 저장부(220)에 저장할 수 있다.Finally, the processor 230 may obtain the buyer's fingerprint image and store it in the storage unit 220.

한편, 프로세서(230)는 구매자가 피킹한 상품을 정상 결제한 경우, 저장된 적어도 하나의 손바닥 이미지를 삭제하고, 구매자가 피킹한 상품을 미 결제한 경우, 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 구매자와 매칭하여 저장하도록 저장부(212)를 제어할 수 있다. Meanwhile, the processor 230 deletes at least one stored palm image when the buyer normally pays for the picked product, and acquires a fingerprint image from at least one stored palm image when the buyer does not pay for the picked product. Thus, the storage unit 212 can be controlled to match and store the purchaser.

또한, 프로세서(230)는 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하고, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장할 수 있다.In addition, the processor 230 determines at least one palm image as one of a left-hand palm image and a right-hand palm image, based on the deep learning results performed on the human hand image, and determines whether the fingerprint image corresponds to the left or right hand. You can create and save the indicating indicator.

또한, 프로세서(230)는 구매자가 피킹한 상품을 미 결제한 경우, 지문 이미지, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 구매자에 대한 상기 얼굴 이미지, 상품의 ID, 미 결제 피해액 및 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보 중 적어도 하나를 포함하는 미 결제자 프로파일 또는 미 결제 사건 프로파일을 생성하여 경찰청 서버로 전송할 수 있다.In addition, when the buyer does not pay for the picked product, the processor 230 provides a fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, the facial image of the buyer, the ID of the product, the amount of unpaid damage, and the buyer. A non-payer profile or a non-payment case profile containing at least one of information about the time of leaving the payment area of the unmanned store may be created and transmitted to the National Police Agency server.

상술한 본 발명의 다양한 실시 예에 따르면, 무인점포 내에서 구매자의 행동을 추적함으로써 상품의 도난을 방지하고, 구매자 또는 미 결제 사건의 프로파일링을 통해서 도난 발생 시 신속하게 대응할 수 있다.According to the various embodiments of the present invention described above, the theft of products can be prevented by tracking the buyer's behavior within an unmanned store, and rapid response in the event of theft can be achieved through profiling of the buyer or non-payment events.

도 5는 본 발명의 일 실시 예에 따른 전자장치의 세부 구성도이다.Figure 5 is a detailed configuration diagram of an electronic device according to an embodiment of the present invention.

도 5를 참조하면, 전자장치(500)는 통신부(510), 저장부(520) 및 프로세서(530)를 포함한다.Referring to FIG. 5 , the electronic device 500 includes a communication unit 510, a storage unit 520, and a processor 530.

통신부(510)는 통신을 수행한다. 통신부(510)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 전자기기와 통신을 수행할 수 있다.The communication unit 510 performs communication. The communication unit 510 can communicate with external electronic devices through various communication methods such as BT (BlueTooth), WI-FI (Wireless Fidelity), ZigBee, IR (Infrared), NFC (Near Field Communication), etc.

저장부(520)는 전자장치(500)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. The storage unit 520 may store O/S (Operating System) software modules for driving the electronic device 500, data for configuring various UI screens provided in the display area, etc.

또한, 저장부(520)는 읽고 쓰기가 가능하다.Additionally, the storage unit 520 is capable of reading and writing.

프로세서(530)는 저장부(520)에 저장된 각종 프로그램을 이용하여 전자장치(500)의 동작을 전반적으로 제어한다.The processor 530 generally controls the operation of the electronic device 500 using various programs stored in the storage unit 520.

구체적으로, 프로세서(530)는 RAM(531), ROM(532), 메인 CPU(533), 그래픽 처리부(534), 제1 내지 n 인터페이스(535-1 ~ 535-n) 및 버스(536)를 포함한다.Specifically, the processor 530 includes RAM 531, ROM 532, main CPU 533, graphics processing unit 534, first to n interfaces (535-1 to 535-n), and bus 536. Includes.

여기서, RAM(531), ROM(532), 메인 CPU(533), 그래픽 처리부(534), 제1 내지 n 인터페이스(535-1 ~ 535-n) 등은 버스(536)를 통해 서로 연결될 수 있다.Here, RAM 531, ROM 532, main CPU 533, graphics processing unit 534, first to n interfaces (535-1 to 535-n), etc. may be connected to each other through bus 536. .

제1 내지 n 인터페이스(535-1 내지 535-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 535-1 to 535-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

ROM(532)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(533)는 ROM(532)에 저장된 명령어에 따라 저장부(520)에 저장된 O/S를 RAM(531)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. The ROM 532 stores a set of instructions for booting the system. When the turn-on command is input and power is supplied, the main CPU 533 copies the O/S stored in the storage unit 520 to the RAM 531 according to the command stored in the ROM 532 and executes the O/S. Boot the system.

부팅이 완료되면, 메인 CPU(533)는 저장된 각종 어플리케이션 프로그램을 RAM(531)에 복사하고, RAM(531)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.When booting is complete, the main CPU 533 copies various stored application programs to the RAM 531 and executes the application programs copied to the RAM 531 to perform various operations.

메인 CPU(533)는 저장부(530)에 액세스하여, 저장부(530)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(533)는 저장부(530)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU 533 accesses the storage unit 530 and performs booting using the O/S stored in the storage unit 530. And, the main CPU 533 performs various operations using various programs, content, data, etc. stored in the storage unit 530.

그래픽 처리부(534)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The graphics processing unit 534 uses a calculation unit and a rendering unit to create a screen including various objects such as icons, images, and text.

도 6은 본 발명의 일 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법에 대한 흐름도이다.Figure 6 is a flowchart of a method of operating an electronic device that prevents the theft of products stored in an unmanned store according to an embodiment of the present invention.

도 6을 참조하면, 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정(S610), 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정(S620), 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행하는 과정(S630), 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭하는 과정(S640), 카메라부에 의해 촬영되는 영상에 기초하여, 구매자에 의해 상품이 피킹(picking)되는지 여부를 판단하는 과정 (S650), 상품의 ID 및 구매자를 매칭하는 과정(S660), 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정(S670) 및 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력하는 과정(S680)을 포함할 수 있다.Referring to FIG. 6, the method of operating an electronic device that prevents the theft of products displayed in an unmanned store includes a process of storing a video of a buyer purchasing a product displayed in an unmanned store (S610), and a process of storing a video of a buyer purchasing a product displayed in an unmanned store. When entering, a process of generating a facial image by photographing the buyer's face (S620), a process of performing deep learning on the buyer's appearance based on the stored image (S630), and identifying the buyer based on the deep learning results. A process of specifically matching a face image (S640), a process of determining whether a product is picked by a buyer based on the image captured by the camera unit (S650), and matching the ID of the product and the buyer. Process (S660), if a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer's payment area of the unmanned store The process of transmitting information about the time of departure from the store owner to the store owner's user terminal (S670) and upon receiving a request for notification of a non-payment event from the store owner's user terminal, a face image of the buyer is displayed and information regarding the non-payment event occurs It may include a process of outputting voice (S680).

상술한 상품이 피킹되는지 여부를 판단하는 과정은 카메라부에 의해 촬영된 영상에 기초하여, 상품이 진열된 선반으로 진입하는 구매자의 손의 방향을 판단하는 과정 및 상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정을 포함할 수 있다. The process of determining whether the above-mentioned product is picked is based on the image captured by the camera unit, the process of determining the direction of the buyer's hand entering the shelf where the product is displayed, and the determined direction of the hand. , may include a process of determining whether the product is picked by the buyer.

여기서, 상술한 손의 방향은 구매자의 손의 이동 시작 점(start point) 및 구매자의 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정될 수 있다.Here, the direction of the hand described above can be determined by a vector connecting the start point of movement of the purchaser's hand and the stop point of movement of the purchaser's hand.

또한, 상술한 상품이 피킹되는지 여부를 판단하는 과정은 상품이 진열된 선반의 무게가 상품의 무게만큼 변경되고, 구매자와 선반의 거리가 기정의된 거리 이내인 경우, 구매자가 상품을 피킹(picking)한 것으로 판단하는 과정을 더 포함할 수 있다.In addition, the process of determining whether the above-mentioned product is picked is when the weight of the shelf on which the product is displayed is changed by the weight of the product, and the distance between the buyer and the shelf is within a predefined distance, the buyer picks the product. ) may further include a process of determining that

상술한 전자장치의 동작방법은 구매자가 복수의 상품을 피킹한 경우, 복수의 상품의 ID 각각을 구매자와 매칭하는 과정 및 구매자가 결제한 상품의 개수가 복수의 상품의 개수보다 작은 경우, 복수의 상품의 ID 및 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 누락된 상품의 추가 결제를 요청하는 GUI를 생성하여 디스플레이하고, 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는 과정을 더 포함할 수 있다. The method of operating the above-described electronic device includes a process of matching each ID of a plurality of products with the buyer when the buyer picks multiple products, and when the number of products paid by the buyer is less than the number of the plurality of products. By comparing the ID of the product and the ID of the product paid by the buyer, the missing product is identified, a GUI is created and displayed to request additional payment for the missing product, and a voice guidance is generated to request additional payment for the missing product. This may further include an output process.

또한, 상술한 전자장치의 동작방법은 상품의 미 결제 상태에서 구매자가 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 출입문의 잠금 실행을 나타내는 노티를 점주의 사용자 단말로 전송하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-mentioned electronic device is to lock the door when the buyer leaves the payment area of the unmanned store while the product has not been paid, and to transmit a notification indicating the locking of the door to the store owner's user terminal. Additional processes may be included.

또한, 상술한 전자장치의 동작방법은 선반에 접근하는 구매자의 손을 적어도 하나의 방향에서 촬영하도록 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 적어도 하나의 손 이미지를 저장하는 과정을 더 포함할 수 있다.In addition, the method of operating the above-described electronic device further includes the steps of controlling the camera unit to capture the hand of a buyer approaching the shelf from at least one direction, generating at least one hand image, and storing the at least one hand image. can do.

또한, 상술한 전자장치의 동작방법은 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는 과정을 더 포함할 수 있다.Additionally, the method of operating the electronic device described above may further include a process of acquiring at least one palm image among at least one hand image based on the results of deep learning performed on the human hand image.

또한, 상술한 전자장치의 동작방법은 구매자가 피킹한 상품을 정상 결제한 경우, 저장된 적어도 하나의 손바닥 이미지를 삭제하는 과정 및 구매자가 피킹한 상품을 미 결제한 경우, 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 구매자와 매칭하여 저장하는 과정을 더 포함할 수 있다.In addition, the method of operating the above-described electronic device includes a process of deleting at least one stored palm image when the buyer normally pays for the picked product, and a process of deleting at least one stored palm image from the stored palm image when the buyer does not pay for the picked product. It may further include the process of acquiring a fingerprint image, matching it with the purchaser, and storing it.

또한, 상술한 전자장치의 동작방법은 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하는 과정 및 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-described electronic device includes a process of determining at least one palm image as one of a left-hand palm image and a right-hand palm image based on deep learning results performed on a human hand image, and a process of determining whether the fingerprint image is left or right-handed. It may further include the process of generating and storing an indicator indicating whether it corresponds to .

또한, 상술한 전자장치의 동작방법은 구매자가 피킹한 상품을 미 결제한 경우, 지문 이미지, 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 구매자에 대한 얼굴 이미지, 상품의 ID, 미 결제 피해액 및 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는 과정을 더 포함할 수 있다. In addition, the method of operating the above-mentioned electronic device is, in the case where the buyer has not paid for the picked product, a fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, a facial image of the buyer, the ID of the product, and the amount of unpaid damage. And it may further include the process of creating a non-payment event profile including information about the time the buyer left the payment area of the unmanned store and transmitting it to an external server.

한편, 상술한 본 발명의 다양한 실시 예에 따른 무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.Meanwhile, the method of operating an electronic device for preventing theft of products stored in an unmanned store according to various embodiments of the present invention described above is implemented as a computer-executable program code and can be used in various non-transitory computer readable media. medium) and can be provided to each server or device to be executed by a processor.

일 예로, 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정, 구매자가 무인점포로 입장하는 경우, 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정, 저장된 영상에 기초하여 구매자의 외형에 대한 딥러닝을 수행하고, 수행된 딥러닝 결과에 기초하여 구매자를 특정하여 얼굴 이미지와 매칭하는 과정, 상품의 ID 및 구매자를 매칭하는 과정(S650), 구매자가 상품을 결제하지 않은 상태에서 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 구매자에 대한 얼굴 이미지, 상품의 ID, 구매자가 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정(S660) 및 점주의 사용자 단말로부터 미 결제 사건 발생 알림 요청을 수신하면, 구매자에 대한 얼굴 이미지를 디스플레이하고, 미 결제 사건 발생 관련 안내 음성을 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, the process of storing a video of a buyer purchasing a product displayed in an unmanned store, the process of generating a facial image by photographing the buyer's face when the buyer enters an unmanned store, and the process of generating a facial image of the buyer based on the stored video Process of performing deep learning on the appearance of the product, specifying the buyer based on the deep learning results and matching the face image, process of matching the ID of the product and the buyer (S650), state in which the buyer has not paid for the product If a predefined time has elapsed from the time the buyer left the payment area of the unmanned store, the face image of the buyer, the ID of the product, and information about the time the buyer left the payment area of the unmanned store are sent to the store owner's user terminal. When a request for notification of the occurrence of a non-payment event is received from the transmission process (S660) and the store owner's user terminal, a non-temporary program is stored that performs the process of displaying the face image of the buyer and outputting a voice guidance related to the occurrence of the non-payment event. A readable medium (non-transitory computer readable medium) may be provided.

비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short period of time, such as registers, caches, and memories. Specifically, the various applications or programs described above may be stored and provided on non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, etc.

이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.Although embodiments of the present invention have been shown and described above, those skilled in the art will recognize that various changes in form and details may be made without departing from the spirit and scope of the present embodiments as defined by the appended claims and their equivalents. You will understand that you can.

무인점포 도난 방지 시스템: 10
점주 사용자 단말: 100
무인점포 서버: 200
전자장치: 500
외부 서버: 300
카메라부: 210
저장부: 220, 520
프로세서: 230, 530
통신부: 510
Unmanned store theft prevention system: 10
Store owner user terminal: 100
Unmanned store servers: 200
Electronics: 500
External servers: 300
Camera unit: 210
Storage: 220, 520
Processor: 230, 530
Department of Communications: 510

Claims (22)

무인점포에 비치된 상품의 도난을 방지하는 전자장치에 있어서,
카메라부;
상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 저장부; 및
구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하도록 상기 카메라부를 제어하고,
상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하고,
상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하고,
상기 카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하고,
상기 상품의 ID(identification) 및 상기 구매자를 매칭하고,
상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는, 프로세서;를 포함하는, 전자장치.
In an electronic device that prevents the theft of products stored in an unmanned store,
camera unit;
a storage unit that stores images captured of buyers purchasing products displayed in the unmanned store; and
When a buyer enters the unmanned store, control the camera unit to capture the buyer's face and create a facial image,
Perform deep learning on the buyer's appearance based on the stored image,
Based on the deep learning results, the buyer is identified and matched with the face image,
Based on the image captured by the camera unit, determine whether the product is picked by the buyer,
Match the ID (identification) of the product and the buyer,
If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. An electronic device that includes a processor, which transmits information about the time of departure from the payment area to the store owner's user terminal.
제1항에 있어서,
상기 프로세서는,
상기 카메라부에 의해 촬영된 영상에 기초하여, 상기 상품이 진열된 선반으로 진입하는 상기 구매자의 손의 방향을 판단하고,
상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는, 전자장치.
According to paragraph 1,
The processor,
Based on the image captured by the camera unit, determine the direction of the buyer's hand entering the shelf where the product is displayed,
An electronic device that determines whether the product is picked by the buyer, based on the determined hand direction.
제2항에 있어서,
상기 손의 방향은,
상기 구매자의 상기 손의 이동 시작 점(start point) 및 상기 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정되는, 전자장치.
According to paragraph 2,
The direction of the hand is,
An electronic device determined by a vector connecting a start point of movement of the hand of the purchaser and a stop point of movement of the hand of the purchaser.
제2항에 있어서,
상기 프로세서는,
상기 상품이 진열된 선반의 무게가 상기 상품의 무게만큼 변경되고, 상기 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 상기 구매자가 상기 상품을 피킹(picking)한 것으로 판단하는, 전자장치.
According to paragraph 2,
The processor,
An electronic device that determines that the buyer has picked the product when the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance. .
제1항에 있어서,
상기 프로세서는,
상기 구매자가 복수의 상품을 피킹한 경우, 상기 복수의 상품의 ID 각각을 상기 구매자와 매칭하고,
상기 구매자가 결제한 상품의 개수가 상기 복수의 상품의 개수보다 작은 경우, 상기 복수의 상품의 ID 및 상기 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 상기 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 상기 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는, 전자장치.
According to paragraph 1,
The processor,
When the buyer picks multiple products, each ID of the plurality of products is matched with the buyer,
If the number of products paid by the buyer is less than the number of the plurality of products, the IDs of the plurality of products are compared with the IDs of the products paid by the buyer to specify the missing product, and the missing product is added. An electronic device that generates and displays a GUI (graphic user interface) requesting payment, and generates and outputs voice guidance requesting additional payment for the missing product.
제1항에 있어서,
상기 프로세서는,
상기 상품의 미 결제 상태에서 상기 구매자가 상기 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 상기 출입문의 잠금 실행을 나타내는 노티(notification)를 상기 점주의 사용자 단말로 전송하는, 전자장치.
According to paragraph 1,
The processor,
When the buyer leaves the payment area of the unmanned store while the product is not paid, the electronic door is locked and a notification indicating the locking of the door is transmitted to the store owner's user terminal. Device.
제2항에 있어서,
상기 프로세서는,
상기 선반에 접근하는 상기 구매자의 손을 적어도 하나의 방향에서 촬영하도록 상기 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 상기 적어도 하나의 손 이미지를 저장하도록 상기 저장부를 제어하는, 전자장치.
According to paragraph 2,
The processor,
An electronic device that controls the camera unit to capture the buyer's hand approaching the shelf from at least one direction to generate at least one hand image, and controls the storage unit to store the at least one hand image.
제7항에 있어서,
상기 프로세서는,
사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는, 전자장치.
In clause 7,
The processor,
An electronic device that acquires at least one palm image among the at least one hand image based on a deep learning result performed on a human hand image.
제8항에 있어서,
상기 프로세서는,
상기 구매자가 피킹한 상품을 정상 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지를 삭제하고,
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 상기 구매자와 매칭하여 저장하도록 상기 저장부를 제어하는, 전자장치.
According to clause 8,
The processor,
If the buyer normally pays for the picked product, the at least one stored palm image is deleted,
An electronic device that controls the storage unit to obtain a fingerprint image from the stored at least one palm image, match it with the purchaser, and store the fingerprint image when the purchaser has not paid for the picked product.
제9항에 있어서,
상기 프로세서는,
상기 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하고,
상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는, 전자장치.
According to clause 9,
The processor,
Based on deep learning results performed on the human hand image, determining the at least one palm image as one of a left palm image and a right palm image,
An electronic device that generates and stores an indicator indicating whether the fingerprint image corresponds to a left or right hand.
제10항에 있어서,
상기 프로세서는,
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 지문 이미지, 상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 미 결제 피해액 및 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는, 전자장치.
According to clause 10,
The processor,
If the buyer has not paid for the picked product, the fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, the face image of the buyer, the ID of the product, the amount of unpaid damage, and the buyer An electronic device that generates a non-payment event profile including information on the time of leaving the payment area of the unmanned store and transmits it to an external server.
무인점포에 비치된 상품의 도난을 방지하는 전자장치의 동작방법에 있어서,
상기 무인점포에 비치된 상품을 구매하는 구매자를 촬영한 영상을 저장하는 과정;
구매자가 상기 무인점포로 입장하는 경우, 상기 구매자의 얼굴을 촬영하여 얼굴 이미지를 생성하는 과정;
상기 저장된 영상에 기초하여 상기 구매자의 외형에 대한 딥러닝을 수행하는 과정;
상기 수행된 딥러닝 결과에 기초하여 상기 구매자를 특정하여 상기 얼굴 이미지와 매칭하는 과정;
카메라부에 의해 촬영되는 영상에 기초하여, 상기 구매자에 의해 상기 상품이 피킹(picking)되는지 여부를 판단하는 과정;
상기 상품의 ID(identification) 및 상기 구매자를 매칭하는 과정; 및
상기 구매자가 상기 상품을 결제하지 않은 상태에서 상기 무인점포의 결제구역을 이탈한 시점으로부터 기정의된 시간이 도과한 경우, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 점주의 사용자 단말로 전송하는 과정;을 포함하는, 전자장치의 동작방법.
In a method of operating an electronic device that prevents the theft of products stored in an unmanned store,
A process of storing a video of a buyer purchasing a product provided in the unmanned store;
When a buyer enters the unmanned store, a process of generating a facial image by photographing the buyer's face;
A process of performing deep learning on the buyer's appearance based on the stored image;
A process of specifying the buyer and matching the face image based on the deep learning results performed;
A process of determining whether the product is picked by the buyer based on the image captured by the camera unit;
A process of matching the ID (identification) of the product and the buyer; and
If a predefined time has elapsed from the time the buyer leaves the payment area of the unmanned store without paying for the product, the facial image of the buyer, the ID of the product, and the buyer are returned to the unmanned store. A method of operating an electronic device, including a process of transmitting information about the time of departure from the payment area to the store owner's user terminal.
제12항에 있어서,
상기 상품이 피킹되는지 여부를 판단하는 과정은,
상기 카메라부에 의해 촬영된 영상에 기초하여, 상기 상품이 진열된 선반으로 진입하는 상기 구매자의 손의 방향을 판단하는 과정; 및
상기 판단된 손의 방향에 기초하여, 상기 구매자에 의해 상기 상품이 피킹되는지 여부를 판단하는 과정;을 포함하는, 전자장치의 동작방법.
According to clause 12,
The process of determining whether the product is picked is:
Based on the image captured by the camera unit, determining the direction of the buyer's hand entering the shelf where the product is displayed; and
A method of operating an electronic device comprising: determining whether the product is picked by the buyer, based on the determined hand direction.
제13항에 있어서,
상기 손의 방향은,
상기 구매자의 상기 손의 이동 시작 점(start point) 및 상기 구매자의 상기 손의 이동 정지 점(stop point)을 연결하는 벡터에 의해 결정되는, 전자장치의 동작방법.
According to clause 13,
The direction of the hand is,
A method of operating an electronic device, determined by a vector connecting a start point of movement of the hand of the purchaser and a stop point of movement of the hand of the purchaser.
제13항에 있어서,
상기 상품이 피킹되는지 여부를 판단하는 과정은,
상기 상품이 진열된 선반의 무게가 상기 상품의 무게만큼 변경되고, 상기 구매자와 상기 선반의 거리가 기정의된 거리 이내인 경우, 상기 구매자가 상기 상품을 피킹(picking)한 것으로 판단하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 13,
The process of determining whether the product is picked is:
If the weight of the shelf on which the product is displayed changes by the weight of the product and the distance between the buyer and the shelf is within a predefined distance, determining that the buyer has picked the product; Further comprising: a method of operating an electronic device.
제12항에 있어서,
상기 구매자가 복수의 상품을 피킹한 경우, 상기 복수의 상품의 ID 각각을 상기 구매자와 매칭하는 과정; 및
상기 구매자가 결제한 상품의 개수가 상기 복수의 상품의 개수보다 작은 경우, 상기 복수의 상품의 ID 및 상기 구매자가 결제한 상품의 ID를 대조하여 누락된 상품을 특정하고, 상기 누락된 상품의 추가 결제를 요청하는 GUI(graphic user interface)를 생성하여 디스플레이하고, 상기 누락된 상품의 추가 결제를 요청하는 음성 안내를 생성하여 출력하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 12,
When the buyer picks a plurality of products, matching each ID of the plurality of products with the buyer; and
If the number of products paid by the buyer is less than the number of the plurality of products, the IDs of the plurality of products are compared with the IDs of the products paid by the buyer to specify the missing product, and the missing product is added. A method of operating an electronic device further comprising: generating and displaying a graphic user interface (GUI) requesting payment, and generating and outputting voice guidance requesting additional payment for the missing product.
제12항에 있어서,
상기 상품의 미 결제 상태에서 상기 구매자가 상기 무인점포의 결제구역에서 이탈하는 경우, 출입문의 잠금을 수행하고, 상기 출입문의 잠금 실행을 나타내는 노티(notification)를 상기 점주의 사용자 단말로 전송하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 12,
If the buyer leaves the payment area of the unmanned store while the product is not paid, locking the door and transmitting a notification indicating that the door has been locked to the store owner's user terminal; A method of operating an electronic device, further comprising:
제13항에 있어서,
상기 선반에 접근하는 상기 구매자의 손을 적어도 하나의 방향에서 촬영하도록 상기 카메라부를 제어하여 적어도 하나의 손 이미지를 생성하고, 상기 적어도 하나의 손 이미지를 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 13,
Controlling the camera unit to capture the buyer's hand approaching the shelf from at least one direction to generate at least one hand image, and storing the at least one hand image; further comprising: How it works.
제18항에 있어서,
사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손 이미지 중 적어도 하나의 손 바닥 이미지를 획득하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 18,
A method of operating an electronic device, further comprising: acquiring at least one palm image among the at least one hand image based on a deep learning result performed on a human hand image.
제19항에 있어서,
상기 구매자가 피킹한 상품을 정상 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지를 삭제하는 과정; 및
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 저장된 적어도 하나의 손바닥 이미지에서 지문 이미지를 획득하여 상기 구매자와 매칭하여 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 19,
If the buyer normally pays for the picked product, deleting the stored at least one palm image; and
If the buyer has not paid for the picked product, obtaining a fingerprint image from the stored at least one palm image, matching it with the buyer, and storing it.
제20항에 있어서,
상기 사람의 손 이미지에 대하여 수행된 딥러닝 결과에 기초하여, 상기 적어도 하나의 손바닥 이미지를 왼손 손바닥 이미지 및 오른손 손바닥 이미지 중 하나로 결정하는 과정; 및
상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자를 생성하여 저장하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 20,
Based on a deep learning result performed on the human hand image, determining the at least one palm image as one of a left palm image and a right palm image; and
A method of operating an electronic device further comprising: generating and storing an indicator indicating whether the fingerprint image corresponds to a left or right hand.
제21항에 있어서,
상기 구매자가 피킹한 상품을 미 결제한 경우, 상기 지문 이미지, 상기 지문 이미지가 왼손 또는 오른손에 대응되는지를 나타내는 지시자, 상기 구매자에 대한 상기 얼굴 이미지, 상기 상품의 ID, 미 결제 피해액 및 상기 구매자가 상기 무인점포의 결제구역에서 이탈한 시간에 대한 정보를 포함하는 미 결제 사건 프로파일을 생성하여 외부 서버로 전송하는 과정;을 더 포함하는, 전자장치의 동작방법.
According to clause 21,
If the buyer has not paid for the picked product, the fingerprint image, an indicator indicating whether the fingerprint image corresponds to the left or right hand, the face image of the buyer, the ID of the product, the amount of unpaid damage, and the buyer A method of operating an electronic device further comprising: generating a non-payment event profile including information on the time of leaving the payment area of the unmanned store and transmitting it to an external server.
KR1020220052558A 2022-04-28 2022-04-28 Electronic device to prevent theft of goods stored in cashierless store and operation method thereof KR20230152961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220052558A KR20230152961A (en) 2022-04-28 2022-04-28 Electronic device to prevent theft of goods stored in cashierless store and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220052558A KR20230152961A (en) 2022-04-28 2022-04-28 Electronic device to prevent theft of goods stored in cashierless store and operation method thereof

Publications (1)

Publication Number Publication Date
KR20230152961A true KR20230152961A (en) 2023-11-06

Family

ID=88748593

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220052558A KR20230152961A (en) 2022-04-28 2022-04-28 Electronic device to prevent theft of goods stored in cashierless store and operation method thereof

Country Status (1)

Country Link
KR (1) KR20230152961A (en)

Similar Documents

Publication Publication Date Title
US11182592B2 (en) Target object recognition method and apparatus, storage medium, and electronic device
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US10943126B2 (en) Method and apparatus for processing video stream
US11539525B2 (en) Systems and methods for secure tokenized credentials
US20230015107A1 (en) Method and apparatus with image fusion
US10346464B2 (en) Cross-modiality image matching method
US20210049370A1 (en) Abnormality detection method, apparatus, and device for unmanned checkout
US9691158B1 (en) Tracking objects between images
CN108427927B (en) Object re-recognition method and apparatus, electronic device, program, and storage medium
US11704887B2 (en) System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status
US10929829B1 (en) User identification and account access using gait analysis
US8681232B2 (en) Visual content-aware automatic camera adjustment
US20230316247A1 (en) Methods and systems for collecting and releasing virtual objects between disparate augmented reality environments
US11741420B2 (en) Systems and methods for machine vision based object recognition
CN114663871A (en) Image recognition method, training method, device, system and storage medium
CN113642639A (en) Living body detection method, living body detection device, living body detection apparatus, and storage medium
JP7054760B2 (en) Object recognition system, location information acquisition method, and program
US10990859B2 (en) Method and system to allow object detection in visual images by trainable classifiers utilizing a computer-readable storage medium and processing unit
CN110415113A (en) Finance data processing method, device, server and readable storage medium storing program for executing
KR20230152961A (en) Electronic device to prevent theft of goods stored in cashierless store and operation method thereof
CN114882576A (en) Face recognition method, electronic device, computer-readable medium, and program product
CN114387496A (en) Target detection method and electronic equipment
KR102027786B1 (en) Method and system for recognizing face of user based on multiple images
Jurj et al. Mobile application for receipt fraud detection based on optical character recognition
JP2022079775A (en) Object recognition system, position information acquisition method, and program