KR102260355B1 - System and method for recognizing purchase behavior based on image - Google Patents

System and method for recognizing purchase behavior based on image Download PDF

Info

Publication number
KR102260355B1
KR102260355B1 KR1020190125278A KR20190125278A KR102260355B1 KR 102260355 B1 KR102260355 B1 KR 102260355B1 KR 1020190125278 A KR1020190125278 A KR 1020190125278A KR 20190125278 A KR20190125278 A KR 20190125278A KR 102260355 B1 KR102260355 B1 KR 102260355B1
Authority
KR
South Korea
Prior art keywords
customer
hand
article
input image
image
Prior art date
Application number
KR1020190125278A
Other languages
Korean (ko)
Other versions
KR20210042566A (en
Inventor
조상현
Original Assignee
주식회사 신세계아이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 신세계아이앤씨 filed Critical 주식회사 신세계아이앤씨
Priority to KR1020190125278A priority Critical patent/KR102260355B1/en
Priority to PCT/KR2020/012523 priority patent/WO2021071121A1/en
Publication of KR20210042566A publication Critical patent/KR20210042566A/en
Application granted granted Critical
Publication of KR102260355B1 publication Critical patent/KR102260355B1/en

Links

Images

Classifications

    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions

Abstract

본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 시스템은 촬영장치로부터 입력영상을 획득하는 영상획득모듈; 상기 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 재고관리모듈; 상기 입력영상 내의 고객의 손의 움직임을 감지하는 손움직임감지모듈; 상기 입력영상 중 전경이 변경된 영역을 감지하는 변경영역감지모듈; 상기 고객의 물품 구매 또는 반환 행동을 인식하는 고객행동인식모듈; 및 상기 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 배경모델관리모듈을 포함한다.An image-based purchase behavior recognition system according to an embodiment of the present invention includes: an image acquisition module for acquiring an input image from a photographing device; an inventory management module for generating an out-of-stock notification when the input image and a reference model, which is an image when the item does not exist, match; a hand motion detection module for detecting a motion of a customer's hand in the input image; a change region detection module for detecting a region in which the foreground is changed in the input image; a customer behavior recognition module for recognizing the purchase or return behavior of the customer; and a background model management module for updating the input image after the customer's purchase or return of the product is completed as a background model.

Description

영상 기반 구매 행동 인식 시스템 및 방법{SYSTEM AND METHOD FOR RECOGNIZING PURCHASE BEHAVIOR BASED ON IMAGE}Image-based purchasing behavior recognition system and method {SYSTEM AND METHOD FOR RECOGNIZING PURCHASE BEHAVIOR BASED ON IMAGE}

본 발명은 영상 기반 구매 행동 인식 시스템 및 방법에 관한 것이다.The present invention relates to an image-based purchasing behavior recognition system and method.

소매업자, 도매업자 및 기타 제품의 대리점은 일반적으로 고객이나 거래처 등에 의해 주문 및 구입이 가능한 다양한 상품의 재고를 유지하고 있다. 예를 들어 일반적인 마트의 모습을 살펴보면, 사용자(고객)가 마트에 진입하여 상품을 고르고, 상품이 담긴 카트를 들고 계산대에 줄을 선다. 이후, 마트 직원은 사용자가 선택한 상품별 바코드를 인식하여 상품에 대한 계산을 수행한다.Retailers, wholesalers, and other product distributors generally maintain an inventory of various products that can be ordered and purchased by customers or business partners. For example, in a typical mart, a user (customer) enters the mart, selects a product, and lines up at the checkout counter holding a cart containing the product. Thereafter, the mart employee recognizes the barcode for each product selected by the user and calculates the product.

최근에 각광받는 4차 산업혁명은 빅데이터, 사물인터넷, 인공지능과 딥러닝 등의 대표 키워드를 포함한다. 4차 산업혁명의 기술은 우리의 실생활에 직접적인 영향을 미칠 수 있으며, 기술은 우리의 삶에 편의적인 도구가 되는 것을 넘어 학습과 분석을 통해 진화하고 있다.The 4th industrial revolution, which has recently been spotlighted, includes representative keywords such as big data, Internet of Things, artificial intelligence, and deep learning. The technology of the 4th industrial revolution can have a direct impact on our real life, and technology is evolving through learning and analysis beyond being a convenient tool in our lives.

이러한 기술 발전에 따라 최근에는 4차 산업혁명이 적용된 오프라인 쇼핑에 대한 관심이 증가하고 있다.According to these technological developments, interest in offline shopping to which the 4th industrial revolution is applied is increasing recently.

아마존(Amazon)은 이러한 기술 변화에 따라 새로운 오프라인 마트인 '아마존고(Amazon Go)'를 오픈했다. 아마존고는 식료품과 잡화 등을 판매하는 일반 마트와 크게 다르지 않다.In response to these technological changes, Amazon has opened a new offline mart, 'Amazon Go'. Amazon Go is not much different from regular supermarkets that sell groceries and miscellaneous goods.

다만, 아마존고 내의 사용자는 상품을 선택한 후, 따로 계산을 수행하지 않아도 된다. 아마존고는 사용자에 의해 선택된 상품을 자동으로 인식하고, 인식된 상품에 대한 결제를 사용자에 대응하는 결제 수단에 의해 자동으로 청구한다.However, users in Amazon Go do not have to perform separate calculations after selecting a product. Amazon Go automatically recognizes the product selected by the user, and automatically charges payment for the recognized product by the payment method corresponding to the user.

이처럼 무인 상점이 점차 도입됨에 따라 고객의 구매 행동을 인식하고 고객이 구매한 물품을 자동적으로 감지하기 위한 다양한 기술들이 개발되고 있다.As such, as unmanned stores are gradually introduced, various technologies are being developed to recognize the purchase behavior of the customer and automatically detect the item purchased by the customer.

고객의 구매 행동을 인식하기 위한 기존 기술의 경우 고객의 손 형태 차이를 이용하는 방법이 개발되어 있다. 하지만 손 형태 차이는 감지하기 용이하지 않을 뿐만 아니라 오류 발생 가능성이 높다. 따라서 손 형태 차이가 아닌 다른 방법을 통한 고객 구매 행동 인식 기술의 개발이 요구되고 있다.In the case of the existing technology for recognizing a customer's purchasing behavior, a method using the difference in the customer's hand shape has been developed. However, the difference in hand shape is not easy to detect and is highly error prone. Therefore, the development of customer purchasing behavior recognition technology through a method other than hand shape difference is required.

또한, 고객이 구매한 물품을 자동적으로 감지하기 위한 기술인 물품 인식기술이 개발되어 있으나, 인식기의 성능이 낮거나 인식기에 감지된 물품이 인식 대상 물품이 아닌 경우 물품 인식이 불가능한 문제점을 갖고 있다.In addition, although an article recognition technology, which is a technology for automatically detecting a product purchased by a customer, has been developed, there is a problem in that the performance of the recognizer is low or the product cannot be recognized when the product sensed by the recognizer is not a target product.

본 발명의 실시예는 측정이 용이한 고객의 손 움직임과 이전 선반 상태를 통해 고객의 물품 구매 또는 반환 행위를 인식할 수 있는 선반 상품 재고 모니터링 시스템 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a shelf product inventory monitoring system and method capable of recognizing a customer's product purchase or return behavior through easy measurement of a customer's hand movement and a previous shelf state.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are clearly to those of ordinary skill in the technical field to which the present invention belongs from the following description. It will be understandable.

본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 시스템은 촬영장치로부터 입력영상을 획득하는 영상획득모듈; 상기 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 재고관리모듈; 상기 입력영상 내의 고객의 손의 움직임을 감지하는 손움직임감지모듈; 상기 입력영상 중 전경이 변경된 영역을 감지하는 변경영역감지모듈; 상기 고객의 물품 구매 또는 반환 행동을 인식하는 고객행동인식모듈; 및 상기 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 배경모델관리모듈을 포함한다.An image-based purchase behavior recognition system according to an embodiment of the present invention includes: an image acquisition module for acquiring an input image from a photographing device; an inventory management module for generating an out-of-stock notification when the input image and a reference model, which is an image when the item does not exist, match; a hand motion detection module for detecting a motion of a customer's hand in the input image; a change region detection module for detecting a region in which the foreground is changed in the input image; a customer behavior recognition module for recognizing the purchase or return behavior of the customer; and a background model management module for updating the input image after the customer's purchase or return of the product is completed as a background model.

상기 손움직임감지모듈은: 상기 입력영상의 각 프레임에서 상기 고객의 손을 검출한 후 상기 손 및 손의 인근 영역을 포함하는 경계박스를 설정하는 손위치검출부; 이전 프레임과 현재 프레임 간의 연관성을 분석하여 상기 경계박스의 궤적을 추적하는 손위치추적부; 및 상기 손위치검출부 및 상기 손위치추적부에서 획득한 손의 움직임과 관련된 데이터를 업데이트하는 손움직임학습부를 포함할 수 있다.The hand motion detection module includes: a hand position detection unit for detecting the customer's hand in each frame of the input image and setting a bounding box including the hand and a neighboring area of the hand; a hand position tracking unit for tracking the trajectory of the bounding box by analyzing the correlation between the previous frame and the current frame; and a hand movement learning unit for updating data related to the hand movement acquired by the hand position detection unit and the hand position tracking unit.

상기 변경영역감지모듈은: 현재 입력영상에서 전경에 해당하는 영역을 추출하는 입력영상전경추출부; 상기 배경모델에서 전경에 해당하는 영역을 추출하는 배경모델전경추출부; 및 상기 입력영상전경추출부에서 추출한 현재 입력영상의 전경에 해당하는 영역과 상기 배경모델전경추출부에서 추출한 배경모델의 전경에 해당하는 영역을 비교하여 전경이 변경된 영역인 변경영역을 추출하는 변경영역추출부를 포함할 수 있다.The change area detection module includes: an input image foreground extractor for extracting a region corresponding to the foreground from the current input image; a background model foreground extracting unit for extracting a region corresponding to the foreground from the background model; and a change region for extracting a changed region, which is a region in which the foreground is changed, by comparing the region corresponding to the foreground of the current input image extracted by the input image foreground extractor with the region corresponding to the foreground of the background model extracted by the background model foreground extractor. It may include an extractor.

상기 고객행동인식모듈은: 상기 변경영역에서 물품의 움직임에 의한 변경영역인 물품변경영역을 추출하는 물품변경영역추출부; 상기 물품변경영역과 상기 기준모델에서 상기 물품변경영역에 대응되는 영역 간의 유사도를 측정하는 유사도측정부; 및 상기 손움직임감지모듈에 의해 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 유사도측정부에서 측정된 상기 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단하고, 상기 손움직임감지모듈에 의해 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 유사도측정부에서 측정된 상기 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단하는 고객행동판단부를 포함하고, 상기 제 1 물품은 상기 배경모델에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품이고, 상기 제 2 물품은 현재 입력영상에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품일 수 있다.The customer behavior recognition module includes: a product change area extraction unit for extracting a product change area that is a change area by the movement of an item in the change area; a similarity measuring unit for measuring a degree of similarity between the product change area and an area corresponding to the product change area in the reference model; and if the similarity value measured by the similarity measurement unit is greater than a reference value after the hand trajectory sensed by the hand motion detection module overlaps the product change area, it is determined that the customer has purchased the first product, and the hand When the similarity value measured by the similarity measurement unit after the trajectory of the hand sensed by the motion detection module overlaps the product change area is smaller than a reference value, a customer behavior determination unit that determines that the customer has returned the second product; , the first article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model, or an article recognized through pre-registered shelf-loaded article information, and the second article is It may be an item recognized through an image-based item recognizer by extracting an area corresponding to the item change area from the current input image, or an item recognized through pre-registered shelf loading item information.

상기 고객행동인식모듈에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 상기 구매 물품을 추가하고, 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 상기 반환 물품을 제거하는 POS관리모듈을 더 포함할 수 있다.If the customer behavior recognition module determines that the customer has purchased the product, the POS management module adds the purchased product to the customer purchase list, and removes the returned product from the customer purchase list if it is determined that the customer has returned the product may further include.

본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 방법은 (a) 촬영장치로부터 입력영상을 획득하는 단계; (b) 상기 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 단계; (c) 상기 입력영상 내의 고객의 손의 움직임을 감지하는 단계; (d) 상기 입력영상 중 전경이 변경된 영역을 감지하는 단계; (e) 상기 고객의 물품 구매 또는 반환 행동을 인식하는 단계; 및 (f) 상기 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 단계;를 포함한다.An image-based purchase behavior recognition method according to an embodiment of the present invention includes the steps of: (a) acquiring an input image from a photographing device; (b) generating an out-of-stock notification when the input image and the reference model, which is an image when the item does not exist, match; (c) detecting a motion of the customer's hand in the input image; (d) detecting an area in which the foreground is changed in the input image; (e) recognizing the purchase or return behavior of the customer; and (f) updating the input image after the customer's purchase or return of the product is completed as a background model.

상기 (c) 단계는: (c-1) 상기 입력영상의 각 프레임에서 상기 고객의 손을 검출한 후 상기 손 및 손의 인근 영역을 포함하는 경계박스를 설정하는 단계; (c-2) 이전 프레임과 현재 프레임 간의 연관성을 분석하여 상기 경계박스의 궤적을 추적하는 단계; 및 (c-3) 상기 손위치검출부 및 상기 손위치추적부에서 획득한 손의 움직임과 관련된 데이터를 업데이트하는 단계를 포함할 수 있다.The step (c) includes: (c-1) detecting the customer's hand in each frame of the input image, and then setting a bounding box including the hand and an area adjacent to the hand; (c-2) tracing the trajectory of the bounding box by analyzing the correlation between the previous frame and the current frame; and (c-3) updating data related to hand motion acquired by the hand position detection unit and the hand position tracking unit.

상기 (d) 단계는: (d-1) 현재 입력영상에서 전경에 해당하는 영역을 추출하는 단계; (d-2) 상기 배경모델에서 전경에 해당하는 영역을 추출하는 단계; 및 (d-3) 상기 (d-1) 단계에서 추출한 현재 입력영상의 전경에 해당하는 영역과 상기 (d-2) 단계에서 추출한 배경모델의 전경에 해당하는 영역을 비교하여 전경이 변경된 영역인 변경영역을 추출하는 단계를 포함할 수 있다.The step (d) includes: (d-1) extracting a region corresponding to the foreground from the current input image; (d-2) extracting a region corresponding to the foreground from the background model; and (d-3) a region in which the foreground is changed by comparing the region corresponding to the foreground of the current input image extracted in step (d-1) with the region corresponding to the foreground of the background model extracted in step (d-2). It may include the step of extracting the change region.

상기 (e) 단계는: (e-1) 상기 변경영역에서 물품의 움직임에 의한 변경영역인 물품변경영역을 추출하는 단계; (e-2) 상기 물품변경영역과 상기 기준모델에서 상기 물품변경영역에 대응되는 영역 간의 유사도를 측정하는 단계; 및 (e-3) 상기 (c) 단계에서 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 (e-2) 단계에서 측정된 상기 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단하고, 상기 (c) 단계에서 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 (e-2) 단계에서 측정된 상기 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단하는 단계를 포함하고, 상기 제 1 물품은 상기 배경모델에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품이고, 상기 제 2 물품은 현재 입력영상에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품일 수 있다.The step (e) includes: (e-1) extracting an article change area, which is a change area by movement of an article in the change area; (e-2) measuring a degree of similarity between the product change area and an area corresponding to the product change area in the reference model; and (e-3) when the similarity value measured in step (e-2) is greater than a reference value after the hand trajectory detected in step (c) overlaps the product change area, the customer purchases the first product After the hand trajectory detected in step (c) overlaps with the product change area, if the similarity value measured in step (e-2) is smaller than the reference value, the customer returns the second product. and determining that the first article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model, or an article recognized through pre-registered shelf loading article information. and the second article may be an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the current input image, or an article recognized through pre-registered shelf loading article information.

(g) 상기 (e) 단계에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 상기 구매 물품을 추가하고, 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 상기 물품을 제거하는 고객 구매 목록 업데이트 단계를 더 포함할 수 있다. (g) A customer who adds the purchased item to the customer's purchase list when it is determined that the customer has purchased the item in step (e), and removes the item from the customer's purchase list when it is determined that the customer has returned the item It may further include a purchase list update step.

본 발명의 일 실시예에 따른 기록매체는 상술한 영상 기반 구매 행동 인식 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된다.In the recording medium according to an embodiment of the present invention, a program for executing the above-described image-based purchasing behavior recognition method by a computer is recorded.

본 발명의 실시예에 따른 영상 기반 구매 행동 인식 시스템 및 방법은 측정이 용이한 고객의 손 움직임과 이전 선반 상태를 통해 고객의 물품 구매 또는 반환 행위를 인식할 수 있다.The image-based purchasing behavior recognition system and method according to an embodiment of the present invention may recognize the customer's purchase or return behavior through easy-to-measure the customer's hand movement and the previous shelf state.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description. I will be able to.

도 1은 본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 시스템의 대략적인 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 입력영상을 나타낸 사진이다.
도 3은 본 발명의 일 실시예에 따른 기준모델을 나타낸 사진이다.
도 4는 본 발명의 일 실시예에 따른 배경모델을 나타낸 사진이다.
도 5는 본 발명의 일 실시예에 따른 손움직임감지모듈의 대략적은 구성을 나타낸 블록도이다.
도 6은 본 발명의 일 실시예에 따른 변경영역감지모듈의 대략적인 구성을 나타낸 블록도이다.
도 7은 본 발명의 일 실시예에 따른 고객행동인식모듈의 대략적인 구성을 나타낸 블록도이다.
도 8은 본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 방법의 대략적인 흐름을 나타낸 블록도이다.
도 9는 본 발명의 일 실시예에 따른 입력영상 내의 고객의 손의 움직임을 감지하는 단계의 대략적인 흐름을 나타낸 블록도이다.
도 10은 본 발명의 일 실시예에 따른 입력영상 중 전경이 변경되는 영역을 감지하는 단계의 대략적인 흐름을 나타낸 블록도이다.
도 11은 본 발명의 일 실시예에 따른 고객의 물품 구매 또는 반환 행동을 인식하는 단계의 대략적인 흐름을 나타낸 블록도이다.
1 is a block diagram showing a schematic configuration of an image-based purchasing behavior recognition system according to an embodiment of the present invention.
2 is a photograph showing an input image according to an embodiment of the present invention.
3 is a photograph showing a reference model according to an embodiment of the present invention.
4 is a photograph showing a background model according to an embodiment of the present invention.
5 is a block diagram showing a schematic configuration of a hand motion detection module according to an embodiment of the present invention.
6 is a block diagram showing a schematic configuration of a change area detection module according to an embodiment of the present invention.
7 is a block diagram showing a schematic configuration of a customer behavior recognition module according to an embodiment of the present invention.
8 is a block diagram illustrating a schematic flow of an image-based purchasing behavior recognition method according to an embodiment of the present invention.
9 is a block diagram illustrating a schematic flow of a step of detecting a motion of a customer's hand in an input image according to an embodiment of the present invention.
10 is a block diagram illustrating a schematic flow of a step of detecting a region in which a foreground is changed in an input image according to an embodiment of the present invention.
11 is a block diagram schematically illustrating a step of recognizing a customer's product purchase or return behavior according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention, and a method of achieving them will become apparent with reference to embodiments to be described later in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. It is provided to completely inform the scope of the invention to the possessor, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Even if not defined, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by universal technology in the prior art to which this invention belongs. Terms defined by general dictionaries may be construed as having the same meaning as the related description and/or the text of this application, and not conceptualized or excessively formalized, even if not clearly defined herein. Won't.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The terms used in this specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used in the specification,'include' and/or various conjugated forms of this verb, for example,'including','including','including','including', and the like refer to the mentioned composition, ingredient, component, Steps, operations and/or elements do not exclude the presence or addition of one or more other compositions, components, components, steps, operations and/or elements. In the present specification, the term'and/or' refers to each of the listed components or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.Meanwhile, terms such as'~ unit','~ group','~ block', and'~ module' used throughout this specification may mean a unit that processes at least one function or operation. For example, it can mean software, hardware components such as FPGAs or ASICs. However,'~bu','~gi','~block', and'~module' are not meant to be limited to software or hardware. '~ unit', '~ group', '~ block', and '~ module' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors.

따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성 요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.Accordingly, as an example, '~ part', '~ group', '~ block', and '~ module' are components such as software components, object-oriented software components, class components, and task components. fields, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and include variables. The functions provided in the components and'~bu','~gi','~block', and'~module' include a smaller number of components and'~bu','~gi', and'~block. It may be combined into','~modules' or further separated into additional components and'~unit','~group','~block', and'~module'.

이하, 본 명세서의 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings of the present specification.

도 1은 본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 시스템 (10)의 대략적인 구성을 나타낸 블록도이다.1 is a block diagram showing a schematic configuration of an image-based purchase behavior recognition system 10 according to an embodiment of the present invention.

도 1을 참조하면, 영상 기반 구매 행동 인식 시스템 (10)은 영상획득모듈(100), 재고관리모듈(200), 손움직임감지모듈(300), 변경영역감지모듈(400), 고객행동인식모듈(500), 배경모델관리모듈(600) 및 POS관리모듈(700)을 포함한다.1, the image-based purchase behavior recognition system 10 includes an image acquisition module 100, an inventory management module 200, a hand motion detection module 300, a change area detection module 400, and a customer behavior recognition module. 500 , a background model management module 600 and a POS management module 700 .

영상획득모듈(100)은 촬영장치(미도시)로부터 입력영상을 획득한다.The image acquisition module 100 acquires an input image from a photographing device (not shown).

도 2는 본 발명의 일 실시예에 따른 입력영상을 나타낸 사진이다.2 is a photograph showing an input image according to an embodiment of the present invention.

도 2를 참조하면, 입력영상은 촬영장치의 동작에 의해 획득한 영상을 말한다.Referring to FIG. 2 , an input image refers to an image acquired by an operation of a photographing apparatus.

입력영상에 피사체가 존재하는 경우, 피사체 부분인 전경에 해당하는 영역은 전경영역이 되고 전경을 제외한 배경에 해당하는 영역은 배경영역이 된다. 즉, 촬영장치의 촬영 범위에 피사체가 존재하는 경우 입력영상은 전경영역과 배경영역을 모두 포함한다.When a subject is present in the input image, the area corresponding to the foreground, which is the subject part, becomes the foreground area, and the area corresponding to the background excluding the foreground becomes the background area. That is, when a subject exists in the photographing range of the photographing apparatus, the input image includes both the foreground area and the background area.

이러한 입력영상은 입력영상을 이루는 각 픽셀의 위치정보인 좌표값과 각 픽셀의 색상(Hue), 명도(Saturation) 및 채도(Value)에 관한 색 정보를 포함한다.The input image includes coordinate values that are positional information of each pixel constituting the input image, and color information about hue, saturation, and value of each pixel.

도 3은 본 발명의 일 실시예에 따른 기준모델을 나타낸 사진이다.3 is a photograph showing a reference model according to an embodiment of the present invention.

도 3을 참조하면, 기준모델은 촬영장치로부터 획득한 입력영상 중 제품이 전혀 없는 상태인 배경만을 촬영한 영상을 말한다.Referring to FIG. 3 , the reference model refers to an image obtained by photographing only the background in which there is no product among the input images obtained from the photographing device.

재고관리모듈(200)에는 물품이 존재하지 않을 때의 영상인 기준모델이 저장되어 있다. 따라서, 영상획득모듈(100)이 획득한 현재의 입력영상과 기준모델이 일치하는지 여부의 확인이 가능하고, 일치할 경우 재고 없음 알림을 발생시킨다.The inventory management module 200 stores a reference model, which is an image when the product does not exist. Therefore, it is possible to check whether the current input image acquired by the image acquisition module 100 matches the reference model, and if they match, a no-stock notification is generated.

예를 들면, 매대(상점에서 물건을 놓고 파는 자리)에 물품이 존재할 경우 현재 입력영상과 기준모델은 기준치 이하의 유사도를 갖고 이 경우 재고관리모듈(200)은 현재 매대에 물품이 존재하는 것으로 판단한다. 그에 반해, 매대에 물품이 존재하지 않을 경우 현재 입력영상과 기준모델은 기준치 이상의 유사도를 갖게 되고 이 경우 재고관리모듈(200)은 현재 매대에 물품이 존재하지 않는 것으로 판단한다.For example, if there is an item on the shelf (the place where a product is placed and sold in a store), the current input image and the reference model have a similarity less than or equal to the reference value, and in this case, the inventory management module 200 determines that the product currently exists on the shelf. do. On the other hand, when there is no item on the shelf, the current input image and the reference model have a similarity greater than or equal to the reference value, and in this case, the inventory management module 200 determines that the item does not currently exist on the shelf.

매대에 물품이 존재하지 않는 것으로 판단되는 경우, 재고관리모듈(200)은 재고 없음 알림을 발생시킨다.When it is determined that there is no item on the shelf, the inventory management module 200 generates a no-stock notification.

자재 관리 서버(미도시)는 재고관리모듈(200)에서 발생된 재고 없음 알림을 수신할 경우 물품 보관 창고 내의 해당 물품의 잔여 개수를 파악한 후 이를 관리자에게 전달하여 매대에 해당 물품을 보충할 것을 추천할 수 있다.When the material management server (not shown) receives the out-of-stock notification generated from the inventory management module 200, it is recommended to replenish the items on the shelf by identifying the remaining number of the items in the warehouse and delivering them to the manager. can do.

도 4는 본 발명의 일 실시예에 따른 배경모델을 나타낸 사진이다.4 is a photograph showing a background model according to an embodiment of the present invention.

도 4를 참조하면, 배경모델은 고객의 물품 구매 또는 반환 행위가 완료된 후의 입력영상을 말한다. 도 4의 배경모델의 경우 도 3의 상태에서 고객이 포스트 잇(Post-it)을 구매한 후의 입력영상임을 쉽게 알 수 있다.Referring to FIG. 4 , the background model refers to an input image after the customer's purchase or return of the product is completed. In the case of the background model of FIG. 4 , it can be easily seen that the input image is after the customer purchases a Post-it in the state of FIG. 3 .

배경모델관리모듈(600)은 고객의 물품 구매 또는 반환 행위가 완료된 후의 입력영상을 통해 배경모델을 획득한다. 즉, 고객의 물품 구매 또는 반환 행위가 완료될 때마다 새로운 배경모델이 배경모델관리모듈(600)에 업데이트된다.The background model management module 600 acquires the background model through the input image after the customer's purchase or return of the product is completed. That is, a new background model is updated in the background model management module 600 whenever the customer's purchase or return of the product is completed.

도 5는 본 발명의 일 실시예에 따른 손움직임감지모듈(300)의 대략적은 구성을 나타낸 블록도이다.5 is a block diagram showing a schematic configuration of a hand motion detection module 300 according to an embodiment of the present invention.

도 5를 참조하면, 손움직임감지모듈(300)은 손위치검출부(310), 손위치추적부(320) 및 손움직임학습부(330)를 포함한다.Referring to FIG. 5 , the hand motion detection module 300 includes a hand position detection unit 310 , a hand position tracking unit 320 , and a hand motion learning unit 330 .

손움직임감지모듈(200)은 입력영상 내의 고객의 손의 움직임을 감지한다.The hand motion detection module 200 detects the motion of the customer's hand in the input image.

일 실시예에 따르면, 손움직임감지모듈(200)은 입력영상에서 손 및 손의 인근 영역을 포함하는 경계박스를 설정한다. 이후, 경계박스의 이동 궤적을 추적하여 손이 움직이는 궤적을 파악한다. 즉, 손가락의 미세한 움직임을 파악하는 것이 아닌 손을 포함하는 경계박스의 궤적을 파악하기에 상대적으로 측정이 용이하고 측정 오차를 줄일 수 있다.According to an embodiment, the hand motion detection module 200 sets a bounding box including a hand and a neighboring region of the hand in the input image. Thereafter, the movement trajectory of the bounding box is traced to determine the trajectory of the hand movement. That is, it is relatively easy to measure and can reduce measurement errors because it is relatively easy to measure the trajectory of the bounding box including the hand, rather than grasping the fine movement of the finger.

손위치검출부는(310)는 입력영상의 각 프레임에서 고객의 손을 검출한 후 손 및 손의 인근 영역을 포함하는 경계박스를 설정한다.The hand position detection unit 310 detects the customer's hand in each frame of the input image, and then sets a bounding box including the hand and a neighboring region of the hand.

손위치검출부(310) 먼저 입력영상에서 고객의 손의 위치를 검출한다. 고객의 손 위치 검출은 고객의 피부색을 이용하는 방식을 이용할 수 있다. 또한, RGB-D 이미지를 이용하여 인체 영역을 획득한 후 이들을 유사도에 따라 군집화 한 후 말단부에서 손 영역을 검출하는 방식 역시 이용할 수 있다.The hand position detection unit 310 first detects the position of the customer's hand in the input image. The customer's hand position detection may use a method using the customer's skin color. In addition, a method of obtaining a human body region using an RGB-D image, grouping them according to similarity, and then detecting a hand region at the distal end may also be used.

예를 들어, 고객의 피부색을 이용하는 방식의 경우, 먼저 촬영장치로부터 고객의 피부색을 검출한다.For example, in the case of using the skin color of the customer, first, the skin color of the customer is detected from the photographing device.

검출된 피부색과 유사한 색을 갖는 영역을 추출하면 고객의 얼굴, 팔, 다리, 손 등의 영역을 검출할 수 있다. 또한, 검출된 피부색을 통해 고객의 얼굴 영역을 인식한 경우, 얼굴의 위치 및 크기정보를 고려하여 결정된 신체 비율을 이용함으로써 손이 위치할 수 있는 후보 영역을 산출할 수 있다.If a region having a color similar to the detected skin color is extracted, regions such as the customer's face, arms, legs, and hands can be detected. In addition, when the customer's face region is recognized through the detected skin color, a candidate region in which the hand can be located can be calculated by using the body ratio determined in consideration of the position and size information of the face.

즉, 손이 위치할 수 있는 후보 영역과 피부색과 유사한 영역의 교집합을 추출함으로써 고객의 손 위치 검출이 가능하다.That is, the customer's hand position can be detected by extracting the intersection of the candidate region where the hand can be located and the region similar to the skin color.

또한, RGB-D 이미지를 이용한 고객의 손 위치 검출 역시 가능하다. RGB-D 방식의 경우 고객이 장갑 등을 착용하여 피부색을 통한 손 검출이 불가능 한 경우 이용될 수 있다.In addition, it is also possible to detect the customer's hand position using RGB-D images. In the case of RGB-D method, it can be used when the customer is wearing gloves and it is impossible to detect the hand through the skin color.

RGB-D 영상을 통해 고객의 인체에 해당하는 깊이 정보 영상을 획득할 수 있고, 획득한 깊이 정보 영상을 통해 픽셀 간의 유사도를 기준으로 픽셀을 군집화 할 수 있다. 이후, 군집화 된 픽셀 정보를 기반으로 인체 말단부를 추출함으로써 손 검출이 가능하다.A depth information image corresponding to the customer's human body can be acquired through the RGB-D image, and pixels can be grouped based on the similarity between pixels through the acquired depth information image. Thereafter, hand detection is possible by extracting the extremity of the human body based on the clustered pixel information.

이 외에도 이미 공개된 다양한 방식을 사용하여 고객의 손 위치 검출이 가능하다.In addition, it is possible to detect the customer's hand position using various methods that have already been disclosed.

손위치검출부(310)는 고객의 손 위치를 검출한 후, 손 및 손의 인근 영역을 포함하는 경계박스를 설정한다.After detecting the position of the customer's hand, the hand position detection unit 310 sets a bounding box including the hand and a neighboring region of the hand.

손위치추적부(320)는 이전 프레임과 현재 프레임 간의 연관성을 분석하여 손위치검출부(310)에서 설정된 경계박스의 이동 궤적을 추적하는 방식을 통해 손의 움직임 궤적을 추적한다.The hand position tracking unit 320 tracks the movement trajectory of the hand by analyzing the correlation between the previous frame and the current frame and tracking the movement trajectory of the bounding box set in the hand position detection unit 310 .

손을 추적하는 것이 아닌 손 및 손의 인근 영역을 포함하는 경계박스를 추적함으로써 고객 각각의 손 형태의 차이로 인한 인식 오류를 줄일 수 있다.By tracking the bounding box including the hand and the neighboring area of the hand rather than tracking the hand, it is possible to reduce recognition errors due to differences in the shape of each customer's hand.

또한, 손가락의 움직임을 포함한 손의 움직임을 파악하는 것이 아닌 경계 박스의 이동 궤적을 파악함으로써 상대적으로 움직임 및 궤적 파악이 용이하여 손 움직임 감지를 위한 데이터 처리 속도를 향상시킬 수 있다.In addition, it is possible to improve the data processing speed for hand motion detection because it is relatively easy to grasp the movement and the trajectory by grasping the movement trajectory of the bounding box rather than grasping the movement of the hand including the movement of the finger.

손움직임학습부(330)는 손위치검출부(310) 및 손위치추적부(320)에서 획득한 데이터를 지속적으로 업데이트한다.The hand motion learning unit 330 continuously updates the data obtained from the hand position detecting unit 310 and the hand position tracking unit 320 .

즉, 손위치검출부(310) 및 손위치추적부(320)에서 생성된 데이터를 이용한 지속적인 학습을 통해 고객의 다양한 손 형태 및 손의 움직임에 대처가 가능하여 손 움직임 감지에 관한 오류를 줄일 수 있다.That is, through continuous learning using the data generated by the hand position detection unit 310 and the hand position tracking unit 320, it is possible to cope with various hand shapes and hand movements of customers, thereby reducing errors related to hand movement detection. .

도 6은 본 발명의 일 실시예에 따른 변경영역감지모듈(400)의 대략적인 구성을 나타낸 블록도이다.6 is a block diagram showing a schematic configuration of a change area detection module 400 according to an embodiment of the present invention.

도 6을 참조하면, 변경영역감지모듈(400)은 입력영상전경추출부(410), 배경모델전경추출부(420) 및 변경영역추출부(430)를 포함한다.Referring to FIG. 6 , the change region detection module 400 includes an input image foreground extractor 410 , a background model foreground extractor 420 , and a change region extractor 430 .

변경영역감지모듈(400)은 입력영상 중 전경이 변경된 영역을 감지한다.The change region detection module 400 detects a region whose foreground is changed in the input image.

일 실시예에 따르면, 변경영역감지모듈(400)은 입력영상 및 배경모델 각각으로부터 전경영역을 추출한 후 이들을 비교하여 전경이 변경된 영역인 변경영역을 추출한다.According to an embodiment, the change region detection module 400 extracts a foreground region from each of the input image and the background model, compares them, and extracts a change region, which is a region in which the foreground is changed.

입력영상전경추출부(410)는 영상획득모듈(100)로부터 획득한 입력영상에서 전경에 해당하는 영역을 추출한다.The input image foreground extraction unit 410 extracts a region corresponding to the foreground from the input image obtained from the image acquisition module 100 .

입력영상에서 전경에 해당하는 영역을 추출하는 방법은 입력영상과 기준모델을 픽셀 단위 나눈 후 각 픽셀을 색상, 명도 및 채도를 포함한 색 정보 차이를 비교하여 전경을 추출하는 방법 또는 입력영상에서 경계선을 추출한 후 경계선의 내부 영역을 전경으로 추출하는 방법이 사용될 수 있다.The method of extracting the area corresponding to the foreground from the input image is to extract the foreground by dividing the input image and the reference model in pixel units and comparing each pixel with the difference in color information including color, brightness, and saturation, or to extract the boundary from the input image. After extraction, a method of extracting the inner region of the boundary line as the foreground may be used.

입력영상에서 전경을 분리한 이후에는 이미지 임계값 처리(Image Thresholding)를 통해 이진 영상(Binary Image)으로 변환한다.After separating the foreground from the input image, it is converted into a binary image through image thresholding.

변환된 이진영상은 라벨링을 통해 인접한 픽셀 값들끼리 그룹화하여 번호를 매기고, 이들 중 크기가 작은 라벨 영역을 삭제한다.The converted binary image is numbered by grouping adjacent pixel values through labeling, and the smallest label area is deleted among them.

배경모델전경추출부(420)는 배경모델로부터 전경에 해당하는 영역을 추출한다.The background model foreground extraction unit 420 extracts a region corresponding to the foreground from the background model.

배경모델로부터 전경에 해당하는 영역을 추출하는 과정은 입력영상전경추출부(410)에서 입력영상 중 전경에 해당하는 영역을 추출하는 과정과 동일하다.The process of extracting the region corresponding to the foreground from the background model is the same as the process of extracting the region corresponding to the foreground from the input image foreground extracting unit 410 .

변경영역추출부(430)는 입력영상전경추출부(410)에서 추출한 현재 입력영상의 전경에 해당하는 영역과 배경모델전경추출부(420)에서 추출한 배경모델의 전경에 해당하는 영역을 비교하여 변경된 영역이 있는지를 판단한다.The changed area extraction unit 430 compares the area corresponding to the foreground of the current input image extracted by the input image foreground extraction unit 410 with the area corresponding to the foreground of the background model extracted by the background model foreground extraction unit 420, and the changed Determine if there is an area.

변경된 영역이 있는 경우 변경영역추출부(430)에서는 해당 영역을 변경영역으로 지정하여 추출한다.If there is a changed area, the change area extraction unit 430 designates the area as a change area and extracts it.

도 7은 본 발명의 일 실시예에 따른 고객행동인식모듈(500)의 대략적인 구성을 나타낸 블록도이다.7 is a block diagram showing a schematic configuration of a customer behavior recognition module 500 according to an embodiment of the present invention.

도 7을 참조하면, 고객행동인식모듈(500)은 물품변경영역추출부(510), 유사도측정부(520) 및 고객행동판단부(530)를 포함한다.Referring to FIG. 7 , the customer behavior recognition module 500 includes an article change region extraction unit 510 , a similarity measurement unit 520 , and a customer behavior determination unit 530 .

일 실시예에 따르면, 고객행동인식모듈(500)은 손움직임감지모듈(300)을 통해 감지된 고객의 손의 움직임과 변경영역감지모듈(400)을 통해 감지된 입력영상의 전경 변화를 통해 고객이 물품을 구매하였는지 혹은 반환하였는지를 인식한다.According to one embodiment, the customer behavior recognition module 500 is a customer through the movement of the customer's hand detected through the hand motion detection module 300 and the foreground change of the input image detected through the change area detection module 400 . Recognize whether this item has been purchased or returned.

물품변경영역추출부(510)는 물품의 움직임에 의한 변경영역인 물품변경영역을 추출한다.The article change region extraction unit 510 extracts an article change region that is a change region due to the movement of the article.

즉, 변경영역추출부(430)에서 지정된 변경영역 중 손의 움직임에 의해 발생한 변경영역이 아닌 물품의 움직임에 의해 발생한 변경영역인 물품변경영역을 추출한다.That is, the change area extraction unit 430 extracts an item change area, which is a change area generated by the movement of an article, rather than a change area generated by a hand movement, among the designated change areas.

유사도측정부(520)는 물품변경영역과 기준모델에서 물품변경영역에 대응되는 영역 간의 유사도를 측정한다.The similarity measuring unit 520 measures the similarity between the product change area and the area corresponding to the product change area in the reference model.

유사도측정의 경우, 비교 대상인 두 영역 간의 유사성이 높을수록 높은 유사도 값을 갖는다.In the case of similarity measurement, the higher the similarity between the two areas to be compared, the higher the similarity value.

예를 들면, 입력영상에서 물품이 사라진 경우, 기존 물품이 있던 영역이 물품변경영역에 해당하게 된다. 이 경우 물품변경영역은 물품 없이 배경만이 존재하는 상태이므로 기준모델과의 유사도 측정 시 큰 유사도 값을 나타내게 된다.For example, when an item disappears from the input image, the area where the existing item was located corresponds to the item change area. In this case, since the product change area is in a state where only the background exists without the product, a large similarity value is displayed when measuring the similarity with the reference model.

이에 반해, 입력영상에서 물품이 새로 나타난 경우, 물품이 새로 나타난 영역이 물품변경영역에 해당하게 된다. 이 경우 물품변경영역은 새롭게 나타난 물품으로 채워지게 되므로 기준모델과의 유사도 측정 시 작은 유사도 값을 나타내게 된다.On the other hand, when a new item appears in the input image, the area in which the new item appears corresponds to the item change area. In this case, since the item change area is filled with newly appeared items, a small similarity value is shown when measuring the similarity with the reference model.

즉, 물품변경영역과 기준모델에서 물품변경영역에 대응되는 영역 간의 유사도 측정을 통해 입력영상에서 물품이 사라졌는지 혹은 새로 나타났는지를 알 수 있다.That is, by measuring the similarity between the item change area and the area corresponding to the item change area in the reference model, it is possible to know whether the item disappeared or appeared in the input image.

고객행동판단부(530)는 손움직임감지모듈(300)을 통해 감지된 고객의 손의 움직임과 유사도측정부(520)에서 측정된 유사도 값을 통해 고객이 물품을 구매하였는지 혹은 반환하였는지를 판단한다.The customer behavior determining unit 530 determines whether the customer has purchased or returned the product based on the motion of the customer's hand detected through the hand motion detection module 300 and the similarity value measured by the similarity measurement unit 520 .

예를 들면, 움직임감지모듈(300)에 의해 감지된 손의 궤적이 물품변경영역과 겹쳐진 후 유사도측정부(520)에서 측정된 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단할 수 있다.For example, if the similarity value measured by the similarity measurement unit 520 is greater than the reference value after the hand trajectory detected by the motion detection module 300 overlaps the product change area, it is determined that the customer has purchased the first product can do.

이에 반해, 손움직임감지모듈(300)에 의해 감지된 손의 궤적이 물품변경영역과 겹쳐진 후 유사도측정부(520)에서 측정된 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단할 수 있다.On the other hand, when the similarity value measured by the similarity measurement unit 520 after the hand trajectory detected by the hand motion detection module 300 overlaps the product change area is smaller than the reference value, it is determined that the customer has returned the second product can do.

여기에서 제 1 물품은 배경모델에서 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품을 말한다.Here, the first article refers to an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model, or an article recognized through pre-registered shelf-loaded article information.

또한, 제 2 물품은 현재 입력영상에서 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품을 말한다.In addition, the second article refers to an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the current input image, or an article recognized through pre-registered shelf-loaded article information.

즉, 고객행동판단부(530)에서는 손움직임감지모듈(300)에 의해 감지된 손의 궤적과 유사도측정부(520)에서 측정된 유사도 값을 통해 고객의 물품 구매 또는 반환 여부를 판단한다.That is, the customer behavior determining unit 530 determines whether the customer purchases or returns the product based on the trajectory of the hand detected by the hand motion detection module 300 and the similarity value measured by the similarity measurement unit 520 .

도 1을 참조하면, 영상 기반 구매 행동 인식 시스템(10)은 POS관리모듈(700)을 더 포함한다.Referring to FIG. 1 , the image-based purchase behavior recognition system 10 further includes a POS management module 700 .

POS관리모듈(700)은 고객행동인식모듈(500)을 통해 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 해당 구매 물품을 추가하고, 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 해당 반환 물품을 제거한다.When it is determined that the customer has purchased the product through the customer behavior recognition module 500, the POS management module 700 adds the purchased product to the customer purchase list, and when it is determined that the customer has returned the product, the customer purchase list Remove the returned item from

도 8은 본 발명의 일 실시예에 따른 영상 기반 구매 행동 인식 방법(S10)의 대략적인 흐름을 나타낸 도면이다.8 is a diagram illustrating a schematic flow of a method (S10) for recognizing an image-based purchase behavior according to an embodiment of the present invention.

도 8을 참조하면, 영상 기반 구매 행동 인식 방법(S10)은 촬영장치로부터 입력영상을 획득하는 단계(S100), 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 단계(S200), 입력영상 내의 고객의 손의 움직임을 감지하는 단계(S300), 입력영상 중 전경이 변경된 영역을 감지하는 단계(S400), 고객의 물품 구매 또는 반환 행동을 인식하는 단계(S500), 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 단계(S600) 및 S500 단계에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 상기 구매 물품을 추가하고 고객이 물품을 반환한 것으로 판단된 고객 구매 목록에서 상기 물품을 제거하는 고객 구매 목록 업데이트 단계(S700)를 포함한다.Referring to FIG. 8 , the image-based purchase behavior recognition method ( S10 ) includes the step of acquiring an input image from a photographing device ( S100 ), and when the input image and the reference model, which is an image when the item does not exist, match the stock out notification step of generating (S200), detecting the movement of the customer's hand in the input image (S300), detecting an area with a changed foreground in the input image (S400), recognizing the customer's purchase or return behavior (S500), updating the input image as a background model after the customer's purchase or return action is completed (S600) and if it is determined that the customer has purchased the item in step S500, add the purchased item to the customer purchase list, and a customer purchase list update step (S700) of removing the product from the customer purchase list in which it is determined that the customer has returned the product.

S100 단계에서는 촬영장치로부터 입력영상을 획득한다.In step S100, an input image is obtained from a photographing device.

S200 단계에서는 입력영상과 기준모델이 일치하여 재고가 없는 것으로 판단되는 경우 재고 없음 알림을 발생시킨다.In step S200, when it is determined that there is no stock because the input image and the reference model match, an out-of-stock notification is generated.

기준모델은 기 저장되어 있던 매대에 물품이 존재하지 않을 때의 영상을 말한다.The reference model refers to an image when an article is not present in a previously stored shelf.

S200 단계에서의 재고 없음 알림은 자재 관리 서버에 전달된다. 자재 관리 서버에서는 물품 보관 창고 내의 해당 물품의 잔여 개수를 파악한 후 이를 관리자에게 전달하고, 매대에 해당 물품을 보충할 것을 추천한다.The out-of-stock notification in step S200 is transmitted to the material management server. The material management server determines the number of remaining items in the warehouse and delivers them to the manager, and recommends replenishing the items on the shelf.

도 9는 본 발명의 일 실시예에 따른 입력영상 내의 고객의 손의 움직임을 감지하는 단계(S300)의 대략적인 흐름을 나타낸 도면이다.9 is a view showing a schematic flow of the step (S300) of detecting the motion of the customer's hand in the input image according to an embodiment of the present invention.

도 9를 참조하면, S300 단계는 입력영상의 각 프레임에서 고객의 손을 검출한 후 손 및 손의 인근 영역을 포함하는 경계박스를 설정하는 단계(S310), 이전 프레임과 현재 프레임 간의 연관성을 분석하여 경계박스의 궤적을 추적하는 단계(S320) 및 손의 움직임을 학습하는 단계(S330)을 포함한다.Referring to FIG. 9 , in step S300 , after detecting the customer's hand in each frame of the input image, setting a bounding box including the hand and a neighboring region of the hand ( S310 ), and analyzing the correlation between the previous frame and the current frame and tracking the trajectory of the bounding box (S320) and learning the movement of the hand (S330).

일 실시예에 따르면, S300 단계에서는 입력영상에서 손 및 손의 인근 영역을 포함하는 경계박스를 설정한 후, 경계박스의 궤적을 파악함으로써 손의 움직임을 감지한다. 또한, 손 움직임과 관련된 영상의 지속적인 업데이트를 통해 다양한 손 형태 및 손 움직임을 오류 없이 감지해 낼 수 있다.According to one embodiment, in step S300, after setting a bounding box including a hand and a neighboring region of the hand in the input image, the movement of the hand is sensed by grasping the trajectory of the bounding box. In addition, various hand shapes and hand movements can be detected without errors through continuous updates of images related to hand movements.

도 10은 본 발명의 일 실시예에 따른 입력영상 중 전경이 변경되는 영역을 감지하는 단계(S400)의 대략적인 흐름을 나타낸 도면이다.10 is a diagram schematically illustrating a flow of detecting a region in which a foreground is changed in an input image (S400) according to an embodiment of the present invention.

도 10을 참조하면, S400 단계는 현재 입력영상에서 전경에 해당하는 영역을 추출하는 단계(410), 배경모델에서 전경에 해당하는 영역을 추출하는 단계(S420) 및 S410 단계에서 추출한 현재 입력영상의 전경영역과 S420 단계에서 추출한 배경모델의 전경영역을 비교하여 변경영역을 추출하는 단계(S430)을 포함한다.Referring to FIG. 10 , step S400 includes extracting a region corresponding to the foreground from the current input image ( 410 ), extracting a region corresponding to the foreground from the background model ( S420 ) and the current input image extracted in steps S410 . and comparing the foreground area with the foreground area of the background model extracted in step S420 to extract a change area (S430).

일 실시예에 따르면, S400 단계에서는 입력영상 및 배경모델 입력영상 및 배경모델 각각으로부터 전경영역을 추출한 후 이들을 비교하여 전경이 변경된 영역인 변경영역을 추출한다.According to an embodiment, in step S400 , a foreground region is extracted from each of the input image and the background model, and then, a change region, which is a region in which the foreground is changed, is extracted by comparing them.

도 11은 본 발명의 일 실시예에 따른 고객의 물품 구매 또는 반환 행동을 인식하는 단계(S500)의 대략적인 흐름을 나타낸 도면이다.11 is a view showing a schematic flow of the step (S500) of recognizing the customer's purchase or return behavior of the product according to an embodiment of the present invention.

도 11을 참조하면, S500 단계는 변경영역에서 물품의 움직임에 의한 변경영역인 물품변경영역을 추출하는 단계(510), 물품변경영역과 기준모델에서 물품변경영역에 대응되는 영역 간의 유사도를 측정하는 단계(S520) 및 S300 단계에서 감지된 손의 궤적이 물품변경영역과 겹쳐진 후 S520 단계에서 측정된 상기 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단하고, S300 단계에서 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 S520 단계에서 측정된 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단하는 단계(S530)를 포함한다.Referring to FIG. 11 , step S500 is a step of extracting an article change region that is a change region due to the movement of an article in the change region 510, measuring the similarity between the article change region and the region corresponding to the article change region in the reference model. If the similarity value measured in step S520 is greater than the reference value after the hand trajectory detected in steps S520 and S300 overlaps with the product change area, it is determined that the customer has purchased the first product, and detected in step S300 and when the similarity value measured in step S520 is smaller than the reference value after the trajectory of the hand overlaps the product change area, determining that the customer has returned the second product (S530).

여기서 제 1 물품은 상기 배경모델에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품을 말한다.Here, the first article refers to an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model or an article recognized through pre-registered shelf-loaded article information.

또한, 제 2 물품은 현재 입력영상에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품을 말한다.In addition, the second article refers to an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the current input image, or an article recognized through pre-registered shelf-loaded article information.

도 8을 다시 참조하면, S600 단계에서는 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트한다.Referring back to FIG. 8 , in step S600 , the input image after the customer's purchase or return of the product is completed is updated as a background model.

또한, S700 단계에서는 S500 단계에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 구매 물품을 추가하고 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 상기 물품을 제거한다.Further, in step S700, when it is determined that the customer has purchased the product in step S500, the purchased product is added to the customer purchase list, and when it is determined that the customer has returned the product, the product is removed from the customer purchase list.

즉, 고객의 물품 구매 또는 반환 행위가 완료될 때마다 새로운 배경모델이 업데이트 되며, 구객의물품 구매 또는반환 행위에 맞추어 고객 구매 목록이 업데이트된다.That is, the new background model is updated whenever the customer's purchase or return of the product is completed, and the customer's purchase list is updated according to the customer's purchase or return of the product.

본 발명의 일 실시예에 따르면, 본 발명은 상술한 영상 기반 구매 행동 인식 방법을 실행하기 위한 프로그램을 기록한 것을 특징으로 하는 컴퓨터로 판독 가능한 기록매체를 포함한다.According to an embodiment of the present invention, the present invention includes a computer-readable recording medium in which a program for executing the above-described image-based purchasing behavior recognition method is recorded.

본 발명의 실시예에 따른 영상 기반 구매 행동 인식 시스템은 고객의 손의 움직임 및 물품의 움직임을 감지하여 고객의 물품 구매 또는 반환 행위를 인식한다.The image-based purchasing behavior recognition system according to an embodiment of the present invention recognizes the customer's purchase or return of the product by detecting the motion of the customer's hand and the movement of the product.

이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.Although the present invention has been described by way of examples above, the above examples are merely for explaining the spirit of the present invention and are not limited thereto. Those skilled in the art will understand that various modifications may be made to the above-described embodiments. The scope of the present invention is determined only through interpretation of the appended claims.

10: 영상 기반 구매 행동 인식 시스템
100: 영상획득모듈 200: 재고관리모듈
300: 손움직임감지모듈 310: 손위치검출부
320: 손위치추적부 330: 손움직임학습부
400: 변경영역감지모듈 410: 입력영상전경추출부
420: 배경모델전경추출부 430: 변경영역추출부
500: 고객행동인식모듈 510: 물품변경영역추출부
520: 유사도측정부 530: 고객행동판단부
10: Image-based purchase behavior recognition system
100: image acquisition module 200: inventory management module
300: hand motion detection module 310: hand position detection unit
320: hand position tracking unit 330: hand movement learning unit
400: change area detection module 410: input image foreground extraction unit
420: background model foreground extraction unit 430: change area extraction unit
500: customer behavior recognition module 510: product change area extraction unit
520: similarity measuring unit 530: customer behavior determining unit

Claims (11)

촬영장치로부터 입력영상을 획득하는 영상획득모듈;
상기 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 재고관리모듈;
상기 입력영상 내의 고객의 손의 움직임을 감지하는 손움직임감지모듈;
상기 입력영상 중 전경이 변경된 영역을 감지하는 변경영역감지모듈;
상기 고객의 물품 구매 또는 반환 행동을 인식하는 고객행동인식모듈; 및
상기 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 배경모델관리모듈을 포함하고,
상기 손움직임감지모듈은:
상기 입력영상의 각 프레임에서 상기 고객의 손을 검출한 후 상기 손 및 손의 인근 영역을 포함하는 경계박스를 설정하는 손위치검출부;
이전 프레임과 현재 프레임 간의 연관성을 분석하여 상기 경계박스의 궤적을 추적하는 손위치추적부; 및
상기 손위치검출부 및 상기 손위치추적부에서 획득한 손의 움직임과 관련된 데이터를 업데이트하는 손움직임학습부를 포함하고,
상기 변경영역감지모듈은:
현재 입력영상에서 전경에 해당하는 영역을 추출하는 입력영상전경추출부;
상기 배경모델에서 전경에 해당하는 영역을 추출하는 배경모델전경추출부; 및
상기 입력영상전경추출부에서 추출한 현재 입력영상의 전경에 해당하는 영역과 상기 배경모델전경추출부에서 추출한 배경모델의 전경에 해당하는 영역을 비교하여 전경이 변경된 영역인 변 경영역을 추출하는 변경영역추출부를 포함하고,
상기 고객행동인식모듈은:
상기 변경영역에서 물품의 움직임에 의한 변경영역인 물품변경영역을 추출하는 물품변경영역추출부;
상기 물품변경영역과 상기 기준모델에서 상기 물품변경영역에 대응되는 영역 간의 유사도를 측정하는 유사도측정부; 및
상기 손움직임감지모듈에 의해 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 유사도측정부에서 측정된 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단하고, 상기 손움직임감지모듈에 의해 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 유사도측정부에서 측정된 상기 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단하는 고객행동판단부를 포함하는
영상 기반 구매 행동 인식 시스템.
an image acquisition module for acquiring an input image from a photographing device;
an inventory management module for generating an out-of-stock notification when the input image and a reference model, which is an image when the item does not exist, match;
a hand motion detection module for detecting a motion of a customer's hand in the input image;
a change region detection module for detecting a region in which the foreground is changed in the input image;
a customer behavior recognition module for recognizing the purchase or return behavior of the customer; and
and a background model management module for updating the input image after the customer's purchase or return of the product is completed as a background model,
The hand motion detection module includes:
a hand position detection unit for detecting the customer's hand in each frame of the input image and setting a bounding box including the hand and an area adjacent to the hand;
a hand position tracking unit for tracking the trajectory of the bounding box by analyzing the correlation between the previous frame and the current frame; and
and a hand movement learning unit for updating data related to the movement of the hand obtained from the hand position detection unit and the hand position tracking unit,
The change area detection module includes:
an input image foreground extractor for extracting a region corresponding to the foreground from the current input image;
a background model foreground extracting unit for extracting a region corresponding to the foreground from the background model; and
A change area for extracting a change area, which is an area in which the foreground is changed, by comparing the area corresponding to the foreground of the current input image extracted by the input image foreground extraction unit with the area corresponding to the foreground of the background model extracted by the background model foreground extraction unit comprising an extractor;
The customer behavior recognition module includes:
an article change region extraction unit for extracting an article change region that is a change region due to movement of an article in the change region;
a similarity measuring unit for measuring a degree of similarity between the product change area and an area corresponding to the product change area in the reference model; and
When the similarity value measured by the similarity measurement unit is greater than the reference value after the hand trajectory sensed by the hand motion detection module overlaps the product change area, it is determined that the customer has purchased the first product, and the hand motion detection When the similarity value measured by the similarity measurement unit after the trajectory of the hand sensed by the module overlaps the product change area is smaller than a reference value, a customer behavior determination unit that determines that the customer has returned the second product;
Image-based purchasing behavior recognition system.
삭제delete 삭제delete 제 1 항에 있어서,
상기 제 1 물품은 상기 배경모델에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품이고,
상기 제 2 물품은 현재 입력영상에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품인
영상 기반 구매 행동 인식 시스템.
The method of claim 1,
The first article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model, or an article recognized through pre-registered shelf loading article information,
The second article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the current input image, or an article recognized through pre-registered shelf loading article information.
Image-based purchasing behavior recognition system.
제 1 항에 있어서,
상기 고객행동인식모듈에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 구매 물품을 추가하고, 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 반환 물품을 제거하는 POS관리모듈을 더 포함하는
영상 기반 구매 행동 인식 시스템.
The method of claim 1,
When it is determined that the customer has purchased the product in the customer behavior recognition module, a POS management module that adds the purchased product to the customer purchase list and removes the returned product from the customer purchase list when it is determined that the customer has returned the product containing
Image-based purchasing behavior recognition system.
(a) 촬영장치로부터 입력영상을 획득하는 단계;
(b) 상기 입력영상과 물품이 존재하지 않을 때의 영상인 기준모델이 일치할 경우 재고 없음 알림을 발생시키는 단계;
(c) 상기 입력영상 내의 고객의 손의 움직임을 감지하는 단계;
(d) 상기 입력영상 중 전경이 변경된 영역을 감지하는 단계;
(e) 상기 고객의 물품 구매 또는 반환 행동을 인식하는 단계; 및
(f) 상기 고객의 물품 구매 또는 반환 행동이 완료된 후의 입력영상을 배경모델로 업데이트하는 단계를 포함하고,
상기 (c) 단계는:
(c-1) 상기 입력영상의 각 프레임에서 상기 고객의 손을 검출한 후 상기 손 및 손의 인근 영역을 포함하는 경계박스를 설정하는 단계;
(c-2) 이전 프레임과 현재 프레임 간의 연관성을 분석하여 상기 경계박스의 궤적을 추적하는 단계; 및
(c-3) 상기 손의 움직임과 관련된 데이터를 업데이트하는 단계를 포함하고,
상기 (d) 단계는:
(d-1) 현재 입력영상에서 전경에 해당하는 영역을 추출하는 단계;
(d-2) 상기 배경모델에서 전경에 해당하는 영역을 추출하는 단계; 및
(d-3) 상기 (d-1) 단계에서 추출한 현재 입력영상의 전경에 해당하는 영역과 상기 (d-2) 단계에서 추출한 배경모델의 전경에 해당하는 영역을 비교하여 전경이 변경된 영역인 변경영역을 추출하는 단계를 포함하고,
상기 (e) 단계는:
(e-1) 상기 변경영역에서 물품의 움직임에 의한 변경영역인 물품변경영역을 추출하는 단계;
(e-2) 상기 물품변경영역과 상기 기준모델에서 상기 물품변경영역에 대응되는 영역 간의 유사도를 측정하는 단계; 및
(e-3) 상기 (c) 단계에서 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 (e-2) 단계에서 측정된 유사도 값이 기준치보다 큰 경우 고객이 제 1 물품을 구매한 것으로 판단하고, 상기 (c) 단계에서 감지된 손의 궤적이 상기 물품변경영역과 겹쳐진 후 상기 (e-2) 단계에서 측정된 상기 유사도 값이 기준치보다 작은 경우 고객이 제 2 물품을 반환한 것으로 판단하는 단계를 포함하는
영상 기반 구매 행동 인식 방법.
(a) acquiring an input image from a photographing device;
(b) generating an out-of-stock notification when the input image and the reference model, which is an image when the item does not exist, match;
(c) detecting a motion of the customer's hand in the input image;
(d) detecting an area in which the foreground is changed in the input image;
(e) recognizing the purchase or return behavior of the customer; and
(f) updating the input image after the customer's purchase or return of the product is completed as a background model,
Step (c) is:
(c-1) detecting the customer's hand in each frame of the input image and setting a bounding box including the hand and a neighboring region of the hand;
(c-2) tracing the trajectory of the bounding box by analyzing the correlation between the previous frame and the current frame; and
(c-3) updating data related to the movement of the hand,
Step (d) is:
(d-1) extracting a region corresponding to the foreground from the current input image;
(d-2) extracting a region corresponding to the foreground from the background model; and
(d-3) A change that is an area in which the foreground is changed by comparing the area corresponding to the foreground of the current input image extracted in step (d-1) with the area corresponding to the foreground of the background model extracted in step (d-2) extracting a region,
Step (e) is:
(e-1) extracting an article change region that is a change region due to movement of an article in the change region;
(e-2) measuring a degree of similarity between the product change area and an area corresponding to the product change area in the reference model; and
(e-3) If the similarity value measured in step (e-2) is greater than the reference value after the hand trajectory detected in step (c) overlaps with the product change area, it is determined that the customer has purchased the first product It is determined that the customer returned the second product when the similarity value measured in step (e-2) is smaller than the reference value after the hand trajectory detected in step (c) overlaps with the product change area comprising the steps of
Image-based purchasing behavior recognition method.
삭제delete 삭제delete 제 6 항에 있어서,
상기 제 1 물품은 상기 배경모델에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품이고,
상기 제 2 물품은 현재 입력영상에서 상기 물품변경영역에 대응되는 영역을 추출하여 영상기반 물품인식기를 통해 인식한 물품 또는 기 등록된 선반 적재 물품 정보를 통해 인식한 물품인
영상 기반 구매 행동 인식 방법.
The method of claim 6,
The first article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the background model, or an article recognized through pre-registered shelf loading article information,
The second article is an article recognized through an image-based article recognizer by extracting a region corresponding to the article change region from the current input image, or an article recognized through pre-registered shelf loading article information.
Image-based purchasing behavior recognition method.
제 6 항에 있어서,
(g) 상기 (e) 단계에서 고객이 물품을 구매한 것으로 판단된 경우 고객 구매 목록에 구매 물품을 추가하고, 고객이 물품을 반환한 것으로 판단된 경우 고객 구매 목록에서 상기 물품을 제거하는 고객 구매 목록 업데이트 단계를 더 포함하는
영상 기반 구매 행동 인식 방법.
The method of claim 6,
(g) A customer purchase that adds the purchased item to the customer purchase list when it is determined that the customer has purchased the item in step (e), and removes the item from the customer purchase list when it is determined that the customer has returned the item list update step
Image-based purchasing behavior recognition method.
컴퓨터로 읽을 수 있는 기록매체에 있어서,
제 6 항에 따른 영상 기반 구매 행동 인식 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록매체.
In a computer-readable recording medium,
A recording medium recording a program for executing the image-based purchasing behavior recognition method according to claim 6 by a computer.
KR1020190125278A 2019-10-10 2019-10-10 System and method for recognizing purchase behavior based on image KR102260355B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190125278A KR102260355B1 (en) 2019-10-10 2019-10-10 System and method for recognizing purchase behavior based on image
PCT/KR2020/012523 WO2021071121A1 (en) 2019-10-10 2020-09-17 Image-based purchasing behavior recognition system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190125278A KR102260355B1 (en) 2019-10-10 2019-10-10 System and method for recognizing purchase behavior based on image

Publications (2)

Publication Number Publication Date
KR20210042566A KR20210042566A (en) 2021-04-20
KR102260355B1 true KR102260355B1 (en) 2021-06-02

Family

ID=75437348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190125278A KR102260355B1 (en) 2019-10-10 2019-10-10 System and method for recognizing purchase behavior based on image

Country Status (2)

Country Link
KR (1) KR102260355B1 (en)
WO (1) WO2021071121A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102429774B1 (en) * 2022-05-31 2022-08-08 (주) 인터마인즈 Inventory management device for product showcase using artificial intelligence-based image recognition, management method therefor, and refrigerator including same
WO2023234604A1 (en) * 2022-05-31 2023-12-07 (주) 인터마인즈 Recognition method and apparatus based on cameras disposed on both sides of front surface of each showcase tier

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115797707B (en) * 2023-02-06 2023-05-05 威海海洋职业学院 Article identification method and system based on computer vision

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179360A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
JP2018206159A (en) * 2017-06-06 2018-12-27 株式会社 ディー・エヌ・エー System, method and program for managing commodities

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102474837B1 (en) * 2015-09-14 2022-12-07 주식회사 한화 Foreground area extracting method and apparatus
KR102530045B1 (en) * 2016-12-23 2023-05-09 삼성전자주식회사 Image display device and operating method for the same
KR101850315B1 (en) * 2018-01-22 2018-05-31 주식회사 엑사스코프 Apparatus for self-checkout applied to hybrid product recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179360A1 (en) * 2017-03-31 2018-10-04 日本電気株式会社 Image-processing device, image-processing method, and recording medium
JP2018206159A (en) * 2017-06-06 2018-12-27 株式会社 ディー・エヌ・エー System, method and program for managing commodities

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102429774B1 (en) * 2022-05-31 2022-08-08 (주) 인터마인즈 Inventory management device for product showcase using artificial intelligence-based image recognition, management method therefor, and refrigerator including same
WO2023234604A1 (en) * 2022-05-31 2023-12-07 (주) 인터마인즈 Recognition method and apparatus based on cameras disposed on both sides of front surface of each showcase tier

Also Published As

Publication number Publication date
KR20210042566A (en) 2021-04-20
WO2021071121A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
CN111415461B (en) Article identification method and system and electronic equipment
KR102260355B1 (en) System and method for recognizing purchase behavior based on image
JP6529078B2 (en) Customer behavior analysis system, customer behavior analysis method, customer behavior analysis program and shelf system
CN104504055B (en) The similar computational methods of commodity and commercial product recommending system based on image similarity
Wang et al. Adaptive object tracking based on an effective appearance filter
CN108345912A (en) Commodity rapid settlement system based on RGBD information and deep learning
TWI578272B (en) Shelf detection system and method
Tonioni et al. Product recognition in store shelves as a sub-graph isomorphism problem
US11475500B2 (en) Device and method for item recommendation based on visual elements
CN108984577B (en) Online commodity patent acquisition method and system based on machine identification
CN110097715A (en) Merchandise management server, automatic cash register system and merchandise control method
CN114898249B (en) Method, system and storage medium for confirming number of articles in shopping cart
CN109840503A (en) A kind of method and device of determining information
JP7088281B2 (en) Product analysis system, product analysis method and product analysis program
CA3158925A1 (en) Customer path tracking method and system
Shoman et al. A region-based deep learning approach to automated retail checkout
WO2017155466A1 (en) Method and system for visitor tracking at a pos area
Gothai et al. Design features of grocery product recognition using deep learning
Kuo et al. Study on mask R-CNN with data augmentation for retail product detection
Zhang et al. Fine detection and classification of multi-class barcode in complex environments
JP6975312B2 (en) Fraud estimation system, fraud estimation method, and program
James et al. Automated checkout for stores: A computer vision approach
Achakir et al. An automated AI-based solution for out-of-stock detection in retail environments
KR20230060452A (en) Action determination program, action determination method, and action determination device
Puspitasari et al. AR-Mart: The implementation of augmented reality as a smart self-service cashier in the pandemic era

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant