KR20230042803A - System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method - Google Patents

System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method Download PDF

Info

Publication number
KR20230042803A
KR20230042803A KR1020210125485A KR20210125485A KR20230042803A KR 20230042803 A KR20230042803 A KR 20230042803A KR 1020210125485 A KR1020210125485 A KR 1020210125485A KR 20210125485 A KR20210125485 A KR 20210125485A KR 20230042803 A KR20230042803 A KR 20230042803A
Authority
KR
South Korea
Prior art keywords
product
customer
pixel cluster
load cell
frame
Prior art date
Application number
KR1020210125485A
Other languages
Korean (ko)
Inventor
김정언
Original Assignee
주식회사 신세계아이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 신세계아이앤씨 filed Critical 주식회사 신세계아이앤씨
Priority to KR1020210125485A priority Critical patent/KR20230042803A/en
Publication of KR20230042803A publication Critical patent/KR20230042803A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0833Tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01GWEIGHING
    • G01G19/00Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
    • G01G19/40Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight
    • G01G19/413Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means
    • G01G19/414Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only
    • G01G19/4144Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only for controlling weight of goods in commercial establishments, e.g. supermarket, P.O.S. systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Primary Health Care (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

According to one embodiment of the disclosed invention, a product tracking method for tracking the movement of products on a store shelf comprises the steps of: obtaining, by a camera, an image including the store shelf displaying the products and at least one customer; setting the products displayed for each load cell area of the store shelf shown in the image using a coordinate designator; extracting a pixel cluster for each of a plurality of frames included in the image by a feature extraction unit; specifying, by a buyer confirmation unit, the customer who moved the products displayed on the load cell based on the characteristics of the pixel cluster included in a first frame and the characteristics of the pixel cluster included in a second frame temporally adjacent to the first frame; and determining, by the buyer confirmation unit, the specified customer as a buyer of the moved products. According to one aspect of the disclosed invention, in a situation in which a large number of customers are present in the image obtained in an unmanned store environment, when a product purchasing behavior occurs, it is possible to accurately distinguish who is a subject of the product purchasing behavior.

Description

상품 추적 시스템, 상품 추적 방법 및 상품 추적 방법을 실행시키도록 기록매체에 저장된 컴퓨터 프로그램{SYSTEM FOR TRACKING PRODUCT, METHOD FOR TRACKING PRODUCT AND COMPUTER PROGRAM STORED IN A RECORDING MEDIUM TO EXECUTE THE METHOD}A computer program stored in a recording medium to execute a product tracking system, a product tracking method, and a product tracking method

본 발명은 무인 점포 환경에서 획득된 영상 내의 움직임을 기초로 상품의 실제 구매자를 결정할 수 있는 상품 추적 시스템 및 상품 추적 방법에 관한 것이다.The present invention relates to a product tracking system and product tracking method capable of determining an actual purchaser of a product based on motion in an image acquired in an unmanned store environment.

최근 무인 매장의 널리 도입되고 있다. 로드셀 매대가 설치된 무인 매장 내에서 로드셀 매대에 인접한 고객들의 구매행위 발생 시 복수의 고객들 중 실제 상품의 구매자가 누구인지 구분할 필요가 있다.Recently, unmanned stores have been widely introduced. In an unmanned store where a load cell rack is installed, when a purchase occurs by customers adjacent to the load cell rack, it is necessary to distinguish who the actual product purchaser is among a plurality of customers.

영상에 찍힌 객체의 움직임(motion)을 분석하기 위한 대표적 움직임 추적 기술로서 Optical flow를 사용될 수 있다. Optical flow는 영상 내 지역 특징이 이동되어도 변하지 않는다는 전제가 충족되어야 유효하기 때문에 폐색(occlusion)과 모션 블러(motion blur), 상품을 집을 때 발생하는 형상 변화 등 다양한 원인으로 인해 픽셀 특징의 이동 방향(orientation)의 정확도가 떨어진다는 문제가 있다.Optical flow can be used as a representative motion tracking technique for analyzing the motion of an object captured in an image. Optical flow is valid only when the premise that the local feature in the image does not change even if it is moved is satisfied, so the direction of movement of the pixel feature ( There is a problem that the accuracy of orientation is poor.

따라서 픽셀 특징의 이동 방향(orientation)을 사용하지 않고 상품과 고객의 움직임을 분석하여 해당 상품의 실제 구매자를 추정하는 것이 필요하다.Therefore, it is necessary to estimate the actual purchaser of the corresponding product by analyzing the movement of the product and the customer without using the orientation of the pixel feature.

본 발명은 무인 점포 환경에서 획득된 영상 내에 다수의 고객이 존재하는 상황에서, 상품 구매 행위가 발생 시 상품 구매 행위의 주체가 누구인지 정확하게 구분할 수 있는 상품 추적 시스템, 상품 추적 방법을 제공하기 위한 것이다.The present invention is to provide a product tracking system and a product tracking method that can accurately distinguish who is the subject of product purchase behavior when a product purchase behavior occurs in a situation where a large number of customers exist in an image acquired in an unmanned store environment. .

또한, 본 발명은 영상에서 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 객체 형상의 특징이 유사하여 픽셀 군집의 이동 방향의 신뢰도가 크게 떨어지더라도 픽셀 군집의 이동 방향 외에 다른 픽셀 군집의 특징을 기초로 진열된 상품을 이동시킨 구매자를 특정할 수 있는 상품 추적 시스템, 상품 추적 방법을 제공하기 위한 것이다.In addition, the present invention is based on the characteristics of other pixel clusters in addition to the moving direction of the pixel cluster, even if the color and object shape characteristics in a certain area, such as the customer's skin or the sleeve of the clothes, are similar in the image and the reliability of the moving direction of the pixel cluster is greatly reduced. It is to provide a product tracking system and a product tracking method capable of specifying a buyer who has moved a product displayed as .

개시된 발명의 일 측면에 따른 상점 매대의 상품 이동을 추적하는 상품 추적 방법은, 카메라에 의해, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하는 단계; 좌표 지정부에 의해, 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하는 단계; 특징 추출부에 의해, 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하는 단계; 구매자 확정부에 의해, 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계; 및 구매자 확정부에 의해, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하는 단계;를 포함할 수 있다.A product tracking method for tracking the movement of goods in a store shelf according to an aspect of the disclosed invention includes acquiring, by a camera, an image including the store shelf where products are displayed and at least one customer; Presetting, by a coordinate designation unit, products displayed for each load cell area of the store shelf appearing in the image; extracting a pixel cluster for each of a plurality of frames included in the image by a feature extraction unit; Based on the characteristic of the pixel cluster included in the first frame and the characteristic of the pixel cluster included in the second frame temporally adjacent to the first frame, the buyer decision unit moves the product displayed in the load cell. identifying the customer who took the action; and determining the specified customer as a purchaser of the moved product by a purchaser determination unit.

또한, 무게 센서에 의해, 상기 로드셀의 무게 변화를 감지하는 단계; 상기 특징 추출부에 의해, 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하는 단계; 및 상기 특징 추출부에 의해, 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하는 단계;를 더 포함하고, 상기 복수의 프레임 마다 픽셀 군집을 추출하는 단계는, 상기 특징 추출부에 의해, 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하는 단계;를 포함할 수 있다.In addition, detecting a weight change of the load cell by a weight sensor; determining, by the feature extraction unit, a first time when a change in weight of the load cell is detected; And determining, by the feature extraction unit, a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time, In the step of extracting a pixel cluster for each of a plurality of frames, a plurality of frames included between a frame obtained by the camera at the second time and a frame obtained by the camera at the third time are selected by the feature extraction unit. and extracting the pixel cluster based on the pixel cluster.

또한, 상기 픽셀 군집의 특징은, 상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하는 단계; 및 상기 구매자 확정부에 의해, 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the characteristic of the pixel cluster is selected from among the scale of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. Including at least one, specifying a customer who moved a product displayed on the load cell includes, by the buyer determining unit, the characteristics of the pixel cluster of the first frame and the pixel cluster of the second frame. determining a product movement direction based on a result of comparing characteristics; and specifying a customer who performed an action of moving a product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer, by the buyer determination unit.

또한, 기계학습부에 의해, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하는 단계;를 더 포함할 수 있다.In addition, generating a machine learning model through a machine learning method by a machine learning unit by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. can include more.

또한, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the step of specifying the customer who has moved the product displayed in the load cell is based on the pixel cluster included in the first frame and the pixel cluster included in the second frame by the buyer determination unit. It may include specifying a customer who performed an action of moving a product displayed on the load cell through the machine learning model.

또한, 고객 ID 설정부에 의해, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하는 단계;를 더 포함하고, 상기 이동된 상품의 구매자로 결정하는 단계는, 상기 구매자 확정부에 의해, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하는 단계;를 포함할 수 있다.In addition, generating a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store by the customer ID setting unit; further comprising the moved The step of determining the purchaser of the product may include matching the ID of the specified customer with the moved product by the purchaser confirmation unit.

또한, 구매 리스트 생성부에 의해, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하는 단계; 및 결제 정보 생성부에 의해, 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하는 단계;를 더 포함할 수 있다.In addition, adding the information of the moved product to the purchase list of the ID of the specified customer by the purchase list creation unit; and generating, by a payment information generation unit, payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.

또한, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하는 단계; 및 상기 구매자 확정부에 의해, 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the step of specifying the customer who has moved the product displayed in the load cell is based on the pixel cluster included in the first frame and the pixel cluster included in the second frame by the buyer determination unit. generating a skeleton based on the customer's joints included in the image and tracking the movement of each joint if the customer who moved the product displayed on the load cell cannot be identified; and specifying, by the purchaser determining unit, a customer who performed an action of moving a product displayed on the load cell based on the movement of the joint.

개시된 발명의 일 측면에 따른 컴퓨터 프로그램은, 상기 상품 추적 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to an aspect of the disclosed invention may be stored in a computer-readable recording medium to execute the product tracking method.

개시된 발명의 일 측면에 따른 상점 매대의 상품 이동을 추적하는 상품 추적 시스템은, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하도록 구성되는 카메라; 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하도록 구성되는 좌표 지정부; 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하도록 구성되는 특징 추출부; 및 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하고, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하도록 구성되는 구매자 확정부;를 포함할 수 있다.A product tracking system for tracking the movement of goods in a store shelf according to an aspect of the disclosed invention includes a camera configured to acquire an image of the store shelf where products are displayed and at least one or more customers; a coordinate designation unit configured to preset products displayed for each load cell area of the shop shelf appearing in the image; a feature extraction unit configured to extract a pixel cluster for each of a plurality of frames included in the image; and based on the characteristics of the pixel cluster included in the first frame and the feature of the pixel cluster included in the second frame temporally adjacent to the first frame, a customer who moves the product displayed in the load cell. and a purchaser determining unit configured to specify and determine the specified customer as a purchaser of the moved product.

또한, 상기 로드셀의 무게 변화를 감지하는 무게 센서;를 더 포함하고, 상기 특징 추출부는: 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하고; 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하고; 그리고 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하도록 구성될 수 있다.The weight sensor detects a change in weight of the load cell; and the feature extraction unit: determines a first time when the change in weight of the load cell is sensed; determining a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time; The pixel cluster may be extracted based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time.

또한, 상기 픽셀 군집의 특징은, 상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고, 상기 구매자 확정부는, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고; 그리고 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the characteristic of the pixel cluster is selected from among the scale of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. It includes at least one, and the buyer determination unit determines a product movement direction based on a result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame; And it may be configured to specify a customer who performed an action of moving a product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer.

또한, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하도록 구성되는 기계학습부;를 더 포함할 수 있다.In addition, a machine learning unit configured to generate a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. can do.

또한, 상기 구매자 확정부는, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the buyer determination unit specifies a customer who performed an action of moving a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. can be configured to

또한, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하도록 구성되는 고객 ID 설정부;를 더 포함하고, 상기 구매자 확정부는, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하도록 구성될 수 있다.In addition, a customer ID setting unit configured to generate a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising the buyer determination unit, It may be configured to match the ID of the specified customer with the moved product.

또한, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하도록 구성되는 구매 리스트 생성부; 및 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하도록 구성되는 결제 정보 생성부;를 더 포함할 수 있다.In addition, a purchase list creation unit configured to add the information of the moved product to the purchase list of the ID of the specified customer; and a payment information generation unit configured to generate payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.

또한, 상기 구매자 확정부는: 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하고; 그리고 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the buyer determination unit: If it is impossible to specify a customer who has moved a product displayed in the load cell based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, included in the image Creating a skeleton based on the customer's joints to track the movement of each joint; And it may be configured to specify a customer who performed an action of moving a product displayed in the load cell based on the movement of the joint.

개시된 발명의 일 측면에 따르면, 무인 점포 환경에서 획득된 영상 내에 다수의 고객이 존재하는 상황에서, 상품 구매 행위가 발생 시 상품 구매 행위의 주체가 누구인지 정확하게 구분할 수 있다.According to one aspect of the disclosed invention, in a situation where a large number of customers exist in an image acquired in an unmanned store environment, when a product purchasing behavior occurs, it is possible to accurately distinguish who the subject of the product purchasing behavior is.

또한, 본 발명의 실시예에 의하면, 영상에서 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 객체 형상의 특징이 유사하여 픽셀 군집의 이동 방향의 신뢰도가 크게 떨어지더라도 픽셀 군집의 이동 방향 외에 다른 픽셀 군집의 특징을 기초로 진열된 상품을 이동시킨 구매자를 특정할 수 있다.In addition, according to an embodiment of the present invention, even if the reliability of the moving direction of the pixel cluster is greatly reduced because the color and object shape characteristics in a certain area, such as the customer's skin or the sleeve of the clothes, are similar in the image, pixels other than the moving direction of the pixel cluster Based on the characteristics of the cluster, the buyer who moved the displayed product can be identified.

도 1은 일 실시예에 따른 상품 추적 시스템의 구성도이다.
도 2는 일 실시예에 따른 카메라가 획득한 영상을 도시한 도면이다.
도 3은 일 실시예에 따른 개체 상태 예측 방법의 순서도이다.
1 is a block diagram of a product tracking system according to an embodiment.
2 is a diagram illustrating an image obtained by a camera according to an exemplary embodiment.
3 is a flowchart of a method for predicting an entity state according to an exemplary embodiment.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '~부'가 하나의 구성요소로 구현되거나, 하나의 '~부'가 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention belongs is omitted. The term '~unit' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of '~units' may be implemented as one component, or one '~unit' may constitute a plurality of components. It is also possible to include elements.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.

제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.

이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the disclosed invention will be described with reference to the accompanying drawings.

로드셀 매대가 설치된 무인 매장 내에서 고객은 로드셀 매대에 진열된 상품을 구매하기 위해서 상품을 손으로 들어 이동시킬 수 있다. 이때, 무인 매장 시스템은 매장 내의 카메라로 획득한 영상을 분석하여 자동으로 어떠한 고객이 어떠한 상품을 구매한 것으로 판단할 수 있다. 한편, 어떠한 로드셀 매대에 인접한 고객이 여러 명 존재할 경우, 복수의 고객 중에서 구매 의사를 가지고 해당 로드셀 매대에 진열된 상품을 이동시킨 고객이 누구인지 구분할 필요가 있다.In an unmanned store where a load cell shelf is installed, a customer can lift and move a product by hand in order to purchase a product displayed on the load cell shelf. In this case, the unmanned store system may automatically determine that a certain customer has purchased a certain product by analyzing an image acquired by a camera in the store. On the other hand, if there are several customers adjacent to a certain load cell shelf, it is necessary to distinguish which customer among the plurality of customers has moved the product displayed on the load cell shelf with an intention to purchase.

도 1은 일 실시예에 따른 상품 추적 시스템의 구성도이며, 도 2는 일 실시예에 따른 카메라가 획득한 영상을 도시한 도면이다.1 is a configuration diagram of a product tracking system according to an embodiment, and FIG. 2 is a diagram illustrating an image acquired by a camera according to an embodiment.

도 1을 참조하면, 본 발명의 실시예에 따른 상품 추적 시스템(100)은 상점 매대(110)의 상품 이동을 추적하도록 구성될 수 있다.Referring to FIG. 1 , a product tracking system 100 according to an embodiment of the present invention may be configured to track product movement in a store shelf 110 .

상품 추적 시스템(100)은 상점 매대(110), 무게 센서(111), 카메라(101), 라이다 센서(102), 좌표 지정부(103), 기계학습부(104), 특징 추출부(105), 고객 ID 설정부(106), 메모리(120), 구매자 확정부(107), 구매 리스트 생성부(108), 결제 정보 생성부(109)를 포함할 수 있다.The product tracking system 100 includes a store shelf 110, a weight sensor 111, a camera 101, a lidar sensor 102, a coordinate designation unit 103, a machine learning unit 104, and a feature extraction unit 105. ), a customer ID setting unit 106, a memory 120, a buyer determination unit 107, a purchase list generation unit 108, and a payment information generation unit 109.

카메라(101)는 상품이 진열된 상점 매대(110) 및 적어도 하나 이상의 고객이 포함된 영상을 획득할 수 있다.The camera 101 may acquire an image including the store shelf 110 where products are displayed and at least one customer.

편의점 같은 좁은 통로와 높은 매대 등 장애물이 존재하고 동시에 다수의 고객이 인접 거리에서 유사한 형태로 동시에 구매를 할 수 있는 환경에서 각 고객의 형상을 가려짐 없이 확인할 수 있는 카메라(101) 위치는 극히 제한된다.In an environment where there are obstacles such as narrow aisles and high shelves, such as convenience stores, and a large number of customers can make purchases in a similar form on adjacent streets at the same time, the position of the camera 101 that can check the shape of each customer without being covered is extremely limited. do.

따라서, 본 발명의 카메라(101)는 매대와 고객 사이를 수직에서 내려다보는 bird eye view 방식을 주로 이용할 수 있으나, 이에 한정되는 것은 아니며 고객과 로드셀이 포함된 영상을 획득할 수 있으면 카메라(101)가 어떠한 방식으로 무인 매장에서 설치되더라도 상관없다.Therefore, the camera 101 of the present invention can mainly use a bird eye view method that looks down vertically between the shelf and the customer, but is not limited thereto. is installed in an unmanned store in any way.

좌표 지정부(103)는 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정할 수 있다.The coordinate designator 103 may preset products displayed for each load cell area of the store shelf 110 appearing in the image.

예를 들어, 무인 매장의 관리자는 무인 매장 시스템에 마련된 입력부를 통해서 직접 입력하는 방식 또는 외부 단말에 입력하여 무인 매장 시스템에 마련된 통신부를 통해서 각 로드셀에 진열된 상품이 무엇인지 미리 설정할 수 있고, 좌표 지정부(103)는 관리자가 입력한 정보를 입력부 또는 통신부로부터 전달 받고, 이를 기초로 각 로드셀 영역 별 진열된 상품을 설정할 수 있다.For example, the manager of an unmanned store can set in advance what products are displayed in each load cell through a direct input method through an input unit provided in the unmanned store system or through a communication unit provided in the unmanned store system by inputting the input to an external terminal, The designation unit 103 receives the information input by the manager from the input unit or the communication unit, and based on this, can set products displayed for each load cell area.

한편, 영상에서 객체의 움직임을 분석하는 방법으로 Optical flow 방식이 있다. Optical flow는 영상 내의 객체가 짧은 시간사이에 촬영된 인접 프레임에서 형상이 변하지 않는다는 전제를 통해 객체의 이동을 추적하는 방법이다.On the other hand, there is an optical flow method as a method of analyzing the motion of an object in an image. Optical flow is a method of tracking the movement of an object through the premise that the shape of an object in an image does not change in adjacent frames captured in a short period of time.

Optical flow는 일정 크기의 mask window 내의 pixel feature를 인접 프레임에서 탐색하여 이동 위치를 orientation(방향) 과 magnitude(강도)로 표현하는데 피부나 옷 소매 등 일정 영역 내의 색상과 형상 특징이 유사한 경우 orientation의 신뢰도가 크게 떨어지는 현상이 발생한다는 문제가 있다.Optical flow searches for pixel features within a mask window of a certain size in an adjacent frame and expresses the movement position in orientation (direction) and magnitude (intensity). Reliability of orientation when color and shape features are similar within a certain area such as skin or sleeves There is a problem that a large drop in occurs.

본 발명의 상품 추적 시스템(100)은 획득된 영상에서 미리 설정해둔 로드셀 영역에 대한 픽셀의 강도(magnitude) 변화를 구해 상품 구매의 키 프레임(key frame)을 찾고, 키 프레임 전후 영상의 픽셀의 강도를 거리기반 클러스터링 기법인 DBSCAN 방식으로 공간 클러스터링(spatial clustering)하여 군집화하고 군집의 이동 형태를 분석할 수 있다.The product tracking system 100 of the present invention finds a key frame for purchasing a product by obtaining a change in magnitude of pixels for a pre-set load cell area in an acquired image, and the intensity of pixels in images before and after the key frame. can be clustered by spatial clustering using the DBSCAN method, a distance-based clustering technique, and the movement patterns of the clusters can be analyzed.

고객이 상품을 집거나 내려놓는 키 프레임의 시점 이전에는, 고객이 매대쪽으로 손이 다가오는 형태이고, 키 프레임의 시점 이후에는 손을 회수하는 형태이기 때문에 해당 현상에 해당하는 군집과 근접한 고객 ID를 찾기 위해 각 프레임 단위로 몇 가지 픽셀 군집의 특징(feature)을 이용할 수 있다.Before the key frame when the customer picks up or puts down the product, the customer is approaching the shelf, and after the key frame, the hand is withdrawn, so find the customer ID that is close to the cluster corresponding to the phenomenon. For each frame, several pixel cluster features can be used.

상품 추적 시스템(100)은 픽셀 군집의 특징을 시간축에 대해서도 거리기반 클러스터링하여 각 프레임간 군집을 묶고, 거리에 대한 코스트 함수(cost function)을 정의하고 코스트(cost)의 크기를 기준으로 정렬할 수 있다.The product tracking system 100 performs distance-based clustering on the characteristics of pixel clusters on the time axis, binds clusters between frames, defines a cost function for distance, and sorts them based on the size of cost. there is.

정렬된 군집들의 프레임 별 센터 좌표와 영상에 프로젝션(projection)된 고객 좌표와의 거리(distance)를 코스트로 하여 상품을 구매한 고객의 ID를 특정할 수 있다.The ID of the customer who purchased the product can be specified by taking the distance between the coordinates of the center of each frame of the sorted clusters and the coordinates of the customer projected on the image as a cost.

특징 추출부(105)는 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출할 수 있다.The feature extractor 105 may extract a pixel cluster for each of a plurality of frames included in the image.

픽셀 군집은 어느 한 프레임에 포함된 픽셀들 중에서 위치나 상태 등 속성이 비슷한 픽셀들의 집합일 수 있다.The pixel cluster may be a set of pixels having similar properties, such as a location or a state, among pixels included in a certain frame.

도 2를 참조하면, 예를 들어, 영상의 어느 한 프레임에 고객의 옷 소매가 촬영되어 있다면, 고객의 옷 소매를 나타내는 픽셀들의 경우 위치가 비슷한 곳에 분포하며, 나타내는 색이나 밝기 등도 비슷할 수 있다. 특징 추출부(105)는 이렇게 어느 한 프레임에 포함된 픽셀들 중에서 속성이 비슷한 픽셀들을 픽셀 군집으로 결정할 수 있다.Referring to FIG. 2 , for example, if a customer's clothing sleeve is photographed in one frame of an image, pixels representing the customer's clothing sleeve are distributed in similar locations and may have similar colors or brightness. The feature extractor 105 may determine, as a pixel cluster, pixels having similar properties among pixels included in any one frame.

구매자 확정부(107)는 복수개의 프레임 각각에 포함된 픽셀 군집들의 특징을 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The buyer determination unit 107 may specify a customer who has moved a product displayed on the load cell based on characteristics of pixel clusters included in each of a plurality of frames.

구체적으로, 구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집의 특징 및 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 픽셀 군집의 특징을 기초로, 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.Specifically, the buyer determination unit 107 moves the product displayed in the load cell based on the characteristics of the pixel cluster included in the first frame and the pixel cluster included in the second frame temporally adjacent to the first frame. You can identify the customer who took the action.

픽셀 군집의 특징은 픽셀 군집 별 규모, 픽셀 군집 별 평균 강도(average magnitude), 픽셀 군집 별 중심 좌표와 상품의 좌표 간의 각도 및 픽셀 군집 별 중심 좌표와 상품의 좌표 간의 거리 중 적어도 하나를 포함할 수 있다.The feature of the pixel cluster may include at least one of the size of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. there is.

구매자 확정부(107)는 제1 프레임의 픽셀 군집의 특징 및 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정할 수 있다.The buyer determination unit 107 may determine a product movement direction based on a result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame.

구매자 확정부(107)는 상품 이동 방향 및 적어도 하나 이상의 고객의 좌표를 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The purchaser determining unit 107 may specify a customer who performed an action of moving a product displayed on the load cell based on the product movement direction and the coordinates of at least one customer.

결론적으로, 구매자 확정부(107)는 어느 픽셀 군집이 영상의 어느 영역에서 로드셀 매대 쪽을 향해서 움직이고, 로드셀 매대 쪽에서 해당 영역 쪽을 향해서 다시 움직이면 해당 영역에 위치한 고객이 해당 로드셀 매대의 상품을 이동시킨 고객이라고 특정할 수 있다.In conclusion, the buyer determination unit 107 determines that if a certain pixel cluster moves toward the load cell shelf in a certain area of the image and moves from the load cell shelf toward the corresponding area again, the customer located in the corresponding area moves the product on the load cell shelf. It can be identified as a customer.

구매자 확정부(107)는 특정된 고객을 이동된 상품의 구매자로 결정할 수 있다. 즉, 전술한 방식을 통해 상품 추적 시스템(100)은 이동된 상품이 진열되었던 로드셀 주변에 고객이 여러 명 있었더라도 실제로 해당 상품을 구매할 의도로 이동시킨 고객을 구매자인지 결정할 수 있다.The buyer determining unit 107 may determine the specified customer as a buyer of the moved product. That is, through the above-described method, the product tracking system 100 may determine whether a customer who has moved with the intention of actually purchasing the product is a purchaser, even if there are several customers around the load cell where the moved product was displayed.

결과적으로 본 발명에 따른 상품 추적 시스템(100)은 영상에 포함된 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 형상 특징이 유사해서 orientation(방향)의 신뢰도가 크게 떨어지는 현상이 발생하더라도 orientation(방향)과는 다른 픽셀 군집의 특징을 기초로 상품 구매 행위의 주체를 정확하게 구분할 수 있다.As a result, the product tracking system 100 according to the present invention has similar color and shape features within a certain area such as the customer's skin or sleeves included in the image, even if the reliability of orientation (direction) is greatly reduced. ), it is possible to accurately classify the subject of a product purchasing act based on the characteristics of a pixel cluster different from ).

좌표 지정부(103), 기계학습부(104), 특징 추출부(105), 고객 ID 설정부(106), 메모리(120), 구매자 확정부(107), 구매 리스크 생성부, 결제 정보 생성부(109)는 상품 추적 시스템(100)에 포함된 복수개의 프로세서 중 어느 하나의 프로세서를 포함할 수 있다. 또한, 지금까지 설명된 본 발명의 실시예 및 앞으로 설명할 실시예에 따른 개체 인식 방법은, 프로세서에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다.Coordinate designation unit 103, machine learning unit 104, feature extraction unit 105, customer ID setting unit 106, memory 120, buyer determination unit 107, purchase risk generation unit, payment information generation unit (109) may include any one of a plurality of processors included in the product tracking system (100). In addition, the object recognition method according to the embodiments of the present invention described so far and the embodiments to be described in the future may be implemented in the form of a program that can be driven by a processor.

여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 부호 수정을 위한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 전술한 정보 표시 방법을 구현하기 위한 프로그램은, 프로세서에 의해 판독 가능한 기록매체에 기록될 수 있다. 이때, 기록매체는 상품 추적 시스템(100)에 포함된 메모리(120)일 수 있다.Here, the program may include program commands, data files, and data structures alone or in combination. The program may be designed and manufactured using machine language codes or high-level language codes. The program may be specially designed to implement the above-described code correction method, or may be implemented using various functions or definitions that are known and usable to those skilled in the art in the field of computer software. A program for implementing the above information display method may be recorded on a recording medium readable by a processor. At this time, the recording medium may be the memory 120 included in the product tracking system 100.

메모리(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램을 저장할 수 있으며, 메모리(120)는 저장된 프로그램을 실행시킬 수 있다. 프로세서와 메모리(120)가 복수인 경우에, 이들이 하나의 칩에 집적되는 것도 가능하고, 물리적으로 분리된 위치에 마련되는 것도 가능하다. 메모리(120)는 데이터를 일시적으로 기억하기 위한 S램(Static Random Access Memory, S-RAM), D랩(Dynamic Random Access Memory) 등의 휘발성 메모리를 포함할 수 있다. 또한, 메모리(120)는 제어 프로그램 및 제어 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.The memory 120 may store a program for performing the above-described operation and an operation to be described later, and the memory 120 may execute the stored program. When there are a plurality of processors and memories 120, they may be integrated into a single chip or may be provided in physically separate locations. The memory 120 may include volatile memory such as static random access memory (S-RAM) and dynamic random access memory (D-lab) for temporarily storing data. In addition, the memory 120 may include a ROM (Read Only Memory), an Erasable Programmable Read Only Memory (EPROM), and an Electrically Erasable Programmable Read Only Memory (EEPROM) for long-term storage of control programs and control data. It may contain non-volatile memory.

프로세서는 각종 논리 회로와 연산 회로를 포함할 수 있으며, 메모리(120)로부터 제공된 프로그램에 따라 데이터를 처리하고, 처리 결과에 따라 제어 신호를 생성할 수 있다.The processor may include various logic circuits and arithmetic circuits, process data according to programs provided from the memory 120, and generate control signals according to processing results.

본 발명의 카메라(101)는 계속해서 영상 정보를 획득할 수 있으나, 상품 추적 시스템(100)이 항시 상품을 이동시킨 고객이 누구인지 판단해야 하는 것은 아니다. 고객이 무인 매장내에 없는 상태뿐 아니라 고객이 로드셀 근처에 있거나 심지어 고객의 움직임이 있다고 하더라도, 실제로 로드셀에 진열된 상품을 고객이 집어 들지 않았다면 굳이 무인 매장의 시스템이 상품의 이동을 추적할 필요가 없다. 따라서 실제로 고객이 로드셀에 진열된 상품을 집어 든 경우에만 영상을 분석하는 것이 바람직할 수 있다.The camera 101 of the present invention may continuously acquire image information, but the product tracking system 100 does not always have to determine who the customer who moved the product is. Even if the customer is not in the unmanned store, the customer is near the load cell, or even if the customer moves, if the customer does not actually pick up the product displayed on the load cell, there is no need for the system of the unmanned store to track the movement of the product. . Therefore, it may be desirable to analyze the image only when the customer actually picks up the product displayed on the load cell.

도 1을 참조하면, 상점 매대(110)는 무게 센서(111)를 포함할 수 있다. 구체적으로, 상점 매대(110)는 상점 매대(110)에 마련된 각각의 로드셀에 하나씩 대응되는 무게 센서(111)들을 포함할 수 있다.Referring to FIG. 1 , a shop shelf 110 may include a weight sensor 111 . Specifically, the store shelf 110 may include weight sensors 111 corresponding to each load cell provided on the store shelf 110 .

무게 센서(111)는 로드셀의 무게 변화를 감지할 수 있다.The weight sensor 111 may detect a weight change of the load cell.

즉, 고객이 로드셀에 진열된 상품을 집어 들면, 해당 로드셀에 진열된 총 상품의 무게가 감소하고, 해당 로드셀에 연결된 무게 센서(111)가 이러한 무게 변화를 감지할 수 있다.That is, when a customer picks up a product displayed on the load cell, the weight of the total products displayed on the load cell decreases, and the weight sensor 111 connected to the load cell can detect this change in weight.

특징 추출부(105)는 로드셀의 무게 변화가 감지된 제1 시간을 판단할 수 있다. 즉, 제1 시간은 고객이 로드셀에 진열된 상품을 집어 든 시간이다.The feature extractor 105 may determine a first time when a weight change of the load cell is detected. That is, the first time is the time when the customer picks up the product displayed on the load cell.

제1 시간은 카메라(101)가 획득한 복수개의 프레임 중에서 실제로 상품을 추적하는데 이용되는 프레임들을 결정하는데 기준이 되는 시간일 수 있다.The first time may be a reference time for determining frames actually used to track a product among a plurality of frames obtained by the camera 101 .

특징 추출부(105)는 제2 시간 및 제3 시간을 결정할 수 있다.The feature extractor 105 may determine the second time and the third time.

제2 시간은 제1 시간부터 미리 정해진 시간 이전의 시점이고, 제3 시간은 제1 시간부터 미리 정해진 시간 이후의 시점일 수 있다.The second time may be a time from the first time before a predetermined time, and the third time may be a time from the first time to a predetermined time or later.

특징 추출부(105)는 제2 시간에 카메라(101)가 획득한 프레임과 제3 시간에 카메라(101)가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 픽셀 군집을 추출할 수 있다.The feature extractor 105 may extract a pixel cluster based on a plurality of frames included between a frame acquired by the camera 101 at the second time and a frame obtained by the camera 101 at the third time.

제2 시간 이전의 시점 및 제3 시간 이후의 시점에서 획득된 영상은 어느 고객이 무게가 변한 로드셀에 진열된 상품을 구매하는 행위와는 관계없는 영상일 수 있다.Images obtained before the second time and after the third time may be images unrelated to a customer's act of purchasing a product displayed on a load cell whose weight has changed.

결과적으로, 상품 추적 시스템(100)은 제2 시간과 제3 시간 사이에 획득된 영상의 프레임만 분석하여 실제 구매자가 누구인지 판단할 수 있다.As a result, the product tracking system 100 may determine who the actual purchaser is by analyzing only frames of the image obtained between the second time and the third time.

한편, 제2 시간을 결정하는데 필요한 미리 정해진 시간과 제3 시간을 결정하는데 필요한 미리 정해진 시간은 반드시 서로 같아야 하는 것은 아니며, 둘 중 어느 하나가 0이어도 상관없다.On the other hand, the predetermined time required to determine the second time and the predetermined time required to determine the third time do not necessarily have to be the same, and it does not matter if either one of the two is zero.

기계학습부(104)는 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델(121)을 생성할 수 있다.The machine learning unit 104 may generate the machine learning model 121 through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and the buyer information of the learning image as an output variable. .

기계학습부(104)는 입력에 따라 기계 학습 모델(121)을 통해 최종적으로 나온 결과물(output)인 출력들을 이용하여 기계 학습 모델(121)을 학습할 수 있다. 기계 학습 모델(121)은 상품 추적 시스템(100)의 메모리(120)에 저장될 수 있다.The machine learning unit 104 may learn the machine learning model 121 using outputs that are finally output through the machine learning model 121 according to the input. Machine learning model 121 may be stored in memory 120 of product tracking system 100 .

기계 학습이란 다수의 파라미터로 구성된 모델을 이용하며, 주어진 데이터로 파라미터를 최적화하는 것을 의미할 수 있다. 기계 학습은 학습 문제의 형태에 따라 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및 강화 학습(reinforcement learning)을 포함할 수 있다. 지도 학습(supervised learning)은 입력과 출력 사이의 매핑을 학습하는 것이며, 입력과 출력 쌍이 데이터로 주어지는 경우에 적용할 수 있다. 비지도 학습(unsupervised learning)은 입력만 있고 출력은 없는 경우에 적용하며, 입력 사이의 규칙성 등을 찾아낼 수 있다.Machine learning may mean using a model composed of multiple parameters and optimizing the parameters with given data. Machine learning may include supervised learning, unsupervised learning, and reinforcement learning depending on the form of a learning problem. Supervised learning is to learn the mapping between inputs and outputs, and can be applied when input and output pairs are given as data. Unsupervised learning is applied when there are only inputs and no outputs, and regularities between inputs can be found.

본 발명의 실시예에 따른 기계학습부(104)는 각각의 학습용 영상의 프레임에서 추출된 픽셀 군집의 특징과 각각의 학습용 영상의 실제 구매자 정보를 기초로 기계 학습 모델(121)을 생성할 수 있다.The machine learning unit 104 according to an embodiment of the present invention may generate the machine learning model 121 based on the characteristics of the pixel cluster extracted from each frame of the training image and the actual purchaser information of each training image. .

상품 추적 시스템(100)은 기계 학습 방식뿐만 아니라 딥 러닝 방식을 통해서도 구매자를 결정할 수 있으며, 다양한 방식으로 구매자를 결정할 수 있다.The product tracking system 100 may determine a buyer through a deep learning method as well as a machine learning method, and may determine a purchaser in various ways.

구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집 및 제2 프레임에 포함된 픽셀 군집을 기초로 기계 학습 모델(121)을 통하여 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The buyer determining unit 107 may specify a customer who performed an action of moving a product displayed in the load cell through the machine learning model 121 based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. can

고객 ID 설정부(106)는 상점에 마련된 적어도 하나 이상의 라이다 센서(102) 또는 카메라(101)가 획득한 정보를 기초로 상점 내부에 있는 고객마다 고유한 ID를 생성할 수 있다.The customer ID setting unit 106 may generate a unique ID for each customer in the store based on information acquired by at least one lidar sensor 102 or camera 101 provided in the store.

고객 ID 설정부(106)는 어느 한 고객에게 부여된 ID가 있다면, 해당 고객이 상점 내부를 돌아다니더라도, 상점에 마련된 라이다 센서(102) 또는 카메라(101)가 획득한 정보를 기초로 해당 고객을 계속 추적할 수 있다.If the customer ID setting unit 106 has an ID assigned to any one customer, even if the customer moves around the inside of the store, the corresponding customer is based on the information acquired by the lidar sensor 102 or camera 101 provided in the store. You can keep track of your customers.

또한, 고객 ID 설정부(106)는 어느 한 카메라 영상에 나타난 고객의 ID 정보를 구매자 확정부(107)에 전달할 수 있다.In addition, the customer ID setting unit 106 may transmit ID information of a customer shown in a camera image to the purchaser determination unit 107 .

구매자 확정부(107)는 특정된 고객의 ID와 이동된 상품을 매칭할 수 있다.The buyer determination unit 107 may match the ID of the specified customer with the moved product.

구매 리스트 생성부(108)는 이동된 상품의 정보를 특정된 고객의 ID의 구매 리스트에 추가할 수 있다. 즉, 어느 고객이 여러 번 로드셀 매대에서 상품을 집어 드는 행위The purchase list creation unit 108 may add the information of the moved product to the purchase list of the ID of the specified customer. In other words, the act of a customer picking up a product from the load cell shelf several times.

결제 정보 생성부(109)는 특정된 고객이 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성할 수 있다.The payment information generation unit 109 may generate payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.

결제 정보는 구매자의 카드사 서버 또는 VAN사 서버로 직간접적으로 전달될 수 있으나, 결제 정보를 기초로 고객의 상품 결제를 하는 방식은 이에 한정되는 것은 아니다.Payment information may be transmitted directly or indirectly to the purchaser's card company server or VAN company server, but a method of paying for a customer's product based on the payment information is not limited thereto.

한편, 전술한 방식대로 픽셀 군집을 기초로 판단하더라도 로드셀에 진열된 상품을 이동시킨 고객을 특정하지 못하는 경우가 발생할 수 있다.On the other hand, even if the decision is made based on the pixel cluster as described above, there may be a case where it is not possible to specify a customer who moved a product displayed on the load cell.

스켈레톤 감지(Skeleton detection) 방법은 사람의 관절을 기준으로 스켈레톤(Skeleton)을 생성하여 각 관절의 움직임을 추적할 수 있다. 스켈레톤 감지 방법은 검출된 고객의 손목 위치를 추적할 수 있어 직관적으로 구매 행위를 분석할 수 있다. 만약 픽셀 군집을 기초로 해서는 구매자를 특정할 수 없다면 스켈레톤을 분석하여 구매자를 특정하는 것이 바람직할 수 있다.The skeleton detection method can track the movement of each joint by generating a skeleton based on human joints. The skeleton detection method can track the detected wrist position of the customer, so it is possible to intuitively analyze the purchase behavior. If buyers cannot be identified based on pixel clustering, it may be desirable to identify buyers by analyzing the skeleton.

구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집 및 제2 프레임에 포함된 픽셀 군집을 기초로 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적할 수 있다.If the purchaser determining unit 107 cannot identify the customer who moved the product displayed in the load cell based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, the customer's joint included in the image By creating a skeleton as a reference, the movement of each joint can be traced.

구매자 확정부(107)는 관절의 움직임을 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The purchaser determination unit 107 may specify a customer who performed an action of moving a product displayed on the load cell based on the motion of the joint.

이상에서 설명된 구성요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components described above. In addition, it will be easily understood by those skilled in the art that the mutual positions of the components can be changed corresponding to the performance or structure of the system.

도 3은 일 실시예에 따른 개체 상태 예측 방법의 순서도이다. 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있음은 물론이다.3 is a flowchart of a method for predicting an entity state according to an exemplary embodiment. This is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some components may be added or deleted as needed.

도 3을 참조하면, 좌표 지정부(103)에 의해, 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정Referring to FIG. 3, by the coordinate designation unit 103, products displayed for each load cell area of the store shelf 110 appearing in the image are preset.

좌표 지정부(103)는 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정할 수 있다(1001).The coordinate designation unit 103 may preset products displayed for each load cell area of the store shelf 110 appearing in the image (1001).

카메라(101)는 상품이 진열된 상점 매대(110) 및 적어도 하나 이상의 고객이 포함된 영상을 획득할 수 있다(1002).The camera 101 may acquire an image including the store shelf 110 where products are displayed and at least one customer (1002).

무게 센서(111)는 로드셀의 무게 변화를 감지할 수 있다(1003).The weight sensor 111 may detect a weight change of the load cell (1003).

특징 추출부(105)는 로드셀의 무게 변화가 감지된 제1 시간을 판단하고, 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정할 수 있다(1004).The feature extraction unit 105 determines the first time when the change in weight of the load cell is detected, the second time which is before a predetermined time from the first time, and the third time which is a time after the predetermined time from the first time. can be determined (1004).

특징 추출부(105)에 의해, 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출할 수 있다(1005). 이때, 특징 추출부(105)는 제2 시간에 카메라(101)가 획득한 프레임과 제3 시간에 카메라(101)가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 픽셀 군집을 추출할 수 있다.A pixel cluster may be extracted for each of a plurality of frames included in the image by the feature extractor 105 (1005). In this case, the feature extractor 105 may extract a pixel cluster based on a plurality of frames included between the frame acquired by the camera 101 at the second time and the frame obtained by the camera 101 at the third time. there is.

구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집의 특징 및 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 픽셀 군집의 특징을 기초로, 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다(1006).The buyer determining unit 107 moves the product displayed in the load cell based on the characteristics of the pixel cluster included in the first frame and the pixel cluster included in the second frame temporally adjacent to the first frame. A customer can be specified (1006).

이때, 구매자 확정부(107)는 제1 프레임의 픽셀 군집의 특징 및 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고, 상품 이동 방향 및 적어도 하나 이상의 고객의 좌표를 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.At this time, the purchaser determination unit 107 determines the product movement direction based on the result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame, and determines the product movement direction and the coordinates of at least one customer. Based on this, it is possible to specify a customer who has moved the product displayed in the load cell.

구매자 확정부(107)는 특정된 고객을 이동된 상품의 구매자로 결정할 수 있다(1007).The buyer determination unit 107 may determine the specified customer as a buyer of the moved product (1007).

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

100: 상품 추적 시스템
101: 카메라
102: 라이다 센서
103: 좌표 지정부
104: 기계학습부
105: 특징 추출부
106: 고객 ID 설정부
107: 구매자 확정부
108: 구매 리스트 생성부
109: 결제 정보 생성부
110: 상점 매대
111: 무게 센서
120: 메모리
121: 기계 학습 모델
100: product tracking system
101: camera
102: lidar sensor
103: coordinate designation unit
104: machine learning unit
105: feature extraction unit
106: customer ID setting unit
107: buyer confirmation unit
108: purchase list generation unit
109: payment information generation unit
110: store shelves
111: weight sensor
120: memory
121: machine learning model

Claims (17)

상점 매대의 상품 이동을 추적하는 상품 추적 방법에 있어서,
카메라에 의해, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하는 단계;
좌표 지정부에 의해, 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하는 단계;
특징 추출부에 의해, 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하는 단계;
구매자 확정부에 의해, 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계; 및
구매자 확정부에 의해, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하는 단계;를 포함하는 상품 추적 방법.
In the product tracking method for tracking the movement of products on a store shelf,
Obtaining, by means of a camera, an image including the store shelves and at least one customer;
Presetting, by a coordinate designation unit, products displayed for each load cell area of the store shelf appearing in the image;
extracting a pixel cluster for each of a plurality of frames included in the image by a feature extraction unit;
Based on the characteristic of the pixel cluster included in the first frame and the characteristic of the pixel cluster included in the second frame temporally adjacent to the first frame, the buyer decision unit moves the product displayed in the load cell. identifying the customer who took the action; and
Determining the specified customer as a purchaser of the moved product by a purchaser confirmation unit; Product tracking method comprising a.
제1항에 있어서,
무게 센서에 의해, 상기 로드셀의 무게 변화를 감지하는 단계;
상기 특징 추출부에 의해, 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하는 단계; 및
상기 특징 추출부에 의해, 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하는 단계;를 더 포함하고,
상기 복수의 프레임 마다 픽셀 군집을 추출하는 단계는,
상기 특징 추출부에 의해, 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하는 단계;를 포함하는, 상품 추적 방법.
According to claim 1,
detecting a weight change of the load cell by a weight sensor;
determining, by the feature extraction unit, a first time when a change in weight of the load cell is detected; and
Determining, by the feature extraction unit, a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time,
The step of extracting the pixel cluster for each of the plurality of frames,
extracting, by the feature extraction unit, the pixel cluster based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time; including , how to track the goods.
제1항에 있어서,
상기 픽셀 군집의 특징은,
상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고,
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하는 단계; 및
상기 구매자 확정부에 의해, 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.
According to claim 1,
The characteristics of the pixel cluster are:
at least one of a scale for each pixel cluster, an average intensity for each pixel cluster, an angle between a center coordinate for each pixel cluster and a coordinate of the product, and a distance between a center coordinate for each pixel cluster and a coordinate for the product;
The step of specifying the customer who moved the product displayed on the load cell,
determining, by the buyer determination unit, a product movement direction based on a result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame; and
Including, the step of specifying a customer who moved the product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer by the buyer determination unit.
제3항에 있어서,
기계학습부에 의해, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하는 단계;를 더 포함하는 상품 추적 방법.
According to claim 3,
Generating, by a machine learning unit, a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable; further comprising How to track your product.
제4항에 있어서,
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.
According to claim 4,
The step of specifying the customer who moved the product displayed on the load cell,
The buyer determination unit identifies a customer who performed an action of moving a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. Step of doing; containing, product tracking method.
제1항에 있어서,
고객 ID 설정부에 의해, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하는 단계;를 더 포함하고,
상기 이동된 상품의 구매자로 결정하는 단계는,
상기 구매자 확정부에 의해, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하는 단계;를 포함하는, 상품 추적 방법.
According to claim 1,
Generating, by a customer ID setting unit, a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising,
The step of determining as a buyer of the moved product,
, Product tracking method comprising: matching the ID of the specified customer with the moved product by the purchaser determination unit.
제6항에 있어서,
구매 리스트 생성부에 의해, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하는 단계; 및
결제 정보 생성부에 의해, 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하는 단계;를 더 포함하는, 상품 추적 방법.
According to claim 6,
adding information of the moved product to a purchase list of the ID of the specified customer by a purchase list creation unit; and
Generating, by a payment information generation unit, payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store; further comprising a product tracking method.
제1항에 있어서,
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하는 단계; 및
상기 구매자 확정부에 의해, 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.
According to claim 1,
The step of specifying the customer who moved the product displayed on the load cell,
If the buyer determining unit cannot identify a customer who has moved a product displayed in the load cell based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, the customer included in the image Tracking the movement of each joint by creating a skeleton based on the customer's joints; and
Including, the product tracking method comprising the; step of specifying a customer who moved the product displayed in the load cell based on the motion of the joint by the purchaser determination unit.
제1항 내지 제8항 중 어느 한 항의 상품 추적 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium to execute the product tracking method according to any one of claims 1 to 8. 상점 매대의 상품 이동을 추적하는 상품 추적 시스템에 있어서,
상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하도록 구성되는 카메라;
상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하도록 구성되는 좌표 지정부;
상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하도록 구성되는 특징 추출부; 및
제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하고, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하도록 구성되는 구매자 확정부;를 포함하는 상품 추적 시스템.
In the product tracking system for tracking the movement of products on the store shelf,
a camera configured to acquire an image including the store shelves and at least one customer;
a coordinate designation unit configured to preset products displayed for each load cell area of the shop shelf appearing in the image;
a feature extraction unit configured to extract a pixel cluster for each of a plurality of frames included in the image; and
Based on the feature of the pixel cluster included in the first frame and the feature of the pixel cluster included in the second frame temporally adjacent to the first frame, a customer who has moved the product displayed on the load cell is specified. and a purchaser determination unit configured to determine the specified customer as a purchaser of the moved product.
제10항에 있어서,
상기 로드셀의 무게 변화를 감지하는 무게 센서;를 더 포함하고,
상기 특징 추출부는:
상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하고;
상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하고; 그리고
상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하도록 구성되는, 상품 추적 시스템.
According to claim 10,
Further comprising a weight sensor for detecting a change in weight of the load cell;
The feature extraction unit:
determining a first time when a weight change of the load cell is sensed;
determining a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time; and
and extracting the pixel cluster based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time.
제10항에 있어서,
상기 픽셀 군집의 특징은,
상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고,
상기 구매자 확정부는,
상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고; 그리고
상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.
According to claim 10,
The characteristics of the pixel cluster are:
at least one of a scale for each pixel cluster, an average intensity for each pixel cluster, an angle between a center coordinate for each pixel cluster and a coordinate of the product, and a distance between a center coordinate for each pixel cluster and a coordinate for the product;
The buyer determination unit,
determining a product movement direction based on a result of comparing features of the pixel clusters of the first frame and features of the pixel clusters of the second frame; and
Based on the product movement direction and the coordinates of the at least one customer, a product tracking system configured to specify a customer who has moved a product displayed in the load cell.
제12항에 있어서,
학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하도록 구성되는 기계학습부;를 더 포함하는 상품 추적 시스템.
According to claim 12,
A machine learning unit configured to generate a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. tracking system.
제13항에 있어서,
상기 구매자 확정부는,
상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.
According to claim 13,
The buyer determination unit,
A product tracking system configured to specify a customer who has moved a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. .
제10항에 있어서,
상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하도록 구성되는 고객 ID 설정부;를 더 포함하고,
상기 구매자 확정부는,
상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하도록 구성되는, 상품 추적 시스템.
According to claim 10,
A customer ID setting unit configured to generate a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising,
The buyer determination unit,
A product tracking system configured to match the ID of the specified customer with the moved product.
제15항에 있어서,
상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하도록 구성되는 구매 리스트 생성부; 및
상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하도록 구성되는 결제 정보 생성부;를 더 포함하는 상품 추적 시스템.
According to claim 15,
a purchase list creation unit configured to add information of the moved product to a purchase list of the specified customer ID; and
A product tracking system further comprising: a payment information generation unit configured to generate payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.
제10항에 있어서,
상기 구매자 확정부는:
상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하고; 그리고
상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.
According to claim 10,
The buyer determination unit:
If the customer who moved the product displayed on the load cell cannot be identified based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, a skeleton is formed based on the joint of the customer included in the image. to track the movement of each joint by generating; and
Based on the movement of the joint, the product tracking system configured to specify a customer who has moved the product displayed in the load cell.
KR1020210125485A 2021-09-23 2021-09-23 System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method KR20230042803A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210125485A KR20230042803A (en) 2021-09-23 2021-09-23 System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210125485A KR20230042803A (en) 2021-09-23 2021-09-23 System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method

Publications (1)

Publication Number Publication Date
KR20230042803A true KR20230042803A (en) 2023-03-30

Family

ID=85985725

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210125485A KR20230042803A (en) 2021-09-23 2021-09-23 System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method

Country Status (1)

Country Link
KR (1) KR20230042803A (en)

Similar Documents

Publication Publication Date Title
US11087130B2 (en) Simultaneous object localization and attribute classification using multitask deep neural networks
CN111415461B (en) Article identification method and system and electronic equipment
Zhang et al. Ergonomic posture recognition using 3D view-invariant features from single ordinary camera
JP7248689B2 (en) Vending method and apparatus, and computer readable storage medium
CN109993595B (en) Method, system and equipment for personalized commodity and service recommendation
JP4972491B2 (en) Customer movement judgment system
US8345101B2 (en) Automatically calibrating regions of interest for video surveillance
CN110991261A (en) Interactive behavior recognition method and device, computer equipment and storage medium
US11475500B2 (en) Device and method for item recommendation based on visual elements
CN108345912A (en) Commodity rapid settlement system based on RGBD information and deep learning
CN112215167B (en) Intelligent store control method and system based on image recognition
EP4075399A1 (en) Information processing system
TW201742007A (en) Shelf pickup detection system and method capable of analyzing popular areas where the shelves are accessed for using the information as references for logistics management and selling strategies
JP7088281B2 (en) Product analysis system, product analysis method and product analysis program
KR102260355B1 (en) System and method for recognizing purchase behavior based on image
EP3629276A1 (en) Context-aided machine vision item differentiation
CN114255377A (en) Differential commodity detection and classification method for intelligent container
EP3474184A1 (en) Device for detecting the interaction of users with products arranged on a stand or display rack of a store
JP2019121904A (en) Suspicious person detection apparatus, suspicious person detection method and suspicious person detection computer program
KR20230042803A (en) System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method
Achakir et al. An automated AI-based solution for out-of-stock detection in retail environments
JP6792195B2 (en) Image processing device
CN115601877A (en) Automatic vending machine identification system based on image processing and identification method thereof
CN110443946A (en) Vending machine, the recognition methods of type of goods and device
US12062013B1 (en) Automated planogram generation and usage

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application