KR20230042803A - System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method - Google Patents
System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method Download PDFInfo
- Publication number
- KR20230042803A KR20230042803A KR1020210125485A KR20210125485A KR20230042803A KR 20230042803 A KR20230042803 A KR 20230042803A KR 1020210125485 A KR1020210125485 A KR 1020210125485A KR 20210125485 A KR20210125485 A KR 20210125485A KR 20230042803 A KR20230042803 A KR 20230042803A
- Authority
- KR
- South Korea
- Prior art keywords
- product
- customer
- pixel cluster
- load cell
- frame
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000004590 computer program Methods 0.000 title claims description 3
- 238000000605 extraction Methods 0.000 claims abstract description 17
- 238000012790 confirmation Methods 0.000 claims abstract description 5
- 238000010801 machine learning Methods 0.000 claims description 33
- 230000015654 memory Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001300198 Caperonia palustris Species 0.000 description 1
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
- G06Q10/0833—Tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01G—WEIGHING
- G01G19/00—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
- G01G19/40—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight
- G01G19/413—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means
- G01G19/414—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only
- G01G19/4144—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups with provisions for indicating, recording, or computing price or other quantities dependent on the weight using electromechanical or electronic computing means using electronic computing means only for controlling weight of goods in commercial establishments, e.g. supermarket, P.O.S. systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Mathematical Physics (AREA)
- Economics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Software Systems (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Tourism & Hospitality (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Primary Health Care (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 무인 점포 환경에서 획득된 영상 내의 움직임을 기초로 상품의 실제 구매자를 결정할 수 있는 상품 추적 시스템 및 상품 추적 방법에 관한 것이다.The present invention relates to a product tracking system and product tracking method capable of determining an actual purchaser of a product based on motion in an image acquired in an unmanned store environment.
최근 무인 매장의 널리 도입되고 있다. 로드셀 매대가 설치된 무인 매장 내에서 로드셀 매대에 인접한 고객들의 구매행위 발생 시 복수의 고객들 중 실제 상품의 구매자가 누구인지 구분할 필요가 있다.Recently, unmanned stores have been widely introduced. In an unmanned store where a load cell rack is installed, when a purchase occurs by customers adjacent to the load cell rack, it is necessary to distinguish who the actual product purchaser is among a plurality of customers.
영상에 찍힌 객체의 움직임(motion)을 분석하기 위한 대표적 움직임 추적 기술로서 Optical flow를 사용될 수 있다. Optical flow는 영상 내 지역 특징이 이동되어도 변하지 않는다는 전제가 충족되어야 유효하기 때문에 폐색(occlusion)과 모션 블러(motion blur), 상품을 집을 때 발생하는 형상 변화 등 다양한 원인으로 인해 픽셀 특징의 이동 방향(orientation)의 정확도가 떨어진다는 문제가 있다.Optical flow can be used as a representative motion tracking technique for analyzing the motion of an object captured in an image. Optical flow is valid only when the premise that the local feature in the image does not change even if it is moved is satisfied, so the direction of movement of the pixel feature ( There is a problem that the accuracy of orientation is poor.
따라서 픽셀 특징의 이동 방향(orientation)을 사용하지 않고 상품과 고객의 움직임을 분석하여 해당 상품의 실제 구매자를 추정하는 것이 필요하다.Therefore, it is necessary to estimate the actual purchaser of the corresponding product by analyzing the movement of the product and the customer without using the orientation of the pixel feature.
본 발명은 무인 점포 환경에서 획득된 영상 내에 다수의 고객이 존재하는 상황에서, 상품 구매 행위가 발생 시 상품 구매 행위의 주체가 누구인지 정확하게 구분할 수 있는 상품 추적 시스템, 상품 추적 방법을 제공하기 위한 것이다.The present invention is to provide a product tracking system and a product tracking method that can accurately distinguish who is the subject of product purchase behavior when a product purchase behavior occurs in a situation where a large number of customers exist in an image acquired in an unmanned store environment. .
또한, 본 발명은 영상에서 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 객체 형상의 특징이 유사하여 픽셀 군집의 이동 방향의 신뢰도가 크게 떨어지더라도 픽셀 군집의 이동 방향 외에 다른 픽셀 군집의 특징을 기초로 진열된 상품을 이동시킨 구매자를 특정할 수 있는 상품 추적 시스템, 상품 추적 방법을 제공하기 위한 것이다.In addition, the present invention is based on the characteristics of other pixel clusters in addition to the moving direction of the pixel cluster, even if the color and object shape characteristics in a certain area, such as the customer's skin or the sleeve of the clothes, are similar in the image and the reliability of the moving direction of the pixel cluster is greatly reduced. It is to provide a product tracking system and a product tracking method capable of specifying a buyer who has moved a product displayed as .
개시된 발명의 일 측면에 따른 상점 매대의 상품 이동을 추적하는 상품 추적 방법은, 카메라에 의해, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하는 단계; 좌표 지정부에 의해, 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하는 단계; 특징 추출부에 의해, 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하는 단계; 구매자 확정부에 의해, 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계; 및 구매자 확정부에 의해, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하는 단계;를 포함할 수 있다.A product tracking method for tracking the movement of goods in a store shelf according to an aspect of the disclosed invention includes acquiring, by a camera, an image including the store shelf where products are displayed and at least one customer; Presetting, by a coordinate designation unit, products displayed for each load cell area of the store shelf appearing in the image; extracting a pixel cluster for each of a plurality of frames included in the image by a feature extraction unit; Based on the characteristic of the pixel cluster included in the first frame and the characteristic of the pixel cluster included in the second frame temporally adjacent to the first frame, the buyer decision unit moves the product displayed in the load cell. identifying the customer who took the action; and determining the specified customer as a purchaser of the moved product by a purchaser determination unit.
또한, 무게 센서에 의해, 상기 로드셀의 무게 변화를 감지하는 단계; 상기 특징 추출부에 의해, 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하는 단계; 및 상기 특징 추출부에 의해, 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하는 단계;를 더 포함하고, 상기 복수의 프레임 마다 픽셀 군집을 추출하는 단계는, 상기 특징 추출부에 의해, 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하는 단계;를 포함할 수 있다.In addition, detecting a weight change of the load cell by a weight sensor; determining, by the feature extraction unit, a first time when a change in weight of the load cell is detected; And determining, by the feature extraction unit, a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time, In the step of extracting a pixel cluster for each of a plurality of frames, a plurality of frames included between a frame obtained by the camera at the second time and a frame obtained by the camera at the third time are selected by the feature extraction unit. and extracting the pixel cluster based on the pixel cluster.
또한, 상기 픽셀 군집의 특징은, 상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하는 단계; 및 상기 구매자 확정부에 의해, 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the characteristic of the pixel cluster is selected from among the scale of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. Including at least one, specifying a customer who moved a product displayed on the load cell includes, by the buyer determining unit, the characteristics of the pixel cluster of the first frame and the pixel cluster of the second frame. determining a product movement direction based on a result of comparing characteristics; and specifying a customer who performed an action of moving a product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer, by the buyer determination unit.
또한, 기계학습부에 의해, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하는 단계;를 더 포함할 수 있다.In addition, generating a machine learning model through a machine learning method by a machine learning unit by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. can include more.
또한, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the step of specifying the customer who has moved the product displayed in the load cell is based on the pixel cluster included in the first frame and the pixel cluster included in the second frame by the buyer determination unit. It may include specifying a customer who performed an action of moving a product displayed on the load cell through the machine learning model.
또한, 고객 ID 설정부에 의해, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하는 단계;를 더 포함하고, 상기 이동된 상품의 구매자로 결정하는 단계는, 상기 구매자 확정부에 의해, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하는 단계;를 포함할 수 있다.In addition, generating a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store by the customer ID setting unit; further comprising the moved The step of determining the purchaser of the product may include matching the ID of the specified customer with the moved product by the purchaser confirmation unit.
또한, 구매 리스트 생성부에 의해, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하는 단계; 및 결제 정보 생성부에 의해, 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하는 단계;를 더 포함할 수 있다.In addition, adding the information of the moved product to the purchase list of the ID of the specified customer by the purchase list creation unit; and generating, by a payment information generation unit, payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.
또한, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는, 상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하는 단계; 및 상기 구매자 확정부에 의해, 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함할 수 있다.In addition, the step of specifying the customer who has moved the product displayed in the load cell is based on the pixel cluster included in the first frame and the pixel cluster included in the second frame by the buyer determination unit. generating a skeleton based on the customer's joints included in the image and tracking the movement of each joint if the customer who moved the product displayed on the load cell cannot be identified; and specifying, by the purchaser determining unit, a customer who performed an action of moving a product displayed on the load cell based on the movement of the joint.
개시된 발명의 일 측면에 따른 컴퓨터 프로그램은, 상기 상품 추적 방법을 실행시키도록 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to an aspect of the disclosed invention may be stored in a computer-readable recording medium to execute the product tracking method.
개시된 발명의 일 측면에 따른 상점 매대의 상품 이동을 추적하는 상품 추적 시스템은, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하도록 구성되는 카메라; 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하도록 구성되는 좌표 지정부; 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하도록 구성되는 특징 추출부; 및 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하고, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하도록 구성되는 구매자 확정부;를 포함할 수 있다.A product tracking system for tracking the movement of goods in a store shelf according to an aspect of the disclosed invention includes a camera configured to acquire an image of the store shelf where products are displayed and at least one or more customers; a coordinate designation unit configured to preset products displayed for each load cell area of the shop shelf appearing in the image; a feature extraction unit configured to extract a pixel cluster for each of a plurality of frames included in the image; and based on the characteristics of the pixel cluster included in the first frame and the feature of the pixel cluster included in the second frame temporally adjacent to the first frame, a customer who moves the product displayed in the load cell. and a purchaser determining unit configured to specify and determine the specified customer as a purchaser of the moved product.
또한, 상기 로드셀의 무게 변화를 감지하는 무게 센서;를 더 포함하고, 상기 특징 추출부는: 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하고; 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하고; 그리고 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하도록 구성될 수 있다.The weight sensor detects a change in weight of the load cell; and the feature extraction unit: determines a first time when the change in weight of the load cell is sensed; determining a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time; The pixel cluster may be extracted based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time.
또한, 상기 픽셀 군집의 특징은, 상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고, 상기 구매자 확정부는, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고; 그리고 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the characteristic of the pixel cluster is selected from among the scale of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. It includes at least one, and the buyer determination unit determines a product movement direction based on a result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame; And it may be configured to specify a customer who performed an action of moving a product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer.
또한, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하도록 구성되는 기계학습부;를 더 포함할 수 있다.In addition, a machine learning unit configured to generate a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. can do.
또한, 상기 구매자 확정부는, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the buyer determination unit specifies a customer who performed an action of moving a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. can be configured to
또한, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하도록 구성되는 고객 ID 설정부;를 더 포함하고, 상기 구매자 확정부는, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하도록 구성될 수 있다.In addition, a customer ID setting unit configured to generate a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising the buyer determination unit, It may be configured to match the ID of the specified customer with the moved product.
또한, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하도록 구성되는 구매 리스트 생성부; 및 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하도록 구성되는 결제 정보 생성부;를 더 포함할 수 있다.In addition, a purchase list creation unit configured to add the information of the moved product to the purchase list of the ID of the specified customer; and a payment information generation unit configured to generate payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.
또한, 상기 구매자 확정부는: 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하고; 그리고 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성될 수 있다.In addition, the buyer determination unit: If it is impossible to specify a customer who has moved a product displayed in the load cell based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, included in the image Creating a skeleton based on the customer's joints to track the movement of each joint; And it may be configured to specify a customer who performed an action of moving a product displayed in the load cell based on the movement of the joint.
개시된 발명의 일 측면에 따르면, 무인 점포 환경에서 획득된 영상 내에 다수의 고객이 존재하는 상황에서, 상품 구매 행위가 발생 시 상품 구매 행위의 주체가 누구인지 정확하게 구분할 수 있다.According to one aspect of the disclosed invention, in a situation where a large number of customers exist in an image acquired in an unmanned store environment, when a product purchasing behavior occurs, it is possible to accurately distinguish who the subject of the product purchasing behavior is.
또한, 본 발명의 실시예에 의하면, 영상에서 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 객체 형상의 특징이 유사하여 픽셀 군집의 이동 방향의 신뢰도가 크게 떨어지더라도 픽셀 군집의 이동 방향 외에 다른 픽셀 군집의 특징을 기초로 진열된 상품을 이동시킨 구매자를 특정할 수 있다.In addition, according to an embodiment of the present invention, even if the reliability of the moving direction of the pixel cluster is greatly reduced because the color and object shape characteristics in a certain area, such as the customer's skin or the sleeve of the clothes, are similar in the image, pixels other than the moving direction of the pixel cluster Based on the characteristics of the cluster, the buyer who moved the displayed product can be identified.
도 1은 일 실시예에 따른 상품 추적 시스템의 구성도이다.
도 2는 일 실시예에 따른 카메라가 획득한 영상을 도시한 도면이다.
도 3은 일 실시예에 따른 개체 상태 예측 방법의 순서도이다.1 is a block diagram of a product tracking system according to an embodiment.
2 is a diagram illustrating an image obtained by a camera according to an exemplary embodiment.
3 is a flowchart of a method for predicting an entity state according to an exemplary embodiment.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '~부'가 하나의 구성요소로 구현되거나, 하나의 '~부'가 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numbers designate like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention belongs is omitted. The term '~unit' used in the specification may be implemented in software or hardware, and according to embodiments, a plurality of '~units' may be implemented as one component, or one '~unit' may constitute a plurality of components. It is also possible to include elements.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, when a certain component is said to "include", this means that it may further include other components without excluding other components unless otherwise stated.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another, and the components are not limited by the aforementioned terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not explain the order of each step, and each step may be performed in a different order from the specified order unless a specific order is clearly described in context. there is.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the disclosed invention will be described with reference to the accompanying drawings.
로드셀 매대가 설치된 무인 매장 내에서 고객은 로드셀 매대에 진열된 상품을 구매하기 위해서 상품을 손으로 들어 이동시킬 수 있다. 이때, 무인 매장 시스템은 매장 내의 카메라로 획득한 영상을 분석하여 자동으로 어떠한 고객이 어떠한 상품을 구매한 것으로 판단할 수 있다. 한편, 어떠한 로드셀 매대에 인접한 고객이 여러 명 존재할 경우, 복수의 고객 중에서 구매 의사를 가지고 해당 로드셀 매대에 진열된 상품을 이동시킨 고객이 누구인지 구분할 필요가 있다.In an unmanned store where a load cell shelf is installed, a customer can lift and move a product by hand in order to purchase a product displayed on the load cell shelf. In this case, the unmanned store system may automatically determine that a certain customer has purchased a certain product by analyzing an image acquired by a camera in the store. On the other hand, if there are several customers adjacent to a certain load cell shelf, it is necessary to distinguish which customer among the plurality of customers has moved the product displayed on the load cell shelf with an intention to purchase.
도 1은 일 실시예에 따른 상품 추적 시스템의 구성도이며, 도 2는 일 실시예에 따른 카메라가 획득한 영상을 도시한 도면이다.1 is a configuration diagram of a product tracking system according to an embodiment, and FIG. 2 is a diagram illustrating an image acquired by a camera according to an embodiment.
도 1을 참조하면, 본 발명의 실시예에 따른 상품 추적 시스템(100)은 상점 매대(110)의 상품 이동을 추적하도록 구성될 수 있다.Referring to FIG. 1 , a
상품 추적 시스템(100)은 상점 매대(110), 무게 센서(111), 카메라(101), 라이다 센서(102), 좌표 지정부(103), 기계학습부(104), 특징 추출부(105), 고객 ID 설정부(106), 메모리(120), 구매자 확정부(107), 구매 리스트 생성부(108), 결제 정보 생성부(109)를 포함할 수 있다.The
카메라(101)는 상품이 진열된 상점 매대(110) 및 적어도 하나 이상의 고객이 포함된 영상을 획득할 수 있다.The
편의점 같은 좁은 통로와 높은 매대 등 장애물이 존재하고 동시에 다수의 고객이 인접 거리에서 유사한 형태로 동시에 구매를 할 수 있는 환경에서 각 고객의 형상을 가려짐 없이 확인할 수 있는 카메라(101) 위치는 극히 제한된다.In an environment where there are obstacles such as narrow aisles and high shelves, such as convenience stores, and a large number of customers can make purchases in a similar form on adjacent streets at the same time, the position of the
따라서, 본 발명의 카메라(101)는 매대와 고객 사이를 수직에서 내려다보는 bird eye view 방식을 주로 이용할 수 있으나, 이에 한정되는 것은 아니며 고객과 로드셀이 포함된 영상을 획득할 수 있으면 카메라(101)가 어떠한 방식으로 무인 매장에서 설치되더라도 상관없다.Therefore, the
좌표 지정부(103)는 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정할 수 있다.The
예를 들어, 무인 매장의 관리자는 무인 매장 시스템에 마련된 입력부를 통해서 직접 입력하는 방식 또는 외부 단말에 입력하여 무인 매장 시스템에 마련된 통신부를 통해서 각 로드셀에 진열된 상품이 무엇인지 미리 설정할 수 있고, 좌표 지정부(103)는 관리자가 입력한 정보를 입력부 또는 통신부로부터 전달 받고, 이를 기초로 각 로드셀 영역 별 진열된 상품을 설정할 수 있다.For example, the manager of an unmanned store can set in advance what products are displayed in each load cell through a direct input method through an input unit provided in the unmanned store system or through a communication unit provided in the unmanned store system by inputting the input to an external terminal, The
한편, 영상에서 객체의 움직임을 분석하는 방법으로 Optical flow 방식이 있다. Optical flow는 영상 내의 객체가 짧은 시간사이에 촬영된 인접 프레임에서 형상이 변하지 않는다는 전제를 통해 객체의 이동을 추적하는 방법이다.On the other hand, there is an optical flow method as a method of analyzing the motion of an object in an image. Optical flow is a method of tracking the movement of an object through the premise that the shape of an object in an image does not change in adjacent frames captured in a short period of time.
Optical flow는 일정 크기의 mask window 내의 pixel feature를 인접 프레임에서 탐색하여 이동 위치를 orientation(방향) 과 magnitude(강도)로 표현하는데 피부나 옷 소매 등 일정 영역 내의 색상과 형상 특징이 유사한 경우 orientation의 신뢰도가 크게 떨어지는 현상이 발생한다는 문제가 있다.Optical flow searches for pixel features within a mask window of a certain size in an adjacent frame and expresses the movement position in orientation (direction) and magnitude (intensity). Reliability of orientation when color and shape features are similar within a certain area such as skin or sleeves There is a problem that a large drop in occurs.
본 발명의 상품 추적 시스템(100)은 획득된 영상에서 미리 설정해둔 로드셀 영역에 대한 픽셀의 강도(magnitude) 변화를 구해 상품 구매의 키 프레임(key frame)을 찾고, 키 프레임 전후 영상의 픽셀의 강도를 거리기반 클러스터링 기법인 DBSCAN 방식으로 공간 클러스터링(spatial clustering)하여 군집화하고 군집의 이동 형태를 분석할 수 있다.The
고객이 상품을 집거나 내려놓는 키 프레임의 시점 이전에는, 고객이 매대쪽으로 손이 다가오는 형태이고, 키 프레임의 시점 이후에는 손을 회수하는 형태이기 때문에 해당 현상에 해당하는 군집과 근접한 고객 ID를 찾기 위해 각 프레임 단위로 몇 가지 픽셀 군집의 특징(feature)을 이용할 수 있다.Before the key frame when the customer picks up or puts down the product, the customer is approaching the shelf, and after the key frame, the hand is withdrawn, so find the customer ID that is close to the cluster corresponding to the phenomenon. For each frame, several pixel cluster features can be used.
상품 추적 시스템(100)은 픽셀 군집의 특징을 시간축에 대해서도 거리기반 클러스터링하여 각 프레임간 군집을 묶고, 거리에 대한 코스트 함수(cost function)을 정의하고 코스트(cost)의 크기를 기준으로 정렬할 수 있다.The
정렬된 군집들의 프레임 별 센터 좌표와 영상에 프로젝션(projection)된 고객 좌표와의 거리(distance)를 코스트로 하여 상품을 구매한 고객의 ID를 특정할 수 있다.The ID of the customer who purchased the product can be specified by taking the distance between the coordinates of the center of each frame of the sorted clusters and the coordinates of the customer projected on the image as a cost.
특징 추출부(105)는 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출할 수 있다.The
픽셀 군집은 어느 한 프레임에 포함된 픽셀들 중에서 위치나 상태 등 속성이 비슷한 픽셀들의 집합일 수 있다.The pixel cluster may be a set of pixels having similar properties, such as a location or a state, among pixels included in a certain frame.
도 2를 참조하면, 예를 들어, 영상의 어느 한 프레임에 고객의 옷 소매가 촬영되어 있다면, 고객의 옷 소매를 나타내는 픽셀들의 경우 위치가 비슷한 곳에 분포하며, 나타내는 색이나 밝기 등도 비슷할 수 있다. 특징 추출부(105)는 이렇게 어느 한 프레임에 포함된 픽셀들 중에서 속성이 비슷한 픽셀들을 픽셀 군집으로 결정할 수 있다.Referring to FIG. 2 , for example, if a customer's clothing sleeve is photographed in one frame of an image, pixels representing the customer's clothing sleeve are distributed in similar locations and may have similar colors or brightness. The
구매자 확정부(107)는 복수개의 프레임 각각에 포함된 픽셀 군집들의 특징을 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The
구체적으로, 구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집의 특징 및 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 픽셀 군집의 특징을 기초로, 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.Specifically, the
픽셀 군집의 특징은 픽셀 군집 별 규모, 픽셀 군집 별 평균 강도(average magnitude), 픽셀 군집 별 중심 좌표와 상품의 좌표 간의 각도 및 픽셀 군집 별 중심 좌표와 상품의 좌표 간의 거리 중 적어도 하나를 포함할 수 있다.The feature of the pixel cluster may include at least one of the size of each pixel cluster, the average intensity of each pixel cluster, the angle between the coordinates of the center of each pixel cluster and the coordinates of the product, and the distance between the coordinates of the center of each pixel cluster and the coordinates of the product. there is.
구매자 확정부(107)는 제1 프레임의 픽셀 군집의 특징 및 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정할 수 있다.The
구매자 확정부(107)는 상품 이동 방향 및 적어도 하나 이상의 고객의 좌표를 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The
결론적으로, 구매자 확정부(107)는 어느 픽셀 군집이 영상의 어느 영역에서 로드셀 매대 쪽을 향해서 움직이고, 로드셀 매대 쪽에서 해당 영역 쪽을 향해서 다시 움직이면 해당 영역에 위치한 고객이 해당 로드셀 매대의 상품을 이동시킨 고객이라고 특정할 수 있다.In conclusion, the
구매자 확정부(107)는 특정된 고객을 이동된 상품의 구매자로 결정할 수 있다. 즉, 전술한 방식을 통해 상품 추적 시스템(100)은 이동된 상품이 진열되었던 로드셀 주변에 고객이 여러 명 있었더라도 실제로 해당 상품을 구매할 의도로 이동시킨 고객을 구매자인지 결정할 수 있다.The
결과적으로 본 발명에 따른 상품 추적 시스템(100)은 영상에 포함된 고객의 피부나 옷 소매 등 일정 영역 내의 색상과 형상 특징이 유사해서 orientation(방향)의 신뢰도가 크게 떨어지는 현상이 발생하더라도 orientation(방향)과는 다른 픽셀 군집의 특징을 기초로 상품 구매 행위의 주체를 정확하게 구분할 수 있다.As a result, the
좌표 지정부(103), 기계학습부(104), 특징 추출부(105), 고객 ID 설정부(106), 메모리(120), 구매자 확정부(107), 구매 리스크 생성부, 결제 정보 생성부(109)는 상품 추적 시스템(100)에 포함된 복수개의 프로세서 중 어느 하나의 프로세서를 포함할 수 있다. 또한, 지금까지 설명된 본 발명의 실시예 및 앞으로 설명할 실시예에 따른 개체 인식 방법은, 프로세서에 의해 구동될 수 있는 프로그램의 형태로 구현될 수 있다.Coordinate
여기서 프로그램은, 프로그램 명령, 데이터 파일 및 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 프로그램은 기계어 코드나 고급 언어 코드를 이용하여 설계 및 제작된 것일 수 있다. 프로그램은 상술한 부호 수정을 위한 방법을 구현하기 위하여 특별히 설계된 것일 수도 있고, 컴퓨터 소프트웨어 분야에서 통상의 기술자에게 기 공지되어 사용 가능한 각종 함수나 정의를 이용하여 구현된 것일 수도 있다. 전술한 정보 표시 방법을 구현하기 위한 프로그램은, 프로세서에 의해 판독 가능한 기록매체에 기록될 수 있다. 이때, 기록매체는 상품 추적 시스템(100)에 포함된 메모리(120)일 수 있다.Here, the program may include program commands, data files, and data structures alone or in combination. The program may be designed and manufactured using machine language codes or high-level language codes. The program may be specially designed to implement the above-described code correction method, or may be implemented using various functions or definitions that are known and usable to those skilled in the art in the field of computer software. A program for implementing the above information display method may be recorded on a recording medium readable by a processor. At this time, the recording medium may be the
메모리(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램을 저장할 수 있으며, 메모리(120)는 저장된 프로그램을 실행시킬 수 있다. 프로세서와 메모리(120)가 복수인 경우에, 이들이 하나의 칩에 집적되는 것도 가능하고, 물리적으로 분리된 위치에 마련되는 것도 가능하다. 메모리(120)는 데이터를 일시적으로 기억하기 위한 S램(Static Random Access Memory, S-RAM), D랩(Dynamic Random Access Memory) 등의 휘발성 메모리를 포함할 수 있다. 또한, 메모리(120)는 제어 프로그램 및 제어 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM) 등의 비휘발성 메모리를 포함할 수 있다.The
프로세서는 각종 논리 회로와 연산 회로를 포함할 수 있으며, 메모리(120)로부터 제공된 프로그램에 따라 데이터를 처리하고, 처리 결과에 따라 제어 신호를 생성할 수 있다.The processor may include various logic circuits and arithmetic circuits, process data according to programs provided from the
본 발명의 카메라(101)는 계속해서 영상 정보를 획득할 수 있으나, 상품 추적 시스템(100)이 항시 상품을 이동시킨 고객이 누구인지 판단해야 하는 것은 아니다. 고객이 무인 매장내에 없는 상태뿐 아니라 고객이 로드셀 근처에 있거나 심지어 고객의 움직임이 있다고 하더라도, 실제로 로드셀에 진열된 상품을 고객이 집어 들지 않았다면 굳이 무인 매장의 시스템이 상품의 이동을 추적할 필요가 없다. 따라서 실제로 고객이 로드셀에 진열된 상품을 집어 든 경우에만 영상을 분석하는 것이 바람직할 수 있다.The
도 1을 참조하면, 상점 매대(110)는 무게 센서(111)를 포함할 수 있다. 구체적으로, 상점 매대(110)는 상점 매대(110)에 마련된 각각의 로드셀에 하나씩 대응되는 무게 센서(111)들을 포함할 수 있다.Referring to FIG. 1 , a
무게 센서(111)는 로드셀의 무게 변화를 감지할 수 있다.The
즉, 고객이 로드셀에 진열된 상품을 집어 들면, 해당 로드셀에 진열된 총 상품의 무게가 감소하고, 해당 로드셀에 연결된 무게 센서(111)가 이러한 무게 변화를 감지할 수 있다.That is, when a customer picks up a product displayed on the load cell, the weight of the total products displayed on the load cell decreases, and the
특징 추출부(105)는 로드셀의 무게 변화가 감지된 제1 시간을 판단할 수 있다. 즉, 제1 시간은 고객이 로드셀에 진열된 상품을 집어 든 시간이다.The
제1 시간은 카메라(101)가 획득한 복수개의 프레임 중에서 실제로 상품을 추적하는데 이용되는 프레임들을 결정하는데 기준이 되는 시간일 수 있다.The first time may be a reference time for determining frames actually used to track a product among a plurality of frames obtained by the
특징 추출부(105)는 제2 시간 및 제3 시간을 결정할 수 있다.The
제2 시간은 제1 시간부터 미리 정해진 시간 이전의 시점이고, 제3 시간은 제1 시간부터 미리 정해진 시간 이후의 시점일 수 있다.The second time may be a time from the first time before a predetermined time, and the third time may be a time from the first time to a predetermined time or later.
특징 추출부(105)는 제2 시간에 카메라(101)가 획득한 프레임과 제3 시간에 카메라(101)가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 픽셀 군집을 추출할 수 있다.The
제2 시간 이전의 시점 및 제3 시간 이후의 시점에서 획득된 영상은 어느 고객이 무게가 변한 로드셀에 진열된 상품을 구매하는 행위와는 관계없는 영상일 수 있다.Images obtained before the second time and after the third time may be images unrelated to a customer's act of purchasing a product displayed on a load cell whose weight has changed.
결과적으로, 상품 추적 시스템(100)은 제2 시간과 제3 시간 사이에 획득된 영상의 프레임만 분석하여 실제 구매자가 누구인지 판단할 수 있다.As a result, the
한편, 제2 시간을 결정하는데 필요한 미리 정해진 시간과 제3 시간을 결정하는데 필요한 미리 정해진 시간은 반드시 서로 같아야 하는 것은 아니며, 둘 중 어느 하나가 0이어도 상관없다.On the other hand, the predetermined time required to determine the second time and the predetermined time required to determine the third time do not necessarily have to be the same, and it does not matter if either one of the two is zero.
기계학습부(104)는 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델(121)을 생성할 수 있다.The
기계학습부(104)는 입력에 따라 기계 학습 모델(121)을 통해 최종적으로 나온 결과물(output)인 출력들을 이용하여 기계 학습 모델(121)을 학습할 수 있다. 기계 학습 모델(121)은 상품 추적 시스템(100)의 메모리(120)에 저장될 수 있다.The
기계 학습이란 다수의 파라미터로 구성된 모델을 이용하며, 주어진 데이터로 파라미터를 최적화하는 것을 의미할 수 있다. 기계 학습은 학습 문제의 형태에 따라 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및 강화 학습(reinforcement learning)을 포함할 수 있다. 지도 학습(supervised learning)은 입력과 출력 사이의 매핑을 학습하는 것이며, 입력과 출력 쌍이 데이터로 주어지는 경우에 적용할 수 있다. 비지도 학습(unsupervised learning)은 입력만 있고 출력은 없는 경우에 적용하며, 입력 사이의 규칙성 등을 찾아낼 수 있다.Machine learning may mean using a model composed of multiple parameters and optimizing the parameters with given data. Machine learning may include supervised learning, unsupervised learning, and reinforcement learning depending on the form of a learning problem. Supervised learning is to learn the mapping between inputs and outputs, and can be applied when input and output pairs are given as data. Unsupervised learning is applied when there are only inputs and no outputs, and regularities between inputs can be found.
본 발명의 실시예에 따른 기계학습부(104)는 각각의 학습용 영상의 프레임에서 추출된 픽셀 군집의 특징과 각각의 학습용 영상의 실제 구매자 정보를 기초로 기계 학습 모델(121)을 생성할 수 있다.The
상품 추적 시스템(100)은 기계 학습 방식뿐만 아니라 딥 러닝 방식을 통해서도 구매자를 결정할 수 있으며, 다양한 방식으로 구매자를 결정할 수 있다.The
구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집 및 제2 프레임에 포함된 픽셀 군집을 기초로 기계 학습 모델(121)을 통하여 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The
고객 ID 설정부(106)는 상점에 마련된 적어도 하나 이상의 라이다 센서(102) 또는 카메라(101)가 획득한 정보를 기초로 상점 내부에 있는 고객마다 고유한 ID를 생성할 수 있다.The customer ID setting unit 106 may generate a unique ID for each customer in the store based on information acquired by at least one
고객 ID 설정부(106)는 어느 한 고객에게 부여된 ID가 있다면, 해당 고객이 상점 내부를 돌아다니더라도, 상점에 마련된 라이다 센서(102) 또는 카메라(101)가 획득한 정보를 기초로 해당 고객을 계속 추적할 수 있다.If the customer ID setting unit 106 has an ID assigned to any one customer, even if the customer moves around the inside of the store, the corresponding customer is based on the information acquired by the
또한, 고객 ID 설정부(106)는 어느 한 카메라 영상에 나타난 고객의 ID 정보를 구매자 확정부(107)에 전달할 수 있다.In addition, the customer ID setting unit 106 may transmit ID information of a customer shown in a camera image to the
구매자 확정부(107)는 특정된 고객의 ID와 이동된 상품을 매칭할 수 있다.The
구매 리스트 생성부(108)는 이동된 상품의 정보를 특정된 고객의 ID의 구매 리스트에 추가할 수 있다. 즉, 어느 고객이 여러 번 로드셀 매대에서 상품을 집어 드는 행위The purchase
결제 정보 생성부(109)는 특정된 고객이 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성할 수 있다.The payment
결제 정보는 구매자의 카드사 서버 또는 VAN사 서버로 직간접적으로 전달될 수 있으나, 결제 정보를 기초로 고객의 상품 결제를 하는 방식은 이에 한정되는 것은 아니다.Payment information may be transmitted directly or indirectly to the purchaser's card company server or VAN company server, but a method of paying for a customer's product based on the payment information is not limited thereto.
한편, 전술한 방식대로 픽셀 군집을 기초로 판단하더라도 로드셀에 진열된 상품을 이동시킨 고객을 특정하지 못하는 경우가 발생할 수 있다.On the other hand, even if the decision is made based on the pixel cluster as described above, there may be a case where it is not possible to specify a customer who moved a product displayed on the load cell.
스켈레톤 감지(Skeleton detection) 방법은 사람의 관절을 기준으로 스켈레톤(Skeleton)을 생성하여 각 관절의 움직임을 추적할 수 있다. 스켈레톤 감지 방법은 검출된 고객의 손목 위치를 추적할 수 있어 직관적으로 구매 행위를 분석할 수 있다. 만약 픽셀 군집을 기초로 해서는 구매자를 특정할 수 없다면 스켈레톤을 분석하여 구매자를 특정하는 것이 바람직할 수 있다.The skeleton detection method can track the movement of each joint by generating a skeleton based on human joints. The skeleton detection method can track the detected wrist position of the customer, so it is possible to intuitively analyze the purchase behavior. If buyers cannot be identified based on pixel clustering, it may be desirable to identify buyers by analyzing the skeleton.
구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집 및 제2 프레임에 포함된 픽셀 군집을 기초로 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적할 수 있다.If the
구매자 확정부(107)는 관절의 움직임을 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.The
이상에서 설명된 구성요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted corresponding to the performance of the components described above. In addition, it will be easily understood by those skilled in the art that the mutual positions of the components can be changed corresponding to the performance or structure of the system.
도 3은 일 실시예에 따른 개체 상태 예측 방법의 순서도이다. 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성이 추가되거나 삭제될 수 있음은 물론이다.3 is a flowchart of a method for predicting an entity state according to an exemplary embodiment. This is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some components may be added or deleted as needed.
도 3을 참조하면, 좌표 지정부(103)에 의해, 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정Referring to FIG. 3, by the coordinate
좌표 지정부(103)는 영상에서 나타나는 상점 매대(110)의 각 로드셀 영역 별로 진열된 상품을 미리 설정할 수 있다(1001).The coordinate
카메라(101)는 상품이 진열된 상점 매대(110) 및 적어도 하나 이상의 고객이 포함된 영상을 획득할 수 있다(1002).The
무게 센서(111)는 로드셀의 무게 변화를 감지할 수 있다(1003).The
특징 추출부(105)는 로드셀의 무게 변화가 감지된 제1 시간을 판단하고, 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정할 수 있다(1004).The
특징 추출부(105)에 의해, 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출할 수 있다(1005). 이때, 특징 추출부(105)는 제2 시간에 카메라(101)가 획득한 프레임과 제3 시간에 카메라(101)가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 픽셀 군집을 추출할 수 있다.A pixel cluster may be extracted for each of a plurality of frames included in the image by the feature extractor 105 (1005). In this case, the
구매자 확정부(107)는 제1 프레임에 포함된 픽셀 군집의 특징 및 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 픽셀 군집의 특징을 기초로, 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다(1006).The
이때, 구매자 확정부(107)는 제1 프레임의 픽셀 군집의 특징 및 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고, 상품 이동 방향 및 적어도 하나 이상의 고객의 좌표를 기초로 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정할 수 있다.At this time, the
구매자 확정부(107)는 특정된 고객을 이동된 상품의 구매자로 결정할 수 있다(1007).The
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art to which the present invention pertains will understand that the present invention can be implemented in a form different from the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.
100: 상품 추적 시스템
101: 카메라
102: 라이다 센서
103: 좌표 지정부
104: 기계학습부
105: 특징 추출부
106: 고객 ID 설정부
107: 구매자 확정부
108: 구매 리스트 생성부
109: 결제 정보 생성부
110: 상점 매대
111: 무게 센서
120: 메모리
121: 기계 학습 모델100: product tracking system
101: camera
102: lidar sensor
103: coordinate designation unit
104: machine learning unit
105: feature extraction unit
106: customer ID setting unit
107: buyer confirmation unit
108: purchase list generation unit
109: payment information generation unit
110: store shelves
111: weight sensor
120: memory
121: machine learning model
Claims (17)
카메라에 의해, 상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하는 단계;
좌표 지정부에 의해, 상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하는 단계;
특징 추출부에 의해, 상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하는 단계;
구매자 확정부에 의해, 제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계; 및
구매자 확정부에 의해, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하는 단계;를 포함하는 상품 추적 방법.In the product tracking method for tracking the movement of products on a store shelf,
Obtaining, by means of a camera, an image including the store shelves and at least one customer;
Presetting, by a coordinate designation unit, products displayed for each load cell area of the store shelf appearing in the image;
extracting a pixel cluster for each of a plurality of frames included in the image by a feature extraction unit;
Based on the characteristic of the pixel cluster included in the first frame and the characteristic of the pixel cluster included in the second frame temporally adjacent to the first frame, the buyer decision unit moves the product displayed in the load cell. identifying the customer who took the action; and
Determining the specified customer as a purchaser of the moved product by a purchaser confirmation unit; Product tracking method comprising a.
무게 센서에 의해, 상기 로드셀의 무게 변화를 감지하는 단계;
상기 특징 추출부에 의해, 상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하는 단계; 및
상기 특징 추출부에 의해, 상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하는 단계;를 더 포함하고,
상기 복수의 프레임 마다 픽셀 군집을 추출하는 단계는,
상기 특징 추출부에 의해, 상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하는 단계;를 포함하는, 상품 추적 방법.According to claim 1,
detecting a weight change of the load cell by a weight sensor;
determining, by the feature extraction unit, a first time when a change in weight of the load cell is detected; and
Determining, by the feature extraction unit, a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time,
The step of extracting the pixel cluster for each of the plurality of frames,
extracting, by the feature extraction unit, the pixel cluster based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time; including , how to track the goods.
상기 픽셀 군집의 특징은,
상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고,
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하는 단계; 및
상기 구매자 확정부에 의해, 상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.According to claim 1,
The characteristics of the pixel cluster are:
at least one of a scale for each pixel cluster, an average intensity for each pixel cluster, an angle between a center coordinate for each pixel cluster and a coordinate of the product, and a distance between a center coordinate for each pixel cluster and a coordinate for the product;
The step of specifying the customer who moved the product displayed on the load cell,
determining, by the buyer determination unit, a product movement direction based on a result of comparing the pixel cluster characteristics of the first frame and the pixel cluster characteristics of the second frame; and
Including, the step of specifying a customer who moved the product displayed in the load cell based on the product movement direction and the coordinates of the at least one customer by the buyer determination unit.
기계학습부에 의해, 학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하는 단계;를 더 포함하는 상품 추적 방법.According to claim 3,
Generating, by a machine learning unit, a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable; further comprising How to track your product.
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.According to claim 4,
The step of specifying the customer who moved the product displayed on the load cell,
The buyer determination unit identifies a customer who performed an action of moving a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. Step of doing; containing, product tracking method.
고객 ID 설정부에 의해, 상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하는 단계;를 더 포함하고,
상기 이동된 상품의 구매자로 결정하는 단계는,
상기 구매자 확정부에 의해, 상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하는 단계;를 포함하는, 상품 추적 방법.According to claim 1,
Generating, by a customer ID setting unit, a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising,
The step of determining as a buyer of the moved product,
, Product tracking method comprising: matching the ID of the specified customer with the moved product by the purchaser determination unit.
구매 리스트 생성부에 의해, 상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하는 단계; 및
결제 정보 생성부에 의해, 상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하는 단계;를 더 포함하는, 상품 추적 방법.According to claim 6,
adding information of the moved product to a purchase list of the ID of the specified customer by a purchase list creation unit; and
Generating, by a payment information generation unit, payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store; further comprising a product tracking method.
상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계는,
상기 구매자 확정부에 의해, 상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하는 단계; 및
상기 구매자 확정부에 의해, 상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하는 단계;를 포함하는, 상품 추적 방법.According to claim 1,
The step of specifying the customer who moved the product displayed on the load cell,
If the buyer determining unit cannot identify a customer who has moved a product displayed in the load cell based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, the customer included in the image Tracking the movement of each joint by creating a skeleton based on the customer's joints; and
Including, the product tracking method comprising the; step of specifying a customer who moved the product displayed in the load cell based on the motion of the joint by the purchaser determination unit.
상품이 진열된 상기 상점 매대 및 적어도 하나 이상의 고객이 포함된 영상을 획득하도록 구성되는 카메라;
상기 영상에서 나타나는 상점 매대의 각 로드셀 영역 별로 진열된 상품을 미리 설정하도록 구성되는 좌표 지정부;
상기 영상에 포함된 복수의 프레임 마다 픽셀 군집을 추출하도록 구성되는 특징 추출부; 및
제1 프레임에 포함된 상기 픽셀 군집의 특징 및 상기 제1 프레임에 시간적으로 인접한 제2 프레임에 포함된 상기 픽셀 군집의 특징을 기초로, 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하고, 상기 특정된 고객을 상기 이동된 상품의 구매자로 결정하도록 구성되는 구매자 확정부;를 포함하는 상품 추적 시스템.In the product tracking system for tracking the movement of products on the store shelf,
a camera configured to acquire an image including the store shelves and at least one customer;
a coordinate designation unit configured to preset products displayed for each load cell area of the shop shelf appearing in the image;
a feature extraction unit configured to extract a pixel cluster for each of a plurality of frames included in the image; and
Based on the feature of the pixel cluster included in the first frame and the feature of the pixel cluster included in the second frame temporally adjacent to the first frame, a customer who has moved the product displayed on the load cell is specified. and a purchaser determination unit configured to determine the specified customer as a purchaser of the moved product.
상기 로드셀의 무게 변화를 감지하는 무게 센서;를 더 포함하고,
상기 특징 추출부는:
상기 로드셀의 무게 변화가 감지된 제1 시간을 판단하고;
상기 제1 시간부터 미리 정해진 시간 이전의 시점인 제2 시간 및 상기 제1 시간부터 미리 정해진 시간 이후의 시점인 제3 시간을 결정하고; 그리고
상기 제2 시간에 상기 카메라가 획득한 프레임과 상기 제3 시간에 상기 카메라가 획득한 프레임 사이에 포함된 복수의 프레임을 기초로 상기 픽셀 군집을 추출하도록 구성되는, 상품 추적 시스템.According to claim 10,
Further comprising a weight sensor for detecting a change in weight of the load cell;
The feature extraction unit:
determining a first time when a weight change of the load cell is sensed;
determining a second time that is before a predetermined time from the first time and a third time that is after a predetermined time from the first time; and
and extracting the pixel cluster based on a plurality of frames included between frames acquired by the camera at the second time and frames acquired by the camera at the third time.
상기 픽셀 군집의 특징은,
상기 픽셀 군집 별 규모, 상기 픽셀 군집 별 평균 강도, 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 각도 및 상기 픽셀 군집 별 중심 좌표와 상기 상품의 좌표 간의 거리 중 적어도 하나를 포함하고,
상기 구매자 확정부는,
상기 제1 프레임의 픽셀 군집의 특징 및 상기 제2 프레임의 픽셀 군집의 특징을 비교한 결과를 기초로 상품 이동 방향을 결정하고; 그리고
상기 상품 이동 방향 및 상기 적어도 하나 이상의 고객의 좌표를 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.According to claim 10,
The characteristics of the pixel cluster are:
at least one of a scale for each pixel cluster, an average intensity for each pixel cluster, an angle between a center coordinate for each pixel cluster and a coordinate of the product, and a distance between a center coordinate for each pixel cluster and a coordinate for the product;
The buyer determination unit,
determining a product movement direction based on a result of comparing features of the pixel clusters of the first frame and features of the pixel clusters of the second frame; and
Based on the product movement direction and the coordinates of the at least one customer, a product tracking system configured to specify a customer who has moved a product displayed in the load cell.
학습용 영상을 기초로 결정된 픽셀 군집의 특징을 입력 변수로 하고, 상기 학습용 영상의 구매자 정보를 출력 변수로 설정하여 기계 학습 방식을 통해 기계 학습 모델을 생성하도록 구성되는 기계학습부;를 더 포함하는 상품 추적 시스템.According to claim 12,
A machine learning unit configured to generate a machine learning model through a machine learning method by setting the characteristics of the pixel cluster determined based on the learning image as an input variable and setting the buyer information of the learning image as an output variable. tracking system.
상기 구매자 확정부는,
상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 기계 학습 모델을 통하여 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.According to claim 13,
The buyer determination unit,
A product tracking system configured to specify a customer who has moved a product displayed in the load cell through the machine learning model based on the pixel cluster included in the first frame and the pixel cluster included in the second frame. .
상점에 마련된 적어도 하나 이상의 라이다 센서 또는 카메라가 획득한 정보를 기초로 상기 상점 내부에 있는 고객마다 고유한 ID를 생성하도록 구성되는 고객 ID 설정부;를 더 포함하고,
상기 구매자 확정부는,
상기 특정된 고객의 ID와 상기 이동된 상품을 매칭하도록 구성되는, 상품 추적 시스템.According to claim 10,
A customer ID setting unit configured to generate a unique ID for each customer in the store based on information acquired by at least one lidar sensor or camera provided in the store; further comprising,
The buyer determination unit,
A product tracking system configured to match the ID of the specified customer with the moved product.
상기 이동된 상품의 정보를 상기 특정된 고객의 ID의 구매 리스트에 추가하도록 구성되는 구매 리스트 생성부; 및
상기 특정된 고객이 상기 상점에서 나가면 상기 구매 리스트를 기초로 상기 특정된 고객의 상품 결제에 이용되는 결제 정보를 생성하도록 구성되는 결제 정보 생성부;를 더 포함하는 상품 추적 시스템.According to claim 15,
a purchase list creation unit configured to add information of the moved product to a purchase list of the specified customer ID; and
A product tracking system further comprising: a payment information generation unit configured to generate payment information used for product payment of the specified customer based on the purchase list when the specified customer leaves the store.
상기 구매자 확정부는:
상기 제1 프레임에 포함된 픽셀 군집 및 상기 제2 프레임에 포함된 픽셀 군집을 기초로 상기 로드셀에 진열된 상품을 이동시킨 고객을 특정할 수 없으면, 상기 영상에 포함된 고객의 관절을 기준으로 스켈레톤을 생성하여 각 관절의 움직임을 추적하고; 그리고
상기 관절의 움직임을 기초로 상기 로드셀에 진열된 상품을 이동시킨 행동을 한 고객을 특정하도록 구성되는, 상품 추적 시스템.According to claim 10,
The buyer determination unit:
If the customer who moved the product displayed on the load cell cannot be identified based on the pixel cluster included in the first frame and the pixel cluster included in the second frame, a skeleton is formed based on the joint of the customer included in the image. to track the movement of each joint by generating; and
Based on the movement of the joint, the product tracking system configured to specify a customer who has moved the product displayed in the load cell.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210125485A KR20230042803A (en) | 2021-09-23 | 2021-09-23 | System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210125485A KR20230042803A (en) | 2021-09-23 | 2021-09-23 | System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230042803A true KR20230042803A (en) | 2023-03-30 |
Family
ID=85985725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210125485A KR20230042803A (en) | 2021-09-23 | 2021-09-23 | System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230042803A (en) |
-
2021
- 2021-09-23 KR KR1020210125485A patent/KR20230042803A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11087130B2 (en) | Simultaneous object localization and attribute classification using multitask deep neural networks | |
CN111415461B (en) | Article identification method and system and electronic equipment | |
Zhang et al. | Ergonomic posture recognition using 3D view-invariant features from single ordinary camera | |
JP7248689B2 (en) | Vending method and apparatus, and computer readable storage medium | |
CN109993595B (en) | Method, system and equipment for personalized commodity and service recommendation | |
JP4972491B2 (en) | Customer movement judgment system | |
US8345101B2 (en) | Automatically calibrating regions of interest for video surveillance | |
CN110991261A (en) | Interactive behavior recognition method and device, computer equipment and storage medium | |
US11475500B2 (en) | Device and method for item recommendation based on visual elements | |
CN108345912A (en) | Commodity rapid settlement system based on RGBD information and deep learning | |
CN112215167B (en) | Intelligent store control method and system based on image recognition | |
EP4075399A1 (en) | Information processing system | |
TW201742007A (en) | Shelf pickup detection system and method capable of analyzing popular areas where the shelves are accessed for using the information as references for logistics management and selling strategies | |
JP7088281B2 (en) | Product analysis system, product analysis method and product analysis program | |
KR102260355B1 (en) | System and method for recognizing purchase behavior based on image | |
EP3629276A1 (en) | Context-aided machine vision item differentiation | |
CN114255377A (en) | Differential commodity detection and classification method for intelligent container | |
EP3474184A1 (en) | Device for detecting the interaction of users with products arranged on a stand or display rack of a store | |
JP2019121904A (en) | Suspicious person detection apparatus, suspicious person detection method and suspicious person detection computer program | |
KR20230042803A (en) | System for tracking product, method for tracking product and computer program stored in a recording medium to execute the method | |
Achakir et al. | An automated AI-based solution for out-of-stock detection in retail environments | |
JP6792195B2 (en) | Image processing device | |
CN115601877A (en) | Automatic vending machine identification system based on image processing and identification method thereof | |
CN110443946A (en) | Vending machine, the recognition methods of type of goods and device | |
US12062013B1 (en) | Automated planogram generation and usage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |