KR20220083347A - Method, apparatus, and computer program for measuring volume of objects by using image - Google Patents
Method, apparatus, and computer program for measuring volume of objects by using image Download PDFInfo
- Publication number
- KR20220083347A KR20220083347A KR1020200173501A KR20200173501A KR20220083347A KR 20220083347 A KR20220083347 A KR 20220083347A KR 1020200173501 A KR1020200173501 A KR 1020200173501A KR 20200173501 A KR20200173501 A KR 20200173501A KR 20220083347 A KR20220083347 A KR 20220083347A
- Authority
- KR
- South Korea
- Prior art keywords
- standard container
- volume
- input image
- level value
- volume level
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000000691 measurement method Methods 0.000 claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims description 64
- 238000010801 machine learning Methods 0.000 claims description 53
- 238000005259 measurement Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 7
- 239000003550 marker Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000004480 active ingredient Substances 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
-
- G06K9/627—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
본 개시의 일 실시예의 일 측면에 따르면, 입력 영상을 수신하는 단계; 상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하는 단계; 상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 단계; 및 상기 부피 레벨 값을 출력하는 단계를 포함하는, 물건 부피 측정 방법이 제공된다.According to an aspect of an embodiment of the present disclosure, receiving an input image; detecting a standard container area corresponding to a predefined standard container from the input image; determining a volume level value as one of a plurality of predetermined levels from the input image; and outputting the volume level value, the object volume measurement method is provided.
Description
본 개시의 실시예들은, 입력 영상으로부터 물건 부피를 측정하는 방법, 장치, 및 컴퓨터 프로그램에 관한 것이다.Embodiments of the present disclosure relate to a method, an apparatus, and a computer program for measuring the volume of an object from an input image.
물류 시스템, 공장 등은 다수의 물건을 취급하기 때문에, 정확한 재고의 측정을 위해 많은 리소스를 투입하고 있다. 기존의 방식에 의하면, 재고를 파악하기 위하여, 물건의 입고 및 출고를 파악하여 재고를 측정한다. 그런데 물건의 입고 및 출고를 파악하기 위해 많은 인력과 비용이 투입되어, 다량의 물건의 재고를 빠르게 파악하는데 어려움이 있다. 상용에 보급된 재고파악기술은 RFID, 무게센서등을 이용하는데, 이때 각 물건에 RFID 태그를 부착하거나, 각선반에 무게센서를 장착하는 작업과 비용이 추가적으로 발생하여, 보급화에는 어려움이 있다.Logistics systems, factories, etc. deal with a large number of goods, so a lot of resources are put into accurate inventory measurement. According to the conventional method, in order to grasp the inventory, the stock is measured by grasping the goods in and out. However, a lot of manpower and money are invested in order to check the stocking and release of goods, so it is difficult to quickly grasp the inventory of a large amount of goods. Commercially available inventory tracking technology uses RFID, weight sensors, etc. At this time, it is difficult to spread because RFID tags are attached to each item or weight sensors are installed on each shelf and additional costs are incurred.
본 개시의 실시예들은, 영상 데이터를 이용하여, 물건 부피를 측정하는 방법, 장치, 및 컴퓨터 프로그램을 제공하기 위한 것이다.SUMMARY Embodiments of the present disclosure provide a method, an apparatus, and a computer program for measuring the volume of an object using image data.
또한, 본 개시의 실시예들은, 비주얼 태그 또는 기계학습 모델 등의 방법을 이용하여 물건 부피를 정확하게 측정하여 물건의 개수, 무게등을 파악하는 방법, 장치, 및 컴퓨터 프로그램을 제공하기 위한 것이다.Also, embodiments of the present disclosure provide a method, apparatus, and computer program for accurately measuring the volume of an object by using a method such as a visual tag or a machine learning model to determine the number, weight, etc. of the object.
본 개시의 일 실시예의 일 측면에 따르면, 입력 영상을 수신하는 단계; 상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하는 단계; 상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 단계; 및 상기 부피 레벨 값을 출력하는 단계를 포함하는, 물건 부피 측정 방법이 제공된다.According to an aspect of an embodiment of the present disclosure, receiving an input image; detecting a standard container area corresponding to a predefined standard container from the input image; determining a volume level value as one of a plurality of predetermined levels from the input image; and outputting the volume level value, the object volume measurement method is provided.
또한, 본 개시의 일 실시예에 따르면, 상기 물건 부피 측정 방법은, 상기 입력 영상으로부터, 서로 다른 식별 정보를 갖는 미리 정의된 복수의 비주얼 태그 중 적어도 하나의 비주얼 태그를 검출하는 단계; 및 상기 검출된 적어도 하나의 비주얼 태그에 기초하여, 물건 부피 값을 산출하는 단계를 더 포함하고, 상기 부피 레벨 값을 결정하는 단계는, 상기 물건 부피 값을 이용하여, 상기 부피 레벨 값을 결정하고, 상기 복수의 비주얼 태그는 상기 규격 용기의 미리 정의된 각 위치에 배치되고, 각 위치의 비주얼 태그는 해당 위치에 대응하는 미리 정의된 식별 정보를 가질 수 있다.Also, according to an embodiment of the present disclosure, the method for measuring the volume of an object may include: detecting, from the input image, at least one visual tag among a plurality of predefined visual tags having different identification information; and calculating an object volume value based on the detected at least one visual tag, wherein the determining of the volume level value includes: determining the volume level value using the object volume value; , the plurality of visual tags are arranged at each predefined position of the standard container, and the visual tag of each position may have predefined identification information corresponding to the position.
또한, 본 개시의 일 실시예에 따르면, 상기 규격 용기 영역을 검출하는 단계는, 상기 규격 용기의 소정의 위치에 배치된 용기 식별 태그를 검출하는 단계; 및 상기 검출된 용기 식별 태그에 기초하여 상기 규격 용기 영역을 검출하는 단계를 포함할 수 있다.In addition, according to an embodiment of the present disclosure, the detecting of the standard container area includes: detecting a container identification tag disposed at a predetermined position of the standard container; and detecting the standard container area based on the detected container identification tag.
또한, 본 개시의 일 실시예에 따르면, 상기 물건 부피 측정 방법은, 상기 규격 용기 영역의 영상 데이터를 제1 기계학습 모델에 입력하고, 상기 제1 기계학습 모델로부터 상기 물건, 상기 규격 용기, 및 배경이 분류된 제1 출력 영상을 획득하는 단계; 및 상기 제1 출력 영상을 제2 기계학습 모델에 입력하고, 상기 제2 기계학습 모델로부터 상기 부피 레벨 값을 획득하는 단계를 더 포함할 수 있다.In addition, according to an embodiment of the present disclosure, in the method for measuring the volume of an object, the image data of the standard container region is input to a first machine learning model, and the object, the standard container, and obtaining a first output image in which a background is classified; and inputting the first output image to a second machine learning model, and obtaining the volume level value from the second machine learning model.
또한, 본 개시의 일 실시예에 따르면, 상기 제1 기계학습 모델은 Semantic segmentation 모델일 수 있다.Also, according to an embodiment of the present disclosure, the first machine learning model may be a semantic segmentation model.
또한, 본 개시의 일 실시예에 따르면, 상기 규격 용기 영역을 검출하는 단계는, YOLO(You Only Look Once의 약자로, 오브젝트 검출에 특화된 오픈소스) 검출 모델을 이용하여 상기 규격 용기 영역을 검출할 수 있다.In addition, according to an embodiment of the present disclosure, the detecting of the standard container area may include detecting the standard container area using a YOLO (You Only Look Once, an open source specialized object detection) detection model. can
또한, 본 개시의 일 실시예에 따르면, 상기 입력 영상은 복수의 프레임을 포함하는 동영상이고, 상기 물건 부피 측정 방법은, 상기 규격 용기 영역이 검출된 프레임을 추출하는 단계를 더 포함하고, 상기 부피 레벨 값을 결정하는 단계는, 상기 추출된 프레임을 상기 입력 영상으로 이용할 수 있다.In addition, according to an embodiment of the present disclosure, the input image is a moving picture including a plurality of frames, and the method for measuring the volume of an object further includes extracting a frame in which the standard container area is detected, the volume The determining of the level value may include using the extracted frame as the input image.
본 개시의 일 실시예의 다른 측면에 따르면, 입력 영상을 수신하는 입력 인터페이스; 상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하고, 상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 적어도 하나의 프로세서; 및 상기 부피 레벨 값을 출력하는 출력 인터페이스를 포함하는 물건 부피 측정 장치가 제공된다.According to another aspect of an embodiment of the present disclosure, an input interface for receiving an input image; at least one processor for detecting a standard container region corresponding to a predefined standard container from the input image, and determining a volume level value as one of a plurality of predetermined levels from the input image; and an output interface for outputting the volume level value.
또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 입력 영상으로부터, 서로 다른 식별 정보를 갖는 미리 정의된 복수의 비주얼 태그 중 적어도 하나의 비주얼 태그를 검출하고, 상기 검출된 적어도 하나의 비주얼 태그에 기초하여, 물건 부피 값을 산출하고, 상기 물건 부피 값을 이용하여, 상기 부피 레벨 값을 결정하고, 상기 복수의 비주얼 태그는 상기 규격 용기의 미리 정의된 각 위치에 배치되고, 각 위치의 비주얼 태그는 해당 위치에 대응하는 미리 정의된 식별 정보를 가질 수 있다.Also, according to an embodiment of the present disclosure, the at least one processor detects, from the input image, at least one visual tag among a plurality of predefined visual tags having different identification information, and the detected at least one Calculate an object volume value based on one visual tag, and use the object volume value to determine the volume level value, wherein the plurality of visual tags are disposed at each predefined position of the standard container; The visual tag of each location may have predefined identification information corresponding to the location.
또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 규격 용기의 소정의 위치에 배치된 용기 식별 태그를 검출하고, 상기 검출된 용기 식별 태그에 기초하여 상기 규격 용기 영역을 검출할 수 있다.Further, according to an embodiment of the present disclosure, the at least one processor detects a container identification tag disposed at a predetermined position of the standard container, and detects the standard container area based on the detected container identification tag. can do.
또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 규격 용기 영역의 영상 데이터를 제1 기계학습 모델에 입력하고, 상기 제1 기계학습 모델로부터 상기 물건, 상기 규격 용기, 및 배경이 분류된 제1 출력 영상을 획득하고, 상기 제1 출력 영상을 제2 기계학습 모델에 입력하고, 상기 제2 기계학습 모델로부터 상기 부피 레벨 값을 획득할 수 있다.Further, according to an embodiment of the present disclosure, the at least one processor inputs the image data of the standard container region into a first machine learning model, and receives the object, the standard container, and A first output image in which a background is classified may be obtained, the first output image may be input to a second machine learning model, and the volume level value may be obtained from the second machine learning model.
또한, 본 개시의 일 실시예에 따르면, 상기 제1 기계학습 모델은 Semantic segmentation 모델일 수 있다.Also, according to an embodiment of the present disclosure, the first machine learning model may be a semantic segmentation model.
또한, 본 개시의 일 실시예에 따르면, 상기 적어도 하나의 프로세서는, YOLO(You only Look Once) 검출 모델을 이용하여 상기 규격 용기 영역을 검출할 수 있다.Also, according to an embodiment of the present disclosure, the at least one processor may detect the standard container area using a You Only Look Once (YOLO) detection model.
또한, 본 개시의 일 실시예에 따르면, 상기 입력 영상은 복수의 프레임을 포함하는 동영상이고, 상기 적어도 하나의 프로세서는, 상기 규격 용기 영역이 검출된 프레임을 추출하고, 상기 추출된 프레임을 상기 입력 영상으로 이용하여 상기 부피 레벨 값을 결정할 수 있다.In addition, according to an embodiment of the present disclosure, the input image is a moving picture including a plurality of frames, and the at least one processor extracts a frame in which the standard container area is detected, and receives the extracted frame as the input. The volume level value may be determined by using the image.
본 개시의 일 실시예의 또 다른 측면에 따르면, 프로세서에 의해 실행되었을 때 물건 부피 측정 방법을 수행하고, 기록매체에 기록된 컴퓨터 프로그램에 있어서, 상기 물건 부피 측정 방법은, 입력 영상을 수신하는 단계; 상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하는 단계; 상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 단계; 및 상기 부피 레벨 값을 출력하는 단계를 포함하는, 기록매체에 기록된 컴퓨터 프로그램이 제공된다.According to another aspect of an embodiment of the present disclosure, there is provided a computer program for performing an object volume measurement method when executed by a processor, and recorded on a recording medium, the method comprising: receiving an input image; detecting a standard container area corresponding to a predefined standard container from the input image; determining a volume level value as one of a plurality of predetermined levels from the input image; and outputting the volume level value, the computer program recorded on the recording medium is provided.
본 개시의 실시예들에 따르면, 영상 데이터를 이용하여, 물건 부피를 측정하는 방법, 장치, 및 컴퓨터 프로그램을 제공할 수 있는 효과가 있다.According to embodiments of the present disclosure, it is possible to provide a method, an apparatus, and a computer program for measuring the volume of an object by using image data.
또한, 본 개시의 실시예들에 따르면, 비주얼 태그 또는 기계학습 모델 등의 방법을 이용하여 물건 부피를 정확하게 측정하는 방법, 장치, 및 컴퓨터 프로그램을 제공할 수 있는 효과가 있다.In addition, according to embodiments of the present disclosure, there is an effect that it is possible to provide a method, an apparatus, and a computer program for accurately measuring the volume of an object using a method such as a visual tag or a machine learning model.
도 1은 본 개시의 일 실시예에 따른 물건 부피 측정 시스템을 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른 물건 부피 측정 장치의 구조를 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 물건 부피 측정 방법을 나타낸 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 규격 용기를 나타낸 도면이다.
도 5는 본 개시의 일 실시예에 따라 규격 용기 영역을 검출하고, 부피 레벨 값을 결정하는 과정을 나타낸 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 비주얼 태그를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따라 비주얼 태그가 배치된 도면이다.
도 8은 본 개시의 일 실시예에 따라 규격 용기 영역을 검출한 결과를 나타낸 도면이다.
도 9는 본 개시의 다른 실시예에 따라 규격 용기 영역을 검출하고 부피 레벨 값을 획득하는 과정을 나타낸 흐름도이다.
도 10은 본 개시의 다른 실시예에 따른 프로세서(220a)의 구조를 나타낸 도면이다.
도 11은 본 개시의 일 실시예에 따른 CNN 모델의 구조를 나타낸 도면이다.
도 12는 본 개시의 일 실시예에 따른 규격 용기 영역의 영상 데이터 및 제1 출력 영상을 나타낸 도면이다. 1 is a diagram illustrating a system for measuring object volume according to an embodiment of the present disclosure.
2 is a view showing the structure of an object volume measurement apparatus according to an embodiment of the present disclosure.
3 is a flowchart illustrating a method for measuring the volume of an object according to an embodiment of the present disclosure.
4 is a view showing a standard container according to an embodiment of the present disclosure.
5 is a flowchart illustrating a process of detecting a standard container area and determining a volume level value according to an embodiment of the present disclosure.
6 is a diagram illustrating a visual tag according to an embodiment of the present disclosure.
7 is a diagram in which a visual tag is disposed according to an embodiment of the present disclosure.
8 is a view showing a result of detecting a standard container area according to an embodiment of the present disclosure.
9 is a flowchart illustrating a process of detecting a standard container area and obtaining a volume level value according to another embodiment of the present disclosure.
10 is a diagram illustrating a structure of a
11 is a diagram illustrating the structure of a CNN model according to an embodiment of the present disclosure.
12 is a view illustrating image data and a first output image of a standard container area according to an embodiment of the present disclosure.
본 명세서는 본 개시의 청구항의 권리범위를 명확히 하고, 본 개시의 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자가 본 개시의 실시 예들을 실시할 수 있도록, 본 개시의 실시 예들의 원리를 설명하고, 실시 예들을 개시한다. 개시된 실시 예들은 다양한 형태로 구현될 수 있다.This specification clarifies the scope of the claims of the present disclosure, and describes the principles of the embodiments of the present disclosure so that those of ordinary skill in the art to which the embodiments of the present disclosure pertain can practice the embodiments of the present disclosure and discloses embodiments. The disclosed embodiments may be implemented in various forms.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 개시의 실시 예들이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 개시의 실시 예들, 및 실시 예들의 작용 원리에 대해 설명한다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the embodiments of the present disclosure pertain or overlapping between the embodiments will be omitted. As used herein, the term 'part' (part, portion) may be implemented in software or hardware, and according to embodiments, a plurality of 'parts' may be implemented as one element (unit, element), or one 'part' It is also possible that ' includes a plurality of elements. Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure, and the principle of operation of the embodiments will be described.
도 1은 본 개시의 일 실시예에 따른 물건 부피 측정 시스템을 나타낸 도면이다.1 is a diagram illustrating a system for measuring object volume according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 물건 부피 측정 시스템(10)은 카메라(120)를 이용하고 규격 용기(110)에 담겨진 물건(112)을 촬영하고, 촬영된 입력 영상(110)으로부터 물건 부피 측정 장치(100)에서 물건 부피를 측정한다. 본 개시의 실시예들에 따른 물건 부피 측정 시스템(10)은 물류 창고, 공장 등에서 이용될 수 있다. 예를 들면, 규격 용기(110)에 담겨진 물건(112)은 창고의 선반에 배치되고, 물건 부피 측정 시스템(10)은 카메라(120)를 이동시키면서 배치된 규격 용기(110)들을 촬영하여, 촬영된 입력 영상으로부터 각 규격 용기(110)에 담겨진 물건(112)의 부피를 측정할 수 있다. 카메라(120)는 소정의 이동 수단에 탑재되고, 예를 들면, 카메라(120) 및 물건 부피 측정 장치(100)가 이동 가능한 로봇의 형태로 구현되고, 로봇이 창고 내에서 소정의 경로로 이동하면서 각 규격 용기(110) 내의 물건의 부피를 측정할 수 있다.The object
물건(112)은 미리 정해진 규격 용기(110)에 담겨진다. 규격 용기(110)는 미리 정의된 형태, 사이즈, 및 색상을 갖는 용기이다. 규격 용기(110)는 하나 이상의 종류로 정의될 수 있다. 물건(112)은 부피 측정의 대상이 되는 객체이다. 물건 부피는 하나의 규격 용기(110)에 담겨진 물건(112)이 차지하는 부피를 의미한다. The
카메라(120)는 규격 용기(110)에 담겨진 물건(112)을 촬영한다. 카메라(120)는 렌즈, 셔터, 및 촬상 소자를 포함한다. 카메라(120)는 영상을 촬영하여, 촬영된 입력 영상을 물건 부피 측정 장치(100)로 출력한다. The
물건 부피 측정 장치(100)는 프로세서 및 메모리를 포함하는 전자 장치의 형태로 구현될 수 있으며, 예를 들면, 스마트폰, 태블릿 PC, 노트북, 또는 웨어러블 장치 등의 형태로 구현될 수 있다. 일 실시예에 따르면, 물건 부피 측정 장치(100)는 클라우드 서버의 형태로 구현될 수 있다.The object
일 실시예에 따르면, 물건 부피 측정 장치(100)가 카메라(120)를 포함하여 하나의 장치로 구현될 수 있다. According to one embodiment, the object
다른 실시예에 따르면, 물건 부피 측정 장치(100)는 외부의 카메라(120)로부터 입력 영상을 수신할 수 있다. 물건 부피 측정 장치(100)는 통신부 또는 소정의 입력 인터페이스를 통해 입력 영상을 수신할 수 있다. 일 실시예에 따르면, 카메라(120)는 CCTV(closed circuit television) 카메라에 대응될 수 있다.According to another embodiment, the object
도 2는 본 개시의 일 실시예에 따른 물건 부피 측정 장치의 구조를 나타낸 도면이다.2 is a view showing the structure of an object volume measurement apparatus according to an embodiment of the present disclosure.
물건 부피 측정 장치(100)는 입력 인터페이스(210), 프로세서(220), 및 출력 인터페이스(230)를 포함한다. The object
입력 인터페이스(210)는 규격 용기를 촬영하는 적어도 하나의 카메라로부터 촬영된 입력 영상을 수신한다. 일 실시예에 따르면, 물건 부피 측정 장치(100)는 물건 부피 측정 장치(100) 내에 카메라를 구비할 수 있다. 이러한 경우, 입력 인터페이스(210)는 물건 부피 측정 장치(100)에 내장된 카메라로부터 입력 영상을 수신한다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 물건 부피 측정 장치(100) 외부에 배치된 카메라와 연결되어, 입력 인터페이스(210)를 통해 입력 영상을 수신할 수 있다. 이러한 경우, 카메라는 규격 용기를 촬영하여, 촬영된 영상 데이터를 물건 부피 측정 장치(100)로 전송한다. 카메라는 규격 용기를 촬영하도록 FOV(Field of View)가 설정되어 배치된다. 일 실시예에 따르면, 카메라는 기존의 CCTV 카메라에 대응될 수 있다. The
입력 인터페이스(210)는 카메라로부터 영상 데이터를 수신하기 위한 소정 규격의 입력 장치, 또는 통신부에 대응될 수 있다. 입력 인터페이스(210)는 입력된 영상 데이터를 프로세서(220)로 전달한다. 입력된 영상 데이터는 입력 영상에 대응된다. 일 실시예에 따르면, 물건 부피 측정 장치(100)는 비디오 버퍼를 더 포함하고, 비디오 버퍼에 입력 인터페이스(210)를 통해 입력된 입력 영상을 저장할 수 있다. 프로세서(220)는 비디오 버퍼에 저장된 입력 영상을 읽어 들일 수 있다.The
프로세서(220)는 물건 부피 측정 장치(100) 전반의 동작을 제어한다. 프로세서(220)는 하나 또는 그 이상의 프로세서로 구현될 수 있다. 프로세서(220)는 메모리에 저장된 인스트럭션 또는 커맨드를 실행하여 소정의 동작을 수행할 수 있다. The
프로세서(220)는 입력 영상으로부터 규격 용기에 대응하는 규격 용기 영역을 검출한다. 프로세서(220)는 비주얼 태그를 검출하는 방식, 또는 YOLO(You only Look Once) 등의 객체 검출 알고리즘을 이용하는 방식을 이용하여 입력 영상으로부터 규격 용기에 대응하는 규격 용기 영역을 검출할 수 있다.The
일 실시예에 따르면, 프로세서(220)는 검출된 규격 용기에 대응하는 용기 식별자를 획득한다. 일 실시예에 따르면, 용기 식별자는 비주얼 태그를 이용하여 획득될 수 있다. 다른 실시예에 따르면, 용기 식별자는 규격 용기에 기재된 용기 식별자를 문자 인식 알고리즘 또는 패턴 인식 알고리즘 등을 이용하여 인식하여 획득될 수 있다. According to an embodiment, the
또한, 프로세서(220)는 용기 식별자에 기초하여 규격 용기에 담겨진 물건에 대한 정보인 물건 정보를 획득할 수 있다. 프로세서(220)는 메모리를 더 포함하고, 메모리에 각 용기 식별자에 대응하는 물건 정보를 저장할 수 있다. 물건 정보는 제품명, 제품 카테고리, 제조업자, 판매원, 제조번호, 사용기한, 유효성분, 또는 저장 방법 중 적어도 하나 또는 이들의 조합을 포함할 수 있다. 프로세서(220)는 획득된 용기 식별자 및 메모리에 저장된 물건 정보에 기초하여, 획득된 용기 식별자에 대응하는 물건 정보를 획득할 수 있다. 다른 예로서, 프로세서(220)는 클라우드 서버 등 외부의 데이터베이스를 이용하여, 용기 식별자에 대응하는 물건 정보를 획득할 수 있다. In addition, the
다음으로, 프로세서(220)는 규격 용기에 담겨진 물건의 물건 부피 값에 대응하는 부피 레벨 값을 결정한다. 부피 레벨 값은 미리 정의된 복수의 레벨 값을 포함할 수 있다. 예를 들면 부피 레벨 값은 High(재고 많음), Mid(재고 충분), Low(재고 부족)의 세가지 레벨로 정의될 수 있다.Next, the
일 실시예에 따르면, 프로세서(220)는 규격 용기에 담겨진 물건의 물건 부피 값을 산출하고, 산출된 물건 부피 값에 기초하여 부피 레벨 값을 결정할 수 있다. 이러한 경우, 산출된 물건 부피 값에 따라 부피 레벨 값이 High, Mid, Low 중 하나로 정의될 수 있다. 다른 실시예에 따르면, 프로세서(220)는 규격 용기 영역의 영상 데이터로부터, 기계학습 모델을 이용하여 부피 레벨 값을 결정할 수 있다. 기계학습 모델은 규격 용기 영역의 영상을 입력받고, 부피 레벨 값을 출력하는 모델이다. 기계학습 모델은 규격 용기 영역의 영상 및 부피 레벨 값의 다수의 세트를 트레이닝 데이터로하여 학습된 모델이다.According to an embodiment, the
출력 인터페이스(230)는 프로세서(220)에서 생성된 부피 레벨 값을 출력한다. 출력 인터페이스(230)는 예를 들면, 디스플레이, 오디오 스피커, 또는 통신부 등에 대응될 수 있다. The
일 실시예에 따르면, 출력 인터페이스(230)는 용기 식별자와 부피 레벨 값을 함께 출력한다. 다른 실시예에 따르면, 출력 인터페이스(230)는 용기 식별자, 물건 정보, 및 부피 레벨 값을 함께 출력한다. According to an embodiment, the
일 실시예에 따르면, 물건 부피 측정 장치(100)은 비주얼 태그를 이용하는 방식과 기계학습 모델을 이용하는 방식을 함께 이용할 수 있다. 예를 들면, 물건 부피 측정 장치(100)는 비주얼 태그를 이용하여 용기 식별자를 획득하고, 기계학습 모델을 이용하여 부피 레벨 값을 획득할 수 있다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 비주얼 태그를 이용하여 용기 식별자를 획득하고, 비주얼 태그를 이용하여 물건 부피 값 및 부피 레벨 값을 획득하고, 기계학습 모델을 이용하여 부피 레벨 값을 획득할 수 있다. 이러한 경우, 물건 부피 측정 장치(100)는 비주얼 태그를 이용하여 획득된 부피 레벨 값과 기계학습 모델을 이용하여 획득된 부피 레벨 값의 차이를 비교하여, 신뢰도를 판단하고, 신뢰도가 소정 기준 값 이하인 규격 용기에 대해 부피 레벨 값을 재산출할 수 있다. 재산출 과정은 다른 알고리즘을 이용하거나, 사용자에게 알림을 제공하여 수동으로 부피 레벨 값을 입력할 수 있다.According to an embodiment, the object
도 3은 본 개시의 일 실시예에 따른 물건 부피 측정 방법을 나타낸 흐름도이다. 3 is a flowchart illustrating a method for measuring the volume of an object according to an embodiment of the present disclosure.
본 개시의 일 실시예에 다른 물건 부피 측정 방법의 각 단계들은 프로세서를 구비하는 다양한 형태의 전자 장치에 의해 수행될 수 있다. 본 개시는 본 개시의 실시예들에 따른 물건 부피 측정 장치(100)가 물건 부피 측정 방법을 수행하는 띄어쓰기 두 번이 적용 되었습니다. Each step of the method for measuring the volume of an object according to an embodiment of the present disclosure may be performed by various types of electronic devices including a processor. In the present disclosure, two spaces are applied in which the object
실시예를 중심으로 설명한다. 따라서 물건 부피 측정 장치(100)에 대해 설명된 실시예들은 물건 부피 측정 방법에 대한 실시예들에 적용 가능하고, 반대로 물건 부피 측정 방법에 대해 설명된 실시예들은 물건 부피 측정 장치(100)에 대한 실시예들에 적용 가능하다. 개시된 실시예들에 따른 물건 부피 측정 방법은 본 개시에 개시된 물건 부피 측정 장치(100)에 의해 수행되는 것으로 그 실시예가 한정되지 않고, 다양한 형태의 전자 장치에 의해 수행될 수 있다.Examples will be mainly described. Therefore, the embodiments described with respect to the object
물건 부피 측정 장치(100)는 카메라에 의해 촬영된 입력 영상을 수신한다(S302).The object
다음으로 물건 부피 측정 장치(100)는 입력 영상으로부터 규격 용기 영역을 검출한다(S304). 일 실시예에 따르면, 물건 부피 측정 장치(100)는 입력 영상으로부터 비주얼 태그를 검출하고, 검출된 비주얼 태그에 기초하여 규격 용기 영역을 검출할 수 있다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 기계학습 모델을 이용하여 입력 영상으로부터 규격 용기 영역을 검출할 수 있다.Next, the object
다음으로 물건 부피 측정 장치(100)는 규격 용기 영역의 영상 데이터로부터 부피 레벨 값을 결정한다(S306). 일 실시예에 따르면, 물건 부피 측정 장치(100)는 영상 데이터로부터 물건 부피 값을 결정하고, 물건 부피 값에 기초하여 부피 레벨 값을 결정한다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 기계학습 모델을 이용하여 규격 용기 영역의 영상 데이터로부터 부피 레벨 값을 결정한다.Next, the object
다음으로 물건 부피 측정 장치(100)는 부피 레벨 값을 출력한다(S308). 일 실시예에 따르면, 물건 부피 측정 장치(100)는 부피 레벨 값과 함께 용기 식별자 또는 물건 정보 중 적어도 하나를 출력할 수 있다.Next, the object
도 4는 본 개시의 일 실시예에 따른 규격 용기를 나타낸 도면이다.4 is a view showing a standard container according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따른 규격 용기(410, 420, 430)는 하나 또는 복수의 종류를 포함한다. 각 종류의 규격 용기(410, 420, 430)는 모양, 사이즈, 색깔 등이 다를 수 있다. 규격 용기(410, 420, 430)는 카메라에 의해 촬영되었을 때, 담겨진 물건이 보이도록 상면 및 전면 일부가 개방된 형태를 가질 수 있다. 또한, 규격 용기(410, 420, 430)는 서로 다른 사이즈의 복수의 종류를 갖고, 폭, 깊이, 및 높이에 의해 사이즈가 정의될 수 있다. Standard containers (410, 420, 430) according to an embodiment of the present disclosure include one or a plurality of types. Each type of standard container (410, 420, 430) may have a different shape, size, color, and the like. When the standard containers (410, 420, 430) are photographed by a camera, the upper surface and the front part may have an open shape so that the contained object is visible. In addition, the standard containers (410, 420, 430) have a plurality of types of different sizes, the size may be defined by the width, depth, and height.
규격 용기(410, 420, 430)는 카메라에 의해 촬영되는 전면의 소정의 영역에 용기 식별자를 나타내는 정보를 나타내는 식별자 영역(440a, 440b, 440c)을 가질 수 있다. 식별자 영역(440a, 440b, 440c)은 비주얼 정보로 용기 식별자 정보를 나타내는 영역이다. 일 실시예에 따르면, 식별자 영역(440a, 440b, 440c)에 비주얼 태그가 배치된다. 비주얼 태그는 예를 들면 ARUCO Marker, QR(Quick Response) 코드, 바코드 등을 포함할 수 있다. 비주얼 태그는 해당 규격 용기에 대응되는 용기 식별자 정보, 물건 정보 등을 포함할 수 있다. 다른 실시예에 따르면, 식별자 영역(440a, 440b, 440c)은 문자, 패턴, 기호 등으로 표현될 수 있다. 문자, 패턴, 기호 등은 해당 규격 용기에 대응되는 용기 식별자 정보, 물건 정보 등을 나타낼 수 있다.The
도 5는 본 개시의 일 실시예에 따라 규격 용기 영역을 검출하고, 부피 레벨 값을 결정하는 과정을 나타낸 흐름도이다.5 is a flowchart illustrating a process of detecting a standard container area and determining a volume level value according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 물건 부피 측정 장치(100)는 비주얼 태그를 이용하여 규격 용기 영역을 검출하고, 물건의 물건 부피 값을 측정한다. 비주얼 태그는 용기 식별자 정보를 나타내는 용기 식별 태그, 및 규격 용기 내의 미리 정의된 위치에 배치되는 부피 태그를 포함한다. 도 6 및 도 7을 참고하여 비주얼 태그의 형태 및 배치에 대해 설명한다. According to an embodiment of the present disclosure, the object
도 6은 본 개시의 일 실시예에 따른 비주얼 태그를 나타내는 도면이다.6 is a diagram illustrating a visual tag according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 비주얼 태그(610a, 610b)는 도 6에 도시된 바와 같은 ARUCO 마커로 구현될 수 있다. ARUCO 마커는 2차원 비주얼 마커의 일종으로, n*n 크기의 2차원 비트 패턴과, 이를 둘러싸고 있는 검은색 테두리 영역으로 구성된다. 검은색 테두리 영역은 마커의 인식률을 향상시킨다. 내부의 2차원 비트 패턴은 흰색 셀과 검정색 셀의 조합으로 구성되고, 소정의 정보를 나타낸다. 본 개시의 일 실시예에 따르면, 용기 식별 태그 및 부피 태그는 도 6과 같은 ARUCO 마커의 형태로 구현되고, 각 비주얼 태그에 대응되는 정보를 표현하도록 2차원 비트 패턴이 변경되어 각 위치에 비주얼 태그가 배치될 수 있다.According to an embodiment of the present disclosure, the
도 7은 본 개시의 일 실시예에 따라 비주얼 태그가 배치된 도면이다.7 is a diagram in which a visual tag is disposed according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 규격 용기(710)의 전면의 식별자 영역에 용기 식별 태그(720)가 배치되고, 규격 용기(710) 내부의 미리 정의된 위치에 복수의 부피 태그(730a, 730b, 730c, 730d, 730e, 730f, 730g, 730h, 730i)가 배치된다. 이하에서는 각 부피 태그(730a, 730b, 730c, 730d, 730e, 730f, 730g, 730h, 730i)를 통칭하여 730으로 지칭한다. 각 부피 태그(730)는 규격 용기 내의 미리 정의된 위치에 배치된다. 예를 들면, 부피 태그(730)는 우측면, 좌측면, 후면 각각에 대해 하부에 2개, 상부에 2개씩 배치된다. 하나의 규격 용기(710) 내의 각 위치의 부피 태그(730)는 서로 다른 식별 정보를 갖는다. 즉, 부피 태그 730a, 730b, 730c, 730d, 730e, 730f, 730g, 730h, 730i 각각은 서로 다른 식별 정보를 갖는다. 다수의 규격 용기(710)에 부피 태그(730)가 배치될 때, 동일 규격의 규격 용기(710)의 동일한 위치에는 동일한 부피 태그(730)가 배치될 수 있다. 예를 들면, 제1 규격의 제1 규격 용기의 우측면 상부의 부피 태그 730a는 제1 규격의 제2 규격 용기의 우측면 상부의 동일 위치에 동일하게 배치될 수 있다. According to an embodiment of the present disclosure, the
다시 도 5를 참고하여, 비주얼 태그를 이용하여 규격 용기 영역을 검출하고, 부피 레벨 값을 산출하는 과정을 설명한다. 도 5에서 S502, S504는 앞서 설명된 도 3의 규격 용기 영역 검출 단계 S304에 대응되고, S506, S508, 및 S510은 도 3의 부피 레벨 값 결정 단계 S306에 대응된다. Referring again to FIG. 5 , a process of detecting a standard container area using a visual tag and calculating a volume level value will be described. 5, S502 and S504 correspond to the standard container region detection step S304 of FIG. 3 described above, and S506, S508, and S510 correspond to the volume level value determination step S306 of FIG.
물건 부피 측정 장치(100)는 입력 영상으로부터 용기 식별 태그를 검출한다(S502). 물건 부피 측정 장치(100)는 소정의 비주얼 코드 검출 알고리즘을 이용하여 입력 영상으로부터 용기 식별 태그를 검출할 수 있다. The object
물건 부피 측정 장치(100)는 검출된 용기 식별 태그에 기초하여 규격 용기 영역을 검출한다(S504). 도 8을 참고하여 규격 용기 영역을 검출하는 동작을 설명한다.The object
도 8은 본 개시의 일 실시예에 따라 규격 용기 영역을 검출한 결과를 나타낸 도면이다.8 is a diagram illustrating a result of detecting a standard container area according to an embodiment of the present disclosure.
물건 부피 측정 장치(100)는 용기 식별 태그(720a, 720b, 720c, 720d)를 검출하면, 용기 식별 태그(720a, 720b, 720c, 720d)가 검출된 용기 식별 태그 영역 및 용기 식별 태그 영역 주변의 영역을 규격 용기 영역(810a, 810b, 810c, 810d)으로 결정한다. 예를 들면, 물건 부피 측정 장치(100)는 용기 식별 태그(720a, 720b, 720c, 720d) 영역의 주변에서 규격 용기의 형태를 객체 검출 알고리즘을 이용하여 검출하여, 규격 용기에 해당하는 규격 용기 영역(810a, 810b, 810c, 810d)을 검출할 수 있다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 용기 식별 태그 영역 주변에서 부피 태그를 검출하여, 용기 식별 태그 영역과 부피 태그 검출 영역을 포함하는 소정의 영역을 규격 용기 영역(810a, 810b, 810c, 810d)으로 결정할 수 있다.When the object
하나의 입력 영상(800)에서 복수의 용기 식별 태그(720a, 720b, 720c, 720d)가 검출된 경우, 물건 부피 측정 장치(100)는 각 용기 식별 태그(720a, 720b, 720c, 720d) 각각에 대응하는 복수의 규격 용기 영역(810a, 810b, 810c, 810d)을 정의한다. When a plurality of
입력 영상(800)이 동영상인 경우, 물건 부피 측정 장치(100)는 프레임으로부터 새로운 용기 식별 태그가 검출되면, 새로운 규격 용기 영역을 정의한다. 일 실시예에 따르면, 물건 부피 측정 장치(100)는 새로운 용기 식별 태그가 검출된 것에 기초하여, S506, S508, S510 단계의 동작을 수행할 수 있다. 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 새로운 규격 용기 영역이 검출된 것에 기초하여, S506, S508, S510 단계의 동작을 수행할 수 있다. 이러한 실시예들에 의해, 물건 부피 측정 시스템(10)은 카메라를 이동시키면서 창고 내의 규격 용기들을 순차적으로 촬영하면서, 창고 내의 재고를 전체적으로 파악할 수 있다.When the
일 실시예에 따르면, 물건 부피 측정 장치(100)는 동영상에 대응되는 입력 영상으로부터 비주얼 태그를 검출하고 저장한다. 예를 들면, 물건 부피 측정 장치(100)는 1초당 60프레임을 캡쳐하고, 캡쳐된 영상에서 식별된 비주얼 태그의 식별 번호를 저장할 수 있다. 다음으로, 물건 부피 측정 장치(100)는 저장된 비주얼 태그들 중 중복되지 않은 식별 번호를 새로운 프레임에서 검출한 경우, 검출된 새로운 식별 번호를 저장한다. 물건 부피 측정 장치(100)는 입력 영상에서 새로운 규격 용기를 검출하면, 이전 규격 용기에 대한 인식을 멈추고, 지금까지 저장된 비주얼 태그의 개수를 이용하여 물건 부피 값 및 부피 레벨 값을 산출한다. 물건 부피 측정 장치(100)는 입력 영상에 대해 상기 과정들을 반복하면서 각 규격 용기의 부피 레벨 값을 획득한다.According to an embodiment, the object
다음으로, 물건 부피 측정 장치(100)는 입력 영상으로부터 부피 태그를 검출한다(S506). 물건 부피 측정 장치(100)는 용기 식별 태그와 부피 태그를 포함하는 비주얼 태그를 검출하고, 검출된 비주얼 태그에 기록된 정보를 식별하여 해당 비주얼 태그가 용기 식별 태그인지 부피 태그인지 판단할 수 있다. 따라서 물건 부피 측정 장치(100)는 입력 영상으로부터 비주얼 태그를 전체적으로 검출하고, 검출된 비주얼 태그 중 용기 식별 태그를 검출하고(S502), 부피 태그를 검출(S506)할 수 있다.Next, the object
다음으로 물건 부피 측정 장치(100)는 검출된 부피 태그에 기초하여 물건 부피 값을 산출한다(S508). 도 7을 참고하여 부피 태그를 이용하여 물건 부피 값을 산출하는 과정을 설명한다. Next, the object
규격 용기(710)에 물건(740)이 담기면, 그 부피에 따라 복수의 부피 태그(730) 중 일부를 가리게 된다. 예를 들면, 규격 용기에 물건(740)이 반 정도 담기면, 복수의 부피 태그(730) 중 규격 용기(720)의 하부에 배치된 부피 태그(730)를 가리게 된다. 또한, 물건(740)이 규격 용기(710)에 적재될 때, 물건(740)이 담긴 면이 평평하지 않고, 물건(740)이 한쪽 방향으로 쏠려서 물건(740)의 상단 면이 기울어질 수 있다. 만약 물건(740)의 상단 면이 우측이 높고 좌측이 낮은 경우, 규격 용기(710)의 우측면의 부피 태그(730)는 물건(740)에 의해 거의 가려지고, 규격 용기(910)의 좌측면의 부피 태그(730)는 하부의 부피 태그(730)까지 보일 수 있다. 이러한 원리로, 물건 부피 측정 장치(100)는 검출된 부피 태그(730)의 개수를 이용하여 물건 부피 값을 산출한다. 물건 부피 측정 장치(100)는 검출된 부피 태그(730)의 개수를 물건 부피 값으로 결정할 수 있다.When the
다시 도 5를 참고하여 나머지 과정을 설명한다. 물건 부피 측정 장치(100)는 검출된 부피 태그(730)의 개수에 의해 결정된 물건 부피 값에 기초하여, 부피 레벨 값을 결정한다(S510). 일 실시예에 따르면, 하나의 규격 용기(710)에 배치된 부피 태그(730)가 총 12개인 경우, 물건 부피 측정 장치(100)는 검출된 부피 태그(730)의 개수가 1개 이상 4개 이하인 경우, 부피 레벨 값을 High로 결정하고, 검출된 부피 태그(730)의 개수가 5개 이상 8개 이하인 경우 부피 레벨 값을 Mid로 결정하고, 검출된 부피 태그(730)의 개수가 9개 이상 12개 이하인 경우 부피 레벨 값을 Low로 결정한다. 부피 레벨 값을 결정하는 기준은 하나의 규격 용기(710)에 배치된 총 부피 태그(730)의 수에 따라 달라질 수 있다. 또한, 실시예에 따라 부피 레벨이 더 세분화되어 더 많은 수의 레벨로 정의될 수 있고, 각 부피 레벨에 해당하는 부피 태그(730)의 수의 기준이 달라질 수 있다. The rest of the process will be described with reference to FIG. 5 again. The object
일 실시예에 따르면, 부피 레벨의 기준 값은, 사용자 입력에 의해 변경될 수 있다. 예를 들면, 부피 레벨의 기준 값은 창고 관리인, 공장주 등의 사용자에 의해 입력된 사용자 입력에 기초하여 변경될 수 있다. 물건 부피 측정 장치(100)의 입력 인터페이스(210)를 통해 사용자 입력을 수신하고, 프로세서(220)는 입력 인터페이스(210)를 통해 입력된 사용자 입력에 기초하여 부피 레벨의 기준 값을 변경할 수 있다. 프로세서(220)는 입력 인터페이스(210) 및 출력 인터페이스(230)를 통해 부피 레벨의 기준 값을 변경할 수 있는 UI(user interface)를 제공할 수 있다. According to an embodiment, the reference value of the volume level may be changed by a user input. For example, the reference value of the volume level may be changed based on a user input input by a user such as a warehouse manager or a factory owner. A user input may be received through the
본 개시의 일 실시예에 따르면, 비주얼 태그(720, 730)가 인식된 결과 영상이 도 7에 도시된 바와 같이 출력될 수 있다. 출력 영상은 입력 영상에서 검출된 비주얼 태그(720, 730)들을 소정의 인디케이터(예를 들면, 비주얼 태그(720, 730)의 외곽에 대응되고 소정의 컬러 및 선 종류로 표시된 박스)로 표시할 수 있다. 또한, 일 실시예에 따르면, 출력 영상은 각 비주얼 태그(720, 730)에 대응되는 식별 번호 정보를 각 비주얼 태그(720, 730)에 인접하게 표시할 수 있다(722, 732a). 이러한 출력 영상에 의해, 사용자는 비주얼 태그(720, 730)가 적절하게 검출되었는지 확인할 수 있고, 각 비주얼 태그(720, 730)에 대응하는 식별 번호 정보를 획득할 수 있다. 프로세서(220)는 도 7과 같은 출력 영상을 생성하여 출력 인터페이스(230)를 통해 출력할 수 있다.According to an embodiment of the present disclosure, an image as a result of recognizing the
도 9는 본 개시의 다른 실시예에 따라 규격 용기 영역을 검출하고 부피 레벨 값을 획득하는 과정을 나타낸 흐름도이다. 도 10은 본 개시의 다른 실시예에 따른 프로세서(220a)의 구조를 나타낸 도면이다. 도 9 및 도 10을 참조하여 본 개시의 다른 실시예를 설명한다.9 is a flowchart illustrating a process of detecting a standard container area and obtaining a volume level value according to another embodiment of the present disclosure. 10 is a diagram illustrating a structure of a
프로세서(220a)는 흑백 변환부(1010), 규격 용기 영역 검출부(1020), 제1 기계학습 모델(1030), 및 제2 기계학습 모델(1040)을 포함한다. 프로세서(220a) 내의 각 블록은 소프트웨어 모듈 또는 하드웨어 모듈에 대응되거나, 소프트웨어 모듈과 하드웨어 모듈의 조합에 대응된다. 따라서 프로세서(220a) 내의 각 블록의 구조에 의해 본 개시의 실시예가 제한되지 않으며, 프로세서(220a) 내의 각 블록은 서로 합쳐지거나, 하나의 블록이 복수의 블록으로 분리되는 것도 가능하다.The
본 개시의 다른 실시예에 따르면, 물건 부피 측정 장치(100)는 기계학습 모델을 이용하여 입력 영상(1050)으로부터 부피 레벨 값을 획득한다. 프로세서(220a)는 제1 기계학습 모델(1030) 및 제2 기계학습 모델(1040)을 실행하여, 입력 영상으로부터 부피 레벨 값을 획득한다. According to another embodiment of the present disclosure, the object
우선 흑백 변환부(1010)는 입력 영상(1040)을 흑백 스케일로 변환하여 흑백 입력 영상을 생성한다(S902). 기계학습 모델을 이용하여 영상을 처리하는 경우, 처리량이 많기 때문에, 처리량을 감소시키기 위해 입력 영상(1050)을 흑백 스케일로 변환하여 기계학습 모델에 입력한다. 프로세서(220)는 흑백 입력 영상을 이용함에 의해, 기존에 R, G, B 3개의 채널로 입력 영상을 처리하던 것을 하나의 채널로 입력 영상을 처리할 수 있어 처리량을 감소시킬 수 있다.First, the black-and-
다음으로, 규격 용기 영역 검출부(1020)는 흑백 입력 영상으로부터 규격 용기 영역을 검출한다(S904). 일 실시예에 따르면, 프로세서(220)는 YOLO 알고리즘을 이용하여 규격 용기 영역을 검출한다. YOLO는 단일 단계 방식의 객체 탐지 알고리즘이다. YOLO 알고리즘은 원본 이미지를 동일한 크기의 그리드로 나누고, 각 그리드에 대해 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계 박스의 개수를 예측하고 이를 기반으로 신뢰도를 계산한다. 신뢰도는 이미지에 객체가 포함되어 있는지, 또는 배경만 단독으로 있는지 여부에 대한 정보를 포함한다. 또한, YOLO 알고리즘은 높은 객체 신뢰도를 가진 위치를 선택하여 객체 카테고리를 파악한다. 규격 용기 영역 검출부(1020)는 규격 용기 영역에 대응하는 영상 데이터(1042)를 생성하여 제1 기계학습 모델(1030)로 출력한다.Next, the standard container
다음으로, 제1 기계학습 모델(1030)은 규격 용기 영역의 영상 데이터로부터 규격 용기 영역, 물건 영역, 및 배경 영역을 검출하여 분리한다. 일 실시예에 따르면, 제1 기계학습 모델(1030)은 Semantic Segmentation 모델을 이용한다. Semantic Segmentation은 영상 데이터로부터 객체의 종류를 분류하는 것을 의미한다. Computer vision 기술의 하나인 Semantic Segmentation 모델은 인식된 물체들을 분류(Classify)하여 분류된 각 물체에 소정의 픽셀 값을 부여하여, 프로세서가 더욱 쉽게 물체를 인식하도록 한다. 예를 들면, 제1 기계학습 모델(1030)은 규격 용기 영역의 영상 데이터를 입력 받아, 규격 용기 영역, 물건 영역, 및 배경 영역에 각각 서로 다른 색 또는 패턴을 배치하여, 제1 출력 영상(1044)을 생성한다. Next, the first
Semantic Segmentation을 성공적으로 사용하기 위해, Tensorflow API를 사용하여 제1 기계학습 모델(1030)을 학습시킬 수 있다. 예를 들면, 제1 기계학습 모델(1030)은 규격 용기 영역의 영상 데이터를 입력 데이터로하고, 물체가 인식되어 분류된 영상 데이터를 출력 데이터로하는 트레이닝 데이터를 이용하여 학습된다. 입력 데이터와 출력 데이터는 소정의 사이즈를 가질 수 있고, 예를 들면, 250*250, 128*128 등으로 사이즈가 정의될 수 있다. 트레이닝 데이터를 생성하기 위해, 소정의 엔진 또는 data augmentation 알고리즘이 이용될 수 있다.In order to successfully use semantic segmentation, the first
제2 기계학습 모델(1040)은 제1 출력 영상을 입력 받아, 부피 레벨 값을 획득한다. 제2 기계학습 모델(1040)은 물체들이 분류된 제1 출력 영상을 입력 데이터로 받고, 부피 레벨 값을 출력한다. 일 실시예에 따르면, 제2 기계학습 모델(1040)은 출력 값으로 부피 레벨 값과 함께, 정확도 값(Accuracy)을 출력할 수 있다. 정확도 값(Accuracy)은 제2 기계학습 모델(1040)에 의해 판단된 부피 레벨 값에 대한 신뢰도를 나타낸다. 제2 기계학습 모델(1040)은 CNN(Convolutional Neural Network) 구조의 인공 신경망 모델을 이용할 수 있다. 제2 기계학습 모델(1040)은 제1 출력 영상의 규격 용기 영역의 크기와 물건 영역의 크기를 feature로서 학습될 수 있다. 제2 기계학습 모델은 물체 분류가 완료된 제1 출력 영상을 입력 데이터로하고, 부피 레벨 값 및 정확도 값을 출력 데이터로하는 트레이닝 데이터를 이용하여 학습된다.The second
도 11은 본 개시의 일 실시예에 따른 CNN 모델의 구조를 나타낸 도면이다.11 is a diagram illustrating the structure of a CNN model according to an embodiment of the present disclosure.
본 개시의 일 실시예에 따르면, 제1 기계학습 모델(1030) 및 제2 기계학습 모델(1040)은 CNN 구조의 인공 심층 신경망을 포함한다. CNN 구조는 합성 곱 계층과 Fully connected 계층을 포함한다. 합성 곱 계층은 특성 추출의 동작을 수행한다. 합성 곱 계층은 컨벌루션(convolution) 레이어, 액티베이션 레이어, 및 풀링(pooling) 레이어를 포함한다. 합성 곱 계층에 의해 입력 벡터로부터 입력 벡터의 Feature가 추출된다. 합성 곱 계층 다음으로 Fully connected 계층이 배치된다. Fully Connected 계층은 합성 곱 계층에서 추출된 feature로부터 출력 벡터를 생성한다. Fully Connected 계층은 레이어 사이의 모든 노드가 연결되어 연산된다. According to an embodiment of the present disclosure, the first
제1 기계학습 모델(1030)과 제2 기계학습 모델(1040)은 CNN 구조를 포함하는 모델을 기반으로 트레이닝 데이터에 의해 학습될 수 있다.The first
도 12는 본 개시의 일 실시예에 따른 규격 용기 영역의 영상 데이터 및 제1 출력 영상을 나타낸 도면이다. 12 is a view illustrating image data and a first output image of a standard container area according to an embodiment of the present disclosure.
규격 용기 영역의 영상 데이터(1210)는 규격 용기가 중앙에 배치되도록 생성될 수 있다. 일 실시예에 따르면, 규격 용기 영역의 영상 데이터(1210)는 규격 용기의 변(1212)을 인식하여 영상에 표시할 수 있다.The
제1 출력 영상(1220)은 물체 종류를 분류하여, 각 물체 종류에 대응하는 영역을 동일한 픽셀 값 또는 패턴으로 나타낸다. The
한편, 개시된 실시 예들은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는 컴퓨터로 읽을 수 있는 기록매체의 형태로 구현될 수 있다. 상기 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 상기 명령어는 프로세서에 의해 실행되었을 때, 개시된 실시예들의 소정의 동작들을 수행할 수 있다. Meanwhile, the disclosed embodiments may be implemented in the form of a computer-readable recording medium storing instructions and data executable by a computer. The instructions may be stored in the form of program code, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. Further, the instruction, when executed by a processor, may perform certain operations of the disclosed embodiments.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시 예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시 예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시 예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.
10
물건 부피 측정 시스템
100
물건 부피 측정 장치
120
카메라
210
입력 인터페이스
220
프로세서
230
출력 인터페이스10 Object volume measurement system
100 object volumetric device
120 cameras
210 input interface
220 processors
230 output interface
Claims (15)
상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하는 단계;
상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 단계; 및
상기 부피 레벨 값을 출력하는 단계를 포함하는, 물건 부피 측정 방법.receiving an input image;
detecting a standard container area corresponding to a predefined standard container from the input image;
determining a volume level value as one of a plurality of predetermined levels from the input image; and
and outputting the volume level value.
상기 입력 영상으로부터, 서로 다른 식별 정보를 갖는 미리 정의된 복수의 비주얼 태그 중 적어도 하나의 비주얼 태그를 검출하는 단계; 및
상기 검출된 적어도 하나의 비주얼 태그에 기초하여, 물건 부피 값을 산출하는 단계를 더 포함하고,
상기 부피 레벨 값을 결정하는 단계는, 상기 물건 부피 값을 이용하여, 상기 부피 레벨 값을 결정하고,
상기 복수의 비주얼 태그는 상기 규격 용기의 미리 정의된 각 위치에 배치되고, 각 위치의 비주얼 태그는 해당 위치에 대응하는 미리 정의된 식별 정보를 갖는, 물건 부피 측정 방법.According to claim 1,
detecting at least one visual tag among a plurality of predefined visual tags having different identification information from the input image; and
Based on the detected at least one visual tag, further comprising the step of calculating an object volume value,
The determining of the volume level value includes determining the volume level value by using the object volume value,
wherein the plurality of visual tags are disposed at each predefined position of the standard container, and the visual tag of each position has predefined identification information corresponding to the position.
상기 규격 용기 영역을 검출하는 단계는,
상기 규격 용기의 소정의 위치에 배치된 용기 식별 태그를 검출하는 단계; 및
상기 검출된 용기 식별 태그에 기초하여 상기 규격 용기 영역을 검출하는 단계를 포함하는, 물건 부피 측정 방법.3. The method of claim 2,
The step of detecting the standard container area,
detecting a container identification tag disposed at a predetermined position of the standard container; and
and detecting the standard container area based on the detected container identification tag.
상기 규격 용기 영역의 영상 데이터를 제1 기계학습 모델에 입력하고, 상기 제1 기계학습 모델로부터 상기 물건, 상기 규격 용기, 및 배경이 분류된 제1 출력 영상을 획득하는 단계; 및
상기 제1 출력 영상을 제2 기계학습 모델에 입력하고, 상기 제2 기계학습 모델로부터 상기 부피 레벨 값을 획득하는 단계를 더 포함하는, 물건 부피 측정 방법.According to claim 1,
inputting the image data of the standard container region into a first machine learning model, and obtaining a first output image in which the object, the standard container, and the background are classified from the first machine learning model; and
The method further comprising inputting the first output image to a second machine learning model, and obtaining the volume level value from the second machine learning model.
상기 제1 기계학습 모델은 Semantic segmentation 모델인 물건 부피 측정 방법.5. The method of claim 4,
The first machine learning model is a semantic segmentation model, the object volume measurement method.
상기 규격 용기 영역을 검출하는 단계는, YOLO(You only Look Once) 검출 모델을 이용하여 상기 규격 용기 영역을 검출하는, 물건 부피 측정 방법.According to claim 1,
The detecting of the standard container area includes detecting the standard container area using a You Only Look Once (YOLO) detection model.
상기 입력 영상은 복수의 프레임을 포함하는 동영상이고,
상기 물건 부피 측정 방법은, 상기 규격 용기 영역이 검출된 프레임을 추출하는 단계를 더 포함하고,
상기 부피 레벨 값을 결정하는 단계는, 상기 추출된 프레임을 상기 입력 영상으로 이용하는, 물건 부피 측정 방법.According to claim 1,
The input image is a video including a plurality of frames,
The object volume measurement method further comprises extracting a frame in which the standard container area is detected,
The determining of the volume level value includes using the extracted frame as the input image.
상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하고, 상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 적어도 하나의 프로세서; 및
상기 부피 레벨 값을 출력하는 출력 인터페이스를 포함하는 물건 부피 측정 장치.an input interface for receiving an input image;
at least one processor for detecting a standard container region corresponding to a predefined standard container from the input image and determining a volume level value as one of a plurality of predetermined levels from the input image; and
and an output interface for outputting the volume level value.
상기 적어도 하나의 프로세서는, 상기 입력 영상으로부터, 서로 다른 식별 정보를 갖는 미리 정의된 복수의 비주얼 태그 중 적어도 하나의 비주얼 태그를 검출하고, 상기 검출된 적어도 하나의 비주얼 태그에 기초하여, 물건 부피 값을 산출하고, 상기 물건 부피 값을 이용하여, 상기 부피 레벨 값을 결정하고,
상기 복수의 비주얼 태그는 상기 규격 용기의 미리 정의된 각 위치에 배치되고, 각 위치의 비주얼 태그는 해당 위치에 대응하는 미리 정의된 식별 정보를 갖는, 물건 부피 측정 장치.9. The method of claim 8,
The at least one processor detects, from the input image, at least one visual tag among a plurality of predefined visual tags having different identification information, and based on the detected at least one visual tag, an object volume value , and using the object volume value to determine the volume level value,
The plurality of visual tags are disposed at each predefined position of the standard container, and the visual tag of each position has predefined identification information corresponding to the position.
상기 적어도 하나의 프로세서는, 상기 규격 용기의 소정의 위치에 배치된 용기 식별 태그를 검출하고, 상기 검출된 용기 식별 태그에 기초하여 상기 규격 용기 영역을 검출하는, 물건 부피 측정 장치.10. The method of claim 9,
The at least one processor detects a container identification tag disposed at a predetermined position of the standard container, and detects the standard container area based on the detected container identification tag.
상기 적어도 하나의 프로세서는, 상기 규격 용기 영역의 영상 데이터를 제1 기계학습 모델에 입력하고, 상기 제1 기계학습 모델로부터 상기 물건, 상기 규격 용기, 및 배경이 분류된 제1 출력 영상을 획득하고, 상기 제1 출력 영상을 제2 기계학습 모델에 입력하고, 상기 제2 기계학습 모델로부터 상기 부피 레벨 값을 획득하는, 물건 부피 측정 장치.9. The method of claim 8,
The at least one processor inputs the image data of the standard container region to a first machine learning model, and obtains a first output image in which the object, the standard container, and the background are classified from the first machine learning model, , inputting the first output image to a second machine learning model, and obtaining the volume level value from the second machine learning model.
상기 제1 기계학습 모델은 Semantic segmentation 모델인, 물건 부피 측정 장치.12. The method of claim 11,
The first machine learning model is a semantic segmentation model, object volume measurement device.
상기 적어도 하나의 프로세서는, YOLO(You only Look Once) 검출 모델을 이용하여 상기 규격 용기 영역을 검출하는, 물건 부피 측정 장치.9. The method of claim 8,
The at least one processor is configured to detect the standard container area using a You Only Look Once (YOLO) detection model.
상기 입력 영상은 복수의 프레임을 포함하는 동영상이고,
상기 적어도 하나의 프로세서는, 상기 규격 용기 영역이 검출된 프레임을 추출하고, 상기 추출된 프레임을 상기 입력 영상으로 이용하여 상기 부피 레벨 값을 결정하는, 물건 부피 측정 장치.9. The method of claim 8,
The input image is a video including a plurality of frames,
The at least one processor extracts a frame in which the standard container area is detected, and determines the volume level value by using the extracted frame as the input image.
입력 영상을 수신하는 단계;
상기 입력 영상으로부터 미리 정의된 규격 용기에 대응하는 규격 용기 영역을 검출하는 단계;
상기 입력 영상으로부터 미리 결정된 복수의 레벨 중 하나로 부피 레벨 값을 결정하는 단계; 및
상기 부피 레벨 값을 출력하는 단계를 포함하는, 기록매체에 기록된 컴퓨터 프로그램.
A computer program recorded on a recording medium for performing an object volume measurement method when executed by a processor, wherein the object volume measurement method comprises:
receiving an input image;
detecting a standard container area corresponding to a predefined standard container from the input image;
determining a volume level value as one of a plurality of predetermined levels from the input image; and
A computer program recorded on a recording medium comprising the step of outputting the volume level value.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200173501A KR102597692B1 (en) | 2020-12-11 | 2020-12-11 | Method, apparatus, and computer program for measuring volume of objects by using image |
PCT/KR2021/017807 WO2022124673A1 (en) | 2020-12-11 | 2021-11-30 | Device and method for measuring volume of object in receptacle on basis of camera image using machine learning model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200173501A KR102597692B1 (en) | 2020-12-11 | 2020-12-11 | Method, apparatus, and computer program for measuring volume of objects by using image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220083347A true KR20220083347A (en) | 2022-06-20 |
KR102597692B1 KR102597692B1 (en) | 2023-11-03 |
Family
ID=81973779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200173501A KR102597692B1 (en) | 2020-12-11 | 2020-12-11 | Method, apparatus, and computer program for measuring volume of objects by using image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102597692B1 (en) |
WO (1) | WO2022124673A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117078103B (en) * | 2023-08-29 | 2024-02-13 | 南京图灵信息技术有限公司 | Commodity quality monitoring data processing method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101375018B1 (en) * | 2012-11-22 | 2014-03-17 | 경일대학교산학협력단 | Apparatus and method for presenting information of food using image acquisition |
KR20160021581A (en) * | 2014-08-18 | 2016-02-26 | 안상요 | Food dustbin and System using this apparatus |
KR20200125131A (en) * | 2019-04-26 | 2020-11-04 | (주)제이엘케이 | Methdo and system for measuring image thickness based on artificial intelligence |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100998885B1 (en) * | 2009-11-19 | 2010-12-08 | 한국건설기술연구원 | Apparatus and method for measuring liquid level using change of temporal pixel distribution on image |
KR20150103995A (en) * | 2014-03-04 | 2015-09-14 | 주식회사 영국전자 | Method for Inspecting Inner Wall of Closed Reservoir |
EP3449234B1 (en) * | 2016-04-27 | 2020-09-02 | Ventana Medical Systems, Inc. | System and method for real-time volume control on microscope slides |
KR101873124B1 (en) * | 2016-12-30 | 2018-06-29 | 부산대학교 산학협력단 | Method and system for measuring watar level of liquid storage tanks |
JP2020024108A (en) * | 2018-08-06 | 2020-02-13 | 地方独立行政法人 岩手県工業技術センター | Storage volume estimation device for storage tank |
-
2020
- 2020-12-11 KR KR1020200173501A patent/KR102597692B1/en active IP Right Grant
-
2021
- 2021-11-30 WO PCT/KR2021/017807 patent/WO2022124673A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101375018B1 (en) * | 2012-11-22 | 2014-03-17 | 경일대학교산학협력단 | Apparatus and method for presenting information of food using image acquisition |
KR20160021581A (en) * | 2014-08-18 | 2016-02-26 | 안상요 | Food dustbin and System using this apparatus |
KR20200125131A (en) * | 2019-04-26 | 2020-11-04 | (주)제이엘케이 | Methdo and system for measuring image thickness based on artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
KR102597692B1 (en) | 2023-11-03 |
WO2022124673A1 (en) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823429B2 (en) | Method, system and device for difference automatic calibration in cross modal target detection | |
US9767604B2 (en) | Image analysis method by analyzing point cloud using hierarchical search tree | |
CN107358149B (en) | Human body posture detection method and device | |
KR101932009B1 (en) | Image processing apparatus and method for multiple object detection | |
CN109727275B (en) | Object detection method, device, system and computer readable storage medium | |
CN113498530A (en) | Object size marking system and method based on local visual information | |
JP6549558B2 (en) | Sales registration device, program and sales registration method | |
US20190188451A1 (en) | Lightweight 3D Vision Camera with Intelligent Segmentation Engine for Machine Vision and Auto Identification | |
CN104919794A (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
CN114667540A (en) | Article identification and tracking system | |
US10713530B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10515459B2 (en) | Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor | |
US20220391796A1 (en) | System and Method for Mapping Risks in a Warehouse Environment | |
WO2010101227A1 (en) | Device for creating information for positional estimation of matter, method for creating information for positional estimation of matter, and program | |
US20170076428A1 (en) | Information processing apparatus | |
US11776673B2 (en) | System and method for augmented reality detection of loose pharmacy items | |
CN111881849A (en) | Image scene detection method and device, electronic equipment and storage medium | |
CN111382637A (en) | Pedestrian detection tracking method, device, terminal equipment and medium | |
KR102597692B1 (en) | Method, apparatus, and computer program for measuring volume of objects by using image | |
CN111160450A (en) | Fruit and vegetable weighing method based on neural network, storage medium and device | |
CN117218633A (en) | Article detection method, device, equipment and storage medium | |
Morar et al. | Real time indoor 3d pipeline for an advanced sensory substitution device | |
US9158956B2 (en) | Reader, reading method and computer program product | |
JP2019066909A (en) | Object distribution estimation apparatus | |
WO2015136716A1 (en) | Image processing device, image sensor, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |