KR20230171859A - Object identification apparatus and 3d image generation method using the same - Google Patents
Object identification apparatus and 3d image generation method using the same Download PDFInfo
- Publication number
- KR20230171859A KR20230171859A KR1020230054344A KR20230054344A KR20230171859A KR 20230171859 A KR20230171859 A KR 20230171859A KR 1020230054344 A KR1020230054344 A KR 1020230054344A KR 20230054344 A KR20230054344 A KR 20230054344A KR 20230171859 A KR20230171859 A KR 20230171859A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- module
- processor
- identification device
- camera module
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000004891 communication Methods 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 8
- 239000003550 marker Substances 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000004806 packaging method and process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 241000173697 Euchloe naina Species 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 229910052782 aluminium Inorganic materials 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 2
- 235000014510 cooky Nutrition 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 2
- 229920002554 vinyl polymer Polymers 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/08—Payment architectures
- G06Q20/18—Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/0018—Constructional details, e.g. of drawer, printing means, input means
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/01—Details for indicating
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07G—REGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
- G07G1/00—Cash registers
- G07G1/12—Cash registers electronically operated
- G07G1/14—Systems including one or more distant stations co-operating with a central processing unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Accounting & Taxation (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Biophysics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Electromagnetism (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
본 발명은 사물 식별 장치에 관한 것으로, 지지대모듈을 통해 회전 또는 이동하며, 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 적어도 하나의 카메라모듈; 및 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 프로세서를 포함하는 것을 특징으로 한다.The present invention relates to an object identification device, comprising: at least one camera module that rotates or moves through a support module and photographs objects in the base module from various positions or angles; And the camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and uses the three-dimensional image of the object to generate a plurality of virtual 2D images of the object or to Characterized in that it includes a processor that identifies.
Description
본 발명은 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법에 관한 것으로, 보다 상세하게는 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 하는 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법에 관한 것이다.The present invention relates to an object identification device and a method for generating a three-dimensional image using the same. More specifically, an object identification device capable of generating a three-dimensional image using a rotating or moving camera in a system that captures and identifies objects, and the same. This relates to a method for generating three-dimensional images.
최근 다수의 사업장에서 무인 결제 창구가 설치되고 있으며, 또한 관리자가 없이 무인 결제 시스템만으로 운영되는 점포도 증가하고 있다.Recently, unmanned payment counters have been installed in many businesses, and the number of stores that operate only with unmanned payment systems without managers is also increasing.
이러한 무인 결제 시스템은, 기존에는 사용자가 바코드 리더기를 통해 사물(예 : 상품)의 바코드를 하나씩 인식시켜야 하는 방식이 주로 사용되었으나, 최근에는 물품 받침대 위에 놓여 있는 단일 또는 복수의 사물(예 : 상품)들을 촬영하여 한번에 인식(식별)하는 방식으로 전환되고 있다.These unmanned payment systems were mainly used in the past where users had to recognize the barcodes of objects (e.g. products) one by one through a barcode reader, but recently, single or multiple objects (e.g. products) placed on a product stand have been used. There is a shift to a method of recognizing (identifying) objects at once by photographing them.
그런데 무인 결제 시스템의 식별력이 낮아 물품 받침대에 놓여 있는 사물을 정확히 식별하지 못함으로써, 결제할 금액에 오류가 발생하여 점포나 사용자에게 손실을 발생시킬 수 있는 문제점이 있다.However, there is a problem in that the unmanned payment system's low identification power makes it unable to accurately identify objects placed on the product stand, which may cause errors in the amount to be paid, causing losses to the store or user.
따라서 이러한 문제점을 방지하기 위해서 사물의 식별력을 향상시킬 수 있도록 하는 기술이 필요한 상황이다.Therefore, in order to prevent these problems, there is a need for technology that can improve the identification of objects.
본 발명의 배경기술은 대한민국 공개특허 10-2023-0015618호(2023.01.31.)에 개시되어 있다. The background technology of the present invention is disclosed in Korean Patent Publication No. 10-2023-0015618 (January 31, 2023).
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 하는 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법을 제공하는 데 그 목적이 있다. The present invention is intended to solve the above problems, and provides an object identification device that allows a stereoscopic image to be generated using a rotating or moving camera in a system for photographing and identifying objects and a method for generating a stereoscopic image using the same. There is a purpose.
본 발명의 일 측면에 사물 식별 장치는, 지지대모듈을 통해 회전 또는 이동하며, 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 적어도 하나의 카메라모듈; 및 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하고, 상기 사물에 대한 복수의 가상의 2D 이미지를 이용하여 사물을 식별하기 위한 학습을 수행하는 프로세서를 포함하는 것을 특징으로 한다.In one aspect of the present invention, an object identification device includes: at least one camera module that rotates or moves through a support module and photographs objects in the base module from various positions or angles; And the camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and generates a plurality of virtual 2D images of the object using the three-dimensional image of the object, and the object It is characterized by including a processor that performs learning to identify objects using a plurality of virtual 2D images.
본 발명의 일 측면에 사물 식별 장치를 이용한 입체 영상 생성 방법은, 프로세서가 지지대모듈을 통해 회전 또는 이동하는 적어도 하나의 카메라모듈을 이용해 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 단계; 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 상기 프로세서가 사물의 입체 영상을 생성하는 단계; 상기 사물의 입체 영상을 이용하여, 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하는 단계; 및 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 이용하여 사물을 식별하기 위한 학습을 수행하는 단계를 포함하는 것을 특징으로 한다.In one aspect of the present invention, a method of generating a three-dimensional image using an object identification device includes the steps of: a processor photographing objects in a base module from various positions or angles using at least one camera module that rotates or moves through a support module; generating, by the processor, a three-dimensional image of the object based on images taken by the camera module from various positions or angles of the object; generating, by the processor, a plurality of virtual 2D images of the object using the stereoscopic image of the object; and a step of the processor performing learning to identify the object using a plurality of virtual 2D images of the object.
본 발명은 카메라를 회전시키거나 이동시킴으로써 하나의 카메라를 이용하더라도 사물을 다각도로 또는 입체적으로 촬영할 수 있도록 한다.The present invention allows objects to be photographed from multiple angles or in three dimensions even when using a single camera by rotating or moving the camera.
또한 본 발명은 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 한다.In addition, the present invention allows a three-dimensional image to be generated using a rotating or moving camera in a system that photographs and identifies objects.
도 1은 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 구성을 보인 예시도이다.
도 2는 본 발명의 일 실시예에 따른 사물 식별 장치의 학습모드 동작을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 사물 식별 장치의 식별모드 동작을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.
도 5는 도 4에 있어서, 카메라모듈의 회전 범위를 보인 예시도이다.
도 6은 도 4에 있어서, 복수의 지지대모듈을 이용한 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.
도 8은 도 7에 있어서, 복수의 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 형태를 보인 예시도이다.
도 10은 본 발명의 일 실시예에 따른 사물 식별 장치의 테스트 과정을 촬영한 사진을 보인 예시도이다.
도 11은 도 1에 있어서, 베이스모듈 및 바디나 프레임의 내측 측면에 형성되는 참조패턴을 보인 예시도이다.
도 12는 본 발명의 제1 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 13은 본 발명의 제2 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 14는 본 발명의 제3 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 15는 본 발명의 제4 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 16은 본 발명의 제5 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 17은 도 16에 있어서, 참조패턴 기반으로 동일한 사물에 대하여 360도 전 방향에서 촬영된 영상들 중 일부 영상을 보인 예시도이다.
도 18은 도 16에 있어서, 참조패턴 기반으로 동일한 사물을 촬영할 경우와 참조패턴을 이용하지 않고 동일한 사물을 촬영할 경우에 생성되는 입체 영상을 비교하기 위한 예시도이다.
도 19는 본 발명의 제6 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 20은 본 발명에서 스테레오 카메라 대신 회전 또는 이동하는 카메라모듈을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.
도 21은 도 20에 있어서, 구조광을 이용하여 촬영한 영상을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.
도 22는 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보를 측정할 때 정확도를 설명하기 위한 예시도이다.
도 23은 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보가 다른 다양한 사물을 촬영한 영상을 보인 예시도이다.
도 24는 도 23에 있어서, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보를 보인 예시도이다.
도 25는 기존에 회전형 턴테이블에 놓여 있는 사물을 고정식 카메라를 이용하여 촬영한 영상을 바탕으로 입체 영상을 생성하는 방법의 문제점을 설명하기 위하여 보인 예시도이다.
도 26은 본 발명의 일 실시예에 따라 카메라모듈을 다양한 각도와 방향으로 회전 또는 이동시키면서 촬영한 사물의 영상을 바탕으로 생성한 입체 영상을 보인 예시도이다.
도 27은 본 발명의 일 실시예에 따른 사물 식별 장치의 카메라모듈의 촬영 동작을 테스트하는 사진을 보인 예시도이다.
도 28은 본 발명의 일 실시예에 따른 사물 식별 장치를 학습시키는 방법을 설명하기 위한 예시도이다.
도 29는 본 발명의 일 실시예에 따라 카메라모듈이 지지대모듈을 따라 회전 또는 이동하며 촬영한 사물의 좌표 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.1 is an exemplary diagram showing the schematic configuration of an object identification device according to an embodiment of the present invention.
Figure 2 is a flowchart for explaining the learning mode operation of the object identification device according to an embodiment of the present invention.
Figure 3 is a flowchart for explaining the identification mode operation of the object identification device according to an embodiment of the present invention.
Figure 4 is an example diagram for explaining a method of rotating a camera module according to an embodiment of the present invention.
Figure 5 is an example diagram showing the rotation range of the camera module in Figure 4.
Figure 6 is an example diagram for explaining a method of rotating the camera module using a plurality of support modules in Figure 4.
Figure 7 is an example diagram for explaining a method of moving a camera module according to an embodiment of the present invention.
Figure 8 is an example diagram for explaining a method of moving a plurality of camera modules in Figure 7.
Figure 9 is an exemplary diagram showing the schematic form of an object identification device according to an embodiment of the present invention.
Figure 10 is an example diagram showing a photograph taken during a test process of an object identification device according to an embodiment of the present invention.
FIG. 11 is an example diagram showing a reference pattern formed on the base module and the inner side of the body or frame in FIG. 1.
Figure 12 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the first embodiment of the present invention.
Figure 13 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the second embodiment of the present invention.
Figure 14 is an example diagram for explaining a method of using a reference pattern for object recognition according to the third embodiment of the present invention.
Figure 15 is an example diagram for explaining a method of using a reference pattern for object recognition according to the fourth embodiment of the present invention.
Figure 16 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the fifth embodiment of the present invention.
Figure 17 is an example diagram showing some of the images taken in all directions of 360 degrees of the same object based on a reference pattern in Figure 16.
FIG. 18 is an example diagram for comparing three-dimensional images generated when photographing the same object based on a reference pattern and when photographing the same object without using a reference pattern in FIG. 16 .
Figure 19 is an example diagram for explaining a method of using a reference pattern for object recognition according to the sixth embodiment of the present invention.
Figure 20 is an example diagram to explain a method of generating a three-dimensional image using a rotating or moving camera module instead of a stereo camera in the present invention.
FIG. 21 is an example diagram for explaining the method of generating a three-dimensional image using an image captured using structured light in FIG. 20.
Figure 22 is an example diagram to explain accuracy when measuring depth information using a rotating or moving camera in the present invention.
Figure 23 is an example diagram showing images taken of various objects with different depth information using a rotating or moving camera in the present invention.
FIG. 24 is an example diagram showing 2D and depth information that can classify characteristics of each shape of an object in FIG. 23.
Figure 25 is an example diagram shown to explain the problems of the existing method of generating a three-dimensional image based on an image taken of an object placed on a rotating turntable using a fixed camera.
Figure 26 is an example diagram showing a three-dimensional image generated based on an image of an object captured while rotating or moving the camera module at various angles and directions according to an embodiment of the present invention.
Figure 27 is an example diagram showing a photograph testing the photographing operation of the camera module of the object identification device according to an embodiment of the present invention.
Figure 28 is an example diagram for explaining a method of training an object identification device according to an embodiment of the present invention.
Figure 29 is an example diagram to explain a method of improving the identification time and identification performance of an object by sharing coordinate information of the object captured while the camera module rotates or moves along the support module according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법의 실시예들에 대해 설명한다. Hereinafter, embodiments of an object identification device according to the present invention and a method for generating a three-dimensional image using the same will be described with reference to the attached drawings.
이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.
카메라를 이용하여 사물을 식별하는 사물 식별 장치는, 식별력을 향상시키기 위하여, 여러 방향에서 사물을 촬영하고 촬영한 영상을 학습시켜야 하는데, 조명이나 촬영 각도에 따라 사물을 정확히 식별하지 못하는 문제점이 발생할 수 있다. 따라서 이러한 문제점을 해결하기 위하여, 여러 각도에서 사물을 촬영할 수 있는 복수의 카메라를 고정 설치할 수 있으나, 이 경우에는 카메라의 수가 증가함으로써 사물 식별 장치의 제작 단가가 증가하게 되는 문제점이 발생할 수 있다. An object identification device that uses a camera to identify objects must photograph objects from various directions and learn from the captured images in order to improve identification, but problems may arise in which objects cannot be accurately identified depending on lighting or shooting angles. there is. Therefore, in order to solve this problem, a plurality of cameras capable of photographing objects from various angles can be fixedly installed. However, in this case, as the number of cameras increases, a problem may occur in which the manufacturing cost of the object identification device increases.
이에 따라 본 발명은 카메라를 회전시키거나 이동시킴으로써 하나의 카메라를 이용하더라도 사물을 다양한 각도에서 입체적으로 촬영할 수 있도록 함으로써, 사물 식별 장치의 제작 단가를 낮추면서 오히려 식별력을 향상시킬 수 있도록 한다.Accordingly, the present invention allows three-dimensional photography of objects from various angles even when using a single camera by rotating or moving the camera, thereby lowering the manufacturing cost of the object identification device and improving identification ability.
도 1은 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 구성을 보인 예시도이다.1 is an exemplary diagram showing the schematic configuration of an object identification device according to an embodiment of the present invention.
도 1에 도시된 본 실시예에 따른 사물 식별 장치는, 카메라모듈(120)과 프로세서(150)를 포함할 수 있다. 또 다르게는 도 1에 도시된 바와 같이 본 발명의 실시예에 따른 사물 식별 장치는 지지대모듈(110), 카메라모듈(120), 베이스모듈(130), 센서모듈(140), 프로세서(150), 통신모듈(160), 조명모듈(170), 및 데이터베이스(DB)를 포함할 수 있다.The object identification device according to this embodiment shown in FIG. 1 may include a
지지대모듈(110)은 사물 식별 장치의 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성되며, 카메라모듈(120)이 부착될 수 있다.The
지지대모듈(110)은 카메라모듈(120)의 회전 방향 또는 이동 방향에 대응하여 지정된 형태(예 : 원형, 사각형, 타원형, C형, ㄷ형 등)의 궤도로 형성되거나, 지정된 형태의 궤도가 부착될 수 있다.The
지지대모듈(110)에는 적어도 하나의 카메라모듈(120)이 부착될 수 있다.At least one
지지대모듈(110)은 카메라모듈(120)이 부착된 상태에서 지정된 속도에 따라 지정된 방향으로 회전되거나 이동될 수 있다.The
지지대모듈(110)은 전동식 모터(미도시)를 포함할 수 있다.The
지지대 모듈(110)은 베이스모듈(130)에 놓여 있는 사물을 다양한 높이에서 촬영하기 위하여 베이스모듈(130)을 기준으로 복수의 높이에 복수로 배치될 수 있다. 지지대 모듈(110)이 복수의 높이에 복수로 구성되는 경우, 그에 대응되게 각 지지대 모듈(110)에 카메라모듈(120)이 구비될 수 있다.A plurality of
카메라모듈(120)은 지지대모듈(110)에 고정 부착될 수 있으며, 지지대모듈(110)의 궤도를 따라 능동적으로 회전 또는 이동할 수 있다.The
카메라모듈(120)은, 전동식 모터(미도시)를 구비하여, 지지대모듈(110)의 궤도를 따라 능동적으로 회전 또는 이동할 수도 있다.The
카메라모듈(120)은, 지지대모듈(110)에 고정 부착되어, 지지대모듈(110)의 회전이나 이동에 따라 수동적으로 회전 또는 이동될 수도 있다.The
카메라모듈(120)은, 회전 또는 이동하며, 베이스모듈(130)에 놓여 있는 사물(예 : 상품, 물품 등)을 다양한 각도에서 연속하여 촬영할 수 있다.The
카메라모듈(120)은 베이스모듈(130)의 중심을 기준으로 내측 또는 외측으로 촬영 각도가 조정될 수 있다.The
카메라모듈(120)은 베이스모듈(130)에 놓여 있는 사물을 다양한 높이에서 촬영하기 위하여 베이스모듈(130)을 기준으로 복수의 높이에 복수로 배치될 수도 있다.The
카메라모듈(120)은 2차원 카메라, 깊이 카메라(Depth camera), 스테레오 카메라 등 3차원 카메라를 포함한다. 카메라모듈(120)은 이차원 영상 또는 깊이 정보를 포함한 3차원 영상 취득이 가능하며, 회전 또는 이동하여 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성할 수도 있다.The
본 예에서는 회전 또는 이동하는 하나 또는 둘 이상의 카메라모듈(120)에 대해 설명하고 있으나, 실시 환경이나 목적에 따라서는 상기 카메라모듈(120) 외에 고정형 카메라모듈(미도시)을 더 구비할 수도 있고, 이들에 의해 취득된 영상으로부터 프로세스(150)가 사물을 식별한다.In this example, one or two or
베이스모듈(130)은 물품 받침대의 기능을 수행한다.The
베이스모듈(130)은 카메라모듈(120)의 위치 및 포즈 혹은 상기 사물의 놓인 위치, 크기 및 특징을 추출하여 사물 인식 성능을 높이는 미리 지정된 참조패턴(도 11 참조)을 베이스모듈(130)의 적어도 일 측면에 구비할 수 있다. 이러한 참조패턴은 보다 더 강인한 사물 인식 성능을 도출할 수 있게 한다. 또한, 참조패턴이 형성되는 표면, 즉 베이스모듈(130) 표면 또는 적어도 일측면부의 표면은 무광 처리되게 형성하는 것이 바람직하며, 참조패턴 이외의 배경은 다양한 칼라나 질감이 가능하겠으나 본 발명의 실시예들에서는 미리 지정된 텍스처(texture)(예: 대리석 등)를 형성하는 것이 바람직하다. 이것은 조명으로부터의 영향을 최소화하고 사물들에 의한 참조패턴 가림이나 사물을 담은 트레이를 베이스모듈(130) 위에 올려 놓을 때 참조패턴 가려짐에 의한 영향을 최소화한다.The
베이스모듈(130)은 전동식 모터(미도시)에 의해 지정된 방향으로 지정된 속도에 따라 회전될 수 있으며, 또한 지정된 세기로 진동될 수도 있다.The
센서모듈(140)은 엔코더와 포지션 센서를 포함할 수 있으며, 프로세서(150)가 센서모듈(140)로부터의 센싱 정보(예: 위치, 각도 등)를 바탕으로 카메라모듈(120)의 촬영 각도나 회전 위치나 이동 위치를 정확하게 감지하고 제어할 수 있도록 한다.The
프로세서(150)는 회전 또는 이동하는 카메라모듈(120)이 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 연속 촬영한 영상을 바탕으로 각 사물을 식별한다. 또한, 프로세서(150)는 이차원 영상, 깊이 영상(예: 카메라 시점에서 사물간의 거리값을 지닌 데이터) 및/또는 입체 영상(예: x축, y축, z축 세 가지 3차원 위치 정보를 담고 있는 영상 데이터) 등을 생성할 수 있고, 이렇게 생성된 영상에 대해 전처리 및 후처리를 통해 사물을 식별해낸다. 또한, 카메라모듈(120)이 이차원 영상 또는 깊이 정보를 포함한 3차원 영상 취득이 가능하므로, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 프로세서(150)는 깊이 영상 또는 입체 영상을 생성하여 이를 이용해 사물을 식별할 수도 있다.The
프로세서(150)는 베이스모듈(130)에 놓여 있는 사물을 식별함에 있어 미리 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)된 결과를 이용하여 사물 식별을 수행한다. 또는 프로세서(150)는 베이스모듈(130)에 놓여지는 사물의 위치와 형상과 형태 및 사물의 상태 조건(예: 조명모듈의 발광 세기, 외부 빛의 영향 등) 등을 바꿔가며 실험한 결과를 토대로 패턴매칭, 기계학습 또는 딥러닝학습을 수행하여 그 결과를 데이터베이스(DB)에 저장시킨다.When identifying an object placed on the
프로세서(150)는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상, 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상으로부터 생성한 깊이 영상이나 입체 영상을 이용하여, 사물을 식별하기 위한 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행한다.The
이 때, 상기와 같은 패턴매칭, 기계학습 또는 딥러닝학습은 프로세서(150)에 의해 사물 식별 장치 내에서 수행될 수도 있지만, 실시 환경이나 실시 의도에 따라 상기 사물 식별 장치와 통신모듈(160)을 통해 유선/무선으로 연결되는 서버나 미리 지정된 클라우드(미도시)에서 수행되고 그 학습 결과가 다시 전송되어 데이터베이스(DB)에 저장되며, 프로세서(150)에 의해 사물 식별 시에 이용된다.At this time, the above pattern matching, machine learning, or deep learning may be performed within the object identification device by the
프로세서(150)는 베이스모듈(130)에 놓여 있는 사물의 학습을 위한 학습모드, 및 베이스모듈(130)에 놓여 있는 사물의 식별을 위한 식별모드를 포함한다.The
프로세서(150)는 학습모드 및 식별모드 수행 시, 지지대모듈(110), 카메라모듈(120), 및 베이스모듈(130)에 포함된 전동식 모터(미도시)를 제어한다.The
프로세서(150)는 학습모드 및 식별모드 수행 시, 카메라모듈(120)을 통해 촬영된 영상 및 센서모듈(140)을 통해 검출된 카메라모듈(120)의 위치(즉, 회전/이동 위치) 및/또는 각도 정보를 대응시켜 데이터베이스(DB)에 저장한다.When performing the learning mode and identification mode, the
데이터베이스(DB)는 카메라모듈(120)을 통해 촬영된 영상(예: 이차원 영상, 깊이 영상, 입체 영상)과 센서모듈(140)을 통해 검출된 위치 정보 및/또는 각도 정보를 대응시켜 저장한다. 데이터베이스(DB)에는 학습모드 및 식별모드를 수행하기 위한 프로그램, 학습 관련 정보, 학습 결과, 사물의 특성 정보(예 : 길이, 부피, 높이, 색상 등), 및 사물의 가격 정보 중 적어도 하나 이상이 저장된다.The database DB stores images captured through the camera module 120 (e.g., two-dimensional images, depth images, and stereoscopic images) in correspondence with location information and/or angle information detected through the
통신모듈(160)은 학습모드 및 식별모드 수행과 관련된 정보를 입력하거나 출력하기 위한 적어도 하나 이상의 외부 장치(예 : 디스플레이모듈, 사용자단말기, 서버 등)와 유선 또는 무선 방식으로 통신을 연결한다.The
예컨대 디스플레이모듈은 학습모드에서 학습을 수행하기 위한 안내메시지를 출력할 수 있으며, 또한 디스플레이모듈은 식별모드에서 식별한 사물의 이름과 가격 정보를 출력할 수 있다. 사용자단말기는 식별모드에서 식별한 사물의 이름과 가격 정보 및 결제 정보를 출력할 수 있다. 서버는 어느 하나의 사물 식별 장치에서 학습한 정보를 다른 사물 식별 장치와 공유할 수 있도록 한다. 가령, 제1 사물 식별 장치에서 제1 사물에 대하여 학습한 학습 정보를, 제2 사물 식별 장치에 전달하여 상호간에 동일한 사물에 대한 학습 정보를 공유할 수 있도록 한다. 또한 서버는 사물 식별 장치에 대한 운영 프로그램이나 데이터를 업데이트할 수 있도록 한다.For example, the display module can output a guidance message for performing learning in the learning mode, and the display module can also output the name and price information of the identified object in the identification mode. The user terminal can output the name, price information, and payment information of the identified object in identification mode. The server allows information learned from one object identification device to be shared with other object identification devices. For example, the learning information learned about the first object from the first object identification device is transmitted to the second object identification device so that learning information about the same object can be shared with each other. Additionally, the server allows updating operating programs or data for the object identification device.
이 때, 또 다른 실시예에서는 상기 디스플레이모듈이 사물 식별 장치에 일체로 결합되어 형성될 수도 있다.At this time, in another embodiment, the display module may be formed by being integrally combined with the object identification device.
조명모듈(170)은 바디(또는 프레임)의 내부 일 측면에 부착되어 조명한다. 본 발명의 실시예들에서는 조명모듈(170)이 베이스모듈(130)에 대향되는 상부측의 소정 위치(예: 상부 중앙, 상부측 테두리 등)에 형성된다.The
조명모듈(170)은 적어도 하나 이상의 색상으로 조명할 수 있으며, 조명 시 밝기가 조정될 수도 있다. The
이 때 조명에 대한 색상이나 밝기의 조정은, 사물의 선명한 촬영(즉, 식별력 향상)을 위한 것으로서, 가령, 사물의 포장지의 재질(예 : 비닐, 종이, 알루미늄 등), 및 포장지에 인쇄된 정보(예 : 사물의 상표, 도안, 바코드, 홀로그램 등)의 종류에 따라, 선명한 촬영을 위하여 조명에 대한 색상이나 밝기가 조정될 수 있다.At this time, adjusting the color or brightness of the lighting is for clear photography of the object (i.e., improving identification), for example, the material of the object's packaging (e.g. vinyl, paper, aluminum, etc.) and the information printed on the packaging. Depending on the type of object (e.g. trademark, design, barcode, hologram, etc.), the color or brightness of the lighting can be adjusted for clear photography.
조명모듈(170)은 가시광 엘이디(LED)를 포함할 수 있으며, 조명 특성(예 : 할로겐, 적외선, 자외선 등)이 다른 복수의 조명 소자가 추가로 포함될 수도 있다.The
이 때 조명 소자의 선택은, 사물의 선명한 촬영(즉, 식별력 향상)을 위한 것으로서, 가령, 사물의 포장지의 재질(예 : 비닐, 종이, 알루미늄 등), 및 포장지에 인쇄된 정보(예 : 사물의 상표, 도안, 바코드, 홀로그램 등)의 종류에 따라, 선명한 촬영을 위하여 조명 소자가 선택될 수 있다.At this time, the selection of the lighting element is for clear photography of the object (i.e., improved identification), for example, the material of the object's packaging (e.g. vinyl, paper, aluminum, etc.) and the information printed on the packaging (e.g. the object) Depending on the type (brand, design, barcode, hologram, etc.), a lighting device may be selected for clear photography.
도 2는 본 발명의 일 실시예에 따른 사물 식별 장치의 학습모드 동작을 설명하기 위한 흐름도이다.Figure 2 is a flowchart for explaining the learning mode operation of the object identification device according to an embodiment of the present invention.
도 2를 참조하면, 사물 식별 장치의 현재 모드가 학습모드이고(S101의 예), 베이스모듈(130) 위에 사물이 탑재되어 있을 경우(S102의 예), 프로세서(150)는 카메라모듈(120)을 지정된 속도에 따라 지정된 방향으로 회전시키거나 이동시키며, 베이스모듈(130)에 놓여 있는 사물을 촬영한다(S103).Referring to FIG. 2, when the current mode of the object identification device is the learning mode (example of S101) and an object is mounted on the base module 130 (example of S102), the
이 때 프로세서(150)는, 전동식 모터(미도시)를 제어하여, 지지대모듈(110)의 형태(예 : 궤도 형태)에 따라 카메라모듈(120)을 능동적으로 회전 또는 이동시킬 수 있으며, 또는 지지대모듈(110)에 카메라모듈(120)을 고정 부착시켜, 지지대모듈(110)의 회전이나 이동에 따라 카메라모듈(120)을 수동적으로 회전 또는 이동될 수도 있다(도 4 내지 도 8 참조).At this time, the
이에 따라 프로세서(150)는 카메라모듈(120)이 회전이나 이동(즉, 능동적/수동적인 회전이나 이동)을 수행하면서 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상(즉, 이차원 영상), 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상들로부터 생성한 깊이 영상 및/또는 입체 영상을 이용하여, 사물을 식별(또는 인식)하는 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행하고(S104), 학습 정보(즉, 사물의 식별 또는 인식 정보) 및 이에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)에 저장한다(S105). 또한, 카메라모듈(120)이 이차원 영상뿐만 아니라 깊이 정보를 포함한 3차원 영상 취득이 가능한 경우, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성하며 프로세서(150)가 상기 깊이 영상 또는 입체 영상을 이용하여 사물을 식별하는 학습을 수행할 수도 있다. 또 다르게는, 상기 학습이 서버나 클라우드(미도시)에서 수행되게 할 수도 있으므로, 이 경우엔 프로세서(150)가 상기 영상(이차원 영상), 또는 상기 생성한 깊이 영상 및/또는 입체 영상을 외부의 서버나 클라우드(미도시)에 전송시킨다.Accordingly, the
또한 도면으로 도시되지는 않았으나, 프로세서(150)는 디스플레이모듈을 통해 학습모드에서 학습을 수행하기 위한 안내메시지를 출력할 수 있다.Additionally, although not shown in the drawing, the
도 3은 본 발명의 일 실시예에 따른 사물 식별 장치의 식별모드 동작을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining the identification mode operation of the object identification device according to an embodiment of the present invention.
도 3을 참조하면, 사물 식별 장치의 현재 모드가 식별모드이고(S201의 예), 베이스모듈(130) 위에 사물이 탑재되어 있을 경우(S202의 예), 프로세서(150)는 카메라모듈(120)을 지정된 속도에 따라 지정된 방향으로 회전시키거나 이동시키며, 베이스모듈(130)에 놓여 있는 사물을 촬영한다(S203).Referring to FIG. 3, when the current mode of the object identification device is the identification mode (example of S201) and an object is mounted on the base module 130 (example of S202), the
이 때 프로세서(150)는, 학습모드인 경우와 마찬가지로, 전동식 모터(미도시)를 제어하여, 지지대모듈(110)의 형태(예 : 궤도 형태)에 따라 카메라모듈(120)을 능동적으로 회전 또는 이동시킬 수 있으며, 또는 지지대모듈(110)에 카메라모듈(120)이 고정 부착된 경우, 지지대모듈(110)의 회전이나 이동에 따라 카메라모듈(120)을 수동적으로 회전 또는 이동시킬 수도 있다(도 4 내지 도 8 참조).At this time, as in the learning mode, the
이에 따라 프로세서(150)는 카메라모듈(120)이 회전이나 이동(즉, 능동적/수동적인 회전이나 이동)을 수행하면서 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상(즉, 2차원 영상), 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상들로부터 생성한 깊이 영상 및/또는 입체 영상을 이용하여, 사물을 식별(또는 인식)하고(S204), 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)로부터 로딩한다(S205). 또한, 카메라모듈(120)이 이차원 영상뿐만 아니라 깊이 정보를 포함한 3차원 영상 취득이 가능한 경우, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성하고 프로세서(150)가 상기 깊이 영상 또는 입체 영상을 이용하여 사물을 식별(또는 인식)할 수도 있고(S204), 이렇게 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)로부터 로딩시킬 수 있다(S205).Accordingly, the
또한 도면으로 도시되지는 않았으나, 프로세서(150)는 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 합산한 결제 정보를, 디스플레이모듈이나 사용자 단말에 출력(즉, 전송이나 표시)할 수 있다.In addition, although not shown in the drawing, the
이하 도 4 내지 도 8을 참조하여, 카메라모듈(120)의 회전 또는 이동 방법에 대해서 설명한다.Hereinafter, a method of rotating or moving the
도 4는 본 발명의 일 실시예에 따른 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.Figure 4 is an example diagram for explaining a method of rotating a camera module according to an embodiment of the present invention.
도 4에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성되며, 이에 카메라모듈(120)이 부착된다.As shown in FIG. 4, the
예컨대 도 4의 (a)와 (b)에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 상측에 수평하게 형성될 수 있으며, 구체적으로 (a)에 도시된 바와 같이 하나의 지지대모듈(110)에 하나의 카메라모듈(120)이 부착되거나, (b)에 도시된 바와 같이 하나의 지지대모듈(110)에 복수의 카메라모듈(120)이 부착될 수 있다. For example, as shown in (a) and (b) of Figures 4, the
또한 도 4의 (c)와 (d)에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성될 수 있으며, (c)에 도시된 바와 같이 하나의 지지대모듈(110)이 지정된 각도로 형성되거나, (d)에 도시된 바와 같이 복수의 지지대모듈(110)이 각각 지정된 각도로 형성될 수 있다.Additionally, as shown in (c) and (d) of Figures 4, the
도 5는 도 4에 있어서, 카메라모듈의 회전 범위를 보인 예시도이다. Figure 5 is an example diagram showing the rotation range of the camera module in Figure 4.
도 5의 (a)에 도시된 바와 같이 카메라모듈(120)은 360도 회전하며 베이스모듈(130) 위에 놓여 있는 사물을 360도 전방향에서 촬영할 수 있다. As shown in (a) of FIG. 5, the
또는 도 5의 (b)에 도시된 바와 같이 카메라모듈(120)은 지정된 각도 범위(예 : 180도, 270도 등) 내에서 회전하며 베이스모듈(130) 위에 놓여 있는 사물을 지정된 각도 범위(예 : 180도, 270도 등)에서 촬영할 수도 있다.Alternatively, as shown in (b) of FIG. 5, the
도 6은 도 4에 있어서, 복수의 지지대모듈을 이용한 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.Figure 6 is an example diagram for explaining a method of rotating the camera module using a plurality of support modules in Figure 4.
도 6을 참조하면, 사물 식별 장치의 바디(또는 프레임) 내부의 각기 다른 높이(예 : 상측, 하측)에 복수의 지지대모듈(110)이 형성되되, (a)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110)이 모두 카메라모듈(120)을 360도 회전시킬 수 있는 형태로 형성될 수 있으며, 또는 (b)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110) 중 어느 하나는 카메라모듈(120)을 360도 회전시킬 수 있는 형태로 형성되고, 다른 하나는 카메라모듈(120)을 지정된 각도 범위(예 : 270도) 내에서 회전시킬 수 있는 호 형태로 형성되며, 또는 (c)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110)이 모두 카메라모듈(120)을 지정된 각도 범위(예 : 270도) 내에서 회전시킬 수 있는 호 형태로 형성될 수 있다.Referring to FIG. 6, a plurality of
도 7은 본 발명의 일 실시예에 따른 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.Figure 7 is an example diagram for explaining a method of moving a camera module according to an embodiment of the present invention.
도 7의 (a)에 도시된 바와 같이 카메라모듈(120)은 바디(또는 프레임)의 내부 모서리에 형성된 지지대모듈(110)을 따라, 모서리 부분에서 수평 방향(또는 X,Y 방향)으로 이동하거나 모서리 부분에서 수직 방향(또는 Z 방향)으로 이동할 수 있으며, (b)와 (c)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면(예 : 상측)에 대하여 수평하게 형성된 지지대모듈(110)을 따라, X축 방향 또는 Y축 방향으로 이동할 수 있으며, (d)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면의 일 지점에서 타 측면의 일 지점으로 지정된 각도의 호(arc) 형태로 형성된 지지대모듈(110)을 따라, 지정된 각도 범위(예 : 270도) 내에서 이동할 수 있으며, (e)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면의 일 지점에서 타 측면의 일 지점으로 직선 형태(또는 기울기가 있는 직선 형태)로 형성된 지지대모듈(110)을 따라 직진 방향(또는 대각 방향)으로 이동할 수도 있다.As shown in (a) of FIG. 7, the
도 8은 도 7에 있어서, 복수의 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.Figure 8 is an example diagram for explaining a method of moving a plurality of camera modules in Figure 7.
도 8의 (a)에 도시된 바와 같이 복수의 카메라모듈(120)이 바디(또는 프레임)의 내부 일 측면에 대하여 수평하게 형성된 지지대모듈(110)을 따라 X축 방향으로 수평하게 이동할 수 있으며, (b)에 도시된 바와 같이 복수의 카메라모듈(120)이 바디(또는 프레임)의 내부 일 측면에 대하여 수평하게 형성된 지지대모듈(110)을 따라 Y축 방향으로 수평하게 이동할 수도 있다.As shown in (a) of FIG. 8, a plurality of
본 실시예는 하나의 카메라모듈(120)만으로도 사물의 입체적 촬영이 가능하지만, 복수의 카메라모듈(120)을 이용함으로써 이미지 취득 및 인식 시간을 최소화 할 수 있는 효과가 있으며, 복수의 카메라모듈(120)을 설치할 경우 각 카메라모듈(120)의 화각을 다르게 구성하여 사물 인식(식별)률을 향상시킬 수 있다.In this embodiment, three-dimensional photography of objects is possible with only one
도 9는 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 형태를 보인 예시도로서, (a)에 도시된 바와 같이 사물 식별 장치는 전면측이 개방되어 사물을 베이스모듈(130)에 올려놓고 쉽게 회수할 수 있는 형태로 형성될 수 있다. 또한, (b)와 (c)에 도시된 바와 같이 사물 식별 장치는 전면측과 좌우측면부가 완전 개방되어 보다 더 쉽게 사물을 베이스모듈(130)에 올려놓거나 회수할 수 있는 형태로 형성될 수 있다. 그리고, (c)에서와 같이 상부측은 원형으로 형성될 수도 있고, 후방측은 전면에서 볼 때 베이스모듈(130)의 폭보다 더 좁게 형성할 수도 있는 등, 본 발명에 따른 사물 식별 장치는 다양한 형태로 디자인될 수 있음은 당연하며, 예시된 예들에 국한되지 않는다.Figure 9 is an exemplary diagram showing the schematic form of an object identification device according to an embodiment of the present invention. As shown in (a), the object identification device has an open front side and places an object on the
도면에는 구체적으로 도시되어 있지 않지만, 프로세서(150)는 카메라모듈(120)이나 센서모듈(140) 또는 또다른 카메라모듈을 통해 베이스모듈(130) 상의 스캔(촬영) 영역 내의 사물을 식별할 수 있고 사용자의 행위(예 : 사물을 올려놓거나 꺼내는 행위, 결제를 위해 사물 식별 장치에 접근하는 행위, 베이스모듈에 사물을 올려놓은 후 결제를 기다리는 행위, 결제가 완료되어 사물 식별 장치로부터 멀어지는 행위 등)에 따른 변화를 실시간 감지할 수 있다.Although not specifically shown in the drawing, the
또한 본 실시예에 따른 사물 식별 장치는 결제 시스템(예 : POS 시스템)과 결합되어, 사물 식별(인식) 정보를 바탕으로 곧바로 결제를 수행할 수 있도록 한다.Additionally, the object identification device according to this embodiment is combined with a payment system (e.g., POS system), allowing immediate payment based on object identification (recognition) information.
도 10은 본 발명의 일 실시예에 따른 사물 식별 장치의 테스트 과정을 촬영한 사진을 보인 예시도로서, 사물 식별 장치의 바디(프레임)를 개방한 상태에서, (a)는 전면에서 촬영된 사진이고, (b)는 측면에서 촬영된 사진이며, (c)는 바디(프레임) 내부의 상측이 촬영된 사진이다.Figure 10 is an exemplary diagram showing a photograph taken during a test process of an object identification device according to an embodiment of the present invention. In a state in which the body (frame) of the object identification device is opened, (a) is a photograph taken from the front. , (b) is a photo taken from the side, and (c) is a photo taken from the top inside the body (frame).
도 11은 도 1에 있어서, 베이스모듈, 및 바디나 프레임의 내측 측면에 형성되는 참조패턴을 보인 예시도이다.FIG. 11 is an example diagram showing a reference pattern formed on the base module and the inner side of the body or frame in FIG. 1.
본 실시예에서 참조패턴은, 카메라모듈(120)의 위치 및 포즈를 추출하여 캘리브레이션 할 수 있도록 하는 목적, 상기 베이스모듈(130)에 놓인 사물의 위치, 크기 및 특징을 추출하여 사물 인식 성능을 향상시킬 수 있도록 하는 목적, 및 해당 패턴을 활용해서 다양한 조명환경에서도 균일한 조명을 구성할 수 있도록 활용하는데 그 목적이 있다. 이러한 참조패턴은, 사물 인식 성능을 보다 더 향상시킬 수 있도록 한다.In this embodiment, the reference pattern has the purpose of extracting and calibrating the position and pose of the
참조패턴은 사용자가 항상 인식할 수 있도록 표시되는 잉크를 이용해 형성될 수 있으며, 또는 특정한 조명 상태에서만 표시됨으로써 사용자가 인식할 수 있도록 하는 잉크를 이용해 형성될 수 있으며, 또는 평상시에는 표시되지 않고 특정한 조명 상태에서 카메라모듈(120)만 인식할 수 있도록 표시되는 잉크를 이용해 형성될 수도 있다.The reference pattern may be formed using ink that is displayed so that the user can always recognize it, or it may be formed using ink that is displayed so that the user can recognize it by displaying it only under certain lighting conditions, or it may be formed using ink that is not displayed normally and is displayed under specific lighting conditions. It may be formed using ink that is displayed so that only the
예컨대 참조패턴은, 도 11의 (a)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역의 적어도 일 측에는 눈금자가 형성되고, 제1 영역에는 검정색과 흰색의 사각형이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (b)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하여 제2 영역에는 검정색과 흰색 사각형이 순차로 반복되는 라인 형태로 형성되고 제1 영역에는 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 원형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (c)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역에는 제1 영역의 중심 방향으로 향하는 직선들(즉, 눈금자 역할을 수행하는 직선들)이 제1 영역의 경계선까지 지정된 간격으로 배열되며 제1 영역에는 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 원형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (d)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역에는 문자나 숫자가 라인 형태로 배열되고 제1 영역에는 배경색(예 : 대리석 텍스처)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 사각형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (e)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 사각형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (f)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 검정색과 흰색의 사각형이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 및 도 11의 (g)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 외측 경계선에서부터 중심 방향으로 향하는 길이가 다른 직선들이 번갈아가며 지정된 간격으로 형성된 패턴, 중 적어도 한 가지 형태의 패턴을 포함한다. For example, the reference pattern divides the upper surface of the
또한 상기 패턴은 도 11의 (h)와 같이 바디(또는 프레임)의 내측 측면에 형성될 수 있다. 물론, 다양한 형태의 패턴이 상기 내측 일 측면에 형성될 수 있다.Additionally, the pattern may be formed on the inner side of the body (or frame) as shown in (h) of FIG. 11. Of course, various types of patterns may be formed on one inner side.
또한, 상기 패턴은 도 11의 (i)와 같이 바디(또는 프레임)의 내측 일 측면과 베이스모듈(130) 표면상에 형성될 수 있다. 본 예(i)의 경우, 바디(또는 프레임)의 내측 일 측면에 본 사물 식별 장치의 사용법에 대한 문구가 베이스모듈(130) 면으로부터 소정 높이(b)부터 복수의 행으로 소정 행간격(a)을 유지하게 형성되어 있고, 베이스모듈(130) 면상에는 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)이 굵은 선으로 구분되어 있고 제 2 영역에 소정의 문구가 형성되어 있는데, 바로 이 문구들을 참조패턴으로 이용하도록 하고 있다. 이 경우에, 측면부와 베이스모듈(130)의 테두리부에 형성된 문구들 중 적어도 하나를 참조패턴으로 이용할 수 있으므로, 사물들에 의해 참조패턴이 가려지기 어려운 위치 영역에 형성되어 사물 인식의 기준, 카메라모듈의 캘리브레이션, 조명 밝기 대응 등의 처리가 용이해진다.Additionally, the pattern may be formed on one inner side of the body (or frame) and the surface of the
이 때 상술한 여러 참조패턴의 예시들에서, 제1 영역과 제2 영역은, 지정된 색상(예 : 흰색, 검정색 등)과 굵기의 경계선이 지정된 형태(예 : 원형, 사각형 등)로 형성됨으로써 각 영역이 구분되도록 하고 있다. 하지만, 이들에 국한될 필요는 없다. 즉, 제1 영역과 제2 영역의 횐색 또는 검정색 또는 형태는 실시 환경이나 목적에 따라 조명과 사물 인식의 설정 기준에 따라 달라질 수 있다. 예컨대, 배경색은 흰색이 아니라 회색일 수도 있고 텍스처(texure) 배경일 수도 있으며 패턴의 색상이 검정이 아니라 약검정색일 수 있는 것이다.At this time, in the various examples of reference patterns described above, the first area and the second area are each formed by a border of a designated color (eg, white, black, etc.) and thickness, and is formed in a designated shape (eg, circular, square, etc.). The areas are separated. However, there is no need to be limited to these. That is, the white or black color or shape of the first and second areas may vary depending on the implementation environment or purpose and the setting standards for lighting and object recognition. For example, the background color may be gray rather than white, or it may be a texture background, and the color of the pattern may be light black rather than black.
또한 제1 영역과 제2 영역의 폭과 위치는 조정될 수 있으며, 제1 영역과 제2 영역에 각각 도시되는 정보(예 : 문자, 숫자, 라인, 도형, 이미지, 캐릭터 등)를 한정하는 것은 아니다.Additionally, the width and position of the first area and the second area can be adjusted, and do not limit the information (e.g. letters, numbers, lines, shapes, images, characters, etc.) shown in the first area and the second area, respectively. .
이에 따라 프로세서(150)는 참조패턴의 정보를 활용하여 촬영 영상으로부터 사물의 사이즈를 측정할 수 있으며, 참조패턴을 통해 사물과 배경을 구분하는 성능을 향상시킬 수 있으며, 참조패턴을 통해 센서(예 : Encoder)를 대체할 수 있으며, 참조패턴을 통해 복수의 뷰(View)에서 취득한 영상을 기반으로 3D 모델링 시 정확도를 향상시킬 수 있으며, 또한 참조패턴을 통해 조명 밝기를 균일화 시킬 수 있고, 카메라모듈(120)의 기하학적 캘리브레이션(Geometric Calibration)에 이용할 수 있다.Accordingly, the
도 12는 본 발명의 제1 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 12 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the first embodiment of the present invention.
도 12의 (a)와 (b)에 도시된 바와 같이, 프로세서(150)는 베이스모듈(130)에 형성된 참조패턴의 각 격자무늬의 사이즈 정보(즉, a′×a″) 및/또는 테두리 영역의 눈금자 및/또는 사물에 의해 가려진 격자무늬의 개수를 바탕으로, 사물의 X*Y축 사이즈(예 : 넓이)를 측정하거나 추정할 수 있다.As shown in (a) and (b) of FIG. 12, the
도 12의 (c)와 (d)에 도시된 바와 같이, 프로세서(150)는 바디(또는 프레임)의 내측 측면에 형성된 참조패턴의 각 격자무늬의 사이즈 정보(즉, a′×a″) 및/또는 테두리 영역의 눈금자 및/또는 사물에 의해 가려진 격자무늬의 개수()를 바탕으로, 사물의 Z축 사이즈(예 : 높이)를 측정하거나 추정할 수 있다.As shown in (c) and (d) of FIGS. 12, the
도 13은 본 발명의 제2 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 13 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the second embodiment of the present invention.
도 13을 참조하면, 프로세서(150)는 베이스모듈(130)에 형성된 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)를 바탕으로, (a)와 같이 사물이 놓여 있지 않은 참조패턴 정보에서 (b)와 같이 사물이 놓여 있는 참조패턴 정보의 차 영상을 추출함으로써, (c)와 같이 베이스모듈(130)에 놓여 있는 사물의 위치를 측정하거나 추정할 수 있다.Referring to FIG. 13, the
도 14는 본 발명의 제3 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 14 is an example diagram for explaining a method of using a reference pattern for object recognition according to the third embodiment of the present invention.
본 실시예에서 카메라모듈(120)은 회전하며 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한다. 따라서 카메라모듈(120)이 회전할 때의 회전 각도를 정확히 검출하기 위한 센서(예 : 인코더 센서)를 구비할 수 있다. 그러나 센서를 포함할 경우에는 그에 따른 비용의 증가 및 센서의 고장을 감지하기 위한 알고리즘이 필요하게 되는 단점이 있다.In this embodiment, the
따라서 본 발명에 따른 실시예는 별도의 센서(예 : 인코더 센서)를 추가하지 않더라도, 도 14에 도시된 바와 같은 참조패턴을 이용하여 카메라모듈(120)의 회전 각도를 검출하는 데 활용할 수 있다.Therefore, the embodiment according to the present invention can be used to detect the rotation angle of the
프로세서(150)는 베이스모듈(130)에 형성된 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)를 바탕으로, 가령, 카메라모듈(120)과 제2 영역에 형성된 라인(즉, 눈금자 정보에 해당하는 라인)이 일 직선이 될 때의 각도를 카메라모듈(120)의 회전 각도로 측정하거나 추정할 수 있다. The
도 15는 본 발명의 제4 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 15 is an example diagram for explaining a method of using a reference pattern for object recognition according to the fourth embodiment of the present invention.
일반적으로 카메라모듈(120)은 주변의 조명 환경 변화로 인하여 사물 인식 성능이 저하될 수 있다. In general, object recognition performance of the
따라서 본 발명은 균일한 조명 밝기를 제공하기 위하여, 주변의 조명 환경 변화에 대응하여 실시간으로 조명 밝기를 보정함으로써, 조도 센서를 이용하지 않더라도, 카메라모듈(120)을 통해 촬영된 영상을 바탕으로, 프로세서(150)가 사물 인식 장치의 조명 밝기를 실시간으로 측정하여 보정할 수 있도록 한다.Therefore, in order to provide uniform lighting brightness, the present invention corrects the lighting brightness in real time in response to changes in the surrounding lighting environment, based on the image captured through the
예컨대 도 15의 (a)와 같이, 기준 조명 밝기 상태에서 참조패턴을 촬영하여 기준 밝기 정보로서 미리 저장한 상태에서, 프로세서(150)는, (b)와 같이 참조패턴 촬영 영상에서 참조패턴 전체의 밝기를 실시간으로 측정하는 과정, (c)와 같이 참조패턴 촬영 영상에서 참조패턴의 제1 격자(예 : 흰색 격자)들의 밝기를 실시간으로 측정하는 과정, (d)와 같이 참조패턴 촬영 영상에서 참조패턴의 제2 격자(예 : 검정색 격자)들의 밝기를 실시간으로 측정하는 과정, 제1 격자(예 : 흰색 격자)들의 밝기와 제2 격자(예 : 검정색 격자)들의 밝기가 미리 저장된 기준 밝기와 같아지도록 조명모듈(170)의 조명 밝기를 조절하는 과정, 및 참조패턴 전체의 밝기가 미리 저장된 기준 밝기와 같은지 체크하는 과정을 반복해서 수행함으로써 균일한 조명 밝기를 제공할 수 있도록 한다.For example, as shown in (a) of FIG. 15, when a reference pattern is photographed in a standard illumination brightness state and stored in advance as reference brightness information, the
도 16은 본 발명의 제5 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 16 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the fifth embodiment of the present invention.
도 11을 참조하여 설명한 바와 같이, 본 실시예에 따른 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)는, 제1 영역 및 제2 영역에 형성된 정보를 조합하여 참조패턴의 사 면을 구분할 수 있도록 하며, 참조패턴 내에서 일정한 사이즈의 격자가 반복되기 때문에 X축과 Y축의 거리(또는 길이) 측정을 통해 좌표를 특정할 수 있다.As described with reference to FIG. 11, reference pattern information (e.g., grid pattern information and coordinate information formed in the first area and ruler information formed in the second area) according to the present embodiment is stored in the first area and the second area. By combining the formed information, the four sides of the reference pattern can be distinguished, and since grids of a certain size are repeated within the reference pattern, the coordinates can be specified by measuring the distance (or length) of the X and Y axes.
따라서 복수의 카메라모듈(120)을 이용해 각기 다른 위치에서 참조패턴을 촬영하더라도 동일하게 좌표를 특정할 수 있다.Therefore, even if the reference pattern is photographed at different positions using a plurality of
가령, 다른 위치에 있는 복수의 카메라모듈(120)이 참조패턴 상에 놓여 있는 사물을 각각 촬영한다고 하더라도, 해당 사물이 놓여 있는 영역의 좌표를 동일하게 특정할 수 있다. For example, even if a plurality of
이에 따라 프로세서(150)는 복수의 카메라모듈(120)이 동시에 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물), 또는 하나의 카메라모듈(120)이 회전하거나 이동하며 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 정보(즉, 동일한 사물에 대하여 각기 다른 방향 또는 각도에서 촬영된 영상에 관련된 정보)를 통합(또는 공유)할 수 있게 된다. Accordingly, the
이는 복수의 카메라모듈을 사용할 경우, 각각의 복수의 카메라에서 사물을 추출하여 사물을 인식할 수 도 있지만, 기하학 캘리브레이션을 통해 복수의 카메라들간의 사물 위치 좌표 공유가 가능하게 된다. 따라서 하나의 카메라에서 추출한 사물의 위치 좌표 정보를 해당 카메라 이외에 카메라로 취득한 영상에 공유함으로써, 해당 각도 이외에서 취득된 복수의 영상들에서 사물의 위치 좌표를 추가적으로 추출하지 않아도 되기 때문에 복수의 영상에서 사물의 위치 검출 시간을 단축 할 수 있다는 특징이 있다. 또한 특정 사물의 경우, 특정 위치의 카메라에서는 사물들의 가림이 발생될 수 있으며, 이러한 가림의 경우 기하학 캘리브레이션을 기반으로 미리 추정할 수 있기 때문에 해당 영역에서는 인식을 시도를 제외함으로써 오인식의 개연성을 피할 수 있는 장점이 있다.When using multiple camera modules, objects can be recognized by extracting them from each camera, but sharing object location coordinates between multiple cameras is possible through geometric calibration. Therefore, by sharing the position coordinate information of an object extracted from one camera with images acquired by cameras other than the corresponding camera, there is no need to additionally extract the position coordinates of the object from multiple images acquired from angles other than the corresponding angle, so the object can be identified from multiple images. It has the characteristic of being able to shorten the position detection time. Additionally, in the case of certain objects, occlusion of objects may occur in cameras at specific locations, and since such occlusion can be estimated in advance based on geometric calibration, the possibility of misrecognition can be avoided by excluding recognition attempts in that area. There is an advantage.
따라서 프로세서(150)는 동일한 사물에 대한 정보를 통합(또는 공유)하여 입체 영상(또는 3D 영상)을 생성할 수 있게 함으로써, 보다 정확한 사물 인식을 수행할 수 있게 한다.Accordingly, the
도 17은 도 16에 있어서, 참조패턴 기반으로 동일한 사물에 대하여 360도 전 방향에서 촬영된 영상들 중 일부 영상을 보인 예시도이다. 본 예에서는 예컨대 카메라모듈(120)이 회전/이동하면서 36개의 다양한 각도에서 사물(예: 우유팩 상품)을 촬영한 영상이 예시되어 있다.Figure 17 is an example diagram showing some of the images taken in all directions of 360 degrees of the same object based on a reference pattern in Figure 16. In this example, for example, images taken of an object (eg, a milk carton product) from 36 different angles while the
도 17을 참조하면, 프로세서(150)는 복수의 카메라모듈(120)이 지정된 각도씩 이동(또는 회전)하여 동시에 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물), 또는 하나의 카메라모듈(120)이 360도(또는 지정된 각도)를 회전하거나 이동하며 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 정보(즉, 동일한 사물에 대하여 각기 다른 방향에서 촬영된 영상에 관련된 정보)를 통합하여 입체 영상(또는 3D 영상)을 생성할 수 있다.Referring to FIG. 17, the
도 18은 도 16에 있어서, 참조패턴 기반으로 동일한 사물을 촬영할 경우와 참조패턴을 이용하지 않고 동일한 사물을 촬영할 경우에 생성되는 입체 영상을 비교하기 위한 예시도이다.FIG. 18 is an example diagram for comparing three-dimensional images generated when photographing the same object based on a reference pattern and when photographing the same object without using a reference pattern in FIG. 16 .
도 18의 (a)에 도시된 바와 같은 참조패턴이 베이스모듈(130)에 형성되어 있다고 가정할 때, (b)에 도시된 바와 같이 각기 다른 방향에서 동일한 사물을 촬영할 경우, 프로세서(150)는 참조패턴 및 참조패턴의 주변에 형성된 참조패턴 마커를 바탕으로 베이스모듈(130)에 놓여 있는 사물의 좌표를 특정할 수 있게 됨으로써, 좌표가 동일한 사물의 복수의 영상을 이용하여 입체 영상(또는 3D 영상)을 생성 시 영상 정합도를 향상시킬 수 있다.Assuming that a reference pattern as shown in (a) of FIG. 18 is formed on the
예컨대 도 18의 (c)에 도시된 바와 같이 참조패턴과 참조패턴 마커가 없는 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상을 이용하여 입체 영상(또는 3D 영상)을 생성할 경우에는 영상 정합도가 저하되는 것을 알 수 있다. 또한 도 18의 (d)에 도시된 바와 같이 참조패턴과 참조패턴 마커가 있는 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상을 이용하여 입체 영상(또는 3D 영상)을 생성할 경우에는 영상 정합도가 향상되는 것을 알 수 있다. For example, as shown in (c) of FIG. 18, when creating a three-dimensional image (or 3D image) using an image taken of an object placed on the
이 때 참조패턴 마커는, 참조패턴의 제1 영역(예 : 내부 영역) 및 제2 영역(예 : 테두리 영역) 중, 제2 영역의 정보로 대체될 수 있다.At this time, the reference pattern marker may be replaced with information on the second area among the first area (eg, inner area) and the second area (eg, border area) of the reference pattern.
도 19는 본 발명의 제6 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 19 is an example diagram for explaining a method of using a reference pattern for object recognition according to the sixth embodiment of the present invention.
상술한 바와 같이 참조패턴은, 베이스모듈(130)의 상부 표면 및 바디(또는 프레임)의 내측 측면(도 11의 (h) 참조)에도 형성됨으로써, 도 19의 (a) 내지 (d)에 도시된 바와 같이, 사물에 의해 참조패턴(또는 참조패턴 마커)의 일부 또는 전체가 가려지는 경우, 프로세서(150)는 가려지지 않은 다른 부분에 형성된 참조패턴(또는 참조패턴 마커)을 활용하여 사물이 놓여 있는 좌표를 특정함으로써, 입체 영상(또는 3D 영상)의 생성 시 영상 정합도를 향상시킬 수 있도록 한다.As described above, the reference pattern is also formed on the upper surface of the
상술한 바와 같이 일 측면에 따른 본 발명은 센서를 포함하지 않더라도 참조패턴을 활용하여 카메라모듈(120)의 위치 및 포즈를 추출하고 카메라모듈(120)의 위치 제어 및 캘리브레이션을 수행할 수 있으며, 참조패턴을 활용해 특정한 좌표를 바탕으로 동일한 사물에 대한 영상을 통합하여 입체 영상(또는 3D 영상)을 생성할 수 있도록 함으로써 사물 인식 성능을 보다 더 향상시킬 수 있도록 하는 효과가 있다.As described above, the present invention according to one aspect can extract the position and pose of the
한편, 상기 실시예들에서는 카메라모듈(120)이 회전하거나 이동하면서 베이스모듈(130)에 놓여진 하나 이상의 사물들을 촬영하고 촬영 영상으로부터 사물을 식별하는 성능을 더 높이기 위하여 참조패턴 및/또는 참조패턴 마커를 활용하는 방법에 대해 설명하였지만, 본 발명의 참조패턴 및/또는 참조패턴 마커를 활용하는 방식은 하나 또는 복수의 카메라모듈(120)을 고정시킨 형태의 사물 식별 장치의 경우에도 적용될 수는 있다.Meanwhile, in the above embodiments, the
도 20은 본 발명에서 스테레오 카메라 대신 회전 또는 이동하는 카메라모듈을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.Figure 20 is an example diagram to explain a method of generating a three-dimensional image using a rotating or moving camera module instead of a stereo camera in the present invention.
도 20의 (a)는 스테레오 카메라를 보인 예시도로서, 평행하게 배열한 2대의 카메라를 이용하여 입체 영상을 촬영할 수 있도록 하는 카메라로서, 2대의 카메라를 설치해야 하는 단점이 있다.Figure 20 (a) is an example diagram showing a stereo camera, which is a camera that can capture three-dimensional images using two cameras arranged in parallel, but has the disadvantage of having to install two cameras.
도 20의 (b)는 본 발명에 따른 회전 또는 이동하는 카메라모듈(120)로서, 지지대모듈(110)을 따라 회전 또는 이동할 수 있는 하나의 카메라모듈(120)을 이용해 입체 영상을 촬영할 수 있도록 한다. Figure 20 (b) shows a rotating or moving
예컨대 A 위치에 있을 때의 카메라모듈(120)이 스테레오 카메라 중 A 카메라의 역할을 수행하고, B 위치에 있을 때의 카메라모듈(120)이 스테레오 카메라 중 B 카메라의 역할을 수행한다.For example, the
이에 따라 본 발명의 프로세서(150)는 입체 영상을 촬영하기 위한(즉, 깊이 정보를 취득하기 위한) 별도의 장치(예 : RGB-D, TOF, Stereo 카메라 등)를 사용하지 않더라도, 하나의 카메라모듈(120)을 이용하여 회전이나 이동을 통해 다양한 각도와 위치에서 동일한 사물에 대한 영상들을 취득하여 삼각측량법 기반으로 사물의 크기 및 깊이 정보를 측정할 수 있는 효과가 있다.Accordingly, the
도 21은 도 20에 있어서, 구조광으로 촬영한 영상을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.FIG. 21 is an example diagram for explaining the method of generating a three-dimensional image using an image captured with structured light in FIG. 20.
도 21의 (a)와 (b)는 더욱 정교한 깊이 정보를 취득할 수 있도록 하기 위하여, 구조광(또는 구조광 패턴)을 사물에 조사한 후, 회전 또는 이동하는 카메라모듈(120)을 이용하여 각기 다른 위치와 각도에서 동일한 사물을 촬영한 영상을 보인 예시도이다. In (a) and (b) of Figure 21, in order to obtain more precise depth information, structured light (or structured light pattern) is radiated to an object and then rotated or moved using a
이 때 구조광(또는 구조광 패턴)은 사물 식별 장치 내의 지정된 위치에 장착되거나, 카메라모듈(120)에 장착될 수 있다.At this time, structured light (or structured light pattern) may be mounted at a designated location within the object identification device or may be mounted on the
도 21을 참조하면, (c)에 도시된 바와 같이 베이스모듈(130)에 놓여 있는 사물을, (d)와 (e)에 도시된 바와 같이 구조광(또는 구조광 패턴)을 사물에 조사한 후, 회전 또는 이동하는 카메라모듈(120)을 이용하여 각기 다른 위치와 각도에서 사물의 영상을 촬영하고, (f)에 도시된 바와 같이 두 영상을 기반으로하여 깊이 정보를 측정할 수 있다.Referring to FIG. 21, after irradiating an object placed on the
도 22는 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보를 측정할 때 정확도를 설명하기 위한 예시도이다.Figure 22 is an example diagram to explain accuracy when measuring depth information using a rotating or moving camera in the present invention.
도 22를 참조하면, (a)에 도시된 바와 같이 베이스모듈(130)에 제1 사물(예 : 쿠키)이 놓여 있는 상태에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (b)에 도시된 바와 같이 25mm 가 측정되었으며, (c)에 도시된 바와 같이 베이스모듈(130)에 제2 사물(예 : 빵)이 놓여 있는 상태에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (d)에 도시된 바와 같이 80mm 가 측정되었으며, (e)에 도시된 바와 같이 제1 사물의 상부에 제2 사물이 겹쳐 있는 상태(예 : 쿠키의 상부에 빵이 겹쳐 있는 상태)에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (f)에 도시된 바와 같이 105mm 가 정확히 측정됨으로써, 깊이 정보(또는 높이 정보)를 바탕으로 겹쳐있는 사물도 정확히 식별할 수 있음을 확인할 수 있다.Referring to FIG. 22, the depth is obtained from an image captured using the
도 23은 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보가 다른 다양한 사물을 촬영한 영상을 보인 예시도이고, 도 24는 도 23에 있어서, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보를 보인 예시도이다.Figure 23 is an example diagram showing images taken of various objects with different depth information using a rotating or moving camera in the present invention, and Figure 24 is a 2D and This is an example diagram showing depth information.
데이터베이스(DB)에 다양한 사물들의 2D 및 깊이(Depth) 정보를 그룹핑하고, 각 그룹별 인공지능(AI) 모델을 각각 생성하여, 학습모델 경량화, 처리시간 단축 및 인식(식별) 성능 향상을 가능하게 한다. 이 때 사물의 특징별로 각기 다른 인공지능(AI) 모델을 생성하여 적용할 수 있다.By grouping 2D and depth information of various objects in the database and creating artificial intelligence (AI) models for each group, it is possible to lighten the learning model, reduce processing time, and improve recognition (identification) performance. do. At this time, different artificial intelligence (AI) models can be created and applied for each feature of the object.
즉, 사물들의 2D 및 깊이(Depth) 정보를 특징으로서 추출하고, 이를 딥러닝 학습 특징으로 사용함으로써, 사물의 식별력을 향상시킬 수 있으며, 또는 모든 사물을 하나의 모델로 학습하고, 추론할 때 그룹핑된 사물들의 후보들만을 선택해서 최종 추론할 수도 있다.In other words, by extracting the 2D and depth information of objects as features and using them as deep learning learning features, the identification of objects can be improved, or by learning all objects as one model and grouping them when making inferences. The final inference can be made by selecting only the candidates for the objects.
도 24를 참조하면, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보는, 영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함한다.Referring to Figure 24, 2D and depth information that can classify features by shape of an object include image data (IMAGE DATA), color (COLORS), size (SIZE), shape (SHAPE), and position (POSITION). ), transaction history (TRANSACTION HISTORY), geometry (GEOMETRY), and brightness (BRIGHTNESS) information.
도 25는 기존에 회전형 턴테이블에 놓여 있는 사물을 고정식 카메라를 이용하여 촬영한 영상을 바탕으로 입체 영상을 생성하는 방법의 문제점을 설명하기 위하여 보인 예시도로서, 턴테이블(Turn Table) 구조는 사물의 크기와 놓는 위치에 있어 턴테이블의 크기와 회전 속도에 따른 제약이 있다. 가령, 도 25의 (b)와 같이 사물이 턴테이블의 크기(또는 넓이)를 넘어서는 경우에는 촬영에 어려움이 있으며, 또한 도 25의 (c)와 같이 사물이 턴테이블의 가장 자리에 놓인 경우에는 턴테이블의 회전 시 외부로 낙하될 수 있으므로 촬영에 어려움이 있다.Figure 25 is an example diagram shown to explain the problem of a method of generating a three-dimensional image based on an image taken of an object placed on an existing rotating turntable using a fixed camera, and the turntable structure is similar to that of the object. There are restrictions on size and placement depending on the size and rotation speed of the turntable. For example, if the object exceeds the size (or width) of the turntable, as shown in (b) of Figure 25, it is difficult to photograph, and if the object is placed at the edge of the turntable, as shown in (c) of Figure 25, the turntable's When rotating, it may fall to the outside, making filming difficult.
반면 본 실시예는, 도 4 내지 도 8에 도시된 바와 같이, 베이스모듈(130)을 회전시키는 것이 아니라, 지지대모듈(110)의 형태에 따라 카메라모듈(120)을 다양한 각도와 방향으로 회전 또는 이동시키면서 다양한 각도와 위치에서 사물의 영상을 촬영할 수 있기 때문에(도 17 참조) 기존 대비 더욱 정확한 입체 영상(즉, 3D 모델링 영상)을 생성할 수 있도록 하는 효과가 있다.On the other hand, in this embodiment, as shown in FIGS. 4 to 8, the
도 26은 본 발명의 일 실시예에 따라 카메라모듈을 다양한 각도와 방향으로 회전 또는 이동시키면서 촬영한 사물의 영상을 바탕으로 생성한 입체 영상을 보인 예시도이다.Figure 26 is an example diagram showing a three-dimensional image generated based on an image of an object captured while rotating or moving the camera module at various angles and directions according to an embodiment of the present invention.
도 26에 도시된 바와 같이, 본 발명은 적어도 하나의 카메라모듈(120)을 지지대모듈(110)의 형태에 따라 지정된 각도씩 이동(또는 회전)하여 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 복수의 정보(즉, 동일한 사물에 대하여 각기 다른 방향에서 촬영된 영상에 관련된 정보)(도 17 참조)를 통합하여 입체 영상(또는 3D 모델링 영상)을 생성할 수 있다.As shown in Figure 26, the present invention moves (or rotates) at least one
도 27은 본 발명의 일 실시예에 따른 사물 식별 장치의 카메라모듈의 촬영 동작을 테스트하는 사진을 보인 예시도로서, (a)는 바디(프레임)가 개방된 사물 식별 장치에서 베이스모듈에 놓여 있는 사물이 촬영된 사진이고, (b) 내지 (d)는 바디의 내측 상부에 형성된 지지대모듈(110)을 따라 지정된 각도씩 이동(또는 회전)하는 카메라모듈(120)에서 사물을 촬영한 사진이다.Figure 27 is an example diagram showing a photograph testing the shooting operation of the camera module of the object identification device according to an embodiment of the present invention, (a) is an object identification device with an open body (frame) placed on the base module Pictures are taken of an object, and (b) to (d) are pictures taken of an object by the
이와 같이 본 실시예는 동일한 사물에 대하여 하나의 카메라모듈(120)을 이용하더라도 다양한 방향과 각도에서 촬영된 영상들을 통합하여 입체 영상(또는 3D 모델링 영상)을 생성할 수 있도록 한다.In this way, this embodiment allows to generate a three-dimensional image (or 3D modeling image) by integrating images taken from various directions and angles even when one
도 28은 본 발명의 일 실시예에 따른 사물 식별 장치를 학습시키는 방법을 설명하기 위한 예시도이다. 보다 구체적으로, 도 28은 본 발명의 일 실시예에 따른 사물 식별 장치에서 회전 및 이동하는 카메라 모듈(120)에서 취득한 다수의 영상에서 3D 모델링을 구성하고, 해당 3D 모델링을 통해 사물이 다양한 위치에 놓인 것과 다양한 포즈로 놓인 것들에 대한 데이터를 인위적으로 생성해서 학습시키는 방법을 설명하기 위한 예시도이다.Figure 28 is an example diagram for explaining a method of training an object identification device according to an embodiment of the present invention. More specifically, Figure 28 constructs 3D modeling from a plurality of images acquired from the rotating and moving
도 28의 (a)에 도시된 바와 같이, 프로세서(150)는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상, 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상으로부터 깊이 영상이나 입체 영상을 생성한다.As shown in (a) of FIG. 28, the
이와 같이 하나의 사물에 대한 깊이 영상이나 입체 영상이 생성되면, (b)에 도시된 바와 같이, 프로세서(150)는 각 사물의 깊이 영상이나 입체 영상을 이용하여 베이스모듈(130) 상에 다양한 위치와 각도로 놓여 있는 복수의 가상의 2D 이미지(즉, 가상 이미지)를 생성한다. When a depth image or a three-dimensional image of an object is generated in this way, as shown in (b), the
이 때 (b)에 도시된 바와 같이 생성된 가상의 2D 이미지(즉, 가상 이미지)와 (c)에 도시된 바와 같이 사물이 실제로 촬영된 2D 이미지(즉, 실제 이미지)를 비교하면 사실상 동일한 것을 알 수 있다. 따라서 사물의 입체 영상을 이용하여 가상의 2D 이미지(즉, 가상 이미지)를 생성할 경우 실제 2D 이미지(즉, 실제 이미지)를 촬영하는 것보다 훨씬 빠르고 간편하게 더 많은 복수의 2D 이미지(즉, 가상 이미지)를 생성할 수 있게 된다.At this time, when comparing the virtual 2D image (i.e., virtual image) generated as shown in (b) and the 2D image (i.e., real image) in which the object was actually photographed as shown in (c), they are virtually identical. Able to know. Therefore, when creating a virtual 2D image (i.e., virtual image) using a three-dimensional image of an object, it is much faster and easier to create multiple 2D images (i.e., virtual image) than shooting an actual 2D image (i.e., real image). ) can be created.
이와 같이 사물의 입체 영상을 이용하여 복수의 가상의 2D 이미지(즉, 가상 이미지)가 생성되면, (d)에 도시된 바와 같이, 프로세서(150)는 복수의 가상의 2D 이미지(즉, 가상 이미지)를 이용하여 사물을 식별하기 위한 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행한다.In this way, when a plurality of virtual 2D images (i.e., virtual images) are generated using a three-dimensional image of an object, as shown in (d), the
이 때, 상기와 같은 가상의 2D 이미지 생성, 패턴매칭, 기계학습 또는 딥러닝학습은 프로세서(150)에 의해 사물 식별 장치 내에서 수행될 수도 있지만, 실시 환경이나 실시 의도에 따라 상기 사물 식별 장치와 통신모듈(160)을 통해 유선/무선으로 연결되는 서버나 미리 지정된 클라우드(미도시)에서 수행될 수도 있고 그 결과가 다시 전송되어 데이터베이스(DB)에 저장될 수 있고, 프로세서(150)에 의해 사물 식별 시에 이용될 수 있다.At this time, the above-described virtual 2D image generation, pattern matching, machine learning, or deep learning may be performed within the object identification device by the
도 29는 본 발명의 일 실시예에 따라 카메라모듈이 지지대모듈을 따라 회전 또는 이동하며 촬영한 사물의 좌표 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.Figure 29 is an example diagram to explain a method of improving the identification time and identification performance of an object by sharing coordinate information of the object captured while the camera module rotates or moves along the support module according to an embodiment of the present invention.
도 29를 참조하면, 프로세서(150)는 카메라모듈(120)의 회전이나 이동에 따라 촬영한 사물의 좌표 정보를 공유함으로써, 촬영 영상에서 매번 사물의 위치를 검출하지 않아도 동일한 사물을 식별할 수 있도록 한다.Referring to FIG. 29, the
본 발명은 적어도 하나 이상의 카메라모듈(120)이 지지대모듈(110)을 따라 회전 또는 이동하며 촬영한 동일한 좌표 상에 놓여 있는 사물에 대한 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.The present invention provides a method of improving the identification time and identification performance of objects by sharing information about objects located on the same coordinates captured by at least one
본 발명은 다양한 방향에서 촬영한 동일한 사물에 대한 정보를 통합(또는 공유)하여 입체 영상(또는 3D 영상)을 생성할 수 있게 됨으로써, 특정 위치에서 제1 사물에 의해 제2 사물에 가림이 발생되는 경우 동일한 좌표 상에 놓여 있는 사물에 대한 식별력을 향상시키는 효과가 있다.The present invention makes it possible to generate a three-dimensional image (or 3D image) by integrating (or sharing) information about the same object taken from various directions, thereby preventing the second object from being obscured by the first object at a specific location. In this case, it has the effect of improving identification of objects located on the same coordinates.
이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The present invention has been described above with reference to the embodiments shown in the drawings, but these are merely illustrative, and various modifications and other equivalent embodiments can be made by those skilled in the art. You will understand the point. Therefore, the scope of technical protection of the present invention should be determined by the claims below. Implementations described herein may also be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device including a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.
110,111,112 : 지지대모듈 120 : 카메라모듈
130 : 베이스모듈 140 : 센서모듈
150 : 프로세서 160 : 통신모듈
170 : 조명모듈 DB : 데이터베이스110,111,112: Support module 120: Camera module
130: Base module 140: Sensor module
150: processor 160: communication module
170: Lighting module DB: Database
Claims (11)
상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 프로세서를 포함하는 것을 특징으로 하는 사물 식별 장치.
At least one camera module that rotates or moves through the support module and photographs objects in the base module from various positions or angles; and
The camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and uses the three-dimensional image of the object to generate a plurality of virtual 2D images of the object or identify the object. An object identification device comprising a processor.
상기 사물의 정교한 영상 촬영을 지원하기 위한 구조광;을 더 포함하고,
상기 구조광은,
상기 사물 식별 장치 내의 지정된 위치에 장착되거나, 상기 카메라모듈에 장착되는 것을 특징으로 하는 사물 식별 장치.
According to clause 1,
It further includes structured light to support precise image capture of the object,
The structured light is
An object identification device, characterized in that it is mounted at a designated location within the object identification device or mounted on the camera module.
상기 사물을 식별하기 위한 학습을 수행하며,
상기 카메라모듈을 이용하여 촬영한 영상으로부터 측정한 사물의 깊이 정보를 바탕으로 상기 사물이 다른 사물과 겹쳐 있는지 여부를 판단하는 것을 특징으로 하는 사물 식별 장치.
The method of claim 1, wherein the processor:
Performs learning to identify the objects,
An object identification device characterized in that it determines whether the object overlaps another object based on the depth information of the object measured from the image captured using the camera module.
상기 프로세서는,
사물의 2D 정보 및 깊이 정보를 바탕으로 사물의 형상별 특징을 분류하며,
상기 2D 정보 및 깊이 정보는,
영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 사물 식별 장치.
According to clause 1,
The processor,
Classifies the characteristics of each object's shape based on the object's 2D information and depth information.
The 2D information and depth information are,
At least one of the following information: IMAGE DATA, COLORS, SIZE, SHAPE, POSITION, TRANSACTION HISTORY, GEOMETRY, and BRIGHTNESS. An object identification device comprising:
상기 사물을 식별하기 위한 학습은,
상기 사물 식별 장치와 통신모듈을 통해 유선 또는 무선으로 연결된 서버나 미리 지정된 클라우드에서 수행되며,
상기 서버나 미리 지정된 클라우드에서 수행된 학습 결과가 다시 전송되어 데이터베이스에 저장됨으로써, 상기 프로세서가 상기 학습 결과를 사물 식별에 이용하는 것을 특징으로 하는 사물 식별 장치.
According to clause 3,
Learning to identify the objects is,
It is performed on a server or pre-designated cloud connected wired or wirelessly through the object identification device and communication module,
An object identification device, wherein the learning results performed on the server or a pre-designated cloud are transmitted again and stored in a database, so that the processor uses the learning results to identify objects.
상기 카메라모듈이 촬영한 영상에서 사물의 좌표 정보를 공유함으로써, 촬영 영상마다 사물의 위치를 검출하지 않고, 상기 좌표 정보를 바탕으로 촬영 영상에서 동일한 사물을 식별하는 것을 특징으로 하는 사물 식별 장치.
The method of claim 1, wherein the processor:
An object identification device that identifies the same object in a captured image based on the coordinate information by sharing the coordinate information of the object in the image captured by the camera module, without detecting the location of the object for each captured image.
상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 상기 프로세서가 사물의 입체 영상을 생성하는 단계;
상기 사물의 입체 영상을 이용하여, 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 단계를 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
A step of the processor photographing objects in the base module from various positions or angles using at least one camera module that rotates or moves through the support module;
generating, by the processor, a three-dimensional image of the object based on images taken by the camera module from various positions or angles of the object;
A stereoscopic image generation method using an object identification device, comprising the step of the processor generating a plurality of virtual 2D images of the object or identifying the object using the stereoscopic image of the object.
상기 프로세서가 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하고 상기 가상의 2D 이미지를 이용하여 상기 사물을 식별하기 위한 학습을 수행하는 단계; 및
상기 프로세서가,상기 카메라모듈을 이용하여 촬영한 영상으로부터 측정한 사물의 깊이 정보를 바탕으로 상기 사물이 다른 사물과 겹쳐 있는지 여부를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 7,
generating, by the processor, a plurality of virtual 2D images of the object using a stereoscopic image of the object and performing learning to identify the object using the virtual 2D images; and
The processor further includes determining whether the object overlaps another object based on depth information of the object measured from an image captured using the camera module. How to create a stereoscopic image.
상기 사물을 식별하기 위하여,
상기 프로세서는,
사물의 2D 정보 및 깊이 정보를 바탕으로 사물의 형상별 특징을 분류하며,
상기 2D 정보 및 깊이 정보는,
영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 7,
To identify the object,
The processor,
Classifies the characteristics of each object's shape based on the object's 2D information and depth information.
The 2D information and depth information are,
At least one of the following information: IMAGE DATA, COLORS, SIZE, SHAPE, POSITION, TRANSACTION HISTORY, GEOMETRY, and BRIGHTNESS. A method of generating a three-dimensional image using an object identification device, comprising:
상기 사물을 식별하기 위한 학습이,
상기 사물 식별 장치와 통신모듈을 통해 유선 또는 무선으로 연결된 서버나 미리 지정된 클라우드에서 수행될 경우,
상기 서버나 미리 지정된 클라우드에서 수행된 학습 결과를 전송받아 데이터베이스에 저장하는 단계;를 더 포함하고,
상기 프로세서는 상기 학습 결과를 사물 식별에 이용하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 8,
Learning to identify the objects,
When performed on a server or pre-designated cloud connected wired or wirelessly through the object identification device and communication module,
It further includes receiving the learning results performed from the server or a pre-designated cloud and storing them in a database,
A method of generating a three-dimensional image using an object identification device, wherein the processor uses the learning result to identify the object.
상기 프로세서는,
상기 카메라모듈이 촬영한 영상에서 사물의 좌표 정보를 공유함으로써, 촬영 영상마다 사물의 위치를 검출하지 않고, 상기 좌표 정보를 바탕으로 촬영 영상에서 동일한 사물을 식별하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.According to clause 7,
The processor,
By sharing the coordinate information of the object in the image captured by the camera module, the object identification device is used to identify the same object in the captured image based on the coordinate information without detecting the location of the object for each captured image. How to create a stereoscopic image.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220071905 | 2022-06-14 | ||
KR1020220071905 | 2022-06-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230171859A true KR20230171859A (en) | 2023-12-21 |
Family
ID=89309615
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230044374A KR20230172390A (en) | 2022-06-14 | 2023-04-04 | Apparatus and method for identifying objects |
KR1020230054344A KR20230171859A (en) | 2022-06-14 | 2023-04-25 | Object identification apparatus and 3d image generation method using the same |
KR1020230054343A KR20230171858A (en) | 2022-06-14 | 2023-04-25 | Apparatus and method of identifying objects using reference pattern |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230044374A KR20230172390A (en) | 2022-06-14 | 2023-04-04 | Apparatus and method for identifying objects |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230054343A KR20230171858A (en) | 2022-06-14 | 2023-04-25 | Apparatus and method of identifying objects using reference pattern |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR20230172390A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117764094A (en) * | 2024-02-21 | 2024-03-26 | 博诚经纬软件科技有限公司 | Intelligent warehouse management system and method for customs |
-
2023
- 2023-04-04 KR KR1020230044374A patent/KR20230172390A/en unknown
- 2023-04-25 KR KR1020230054344A patent/KR20230171859A/en unknown
- 2023-04-25 KR KR1020230054343A patent/KR20230171858A/en unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117764094A (en) * | 2024-02-21 | 2024-03-26 | 博诚经纬软件科技有限公司 | Intelligent warehouse management system and method for customs |
CN117764094B (en) * | 2024-02-21 | 2024-05-10 | 博诚经纬软件科技有限公司 | Intelligent warehouse management system and method for customs |
Also Published As
Publication number | Publication date |
---|---|
KR20230171858A (en) | 2023-12-21 |
KR20230172390A (en) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584295B (en) | Method, device and system for automatically labeling target object in image | |
US10083522B2 (en) | Image based measurement system | |
US11276194B2 (en) | Learning dataset creation method and device | |
US10134120B2 (en) | Image-stitching for dimensioning | |
US10803292B2 (en) | Separation of objects in images from three-dimensional cameras | |
JP3624353B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP5921271B2 (en) | Object measuring apparatus and object measuring method | |
JP2019530035A (en) | Multiple camera systems for inventory tracking | |
EP3918274B1 (en) | Object dimensioning system and method | |
EP3115741B1 (en) | Position measurement device and position measurement method | |
GB2531928A (en) | Image-stitching for dimensioning | |
CN102713671A (en) | Point group data processing device, point group data processing method, and point group data processing program | |
JP2013101045A (en) | Recognition device and recognition method of three-dimensional position posture of article | |
US11281888B2 (en) | Separation of objects in images from three-dimensional cameras | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
JP2017146938A (en) | Book detection device, book detection method, and computer program for book detection | |
CN110942120A (en) | System and method for automatic product registration | |
WO2015023483A1 (en) | 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements | |
WO2020075768A1 (en) | Three-dimensional scanning device, three-dimensional model generation method, training data, and machine learning model | |
KR20230171859A (en) | Object identification apparatus and 3d image generation method using the same | |
CN114766042A (en) | Target detection method, device, terminal equipment and medium | |
US20210258476A1 (en) | System for generating a three-dimensional scene of a physical environment | |
JP2006331214A (en) | Object identification tag and object identification system using it | |
JP2005031044A (en) | Three-dimensional error measuring device | |
JP2022128087A (en) | Measurement system and measurement program |