KR20230171859A - Object identification apparatus and 3d image generation method using the same - Google Patents

Object identification apparatus and 3d image generation method using the same Download PDF

Info

Publication number
KR20230171859A
KR20230171859A KR1020230054344A KR20230054344A KR20230171859A KR 20230171859 A KR20230171859 A KR 20230171859A KR 1020230054344 A KR1020230054344 A KR 1020230054344A KR 20230054344 A KR20230054344 A KR 20230054344A KR 20230171859 A KR20230171859 A KR 20230171859A
Authority
KR
South Korea
Prior art keywords
image
module
processor
identification device
camera module
Prior art date
Application number
KR1020230054344A
Other languages
Korean (ko)
Inventor
장상환
임인종
노란새
신광용
이덕형
Original Assignee
기산전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 기산전자 주식회사 filed Critical 기산전자 주식회사
Publication of KR20230171859A publication Critical patent/KR20230171859A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/0018Constructional details, e.g. of drawer, printing means, input means
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/01Details for indicating
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07GREGISTERING THE RECEIPT OF CASH, VALUABLES, OR TOKENS
    • G07G1/00Cash registers
    • G07G1/12Cash registers electronically operated
    • G07G1/14Systems including one or more distant stations co-operating with a central processing unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Accounting & Taxation (AREA)
  • Mathematical Physics (AREA)
  • Library & Information Science (AREA)
  • Biophysics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 사물 식별 장치에 관한 것으로, 지지대모듈을 통해 회전 또는 이동하며, 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 적어도 하나의 카메라모듈; 및 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 프로세서를 포함하는 것을 특징으로 한다.The present invention relates to an object identification device, comprising: at least one camera module that rotates or moves through a support module and photographs objects in the base module from various positions or angles; And the camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and uses the three-dimensional image of the object to generate a plurality of virtual 2D images of the object or to Characterized in that it includes a processor that identifies.

Description

사물 식별 장치 및 이를 이용한 입체 영상 생성 방법{OBJECT IDENTIFICATION APPARATUS AND 3D IMAGE GENERATION METHOD USING THE SAME}Object identification device and three-dimensional image generation method using the same {OBJECT IDENTIFICATION APPARATUS AND 3D IMAGE GENERATION METHOD USING THE SAME}

본 발명은 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법에 관한 것으로, 보다 상세하게는 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 하는 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법에 관한 것이다.The present invention relates to an object identification device and a method for generating a three-dimensional image using the same. More specifically, an object identification device capable of generating a three-dimensional image using a rotating or moving camera in a system that captures and identifies objects, and the same. This relates to a method for generating three-dimensional images.

최근 다수의 사업장에서 무인 결제 창구가 설치되고 있으며, 또한 관리자가 없이 무인 결제 시스템만으로 운영되는 점포도 증가하고 있다.Recently, unmanned payment counters have been installed in many businesses, and the number of stores that operate only with unmanned payment systems without managers is also increasing.

이러한 무인 결제 시스템은, 기존에는 사용자가 바코드 리더기를 통해 사물(예 : 상품)의 바코드를 하나씩 인식시켜야 하는 방식이 주로 사용되었으나, 최근에는 물품 받침대 위에 놓여 있는 단일 또는 복수의 사물(예 : 상품)들을 촬영하여 한번에 인식(식별)하는 방식으로 전환되고 있다.These unmanned payment systems were mainly used in the past where users had to recognize the barcodes of objects (e.g. products) one by one through a barcode reader, but recently, single or multiple objects (e.g. products) placed on a product stand have been used. There is a shift to a method of recognizing (identifying) objects at once by photographing them.

그런데 무인 결제 시스템의 식별력이 낮아 물품 받침대에 놓여 있는 사물을 정확히 식별하지 못함으로써, 결제할 금액에 오류가 발생하여 점포나 사용자에게 손실을 발생시킬 수 있는 문제점이 있다.However, there is a problem in that the unmanned payment system's low identification power makes it unable to accurately identify objects placed on the product stand, which may cause errors in the amount to be paid, causing losses to the store or user.

따라서 이러한 문제점을 방지하기 위해서 사물의 식별력을 향상시킬 수 있도록 하는 기술이 필요한 상황이다.Therefore, in order to prevent these problems, there is a need for technology that can improve the identification of objects.

본 발명의 배경기술은 대한민국 공개특허 10-2023-0015618호(2023.01.31.)에 개시되어 있다. The background technology of the present invention is disclosed in Korean Patent Publication No. 10-2023-0015618 (January 31, 2023).

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 하는 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법을 제공하는 데 그 목적이 있다. The present invention is intended to solve the above problems, and provides an object identification device that allows a stereoscopic image to be generated using a rotating or moving camera in a system for photographing and identifying objects and a method for generating a stereoscopic image using the same. There is a purpose.

본 발명의 일 측면에 사물 식별 장치는, 지지대모듈을 통해 회전 또는 이동하며, 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 적어도 하나의 카메라모듈; 및 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하고, 상기 사물에 대한 복수의 가상의 2D 이미지를 이용하여 사물을 식별하기 위한 학습을 수행하는 프로세서를 포함하는 것을 특징으로 한다.In one aspect of the present invention, an object identification device includes: at least one camera module that rotates or moves through a support module and photographs objects in the base module from various positions or angles; And the camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and generates a plurality of virtual 2D images of the object using the three-dimensional image of the object, and the object It is characterized by including a processor that performs learning to identify objects using a plurality of virtual 2D images.

본 발명의 일 측면에 사물 식별 장치를 이용한 입체 영상 생성 방법은, 프로세서가 지지대모듈을 통해 회전 또는 이동하는 적어도 하나의 카메라모듈을 이용해 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 단계; 상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 상기 프로세서가 사물의 입체 영상을 생성하는 단계; 상기 사물의 입체 영상을 이용하여, 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하는 단계; 및 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 이용하여 사물을 식별하기 위한 학습을 수행하는 단계를 포함하는 것을 특징으로 한다.In one aspect of the present invention, a method of generating a three-dimensional image using an object identification device includes the steps of: a processor photographing objects in a base module from various positions or angles using at least one camera module that rotates or moves through a support module; generating, by the processor, a three-dimensional image of the object based on images taken by the camera module from various positions or angles of the object; generating, by the processor, a plurality of virtual 2D images of the object using the stereoscopic image of the object; and a step of the processor performing learning to identify the object using a plurality of virtual 2D images of the object.

본 발명은 카메라를 회전시키거나 이동시킴으로써 하나의 카메라를 이용하더라도 사물을 다각도로 또는 입체적으로 촬영할 수 있도록 한다.The present invention allows objects to be photographed from multiple angles or in three dimensions even when using a single camera by rotating or moving the camera.

또한 본 발명은 사물을 촬영하여 식별하는 시스템에서 회전이나 이동하는 카메라를 이용하여 입체 영상을 생성할 수 있도록 한다.In addition, the present invention allows a three-dimensional image to be generated using a rotating or moving camera in a system that photographs and identifies objects.

도 1은 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 구성을 보인 예시도이다.
도 2는 본 발명의 일 실시예에 따른 사물 식별 장치의 학습모드 동작을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 사물 식별 장치의 식별모드 동작을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.
도 5는 도 4에 있어서, 카메라모듈의 회전 범위를 보인 예시도이다.
도 6은 도 4에 있어서, 복수의 지지대모듈을 이용한 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.
도 7은 본 발명의 일 실시예에 따른 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.
도 8은 도 7에 있어서, 복수의 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 형태를 보인 예시도이다.
도 10은 본 발명의 일 실시예에 따른 사물 식별 장치의 테스트 과정을 촬영한 사진을 보인 예시도이다.
도 11은 도 1에 있어서, 베이스모듈 및 바디나 프레임의 내측 측면에 형성되는 참조패턴을 보인 예시도이다.
도 12는 본 발명의 제1 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 13은 본 발명의 제2 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 14는 본 발명의 제3 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 15는 본 발명의 제4 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 16은 본 발명의 제5 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 17은 도 16에 있어서, 참조패턴 기반으로 동일한 사물에 대하여 360도 전 방향에서 촬영된 영상들 중 일부 영상을 보인 예시도이다.
도 18은 도 16에 있어서, 참조패턴 기반으로 동일한 사물을 촬영할 경우와 참조패턴을 이용하지 않고 동일한 사물을 촬영할 경우에 생성되는 입체 영상을 비교하기 위한 예시도이다.
도 19는 본 발명의 제6 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.
도 20은 본 발명에서 스테레오 카메라 대신 회전 또는 이동하는 카메라모듈을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.
도 21은 도 20에 있어서, 구조광을 이용하여 촬영한 영상을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.
도 22는 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보를 측정할 때 정확도를 설명하기 위한 예시도이다.
도 23은 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보가 다른 다양한 사물을 촬영한 영상을 보인 예시도이다.
도 24는 도 23에 있어서, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보를 보인 예시도이다.
도 25는 기존에 회전형 턴테이블에 놓여 있는 사물을 고정식 카메라를 이용하여 촬영한 영상을 바탕으로 입체 영상을 생성하는 방법의 문제점을 설명하기 위하여 보인 예시도이다.
도 26은 본 발명의 일 실시예에 따라 카메라모듈을 다양한 각도와 방향으로 회전 또는 이동시키면서 촬영한 사물의 영상을 바탕으로 생성한 입체 영상을 보인 예시도이다.
도 27은 본 발명의 일 실시예에 따른 사물 식별 장치의 카메라모듈의 촬영 동작을 테스트하는 사진을 보인 예시도이다.
도 28은 본 발명의 일 실시예에 따른 사물 식별 장치를 학습시키는 방법을 설명하기 위한 예시도이다.
도 29는 본 발명의 일 실시예에 따라 카메라모듈이 지지대모듈을 따라 회전 또는 이동하며 촬영한 사물의 좌표 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.
1 is an exemplary diagram showing the schematic configuration of an object identification device according to an embodiment of the present invention.
Figure 2 is a flowchart for explaining the learning mode operation of the object identification device according to an embodiment of the present invention.
Figure 3 is a flowchart for explaining the identification mode operation of the object identification device according to an embodiment of the present invention.
Figure 4 is an example diagram for explaining a method of rotating a camera module according to an embodiment of the present invention.
Figure 5 is an example diagram showing the rotation range of the camera module in Figure 4.
Figure 6 is an example diagram for explaining a method of rotating the camera module using a plurality of support modules in Figure 4.
Figure 7 is an example diagram for explaining a method of moving a camera module according to an embodiment of the present invention.
Figure 8 is an example diagram for explaining a method of moving a plurality of camera modules in Figure 7.
Figure 9 is an exemplary diagram showing the schematic form of an object identification device according to an embodiment of the present invention.
Figure 10 is an example diagram showing a photograph taken during a test process of an object identification device according to an embodiment of the present invention.
FIG. 11 is an example diagram showing a reference pattern formed on the base module and the inner side of the body or frame in FIG. 1.
Figure 12 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the first embodiment of the present invention.
Figure 13 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the second embodiment of the present invention.
Figure 14 is an example diagram for explaining a method of using a reference pattern for object recognition according to the third embodiment of the present invention.
Figure 15 is an example diagram for explaining a method of using a reference pattern for object recognition according to the fourth embodiment of the present invention.
Figure 16 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the fifth embodiment of the present invention.
Figure 17 is an example diagram showing some of the images taken in all directions of 360 degrees of the same object based on a reference pattern in Figure 16.
FIG. 18 is an example diagram for comparing three-dimensional images generated when photographing the same object based on a reference pattern and when photographing the same object without using a reference pattern in FIG. 16 .
Figure 19 is an example diagram for explaining a method of using a reference pattern for object recognition according to the sixth embodiment of the present invention.
Figure 20 is an example diagram to explain a method of generating a three-dimensional image using a rotating or moving camera module instead of a stereo camera in the present invention.
FIG. 21 is an example diagram for explaining the method of generating a three-dimensional image using an image captured using structured light in FIG. 20.
Figure 22 is an example diagram to explain accuracy when measuring depth information using a rotating or moving camera in the present invention.
Figure 23 is an example diagram showing images taken of various objects with different depth information using a rotating or moving camera in the present invention.
FIG. 24 is an example diagram showing 2D and depth information that can classify characteristics of each shape of an object in FIG. 23.
Figure 25 is an example diagram shown to explain the problems of the existing method of generating a three-dimensional image based on an image taken of an object placed on a rotating turntable using a fixed camera.
Figure 26 is an example diagram showing a three-dimensional image generated based on an image of an object captured while rotating or moving the camera module at various angles and directions according to an embodiment of the present invention.
Figure 27 is an example diagram showing a photograph testing the photographing operation of the camera module of the object identification device according to an embodiment of the present invention.
Figure 28 is an example diagram for explaining a method of training an object identification device according to an embodiment of the present invention.
Figure 29 is an example diagram to explain a method of improving the identification time and identification performance of an object by sharing coordinate information of the object captured while the camera module rotates or moves along the support module according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법의 실시예들에 대해 설명한다. Hereinafter, embodiments of an object identification device according to the present invention and a method for generating a three-dimensional image using the same will be described with reference to the attached drawings.

이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

카메라를 이용하여 사물을 식별하는 사물 식별 장치는, 식별력을 향상시키기 위하여, 여러 방향에서 사물을 촬영하고 촬영한 영상을 학습시켜야 하는데, 조명이나 촬영 각도에 따라 사물을 정확히 식별하지 못하는 문제점이 발생할 수 있다. 따라서 이러한 문제점을 해결하기 위하여, 여러 각도에서 사물을 촬영할 수 있는 복수의 카메라를 고정 설치할 수 있으나, 이 경우에는 카메라의 수가 증가함으로써 사물 식별 장치의 제작 단가가 증가하게 되는 문제점이 발생할 수 있다. An object identification device that uses a camera to identify objects must photograph objects from various directions and learn from the captured images in order to improve identification, but problems may arise in which objects cannot be accurately identified depending on lighting or shooting angles. there is. Therefore, in order to solve this problem, a plurality of cameras capable of photographing objects from various angles can be fixedly installed. However, in this case, as the number of cameras increases, a problem may occur in which the manufacturing cost of the object identification device increases.

이에 따라 본 발명은 카메라를 회전시키거나 이동시킴으로써 하나의 카메라를 이용하더라도 사물을 다양한 각도에서 입체적으로 촬영할 수 있도록 함으로써, 사물 식별 장치의 제작 단가를 낮추면서 오히려 식별력을 향상시킬 수 있도록 한다.Accordingly, the present invention allows three-dimensional photography of objects from various angles even when using a single camera by rotating or moving the camera, thereby lowering the manufacturing cost of the object identification device and improving identification ability.

도 1은 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 구성을 보인 예시도이다.1 is an exemplary diagram showing the schematic configuration of an object identification device according to an embodiment of the present invention.

도 1에 도시된 본 실시예에 따른 사물 식별 장치는, 카메라모듈(120)과 프로세서(150)를 포함할 수 있다. 또 다르게는 도 1에 도시된 바와 같이 본 발명의 실시예에 따른 사물 식별 장치는 지지대모듈(110), 카메라모듈(120), 베이스모듈(130), 센서모듈(140), 프로세서(150), 통신모듈(160), 조명모듈(170), 및 데이터베이스(DB)를 포함할 수 있다.The object identification device according to this embodiment shown in FIG. 1 may include a camera module 120 and a processor 150. Alternatively, as shown in FIG. 1, the object identification device according to an embodiment of the present invention includes a support module 110, a camera module 120, a base module 130, a sensor module 140, a processor 150, It may include a communication module 160, a lighting module 170, and a database (DB).

지지대모듈(110)은 사물 식별 장치의 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성되며, 카메라모듈(120)이 부착될 수 있다.The support module 110 is formed at a specified angle on one inner side of the body (or frame) of the object identification device, and the camera module 120 can be attached to it.

지지대모듈(110)은 카메라모듈(120)의 회전 방향 또는 이동 방향에 대응하여 지정된 형태(예 : 원형, 사각형, 타원형, C형, ㄷ형 등)의 궤도로 형성되거나, 지정된 형태의 궤도가 부착될 수 있다.The support module 110 is formed with a track of a designated shape (e.g., circular, square, oval, C-shaped, U-shaped, etc.) corresponding to the rotation direction or moving direction of the camera module 120, or a track of a designated shape is attached. You can.

지지대모듈(110)에는 적어도 하나의 카메라모듈(120)이 부착될 수 있다.At least one camera module 120 may be attached to the support module 110.

지지대모듈(110)은 카메라모듈(120)이 부착된 상태에서 지정된 속도에 따라 지정된 방향으로 회전되거나 이동될 수 있다.The support module 110 can be rotated or moved in a specified direction at a specified speed while the camera module 120 is attached.

지지대모듈(110)은 전동식 모터(미도시)를 포함할 수 있다.The support module 110 may include an electric motor (not shown).

지지대 모듈(110)은 베이스모듈(130)에 놓여 있는 사물을 다양한 높이에서 촬영하기 위하여 베이스모듈(130)을 기준으로 복수의 높이에 복수로 배치될 수 있다. 지지대 모듈(110)이 복수의 높이에 복수로 구성되는 경우, 그에 대응되게 각 지지대 모듈(110)에 카메라모듈(120)이 구비될 수 있다.A plurality of support modules 110 may be arranged at multiple heights based on the base module 130 in order to photograph objects placed on the base module 130 from various heights. When the support modules 110 are configured at multiple heights, a camera module 120 may be provided in each support module 110 correspondingly.

카메라모듈(120)은 지지대모듈(110)에 고정 부착될 수 있으며, 지지대모듈(110)의 궤도를 따라 능동적으로 회전 또는 이동할 수 있다.The camera module 120 may be fixedly attached to the support module 110 and may actively rotate or move along the orbit of the support module 110.

카메라모듈(120)은, 전동식 모터(미도시)를 구비하여, 지지대모듈(110)의 궤도를 따라 능동적으로 회전 또는 이동할 수도 있다.The camera module 120 may be equipped with an electric motor (not shown) to actively rotate or move along the trajectory of the support module 110.

카메라모듈(120)은, 지지대모듈(110)에 고정 부착되어, 지지대모듈(110)의 회전이나 이동에 따라 수동적으로 회전 또는 이동될 수도 있다.The camera module 120 may be fixedly attached to the support module 110 and passively rotated or moved according to the rotation or movement of the support module 110.

카메라모듈(120)은, 회전 또는 이동하며, 베이스모듈(130)에 놓여 있는 사물(예 : 상품, 물품 등)을 다양한 각도에서 연속하여 촬영할 수 있다.The camera module 120 rotates or moves and can continuously photograph objects (eg, products, articles, etc.) placed on the base module 130 from various angles.

카메라모듈(120)은 베이스모듈(130)의 중심을 기준으로 내측 또는 외측으로 촬영 각도가 조정될 수 있다.The camera module 120 may have its shooting angle adjusted inward or outward based on the center of the base module 130.

카메라모듈(120)은 베이스모듈(130)에 놓여 있는 사물을 다양한 높이에서 촬영하기 위하여 베이스모듈(130)을 기준으로 복수의 높이에 복수로 배치될 수도 있다.The camera module 120 may be arranged at multiple heights based on the base module 130 in order to photograph objects placed on the base module 130 from various heights.

카메라모듈(120)은 2차원 카메라, 깊이 카메라(Depth camera), 스테레오 카메라 등 3차원 카메라를 포함한다. 카메라모듈(120)은 이차원 영상 또는 깊이 정보를 포함한 3차원 영상 취득이 가능하며, 회전 또는 이동하여 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성할 수도 있다.The camera module 120 includes a 3D camera such as a 2D camera, a depth camera, and a stereo camera. The camera module 120 is capable of acquiring two-dimensional images or three-dimensional images including depth information, and rotates or moves to capture two-dimensional images or three-dimensional images including depth information taken from various angles of objects placed on the base module 130. Based on this, a depth image or a three-dimensional image can be generated.

본 예에서는 회전 또는 이동하는 하나 또는 둘 이상의 카메라모듈(120)에 대해 설명하고 있으나, 실시 환경이나 목적에 따라서는 상기 카메라모듈(120) 외에 고정형 카메라모듈(미도시)을 더 구비할 수도 있고, 이들에 의해 취득된 영상으로부터 프로세스(150)가 사물을 식별한다.In this example, one or two or more camera modules 120 that rotate or move are described, but depending on the implementation environment or purpose, a fixed camera module (not shown) may be further provided in addition to the camera module 120. Process 150 identifies objects from the images acquired by them.

베이스모듈(130)은 물품 받침대의 기능을 수행한다.The base module 130 performs the function of an item support.

베이스모듈(130)은 카메라모듈(120)의 위치 및 포즈 혹은 상기 사물의 놓인 위치, 크기 및 특징을 추출하여 사물 인식 성능을 높이는 미리 지정된 참조패턴(도 11 참조)을 베이스모듈(130)의 적어도 일 측면에 구비할 수 있다. 이러한 참조패턴은 보다 더 강인한 사물 인식 성능을 도출할 수 있게 한다. 또한, 참조패턴이 형성되는 표면, 즉 베이스모듈(130) 표면 또는 적어도 일측면부의 표면은 무광 처리되게 형성하는 것이 바람직하며, 참조패턴 이외의 배경은 다양한 칼라나 질감이 가능하겠으나 본 발명의 실시예들에서는 미리 지정된 텍스처(texture)(예: 대리석 등)를 형성하는 것이 바람직하다. 이것은 조명으로부터의 영향을 최소화하고 사물들에 의한 참조패턴 가림이나 사물을 담은 트레이를 베이스모듈(130) 위에 올려 놓을 때 참조패턴 가려짐에 의한 영향을 최소화한다.The base module 130 extracts the position and pose of the camera module 120 or the position, size, and characteristics of the object, and extracts a pre-designated reference pattern (see FIG. 11) that improves object recognition performance to at least one of the base module 130. It can be provided on one side. These reference patterns enable more robust object recognition performance. In addition, it is preferable that the surface on which the reference pattern is formed, that is, the surface of the base module 130 or at least one side surface, is formed to be matte, and the background other than the reference pattern can be of various colors or textures, but embodiments of the present invention In fields, it is desirable to form a pre-specified texture (e.g. marble, etc.). This minimizes the influence from lighting and minimizes the influence of the reference pattern being obscured by objects or when a tray containing objects is placed on the base module 130.

베이스모듈(130)은 전동식 모터(미도시)에 의해 지정된 방향으로 지정된 속도에 따라 회전될 수 있으며, 또한 지정된 세기로 진동될 수도 있다.The base module 130 may be rotated in a specified direction at a specified speed by an electric motor (not shown) and may also be vibrated at a specified intensity.

센서모듈(140)은 엔코더와 포지션 센서를 포함할 수 있으며, 프로세서(150)가 센서모듈(140)로부터의 센싱 정보(예: 위치, 각도 등)를 바탕으로 카메라모듈(120)의 촬영 각도나 회전 위치나 이동 위치를 정확하게 감지하고 제어할 수 있도록 한다.The sensor module 140 may include an encoder and a position sensor, and the processor 150 determines the shooting angle or shooting angle of the camera module 120 based on sensing information (e.g., position, angle, etc.) from the sensor module 140. Enables accurate detection and control of rotation or movement position.

프로세서(150)는 회전 또는 이동하는 카메라모듈(120)이 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 연속 촬영한 영상을 바탕으로 각 사물을 식별한다. 또한, 프로세서(150)는 이차원 영상, 깊이 영상(예: 카메라 시점에서 사물간의 거리값을 지닌 데이터) 및/또는 입체 영상(예: x축, y축, z축 세 가지 3차원 위치 정보를 담고 있는 영상 데이터) 등을 생성할 수 있고, 이렇게 생성된 영상에 대해 전처리 및 후처리를 통해 사물을 식별해낸다. 또한, 카메라모듈(120)이 이차원 영상 또는 깊이 정보를 포함한 3차원 영상 취득이 가능하므로, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 프로세서(150)는 깊이 영상 또는 입체 영상을 생성하여 이를 이용해 사물을 식별할 수도 있다.The processor 150 identifies each object based on images taken continuously from various angles of the object placed on the base module 130 by the rotating or moving camera module 120. In addition, the processor 150 contains two-dimensional images, depth images (e.g., data with distance values between objects from the camera's viewpoint), and/or three-dimensional images (e.g., three-dimensional position information on the x-axis, y-axis, and z-axis). image data) can be generated, and objects are identified through pre-processing and post-processing of the generated images. In addition, since the camera module 120 is capable of acquiring two-dimensional images or three-dimensional images including depth information, three-dimensional images including two-dimensional images or depth information captured from various angles of objects placed on the base module 130 while rotating or moving Based on the dimensional image, the processor 150 may generate a depth image or a three-dimensional image and use it to identify objects.

프로세서(150)는 베이스모듈(130)에 놓여 있는 사물을 식별함에 있어 미리 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)된 결과를 이용하여 사물 식별을 수행한다. 또는 프로세서(150)는 베이스모듈(130)에 놓여지는 사물의 위치와 형상과 형태 및 사물의 상태 조건(예: 조명모듈의 발광 세기, 외부 빛의 영향 등) 등을 바꿔가며 실험한 결과를 토대로 패턴매칭, 기계학습 또는 딥러닝학습을 수행하여 그 결과를 데이터베이스(DB)에 저장시킨다.When identifying an object placed on the base module 130, the processor 150 performs object identification using results learned in advance (e.g., pattern matching, machine learning, or deep learning learning). Alternatively, the processor 150 may change the position, shape, and form of the object placed on the base module 130 and the state conditions of the object (e.g., luminous intensity of the lighting module, influence of external light, etc.) based on the results of an experiment. Pattern matching, machine learning, or deep learning are performed and the results are stored in the database (DB).

프로세서(150)는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상, 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상으로부터 생성한 깊이 영상이나 입체 영상을 이용하여, 사물을 식별하기 위한 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행한다.The processor 150 uses a depth image or three-dimensional image generated from an image of an object placed on the base module 130, or an image of an object placed on the base module 130 to identify the object. Perform learning (e.g. pattern matching, machine learning, or deep learning).

이 때, 상기와 같은 패턴매칭, 기계학습 또는 딥러닝학습은 프로세서(150)에 의해 사물 식별 장치 내에서 수행될 수도 있지만, 실시 환경이나 실시 의도에 따라 상기 사물 식별 장치와 통신모듈(160)을 통해 유선/무선으로 연결되는 서버나 미리 지정된 클라우드(미도시)에서 수행되고 그 학습 결과가 다시 전송되어 데이터베이스(DB)에 저장되며, 프로세서(150)에 의해 사물 식별 시에 이용된다.At this time, the above pattern matching, machine learning, or deep learning may be performed within the object identification device by the processor 150, but the object identification device and the communication module 160 may be used depending on the implementation environment or implementation intention. It is performed on a server or a pre-designated cloud (not shown) connected by wired/wireless means, and the learning results are transmitted again and stored in a database (DB), and are used by the processor 150 to identify objects.

프로세서(150)는 베이스모듈(130)에 놓여 있는 사물의 학습을 위한 학습모드, 및 베이스모듈(130)에 놓여 있는 사물의 식별을 위한 식별모드를 포함한다.The processor 150 includes a learning mode for learning objects placed on the base module 130 and an identification mode for identifying objects placed on the base module 130.

프로세서(150)는 학습모드 및 식별모드 수행 시, 지지대모듈(110), 카메라모듈(120), 및 베이스모듈(130)에 포함된 전동식 모터(미도시)를 제어한다.The processor 150 controls electric motors (not shown) included in the support module 110, camera module 120, and base module 130 when performing the learning mode and identification mode.

프로세서(150)는 학습모드 및 식별모드 수행 시, 카메라모듈(120)을 통해 촬영된 영상 및 센서모듈(140)을 통해 검출된 카메라모듈(120)의 위치(즉, 회전/이동 위치) 및/또는 각도 정보를 대응시켜 데이터베이스(DB)에 저장한다.When performing the learning mode and identification mode, the processor 150 determines the image captured through the camera module 120 and the position (i.e., rotation/movement position) of the camera module 120 detected through the sensor module 140. Or, angle information is matched and stored in a database (DB).

데이터베이스(DB)는 카메라모듈(120)을 통해 촬영된 영상(예: 이차원 영상, 깊이 영상, 입체 영상)과 센서모듈(140)을 통해 검출된 위치 정보 및/또는 각도 정보를 대응시켜 저장한다. 데이터베이스(DB)에는 학습모드 및 식별모드를 수행하기 위한 프로그램, 학습 관련 정보, 학습 결과, 사물의 특성 정보(예 : 길이, 부피, 높이, 색상 등), 및 사물의 가격 정보 중 적어도 하나 이상이 저장된다.The database DB stores images captured through the camera module 120 (e.g., two-dimensional images, depth images, and stereoscopic images) in correspondence with location information and/or angle information detected through the sensor module 140. The database (DB) contains at least one of the programs for performing learning mode and identification mode, learning-related information, learning results, object characteristic information (e.g. length, volume, height, color, etc.), and object price information. It is saved.

통신모듈(160)은 학습모드 및 식별모드 수행과 관련된 정보를 입력하거나 출력하기 위한 적어도 하나 이상의 외부 장치(예 : 디스플레이모듈, 사용자단말기, 서버 등)와 유선 또는 무선 방식으로 통신을 연결한다.The communication module 160 communicates with at least one external device (e.g., display module, user terminal, server, etc.) in a wired or wireless manner to input or output information related to performing the learning mode and identification mode.

예컨대 디스플레이모듈은 학습모드에서 학습을 수행하기 위한 안내메시지를 출력할 수 있으며, 또한 디스플레이모듈은 식별모드에서 식별한 사물의 이름과 가격 정보를 출력할 수 있다. 사용자단말기는 식별모드에서 식별한 사물의 이름과 가격 정보 및 결제 정보를 출력할 수 있다. 서버는 어느 하나의 사물 식별 장치에서 학습한 정보를 다른 사물 식별 장치와 공유할 수 있도록 한다. 가령, 제1 사물 식별 장치에서 제1 사물에 대하여 학습한 학습 정보를, 제2 사물 식별 장치에 전달하여 상호간에 동일한 사물에 대한 학습 정보를 공유할 수 있도록 한다. 또한 서버는 사물 식별 장치에 대한 운영 프로그램이나 데이터를 업데이트할 수 있도록 한다.For example, the display module can output a guidance message for performing learning in the learning mode, and the display module can also output the name and price information of the identified object in the identification mode. The user terminal can output the name, price information, and payment information of the identified object in identification mode. The server allows information learned from one object identification device to be shared with other object identification devices. For example, the learning information learned about the first object from the first object identification device is transmitted to the second object identification device so that learning information about the same object can be shared with each other. Additionally, the server allows updating operating programs or data for the object identification device.

이 때, 또 다른 실시예에서는 상기 디스플레이모듈이 사물 식별 장치에 일체로 결합되어 형성될 수도 있다.At this time, in another embodiment, the display module may be formed by being integrally combined with the object identification device.

조명모듈(170)은 바디(또는 프레임)의 내부 일 측면에 부착되어 조명한다. 본 발명의 실시예들에서는 조명모듈(170)이 베이스모듈(130)에 대향되는 상부측의 소정 위치(예: 상부 중앙, 상부측 테두리 등)에 형성된다.The lighting module 170 is attached to one inner side of the body (or frame) and illuminates. In embodiments of the present invention, the lighting module 170 is formed at a predetermined location on the upper side (eg, upper center, upper edge, etc.) opposite the base module 130.

조명모듈(170)은 적어도 하나 이상의 색상으로 조명할 수 있으며, 조명 시 밝기가 조정될 수도 있다. The lighting module 170 may illuminate in at least one color, and the brightness may be adjusted when illuminated.

이 때 조명에 대한 색상이나 밝기의 조정은, 사물의 선명한 촬영(즉, 식별력 향상)을 위한 것으로서, 가령, 사물의 포장지의 재질(예 : 비닐, 종이, 알루미늄 등), 및 포장지에 인쇄된 정보(예 : 사물의 상표, 도안, 바코드, 홀로그램 등)의 종류에 따라, 선명한 촬영을 위하여 조명에 대한 색상이나 밝기가 조정될 수 있다.At this time, adjusting the color or brightness of the lighting is for clear photography of the object (i.e., improving identification), for example, the material of the object's packaging (e.g. vinyl, paper, aluminum, etc.) and the information printed on the packaging. Depending on the type of object (e.g. trademark, design, barcode, hologram, etc.), the color or brightness of the lighting can be adjusted for clear photography.

조명모듈(170)은 가시광 엘이디(LED)를 포함할 수 있으며, 조명 특성(예 : 할로겐, 적외선, 자외선 등)이 다른 복수의 조명 소자가 추가로 포함될 수도 있다.The lighting module 170 may include a visible light LED (LED), and may additionally include a plurality of lighting elements with different lighting characteristics (e.g., halogen, infrared, ultraviolet, etc.).

이 때 조명 소자의 선택은, 사물의 선명한 촬영(즉, 식별력 향상)을 위한 것으로서, 가령, 사물의 포장지의 재질(예 : 비닐, 종이, 알루미늄 등), 및 포장지에 인쇄된 정보(예 : 사물의 상표, 도안, 바코드, 홀로그램 등)의 종류에 따라, 선명한 촬영을 위하여 조명 소자가 선택될 수 있다.At this time, the selection of the lighting element is for clear photography of the object (i.e., improved identification), for example, the material of the object's packaging (e.g. vinyl, paper, aluminum, etc.) and the information printed on the packaging (e.g. the object) Depending on the type (brand, design, barcode, hologram, etc.), a lighting device may be selected for clear photography.

도 2는 본 발명의 일 실시예에 따른 사물 식별 장치의 학습모드 동작을 설명하기 위한 흐름도이다.Figure 2 is a flowchart for explaining the learning mode operation of the object identification device according to an embodiment of the present invention.

도 2를 참조하면, 사물 식별 장치의 현재 모드가 학습모드이고(S101의 예), 베이스모듈(130) 위에 사물이 탑재되어 있을 경우(S102의 예), 프로세서(150)는 카메라모듈(120)을 지정된 속도에 따라 지정된 방향으로 회전시키거나 이동시키며, 베이스모듈(130)에 놓여 있는 사물을 촬영한다(S103).Referring to FIG. 2, when the current mode of the object identification device is the learning mode (example of S101) and an object is mounted on the base module 130 (example of S102), the processor 150 operates the camera module 120. Rotates or moves in a designated direction at a designated speed, and photographs an object placed on the base module 130 (S103).

이 때 프로세서(150)는, 전동식 모터(미도시)를 제어하여, 지지대모듈(110)의 형태(예 : 궤도 형태)에 따라 카메라모듈(120)을 능동적으로 회전 또는 이동시킬 수 있으며, 또는 지지대모듈(110)에 카메라모듈(120)을 고정 부착시켜, 지지대모듈(110)의 회전이나 이동에 따라 카메라모듈(120)을 수동적으로 회전 또는 이동될 수도 있다(도 4 내지 도 8 참조).At this time, the processor 150 can control an electric motor (not shown) to actively rotate or move the camera module 120 according to the shape (e.g., track shape) of the support module 110, or the support module 110. By fixing the camera module 120 to the module 110, the camera module 120 may be manually rotated or moved according to the rotation or movement of the support module 110 (see FIGS. 4 to 8).

이에 따라 프로세서(150)는 카메라모듈(120)이 회전이나 이동(즉, 능동적/수동적인 회전이나 이동)을 수행하면서 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상(즉, 이차원 영상), 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상들로부터 생성한 깊이 영상 및/또는 입체 영상을 이용하여, 사물을 식별(또는 인식)하는 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행하고(S104), 학습 정보(즉, 사물의 식별 또는 인식 정보) 및 이에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)에 저장한다(S105). 또한, 카메라모듈(120)이 이차원 영상뿐만 아니라 깊이 정보를 포함한 3차원 영상 취득이 가능한 경우, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성하며 프로세서(150)가 상기 깊이 영상 또는 입체 영상을 이용하여 사물을 식별하는 학습을 수행할 수도 있다. 또 다르게는, 상기 학습이 서버나 클라우드(미도시)에서 수행되게 할 수도 있으므로, 이 경우엔 프로세서(150)가 상기 영상(이차원 영상), 또는 상기 생성한 깊이 영상 및/또는 입체 영상을 외부의 서버나 클라우드(미도시)에 전송시킨다.Accordingly, the processor 150 produces an image (i.e., two-dimensional image) captured of an object placed on the base module 130 while the camera module 120 rotates or moves (i.e., active/passive rotation or movement). Or, learning to identify (or recognize) an object using depth images and/or three-dimensional images generated from images of objects placed on the base module 130 (e.g., pattern matching, machine learning, or deep learning learning) ) is performed (S104), and the learning information (i.e., object identification or recognition information) and the corresponding sales information (e.g., price) are stored in the database (DB) (S105). In addition, if the camera module 120 is capable of acquiring not only a two-dimensional image but also a three-dimensional image including depth information, a two-dimensional image captured from various angles of an object placed on the base module 130 while rotating or moving or including depth information A depth image or stereoscopic image is generated based on the 3D image, and the processor 150 may learn to identify objects using the depth image or stereoscopic image. Alternatively, the learning may be performed on a server or cloud (not shown), so in this case, the processor 150 transmits the image (two-dimensional image) or the generated depth image and/or stereoscopic image to an external device. It is transmitted to a server or cloud (not shown).

또한 도면으로 도시되지는 않았으나, 프로세서(150)는 디스플레이모듈을 통해 학습모드에서 학습을 수행하기 위한 안내메시지를 출력할 수 있다.Additionally, although not shown in the drawing, the processor 150 may output a guidance message for performing learning in the learning mode through the display module.

도 3은 본 발명의 일 실시예에 따른 사물 식별 장치의 식별모드 동작을 설명하기 위한 흐름도이다.Figure 3 is a flowchart for explaining the identification mode operation of the object identification device according to an embodiment of the present invention.

도 3을 참조하면, 사물 식별 장치의 현재 모드가 식별모드이고(S201의 예), 베이스모듈(130) 위에 사물이 탑재되어 있을 경우(S202의 예), 프로세서(150)는 카메라모듈(120)을 지정된 속도에 따라 지정된 방향으로 회전시키거나 이동시키며, 베이스모듈(130)에 놓여 있는 사물을 촬영한다(S203).Referring to FIG. 3, when the current mode of the object identification device is the identification mode (example of S201) and an object is mounted on the base module 130 (example of S202), the processor 150 operates the camera module 120. Rotates or moves in a designated direction according to a designated speed, and photographs an object placed on the base module 130 (S203).

이 때 프로세서(150)는, 학습모드인 경우와 마찬가지로, 전동식 모터(미도시)를 제어하여, 지지대모듈(110)의 형태(예 : 궤도 형태)에 따라 카메라모듈(120)을 능동적으로 회전 또는 이동시킬 수 있으며, 또는 지지대모듈(110)에 카메라모듈(120)이 고정 부착된 경우, 지지대모듈(110)의 회전이나 이동에 따라 카메라모듈(120)을 수동적으로 회전 또는 이동시킬 수도 있다(도 4 내지 도 8 참조).At this time, as in the learning mode, the processor 150 controls an electric motor (not shown) to actively rotate or rotate the camera module 120 according to the shape (e.g., orbital shape) of the support module 110. It can be moved, or when the camera module 120 is fixedly attached to the support module 110, the camera module 120 can be manually rotated or moved according to the rotation or movement of the support module 110 (Figure 4 to 8).

이에 따라 프로세서(150)는 카메라모듈(120)이 회전이나 이동(즉, 능동적/수동적인 회전이나 이동)을 수행하면서 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상(즉, 2차원 영상), 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상들로부터 생성한 깊이 영상 및/또는 입체 영상을 이용하여, 사물을 식별(또는 인식)하고(S204), 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)로부터 로딩한다(S205). 또한, 카메라모듈(120)이 이차원 영상뿐만 아니라 깊이 정보를 포함한 3차원 영상 취득이 가능한 경우, 회전 또는 이동하면서 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한 이차원 영상 또는 깊이 정보를 포함한 3차원 영상을 바탕으로 깊이 영상 또는 입체 영상을 생성하고 프로세서(150)가 상기 깊이 영상 또는 입체 영상을 이용하여 사물을 식별(또는 인식)할 수도 있고(S204), 이렇게 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 데이터베이스(DB)로부터 로딩시킬 수 있다(S205).Accordingly, the processor 150 captures an image (i.e., a two-dimensional image) of an object placed on the base module 130 while the camera module 120 rotates or moves (i.e., active/passive rotation or movement). , or using a depth image and/or three-dimensional image generated from images of an object placed on the base module 130, identify (or recognize) the object (S204), and attach the object to the identified (or recognized) object. Corresponding sales information (e.g. price) is loaded from the database (DB) (S205). In addition, if the camera module 120 is capable of acquiring not only a two-dimensional image but also a three-dimensional image including depth information, a two-dimensional image captured from various angles of an object placed on the base module 130 while rotating or moving or including depth information A depth image or three-dimensional image may be generated based on the three-dimensional image, and the processor 150 may identify (or recognize) an object using the depth image or three-dimensional image (S204), and the object thus identified (or recognized) may be generated. Sales information (e.g. price) corresponding to can be loaded from the database (DB) (S205).

또한 도면으로 도시되지는 않았으나, 프로세서(150)는 식별(또는 인식)된 사물에 대응하는 판매 정보(예 : 가격)를 합산한 결제 정보를, 디스플레이모듈이나 사용자 단말에 출력(즉, 전송이나 표시)할 수 있다.In addition, although not shown in the drawing, the processor 150 outputs (i.e. transmits or displays) payment information summing up sales information (e.g. price) corresponding to the identified (or recognized) object to the display module or user terminal. )can do.

이하 도 4 내지 도 8을 참조하여, 카메라모듈(120)의 회전 또는 이동 방법에 대해서 설명한다.Hereinafter, a method of rotating or moving the camera module 120 will be described with reference to FIGS. 4 to 8.

도 4는 본 발명의 일 실시예에 따른 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.Figure 4 is an example diagram for explaining a method of rotating a camera module according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성되며, 이에 카메라모듈(120)이 부착된다.As shown in FIG. 4, the support module 110 is formed at a designated angle on one inner side of the body (or frame), and the camera module 120 is attached to it.

예컨대 도 4의 (a)와 (b)에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 상측에 수평하게 형성될 수 있으며, 구체적으로 (a)에 도시된 바와 같이 하나의 지지대모듈(110)에 하나의 카메라모듈(120)이 부착되거나, (b)에 도시된 바와 같이 하나의 지지대모듈(110)에 복수의 카메라모듈(120)이 부착될 수 있다. For example, as shown in (a) and (b) of Figures 4, the support module 110 may be formed horizontally on the inner upper side of the body (or frame), specifically as shown in (a). One camera module 120 may be attached to the support module 110, or a plurality of camera modules 120 may be attached to one support module 110 as shown in (b).

또한 도 4의 (c)와 (d)에 도시된 바와 같이, 지지대모듈(110)은 바디(또는 프레임)의 내부 일 측면에 지정된 각도로 형성될 수 있으며, (c)에 도시된 바와 같이 하나의 지지대모듈(110)이 지정된 각도로 형성되거나, (d)에 도시된 바와 같이 복수의 지지대모듈(110)이 각각 지정된 각도로 형성될 수 있다.Additionally, as shown in (c) and (d) of Figures 4, the support module 110 may be formed at a specified angle on one inner side of the body (or frame), and as shown in (c), the support module 110 may be formed at a specified angle. The support module 110 may be formed at a designated angle, or, as shown in (d), a plurality of support modules 110 may each be formed at a designated angle.

도 5는 도 4에 있어서, 카메라모듈의 회전 범위를 보인 예시도이다. Figure 5 is an example diagram showing the rotation range of the camera module in Figure 4.

도 5의 (a)에 도시된 바와 같이 카메라모듈(120)은 360도 회전하며 베이스모듈(130) 위에 놓여 있는 사물을 360도 전방향에서 촬영할 수 있다. As shown in (a) of FIG. 5, the camera module 120 rotates 360 degrees and can capture objects placed on the base module 130 from 360 degrees in all directions.

또는 도 5의 (b)에 도시된 바와 같이 카메라모듈(120)은 지정된 각도 범위(예 : 180도, 270도 등) 내에서 회전하며 베이스모듈(130) 위에 놓여 있는 사물을 지정된 각도 범위(예 : 180도, 270도 등)에서 촬영할 수도 있다.Alternatively, as shown in (b) of FIG. 5, the camera module 120 rotates within a specified angle range (e.g., 180 degrees, 270 degrees, etc.) and detects an object placed on the base module 130 within the specified angle range (e.g. : You can also shoot at 180 degrees, 270 degrees, etc.)

도 6은 도 4에 있어서, 복수의 지지대모듈을 이용한 카메라모듈의 회전 방법을 설명하기 위한 예시도이다.Figure 6 is an example diagram for explaining a method of rotating the camera module using a plurality of support modules in Figure 4.

도 6을 참조하면, 사물 식별 장치의 바디(또는 프레임) 내부의 각기 다른 높이(예 : 상측, 하측)에 복수의 지지대모듈(110)이 형성되되, (a)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110)이 모두 카메라모듈(120)을 360도 회전시킬 수 있는 형태로 형성될 수 있으며, 또는 (b)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110) 중 어느 하나는 카메라모듈(120)을 360도 회전시킬 수 있는 형태로 형성되고, 다른 하나는 카메라모듈(120)을 지정된 각도 범위(예 : 270도) 내에서 회전시킬 수 있는 호 형태로 형성되며, 또는 (c)에 도시된 바와 같이 각기 다른 높이(예 : 상측, 하측)에 형성된 복수의 지지대모듈(110)이 모두 카메라모듈(120)을 지정된 각도 범위(예 : 270도) 내에서 회전시킬 수 있는 호 형태로 형성될 수 있다.Referring to FIG. 6, a plurality of support modules 110 are formed at different heights (e.g., upper and lower sides) inside the body (or frame) of the object identification device, and are at different heights as shown in (a). A plurality of support modules 110 formed on the upper and lower sides (e.g., upper and lower sides) may all be formed in a form that allows the camera module 120 to rotate 360 degrees, or may be formed at different heights as shown in (b). Example: One of the plurality of support modules 110 formed on the upper and lower sides is formed in a shape that can rotate the camera module 120 360 degrees, and the other one supports the camera module 120 within a specified angle range (e.g. : It is formed in an arc shape that can be rotated within 270 degrees, or as shown in (c), a plurality of support modules 110 formed at different heights (e.g., upper and lower sides) are all connected to the camera module 120. ) can be formed in the form of an arc that can be rotated within a specified angle range (e.g. 270 degrees).

도 7은 본 발명의 일 실시예에 따른 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.Figure 7 is an example diagram for explaining a method of moving a camera module according to an embodiment of the present invention.

도 7의 (a)에 도시된 바와 같이 카메라모듈(120)은 바디(또는 프레임)의 내부 모서리에 형성된 지지대모듈(110)을 따라, 모서리 부분에서 수평 방향(또는 X,Y 방향)으로 이동하거나 모서리 부분에서 수직 방향(또는 Z 방향)으로 이동할 수 있으며, (b)와 (c)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면(예 : 상측)에 대하여 수평하게 형성된 지지대모듈(110)을 따라, X축 방향 또는 Y축 방향으로 이동할 수 있으며, (d)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면의 일 지점에서 타 측면의 일 지점으로 지정된 각도의 호(arc) 형태로 형성된 지지대모듈(110)을 따라, 지정된 각도 범위(예 : 270도) 내에서 이동할 수 있으며, (e)에 도시된 바와 같이 바디(또는 프레임)의 내부 일 측면의 일 지점에서 타 측면의 일 지점으로 직선 형태(또는 기울기가 있는 직선 형태)로 형성된 지지대모듈(110)을 따라 직진 방향(또는 대각 방향)으로 이동할 수도 있다.As shown in (a) of FIG. 7, the camera module 120 moves in the horizontal direction (or X, Y direction) from the corner along the support module 110 formed at the inner corner of the body (or frame). The support module 110 can move in the vertical direction (or Z direction) at the corner and is formed horizontally with respect to one inner side (e.g., upper side) of the body (or frame) as shown in (b) and (c). ), it can move in the It can move within a specified angle range (e.g., 270 degrees) along the support module 110 formed in the shape, and as shown in (e), it moves from one point on one side of the body (or frame) to the other side of the body (or frame). It may also move in a straight direction (or diagonal direction) along the support module 110 formed in a straight line (or a straight line with an inclination) to one point.

도 8은 도 7에 있어서, 복수의 카메라모듈의 이동 방법을 설명하기 위한 예시도이다.Figure 8 is an example diagram for explaining a method of moving a plurality of camera modules in Figure 7.

도 8의 (a)에 도시된 바와 같이 복수의 카메라모듈(120)이 바디(또는 프레임)의 내부 일 측면에 대하여 수평하게 형성된 지지대모듈(110)을 따라 X축 방향으로 수평하게 이동할 수 있으며, (b)에 도시된 바와 같이 복수의 카메라모듈(120)이 바디(또는 프레임)의 내부 일 측면에 대하여 수평하게 형성된 지지대모듈(110)을 따라 Y축 방향으로 수평하게 이동할 수도 있다.As shown in (a) of FIG. 8, a plurality of camera modules 120 can move horizontally in the X-axis direction along the support module 110 formed horizontally with respect to one inner side of the body (or frame), As shown in (b), a plurality of camera modules 120 may move horizontally in the Y-axis direction along the support module 110 formed horizontally with respect to one inner side of the body (or frame).

본 실시예는 하나의 카메라모듈(120)만으로도 사물의 입체적 촬영이 가능하지만, 복수의 카메라모듈(120)을 이용함으로써 이미지 취득 및 인식 시간을 최소화 할 수 있는 효과가 있으며, 복수의 카메라모듈(120)을 설치할 경우 각 카메라모듈(120)의 화각을 다르게 구성하여 사물 인식(식별)률을 향상시킬 수 있다.In this embodiment, three-dimensional photography of objects is possible with only one camera module 120, but there is an effect of minimizing image acquisition and recognition time by using a plurality of camera modules 120, and the plurality of camera modules 120 ), the object recognition (identification) rate can be improved by configuring the angle of view of each camera module 120 differently.

도 9는 본 발명의 일 실시예에 따른 사물 식별 장치의 개략적인 형태를 보인 예시도로서, (a)에 도시된 바와 같이 사물 식별 장치는 전면측이 개방되어 사물을 베이스모듈(130)에 올려놓고 쉽게 회수할 수 있는 형태로 형성될 수 있다. 또한, (b)와 (c)에 도시된 바와 같이 사물 식별 장치는 전면측과 좌우측면부가 완전 개방되어 보다 더 쉽게 사물을 베이스모듈(130)에 올려놓거나 회수할 수 있는 형태로 형성될 수 있다. 그리고, (c)에서와 같이 상부측은 원형으로 형성될 수도 있고, 후방측은 전면에서 볼 때 베이스모듈(130)의 폭보다 더 좁게 형성할 수도 있는 등, 본 발명에 따른 사물 식별 장치는 다양한 형태로 디자인될 수 있음은 당연하며, 예시된 예들에 국한되지 않는다.Figure 9 is an exemplary diagram showing the schematic form of an object identification device according to an embodiment of the present invention. As shown in (a), the object identification device has an open front side and places an object on the base module 130. It can be formed into a form that can be placed and easily recovered. In addition, as shown in (b) and (c), the object identification device has a completely open front and left and right sides, so that objects can be more easily placed on or retrieved from the base module 130. . And, as in (c), the upper side may be formed in a circular shape, and the rear side may be formed to be narrower than the width of the base module 130 when viewed from the front. The object identification device according to the present invention can be formed in various forms. It goes without saying that it can be designed and is not limited to the examples illustrated.

도면에는 구체적으로 도시되어 있지 않지만, 프로세서(150)는 카메라모듈(120)이나 센서모듈(140) 또는 또다른 카메라모듈을 통해 베이스모듈(130) 상의 스캔(촬영) 영역 내의 사물을 식별할 수 있고 사용자의 행위(예 : 사물을 올려놓거나 꺼내는 행위, 결제를 위해 사물 식별 장치에 접근하는 행위, 베이스모듈에 사물을 올려놓은 후 결제를 기다리는 행위, 결제가 완료되어 사물 식별 장치로부터 멀어지는 행위 등)에 따른 변화를 실시간 감지할 수 있다.Although not specifically shown in the drawing, the processor 150 can identify objects in the scan (photography) area on the base module 130 through the camera module 120, sensor module 140, or another camera module. User's actions (e.g. placing or removing an object, approaching the object identification device for payment, placing an object on the base module and waiting for payment, moving away from the object identification device after payment is completed, etc.) Changes can be detected in real time.

또한 본 실시예에 따른 사물 식별 장치는 결제 시스템(예 : POS 시스템)과 결합되어, 사물 식별(인식) 정보를 바탕으로 곧바로 결제를 수행할 수 있도록 한다.Additionally, the object identification device according to this embodiment is combined with a payment system (e.g., POS system), allowing immediate payment based on object identification (recognition) information.

도 10은 본 발명의 일 실시예에 따른 사물 식별 장치의 테스트 과정을 촬영한 사진을 보인 예시도로서, 사물 식별 장치의 바디(프레임)를 개방한 상태에서, (a)는 전면에서 촬영된 사진이고, (b)는 측면에서 촬영된 사진이며, (c)는 바디(프레임) 내부의 상측이 촬영된 사진이다.Figure 10 is an exemplary diagram showing a photograph taken during a test process of an object identification device according to an embodiment of the present invention. In a state in which the body (frame) of the object identification device is opened, (a) is a photograph taken from the front. , (b) is a photo taken from the side, and (c) is a photo taken from the top inside the body (frame).

도 11은 도 1에 있어서, 베이스모듈, 및 바디나 프레임의 내측 측면에 형성되는 참조패턴을 보인 예시도이다.FIG. 11 is an example diagram showing a reference pattern formed on the base module and the inner side of the body or frame in FIG. 1.

본 실시예에서 참조패턴은, 카메라모듈(120)의 위치 및 포즈를 추출하여 캘리브레이션 할 수 있도록 하는 목적, 상기 베이스모듈(130)에 놓인 사물의 위치, 크기 및 특징을 추출하여 사물 인식 성능을 향상시킬 수 있도록 하는 목적, 및 해당 패턴을 활용해서 다양한 조명환경에서도 균일한 조명을 구성할 수 있도록 활용하는데 그 목적이 있다. 이러한 참조패턴은, 사물 인식 성능을 보다 더 향상시킬 수 있도록 한다.In this embodiment, the reference pattern has the purpose of extracting and calibrating the position and pose of the camera module 120 and improving object recognition performance by extracting the position, size, and characteristics of the object placed on the base module 130. The purpose is to use the pattern to create uniform lighting even in various lighting environments. These reference patterns allow object recognition performance to be further improved.

참조패턴은 사용자가 항상 인식할 수 있도록 표시되는 잉크를 이용해 형성될 수 있으며, 또는 특정한 조명 상태에서만 표시됨으로써 사용자가 인식할 수 있도록 하는 잉크를 이용해 형성될 수 있으며, 또는 평상시에는 표시되지 않고 특정한 조명 상태에서 카메라모듈(120)만 인식할 수 있도록 표시되는 잉크를 이용해 형성될 수도 있다.The reference pattern may be formed using ink that is displayed so that the user can always recognize it, or it may be formed using ink that is displayed so that the user can recognize it by displaying it only under certain lighting conditions, or it may be formed using ink that is not displayed normally and is displayed under specific lighting conditions. It may be formed using ink that is displayed so that only the camera module 120 can be recognized in this state.

예컨대 참조패턴은, 도 11의 (a)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역의 적어도 일 측에는 눈금자가 형성되고, 제1 영역에는 검정색과 흰색의 사각형이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (b)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하여 제2 영역에는 검정색과 흰색 사각형이 순차로 반복되는 라인 형태로 형성되고 제1 영역에는 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 원형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (c)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역에는 제1 영역의 중심 방향으로 향하는 직선들(즉, 눈금자 역할을 수행하는 직선들)이 제1 영역의 경계선까지 지정된 간격으로 배열되며 제1 영역에는 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 원형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (d)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제2 영역에는 문자나 숫자가 라인 형태로 배열되고 제1 영역에는 배경색(예 : 대리석 텍스처)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 사각형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (e)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 배경색(예 : 흰색)과 다른 색상(예 : 검정색)의 지정된 도형(예 : 사각형)이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 도 11의 (f)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 검정색과 흰색의 사각형이 체크무늬(또는 격자무늬) 형태로 형성된 패턴, 및 도 11의 (g)와 같이 베이스모듈(130)의 상부 표면을 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)으로 구분하고 제1 영역에만 외측 경계선에서부터 중심 방향으로 향하는 길이가 다른 직선들이 번갈아가며 지정된 간격으로 형성된 패턴, 중 적어도 한 가지 형태의 패턴을 포함한다. For example, the reference pattern divides the upper surface of the base module 130 into a first area (e.g., inner area) and a second area (e.g., border area), as shown in (a) of FIG. 11, and includes at least one part of the second area. A ruler is formed on the side, and in the first area, a pattern of black and white squares is formed in a checkered (or grid pattern) shape. As shown in (b) of FIG. 11, the upper surface of the base module 130 is formed in the first area (example). : It is divided into an inner area) and a second area (e.g. border area). In the second area, black and white squares are formed in the form of sequentially repeating lines, and in the first area, a color different from the background color (e.g. white) (e.g. : A pattern in which a designated figure (e.g., circle) of black color is formed in a checkered (or grid pattern) shape, as shown in (c) of FIG. 11, the upper surface of the base module 130 is formed as a first area (e.g., inner area). It is divided into a second area (e.g. border area), and in the second area, straight lines heading toward the center of the first area (i.e. straight lines that serve as a ruler) are arranged at specified intervals up to the border of the first area. In the first area, there is a pattern in which a background color (e.g. white) and a designated figure (e.g. a circle) of a different color (e.g. black) are formed in the form of a checkered pattern (or grid pattern), and a base module (as shown in (d) of Figure 11). 130) divides the upper surface into a first area (e.g. inner area) and a second area (e.g. border area), letters or numbers are arranged in the form of lines in the second area and a background color (e.g. marble) in the first area. A pattern in which a designated figure (e.g., a square) of a different color (e.g., black) and a texture are formed in a checkered (or grid pattern) form, as shown in (e) of FIG. 11, the upper surface of the base module 130 is formed as a first It is divided into an area (e.g., inner area) and a second area (e.g., border area), and only the first area has a checkered pattern (e.g., a square) with a background color (e.g., white) and a different color (e.g., black). or a grid pattern), as shown in (f) of FIG. 11, the upper surface of the base module 130 is divided into a first area (e.g., inner area) and a second area (e.g., border area), and the first area is divided into a second area (e.g., border area). A pattern in which black and white squares are formed in a checkered (or grid pattern) pattern only in the area, and the upper surface of the base module 130 is divided into a first area (e.g., inner area) and a second area, as shown in (g) of FIG. 11. It is divided into areas (e.g., border areas), and only the first area includes at least one type of pattern formed by alternating straight lines of different lengths directed from the outer border toward the center at specified intervals.

또한 상기 패턴은 도 11의 (h)와 같이 바디(또는 프레임)의 내측 측면에 형성될 수 있다. 물론, 다양한 형태의 패턴이 상기 내측 일 측면에 형성될 수 있다.Additionally, the pattern may be formed on the inner side of the body (or frame) as shown in (h) of FIG. 11. Of course, various types of patterns may be formed on one inner side.

또한, 상기 패턴은 도 11의 (i)와 같이 바디(또는 프레임)의 내측 일 측면과 베이스모듈(130) 표면상에 형성될 수 있다. 본 예(i)의 경우, 바디(또는 프레임)의 내측 일 측면에 본 사물 식별 장치의 사용법에 대한 문구가 베이스모듈(130) 면으로부터 소정 높이(b)부터 복수의 행으로 소정 행간격(a)을 유지하게 형성되어 있고, 베이스모듈(130) 면상에는 제1 영역(예 : 내부 영역)과 제2 영역(예 : 테두리 영역)이 굵은 선으로 구분되어 있고 제 2 영역에 소정의 문구가 형성되어 있는데, 바로 이 문구들을 참조패턴으로 이용하도록 하고 있다. 이 경우에, 측면부와 베이스모듈(130)의 테두리부에 형성된 문구들 중 적어도 하나를 참조패턴으로 이용할 수 있으므로, 사물들에 의해 참조패턴이 가려지기 어려운 위치 영역에 형성되어 사물 인식의 기준, 카메라모듈의 캘리브레이션, 조명 밝기 대응 등의 처리가 용이해진다.Additionally, the pattern may be formed on one inner side of the body (or frame) and the surface of the base module 130, as shown in (i) of FIG. 11. In the case of this example (i), text on how to use the object identification device is written on one inner side of the body (or frame) in a plurality of rows from a predetermined height (b) from the surface of the base module 130 at predetermined row intervals (a). ), and on the surface of the base module 130, the first area (e.g., inner area) and the second area (e.g., border area) are separated by a thick line, and a predetermined text is formed in the second area. These phrases are used as reference patterns. In this case, at least one of the phrases formed on the side surface and the edge of the base module 130 can be used as a reference pattern, so that the reference pattern is formed in a location area where it is difficult to be obscured by objects and serves as a standard for object recognition and the camera Processing such as module calibration and lighting brightness response becomes easier.

이 때 상술한 여러 참조패턴의 예시들에서, 제1 영역과 제2 영역은, 지정된 색상(예 : 흰색, 검정색 등)과 굵기의 경계선이 지정된 형태(예 : 원형, 사각형 등)로 형성됨으로써 각 영역이 구분되도록 하고 있다. 하지만, 이들에 국한될 필요는 없다. 즉, 제1 영역과 제2 영역의 횐색 또는 검정색 또는 형태는 실시 환경이나 목적에 따라 조명과 사물 인식의 설정 기준에 따라 달라질 수 있다. 예컨대, 배경색은 흰색이 아니라 회색일 수도 있고 텍스처(texure) 배경일 수도 있으며 패턴의 색상이 검정이 아니라 약검정색일 수 있는 것이다.At this time, in the various examples of reference patterns described above, the first area and the second area are each formed by a border of a designated color (eg, white, black, etc.) and thickness, and is formed in a designated shape (eg, circular, square, etc.). The areas are separated. However, there is no need to be limited to these. That is, the white or black color or shape of the first and second areas may vary depending on the implementation environment or purpose and the setting standards for lighting and object recognition. For example, the background color may be gray rather than white, or it may be a texture background, and the color of the pattern may be light black rather than black.

또한 제1 영역과 제2 영역의 폭과 위치는 조정될 수 있으며, 제1 영역과 제2 영역에 각각 도시되는 정보(예 : 문자, 숫자, 라인, 도형, 이미지, 캐릭터 등)를 한정하는 것은 아니다.Additionally, the width and position of the first area and the second area can be adjusted, and do not limit the information (e.g. letters, numbers, lines, shapes, images, characters, etc.) shown in the first area and the second area, respectively. .

이에 따라 프로세서(150)는 참조패턴의 정보를 활용하여 촬영 영상으로부터 사물의 사이즈를 측정할 수 있으며, 참조패턴을 통해 사물과 배경을 구분하는 성능을 향상시킬 수 있으며, 참조패턴을 통해 센서(예 : Encoder)를 대체할 수 있으며, 참조패턴을 통해 복수의 뷰(View)에서 취득한 영상을 기반으로 3D 모델링 시 정확도를 향상시킬 수 있으며, 또한 참조패턴을 통해 조명 밝기를 균일화 시킬 수 있고, 카메라모듈(120)의 기하학적 캘리브레이션(Geometric Calibration)에 이용할 수 있다.Accordingly, the processor 150 can use the information of the reference pattern to measure the size of the object from the captured image, improve the performance of distinguishing between the object and the background through the reference pattern, and use the reference pattern to detect the sensor (e.g. : Encoder), accuracy can be improved when 3D modeling based on images acquired from multiple views through reference patterns, and lighting brightness can be equalized through reference patterns, and camera module It can be used for geometric calibration of (120).

도 12는 본 발명의 제1 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 12 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the first embodiment of the present invention.

도 12의 (a)와 (b)에 도시된 바와 같이, 프로세서(150)는 베이스모듈(130)에 형성된 참조패턴의 각 격자무늬의 사이즈 정보(즉, a′×a″) 및/또는 테두리 영역의 눈금자 및/또는 사물에 의해 가려진 격자무늬의 개수를 바탕으로, 사물의 X*Y축 사이즈(예 : 넓이)를 측정하거나 추정할 수 있다.As shown in (a) and (b) of FIG. 12, the processor 150 stores size information (i.e., a′×a″) and/or border of each grid pattern of the reference pattern formed on the base module 130. Based on the area ruler and/or the number of grid patterns obscured by the object, the X*Y axis size (e.g. area) of the object can be measured or estimated.

도 12의 (c)와 (d)에 도시된 바와 같이, 프로세서(150)는 바디(또는 프레임)의 내측 측면에 형성된 참조패턴의 각 격자무늬의 사이즈 정보(즉, a′×a″) 및/또는 테두리 영역의 눈금자 및/또는 사물에 의해 가려진 격자무늬의 개수()를 바탕으로, 사물의 Z축 사이즈(예 : 높이)를 측정하거나 추정할 수 있다.As shown in (c) and (d) of FIGS. 12, the processor 150 includes size information (i.e., a′×a″) of each grid pattern of the reference pattern formed on the inner side of the body (or frame). /or the number of grid patterns obscured by rulers and/or objects in the border area ( ), you can measure or estimate the Z-axis size (e.g. height) of the object.

도 13은 본 발명의 제2 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 13 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the second embodiment of the present invention.

도 13을 참조하면, 프로세서(150)는 베이스모듈(130)에 형성된 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)를 바탕으로, (a)와 같이 사물이 놓여 있지 않은 참조패턴 정보에서 (b)와 같이 사물이 놓여 있는 참조패턴 정보의 차 영상을 추출함으로써, (c)와 같이 베이스모듈(130)에 놓여 있는 사물의 위치를 측정하거나 추정할 수 있다.Referring to FIG. 13, the processor 150 based on reference pattern information formed in the base module 130 (e.g., grid pattern information and coordinate information formed in the first area and ruler information formed in the second area), (a ), by extracting the difference image of the reference pattern information where the object is located as in (b) from the reference pattern information in which the object is not placed, as in (c), the position of the object placed on the base module 130 is measured or It can be estimated.

도 14는 본 발명의 제3 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 14 is an example diagram for explaining a method of using a reference pattern for object recognition according to the third embodiment of the present invention.

본 실시예에서 카메라모듈(120)은 회전하며 베이스모듈(130)에 놓여 있는 사물을 다양한 각도에서 촬영한다. 따라서 카메라모듈(120)이 회전할 때의 회전 각도를 정확히 검출하기 위한 센서(예 : 인코더 센서)를 구비할 수 있다. 그러나 센서를 포함할 경우에는 그에 따른 비용의 증가 및 센서의 고장을 감지하기 위한 알고리즘이 필요하게 되는 단점이 있다.In this embodiment, the camera module 120 rotates and photographs objects placed on the base module 130 from various angles. Therefore, a sensor (eg, encoder sensor) can be provided to accurately detect the rotation angle when the camera module 120 rotates. However, including a sensor has the disadvantage of increasing cost and requiring an algorithm to detect sensor failure.

따라서 본 발명에 따른 실시예는 별도의 센서(예 : 인코더 센서)를 추가하지 않더라도, 도 14에 도시된 바와 같은 참조패턴을 이용하여 카메라모듈(120)의 회전 각도를 검출하는 데 활용할 수 있다.Therefore, the embodiment according to the present invention can be used to detect the rotation angle of the camera module 120 using the reference pattern as shown in FIG. 14 even without adding a separate sensor (e.g., encoder sensor).

프로세서(150)는 베이스모듈(130)에 형성된 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)를 바탕으로, 가령, 카메라모듈(120)과 제2 영역에 형성된 라인(즉, 눈금자 정보에 해당하는 라인)이 일 직선이 될 때의 각도를 카메라모듈(120)의 회전 각도로 측정하거나 추정할 수 있다. The processor 150 uses, for example, the camera module 120 and The angle at which the line formed in the second area (i.e., the line corresponding to ruler information) becomes a straight line can be measured or estimated as the rotation angle of the camera module 120.

도 15는 본 발명의 제4 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 15 is an example diagram for explaining a method of using a reference pattern for object recognition according to the fourth embodiment of the present invention.

일반적으로 카메라모듈(120)은 주변의 조명 환경 변화로 인하여 사물 인식 성능이 저하될 수 있다. In general, object recognition performance of the camera module 120 may deteriorate due to changes in the surrounding lighting environment.

따라서 본 발명은 균일한 조명 밝기를 제공하기 위하여, 주변의 조명 환경 변화에 대응하여 실시간으로 조명 밝기를 보정함으로써, 조도 센서를 이용하지 않더라도, 카메라모듈(120)을 통해 촬영된 영상을 바탕으로, 프로세서(150)가 사물 인식 장치의 조명 밝기를 실시간으로 측정하여 보정할 수 있도록 한다.Therefore, in order to provide uniform lighting brightness, the present invention corrects the lighting brightness in real time in response to changes in the surrounding lighting environment, based on the image captured through the camera module 120, even without using an illuminance sensor, The processor 150 measures and corrects the lighting brightness of the object recognition device in real time.

예컨대 도 15의 (a)와 같이, 기준 조명 밝기 상태에서 참조패턴을 촬영하여 기준 밝기 정보로서 미리 저장한 상태에서, 프로세서(150)는, (b)와 같이 참조패턴 촬영 영상에서 참조패턴 전체의 밝기를 실시간으로 측정하는 과정, (c)와 같이 참조패턴 촬영 영상에서 참조패턴의 제1 격자(예 : 흰색 격자)들의 밝기를 실시간으로 측정하는 과정, (d)와 같이 참조패턴 촬영 영상에서 참조패턴의 제2 격자(예 : 검정색 격자)들의 밝기를 실시간으로 측정하는 과정, 제1 격자(예 : 흰색 격자)들의 밝기와 제2 격자(예 : 검정색 격자)들의 밝기가 미리 저장된 기준 밝기와 같아지도록 조명모듈(170)의 조명 밝기를 조절하는 과정, 및 참조패턴 전체의 밝기가 미리 저장된 기준 밝기와 같은지 체크하는 과정을 반복해서 수행함으로써 균일한 조명 밝기를 제공할 수 있도록 한다.For example, as shown in (a) of FIG. 15, when a reference pattern is photographed in a standard illumination brightness state and stored in advance as reference brightness information, the processor 150 records the entire reference pattern from the reference pattern captured image as shown in (b). Process of measuring brightness in real time, process of measuring brightness of the first grid (e.g. white grid) of the reference pattern in real time from the reference pattern shooting image as in (c), reference from the reference pattern shooting image as in (d) The process of measuring the brightness of the second grids (e.g. black grids) of a pattern in real time, the brightness of the first grids (e.g. white grids) and the brightness of the second grids (e.g. black grids) are equal to the pre-stored reference brightness. The process of adjusting the lighting brightness of the lighting module 170 and checking whether the brightness of the entire reference pattern is the same as the pre-stored reference brightness are repeatedly performed to provide uniform lighting brightness.

도 16은 본 발명의 제5 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 16 is an example diagram for explaining a method of utilizing a reference pattern for object recognition according to the fifth embodiment of the present invention.

도 11을 참조하여 설명한 바와 같이, 본 실시예에 따른 참조패턴 정보(예 : 제1 영역에 형성된 격자무늬 정보와 좌표 정보 및 제2 영역에 형성된 눈금자 정보)는, 제1 영역 및 제2 영역에 형성된 정보를 조합하여 참조패턴의 사 면을 구분할 수 있도록 하며, 참조패턴 내에서 일정한 사이즈의 격자가 반복되기 때문에 X축과 Y축의 거리(또는 길이) 측정을 통해 좌표를 특정할 수 있다.As described with reference to FIG. 11, reference pattern information (e.g., grid pattern information and coordinate information formed in the first area and ruler information formed in the second area) according to the present embodiment is stored in the first area and the second area. By combining the formed information, the four sides of the reference pattern can be distinguished, and since grids of a certain size are repeated within the reference pattern, the coordinates can be specified by measuring the distance (or length) of the X and Y axes.

따라서 복수의 카메라모듈(120)을 이용해 각기 다른 위치에서 참조패턴을 촬영하더라도 동일하게 좌표를 특정할 수 있다.Therefore, even if the reference pattern is photographed at different positions using a plurality of camera modules 120, the coordinates can be specified in the same manner.

가령, 다른 위치에 있는 복수의 카메라모듈(120)이 참조패턴 상에 놓여 있는 사물을 각각 촬영한다고 하더라도, 해당 사물이 놓여 있는 영역의 좌표를 동일하게 특정할 수 있다. For example, even if a plurality of camera modules 120 located in different positions each photograph an object placed on the reference pattern, the coordinates of the area where the object is placed can be identically specified.

이에 따라 프로세서(150)는 복수의 카메라모듈(120)이 동시에 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물), 또는 하나의 카메라모듈(120)이 회전하거나 이동하며 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 정보(즉, 동일한 사물에 대하여 각기 다른 방향 또는 각도에서 촬영된 영상에 관련된 정보)를 통합(또는 공유)할 수 있게 된다. Accordingly, the processor 150 selects the same object (i.e., an object located on the same coordinates) photographed simultaneously by a plurality of camera modules 120, or the same object photographed while rotating or moving by one camera module 120 ( In other words, it is possible to integrate (or share) information about objects located on the same coordinates (that is, information related to images taken from different directions or angles of the same object).

이는 복수의 카메라모듈을 사용할 경우, 각각의 복수의 카메라에서 사물을 추출하여 사물을 인식할 수 도 있지만, 기하학 캘리브레이션을 통해 복수의 카메라들간의 사물 위치 좌표 공유가 가능하게 된다. 따라서 하나의 카메라에서 추출한 사물의 위치 좌표 정보를 해당 카메라 이외에 카메라로 취득한 영상에 공유함으로써, 해당 각도 이외에서 취득된 복수의 영상들에서 사물의 위치 좌표를 추가적으로 추출하지 않아도 되기 때문에 복수의 영상에서 사물의 위치 검출 시간을 단축 할 수 있다는 특징이 있다. 또한 특정 사물의 경우, 특정 위치의 카메라에서는 사물들의 가림이 발생될 수 있으며, 이러한 가림의 경우 기하학 캘리브레이션을 기반으로 미리 추정할 수 있기 때문에 해당 영역에서는 인식을 시도를 제외함으로써 오인식의 개연성을 피할 수 있는 장점이 있다.When using multiple camera modules, objects can be recognized by extracting them from each camera, but sharing object location coordinates between multiple cameras is possible through geometric calibration. Therefore, by sharing the position coordinate information of an object extracted from one camera with images acquired by cameras other than the corresponding camera, there is no need to additionally extract the position coordinates of the object from multiple images acquired from angles other than the corresponding angle, so the object can be identified from multiple images. It has the characteristic of being able to shorten the position detection time. Additionally, in the case of certain objects, occlusion of objects may occur in cameras at specific locations, and since such occlusion can be estimated in advance based on geometric calibration, the possibility of misrecognition can be avoided by excluding recognition attempts in that area. There is an advantage.

따라서 프로세서(150)는 동일한 사물에 대한 정보를 통합(또는 공유)하여 입체 영상(또는 3D 영상)을 생성할 수 있게 함으로써, 보다 정확한 사물 인식을 수행할 수 있게 한다.Accordingly, the processor 150 can generate a stereoscopic image (or 3D image) by integrating (or sharing) information about the same object, thereby enabling more accurate object recognition.

도 17은 도 16에 있어서, 참조패턴 기반으로 동일한 사물에 대하여 360도 전 방향에서 촬영된 영상들 중 일부 영상을 보인 예시도이다. 본 예에서는 예컨대 카메라모듈(120)이 회전/이동하면서 36개의 다양한 각도에서 사물(예: 우유팩 상품)을 촬영한 영상이 예시되어 있다.Figure 17 is an example diagram showing some of the images taken in all directions of 360 degrees of the same object based on a reference pattern in Figure 16. In this example, for example, images taken of an object (eg, a milk carton product) from 36 different angles while the camera module 120 rotates/moves are shown.

도 17을 참조하면, 프로세서(150)는 복수의 카메라모듈(120)이 지정된 각도씩 이동(또는 회전)하여 동시에 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물), 또는 하나의 카메라모듈(120)이 360도(또는 지정된 각도)를 회전하거나 이동하며 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 정보(즉, 동일한 사물에 대하여 각기 다른 방향에서 촬영된 영상에 관련된 정보)를 통합하여 입체 영상(또는 3D 영상)을 생성할 수 있다.Referring to FIG. 17, the processor 150 moves (or rotates) a plurality of camera modules 120 at designated angles to simultaneously capture the same object (i.e., an object located on the same coordinates) or one camera module. (120) Information about the same object (i.e., an object located on the same coordinates) photographed while rotating or moving 360 degrees (or a specified angle) (i.e., information related to images taken from different directions for the same object) information) can be integrated to create a three-dimensional image (or 3D image).

도 18은 도 16에 있어서, 참조패턴 기반으로 동일한 사물을 촬영할 경우와 참조패턴을 이용하지 않고 동일한 사물을 촬영할 경우에 생성되는 입체 영상을 비교하기 위한 예시도이다.FIG. 18 is an example diagram for comparing three-dimensional images generated when photographing the same object based on a reference pattern and when photographing the same object without using a reference pattern in FIG. 16 .

도 18의 (a)에 도시된 바와 같은 참조패턴이 베이스모듈(130)에 형성되어 있다고 가정할 때, (b)에 도시된 바와 같이 각기 다른 방향에서 동일한 사물을 촬영할 경우, 프로세서(150)는 참조패턴 및 참조패턴의 주변에 형성된 참조패턴 마커를 바탕으로 베이스모듈(130)에 놓여 있는 사물의 좌표를 특정할 수 있게 됨으로써, 좌표가 동일한 사물의 복수의 영상을 이용하여 입체 영상(또는 3D 영상)을 생성 시 영상 정합도를 향상시킬 수 있다.Assuming that a reference pattern as shown in (a) of FIG. 18 is formed on the base module 130, when photographing the same object from different directions as shown in (b), the processor 150 By making it possible to specify the coordinates of an object placed on the base module 130 based on the reference pattern and the reference pattern marker formed around the reference pattern, a stereoscopic image (or 3D image) can be created using multiple images of objects with the same coordinates. ) can improve image consistency when generating.

예컨대 도 18의 (c)에 도시된 바와 같이 참조패턴과 참조패턴 마커가 없는 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상을 이용하여 입체 영상(또는 3D 영상)을 생성할 경우에는 영상 정합도가 저하되는 것을 알 수 있다. 또한 도 18의 (d)에 도시된 바와 같이 참조패턴과 참조패턴 마커가 있는 베이스모듈(130)에 놓여 있는 사물을 촬영한 영상을 이용하여 입체 영상(또는 3D 영상)을 생성할 경우에는 영상 정합도가 향상되는 것을 알 수 있다. For example, as shown in (c) of FIG. 18, when creating a three-dimensional image (or 3D image) using an image taken of an object placed on the base module 130 without a reference pattern and reference pattern marker, image registration is required. It can be seen that the degree is decreasing. In addition, as shown in (d) of FIG. 18, when creating a three-dimensional image (or 3D image) using an image taken of an object placed on the base module 130 with a reference pattern and a reference pattern marker, image registration is required. It can be seen that the degree is improving.

이 때 참조패턴 마커는, 참조패턴의 제1 영역(예 : 내부 영역) 및 제2 영역(예 : 테두리 영역) 중, 제2 영역의 정보로 대체될 수 있다.At this time, the reference pattern marker may be replaced with information on the second area among the first area (eg, inner area) and the second area (eg, border area) of the reference pattern.

도 19는 본 발명의 제6 실시예에 따라 사물 인식에 참조패턴을 활용하는 방법을 설명하기 위한 예시도이다.Figure 19 is an example diagram for explaining a method of using a reference pattern for object recognition according to the sixth embodiment of the present invention.

상술한 바와 같이 참조패턴은, 베이스모듈(130)의 상부 표면 및 바디(또는 프레임)의 내측 측면(도 11의 (h) 참조)에도 형성됨으로써, 도 19의 (a) 내지 (d)에 도시된 바와 같이, 사물에 의해 참조패턴(또는 참조패턴 마커)의 일부 또는 전체가 가려지는 경우, 프로세서(150)는 가려지지 않은 다른 부분에 형성된 참조패턴(또는 참조패턴 마커)을 활용하여 사물이 놓여 있는 좌표를 특정함으로써, 입체 영상(또는 3D 영상)의 생성 시 영상 정합도를 향상시킬 수 있도록 한다.As described above, the reference pattern is also formed on the upper surface of the base module 130 and the inner side of the body (or frame) (see (h) in FIG. 11), as shown in (a) to (d) of FIGS. As described above, when part or all of the reference pattern (or reference pattern marker) is obscured by an object, the processor 150 uses the reference pattern (or reference pattern marker) formed in other parts that are not obscured to place the object. By specifying the coordinates, the degree of image matching can be improved when generating a stereoscopic image (or 3D image).

상술한 바와 같이 일 측면에 따른 본 발명은 센서를 포함하지 않더라도 참조패턴을 활용하여 카메라모듈(120)의 위치 및 포즈를 추출하고 카메라모듈(120)의 위치 제어 및 캘리브레이션을 수행할 수 있으며, 참조패턴을 활용해 특정한 좌표를 바탕으로 동일한 사물에 대한 영상을 통합하여 입체 영상(또는 3D 영상)을 생성할 수 있도록 함으로써 사물 인식 성능을 보다 더 향상시킬 수 있도록 하는 효과가 있다.As described above, the present invention according to one aspect can extract the position and pose of the camera module 120 and perform position control and calibration of the camera module 120 using a reference pattern even if it does not include a sensor, see This has the effect of further improving object recognition performance by using patterns to create a three-dimensional image (or 3D image) by integrating images of the same object based on specific coordinates.

한편, 상기 실시예들에서는 카메라모듈(120)이 회전하거나 이동하면서 베이스모듈(130)에 놓여진 하나 이상의 사물들을 촬영하고 촬영 영상으로부터 사물을 식별하는 성능을 더 높이기 위하여 참조패턴 및/또는 참조패턴 마커를 활용하는 방법에 대해 설명하였지만, 본 발명의 참조패턴 및/또는 참조패턴 마커를 활용하는 방식은 하나 또는 복수의 카메라모듈(120)을 고정시킨 형태의 사물 식별 장치의 경우에도 적용될 수는 있다.Meanwhile, in the above embodiments, the camera module 120 rotates or moves to photograph one or more objects placed on the base module 130 and uses a reference pattern and/or reference pattern marker to further increase the performance of identifying objects from the captured image. Although the method of utilizing has been described, the method of utilizing the reference pattern and/or reference pattern marker of the present invention can also be applied to an object identification device in which one or a plurality of camera modules 120 are fixed.

도 20은 본 발명에서 스테레오 카메라 대신 회전 또는 이동하는 카메라모듈을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.Figure 20 is an example diagram to explain a method of generating a three-dimensional image using a rotating or moving camera module instead of a stereo camera in the present invention.

도 20의 (a)는 스테레오 카메라를 보인 예시도로서, 평행하게 배열한 2대의 카메라를 이용하여 입체 영상을 촬영할 수 있도록 하는 카메라로서, 2대의 카메라를 설치해야 하는 단점이 있다.Figure 20 (a) is an example diagram showing a stereo camera, which is a camera that can capture three-dimensional images using two cameras arranged in parallel, but has the disadvantage of having to install two cameras.

도 20의 (b)는 본 발명에 따른 회전 또는 이동하는 카메라모듈(120)로서, 지지대모듈(110)을 따라 회전 또는 이동할 수 있는 하나의 카메라모듈(120)을 이용해 입체 영상을 촬영할 수 있도록 한다. Figure 20 (b) shows a rotating or moving camera module 120 according to the present invention, which allows three-dimensional images to be captured using a single camera module 120 that can rotate or move along the support module 110. .

예컨대 A 위치에 있을 때의 카메라모듈(120)이 스테레오 카메라 중 A 카메라의 역할을 수행하고, B 위치에 있을 때의 카메라모듈(120)이 스테레오 카메라 중 B 카메라의 역할을 수행한다.For example, the camera module 120 when at position A plays the role of the A camera among the stereo cameras, and the camera module 120 when at the B position plays the role of the B camera among the stereo cameras.

이에 따라 본 발명의 프로세서(150)는 입체 영상을 촬영하기 위한(즉, 깊이 정보를 취득하기 위한) 별도의 장치(예 : RGB-D, TOF, Stereo 카메라 등)를 사용하지 않더라도, 하나의 카메라모듈(120)을 이용하여 회전이나 이동을 통해 다양한 각도와 위치에서 동일한 사물에 대한 영상들을 취득하여 삼각측량법 기반으로 사물의 크기 및 깊이 정보를 측정할 수 있는 효과가 있다.Accordingly, the processor 150 of the present invention uses a single camera even without using a separate device (e.g., RGB-D, TOF, Stereo camera, etc.) for capturing three-dimensional images (i.e., for acquiring depth information). Using the module 120, images of the same object can be obtained from various angles and positions through rotation or movement, and the size and depth information of the object can be measured based on triangulation.

도 21은 도 20에 있어서, 구조광으로 촬영한 영상을 이용하여 입체 영상을 생성하는 방법을 설명하기 위한 예시도이다.FIG. 21 is an example diagram for explaining the method of generating a three-dimensional image using an image captured with structured light in FIG. 20.

도 21의 (a)와 (b)는 더욱 정교한 깊이 정보를 취득할 수 있도록 하기 위하여, 구조광(또는 구조광 패턴)을 사물에 조사한 후, 회전 또는 이동하는 카메라모듈(120)을 이용하여 각기 다른 위치와 각도에서 동일한 사물을 촬영한 영상을 보인 예시도이다. In (a) and (b) of Figure 21, in order to obtain more precise depth information, structured light (or structured light pattern) is radiated to an object and then rotated or moved using a camera module 120, respectively. This is an example showing images taken of the same object from different positions and angles.

이 때 구조광(또는 구조광 패턴)은 사물 식별 장치 내의 지정된 위치에 장착되거나, 카메라모듈(120)에 장착될 수 있다.At this time, structured light (or structured light pattern) may be mounted at a designated location within the object identification device or may be mounted on the camera module 120.

도 21을 참조하면, (c)에 도시된 바와 같이 베이스모듈(130)에 놓여 있는 사물을, (d)와 (e)에 도시된 바와 같이 구조광(또는 구조광 패턴)을 사물에 조사한 후, 회전 또는 이동하는 카메라모듈(120)을 이용하여 각기 다른 위치와 각도에서 사물의 영상을 촬영하고, (f)에 도시된 바와 같이 두 영상을 기반으로하여 깊이 정보를 측정할 수 있다.Referring to FIG. 21, after irradiating an object placed on the base module 130 as shown in (c) with structured light (or structured light pattern) as shown in (d) and (e), the object is irradiated with structured light (or structured light pattern). , images of objects can be captured at different positions and angles using a rotating or moving camera module 120, and depth information can be measured based on the two images as shown in (f).

도 22는 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보를 측정할 때 정확도를 설명하기 위한 예시도이다.Figure 22 is an example diagram to explain accuracy when measuring depth information using a rotating or moving camera in the present invention.

도 22를 참조하면, (a)에 도시된 바와 같이 베이스모듈(130)에 제1 사물(예 : 쿠키)이 놓여 있는 상태에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (b)에 도시된 바와 같이 25mm 가 측정되었으며, (c)에 도시된 바와 같이 베이스모듈(130)에 제2 사물(예 : 빵)이 놓여 있는 상태에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (d)에 도시된 바와 같이 80mm 가 측정되었으며, (e)에 도시된 바와 같이 제1 사물의 상부에 제2 사물이 겹쳐 있는 상태(예 : 쿠키의 상부에 빵이 겹쳐 있는 상태)에서 회전 또는 이동하는 카메라모듈(120)을 이용하여 촬영한 영상으로부터 깊이 정보를 측정하였을 때 (f)에 도시된 바와 같이 105mm 가 정확히 측정됨으로써, 깊이 정보(또는 높이 정보)를 바탕으로 겹쳐있는 사물도 정확히 식별할 수 있음을 확인할 수 있다.Referring to FIG. 22, the depth is obtained from an image captured using the camera module 120 rotating or moving while a first object (e.g., a cookie) is placed on the base module 130 as shown in (a). When the information was measured, 25 mm was measured as shown in (b), and the camera rotated or moved with a second object (e.g. bread) placed on the base module 130 as shown in (c). When depth information was measured from an image captured using the module 120, 80 mm was measured as shown in (d), and a second object overlapped on top of the first object as shown in (e). When depth information was measured from an image captured using the rotating or moving camera module 120 in a state (e.g., bread overlapping on top of a cookie), 105 mm was accurately measured as shown in (f). , It can be confirmed that even overlapping objects can be accurately identified based on depth information (or height information).

도 23은 본 발명에서 회전 또는 이동하는 카메라를 이용하여 깊이 정보가 다른 다양한 사물을 촬영한 영상을 보인 예시도이고, 도 24는 도 23에 있어서, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보를 보인 예시도이다.Figure 23 is an example diagram showing images taken of various objects with different depth information using a rotating or moving camera in the present invention, and Figure 24 is a 2D and This is an example diagram showing depth information.

데이터베이스(DB)에 다양한 사물들의 2D 및 깊이(Depth) 정보를 그룹핑하고, 각 그룹별 인공지능(AI) 모델을 각각 생성하여, 학습모델 경량화, 처리시간 단축 및 인식(식별) 성능 향상을 가능하게 한다. 이 때 사물의 특징별로 각기 다른 인공지능(AI) 모델을 생성하여 적용할 수 있다.By grouping 2D and depth information of various objects in the database and creating artificial intelligence (AI) models for each group, it is possible to lighten the learning model, reduce processing time, and improve recognition (identification) performance. do. At this time, different artificial intelligence (AI) models can be created and applied for each feature of the object.

즉, 사물들의 2D 및 깊이(Depth) 정보를 특징으로서 추출하고, 이를 딥러닝 학습 특징으로 사용함으로써, 사물의 식별력을 향상시킬 수 있으며, 또는 모든 사물을 하나의 모델로 학습하고, 추론할 때 그룹핑된 사물들의 후보들만을 선택해서 최종 추론할 수도 있다.In other words, by extracting the 2D and depth information of objects as features and using them as deep learning learning features, the identification of objects can be improved, or by learning all objects as one model and grouping them when making inferences. The final inference can be made by selecting only the candidates for the objects.

도 24를 참조하면, 사물의 형상별 특징을 분류할 수 있는 2D 및 깊이(Depth) 정보는, 영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함한다.Referring to Figure 24, 2D and depth information that can classify features by shape of an object include image data (IMAGE DATA), color (COLORS), size (SIZE), shape (SHAPE), and position (POSITION). ), transaction history (TRANSACTION HISTORY), geometry (GEOMETRY), and brightness (BRIGHTNESS) information.

도 25는 기존에 회전형 턴테이블에 놓여 있는 사물을 고정식 카메라를 이용하여 촬영한 영상을 바탕으로 입체 영상을 생성하는 방법의 문제점을 설명하기 위하여 보인 예시도로서, 턴테이블(Turn Table) 구조는 사물의 크기와 놓는 위치에 있어 턴테이블의 크기와 회전 속도에 따른 제약이 있다. 가령, 도 25의 (b)와 같이 사물이 턴테이블의 크기(또는 넓이)를 넘어서는 경우에는 촬영에 어려움이 있으며, 또한 도 25의 (c)와 같이 사물이 턴테이블의 가장 자리에 놓인 경우에는 턴테이블의 회전 시 외부로 낙하될 수 있으므로 촬영에 어려움이 있다.Figure 25 is an example diagram shown to explain the problem of a method of generating a three-dimensional image based on an image taken of an object placed on an existing rotating turntable using a fixed camera, and the turntable structure is similar to that of the object. There are restrictions on size and placement depending on the size and rotation speed of the turntable. For example, if the object exceeds the size (or width) of the turntable, as shown in (b) of Figure 25, it is difficult to photograph, and if the object is placed at the edge of the turntable, as shown in (c) of Figure 25, the turntable's When rotating, it may fall to the outside, making filming difficult.

반면 본 실시예는, 도 4 내지 도 8에 도시된 바와 같이, 베이스모듈(130)을 회전시키는 것이 아니라, 지지대모듈(110)의 형태에 따라 카메라모듈(120)을 다양한 각도와 방향으로 회전 또는 이동시키면서 다양한 각도와 위치에서 사물의 영상을 촬영할 수 있기 때문에(도 17 참조) 기존 대비 더욱 정확한 입체 영상(즉, 3D 모델링 영상)을 생성할 수 있도록 하는 효과가 있다.On the other hand, in this embodiment, as shown in FIGS. 4 to 8, the base module 130 is not rotated, but the camera module 120 is rotated or rotated at various angles and directions depending on the shape of the support module 110. Since images of objects can be captured at various angles and positions while moving (see FIG. 17), there is an effect of creating more accurate three-dimensional images (i.e., 3D modeling images) than before.

도 26은 본 발명의 일 실시예에 따라 카메라모듈을 다양한 각도와 방향으로 회전 또는 이동시키면서 촬영한 사물의 영상을 바탕으로 생성한 입체 영상을 보인 예시도이다.Figure 26 is an example diagram showing a three-dimensional image generated based on an image of an object captured while rotating or moving the camera module at various angles and directions according to an embodiment of the present invention.

도 26에 도시된 바와 같이, 본 발명은 적어도 하나의 카메라모듈(120)을 지지대모듈(110)의 형태에 따라 지정된 각도씩 이동(또는 회전)하여 촬영한 동일한 사물(즉, 동일한 좌표 상에 놓여 있는 사물)에 대한 복수의 정보(즉, 동일한 사물에 대하여 각기 다른 방향에서 촬영된 영상에 관련된 정보)(도 17 참조)를 통합하여 입체 영상(또는 3D 모델링 영상)을 생성할 수 있다.As shown in Figure 26, the present invention moves (or rotates) at least one camera module 120 by a specified angle according to the shape of the support module 110 to capture the same object (i.e., placed on the same coordinates). A three-dimensional image (or 3D modeling image) can be generated by integrating a plurality of information about an object (i.e., information related to images taken from different directions for the same object) (see FIG. 17).

도 27은 본 발명의 일 실시예에 따른 사물 식별 장치의 카메라모듈의 촬영 동작을 테스트하는 사진을 보인 예시도로서, (a)는 바디(프레임)가 개방된 사물 식별 장치에서 베이스모듈에 놓여 있는 사물이 촬영된 사진이고, (b) 내지 (d)는 바디의 내측 상부에 형성된 지지대모듈(110)을 따라 지정된 각도씩 이동(또는 회전)하는 카메라모듈(120)에서 사물을 촬영한 사진이다.Figure 27 is an example diagram showing a photograph testing the shooting operation of the camera module of the object identification device according to an embodiment of the present invention, (a) is an object identification device with an open body (frame) placed on the base module Pictures are taken of an object, and (b) to (d) are pictures taken of an object by the camera module 120 that moves (or rotates) at a specified angle along the support module 110 formed on the upper inner side of the body.

이와 같이 본 실시예는 동일한 사물에 대하여 하나의 카메라모듈(120)을 이용하더라도 다양한 방향과 각도에서 촬영된 영상들을 통합하여 입체 영상(또는 3D 모델링 영상)을 생성할 수 있도록 한다.In this way, this embodiment allows to generate a three-dimensional image (or 3D modeling image) by integrating images taken from various directions and angles even when one camera module 120 is used for the same object.

도 28은 본 발명의 일 실시예에 따른 사물 식별 장치를 학습시키는 방법을 설명하기 위한 예시도이다. 보다 구체적으로, 도 28은 본 발명의 일 실시예에 따른 사물 식별 장치에서 회전 및 이동하는 카메라 모듈(120)에서 취득한 다수의 영상에서 3D 모델링을 구성하고, 해당 3D 모델링을 통해 사물이 다양한 위치에 놓인 것과 다양한 포즈로 놓인 것들에 대한 데이터를 인위적으로 생성해서 학습시키는 방법을 설명하기 위한 예시도이다.Figure 28 is an example diagram for explaining a method of training an object identification device according to an embodiment of the present invention. More specifically, Figure 28 constructs 3D modeling from a plurality of images acquired from the rotating and moving camera module 120 in the object identification device according to an embodiment of the present invention, and objects are located in various positions through the 3D modeling. This is an example to explain how to artificially generate and learn data about things placed and placed in various poses.

도 28의 (a)에 도시된 바와 같이, 프로세서(150)는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상, 또는 베이스모듈(130)에 놓여 있는 사물이 촬영된 영상으로부터 깊이 영상이나 입체 영상을 생성한다.As shown in (a) of FIG. 28, the processor 150 generates a depth image or three-dimensional image from an image of an object placed on the base module 130, or an image of an object placed on the base module 130. Create a video.

이와 같이 하나의 사물에 대한 깊이 영상이나 입체 영상이 생성되면, (b)에 도시된 바와 같이, 프로세서(150)는 각 사물의 깊이 영상이나 입체 영상을 이용하여 베이스모듈(130) 상에 다양한 위치와 각도로 놓여 있는 복수의 가상의 2D 이미지(즉, 가상 이미지)를 생성한다. When a depth image or a three-dimensional image of an object is generated in this way, as shown in (b), the processor 150 uses the depth image or three-dimensional image of each object to place various positions on the base module 130. Generates a plurality of virtual 2D images (i.e., virtual images) positioned at an angle with .

이 때 (b)에 도시된 바와 같이 생성된 가상의 2D 이미지(즉, 가상 이미지)와 (c)에 도시된 바와 같이 사물이 실제로 촬영된 2D 이미지(즉, 실제 이미지)를 비교하면 사실상 동일한 것을 알 수 있다. 따라서 사물의 입체 영상을 이용하여 가상의 2D 이미지(즉, 가상 이미지)를 생성할 경우 실제 2D 이미지(즉, 실제 이미지)를 촬영하는 것보다 훨씬 빠르고 간편하게 더 많은 복수의 2D 이미지(즉, 가상 이미지)를 생성할 수 있게 된다.At this time, when comparing the virtual 2D image (i.e., virtual image) generated as shown in (b) and the 2D image (i.e., real image) in which the object was actually photographed as shown in (c), they are virtually identical. Able to know. Therefore, when creating a virtual 2D image (i.e., virtual image) using a three-dimensional image of an object, it is much faster and easier to create multiple 2D images (i.e., virtual image) than shooting an actual 2D image (i.e., real image). ) can be created.

이와 같이 사물의 입체 영상을 이용하여 복수의 가상의 2D 이미지(즉, 가상 이미지)가 생성되면, (d)에 도시된 바와 같이, 프로세서(150)는 복수의 가상의 2D 이미지(즉, 가상 이미지)를 이용하여 사물을 식별하기 위한 학습(예 : 패턴매칭, 기계학습 또는 딥러닝학습)을 수행한다.In this way, when a plurality of virtual 2D images (i.e., virtual images) are generated using a three-dimensional image of an object, as shown in (d), the processor 150 creates a plurality of virtual 2D images (i.e., virtual images). ) is used to perform learning (e.g. pattern matching, machine learning, or deep learning) to identify objects.

이 때, 상기와 같은 가상의 2D 이미지 생성, 패턴매칭, 기계학습 또는 딥러닝학습은 프로세서(150)에 의해 사물 식별 장치 내에서 수행될 수도 있지만, 실시 환경이나 실시 의도에 따라 상기 사물 식별 장치와 통신모듈(160)을 통해 유선/무선으로 연결되는 서버나 미리 지정된 클라우드(미도시)에서 수행될 수도 있고 그 결과가 다시 전송되어 데이터베이스(DB)에 저장될 수 있고, 프로세서(150)에 의해 사물 식별 시에 이용될 수 있다.At this time, the above-described virtual 2D image generation, pattern matching, machine learning, or deep learning may be performed within the object identification device by the processor 150, but may be performed with the object identification device depending on the implementation environment or implementation intention. It may be performed on a server or a pre-designated cloud (not shown) connected wired/wirelessly through the communication module 160, and the results may be transmitted again and stored in a database (DB), and may be processed by the processor 150 as an object. It can be used for identification.

도 29는 본 발명의 일 실시예에 따라 카메라모듈이 지지대모듈을 따라 회전 또는 이동하며 촬영한 사물의 좌표 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.Figure 29 is an example diagram to explain a method of improving the identification time and identification performance of an object by sharing coordinate information of the object captured while the camera module rotates or moves along the support module according to an embodiment of the present invention.

도 29를 참조하면, 프로세서(150)는 카메라모듈(120)의 회전이나 이동에 따라 촬영한 사물의 좌표 정보를 공유함으로써, 촬영 영상에서 매번 사물의 위치를 검출하지 않아도 동일한 사물을 식별할 수 있도록 한다.Referring to FIG. 29, the processor 150 shares the coordinate information of the object captured according to the rotation or movement of the camera module 120, so that the same object can be identified without detecting the position of the object each time in the captured image. do.

본 발명은 적어도 하나 이상의 카메라모듈(120)이 지지대모듈(110)을 따라 회전 또는 이동하며 촬영한 동일한 좌표 상에 놓여 있는 사물에 대한 정보를 공유함으로써 사물의 식별 시간 및 식별 성능을 향상시키는 방법을 설명하기 위한 예시도이다.The present invention provides a method of improving the identification time and identification performance of objects by sharing information about objects located on the same coordinates captured by at least one camera module 120 rotating or moving along the support module 110. This is an example for explanation.

본 발명은 다양한 방향에서 촬영한 동일한 사물에 대한 정보를 통합(또는 공유)하여 입체 영상(또는 3D 영상)을 생성할 수 있게 됨으로써, 특정 위치에서 제1 사물에 의해 제2 사물에 가림이 발생되는 경우 동일한 좌표 상에 놓여 있는 사물에 대한 식별력을 향상시키는 효과가 있다.The present invention makes it possible to generate a three-dimensional image (or 3D image) by integrating (or sharing) information about the same object taken from various directions, thereby preventing the second object from being obscured by the first object at a specific location. In this case, it has the effect of improving identification of objects located on the same coordinates.

이상으로 본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 기술적 보호범위는 아래의 청구범위에 의해서 정하여져야 할 것이다. 또한 본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍 가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.The present invention has been described above with reference to the embodiments shown in the drawings, but these are merely illustrative, and various modifications and other equivalent embodiments can be made by those skilled in the art. You will understand the point. Therefore, the scope of technical protection of the present invention should be determined by the claims below. Implementations described herein may also be implemented as, for example, a method or process, device, software program, data stream, or signal. Although discussed only in the context of a single form of implementation (eg, only as a method), implementations of the features discussed may also be implemented in other forms (eg, devices or programs). The device may be implemented with appropriate hardware, software, firmware, etc. The method may be implemented in a device such as a processor, which generally refers to a processing device including a computer, microprocessor, integrated circuit, or programmable logic device. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants (“PDAs”) and other devices that facilitate communication of information between end-users.

110,111,112 : 지지대모듈 120 : 카메라모듈
130 : 베이스모듈 140 : 센서모듈
150 : 프로세서 160 : 통신모듈
170 : 조명모듈 DB : 데이터베이스
110,111,112: Support module 120: Camera module
130: Base module 140: Sensor module
150: processor 160: communication module
170: Lighting module DB: Database

Claims (11)

지지대모듈을 통해 회전 또는 이동하며, 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 적어도 하나의 카메라모듈; 및
상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 사물의 입체 영상을 생성하고, 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 프로세서를 포함하는 것을 특징으로 하는 사물 식별 장치.
At least one camera module that rotates or moves through the support module and photographs objects in the base module from various positions or angles; and
The camera module generates a three-dimensional image of the object based on images taken from various positions or angles of the object, and uses the three-dimensional image of the object to generate a plurality of virtual 2D images of the object or identify the object. An object identification device comprising a processor.
제 1항에 있어서,
상기 사물의 정교한 영상 촬영을 지원하기 위한 구조광;을 더 포함하고,
상기 구조광은,
상기 사물 식별 장치 내의 지정된 위치에 장착되거나, 상기 카메라모듈에 장착되는 것을 특징으로 하는 사물 식별 장치.
According to clause 1,
It further includes structured light to support precise image capture of the object,
The structured light is
An object identification device, characterized in that it is mounted at a designated location within the object identification device or mounted on the camera module.
제 1항에 있어서, 상기 프로세서는,
상기 사물을 식별하기 위한 학습을 수행하며,
상기 카메라모듈을 이용하여 촬영한 영상으로부터 측정한 사물의 깊이 정보를 바탕으로 상기 사물이 다른 사물과 겹쳐 있는지 여부를 판단하는 것을 특징으로 하는 사물 식별 장치.
The method of claim 1, wherein the processor:
Performs learning to identify the objects,
An object identification device characterized in that it determines whether the object overlaps another object based on the depth information of the object measured from the image captured using the camera module.
제 1항에 있어서,
상기 프로세서는,
사물의 2D 정보 및 깊이 정보를 바탕으로 사물의 형상별 특징을 분류하며,
상기 2D 정보 및 깊이 정보는,
영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 사물 식별 장치.
According to clause 1,
The processor,
Classifies the characteristics of each object's shape based on the object's 2D information and depth information.
The 2D information and depth information are,
At least one of the following information: IMAGE DATA, COLORS, SIZE, SHAPE, POSITION, TRANSACTION HISTORY, GEOMETRY, and BRIGHTNESS. An object identification device comprising:
제 3항에 있어서,
상기 사물을 식별하기 위한 학습은,
상기 사물 식별 장치와 통신모듈을 통해 유선 또는 무선으로 연결된 서버나 미리 지정된 클라우드에서 수행되며,
상기 서버나 미리 지정된 클라우드에서 수행된 학습 결과가 다시 전송되어 데이터베이스에 저장됨으로써, 상기 프로세서가 상기 학습 결과를 사물 식별에 이용하는 것을 특징으로 하는 사물 식별 장치.
According to clause 3,
Learning to identify the objects is,
It is performed on a server or pre-designated cloud connected wired or wirelessly through the object identification device and communication module,
An object identification device, wherein the learning results performed on the server or a pre-designated cloud are transmitted again and stored in a database, so that the processor uses the learning results to identify objects.
제 1항에 있어서, 상기 프로세서는,
상기 카메라모듈이 촬영한 영상에서 사물의 좌표 정보를 공유함으로써, 촬영 영상마다 사물의 위치를 검출하지 않고, 상기 좌표 정보를 바탕으로 촬영 영상에서 동일한 사물을 식별하는 것을 특징으로 하는 사물 식별 장치.
The method of claim 1, wherein the processor:
An object identification device that identifies the same object in a captured image based on the coordinate information by sharing the coordinate information of the object in the image captured by the camera module, without detecting the location of the object for each captured image.
프로세서가 지지대모듈을 통해 회전 또는 이동하는 적어도 하나의 카메라모듈을 이용해 베이스모듈의 사물을 다양한 위치나 각도에서 촬영하는 단계;
상기 카메라모듈이 사물의 다양한 위치나 각도에서 촬영한 영상을 바탕으로 상기 프로세서가 사물의 입체 영상을 생성하는 단계;
상기 사물의 입체 영상을 이용하여, 상기 프로세서가 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하거나 상기 사물을 식별하는 단계를 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
A step of the processor photographing objects in the base module from various positions or angles using at least one camera module that rotates or moves through the support module;
generating, by the processor, a three-dimensional image of the object based on images taken by the camera module from various positions or angles of the object;
A stereoscopic image generation method using an object identification device, comprising the step of the processor generating a plurality of virtual 2D images of the object or identifying the object using the stereoscopic image of the object.
제 7항에 있어서,
상기 프로세서가 상기 사물의 입체 영상을 이용하여 상기 사물에 대한 복수의 가상의 2D 이미지를 생성하고 상기 가상의 2D 이미지를 이용하여 상기 사물을 식별하기 위한 학습을 수행하는 단계; 및
상기 프로세서가,상기 카메라모듈을 이용하여 촬영한 영상으로부터 측정한 사물의 깊이 정보를 바탕으로 상기 사물이 다른 사물과 겹쳐 있는지 여부를 판단하는 단계;를 더 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 7,
generating, by the processor, a plurality of virtual 2D images of the object using a stereoscopic image of the object and performing learning to identify the object using the virtual 2D images; and
The processor further includes determining whether the object overlaps another object based on depth information of the object measured from an image captured using the camera module. How to create a stereoscopic image.
제 7항에 있어서,
상기 사물을 식별하기 위하여,
상기 프로세서는,
사물의 2D 정보 및 깊이 정보를 바탕으로 사물의 형상별 특징을 분류하며,
상기 2D 정보 및 깊이 정보는,
영상 데이터(IMAGE DATA), 컬러(COLORS), 사이즈(SIZE), 형태(SHAPE), 위치(POSITION), 트랜잭션 히스토리(TRANSACTION HISTORY), 지오메트리(GEOMETRY), 및 밝기(BRIGHTNESS) 정보 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 7,
To identify the object,
The processor,
Classifies the characteristics of each object's shape based on the object's 2D information and depth information.
The 2D information and depth information are,
At least one of the following information: IMAGE DATA, COLORS, SIZE, SHAPE, POSITION, TRANSACTION HISTORY, GEOMETRY, and BRIGHTNESS. A method of generating a three-dimensional image using an object identification device, comprising:
제 8항에 있어서,
상기 사물을 식별하기 위한 학습이,
상기 사물 식별 장치와 통신모듈을 통해 유선 또는 무선으로 연결된 서버나 미리 지정된 클라우드에서 수행될 경우,
상기 서버나 미리 지정된 클라우드에서 수행된 학습 결과를 전송받아 데이터베이스에 저장하는 단계;를 더 포함하고,
상기 프로세서는 상기 학습 결과를 사물 식별에 이용하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 8,
Learning to identify the objects,
When performed on a server or pre-designated cloud connected wired or wirelessly through the object identification device and communication module,
It further includes receiving the learning results performed from the server or a pre-designated cloud and storing them in a database,
A method of generating a three-dimensional image using an object identification device, wherein the processor uses the learning result to identify the object.
제 7항에 있어서,
상기 프로세서는,
상기 카메라모듈이 촬영한 영상에서 사물의 좌표 정보를 공유함으로써, 촬영 영상마다 사물의 위치를 검출하지 않고, 상기 좌표 정보를 바탕으로 촬영 영상에서 동일한 사물을 식별하는 것을 특징으로 하는 사물 식별 장치를 이용한 입체 영상 생성 방법.
According to clause 7,
The processor,
By sharing the coordinate information of the object in the image captured by the camera module, the object identification device is used to identify the same object in the captured image based on the coordinate information without detecting the location of the object for each captured image. How to create a stereoscopic image.
KR1020230054344A 2022-06-14 2023-04-25 Object identification apparatus and 3d image generation method using the same KR20230171859A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220071905 2022-06-14
KR1020220071905 2022-06-14

Publications (1)

Publication Number Publication Date
KR20230171859A true KR20230171859A (en) 2023-12-21

Family

ID=89309615

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020230044374A KR20230172390A (en) 2022-06-14 2023-04-04 Apparatus and method for identifying objects
KR1020230054344A KR20230171859A (en) 2022-06-14 2023-04-25 Object identification apparatus and 3d image generation method using the same
KR1020230054343A KR20230171858A (en) 2022-06-14 2023-04-25 Apparatus and method of identifying objects using reference pattern

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020230044374A KR20230172390A (en) 2022-06-14 2023-04-04 Apparatus and method for identifying objects

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230054343A KR20230171858A (en) 2022-06-14 2023-04-25 Apparatus and method of identifying objects using reference pattern

Country Status (1)

Country Link
KR (3) KR20230172390A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117764094A (en) * 2024-02-21 2024-03-26 博诚经纬软件科技有限公司 Intelligent warehouse management system and method for customs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117764094A (en) * 2024-02-21 2024-03-26 博诚经纬软件科技有限公司 Intelligent warehouse management system and method for customs
CN117764094B (en) * 2024-02-21 2024-05-10 博诚经纬软件科技有限公司 Intelligent warehouse management system and method for customs

Also Published As

Publication number Publication date
KR20230171858A (en) 2023-12-21
KR20230172390A (en) 2023-12-22

Similar Documents

Publication Publication Date Title
CN109584295B (en) Method, device and system for automatically labeling target object in image
US10083522B2 (en) Image based measurement system
US11276194B2 (en) Learning dataset creation method and device
US10134120B2 (en) Image-stitching for dimensioning
US10803292B2 (en) Separation of objects in images from three-dimensional cameras
JP3624353B2 (en) Three-dimensional shape measuring method and apparatus
JP5921271B2 (en) Object measuring apparatus and object measuring method
JP2019530035A (en) Multiple camera systems for inventory tracking
EP3918274B1 (en) Object dimensioning system and method
EP3115741B1 (en) Position measurement device and position measurement method
GB2531928A (en) Image-stitching for dimensioning
CN102713671A (en) Point group data processing device, point group data processing method, and point group data processing program
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
US11281888B2 (en) Separation of objects in images from three-dimensional cameras
CN110926330A (en) Image processing apparatus, image processing method, and program
JP2017146938A (en) Book detection device, book detection method, and computer program for book detection
CN110942120A (en) System and method for automatic product registration
WO2015023483A1 (en) 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements
WO2020075768A1 (en) Three-dimensional scanning device, three-dimensional model generation method, training data, and machine learning model
KR20230171859A (en) Object identification apparatus and 3d image generation method using the same
CN114766042A (en) Target detection method, device, terminal equipment and medium
US20210258476A1 (en) System for generating a three-dimensional scene of a physical environment
JP2006331214A (en) Object identification tag and object identification system using it
JP2005031044A (en) Three-dimensional error measuring device
JP2022128087A (en) Measurement system and measurement program