KR101918168B1 - Method for performing 3D measurement and Apparatus thereof - Google Patents

Method for performing 3D measurement and Apparatus thereof Download PDF

Info

Publication number
KR101918168B1
KR101918168B1 KR1020170133738A KR20170133738A KR101918168B1 KR 101918168 B1 KR101918168 B1 KR 101918168B1 KR 1020170133738 A KR1020170133738 A KR 1020170133738A KR 20170133738 A KR20170133738 A KR 20170133738A KR 101918168 B1 KR101918168 B1 KR 101918168B1
Authority
KR
South Korea
Prior art keywords
dimensional
point group
point
measurement
depth
Prior art date
Application number
KR1020170133738A
Other languages
Korean (ko)
Inventor
박재영
장성호
최광민
조종윤
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020170133738A priority Critical patent/KR101918168B1/en
Application granted granted Critical
Publication of KR101918168B1 publication Critical patent/KR101918168B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/022Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D1/00Measuring arrangements giving results other than momentary value of variable, of general application
    • G01D1/02Measuring arrangements giving results other than momentary value of variable, of general application giving mean values, e.g. root means square values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Provided is a method for measuring a size of an object to be measured by using three-dimensional point group data with respect to the object to be measured. The three-dimensional measuring method according to one embodiment of the present invention implemented by a three-dimensional measuring apparatus comprises: a step of obtaining a three-dimensional point cloud with respect to the object to be measured mapped on a three-dimensional coordination space; a step of extracting a first point group corresponding to a first cross sectional surface of the object to be measured from the three-dimensional point group; a step of implementing first rotation conversion for moving the first point group to a two-dimensional coordination plane, and obtaining a second point group as a result of the first rotation conversion; and a step of measuring the size of the object to be measured based on the second point group.

Description

3차원 계측 방법 및 그 장치{Method for performing 3D measurement and Apparatus thereof}TECHNICAL FIELD The present invention relates to a three-dimensional measurement method and apparatus,

본 발명은 3차원 계측 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 계측 대상 객체에 관한 3차원 점군 데이터(3D cloud point data)를 이용하여 상기 계측 대상 객체의 크기를 정확하게 측정하는 방법 및 그 방법을 수행하는 장치에 관한 것이다.The present invention relates to a three-dimensional measuring method and apparatus therefor. More particularly, the present invention relates to a method of accurately measuring the size of an object to be measured using 3D cloud point data related to an object to be measured, and an apparatus for performing the method.

제품의 길이, 면적, 체적 등의 크기 정보가 없는 경우에는, 적재를 최적화하는 시뮬레이션이 불가능하다. 특히, 이커머스(e-commerce) 창고의 경우, 다양한 제품을 취급하는 것이 일반적이기 때문에, 제품의 크기 정보가 없는 경우가 많다.If there is no size information such as product length, area, volume, etc., it is impossible to simulate loading optimization. Especially, in the case of e-commerce warehouses, since it is common to handle various products, there is often no information about size of products.

제품의 크기 정보를 획득하는 하나의 방편으로 3차원 스캐너가 이용될 수 있다. 3차원 스캐너는 스캔을 통해 생성된 제품의 3차원 공간 정보를 이용하여 제품의 크기를 측정하는 장치이다. 특히, 많이 이용되는 스캐너는 3차원 레이저 스캐너이다. 3차원 레이저 스캐너는 레이저를 해당 제품에 주사하고 반사되어 돌아오는 레이저를 수신하여 정밀한 3차원 공간 정보를 생성하기 때문에, 정확한 크기 측정이 가능하다. 따라서, 3차원 레이저 스캐너는 정밀 부품의 치수 분석, 공정 중 검사, 제품 역설계 등과 같이 정확한 크기 측정이 요구되는 산업 분야에서 폭넓게 활용되고 있다.A three-dimensional scanner can be used as a way to obtain size information of a product. The 3D scanner is a device for measuring the size of a product using three-dimensional spatial information of a product generated through scanning. Particularly, a commonly used scanner is a three-dimensional laser scanner. The 3D laser scanner scans the laser product and receives the returning laser to generate precise three-dimensional spatial information, so accurate size measurement is possible. Therefore, 3D laser scanners are widely used in industrial fields where accurate size measurement is required, such as dimensional analysis of precision parts, in-process inspection, and product reverse design.

그러나, 상술한 3차원 레이저 스캐너는 측정 결과의 정확성에 장점이 있는 반면 제품의 크기 측정에 소요되는 측정 시간이 길고, 무엇보다 3차원 레이저 스캐너의 가격이 매우 고가라는 단점 또한 존재한다.However, while the above-described three-dimensional laser scanner has advantages in accuracy of measurement results, there is a disadvantage that the measurement time required for measuring the size of the product is long and the price of the three-dimensional laser scanner is extremely high.

이에 따라, 저가의 측정 장비를 이용하여 제품의 크기를 신속하게 측정함과 동시에 측정 결과의 신뢰성 및 정확성 또한 보장할 수 있는 계측 방법의 필요성이 제기되고 있다.Accordingly, there is a need for a measurement method that can quickly measure the size of a product using low-cost measurement equipment, and also ensure the reliability and accuracy of the measurement result.

한국등록특허 제10-0686244호 (2003.09.04 공개)Korean Patent No. 10-0686244 (published on September 4, 2003)

본 발명이 해결하고자 하는 기술적 과제는, 깊이 센서 등의 저가의 측정 장비를 이용하여 계측 대상 객체의 크기를 신속하고 정확하게 측정하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.An object of the present invention is to provide a method for quickly and accurately measuring the size of an object to be measured using a low-cost measuring device such as a depth sensor and an apparatus for performing the method.

본 발명이 해결하고자 하는 다른 기술적 과제는, 상기 계측 대상 객체의 깊이 정보를 기초로 생성된 3차원 점군을 이용하여 계측 대상 객체의 크기를 정확하게 측정하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.Another object of the present invention is to provide a method of accurately measuring the size of an object to be measured using a three-dimensional point cloud generated based on depth information of the object to be measured and an apparatus for performing the method .

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 상기 계측 대상 객체의 크기를 정확하게 측정하기 위해, 깊이 정보에 포함된 노이즈를 제거하는 방법 및 그 방법을 장치를 제공하는 것이다.Another object of the present invention is to provide a method and apparatus for removing noise included in depth information in order to accurately measure the size of the object to be measured.

본 발명이 해결하고자 하는 또 다른 기술적 과제는, 상기 계측 대상 객체의 크기를 정확하게 측정하기 위해, 상기 3차원 점군에 포함된 노이즈를 제거하는 방법 및 그 방법을 수행하는 장치를 제공하는 것이다.Another object of the present invention is to provide a method for removing noise contained in the 3D point cloud group and an apparatus for performing the method in order to accurately measure the size of the object to be measured.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 3차원 계측 방법은, 3차원 계측 장치에 의해 수행되는 3차원 계측 방법에 있어서, 3차원 좌표공간 상에 사상된 계측 대상 객체에 대한 3차원 점군(3D point cloud)을 획득하는 단계, 상기 3차원 점군에서 상기 계측 대상 객체의 제1 단면에 대응되는 제1 점군을 추출하는 단계, 상기 제1 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 제2 점군을 획득하는 단계 및 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a three-dimensional measurement method performed by a three-dimensional measurement apparatus, the method comprising: A method of measuring a three-dimensional point cloud, comprising the steps of: acquiring a 3D point cloud; extracting a first point group corresponding to a first end face of the measurement object in the three-dimensional point cloud; And acquiring a second group of points as a result of the first rotation transformation; and measuring a size of the measurement object based on the second group of points.

일 실시예에서, 상기 3차원 점군을 획득하는 단계는, 깊이 센서(depth sensor)를 통해 생성된 상기 계측 대상 객체에 대한 깊이 영상을 획득하는 단계 및 상기 획득된 깊이 영상을 기초로 상기 3차원 점군을 생성하는 단계를 포함할 수 있다.In one embodiment, the step of acquiring the 3D point cloud group may include acquiring a depth image of the measurement object generated through a depth sensor, For example,

일 실시예에서, 상기 제1 점군을 추출하는 단계는, 상기 3차원 점군에서 상기 제1 단면에 대응되는 제3 점군을 결정하는 단계, 상기 제3 점군 중에서 상기 제1 단면의 경계선에 대응되는 점군을 선정하는 단계, 상기 3차원 좌표공간 상에서, 상기 선정된 점군을 기준으로 기 설정된 거리 이내에 위치한 주변 점군을 탐색하는 단계 및 상기 제3 점군 및 상기 주변 점군을 추출하는 단계를 포함할 수 있다.In one embodiment, the step of extracting the first point group includes the steps of: determining a third point group corresponding to the first end face in the three-dimensional point cloud group; determining a third point cloud group corresponding to the boundary line of the first cross- Searching for a group of neighboring points located within a predetermined distance on the basis of the selected point group in the three-dimensional coordinate space, and extracting the third point group and the neighboring point group.

일 실시예에서, 상기 제1 점군을 추출하는 단계는, 상기 3차원 점군에서 상기 제1 단면에 대응되는 제3 점군을 결정하는 단계 및 상기 제3 점군 중에서, 상기 제1 단면에 대응되는 영역과 상기 제1 단면에 대응되지 않는 영역 사이의 경계 구간에 위치한 점군을 제외하고 추출하는 단계를 포함하고, 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계는, 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계 및 상기 경계 구간의 길이를 기초로, 상기 계측 대상 객체의 크기를 보정하는 단계를 포함할 수 있다.In one embodiment, the step of extracting the first point group includes a step of determining a third point group corresponding to the first end face in the three-dimensional point cloud group, and a third point cloud group corresponding to the first end face, Wherein the step of measuring the size of the object to be measured based on the second point group comprises the step of measuring the size of the object to be measured based on the second point group, Measuring a size of the measurement object based on the length of the boundary section, and correcting the size of the measurement object based on the length of the boundary section.

일 실시예에서, 상기 계측 대상 객체의 크기를 측정하는 단계는, 상기 2차원의 좌표평면 상에서 상기 제2 점군을 회전시키는 제2 회전변환을 수행하는 제1 단계, 상기 2차원의 좌표평면을 구성하는 가로축 또는 세로축을 기준으로, 상기 제2 회전변환 된 제2 점군의 최대 좌표 값과 최소 좌표 값과의 차이 값을 산출하는 제2 단계 및 회전각을 변경해가며, 상기 제1 단계 및 상기 제2 단계를 반복하여 수행하는 제3 단계를 포함할 수 있다.In one embodiment, the step of measuring the size of the measurement target object may include a first step of performing a second rotation transformation for rotating the second point group on the two-dimensional coordinate plane, A second step of calculating a difference value between a maximum coordinate value and a minimum coordinate value of the second rotation-converted second point group on the basis of the horizontal axis or the vertical axis, and changing the rotation angle, And a third step of repeating the steps.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 3차원 계측 방법은, 3차원 계측 장치에 의해 수행되는 3차원 계측 방법에 있어서, 기준면에 위치한 계측 대상 객체를 가리키는 3차원 좌표공간 상의 제1 점군(point cloud)을 획득하는 단계, 상기 제1 점군 중에서 상기 기준면에 대응되는 점군의 제외 처리를 수행하고, 상기 제외 처리의 결과로 제2 점군을 획득하는 단계, 상기 제2 점군 중에서 상기 계측 대상 객체의 외곽선에 대응되는 점군을 기준으로 노이즈 보정을 수행하고, 상기 노이즈 보정의 결과로 제2 점군과 적어도 일부는 상이한 제3 점군을 획득하는 단계 및 상기 제3 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a three-dimensional measuring method performed by a three-dimensional measuring apparatus, the method comprising: displaying a three-dimensional coordinate space Obtaining a first point cloud; performing a process of excluding a point group corresponding to the reference plane from the first point cloud and acquiring a second point cloud as a result of the excluding process; Performing a noise correction on the basis of a point group corresponding to an outline of an object to be measured and obtaining a third point group different from at least a part of the second point group as a result of the noise correction; And measuring the size of the object.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 3차원 계측 장치는, 하나 이상의 프로세서, 네트워크 인터페이스, 상기 프로세서에 의하여 수행되는 컴퓨터 프로그램을 로드(Load)하는 메모리 및 상기 컴퓨터 프로그램을 저장하는 스토리지를 포함하되, 상기 컴퓨터 프로그램은, 3차원 좌표공간 상에 사상된 계측 대상 객체에 대한 3차원 점군(3D point cloud)을 획득하는 오퍼레이션, 상기 3차원 점군에서 상기 계측 대상 객체의 제1 단면에 대응되는 제1 점군을 추출하는 오퍼레이션, 상기 제1 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 제2 점군을 획득하는 오퍼레이션 및 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 오퍼레이션을 포함할 수 있다.According to another aspect of the present invention, there is provided a three-dimensional measuring apparatus including at least one processor, a network interface, a memory for loading a computer program executed by the processor, Wherein the computer program comprises: an operation for acquiring a 3D point cloud for an object to be measured mapped on a three-dimensional coordinate space; an operation for acquiring a 3D point cloud for a first cross section of the object to be measured An operation for performing a first rotation transformation for moving the first point group onto a two-dimensional coordinate plane, an operation for obtaining a second point group as a result of the first rotation transformation, And measuring the size of the measurement target object based on the second point group.

상술한 기술적 과제를 해결하기 위한 본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 3차원 좌표공간 상에 사상된 계측 대상 객체에 대한 3차원 점군(3D point cloud)을 획득하는 단계, 상기 3차원 점군에서 상기 계측 대상 객체의 제1 단면에 대응되는 제1 점군을 추출하는 단계, 상기 제1 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 제2 점군을 획득하는 단계 및 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 실행시키기 위하여 기록 매체에 저장될 수 있다.According to another aspect of the present invention, there is provided a computer program for acquiring a 3D point cloud of an object to be measured mapped on a three-dimensional coordinate space Extracting a first point group corresponding to a first end face of the measurement object in the three-dimensional point cloud, performing a first rotation transformation to move the first point cloud on a two-dimensional coordinate plane, Acquiring a second set of points as a result of the first rotation transformation, and measuring the size of the object to be measured based on the second set of points.

상술한 본 발명에 따르면, 저가의 깊이 센서를 이용하여 객체의 크기가 측정될 수 있다. 이를 통해, 고가의 3차원 레이저 스캐너가 대체될 수 있는 바, 객체의 크기 측정에 소요되는 제반 비용이 크게 절감될 수 있다.According to the present invention described above, the size of an object can be measured using a low-cost depth sensor. As a result, an expensive 3D laser scanner can be replaced, and the cost required for measuring the size of the object can be greatly reduced.

또한, 복수의 깊이 영상 프레임을 이용하여 깊이 정보에 대한 노이즈 제거 처리가 수행됨에 따라, 깊이 정보의 신뢰성이 확보될 수 있다. 아울러, 상기 깊이 정보의 신뢰성이 확보됨에 따라, 계측 결과의 정확도가 전반적으로 향상될 수 있다.In addition, reliability of depth information can be ensured by performing noise removal processing on depth information using a plurality of depth image frames. Further, as the reliability of the depth information is secured, the accuracy of the measurement result can be improved as a whole.

또한, 경계 탐색을 통해 3차원 점군 중에서 객체의 특정 단면에 대응되는 점군이 정확하게 추출될 수 있다. 이에 따라, 객체의 크기가 또한 정확하게 측정될 수 있다.Also, a point group corresponding to a specific section of the object among the three-dimensional point group can be accurately extracted through the boundary search. Thus, the size of the object can also be accurately measured.

또한, 3차원 점군 중에서 객체의 경계 구간에 위치한 점군을 제외하고 객체의 크기가 측정되고, 제외된 경계 구간의 길이가 추후 보정을 통해 반영된다. 이에 따라, 경계 구간에서 빈번하게 발생되는 노이즈로 인한 측정 오차가 최소화될 수 있고, 계측 결과의 신뢰도가 향상될 수 있다.In addition, the size of the object is measured except for the point group located in the boundary region of the object in the 3D point cloud group, and the length of the boundary region that is excluded is reflected through the subsequent correction. Accordingly, the measurement error due to the noise frequently generated in the boundary section can be minimized, and the reliability of the measurement result can be improved.

또한, 3차원 점군 중에서 객체의 단면에 대응되는 일부 점군이 추출되고, 2차원 좌표평면 상에서 추출된 점군의 회전변환을 통해 객체의 크기가 측정된다. 즉, AABB(axis-aligned bounding box;), OBB (oriented bounding box)와 같이 객체 전체를 회전변환하지 않고, 특정 단면에 대응되는 점군만이 2차원 좌표평면 상에서 회전변환된다. 이에 따라, 축에 대한 정렬 오차, 방향성 오차에 따라 부정확한 측정 값이 산출되는 것이 방지될 수 있다.In addition, some point groups corresponding to the cross section of the object are extracted from the three-dimensional point group, and the size of the object is measured through rotation transformation of the point group extracted on the two-dimensional coordinate plane. That is, only the point group corresponding to the specific cross section is rotationally transformed on the two-dimensional coordinate plane without rotating the entire object such as an axis-aligned bounding box (AABB) or an oriented bounding box (OBB). Accordingly, it is possible to prevent an incorrect measurement value from being calculated according to alignment errors and directional errors with respect to the axis.

또한, 일부 점군에 대해서만 회전 변환이 수행되므로, 객체의 크기 측정에 소요되는 시간 비용 및 컴퓨팅 비용이 절감될 수 있다.In addition, since rotation conversion is performed only for some point groups, the time cost and the computing cost for measuring the size of the object can be reduced.

또한, 최소 경계 박스(minimum bounding box), 회전변환 등을 이용하여 다양한 형태를 지닌 제2 형 객체의 크기까지 측정될 수 있다.In addition, the size of a second type object having various shapes can be measured using a minimum bounding box, rotation transformation, and the like.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood to those of ordinary skill in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 3차원 계측 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 적재 최적화 시스템의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 3차원 계측 장치를 나타내는 하드웨어 구성도이다.
도 4는 본 발명의 일 실시예에 따른 3차원 계측 방법을 개략적으로 나타내는 흐름도이다.
도 5는 본 발명의 일 실시예에 따라 깊이 정보에 대한 노이즈 제거 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 회전변환 기반의 제1 형 객체의 크기 측정 방법을 개략적으로 나타내는 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 경계 탐색 기반의 제1 형 객체 단면 영역 결정 방법을 설명하기 위한 도면이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따라 제1 형 객체의 경계 구간 노이즈로 인한 측정 오차를 최소화하는 방법을 설명하기 위한 도면이다.
도 9a 내지 도 9c는 본 발명의 일 실시예에 따라 2 단계 회전변환을 통한 제1형 객체의 크기 측정 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 최소 경계 박스 기반의 제2 형 객체의 크기 측정 방법을 개략적으로 나타내는 흐름도이다.
도 11은 본 발명의 몇몇 실시예에서 참조될 수 있는 제2 형 객체의 예시도이다.
도 12는 본 발명의 일 실시예에 따른 제2 형 객체의 높이 측정 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따라 최소 경계 박스 기반의 제2 형 객체 크기 측정 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따라 2 단계 회전변환을 통한 제2 형 객체의 크기 측정 방법을 설명하기 위한 도면이다.
1 is a configuration diagram of a three-dimensional measuring system according to an embodiment of the present invention.
2 is a configuration diagram of a loading optimization system according to an embodiment of the present invention.
3 is a hardware block diagram of a three-dimensional measuring apparatus according to an embodiment of the present invention.
4 is a flowchart schematically showing a three-dimensional measurement method according to an embodiment of the present invention.
5 is a view for explaining a noise removal method for depth information according to an embodiment of the present invention.
6 is a flowchart schematically illustrating a method of measuring the size of a first type object based on rotation transformation according to an embodiment of the present invention.
7 is a view for explaining a method for determining a first type object section region based on boundary detection according to an embodiment of the present invention.
8A and 8B are views for explaining a method for minimizing a measurement error due to boundary region noise of a first type object according to an embodiment of the present invention.
9A to 9C are views for explaining a method of measuring the size of a first type object through a two-step rotation transformation according to an embodiment of the present invention.
10 is a flowchart schematically illustrating a method of measuring a size of a second type object based on a minimum bounding box according to an embodiment of the present invention.
Figure 11 is an illustration of a type II object that may be referenced in some embodiments of the present invention.
12 is a view for explaining a height measurement method of a second type object according to an embodiment of the present invention.
13 is a view for explaining a method of measuring a second type object size based on a minimum bounding box according to an embodiment of the present invention.
FIG. 14 is a view for explaining a method of measuring the size of a second type object through a two-step rotation transformation according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions.

본 명세서에 대한 설명에 앞서, 본 명세서에서 사용되는 몇몇 용어들에 대하여 명확하게 하기로 한다.Prior to the description of the present specification, some terms used in this specification will be clarified.

본 명세서에서, 객체란, 계측 대상이 되는 사물을 의미한다. 상기 객체는 직육면체와 같은 박스형 객체와 다양한 형태를 갖는 비-박스형 객체를 포함할 수 있다. 본 명세서에서, 상기 박스형 객체를 "제1 형 객체"로 명명하고, 상기 제1 형 객체에 포함되지 않는 객체를 "제2 형 객체"로 명명하도록 한다.In this specification, an object means an object to be measured. The object may include a boxed object such as a rectangular parallelepiped and a non-boxed object having various shapes. In this specification, the box-shaped object is referred to as a "first type object", and an object not included in the first type object is referred to as a "second type object".

본 명세서에서, 3차원 점군(3D point cloud)이란, 3차원 객체의 공간 정보를 3차원 좌표공간 상의 점의 집합으로 표현한 것을 의미한다. 따라서, 상기 3차원 점군에 포함된 각각의 점은 3차원의 좌표를 포함하게 된다.In this specification, a 3D point cloud means that spatial information of a three-dimensional object is represented by a set of points on a three-dimensional coordinate space. Therefore, each point included in the three-dimensional point cloud includes three-dimensional coordinates.

본 명세서에서, 크기는 측정 항목을 총칭하는 용어로 이용된다. 크기는 예를 들어 길이, 면적, 체적 등을 포함할 수 있다. 그러나, 열거된 예시에 한정되지 아니한다.In this specification, a size is used as a generic term for a measurement item. The size can include, for example, length, area, volume, and the like. However, it is not limited to the listed examples.

본 명세서에서, 기준면이란, 객체의 높이 측정의 기준이 되는 것으로, 객체가 지면에 위치한 상태에서 크기 측정이 수행되는 경우 상기 지면이 기준면이 될 수 있다.In this specification, the reference plane is a reference for measuring the height of an object, and when the size measurement is performed in a state where the object is located on the ground, the ground plane may be a reference plane.

이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 3차원 계측 시스템의 구성도이다.1 is a configuration diagram of a three-dimensional measuring system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시예에 따른 3차원 계측 시스템은 3차원 계측 장치(100) 및 깊이 센서(200)를 포함하도록 구성될 수 있다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 이하, 상기 3차원 계측 시스템의 각 구성 요소에 대하여 설명하도록 한다.Referring to FIG. 1, a three-dimensional measurement system according to an embodiment of the present invention may include a three-dimensional measurement apparatus 100 and a depth sensor 200. However, it should be understood that the present invention is not limited to the above-described embodiments, and that various changes and modifications may be made without departing from the scope of the present invention. Hereinafter, each component of the three-dimensional measuring system will be described.

상기 3차원 계측 시스템에서, 3차원 계측 장치(100)는 깊이 센서(200)로부터 수신된 깊이 측정 정보를 기초로 계측 대상 객체(10)의 크기를 측정하는 컴퓨팅 장치이다.In the three-dimensional measurement system, the three-dimensional measurement apparatus 100 is a computing apparatus that measures the size of the measurement object 10 based on the depth measurement information received from the depth sensor 200.

상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 연산 수단 및 통신 수단이 구비된 모든 종류의 장치를 포함할 수 있다.The computing device may be, but is not limited to, a notebook, a desktop, a laptop, and the like, and may include all kinds of devices having computing means and communication means.

본 발명의 실시예에 따르면, 3차원 계측 장치(100)는 깊이 센서(200)로부터 수신된 깊이 측정 정보를 이용하여 3차원 점군(3D point cloud)을 생성하고, 상기 3차원 점군을 이용하여 계측 대상 객체(10)의 크기를 측정할 수 있다. 또한, 3차원 계측 장치(100)는 계측의 정확성 및 신뢰성을 담보하기 위해, 각종의 노이즈 제거 및 보정 처리를 수행한다. 본 실시예에 따르면, 저가의 깊이 센서(200)를 이용하여 계측 대상 객체(10)의 크기가 측정될 수 있는 바, 계측에 소요되는 제반 비용이 절감될 수 있다. 또한, 상기 노이즈 제거 및 보정 처리를 통해 계측 결과에 대한 정확성 및 신뢰성 또한 담보될 수 있다. 본 실시예에 대한 자세한 설명은 도 4 이하의 도면을 참조하여 상세하게 설명하도록 한다.According to an embodiment of the present invention, the 3D measurement apparatus 100 generates a 3D point cloud using the depth measurement information received from the depth sensor 200, and performs measurement using the 3D point cloud The size of the target object 10 can be measured. Further, the three-dimensional measuring apparatus 100 performs various kinds of noise removal and correction processing in order to ensure accuracy and reliability of measurement. According to the present embodiment, since the size of the measurement object 10 can be measured using the low-cost depth sensor 200, the cost required for measurement can be reduced. In addition, accuracy and reliability of measurement results can also be ensured through the noise removal and correction processing. The detailed description of this embodiment will be described in detail with reference to the drawings of FIG.

상기 3차원 계측 시스템에서, 깊이 센서(200)는 계측 대상 객체(10)에 대한 깊이 측정 정보를 생성하고, 이를 3차원 계측 장치(100)로 제공하는 측정 장치이다. 도 1에서는 지지대를 이용하여 공중에 설치된 깊이 센서(200)가 아래 방향으로 계측 대상 객체(10)의 깊이 정보를 측정하는 것이 예로써 도시되었다. 이하에서는, 이해의 편의를 제공하기 위해, 계측 대상 객체(10)에 관한 깊이 정보는 도 1에 도시된 환경에서 측정된 정보라고 가정하여 설명하도록 한다. 다만, 본 발명은 이에 한정되지 아니한다.In the three-dimensional measurement system, the depth sensor 200 generates depth measurement information for the measurement object 10 and provides the depth measurement information to the three-dimensional measurement apparatus 100. In FIG. 1, the depth sensor 200 installed in the air using a support table measures the depth information of the measurement object 10 in the downward direction. Hereinafter, in order to facilitate understanding, it is assumed that the depth information on the measurement object 10 is information measured in the environment shown in Fig. However, the present invention is not limited thereto.

본 발명의 실시예에 따르면, 깊이 센서(200)는 계측 대상 객체(10)가 위치하지 않은 상태의 기준면에 대한 제1 깊이 측정 정보를 생성하고, 기준면에 위치한 계측 대상 객체(10)에 대한 제2 깊이 측정 정보를 생성하며, 상기 제1 깊이 측정 정보 및 상기 제2 깊이 측정 정보를 3차원 계측 장치(100)로 제공할 수 있다.According to an embodiment of the present invention, the depth sensor 200 generates first depth measurement information on a reference surface in a state where the measurement object 10 is not positioned, 2 depth measurement information, and may provide the first depth measurement information and the second depth measurement information to the three-dimensional measuring apparatus 100. [

기준면에 대한 제1 깊이 측정 정보는 기준면에 대한 3차원 점군을 생성하는 용도로 이용된다. 또한, 기준면에 대한 3차원 점군은 계측 대상 객체(10)의 정확한 높이 측정을 위해, 기준면을 검출하는 용도로 이용된다. 따라서, 기준면의 위치, 각도 등과 같이 계측 결과에 영향을 미치는 요인이 변동되지 않는다면, 상기 제1 깊이 측정 정보는 초기 1회만 측정되어도 무방하다.The first depth measurement information for the reference plane is used to generate a three-dimensional point cloud for the reference plane. Also, the three-dimensional point cloud with respect to the reference plane is used to detect the reference plane for accurate measurement of the height of the measurement target object 10. Therefore, if the factors influencing the measurement result such as the position, angle, and the like of the reference plane do not vary, the first depth measurement information may be measured only once at the initial time.

깊이 센서(200)는 예를 들어 ToF(time of flight) 방식으로 깊이 정보가 포함된 적어도 하나의 깊이 영상 프레임을 생성하는 장치일 수 있으나, 상기 깊이 센서가 깊이 정보를 측정하는 방식은 상술한 예시에 한정되지 아니한다.The depth sensor 200 may be, for example, a device for generating at least one depth image frame including depth information in a time-of-flight (ToF) manner. However, the depth sensor measures the depth information in the above- .

한편, 도 1에 도시된 3차원 계측 시스템의 각 구성 요소는 네트워크를 통해 통신할 수 있다. 여기서, 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 종류의 유/무선 네트워크로 구현될 수 있다.Meanwhile, each component of the three-dimensional measurement system shown in FIG. 1 can communicate through a network. Here, the network may be any kind of wired / wireless network such as a local area network (LAN), a wide area network (WAN), a mobile radio communication network, a wibro Can be implemented.

상술한 본 발명의 실시예에 따른 3차원 계측 시스템은 창고 관리, 적재 최적화, 물류 비용 산정 등 다양한 분야에서 활용될 수 있다. 보다 이해의 편의를 제공하기 위해, 상기 3차원 계측 시스템을 활용하여 적재 최적화를 수행하는 예에 대하여 간략하게 설명하도록 한다.The three-dimensional measurement system according to the embodiment of the present invention can be utilized in various fields such as warehouse management, loading optimization, and logistics cost estimation. In order to provide more convenience of understanding, an example of carrying out optimization of loading using the three-dimensional measuring system will be briefly described.

도 2는 본 발명의 일 실시예에 따른 적재 최적화 시스템의 구성도이다. 특히, 도 2는 컨베이어 벨트를 통해 운반되는 적재 대상 객체(21, 23, 25)의 크기를 실시간으로 측정하고, 상기 측정된 크기 정보를 이용하여 적재 최적화를 위한 시뮬레이션을 수행하는 예를 도시하고 있다.2 is a configuration diagram of a loading optimization system according to an embodiment of the present invention. Particularly, FIG. 2 shows an example of real-time measurement of the size of the objects 21, 23 and 25 to be carried by the conveyor belt and simulation for loading optimization using the measured size information .

도 2를 참조하면, 상기 적재 최적화 시스템은 전술한 3차원 계측 시스템 외에 적재 최적화 장치(300)를 더 포함하도록 구성될 수 있다. 다만, 도 2에 도시된 적재 최적화 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 적어도 하나의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 예를 들어, 3차원 계측 장치(100)와 적재 최적화 장치(300)는 독립된 컴퓨팅 장치 내의 서로 다른 로직(logic)으로 구현될 수도 있다.Referring to FIG. 2, the load optimization system may be configured to further include a load optimization device 300 in addition to the three-dimensional measurement system described above. It should be noted that each component of the load optimization system shown in FIG. 2 represents functional elements that are functionally separated, and that at least one component may be implemented in a form that they are integrated with each other in an actual physical environment. For example, the three-dimensional measuring apparatus 100 and the stack optimizing apparatus 300 may be implemented with different logic in independent computing devices.

상기 적재 최적화 시스템에서, 적재 최적화 장치(300)는 3차원 계측 장치(100)에 의해 제공받은 각 적재 대상 객체(21, 23, 25)의 크기 정보를 기초로 적재 최적화를 수행하는 컴퓨팅 장치이다.In the loading optimization system, the loading optimization apparatus 300 is a computing apparatus that performs loading optimization based on size information of each of the loading objects 21, 23, and 25 provided by the three-dimensional measuring apparatus 100.

상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 연산 수단 및 통신 수단이 구비된 모든 종류의 장치를 포함할 수 있다.The computing device may be, but is not limited to, a notebook, a desktop, a laptop, and the like, and may include all kinds of devices having computing means and communication means.

본 실시예에서, 적재 최적화 장치(300)는 적재 시뮬레이션을 통해 적재 대상 객체(21, 23, 25)의 적재 순서 및 위치를 시뮬레이션 결과(30)로 제공할 수 있다. 적재 최적화 장치(300)가 적재 시뮬레이션을 수행하는 방법에 대한 설명은 본 발명의 논지를 흐리지 않기 위해 생략하도록 한다.In this embodiment, the stack optimizing apparatus 300 can provide the stacking order and position of the stacking object objects 21, 23, 25 through the stack simulation to the simulation result 30. The description of how the load optimizer 300 performs the load simulation is omitted so as not to obscure the present invention.

본 실시예에 따르면, 실시간으로 측정된 적재 대상 객체의 크기 정보를 이용하여 각 적재 대상 객체의 적재 순서 및 위치가 결정될 수 있다. 이에 따라, 컨테이너에 적재되는 객체의 개수가 증가되는 등 적재의 효율성이 증대될 수 있으며, 이에 따라 물류 운송에 소요되는 제반 비용이 절감될 수 있다.According to this embodiment, the loading order and position of each loading object can be determined using the size information of the loading object measured in real time. As a result, the efficiency of loading can be increased, for example, the number of objects loaded in the container is increased, thereby reducing the overall cost of transportation.

지금까지 도 2를 참조하여, 본 발명의 일 실시예에 따른 적재 최적화 시스템에 대하여 설명하였다. 다음으로, 상술한 시스템들의 일 구성 요소인 3차원 계측 장치(100)의 구성 및 동작에 대하여 도 3을 참조하여 설명하도록 한다.With reference to FIG. 2, a load optimization system according to an embodiment of the present invention has been described. Next, the configuration and operation of the three-dimensional measuring apparatus 100 which is one component of the above-described systems will be described with reference to FIG.

도 3은 본 발명의 일 실시예에 따른 3차원 계측 장치(100)의 하드웨어 구성도이다.3 is a hardware block diagram of a three-dimensional measuring apparatus 100 according to an embodiment of the present invention.

도 3을 참조하면, 3차원 계측 장치(100)는 하나 이상의 프로세서(101), 버스(105), 네트워크 인터페이스(107), 프로세서(101)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(103)와, 3차원 계측 소프트웨어(109a)를 저장하는 스토리지(109)를 포함할 수 있다. 다만, 도 3에는 본 발명의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 발명이 속한 기술분야의 통상의 기술자라면 도 3에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다.3, the three-dimensional measuring apparatus 100 includes at least one processor 101, a bus 105, a network interface 107, a memory (not shown) for loading a computer program executed by the processor 101 103, and a storage 109 for storing the three-dimensional measurement software 109a. 3, only the components related to the embodiment of the present invention are shown. Accordingly, those skilled in the art will recognize that other general-purpose components may be included in addition to those shown in FIG.

프로세서(101)는 3차원 계측 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(101)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 프로세서(101)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 3차원 계측 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.The processor 101 controls the overall operation of each configuration of the three-dimensional measuring apparatus 100. The processor 101 includes a central processing unit (CPU), a microprocessor unit (MPU), a microcontroller unit (MCU), a graphics processing unit (GPU), or any type of processor well known in the art . The processor 101 may also perform operations on at least one application or program to perform the method according to embodiments of the present invention. The three-dimensional measuring apparatus 100 may include one or more processors.

메모리(103)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(103)는 본 발명의 실시예들에 따른 3차원 계측 방법을 실행하기 위하여 스토리지(109)로부터 하나 이상의 프로그램(109a)을 로드할 수 있다. 도 3에서 메모리(103)의 예시로 RAM이 도시되었다.The memory 103 stores various data, commands and / or information. The memory 103 may load one or more programs 109a from the storage 109 to perform the three-dimensional measurement method according to embodiments of the present invention. RAM is shown as an example of the memory 103 in Fig.

버스(105)는 3차원 계측 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(105)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 105 provides a communication function between components of the three-dimensional measuring apparatus 100. The bus 105 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.

네트워크 인터페이스(107)는 3차원 계측 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 네트워크 인터페이스(107)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 네트워크 인터페이스(107)는 본 발명의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The network interface 107 supports wired / wireless Internet communication of the three-dimensional measuring apparatus 100. In addition, the network interface 107 may support various communication methods other than Internet communication. To this end, the network interface 107 may comprise a communication module well known in the art.

본 발명의 실시예에 따르면, 네트워크 인터페이스(107)는 깊이 센서(200)로부터 계측 대상 객체와 관련된 깊이 측정 정보(109b)를 수신할 수 있다.According to the embodiment of the present invention, the network interface 107 can receive the depth measurement information 109b associated with the object to be measured from the depth sensor 200. [

스토리지(109)는 상기 하나 이상의 프로그램(109a) 및 깊이 측정 정보(109b)을 비임시적으로 저장할 수 있다. 도 3에서 상기 하나 이상의 프로그램(109a)의 예시로 3차원 계측 소프트웨어(109a)가 도시되었다.The storage 109 may non-provisionally store the one or more programs 109a and the depth measurement information 109b. In FIG. 3, three-dimensional measurement software 109a is shown as an example of the one or more programs 109a.

스토리지(109)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 109 may be a nonvolatile memory such as ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), flash memory, etc., hard disk, removable disk, And any form of computer-readable recording medium known in the art.

3차원 계측 소프트웨어(109a)는 본 발명의 실시예에 따른 3차원 계측 방법을 수행할 수 있다. 예를 들어, 3차원 계측 소프트웨어(109a)는 메모리(103)에 로드되어, 하나 이상의 프로세서(101)에 의해, 3차원 좌표공간 상에 사상된 계측 대상 객체에 대한 3차원 점군을 획득하는 오퍼레이션, 상기 3차원 점군에서 상기 계측 대상 객체의 제1 단면에 대응되는 제1 점군을 추출하는 오퍼레이션, 상기 제1 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 제2 점군을 획득하는 오퍼레이션 및 상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 오퍼레이션을 실행할 수 있다.The three-dimensional measurement software 109a can perform a three-dimensional measurement method according to an embodiment of the present invention. For example, the three-dimensional measurement software 109a may be loaded into the memory 103 to perform operations for acquiring a three-dimensional point cloud for a measurement object mapped on a three-dimensional coordinate space by one or more processors 101, An operation of extracting a first point group corresponding to a first cross section of the object to be measured in the three-dimensional point cloud, a first rotation transformation to move the first point cloud onto a two-dimensional coordinate plane, An operation of acquiring the second point group as a result of the conversion and an operation of measuring the size of the measurement object based on the second point group.

지금까지, 도 3을 참조하여 본 발명의 실시예에 따른 3차원 계측 장치(100)의 구성 및 동작에 대하여 설명하였다. 다음으로, 도 4 내지 도 14를 참조하여 본 발명의 실시예에 따른 3차원 계측 방법에 대하여 상세하게 설명한다.Up to now, the configuration and operation of the three-dimensional measuring apparatus 100 according to the embodiment of the present invention have been described with reference to Fig. Next, a three-dimensional measurement method according to an embodiment of the present invention will be described in detail with reference to Figs. 4 to 14. Fig.

이하에서 후술할 본 발명의 실시예에 따른 3차원 계측 방법의 각 단계는, 컴퓨팅 장치에 의해 수행될 수 있다. 예를 들어, 상기 컴퓨팅 장치는 3차원 계측 장치(100)일 수 있다. 다만, 설명의 편의를 위해, 상기 3차원 계측 방법에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다. 또한, 3차원 계측 방법의 각 단계는 프로세서(101)에 의해 실행되는 3차원 계측 소프트웨어(109a)의 각 오퍼레이션으로 구현될 수 있다.Hereinafter, each step of the three-dimensional measurement method according to an embodiment of the present invention to be described later may be performed by a computing device. For example, the computing device may be a three-dimensional measuring device 100. However, for the sake of convenience of description, description of the operation subject of each step included in the above three-dimensional measurement method may be omitted. In addition, each step of the three-dimensional measurement method can be implemented with each operation of the three-dimensional measurement software 109a executed by the processor 101. [

도 4는 본 발명의 일 실시예에 따른 3차원 계측 방법을 나타내는 개략적인 흐름도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.4 is a schematic flow chart illustrating a three-dimensional measurement method according to an embodiment of the present invention. However, it should be understood that the present invention is not limited thereto and that some steps may be added or deleted as needed.

도 4를 참조하면, 단계(S100)에서, 계측 대상 객체가 위치하지 않은 상태의 기준면에 대한 깊이 정보를 기초로 3차원 점군이 생성된다. 또한, 상기 3차원 점군에서 기준면에 대응되는 평면이 검출된다.Referring to FIG. 4, in step S100, a three-dimensional point cloud is generated based on depth information about a reference plane in a state where the measurement object is not located. Further, a plane corresponding to the reference plane in the three-dimensional point cloud group is detected.

보다 자세하게는, 깊이 영상 프레임에 포함된 깊이 정보를 이용하여 기준면에 대한 3차원 점군이 생성된다. 또한, 상기 3차원 점군에서 기준면에 대응되는 평면이 검출되면, 상기 평면에 포함된 점군을 기초로 기준면에 대한 평면 방정식이 결정될 수 있다. 상기 평면 방정식은 추후 계측 대상 객체의 높이를 측정하는데 이용될 수 있다. 깊이 정보를 이용하여 3차원 점군을 생성하는 방법은 당해 기술 분야의 종사자에게 자명한 사항이므로 이에 대한 설명은 생략하도록 한다. 이하에서는, 설명의 편의를 위해, 상기 기준면에 대한 3차원 점군을 "기준 점군"으로 약칭하도록 한다.More specifically, a three-dimensional point cloud with respect to the reference plane is generated using the depth information included in the depth image frame. When a plane corresponding to the reference plane is detected in the three-dimensional point cloud group, a plane equation for the reference plane may be determined based on the point cloud included in the plane. The plane equation can be used to measure the height of a measurement target object in the future. A method of generating a three-dimensional point cloud using depth information is obvious to those skilled in the art, so a description thereof will be omitted. Hereinafter, for convenience of explanation, the three-dimensional point group for the reference plane will be abbreviated as "reference point group ".

참고로, 본 단계(S100)는 기준면의 각도, 위치 등 계측 결과에 영향을 주는 요소가 변동되지 않는 한 초기 1회만 수행되어도 무방하다.For reference, the present step (S100) may be performed only once at the initial stage so long as the factors affecting the measurement result such as the angle and position of the reference plane are not changed.

본 발명의 실시예에 따르면, 기준 점군이 생성되기 전에, 깊이 정보의 신뢰성을 확보하기 위해, 깊이 영상 프레임에 대한 노이즈 제거 처리가 수행될 수 있다. 이하, 도 5를 참조하여 본 실시예에 대하여 자세하게 설명하도록 한다.According to the embodiment of the present invention, in order to secure the reliability of the depth information before the reference point group is generated, noise removal processing for the depth image frame can be performed. Hereinafter, the present embodiment will be described in detail with reference to FIG.

도 5를 참조하면, 상기 노이즈 제거 처리는 N(단, N은 2 이상의 자연수)개의 깊이 영상 프레임(410 내지 450)을 이용하여 수행되고, 수행 결과로 노이즈가 제거된 결과 프레임(460)이 획득될 수 있다. 이때, 결과 프레임(460)에 포함된 픽셀(461)의 깊이 값은 N개의 깊이 영상 프레임(410 내지 450)에 포함되고 픽셀(461)과 대응되는 픽셀(411 내지 451)의 평균 값으로 결정될 수 있다. 즉, 복수의 깊이 값에 대한 평균 값을 이용하여 시간 영역에서 일시적으로 발생되는 시간 잡음(temporal noise)이 제거될 수 있다. 도 5에서는, N이 5인 경우가 예로써 도시되었다.5, the noise removal process is performed using N (where N is a natural number equal to or greater than 2) depth image frames 410 to 450, and a resultant frame 460 from which noises are removed is obtained . At this time, the depth value of the pixel 461 included in the result frame 460 may be determined as an average value of the pixels 411 to 451 included in the N depth image frames 410 to 450 and corresponding to the pixel 461 have. That is, the temporal noise temporally generated in the time domain can be eliminated by using an average value of a plurality of depth values. In Fig. 5, the case where N is 5 is shown as an example.

상기 N의 값은 기 설정된 고정 값 또는 상황에 따라 변동되는 변동 값일 수 있다. 예를 들어, 상기 N의 값은 계측을 수행하는 제1 컴퓨팅 장치의 컴퓨팅 성능 및/또는 깊이 측정을 수행하는 제2 컴퓨팅 장치의 컴퓨팅 성능에 기초하여 변동되는 값일 수 있다. 보다 구체적인 예를 들어, 상기 N의 값은 상기 제1 컴퓨팅 장치 및/또는 상기 제2 컴퓨팅 장치의 컴퓨팅 성능이 고성능일수록 높은 값으로 설정될 수 있다.The value of N may be a predetermined fixed value or a variation value that varies depending on a situation. For example, the value of N may be a value that varies based on the computing capabilities of the first computing device performing the metrology and / or the computing capabilities of the second computing device performing depth measurements. More specifically, for example, the value of N may be set to a higher value as the computing performance of the first computing device and / or the second computing device is higher.

또한, 본 실시예에서, 각각의 깊이 영상 프레임(410 내지 450)에 대한 노이즈 픽셀(noise pixel) 제거 처리가 수행될 수 있다. 즉, 각각의 깊이 영상 프레임(410 내지 450)에서 노이즈 픽셀이 먼저 제거되고, 나머지 픽셀의 평균 값으로 결과 프레임(460)의 깊이 값이 결정될 수 있다.Also, in this embodiment, a noise pixel removal process for each of the depth image frames 410 to 450 may be performed. That is, the noise pixels may be first removed in each of the depth image frames 410 through 450, and the depth value of the result frame 460 may be determined as an average value of the remaining pixels.

상기 노이즈 픽셀은 예를 들어 데드 픽셀(dead pixel), 핫 픽셀(hot pixel), 깊이 값이 크게 변동되는 픽셀 등을 의미할 수 있으나, 열거된 예시에 한정되지 아니한다. 보다 자세하게는, 상기 노이즈 픽셀은 픽셀의 깊이 값이 제1 임계 값 이하인 조건을 만족하는 제1 노이즈 픽셀, 픽셀의 깊이 값이 제1 임계 값보다 높은 제2 임계 값 이상인 조건을 만족하는 제2 노이즈 픽셀, 픽셀의 깊이 값의 변동성을 나타내는 값이 제3 임계 값 이상인 조건을 만족하는 제3 노이즈 픽셀 등을 포함할 수 있다.The noise pixel may be, for example, a dead pixel, a hot pixel, a pixel whose depth value greatly fluctuates, and the like, but is not limited to the listed examples. More specifically, the noise pixel includes a first noise pixel that satisfies a condition that a depth value of a pixel is equal to or less than a first threshold value, a second noise that satisfies a condition that a depth value of the pixel is equal to or greater than a second threshold value, And a third noise pixel that satisfies a condition that a value indicating a variation of a depth value of a pixel is equal to or greater than a third threshold value.

결과적으로, 결과 프레임(460)을 구성하는 각 픽셀의 깊이 값은 하기의 수학식 1에 따라 결정될 수 있다. 하기 수학식 1에서, D(x, y)는 결과 프레임(D)의 x행 및 y열의 깊이 값을 의미한다. Di(x, y)는 i번째 프레임의 깊이 값, Dnoise(x, y)는 노이즈라고 판단되는 깊이 값을 의미한다. 그리고 N은 프레임의 총 개수, n은 노이즈 픽셀로 검출된 픽셀의 수를 나타낸다.As a result, the depth value of each pixel constituting the result frame 460 can be determined according to the following equation (1). In Equation (1), D (x, y) denotes depth values of the x and y columns of the result frame (D). D i (x, y) denotes a depth value of the i-th frame, and D noise (x, y) denotes a depth value determined as noise. N is the total number of frames, and n is the number of pixels detected as noise pixels.

Figure 112017101287416-pat00001
Figure 112017101287416-pat00001

한편, 상기 수학식 1을 이용하는 경우, 결과 프레임(460)을 구성하는 각 픽셀의 깊이 값은 산술 평균에 기초하여 결정된다. 그러나, 본 발명의 다른 실시예에 따르면, 결과 프레임(460)을 구성하는 각 픽셀의 깊이 값은 가중 평균에 기초하여 결정될 수도 있다. 예를 들어, 제1 깊이 영상 프레임 및 제2 깊이 영상 프레임을 기초로 결과 프레임이 생성되는 경우, 상기 제1 깊이 영상 프레임 및 상기 제2 깊이 영상 프레임 각각에서 검출된 노이즈 픽셀의 수를 기초로 각 프레임에 대한 상대적 가중치가 동적으로 결정될 수 있다. 보다 구체적인 예를 들어, 노이즈 픽셀이 상대적으로 많이 검출된 깊이 영상 프레임에는 상대적으로 낮은 가중치가 부여되고, 반대의 경우 상대적으로 높은 가중치가 부여될 수 있다. 또한, 결과 프레임의 깊이 값은 부여된 가중치에 기반한 가중 평균으로 결정될 수 있다.On the other hand, in the case of using Equation 1, the depth value of each pixel constituting the result frame 460 is determined based on the arithmetic mean. However, in accordance with another embodiment of the present invention, the depth value of each pixel comprising the result frame 460 may be determined based on the weighted average. For example, when a result frame is generated on the basis of the first depth image frame and the second depth image frame, based on the number of noise pixels detected in each of the first depth image frame and the second depth image frame, Relative weights for the frame can be determined dynamically. More specifically, for example, a relatively low weight value is given to a depth image frame in which noise pixels are relatively detected, and a relatively high weight value can be given in the opposite case. In addition, the depth value of the resultant frame can be determined as a weighted average based on the weighted value.

다시 도 4를 참조하여, 본 발명의 실시예에 따른 3차원 계측 방법에 대한 설명을 이어가도록 한다.Referring again to FIG. 4, a description will be made of a three-dimensional measurement method according to an embodiment of the present invention.

단계(S200)에서, 기준면에 위치한 계측 대상 객체에 대한 깊이 정보를 기초로 3차원 점군이 생성된다. 본 단계(S200)는 전술한 단계(S100)와 유사한 과정에 따라 수행되므로, 본 단계(S200)에 대한 더 이상의 설명은 생략하도록 한다.In step S200, a three-dimensional point cloud is generated based on the depth information of the measurement object located on the reference plane. Since this step S200 is performed in accordance with a process similar to the above-described step S100, further description of this step S200 will be omitted.

단계(S300)에서, 상기 3차원 점군에서 기준면에 평행한 평면이 검출되는지가 판정된다. 구체적으로, 단계(S100)에서 기준면에 대응되는 평면으로 검출된 제1 평면과 평행한 제2 평면이 상기 3차원 점군에서 검출되는지 판정된다. 상기 제1 평면과 상기 제2 평면이 평행하는지 여부는 예를 들어 각 평면의 노멀 벡터(normal vector)가 평행한지 여부로 판정될 수 있다. 그러나, 이에 한정되지 아니한다.In step S300, it is determined whether a plane parallel to the reference plane in the three-dimensional point cloud group is detected. Specifically, it is determined in step S100 whether a second plane, which is parallel to the first plane detected in the plane corresponding to the reference plane, is detected in the three-dimensional point cloud. Whether the first plane and the second plane are parallel can be determined, for example, whether or not the normal vectors of the respective planes are parallel. However, it is not limited to this.

판정 결과, 기준면에 평행한 평면이 검출된 경우, 계측 대상 객체는 직육면체 등과 같이 제1 형 객체에 해당할 확률이 높다. 이와 같은 경우, 단계(S400)에서 회전 변환을 이용하여 계측 대상 객체의 크기가 측정된다. 본 단계(S400)에 대한 자세한 설명은 도 6 내지 도 9c를 참조하여 후술하도록 한다.As a result of the determination, when a plane parallel to the reference plane is detected, the measurement object is likely to correspond to the first-type object, such as a rectangular parallelepiped. In this case, the size of the measurement object is measured using the rotation conversion in step S400. A detailed description of this step (S400) will be given later with reference to Figs. 6 to 9C.

판정 결과, 지면에 평행한 평면이 검출되지 않은 경우, 계측 대상 객체는 원형, 서로 다른 크기를 갖는 복수의 제1 형 객체들 등과 같이 제2 형 객체에 해당할 확률이 높다. 이와 같은 경우, 단계(S500)에서, 최소 경계 박스를 이용하여 계측 대상 객체의 크기가 측정된다. 본 단계(S500)에 대한 자세한 설명은 도 10 내지 도 13을 참조하여 후술하도록 한다As a result of the determination, if the plane parallel to the ground is not detected, the object to be measured is highly likely to correspond to the second type object such as a circle, a plurality of first type objects having different sizes, and the like. In this case, in step S500, the size of the measurement target object is measured using the minimum bounding box. A detailed description of this step S500 will be described later with reference to Figs. 10 to 13

지금까지, 도 4 및 도 5를 참조하여, 본 발명의 실시예에 따른 3차원 계측 방법에 대하여 설명하였다. 상술한 방법에 따르면, 깊이 정보를 기초로 생성된 3차원 점군을 이용하여 계측 대상 객체의 크기가 측정될 수 있다. 이때, 상기 깊이 정보는 저가의 깊이 센서를 이용하여 측정될 수 있기 때문에, 객체의 크기 측정에 소요되는 제반 비용이 크게 절감될 수 있다.Up to now, the three-dimensional measuring method according to the embodiment of the present invention has been described with reference to Figs. 4 and 5. Fig. According to the above-described method, the size of the measurement object can be measured using the three-dimensional point cloud generated based on the depth information. At this time, since the depth information can be measured using a low-cost depth sensor, the overall cost of measuring the size of the object can be greatly reduced.

다음으로, 도 6 내지 도 9c를 참조하여, 계측 대상 객체가 제1 형 객체로 판정된 경우, 단계(S400)에서 수행되는 크기 측정 방법에 대하여 상세하게 설명하도록 한다.Next, with reference to FIGS. 6 to 9C, a method of measuring a size performed in step S400 when the object to be measured is determined as a first type object will be described in detail.

도 6은 본 발명의 일 실시예에 따른 회전변환 기반의 크기 측정 방법을 나타내는 개략적인 흐름도이다.FIG. 6 is a schematic flow chart illustrating a method of measuring rotation-based size according to an embodiment of the present invention.

도 6을 참조하면, 단계(S410)에서, 계측 대상 객체에 대한 3차원 점군 중에서 계측 대상 객체의 상단면에 대응되는 점군이 추출된다. 이하, 본 실시예에 한하여, 설명의 편의를 위해, 상기 상단면에 대응되는 점군을 "제1 점군"으로 명명하도록 한다.Referring to FIG. 6, in step S410, a point group corresponding to the top surface of the measurement object is extracted from the three-dimensional point cloud of the measurement object. Hereinafter, for convenience of description, the point group corresponding to the top surface will be referred to as "first point group" in the present embodiment.

본 발명의 실시예에 따르면, 상단면에 대응되는 제1 점군을 정확하게 추출하기 위해, 상기 상단면의 경계선에 위치한 점군을 기준으로 확장 탐색이 수행될 수 있다. 이하, 본 실시예에 대하여 도 7을 참조하여 설명하도록 한다.According to the embodiment of the present invention, in order to accurately extract the first point group corresponding to the top surface, an extended search can be performed based on the point group located on the boundary line of the top surface. Hereinafter, this embodiment will be described with reference to FIG.

도 7의 왼편에 도시된 평면은 계측 대상 객체의 실제 상단면 영역(520)과 3차원 점군에서 상단면으로 검출된 영역(510)을 비교하여 도시하고 있다. 깊이 센서로부터 제공받은 깊이 정보는 노이즈를 포함하고 있기 때문에, 이를 기초로 생성된 3차원 점군에도 노이즈가 포함되어 있다. 따라서, 도 7의 왼편에 도시된 바와 같이, 계측 대상 객체의 상단면에 대응되는 평면이 정확하게 검출되지 않는 경우가 빈번하게 발생될 수 있다.The plane shown on the left side of FIG. 7 shows the actual top plane region 520 of the object to be measured and the region 510 detected as the top plane from the three-dimensional point cloud group. Since the depth information provided from the depth sensor includes noise, the three-dimensional point cloud generated based on the depth information includes noise. Therefore, as shown in the left side of FIG. 7, a case where a plane corresponding to the top surface of the measurement object is not accurately detected can be frequently generated.

위와 같은 문제를 해결하기 위해, 검출된 영역(510)의 경계선 상에 위치한 점군을 기준으로 주변 점군에 대한 탐색이 수행될 수 있다. 구체적으로, 상기 경계선 상에 위치한 점군을 기준으로 3차원 공간 상에서 기 설정된 거리 이내에 위치한 주변 점군이 탐색된다. 또한, 탐색된 주변 점군까지, 계측 대상 객체의 상단면에 대응되는 제1 점군으로 추출되게 된다. 도 7의 오른편에 도시된 평면은 상술한 탐색을 통해 계측 대상 객체의 상단면에 대응되는 제1 점군으로 추가 검출된 영역(530)을 도시하고 있다.In order to solve the above problem, the search for the neighboring point group may be performed based on the point group located on the boundary line of the detected area 510. [ Specifically, a group of neighboring points located within a predetermined distance on the three-dimensional space is searched based on the point group located on the boundary line. In addition, the first point group corresponding to the top surface of the object to be measured is extracted to the searched peripheral point group. The plane shown on the right-hand side of FIG. 7 shows the region 530 additionally detected by the first point group corresponding to the top surface of the measurement object through the above-described search.

본 실시예에 따르면, 계측 대상 객체의 상단면에 대응되는 영역이 보다 정확하게 추출될 수 있기 때문에, 계측 결과의 정확도 및 신뢰도 또한 향상될 수 있다.According to the present embodiment, since the area corresponding to the top surface of the measurement object can be extracted more accurately, the accuracy and reliability of the measurement result can be also improved.

한편, 본 발명의 실시예에 따르면, 상기 제1 점군 중에서 계측 대상 객체의 경계 구간에 위치한 점들을 제외하고 나머지 점군이 추출될 수도 있다. 이하, 본 실시예에 한하여, 상기 제1 점군 중에서 경계 구간에 위치한 점들이 제외된 점군을 "제2 점군"으로 명명하도록 한다.Meanwhile, according to the embodiment of the present invention, the remaining point groups may be extracted from the first point group except the points located in the boundary section of the measurement object. Hereinafter, in the present embodiment, the point group excluding the points located in the boundary section among the first point group will be referred to as a "second point group ".

경계 구간에 위치한 점들을 제외하는 이유는, 통상적으로 경계 구간에서 많은 노이즈가 발생하기 때문이다. 본 실시예에 따르면, 경계 구간에 위치한 점들을 제외하고 계측 대상 객체의 크기를 측정한 다음에 경계 구간만큼의 길이를 보정하게 된다. 이에 따라, 경계 구간의 노이즈로 인해 발생되는 측정 오차가 최소화될 수 있다. 보다 이해의 편의를 제공하기 위해, 도 8a 및 도 8b를 참조하여 부연 설명하도록 한다.The reason for excluding the points located in the boundary region is that a lot of noise is normally generated in the boundary region. According to the present embodiment, the size of the object to be measured is measured except the points located in the boundary section, and then the length of the boundary section is corrected. Accordingly, the measurement error caused by the noise in the boundary section can be minimized. In order to provide a more convenient understanding, it will be further described with reference to Figs. 8A and 8B.

도 8a를 참조하면, 제1 점군에 대응되는 평면 영역(610) 중에서 경계 구간에 대응되는 영역(630)에 특히 많은 노이즈가 포함된 것을 볼 수 있다. 따라서, 본 실시예에 따르면, 경계 영역(630)에 대응되는 점군은 제외되고, 경계의 내부 영역(620)에 대응되는 제2 점군이 추출된다. 또한, 상기 제2 점군을 기초로 계측 대상 객체의 크기가 측정되고, 이후 경계 영역(630)에 대응되는 길이만큼 보정이 수행된다. 도 8a에서 측정된 계측 대상 객체의 크기는 "제1 구간"에 대응되고, 보정되는 길이는"제2 구간"에 대응되는 것으로 이해될 수 있다.Referring to FIG. 8A, it can be seen that a lot of noise is included in the region 630 corresponding to the border region among the planar regions 610 corresponding to the first point group. Therefore, according to the present embodiment, the point group corresponding to the boundary region 630 is excluded, and a second point group corresponding to the inner region 620 of the boundary is extracted. In addition, the size of the object to be measured is measured based on the second point group, and then the correction is performed by a length corresponding to the boundary region 630. It can be understood that the size of the measurement object measured in Fig. 8A corresponds to "the first section " and the length to be corrected corresponds to the" second section ".

경계 영역(630)에 대응되는 제2 구간의 길이(b)는 하기의 수학식 2에 따라 산출될 수 있다. 도 8b를 참조하여 수학식 2의 파라미터를 설명하면, h는 깊이 센서(200)와 계측 대상 객체의 상단면 사이의 거리(640)를 가리키고, fovangle은 깊이 센서(200)의 화각(field of view, 660)를 가리킨다. n은 경계 구간에 대응되는 하나의 점열 상의 점의 개수(e.g. 도 8a의 경우, n = 2)를 가리키고, width는 한 상기 화각에 대응되는 하나의 점열 상의 점의 개수(e.g. 도 8a의 경우, width = 14)를 가리킨다. 또한, α는 측정 환경에 따른 보정계수로 보정 구간의 길이를 조절하는 변수이다.The length b of the second section corresponding to the border area 630 can be calculated according to the following equation (2). The parameter h represents the distance 640 between the depth sensor 200 and the top surface of the object to be measured and the fov angle represents the field of view of the depth sensor 200. [ view, 660). (e.g., n = 2 in FIG. 8A), and width is the number of points on one ridge corresponding to one angle of view (e.g., in the case of FIG. 8A, width = 14). Also,? Is a variable for adjusting the length of the correction section with a correction coefficient according to the measurement environment.

Figure 112017101287416-pat00002
Figure 112017101287416-pat00002

본 실시예에 따르면, 경계 구간에서 빈번하게 발생되는 노이즈의 영향이 최소화되기 때문에, 계측 결과의 정확도 및 신뢰도가 향상될 수 있다.According to this embodiment, since the influence of the noise frequently generated in the boundary section is minimized, the accuracy and reliability of the measurement result can be improved.

다시 도 6을 참조하면, 단계(S430)에서, 단계(S410)을 통해 추출된 점군(e.g. 제1 점군 또는 제2 점군)을 이용하여 계측 대상 객체의 높이가 측정된다. 보다 자세하게는, 기준면을 가리키는 평면 방정식과 상기 추출된 점군을 구성하는 적어도 하나의 점과의 거리가 산출되고, 상기 산출된 거리가 상기 계측 대상 객체의 높이로 결정된다. 기준면을 기초로 계측 대상 객체의 높이가 측정되므로, 계측 대상 객체가 경사진 곳에 놓여 있는 경우에도 정확하게 높이가 측정될 수 있다.Referring back to FIG. 6, in step S430, the height of the measurement object is measured using the point group extracted in step S410 (e.g., the first point group or the second point group). More specifically, a distance between a plane equation indicating a reference plane and at least one point constituting the extracted point group is calculated, and the calculated distance is determined as the height of the measurement object. Since the height of the object to be measured is measured based on the reference plane, the height can be accurately measured even when the object to be measured is placed on an inclined plane.

예를 들어, 상기 계측 대상 객체의 높이는 상기 점군 중에서 임의로 결정된 한 점과 상기 평면 방정식과의 거리로 결정될 수 있다. 다른 예를 들어, 상기 계측 대상 객체의 높이는 상기 점군에 포함된 복수의 점 각각과 상기 평면 방정식과의 거리의 평균으로 결정될 수 있다. 또 다른 예를 들어, 상기 계측 대상 객체의 높이는 상기 평면 방정식과 상기 점군에 포함된 점과의 거리 중 최대 값 또는 최소 값으로 결정될 수 있다. 다만, 상기 계측 대상 객체의 높이가 결정되는 방식은 열거된 예시에 한정되지 아니한다.For example, the height of the measurement object may be determined by a distance between a point arbitrarily determined in the point group and the plane equation. In another example, the height of the measurement object may be determined by an average of distances between each of the plurality of points included in the point cloud and the plane equation. In another example, the height of the measurement object may be determined as a maximum value or a minimum value of a distance between the plane equation and a point included in the point cloud. However, the manner in which the height of the object to be measured is determined is not limited to the listed examples.

단계(S450)에서, 단계(S410)을 통해 추출된 점군(e.g. 제1 점군 또는 제2 점군)을 2차원 좌표평면으로 회전변환하여 계측 대상 객체의 가로 및 세로 길이가 측정된다. 즉, 본 발명의 실시예에 따르면, AABB(axis-aligned bounding box;), OBB (oriented bounding box)와 같이 계측 대상 객체 전체를 회전변환하는 방식이 아니라, 단계(S410)에서 추출된 점군을 2차원 좌표평면 상에서 회전변환하는 방식이 이용된다. 이에 따라, 축에 대한 정렬 오차, 방향성 오차에 따라 부정확한 치수가 측정되는 것이 방지되고, 계측의 정확도가 향상될 수 있다. 이하에서는, 도 9a 내지 도 9c를 참조하여 단계(S450)에서 대하여 부연 설명하도록 한다.In step S450, the horizontal and vertical lengths of the measurement object are measured by rotationally converting the point group (e.g., the first point group or the second point group) extracted in step S410 into a two-dimensional coordinate plane. That is, according to the embodiment of the present invention, not the method of rotationally transforming the entire measurement object such as an axis-aligned bounding box (AABB) and an OBB (oriented bounding box) A method of rotational conversion on a dimensional coordinate plane is used. Accordingly, it is possible to prevent measurement of an incorrect dimension according to an alignment error and a directional error with respect to an axis, and the accuracy of measurement can be improved. Hereinafter, step S450 will be described in detail with reference to Figs. 9A to 9C.

보다 자세하게는, 단계(S450)에서, 2단계의 회전 변환이 수행된다. 도 9a는 첫번째 단계에서 수행되는 제1 회전변환을 도시하고, 도 9b는 두번째 단계에서 수행되는 제2 회전변환을 도시하고 있다.More specifically, in step S450, two-step rotation conversion is performed. FIG. 9A shows the first rotational transformation performed in the first step, and FIG. 9B shows the second rotational transformation performed in the second step.

도 9a를 참조하면, 3차원 좌표공간에 존재하는 점군(710)이 2차원 좌표평면 상으로 이동되는 제1 회전변환이 수행된다. 특히, 도 9a는 점군(710)이 xy 평면으로 이동된 것을 도시하고 있다. 상기 제1 회전변환은 제1 점군의 노멀 벡터(a, b, c)와 xy 평면의 노멀 벡터(0, 0, 1)에 기초하여 수행될 수 있다.Referring to FIG. 9A, a first rotation transformation is performed in which a point cloud 710 existing in a three-dimensional coordinate space is moved on a two-dimensional coordinate plane. Particularly, FIG. 9A shows that the point cloud 710 is moved to the xy plane. The first rotation transformation can be performed based on the normal vectors (a, b, c) of the first point group and the normal vectors (0, 0, 1) of the xy plane.

다음으로, 도 9b를 참조하면, 2차원 좌표평면 상에서 회전각을 변경해가며 제2 회전변환이 수행된다. 구체적으로, xy평면으로 이동된 점군(720)의 (x, y) 성분에 대하여 회전각(rotangle)을 변경해가며 반복적으로 회전시키고, 특정 축(e.g. x축, y축)을 기준으로 최소 좌표 값(xmin)과 최대 좌표 값(xmax)의 차이 값(wi)이 매 회전마다 산출된다. 예를 들어, 제1 회전된 점군(730)에 대하여 차이 값(wi)이 연산되고, 제2 회전된 점군(740)에 대해서도 차이 값(wi)이 연산된다. 도 9b는 x축을 기준으로 상기 차이 값(wi)이 연산되는 것을 예로써 도시하였으나, y축을 기준으로 상기 차이 값(wi)이 연산되더라도 무방하다.Next, referring to FIG. 9B, the second rotation transformation is performed while changing the rotation angle on the two-dimensional coordinate plane. Specifically, the (x, y) component of the point group 720 moved in the xy plane is repeatedly rotated while changing the rotation angle , and the minimum coordinate (x, y) The difference value w i between the value (x min ) and the maximum coordinate value (x max ) is calculated for each rotation. For example, a first difference value (w i) is calculated with respect to the rotation point cloud 730, the second difference values (w i) about the rotation point group 740 is calculated. 9B illustrates that the difference value w i is calculated based on the x-axis. However, the difference value w i may be calculated based on the y-axis.

반복적으로 연산된 차이 값(wi) 중에서 최소 값(wmin)이 계측 대상 객체의 가로 또는 세로 길이로 결정된다. 도 9c에 도시된 바와 같이, 차이 값(wi)이 최소인 경우는 계측 대상 객체의 상단면에 대응되는 점군(750)이 각 축에 정확하게 정렬된 경우를 가리키기 때문이다. 따라서, 특정 회전각에 대하여 x축 상의 최소 값(wmin)이 가로 길이로 결정되었다면, 동일한 회전각에 대한 y축 상의 최소 값(lmin)은 계측 대상 객체의 세로 길이로 결정된다.The minimum value (w min ) among the repeated difference values (w i ) is determined as the horizontal or vertical length of the measurement object. As shown in FIG. 9C, when the difference value w i is minimum, the point group 750 corresponding to the top surface of the measurement object is correctly aligned on each axis. Therefore, if the minimum value ( wmin ) on the x-axis for a specific rotation angle is determined to be the width, the minimum value ( lmin ) on the y-axis for the same rotation angle is determined to be the length of the object to be measured.

지금까지, 도 6 내지 도 9c를 참조하여, 본 발명의 일 실시예에 따른 크기 측정 방법에 대하여 설명하였다. 이하에서는, 도 10 내지 도 14를 참조하여, 계측 대상 객체가 제2 형 객체로 판정된 경우, 단계(S500)에서 수행되는 크기 측정 방법에 대하여 설명하도록 한다.Up to now, the size measuring method according to an embodiment of the present invention has been described with reference to FIGS. 6 to 9C. Hereinafter, with reference to FIG. 10 to FIG. 14, a description will be given of a method of measuring a size performed in step S500 when the object to be measured is determined as a second type object.

도 10은 본 발명의 일 실시예에 따른 최소 경계 박스 기반의 크기 측정 방법을 나타내는 개략적인 흐름도이다.10 is a schematic flowchart illustrating a method of measuring a minimum bounding box-based size according to an embodiment of the present invention.

도 10을 참조하면, 단계(S510)에서, 기준면에 위치한 계측 대상 객체를 가리키는 3차원 점군 중에서, 상기 기준면에 대응되는 점군의 제외 처리가 수행된다. 또한, 상기 제외 처리의 결과로 계측 대상 객체를 가리키는 제1 점군이 획득된다. 이하, 설명의 편의를 위해, 3차원 점군 중에서 기준면에 대응되는 점군이 제외된 점군을 "제1 점군"으로 계속하여 명명하도록 한다.Referring to FIG. 10, in step S510, among the three-dimensional point cloud indicating the object to be measured located on the reference plane, exclusion processing of the point cloud corresponding to the reference plane is performed. Also, as a result of the exclusion process, a first point group indicating an object to be measured is obtained. Hereinafter, for convenience of explanation, the point group excluding the point group corresponding to the reference plane among the three-dimensional point group is named as "first point group ".

본 발명의 실시예에 따르면, 계측 대상 객체의 대략적인 크기를 고려하여, 계측 대상 객체의 바닥면(=기준면)의 중심점을 기준으로 기 설정된 거리 이내에 위치한 점들은 상기 제1 점군에서 제외될 수 있다.According to the embodiment of the present invention, the points located within a predetermined distance with respect to the center point of the bottom surface (= reference plane) of the measurement object may be excluded from the first point group in consideration of the approximate size of the measurement object .

또한, 본 발명의 실시예에 따르면, 상기 제1 점군 중에서 상기 계측 대상 객체의 외곽선에 대응되는 점군을 기준으로 노이즈 보정이 수행되고, 상기 노이즈 보정의 결과로 상기 제1 점군과 적어도 일부는 상이한 제2 점군이 획득될 수 있다. 이하, 상기 노이즈 보정의 결과를 가리키는 점군을 "제2 점군"으로 계속하여 명명하도록 한다.According to an embodiment of the present invention, noise correction is performed on the basis of a point group corresponding to an outline of the measurement object among the first point group, and as a result of the noise correction, 2 point group can be obtained. Hereinafter, the point cloud indicating the result of the noise correction will be named "second point cloud" continuously.

상기 노이즈 보정은 3차원 공간 상에서 상기 계측 대상 객체의 외곽선에 대응되는 점들을 기준으로 수행된다. 구체적으로, 상기 외곽선에 대응되는 점들을 기준으로 지정된 거리 이내에 위치한 주변 점군의 밀도가 산출되고, 산출된 밀도가 임계 값 이상인 점군은 제2 점군에 포함되게 된다.The noise correction is performed based on points corresponding to the outline of the measurement object on the three-dimensional space. Specifically, the density of neighboring point groups located within a specified distance based on the points corresponding to the outline is calculated, and the point group having the calculated density equal to or higher than the threshold value is included in the second point group.

단계(S530)에서, 기준면과 상기 제2 점군과의 최대 거리를 기초로 계측 대상 객체의 높이가 측정된다.In step S530, the height of the measurement object is measured based on the maximum distance between the reference plane and the second point group.

높이를 측정하는 방식은 다양할 수 있다. 예를 들어, 도 11에 도시된 바와 같이 계측 대상 객체가 복수의 객체(810, 820, 830)를 포함하고, 도 12에 도시된 바와 같이 제2 점군(910, 920, 930)이 결정되었다고 가정하자. 그러면, 제2 점군(910, 920, 930) 중에서 각 객체(810, 920, 830)의 바닥면의 중심점을 기준으로 상단면까지의 거리(911, 921, 931)를 측정하고, 측정된 거리 중에서 최대 거리를 상기 계측 대상 객체의 높이로 결정할 수 있다. 단, 계측 대상 객체의 높이를 측정하는 방법은 상술한 예시에 한정되지 아니한다.The method of measuring the height may vary. For example, assume that the object to be measured includes a plurality of objects 810, 820, and 830 as shown in FIG. 11, and that the second point group 910, 920, and 930 are determined as shown in FIG. lets do it. Then, distances 911, 921, and 931 from the center point of the bottom surface of each of the objects 810, 920, and 830 to the top surface of the second point group 910, 920, and 930 are measured, The maximum distance can be determined as the height of the object to be measured. However, the method of measuring the height of the object to be measured is not limited to the above example.

단계(S550)에서, 도 13에 도시된 바와 같이 최소 경계 박스(1010)를 이용하여 계측 대상 객체의 크기가 측정된다. 이때, 최소 경계 박스의 높이(1010)는 단계(S530)에서 측정된 높이가 될 수 있다. 또한, 최소 경계 박스(1010)의 가로 및 세로 길이가 상기 계측 대상 객체의 가로 및 세로 길이가 될 수 있다. 최소 경계 박스를 구하는 방법은 당해 기술 분야의 종사자에게 이미 자명한 사항인 바 이에 대한 자세한 설명은 생략하도록 한다.In step S550, the size of the measurement object is measured using the minimum bounding box 1010 as shown in FIG. At this time, the height 1010 of the minimum bounding box may be the height measured in step S530. In addition, the horizontal and vertical lengths of the minimum bounding box 1010 may be the horizontal and vertical lengths of the object to be measured. The method of obtaining the minimum bounding box is already known to those skilled in the art, and a detailed description thereof will be omitted.

한편, 본 발명의 다른 실시예에 따르면, 최소 경계 박스를 이용하지 않고, 전술한 회전변환 기반으로 상기 계측 대상 객체의 크기가 측정될 수도 있다. 예를 들어, 단계(S510)에서 도출된 상기 제2 점군 중에서 상기 계측 대상 객체의 특정 단면에 대응되는 점군이 추출되고, 추출된 점군을 회전변환하여 상기 계측 대상 객체의 크기가 측정될 수 있다. 이에 대한 예는 도 14를 참조하도록 한다.Meanwhile, according to another embodiment of the present invention, the size of the measurement object may be measured based on the rotation transformation described above without using the minimum bounding box. For example, a point group corresponding to a specific cross section of the measurement target object is extracted from the second point group derived in step S510, and the size of the measurement target object can be measured by rotating the extracted point group. An example of this is shown in Fig.

3차원 공간에서 계측 대상 객체의 특정 단면에 대응되는 점군을 추출하는 방법은 예를 들어 각 점의 좌표 중에서 어느 한 축에 대응되는 좌표를 제거하는 방법이 이용될 수 있으나, 이에 한정되지는 아니한다. 참고로, 도 14는 각 점의 좌표 중에서 z축의 좌표를 제거한 것을 예로써 도시하고 있다. 회전변환을 이용하여 객체의 크기를 측정하는 방법은 전술한 바와 같으므로 중복된 설명을 배제하기 위해 생략하도록 한다.As a method of extracting a point group corresponding to a specific section of the object to be measured in a three-dimensional space, for example, a method of removing coordinates corresponding to one of the coordinates of each point may be used, but the present invention is not limited thereto. For reference, FIG. 14 shows an example in which the coordinates of the z-axis among the coordinates of each point are removed. Since the method of measuring the size of the object using the rotation transformation is as described above, it is omitted in order to exclude redundant description.

지금까지 도 10 내지 도 14를 참조하여, 본 발명의 실시예에 따른 제2 형 객체의 크기 측정 방법에 대하여 설명하였다. 상술한 방법에 따르면, 최소 경계 박스, 회전변환 등을 이용하여 다양한 형태를 가질 수 있는 제2 형 객체의 크기 또한 측정될 수 있다.10 to 14, a method for measuring the size of a second type object according to an embodiment of the present invention has been described. According to the above-described method, the size of the second type object that can have various shapes using the minimum bounding box, the rotation transformation, and the like can also be measured.

지금까지 도 1 내지 도 14를 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concepts of the present invention described above with reference to Figs. 1 to 14 can be embodied in computer readable code on a computer readable medium. The computer readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) . The computer program recorded on the computer-readable recording medium may be transmitted to another computing device via a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are shown in the specific order in the figures, it should be understood that the operations need not necessarily be performed in the particular order shown or in a sequential order, or that all of the illustrated operations must be performed to achieve the desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various configurations in the above-described embodiments should not be understood as such a separation being necessary, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products .

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, I can understand that. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

Claims (17)

3차원 계측 장치에 의해 수행되는 3차원 계측 방법에 있어서,
3차원 좌표공간 상에 사상된 계측 대상 객체에 대한 3차원 점군(3D point cloud)을 획득하는 단계;
상기 3차원 점군에서 상기 계측 대상 객체의 제1 단면에 대응되는 제1 점군을 추출하는 단계;
상기 제1 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 제2 점군을 획득하는 단계; 및
상기 제2 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
A three-dimensional measuring method performed by a three-dimensional measuring apparatus,
Obtaining a 3D point cloud for a mapped object mapped on a three-dimensional coordinate space;
Extracting a first point group corresponding to a first end face of the measurement target object in the three-dimensional point cloud;
Performing a first rotation transformation to move the first point cloud onto a two-dimensional coordinate plane, and obtaining a second point cloud as a result of the first rotation transformation; And
And measuring the size of the object to be measured based on the second point group.
Three dimensional measurement method.
제1 항에 있어서,
상기 3차원 점군을 획득하는 단계는,
깊이 센서(depth sensor)를 통해 생성된 상기 계측 대상 객체에 대한 깊이 영상을 획득하는 단계; 및
상기 획득된 깊이 영상을 기초로 상기 3차원 점군을 생성하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method according to claim 1,
The step of acquiring the three-
Acquiring a depth image of the measurement target object generated through a depth sensor; And
And generating the three-dimensional point cloud based on the obtained depth image.
Three dimensional measurement method.
제2 항에 있어서,
상기 깊이 영상은 제1 깊이 영상 프레임 및 제2 깊이 영상 프레임을 포함하고,
상기 3차원 점군을 생성하는 단계는,
상기 제1 깊이 영상 프레임과 상기 제2 깊이 영상 프레임을 기초로 제3 깊이 영상 프레임을 생성하는 단계; 및
상기 제3 깊이 영상 프레임을 기초로 상기 3차원 점군을 생성하는 단계를 포함하되,
상기 제3 깊이 영상 프레임을 구성하는 각 픽셀의 깊이 값은,
상기 제1 깊이 영상 프레임을 구성하는 픽셀의 깊이 값과 상기 제2 깊이 영상 프레임을 구성하는 픽셀의 깊이 값의 평균으로 결정되는 것을 특징으로 하는,
3차원 계측 방법.
3. The method of claim 2,
Wherein the depth image includes a first depth image frame and a second depth image frame,
Wherein the step of generating the three-
Generating a third depth image frame based on the first depth image frame and the second depth image frame; And
And generating the 3D point cloud based on the third depth image frame,
Wherein the depth value of each pixel constituting the third depth image frame is a depth value of the third depth image frame,
Wherein the second depth image frame is determined by an average of depth values of pixels constituting the first depth image frame and depth values of pixels constituting the second depth image frame.
Three dimensional measurement method.
제3 항에 있어서,
상기 제3 깊이 영상 프레임을 생성하는 단계는,
상기 제1 깊이 영상 프레임에서 지정된 조건을 만족하는 노이즈 픽셀을 제거하여 노이즈 픽셀이 제거된 제1 깊이 영상 프레임을 생성하는 단계;
상기 제2 깊이 영상 프레임에서 상기 지정된 조건을 만족하는 노이즈 픽셀을 제거하여 노이즈 픽셀이 제거된 제2 깊이 영상 프레임을 생성하는 단계; 및
상기 노이즈 픽셀이 제거된 제1 깊이 영상 프레임 및 상기 노이즈 픽셀이 제거된 제2 깊이 영상 프레임을 기초로 상기 제3 깊이 영상 프레임을 생성하는 단계를 포함하되,
상기 제3 깊이 영상 프레임을 구성하는 각 픽셀의 깊이 값은,
상기 노이즈 픽셀이 제거된 제1 깊이 영상 프레임을 구성하는 픽셀의 깊이 값과 노이즈 픽셀이 제거된 상기 제2 깊이 영상 프레임을 구성하는 픽셀의 깊이 값의 평균으로 결정되고,
상기 노이즈 픽셀은,
픽셀의 깊이 값이 제1 임계 값 이하인 조건을 만족하는 제1 노이즈 픽셀, 픽셀의 깊이 값이 제1 임계 값 보다 높은 제2 임계 값 이상인 조건을 만족하는 제2 노이즈 픽셀 및 픽셀의 깊이 값의 변동성을 나타내는 값이 제3 임계 값 이상인 조건을 만족하는 제3 노이즈 픽셀 중 적어도 하나를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method of claim 3,
Wherein the generating the third depth image frame comprises:
Generating a first depth image frame from which noise pixels have been removed by removing noise pixels satisfying a specified condition in the first depth image frame;
Removing a noise pixel satisfying the specified condition in the second depth image frame to generate a second depth image frame from which noise pixels have been removed; And
And generating the third depth image frame based on the first depth image frame from which the noise pixel has been removed and the second depth image frame from which the noise pixel has been removed,
Wherein the depth value of each pixel constituting the third depth image frame is a depth value of the third depth image frame,
The depth value of the pixel constituting the first depth image frame from which the noise pixel has been removed and the depth value of the pixels constituting the second depth image frame from which the noise pixel has been removed,
The noise pixel may comprise:
A first noise pixel satisfying a condition that a depth value of a pixel is equal to or less than a first threshold value, a second noise pixel satisfying a condition that a depth value of the pixel is equal to or greater than a second threshold value, And a third noise pixel satisfying a condition that a value representing the first noise pixel is equal to or greater than a third threshold value.
Three dimensional measurement method.
제1 항에 있어서,
상기 제1 단면은 상기 계측 대상 객체의 상단면을 가리키고,
상기 계측 대상 객체가 위치하지 않은 기준면에 대한 3차원 점군을 획득하는 단계;
상기 기준면에 대한 3차원 점군에서, 상기 기준면에 대응되는 제1 평면을 검출하는 단계를 더 포함하되,
상기 제1 점군을 추출하는 단계는,
상기 계측 대상 객체에 대한 3차원 점군에서, 상기 제1 평면에 평행한 제2 평면을 검출하는 단계; 및
상기 제2 평면을 구성하는 점군을 추출하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method according to claim 1,
The first cross-section points to the top surface of the measurement object,
Acquiring a three-dimensional point cloud with respect to a reference plane on which the measurement object is not located;
Detecting a first plane corresponding to the reference plane in a three-dimensional point cloud with respect to the reference plane,
The step of extracting the first point-
Detecting a second plane parallel to the first plane in a three-dimensional point cloud of the object to be measured; And
And extracting a point group constituting the second plane.
Three dimensional measurement method.
제5 항에 있어서,
상기 제1 평면과 상기 제2 평면을 구성하는 점군 사이의 거리를 기초로, 상기 계측 대상 객체의 높이를 측정하는 단계를 더 포함하는 것을 특징으로 하는,
3차원 계측 방법.
6. The method of claim 5,
Further comprising the step of measuring a height of the object to be measured based on a distance between the first plane and the point group constituting the second plane.
Three dimensional measurement method.
제1 항에 있어서,
상기 제1 점군을 추출하는 단계는,
상기 3차원 점군 중에서 상기 제1 단면에 대응되는 제3 점군을 결정하는 단계;
상기 제3 점군 중에서 상기 제1 단면의 경계선에 대응되는 점군을 선정하는 단계;
상기 3차원 좌표공간 상에서, 상기 선정된 점군을 기준으로 기 설정된 거리 이내에 위치한 주변 점군을 탐색하는 단계; 및
상기 제3 점군 및 상기 주변 점군을 추출하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method according to claim 1,
The step of extracting the first point-
Determining a third point group corresponding to the first end face among the three-dimensional point clouds;
Selecting a point group corresponding to a boundary line of the first cross section among the third point group;
Searching for a group of neighboring points located within a predetermined distance based on the selected point group in the three-dimensional coordinate space; And
And extracting the third point group and the neighboring point group.
Three dimensional measurement method.
제1 항에 있어서,
상기 제1 점군을 추출하는 단계는,
상기 3차원 점군에서 상기 제1 단면에 대응되는 제3 점군을 결정하는 단계; 및
상기 제3 점군 중에서, 상기 제1 단면의 경계 구간에 위치한 점군을 제외하고 나머지 점군을 추출하는 단계를 포함하되,
상기 경계 구간의 길이를 기초로 상기 측정된 계측 대상 객체의 크기를 보정하는 단계를 더 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method according to claim 1,
The step of extracting the first point-
Determining a third point group corresponding to the first end face in the three-dimensional point cloud; And
Extracting a remaining point group except a point group located in a boundary section of the first cross-section among the third point group,
And correcting a size of the measured object to be measured based on the length of the boundary section.
Three dimensional measurement method.
제8 항에 있어서,
상기 3차원 점군은 깊이 센서를 통해 획득된 깊이 정보에 기초하여 생성된 것이고,
상기 깊이 센서는 상기 제1 단면으로부터 기 설정된 거리만큼 떨어진 곳에 위치하며,
상기 경계 구간의 길이는,
상기 거리, 상기 깊이 센서의 화각, 하나의 점열을 기준으로 상기 제3 점군 중에서 상기 화각에 대응되는 점의 개수 대비 상기 경계 구간에 대응되는 점의 개수의 비율을 기초로 결정되는 것을 특징으로 하는,
3차원 계측 방법.
9. The method of claim 8,
The three-dimensional point cloud is generated based on the depth information obtained through the depth sensor,
Wherein the depth sensor is located at a predetermined distance from the first end face,
The length of the boundary section may be,
And a ratio of the number of points corresponding to the boundary section to the number of points corresponding to the angle of view among the third point group based on the distance, the angle of view of the depth sensor,
Three dimensional measurement method.
제1 항에 있어서,
상기 계측 대상 객체의 크기를 측정하는 단계는,
상기 2차원의 좌표평면 상에서 상기 제2 점군을 회전시키는 제2 회전변환을 수행하는 제1 단계;
상기 2차원의 좌표평면을 구성하는 가로축 또는 세로축을 기준으로, 상기 제2 회전변환 된 제2 점군의 최대 좌표 값과 최소 좌표 값과의 차이 값을 산출하는 제2 단계; 및
회전각을 변경해가며, 상기 제1 단계 및 상기 제2 단계를 반복하여 수행하는 제3 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
The method according to claim 1,
Wherein the step of measuring the size of the measurement target object comprises:
Performing a second rotation transformation to rotate the second point cloud on the two-dimensional coordinate plane;
A second step of calculating a difference value between a maximum coordinate value and a minimum coordinate value of the second rotation-converted second point group on the basis of a horizontal axis or a vertical axis constituting the two-dimensional coordinate plane; And
And a third step of repeating the first step and the second step while changing the rotation angle,
Three dimensional measurement method.
제10 항에 있어서,
상기 계측 대상 객체의 크기를 측정하는 단계는,
상기 제1 단계 내지 상기 제3 단계를 통해 산출된 차이 값 중에서, 최소 값을 상기 계측 대상 객체의 크기와 관련된 측정 값으로 결정하는 단계를 더 포함하는 것을 특징으로 하는,
3차원 계측 방법.
11. The method of claim 10,
Wherein the step of measuring the size of the measurement target object comprises:
Further comprising the step of determining a minimum value among the difference values calculated through the first through the third steps as a measurement value related to the size of the measurement object,
Three dimensional measurement method.
3차원 계측 장치에 의해 수행되는 3차원 계측 방법에 있어서,
기준면에 위치한 계측 대상 객체를 가리키는 3차원 좌표공간 상의 제1 점군(point cloud)을 획득하는 단계;
상기 제1 점군 중에서 상기 기준면에 대응되는 점군의 제외 처리를 수행하고, 상기 제외 처리의 결과로 제2 점군을 획득하는 단계;
상기 제2 점군 중에서 상기 계측 대상 객체의 외곽선에 대응되는 점군을 기준으로 노이즈 보정을 수행하고, 상기 노이즈 보정의 결과로 상기 제2 점군과 적어도 일부는 상이한 제3 점군을 획득하는 단계; 및
상기 제3 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
A three-dimensional measuring method performed by a three-dimensional measuring apparatus,
Acquiring a first point cloud in a three-dimensional coordinate space indicating an object to be measured located on a reference plane;
Performing an exclusion process of a point group corresponding to the reference plane among the first point group and acquiring a second point group as a result of the exclusion process;
Performing a noise correction on the basis of a point group corresponding to an outline of the measurement object among the second point group and obtaining a third point group different from at least a part of the second point group as a result of the noise correction; And
And measuring a size of the object to be measured based on the third point group.
Three dimensional measurement method.
제12 항에 있어서,
상기 제2 점군을 획득하는 단계는,
상기 계측 대상 객체가 위치하지 않은 상태의 기준면에 대한 기준 점군을 획득하는 단계;
상기 기준 점군으로부터, 상기 기준면에 대응되는 평면을 검출하는 단계; 및
상기 검출된 평면을 이용하여 상기 제2 점군에서 상기 기준면에 대응되는 점군의 제외 처리를 수행하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
13. The method of claim 12,
The step of acquiring the second point-
Acquiring a reference point group for a reference plane in which the measurement object is not located;
Detecting, from the reference point group, a plane corresponding to the reference plane; And
And performing an exclusion process of a point group corresponding to the reference plane in the second point group using the detected plane.
Three dimensional measurement method.
제12 항에 있어서,
상기 제3 점군을 획득하는 단계는,
상기 외곽선에 대응되는 점군을 기준으로 지정된 거리 이내에 위치한 주변 점군의 밀도를 산출하는 단계; 및
상기 주변 점군의 밀도가 임계 값 이상인 경우, 상기 주변 점군을 상기 제3 점군에 추가하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
13. The method of claim 12,
The step of acquiring the third point-
Calculating a density of neighboring point groups located within a specified distance based on a point group corresponding to the outline; And
And adding the peripheral point group to the third point group when the density of the peripheral point group is equal to or greater than a threshold value.
Three dimensional measurement method.
제14 항에 있어서,
상기 제3 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계는,
상기 제3 점군에 대한 최소 경계 박스를 결정하는 단계; 및
상기 최소 경계 박스의 크기를 기초로 상기 계측 대상 객체의 크기로 결정하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
15. The method of claim 14,
Measuring the size of the measurement object based on the third point group,
Determining a minimum bounding box for the third point cloud; And
And determining the size of the object to be measured based on the size of the minimum bounding box.
Three dimensional measurement method.
제14 항에 있어서,
상기 제3 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계는,
상기 제3 점군 중에서 상기 계측 대상 객체의 제1 단면에 대응되는 점군을 추출하는 단계;
상기 제1 단면에 대응되는 점군을 2차원의 좌표평면 상으로 이동시키는 제1 회전변환을 수행하고, 상기 제1 회전변환의 결과로 획득된 점군을 획득하는 단계; 및
상기 제1 회전변환의 결과로 획득된 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
15. The method of claim 14,
Measuring the size of the measurement object based on the third point group,
Extracting a point group corresponding to a first end face of the measurement target object from the third point group;
Performing a first rotation transformation to move the point cloud corresponding to the first end face onto a two-dimensional coordinate plane, and obtaining a point cloud obtained as a result of the first rotation transformation; And
And measuring the size of the measurement object based on the point cloud obtained as a result of the first rotation transformation.
Three dimensional measurement method.
제16 항에 있어서,
상기 제1 회전변환의 결과로 획득된 점군을 기초로 상기 계측 대상 객체의 크기를 측정하는 단계는,
상기 2차원의 좌표평면 상에서 상기 제1 회전변환의 결과로 획득된 점군을 회전시키는 제2 회전변환을 수행하는 제1 단계;
상기 2차원의 좌표평면을 구성하는 가로축 또는 세로축을 기준으로, 상기 제2 회전변환 된 점군의 최대 좌표 값과 최소 좌표 값과의 차이 값을 산출하는 제2 단계;
회전각을 변경해가며, 상기 제1 단계 및 상기 제2 단계를 반복하여 수행하는 제3 단계; 및
상기 제1 단계 내지 상기 제3 단계를 통해 산출된 차이 값 중에서, 최소 값을 상기 계측 대상 객체의 크기와 관련된 측정 값으로 결정하는 단계를 포함하는 것을 특징으로 하는,
3차원 계측 방법.
17. The method of claim 16,
Wherein the step of measuring the size of the measurement object based on the point group obtained as a result of the first rotation transformation comprises:
A first step of performing a second rotation transformation for rotating a point cloud obtained as a result of the first rotation transformation on the two-dimensional coordinate plane;
A second step of calculating a difference value between a maximum coordinate value and a minimum coordinate value of the second rotationally converted point group on the basis of a horizontal axis or a vertical axis constituting the two-dimensional coordinate plane;
A third step of repeating the first step and the second step while changing the rotation angle; And
And determining a minimum value among the difference values calculated through the first through the third steps as a measurement value related to the size of the measurement target object.
Three dimensional measurement method.
KR1020170133738A 2017-10-16 2017-10-16 Method for performing 3D measurement and Apparatus thereof KR101918168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170133738A KR101918168B1 (en) 2017-10-16 2017-10-16 Method for performing 3D measurement and Apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170133738A KR101918168B1 (en) 2017-10-16 2017-10-16 Method for performing 3D measurement and Apparatus thereof

Publications (1)

Publication Number Publication Date
KR101918168B1 true KR101918168B1 (en) 2018-11-14

Family

ID=64328186

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170133738A KR101918168B1 (en) 2017-10-16 2017-10-16 Method for performing 3D measurement and Apparatus thereof

Country Status (1)

Country Link
KR (1) KR101918168B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190061193A (en) 2017-11-27 2019-06-05 주식회사 신성에프에이 Automatic guided vehicle having handling robot with load-dropping protection
KR102063534B1 (en) * 2017-11-30 2020-01-09 주식회사 모빌테크 Method for building map using LiDAR
CN111982009A (en) * 2020-02-26 2020-11-24 深圳市安达自动化软件有限公司 Draw-bar box 3D size detection system and method
JP6821222B1 (en) * 2020-05-08 2021-01-27 アイタックソリューションズ株式会社 Measuring device, measuring program and measuring method
JP2021177162A (en) * 2020-05-08 2021-11-11 アイタックソリューションズ株式会社 Measuring apparatus, measuring program, and measuring method
JP2021177161A (en) * 2020-05-08 2021-11-11 アイタックソリューションズ株式会社 Measuring apparatus, measuring program, and measuring method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5393318B2 (en) * 2009-07-28 2014-01-22 キヤノン株式会社 Position and orientation measurement method and apparatus
JP5429614B2 (en) * 2009-04-16 2014-02-26 株式会社Ihi Box-shaped workpiece recognition apparatus and method
JP6026252B2 (en) * 2012-11-30 2016-11-16 株式会社東芝 Object measuring apparatus and object measuring method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429614B2 (en) * 2009-04-16 2014-02-26 株式会社Ihi Box-shaped workpiece recognition apparatus and method
JP5393318B2 (en) * 2009-07-28 2014-01-22 キヤノン株式会社 Position and orientation measurement method and apparatus
JP6026252B2 (en) * 2012-11-30 2016-11-16 株式会社東芝 Object measuring apparatus and object measuring method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190061193A (en) 2017-11-27 2019-06-05 주식회사 신성에프에이 Automatic guided vehicle having handling robot with load-dropping protection
KR102063534B1 (en) * 2017-11-30 2020-01-09 주식회사 모빌테크 Method for building map using LiDAR
CN111982009A (en) * 2020-02-26 2020-11-24 深圳市安达自动化软件有限公司 Draw-bar box 3D size detection system and method
JP6821222B1 (en) * 2020-05-08 2021-01-27 アイタックソリューションズ株式会社 Measuring device, measuring program and measuring method
JP2021177162A (en) * 2020-05-08 2021-11-11 アイタックソリューションズ株式会社 Measuring apparatus, measuring program, and measuring method
JP2021177147A (en) * 2020-05-08 2021-11-11 アイタックソリューションズ株式会社 Measurement device, measurement program and measurement method
JP2021177161A (en) * 2020-05-08 2021-11-11 アイタックソリューションズ株式会社 Measuring apparatus, measuring program, and measuring method

Similar Documents

Publication Publication Date Title
KR101918168B1 (en) Method for performing 3D measurement and Apparatus thereof
US10203402B2 (en) Method of error correction for 3D imaging device
JP6744847B2 (en) Selection of balanced probe sites for 3D alignment algorithms
US11830199B2 (en) Physical object boundary detection techniques and systems
US9927222B2 (en) Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
US9390202B2 (en) Coordinate measuring system data reduction
JP5950122B2 (en) Calibration apparatus, calibration method, and calibration program
US9704248B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US20140037194A1 (en) Three-dimensional point cloud position data processing device, three-dimensional point cloud position data processing system, and three-dimensional point cloud position data processing method and program
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
KR20180046361A (en) Method and System for loading optimization based on depth sensor
CN104732514A (en) Apparatus, systems, and methods for processing a height map
US9582721B2 (en) Method and apparatus for determining movement
US20230267593A1 (en) Workpiece measurement method, workpiece measurement system, and program
US10679367B2 (en) Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
JP6673504B2 (en) Information processing device, database generation device, method, program, and storage medium
Artaso et al. Volume estimation of merchandise using multiple range cameras
US11093730B2 (en) Measurement system and measurement method
KR102516005B1 (en) Method and apparatus for assessing the risk of building collapse using an indoor positioning investigation robot
US11669988B1 (en) System and method for three-dimensional box segmentation and measurement
KR102139667B1 (en) Method and device for acquiring information
CN113281777B (en) Cargo volume dynamic measurement method and measurement device thereof
JP7491862B2 (en) Point cloud data integration device and point cloud data integration method
US20240320813A1 (en) Systems and methods for assessing deviations of a surface from a design plan
CN117953038A (en) Irregular volume measurement method, system, equipment and storage medium based on depth camera

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant