KR102220099B1 - Registration method and apparatus for 3D visual data - Google Patents

Registration method and apparatus for 3D visual data Download PDF

Info

Publication number
KR102220099B1
KR102220099B1 KR1020150178967A KR20150178967A KR102220099B1 KR 102220099 B1 KR102220099 B1 KR 102220099B1 KR 1020150178967 A KR1020150178967 A KR 1020150178967A KR 20150178967 A KR20150178967 A KR 20150178967A KR 102220099 B1 KR102220099 B1 KR 102220099B1
Authority
KR
South Korea
Prior art keywords
key point
data
source data
target data
matching
Prior art date
Application number
KR1020150178967A
Other languages
Korean (ko)
Other versions
KR20160088226A (en
Inventor
수에타오 펑
비아오 왕
하오 펑
홍웨이 장
최창규
한재준
김중배
루진 공
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/994,688 priority Critical patent/US10360469B2/en
Publication of KR20160088226A publication Critical patent/KR20160088226A/en
Application granted granted Critical
Publication of KR102220099B1 publication Critical patent/KR102220099B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Abstract

색상에 대한 특징 또는 기하학적 특징에 기초하여, 3차원 소스 데이터 및 3차원 타겟 데이터에 포함된 포인트 중에서 키 포인트를 선택한 다음, 3차원 소스 데이터의 키 포인트 및 3차원 타겟 데이터의 키 포인트의 특징 또는 거리에 기초하여, 3차원 타겟 데이터의 키 포인트의 위치를 조절한 다음, 3차원 소스 데이터의 키 포인트에 대응하는 3차원 타겟 데이터의 키 포인트의 특징에 기초하여, 3차원 소스 데이터의 키 포인트에 대한 신뢰도를 계산한 다음, 신뢰도에 기초하여 3차원 소스 데이터 및 3차원 타겟 데이터간의 3차원 정합을 수행하는 3차원 정합 방법 및 장치가 제공된다.Selecting a key point from among points included in the 3D source data and 3D target data, based on a characteristic or geometric characteristic for color, and then the characteristic or distance of the key point of the 3D source data and the key point of the 3D target data Based on, the position of the key point of the 3D target data is adjusted, and then based on the characteristic of the key point of the 3D target data corresponding to the key point of the 3D source data, the key point of the 3D source data is A 3D matching method and apparatus are provided for calculating reliability and then performing 3D matching between 3D source data and 3D target data based on the reliability.

Description

3차원 영상 데이터의 정합 방법 및 장치{Registration method and apparatus for 3D visual data}Registration method and apparatus for 3D visual data

이하의 실시예들은 3차원 영상을 처리하는 방법 및 장치에 관한 것으로, 보다 구체적으로는 3차원 영상 데이터를 정합하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for processing a 3D image, and more particularly, to a method and apparatus for matching 3D image data.

3차원(3D, 3 dimension) 영상 데이터는 다양한 영역에서 광범위하게 사용되고 있다. 3차원 정합은 3차원 영상 데이터를 처리하는 기술로써, 두 개 이상의 3차원 영상 데이터의 포인트의 대응관계 또는 변환관계가 3차원 정합에 기초하여 생성될 수 있다. 생성한 대응관계 또는 변환관계는 두 개 이상의 3차원 영상 데이터간의 정렬에 이용될 수 있다. 3차원 정합은 물체 또는 장면의 재구성, 사람 얼굴 식별 및 모델링, 로봇 내비게이션, 물체 식별등에 응용될 수 있다.3D (3D) image data is widely used in various areas. 3D matching is a technology for processing 3D image data, and a correspondence relationship or a transformation relationship between points of two or more 3D image data may be generated based on 3D matching. The generated correspondence relationship or transformation relationship may be used to align two or more 3D image data. Three-dimensional registration can be applied to object or scene reconstruction, human face identification and modeling, robot navigation, object identification, and the like.

3차원 정합을 수행하는 방법은 크게 두 종류가 존재한다. 첫번째는 3차원 영상 데이터의 키 포인트의 위치에 기초하여 3차원 영상 데이터를 분할한 다음, 키 포인트의 변환에 기초하여 분할된 블록내의 포인트를 변환함으로써 3차원 정합을 수행하는 방법이다. 두번째는 비-강성 ICP(Non-Alignment Iterative Closest Point) 알고리즘에 기초하여 3차원 영상 데이터를 정렬하는 방법으로써, 평활도(smoothness) 및 키 포인트에 기초하여 3차원 정합을 수행한다.There are two types of methods for performing 3D registration. The first is a method of performing 3D matching by dividing 3D image data based on a position of a key point of the 3D image data, and then transforming a point in the divided block based on a transformation of the key point. The second is a method of aligning 3D image data based on a non-rigid Non-Alignment Iterative Closest Point (ICP) algorithm, and 3D matching is performed based on smoothness and key points.

일실시예에 따르면, 색상에 대한 특징 또는 기하학적 특징에 기초하여, 3차원 소스 데이터 및 3차원 타겟 데이터에 포함된 포인트 중에서 키 포인트를 선택하는 단계, 상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 타겟 데이터의 키 포인트의 특징 또는 거리에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 위치를 조절하는 단계, 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도를 계산하는 단계 및 상기 신뢰도에 기초하여 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the step of selecting a key point from among points included in 3D source data and 3D target data, based on a color characteristic or geometric characteristic, a key point of the 3D source data and the 3D Adjusting the position of the key point of the 3D target data based on the characteristic or distance of the key point of the target data, the characteristic of the key point of the 3D target data corresponding to the key point of the 3D source data On the basis of, a three-dimensional matching method comprising calculating a reliability for a key point of the three-dimensional source data and performing three-dimensional matching between the three-dimensional source data and the three-dimensional target data based on the reliability Is provided.

일실시예에 따르면, 상기 키 포인트를 선택하는 단계는, 상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여 특징 벡터(feature vector)를 생성하는 3차원 정합 방법이 제공된다.According to an embodiment, in the step of selecting the key point, a three-dimensional matching method of generating a feature vector based on the color feature or the geometric feature of the key point is provided.

일실시예에 따르면, 상기 위치를 조절하는 단계는, 상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 인접 영역에 위치한 포인트 및 상기 3차원 소스 데이터의 키 포인트간의 특징 거리를 계산하는 단계 및 상기 특징 거리가 가장 작은 상기 포인트의 위치에 기초하여 상기 키 포인트의 위치를 조절하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the adjusting of the position includes a point located in an area adjacent to the key point of the 3D target data and the 3D source based on the color characteristic or the geometric characteristic of the key point. There is provided a three-dimensional matching method including calculating a feature distance between key points of data and adjusting a location of the key point based on the location of the point having the smallest feature distance.

일실시예에 따르면, 상기 신뢰도를 계산하는 단계는, 상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트간의 특징 거리를 계산하는 단계 및 상기 특징 거리에 기초하여 상기 신뢰도를 계산하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the calculating of the reliability may correspond to a key point of the 3D source data and a key point of the 3D source data based on the color characteristic or the geometric characteristic of the key point. And calculating a feature distance between key points of the three-dimensional target data and calculating the reliability based on the feature distance.

일실시예에 따르면, 상기 3차원 정합을 수행하는 단계는, 상기 키 포인트 및 상기 3차원 타겟 데이터에 기초하여, 상기 3차원 소스 데이터를 정렬하는 단계 정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 변환행렬을 생성하는 단계 및 상기 변환행렬에 기초하여, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the performing of the 3D matching includes: aligning the 3D source data based on the key point and the 3D target data. The aligned 3D source data and the 3D target There is provided a 3D matching method comprising generating a transformation matrix between data and performing 3D matching between the 3D source data and the 3D target data based on the transformation matrix.

일실시예에 따르면, 상기 3차원 소스 데이터를 정렬하는 단계는, 평활도(smoothness) 또는 상기 키 포인트에 기초하여, 상기 3차원 소스 데이터에 강성 정렬(Rigid Alignment)을 수행함으로써, 제1 변환 데이터를 생성하는 단계 및 평활도, 상기 키 포인트 또는 상기 신뢰도에 기초하여, 상기 제1 변환 데이터에 비-강성 정렬(Non-Rigid Alignment)을 수행함으로써, 제2 변환 데이터를 생성하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the aligning of the 3D source data includes performing a rigid alignment on the 3D source data based on smoothness or the key point, so that the first transformed data is 3D matching comprising generating and generating second transformed data by performing a non-rigid alignment on the first transformed data based on smoothness, the key point, or the reliability A method is provided.

일실시예에 따르면, 상기 변환행렬을 생성하는 단계는, 정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 후보 변환행렬을 생성하는 단계 및 복수의 상기 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the generating of the transformation matrix includes generating a candidate transformation matrix between the aligned 3D source data and the 3D target data, and based on the distance between the plurality of candidate transformation matrices, a plurality of A 3D matching method including determining a final transformation matrix from among candidate transformation matrices of is provided.

일실시예에 따르면, 상기 후보 변환행렬을 생성하는 단계는, 상기 후보 변환행렬에 의해 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 타겟 데이터의 포인트간의 거리, 평활도 또는 상기 키 포인트에 기초하여 상기 후보 변환행렬을 생성하는 3차원 정합 방법이 제공된다.According to an embodiment, the generating of the candidate transformation matrix comprises: a distance between points of the 3D source data and points of the 3D target data transformed by the candidate transformation matrix, smoothness, or based on the key point. A three-dimensional matching method for generating the candidate transform matrix is provided.

일실시예에 따르면, 상기 3차원 정합을 수행하는 단계는, 상기 변환행렬에 기초하여 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 소스 데이터의 포인트에 대응하는 상기 3차원 타겟 데이터의 포인트간의 거리 또는 평활도에 기초하여, 상기 3차원 소스 데이터에 대한 평활처리를 수행하는 3차원 정합 방법이 제공된다.According to an embodiment, the performing of the 3D matching includes: between a point of the 3D source data converted based on the transformation matrix and a point of the 3D target data corresponding to a point of the 3D source data. A 3D matching method for performing smoothing processing on the 3D source data based on distance or smoothness is provided.

일실시예에 따르면, 상기 3차원 정합을 수행하는 단계는, 전처리된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터에 기초하여 정합을 수행하는 3차원 정합 방법이 제공된다.According to an embodiment, in the performing of the 3D matching, a 3D matching method of performing matching based on the preprocessed 3D source data and the 3D target data is provided.

일실시예에 따르면, 키 포인트 및 3차원 타겟 데이터에 기초하여, 3차원 소스 데이터에 강성 정렬(Rigid Alignment)을 수행함으로써, 제1 변환 데이터를 획득하는 단계, 상기 키 포인트 및 상기 3차원 타겟 데이터에 기초하여, 상기 제1 변환 데이터에 비-강성 정렬(Non-Rigid Alignment)을 수행함으로써, 제2 변환 데이터를 획득하는 단계, 상기 제2 변환 데이터 및 상기 3차원 타겟 데이터간의 변환행렬을 생성하는 단계 및 상기 변환행렬에 기초하여, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the step of obtaining first transform data by performing rigid alignment on 3D source data based on a key point and 3D target data, the key point and the 3D target data Based on, by performing a non-rigid alignment on the first transformed data, obtaining second transformed data, generating a transform matrix between the second transformed data and the three-dimensional target data And performing a 3D matching between the 3D source data and the 3D target data based on the transformation matrix.

일실시예에 따르면, 상기 키 포인트는, 상기 3차원 타겟 데이터 및 상기 3차원 소스 데이터에 포함된 포인트 중에서, 색상에 대한 특징 또는 기하학적 특징에 기초하여 선택된 포인트인 3차원 정합 방법이 제공된다.According to an embodiment, a three-dimensional matching method is provided in which the key point is a point selected from among points included in the three-dimensional target data and the three-dimensional source data based on a color feature or a geometric feature.

일실시예에 따르면, 상기 제2 변환 데이터를 획득하는 단계는, 평활도, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도 또는 상기 키 포인트에 기초하여 상기 비-강성 정렬을 수행하고, 상기 신뢰도는 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여 계산된 3차원 정합 방법이 제공된다.According to an embodiment, the obtaining of the second transformed data comprises performing the non-rigid alignment based on a smoothness, a reliability for a key point of the 3D source data, or the key point, and the reliability is the A three-dimensional matching method calculated based on a feature of a key point of the three-dimensional target data corresponding to a key point of three-dimensional source data is provided.

일실시예에 따르면, 상기 변환행렬을 생성하는 단계는, 상기 제2 변환 데이터 및 상기 3차원 타겟 데이터간의 후보 변환행렬을 생성하는 단계 및 복수의 상기 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정하는 단계를 포함하는 3차원 정합 방법이 제공된다.According to an embodiment, the generating of the transformation matrix includes generating a candidate transformation matrix between the second transformation data and the 3D target data, and a plurality of candidate transformation matrices based on distances between the plurality of candidate transformation matrices. A three-dimensional matching method including determining a final transformation matrix among transformation matrices is provided.

일실시예에 따르면, 상기 후보 변환행렬을 생성하는 단계는, 상기 후보 변환행렬에 의해 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 타겟 데이터의 포인트간의 거리, 평활도 또는 상기 키 포인트에 기초하여 상기 후보 변환행렬을 생성하는 3차원 정합 방법이 제공된다.According to an embodiment, the generating of the candidate transformation matrix comprises: a distance between points of the 3D source data and points of the 3D target data transformed by the candidate transformation matrix, smoothness, or based on the key point. A three-dimensional matching method for generating the candidate transform matrix is provided.

일실시예에 따르면, 상기 3차원 정합을 수행하는 단계는, 상기 변환행렬에 기초하여 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 소스 데이터의 포인트에 대응하는 상기 3차원 타겟 데이터의 포인트간의 거리 또는 평활도에 기초하여, 상기 3차원 소스 데이터에 대한 평활처리를 수행하는 3차원 정합 방법이 제공된다.According to an embodiment, the performing of the 3D matching includes: between a point of the 3D source data converted based on the transformation matrix and a point of the 3D target data corresponding to a point of the 3D source data. A 3D matching method for performing smoothing processing on the 3D source data based on distance or smoothness is provided.

일실시예에 따르면, 색상에 대한 특징 또는 기하학적 특징에 기초하여, 3차원 소스 데이터 및 3차원 타겟 데이터에 포함된 포인트 중에서 키 포인트를 선택하는 키 포인트 선택부, 상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 타겟 데이터의 키 포인트의 특징 또는 거리에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 위치를 조절하는 위치 조절부, 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도를 계산하는 신뢰도 계산부 및 상기 신뢰도에 기초하여 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 3차원 영상 데이터 정합부를 포함하는 3차원 정합 장치가 제공된다.According to an embodiment, a key point selection unit for selecting a key point from among points included in 3D source data and 3D target data based on a color characteristic or geometric characteristic, a key point of the 3D source data, and Based on the characteristic or distance of the key point of the 3D target data, a position adjusting unit for adjusting the position of the key point of the 3D target data, the 3D target data corresponding to the key point of the 3D source data A reliability calculation unit that calculates the reliability of the key point of the 3D source data based on the characteristics of the key point, and a 3D match between the 3D source data and the 3D target data based on the reliability. A 3D matching apparatus including a 3D image data matching unit is provided.

일실시예에 따르면, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터에 대하여 전처리를 수행하는 데이터 전처리부를 더 포함하는 3차원 정합 장치가 제공된다.According to an embodiment, there is provided a 3D matching apparatus further comprising a data preprocessor for performing preprocessing on the 3D source data and the 3D target data.

도 1a 내지 1c는 일실시예에 따른 3차원 정합 장치가 사용하는 3차원 소스 데이터 및 3차원 타겟 데이터의 일례를 도시한 도면이다.
도 2는 일실시예에 따른 3차원 정합 장치가 수행하는 동작을 도시한 흐름도이다.
도 3은 일실시예에 따른 3차원 정합 장치가 선택한 키 포인트를 예시적으로 도시한 도면이다.
도 4는 일실시예에 따른 3차원 정합 장치가 3차원 정합을 수행하는 동작의 일부를 구체적으로 도시한 흐름도이다.
도 5a 내지 5d는 일실시예에 따른 3차원 정합 장치가 정합을 수행한 결과를 도시한 도면이다.
1A to 1C are diagrams illustrating examples of 3D source data and 3D target data used by a 3D matching device according to an exemplary embodiment.
2 is a flowchart illustrating an operation performed by a 3D matching device according to an exemplary embodiment.
3 is a diagram illustrating a key point selected by a 3D matching device according to an exemplary embodiment.
4 is a flowchart illustrating a part of an operation in which a 3D matching device performs 3D matching according to an exemplary embodiment.
5A to 5D are diagrams showing results of matching by a 3D matching device according to an exemplary embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed in various forms and implemented. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof exists, but one or more other features or numbers, It is to be understood that the presence or addition of steps, actions, components, parts, or combinations thereof, does not preclude the possibility of preliminary exclusion.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms, including technical or scientific terms, used herein have the same meaning as commonly understood by one of ordinary skill in the relevant technical field. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this specification. Does not.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The same reference numerals in each drawing indicate the same members.

도 1a 내지 1c는 일실시예에 따른 3차원 정합(registration) 장치가 사용하는 3차원 소스 데이터 및 3차원 타겟 데이터의 일례를 도시한 도면이다. 일실시예에 따른 3차원 정합 장치는 하나 이상의 3차원 영상 데이터를 수신할 수 있다. 3차원 영상 데이터는 포인트 클라우드(point cloud), 깊이 맵(depth map), 3차원 그리드(3D grid) 형식일 수 있다. 3차원 타겟 데이터 및 3차원 소스 데이터는 3차원 영상 데이터로써, 3차원 정합에 이용될 수 있다.1A to 1C are diagrams illustrating examples of 3D source data and 3D target data used by a 3D registration device according to an exemplary embodiment. The 3D matching device according to an embodiment may receive one or more 3D image data. The 3D image data may be in the form of a point cloud, a depth map, or a 3D grid. The 3D target data and 3D source data are 3D image data and may be used for 3D matching.

일실시예에 따른 3차원 정합 장치는 3차원 정합을 수행함으로써, 3차원 타겟 데이터 및 3차원 소스 데이터의 대응 관계를 생성할 수 있다. 일실시예에 따른 3차원 정합 장치는 3차원 소스 데이터에서 3차원 타겟 데이터로의 변환 관계를 생성할 수 있다.The 3D matching apparatus according to an embodiment may generate a correspondence relationship between 3D target data and 3D source data by performing 3D matching. The 3D matching apparatus according to an embodiment may generate a transformation relationship from 3D source data to 3D target data.

도 1a는 텍스쳐가 제거된 3차원 소스 데이터의 곡면을 도시한 도면이다. 도 1b는 3차원 타겟 데이터를 도시한 도면이다. 도 1c는 텍스쳐가 제거된 3차원 타겟 데이터의 곡면을 도시한 도면이다.1A is a diagram illustrating a curved surface of 3D source data from which textures have been removed. 1B is a diagram showing 3D target data. 1C is a diagram illustrating a curved surface of 3D target data from which textures have been removed.

일실시예에 따른 3차원 정합 장치는 3차원 소스 데이터 및 3차원 타겟 데이터의 대응 관계를 찾을 수 있다. 또한, 3차원 정합 장치는 대응 관계에 기초하여 3차원 소스 데이터를 정렬할 수 있다. 즉, 3차원 정합 장치는 3차원 소스 데이터를 정렬함으로써, 3차원 소스 데이터가 3차원 타겟 데이터와 일치하게 만들 수 있다.The 3D matching apparatus according to an embodiment may find a correspondence relationship between 3D source data and 3D target data. Also, the 3D matching device may arrange 3D source data based on the correspondence relationship. That is, the 3D matching device may make the 3D source data match the 3D target data by aligning the 3D source data.

도 2는 일실시예에 따른 3차원 정합 장치가 수행하는 동작을 도시한 흐름도이다.2 is a flowchart illustrating an operation performed by a 3D matching device according to an exemplary embodiment.

단계(210)에서, 일실시예에 따른 3차원 정합 장치는 3차원 정합의 대상이 되는 3차원 소스 데이터 및 3차원 타겟 데이터를 수신할 수 있다. 3차원 정합 장치는 두 개 이상의 3차원 영상 데이터를 수신할 수 있다. 3차원 정합 장치는 수신한 두 개 이상의 3차원 영상 데이터에 대하여 3차원 정합을 수행함으로써, 3차원 영상 데이터에 대한 대응관계 또한 변환관계를 생성할 수 있다. 이하 3차원 정합을 수행하는 구체적인 동작을 설명한다.In step 210, the 3D matching apparatus according to an embodiment may receive 3D source data and 3D target data that are targets for 3D matching. The 3D matching device may receive two or more 3D image data. The 3D matching apparatus may generate a correspondence relationship with respect to the 3D image data and a transformation relationship by performing 3D matching on two or more received 3D image data. Hereinafter, a specific operation for performing 3D matching will be described.

단계(220)에서, 일실시예에 따른 3차원 정합 장치는 수신한 3차원 영상 데이터를 전처리할 수 있다. 예를 들어, 3차원 정합 장치는 3차원 영상 데이터에 대하여, 커팅(cutting), 홀 채움(hole filling), 아웃라이어 제거(outlier removing), 평활처리(smoothing) 또는 포인트 클라우드 라이브러리(point cloud library)에 포함된 다른 전처리 알고리즘을 수행할 수 있다. 일실시예에 따른 3차원 정합 장치는 전처리를 수행하지 않을 수 있다. 즉, 3차원 정합 장치는 단계(210)를 수행한 다음 단계(230)으로 진행할 수 있다.In step 220, the 3D matching apparatus according to an embodiment may pre-process the received 3D image data. For example, a 3D matching device may use cutting, hole filling, outlier removing, smoothing, or a point cloud library for 3D image data. Other preprocessing algorithms included in can be performed. The 3D matching apparatus according to an embodiment may not perform preprocessing. That is, the 3D matching device may perform step 210 and then proceed to step 230.

단계(230)에서, 일실시예에 따른 3차원 정합 장치는 3차원 영상 데이터의 포인트 중에서 키 포인트를 선택할 수 있다. 키 포인트는 3차원 영상 데이터에 포함된 복수의 포인트 중에서 색상에 대한 특별한 특징 또는 기하학적으로 특별한 특징을 가진 포인트를 의미한다.In step 230, the 3D matching apparatus according to an embodiment may select a key point from among points of 3D image data. The key point refers to a point having a special characteristic for color or a geometrical characteristic among a plurality of points included in the 3D image data.

일실시예에 따르면, 3차원 정합 장치는 자동으로 키 포인트를 선택할 수 있다. 이 경우, 3차원 정합 장치는 3차원 영상 데이터를 2차원 영상 데이터로 투영한 다음, 2차원 영상 데이터에 기초하여 키 포인트를 측정할 수 있다. 3차원 정합 장치는 백 프로젝션(back projection)을 수행함으로써, 2차원 영상 데이터에서 측정한 키 포인트의 3차원 영상 데이터상의 위치를 획득할 수 있다.According to an embodiment, the 3D matching device may automatically select a key point. In this case, the 3D matching apparatus may project the 3D image data into 2D image data and then measure a key point based on the 2D image data. The 3D matching apparatus may obtain a position on the 3D image data of a key point measured from the 2D image data by performing back projection.

일실시예에 따르면, 3차원 정합 장치는 사용자의 입력에 기초하여 키 포인트를 선택할 수 있다. 3차원 정합 장치는 키 포인트의 위치, 키 포인트에 대한 주석 중 적어도 하나를 사용자로부터 입력받을 수 있다.According to an embodiment, the 3D matching device may select a key point based on a user's input. The 3D matching device may receive at least one of a location of a key point and an annotation on a key point from a user.

단계(240)에서, 일실시예에 따른 3차원 정합 장치는 선택한 키 포인트의 위치를 조절할 수 있다. 3차원 정합 장치는 키 포인트의 위치를 조절함으로써, 키 포인트의 정확도를 향상시킬 수 있다. 따라서, 3차원 정합 장치가 생성하는 대응관계 또는 변환관계의 정확도가 증가할 수 있다.In step 240, the 3D matching device according to an embodiment may adjust the position of the selected key point. The 3D matching device can improve the accuracy of the key point by adjusting the position of the key point. Accordingly, the accuracy of the correspondence relationship or the transformation relationship generated by the 3D matching device can be increased.

일실시예에 따르면, 3차원 정합 장치는 3차원 소스 데이터의 키 포인트 또는 3차원 타겟 데이터의 키 포인트의 특징을 추출할 수 있다. 추출한 특징은 키 포인트의 색상에 대한 특징 또는 기하학적인 특징을 포함할 수 있다. 키 포인트의 색상에 대한 특징은 LBP(Local Binary Pattern), SIFT(Scale Invariant Feature Transform) 또는 SURF(Speed Up Robust Features)를 포함할 수 있다. 키 포인트의 기하학적인 특징은 NARF(Normal Aligned Radial Feature), VPH(Viewpoint Feature Histogram), FPFH(Fast Point Feature Histograms), 또는 SURE(Surface Entropy)를 포함할 수 있다.According to an embodiment, the 3D matching apparatus may extract a key point of 3D source data or a feature of a key point of 3D target data. The extracted feature may include a color feature or a geometric feature of the key point. The characteristics of the color of the key point may include a local binary pattern (LBP), scale invariant feature transform (SIFT), or speed up robust features (SURF). The geometrical features of the key point may include Normal Aligned Radial Feature (NARF), Viewpoint Feature Histogram (VPH), Fast Point Feature Histograms (FPFH), or Surface Entropy (SURE).

3차원 정합 장치는 추출한 특징에 기초하여, 3차원 타겟 데이터의 키 포인트의 위치를 조절할 수 있다. 3차원 정합 장치는 키 포인트의 색상에 대한 특징 또는 기하학적인 특징에 기초하여, 3차원 소스 데이터의 포인트와 3차원 타겟 데이터의 포인트 간의 특징 거리를 계산할 수 있다. 3차원 정합 장치는 계산한 특징 거리에 기초하여 키 포인트의 위치를 조절할 수 있다.The 3D matching device may adjust the position of the key point of the 3D target data based on the extracted feature. The 3D matching device may calculate a feature distance between a point of 3D source data and a point of 3D target data based on a color characteristic or a geometric characteristic of the key point. The 3D matching device may adjust the position of the key point based on the calculated feature distance.

보다 구체적으로, 일실시예에 따른 3차원 정합 장치는 3차원 타겟 데이터의 제i번째 키 포인트인 li T의 이웃영역 Nei(li T)에 위치하고, li T에 대응하는 3차원 소스 데이터의 키 포인트 li S와 가장 가까운 특징 거리를 가지는 포인트 u를 식별할 수 있다. 3차원 정합 장치는 조절된 3차원 타겟 데이터의 키 포인트의 위치

Figure 112015122693924-pat00001
를 포인트 u의 위치로 조절할 수 있다. 즉, 3차원 정합 장치는 수학식 1에 기초하여, 3차원 타겟 데이터의 키 포인트의 위치를 조절할 수 있다.More specifically, the three-dimensional aligning apparatus according to one embodiment is located in the third claim i of the l i T second key point neighboring region of dimension target data Nei (l i T), a three-dimensional source data corresponding to the l i T A point u having a feature distance closest to the key point l i S of can be identified. The 3D matching device is the position of the adjusted key point of the 3D target data.
Figure 112015122693924-pat00001
Can be adjusted to the position of point u. That is, the 3D matching device may adjust the position of the key point of the 3D target data based on Equation 1.

Figure 112015122693924-pat00002
Figure 112015122693924-pat00002

수학식 1을 참고하면, f( )는 특징을 추출하는 함수로써, 포인트의 색상에 대한 특징 또는 기하학적인 특징을 출력할 수 있다. 일실시예에 따르면, 3차원 정합 장치는 포인트에서 추출한 특징을 표현하는 특징 벡터(feature vector)를 생성할 수 있다. 특히, 특징 추출 함수 f( )는 특징 벡터를 출력할 수 있다. 따라서,

Figure 112015122693924-pat00003
는 포인트 u 및 키 포인트 li T에 대한 특징 벡터간의 거리이므로, 포인트 u 및 키 포인트 li T간의 특징 거리이다.Referring to Equation 1, f() is a function for extracting a feature, and may output a feature or a geometric feature for the color of a point. According to an embodiment, the 3D matching device may generate a feature vector representing a feature extracted from a point. In particular, the feature extraction function f() can output a feature vector. therefore,
Figure 112015122693924-pat00003
Is characterized because the distance between the vectors, the feature distance between the points u and key point l i T for the point u and the key point l i T.

3차원 정합 장치는 3차원 소스 데이터의 키 포인트에 대응하는 3차원 타겟 데이터의 키 포인트의 위치를 조절함으로써, 3차원 소스 데이터의 키 포인트 및 3차원 타겟 데이터의 키 포인트간의 보다 정확한 대응 관계를 얻을 수 있다.The 3D matching device obtains a more accurate correspondence between the key point of the 3D source data and the key point of the 3D target data by adjusting the position of the key point of the 3D target data corresponding to the key point of the 3D source data. I can.

더 나아가서, 일실시예에 따른 3차원 정합 장치는 3차원 소스 데이터 및 3차원 타겟 데이터의 대응하는 키 포인트를 추정할 수 있다. 구체적으로, 3차원 정합 장치는 백 프로젝션 방법, 법선 벡터 슈팅(Normal shooting) 방법, 최근접 이웃 알고리즘(Nearest-neighbor algorithm) 중 적어도 하나의 방법을 수행하여 키 포인트를 추정할 수 있다.Furthermore, the 3D matching apparatus according to an embodiment may estimate corresponding key points of 3D source data and 3D target data. Specifically, the 3D matching apparatus may estimate a key point by performing at least one of a back projection method, a normal shooting method, and a near-neighbor algorithm.

또한, 일실시예에 따른 3차원 정합 장치는 3차원 소스 데이터의 키 포인트에 대응하는 3차원 타겟 데이터의 키 포인트에 대하여 선별을 수행할 수 있다. 보다 구체적으로, 3차원 정합 장치는 3차원 소스 데이터의 키 포인트 및 이에 대응하는 3차원 타겟 데이터의 키 포인트 간의 거리가 미리 설정한 거리 이상인 경우, 또는 협각이 미리 설정한 각도 보다 클 경우, 상기 3차원 타겟 데이터의 키 포인트를 제외할 수 있다. In addition, the 3D matching apparatus according to an exemplary embodiment may select key points of 3D target data corresponding to key points of 3D source data. More specifically, when the distance between the key point of the 3D source data and the key point of the 3D target data corresponding thereto is greater than or equal to a preset distance, or when the narrow angle is greater than the preset angle, the 3D matching device Key points of dimensional target data can be excluded.

3차원 영상 데이터에는 복수의 오브젝트(배경을 포함한다)가 포함될 수 있는데, 오브젝트 간의 경계에서 노이즈가 증가하는 경향이 있다. 3차원 정합 장치는 키 포인트가 3차원 타겟 데이터에 포함된 서로 다른 오브젝트 간의 경계에 위치한 경우, 상기 3차원 타겟 데이터의 키 포인트를 제외할 수 있다. 따라서, 경계에 위치한 포인트의 불안정한 특징이 키 포인트에 미치는 영향을 줄일 수 있다. 따라서, 3차원 정합의 정확도가 증가할 수 있다.Although a plurality of objects (including a background) may be included in the 3D image data, noise tends to increase at the boundary between the objects. The 3D matching apparatus may exclude the key point of the 3D target data when the key point is located at a boundary between different objects included in the 3D target data. Therefore, it is possible to reduce the influence of the unstable characteristic of the point located at the boundary on the key point. Therefore, the accuracy of 3D matching can be increased.

앞서 설명한 바와 같이, 3차원 정합 장치가 키 포인트에 대하여 위치 조절, 대응 포인트의 추정 또는 선별을 수행함으로써, 3차원 소스 데이터의 키 포인트 및 3차원 타겟 데이터의 키 포인트가 서로 정확하게 대응할 수 있다. 따라서, 3차원 정합 장치가 보다 정확하게 3차원 정합을 수행할 수 있다.As described above, the key point of the 3D source data and the key point of the 3D target data can accurately correspond to each other by adjusting the position of the key point and estimating or selecting the corresponding point. Therefore, the three-dimensional matching device can more accurately perform three-dimensional matching.

단계(250)에서, 일실시예에 따른 3차원 정합 장치는 키 포인트에 대한 신뢰도를 계산할 수 있다. 신뢰도는 3차원 소스 데이터의 키 포인트 및 이에 대응하는 3차원 타겟 데이터의 키 포인트 간의 특징 거리에 기초하여 계산될 수 있다. 신뢰도와 특징 거리는 서로 반비례 관계에 있을 수 있다. 일실시예에 따르면, 3차원 정합 장치는 수학식 2에 기초하여 3차원 소스 데이터의 제i번째 키 포인트의 신뢰도를 계산할 수 있다.In step 250, the 3D matching apparatus according to an embodiment may calculate the reliability of the key point. The reliability may be calculated based on a feature distance between a key point of the 3D source data and a key point of the 3D target data corresponding thereto. Reliability and feature distance may be in inverse proportion to each other. According to an embodiment, the 3D matching device may calculate the reliability of the i-th key point of the 3D source data based on Equation (2).

Figure 112015122693924-pat00004
Figure 112015122693924-pat00004

수학식 2를 참고하면, g( )는 단조 감소함수가 될 수 있다.

Figure 112015122693924-pat00005
는 키 포인트 vj와 li사이의 특징 거리로써, li는 3차원 소스 데이터의 제i번째 키 포인트, vj는 li에 대응하는 3차원 타겟 데이터의 키 포인트이다.Referring to Equation 2, g() may be a monotonically decreasing function.
Figure 112015122693924-pat00005
Is a feature distance between the key points v j and l i , where l i is the i-th key point of the 3D source data, and v j is the key point of the 3D target data corresponding to l i.

일실시예에 따르면, 3차원 정합 장치는 3차원 소스 데이터에 위치한 복수의 키 포인트에 대한 가중 행렬(weighted matrix)

Figure 112015122693924-pat00006
를 수학식 3을 이용하여 계산할 수 있다.According to an embodiment, the 3D matching apparatus is a weighted matrix for a plurality of key points located in the 3D source data.
Figure 112015122693924-pat00006
Can be calculated using Equation 3.

Figure 112015122693924-pat00007
Figure 112015122693924-pat00007

수학식 3을 참고하면, L은 키 포인트의 개수, θ는 키 포인트 제약의 가중, β는 소스 3차원 영상 데이터의 키 포인트의 신뢰도를 의미한다.Referring to Equation 3, L is the number of key points, θ is the weight of the key point constraint, and β is the reliability of the key points of the source 3D image data.

단계(260)에서, 일실시예에 따른 3차원 정합 장치는 3차원 정합을 수행할 수 있다. 일실시예에 따르면, 3차원 정합 장치는 3차원 소스 데이터 또는 3차원 타겟 데이터에 대하여 강성 정렬(Rigid Alignment) 또는 비-강성 정렬(Non-Rigid Alignment)을 수행한 다음, 정렬된 3차원 소스 데이터 및 3차원 타겟 데이터간의 변환행렬을 생성할 수 있다. 3차원 정합 장치는 생성된 변환행렬에 기초하여 3차원 정합을 수행할 수 있다. 이에 대한 구체적인 설명은 도 4에서 서술한다.In step 260, the 3D matching apparatus according to an embodiment may perform 3D matching. According to an embodiment, the 3D matching device performs rigid alignment or non-rigid alignment on 3D source data or 3D target data, and then aligns 3D source data. And a transformation matrix between 3D target data may be generated. The 3D matching device may perform 3D matching based on the generated transform matrix. A detailed description of this is described in FIG. 4.

3차원 정합 장치는 단계(260)을 수행하기 이전에, 단계(240)에서 3차원 영상 데이터의 키 포인트의 위치를 조절하며, 단계(250)에서 3차원 영상 데이터의 키 포인트에 대한 신뢰도를 계산한다. 3차원 정합 장치는 조절된 키 포인트의 위치 및 신뢰도에 기초하여 3차원 정합을 수행하므로, 3차원 소스 데이터 및 3차원 타겟 데이터 간의 대응 관계 또는 변환 관계를 보다 정확하게 찾을 수 있다.Before performing step 260, the 3D matching device adjusts the position of the key point of the 3D image data in step 240, and calculates the reliability of the key point of the 3D image data in step 250. do. Since the 3D matching apparatus performs 3D matching based on the adjusted position and reliability of the key point, it is possible to more accurately find a correspondence relationship or a transformation relationship between the 3D source data and the 3D target data.

도 3은 일실시예에 따른 3차원 정합 장치가 선택한 키 포인트를 예시적으로 도시한 도면이다. 도 3을 참고하면, 3차원 정합 장치는 3차원 영상 데이터의 색상에 대한 특징 또는 기하학적인 특징에 기초하여, 3차원 영상 데이터에 포함된 복수의 포인트 중에서 키 포인트(310)를 선택할 수 있다.3 is a diagram illustrating a key point selected by a 3D matching device according to an exemplary embodiment. Referring to FIG. 3, the 3D matching apparatus may select a key point 310 from among a plurality of points included in the 3D image data based on a color characteristic or a geometric characteristic of the 3D image data.

3차원 정합 장치가 키 포인트(310)를 선택하는 동작은 단계(230)에서 설명한 바와 같다. 3차원 정합 장치는 자동으로 또는 사용자의 입력에 기초하여, 키 포인트(310)를 선택할 수 있다. 3차원 정합 장치는 키 포인트(310)의 색상에 대한 특징 또는 기하학적인 특징을 표현하는 특징 벡터를 생성할 수 있다. 생성된 특징 벡터는 특징 거리 또는 신뢰도를 계산하는 데에 이용될 수 있다.The operation of selecting the key point 310 by the 3D matching device is the same as described in step 230. The 3D matching device may select the key point 310 automatically or based on a user's input. The 3D matching device may generate a feature vector representing a color feature or a geometric feature of the key point 310. The generated feature vector can be used to calculate the feature distance or reliability.

도 4는 일실시예에 따른 3차원 정합 장치가 3차원 정합을 수행하는 동작의 일부를 구체적으로 도시한 흐름도이다. 3차원 정합 장치는 키 포인트에 대한 신뢰도를 계산한 다음, 도 4에 도시한 동작을 수행하여 3차원 정합을 수행할 수 있다.4 is a flowchart illustrating a part of an operation in which a 3D matching device performs 3D matching according to an exemplary embodiment. The 3D matching apparatus may perform 3D matching by calculating the reliability of the key point and then performing the operation shown in FIG. 4.

단계(410)에서, 일실시예에 따른 3차원 정합 장치는 키 포인트 및 3차원 타겟 데이터에 기초하여, 3차원 소스 데이터를 정렬할 수 있다.In step 410, the 3D matching apparatus according to an embodiment may align 3D source data based on the key point and 3D target data.

보다 구체적으로, 단계(411)에서, 일실시예에 따른 3차원 정합 장치는 키 포인트 및 3차원 타겟 데이터에 기초하여, 3차원 소스 데이터에 강성 정렬(Rigid Alignment)을 수행할 수 있다. 3차원 정합 장치는 강성 정렬을 수행함으로써, 정렬된 3차원 소스 데이터인 제1 변환 데이터를 생성할 수 있다.More specifically, in step 411, the 3D matching apparatus according to an embodiment may perform rigid alignment on 3D source data based on the key point and 3D target data. The 3D matching device may generate first transformed data that is aligned 3D source data by performing rigid alignment.

3차원 정합 장치는 강성 정렬을 수행함으로써, 3차원 소스 데이터의 포인트들의 평행 이동(translation), 회전(rotation) 또는 반사(reflection)를 수행할 수 있다. 3차원 소스 데이터의 임의의 두 포인트 간의 거리는 강성 정렬이 수행되기 전과 동일할 수 있다. 일실시예에 따르면, 강성 정렬은 ICP(Iterative Closest Point) 알고리즘에 기초하여 수행될 수 있다.The 3D matching device may perform a translation, rotation, or reflection of points of 3D source data by performing rigid alignment. The distance between any two points of the 3D source data may be the same as before the rigid alignment is performed. According to an embodiment, stiffness alignment may be performed based on an Iterative Closest Point (ICP) algorithm.

단계(412)에서, 일실시예에 따른 3차원 정합 장치는 제1 변환 데이터에 비-강성 정렬(Non-Rigid Alignment)을 수행함으로써, 정렬된 제1 변환 데이터인 제2 변환 데이터를 생성할 수 있다. 즉, 제2 변환 데이터는 3차원 소스 데이터에 기초하여 생성될 수 있다. 비-강성 정렬은 확대, 축소 또는 비선형 변환(nonlinear transformation)을 포함할 수 있다. 3차원 정합 장치가 강성 정렬 뿐만 아니라 비-강성 정렬을 수행하므로, 3차원 타겟 데이터 및 3차원 소스 데이터간의 대응의 정확도가 증가할 수 있다.In step 412, the 3D matching apparatus according to an embodiment may generate second transformed data, which is the aligned first transformed data, by performing a non-rigid alignment on the first transformed data. have. That is, the second transformed data may be generated based on the 3D source data. Non-rigid alignment may include enlargement, reduction, or nonlinear transformation. Since the 3D matching device performs rigid alignment as well as non-rigid alignment, the accuracy of correspondence between 3D target data and 3D source data can be increased.

일실시예에 따른 3차원 정합 장치는 평활도 또는 키 포인트에 기초하여 비-강성 정렬을 수행할 수 있다. 3차원 정합 장치는 단계(250)에서 계산한 3차원 소스 데이터의 키 포인트에 대한 신뢰도에 기초하여 비-강성 정렬을 수행할 수 있다. 보다 구체적으로, 3차원 정합 장치는 제1 변환 데이터에서 3차원 타겟 데이터로의 변환행렬 X=

Figure 112015122693924-pat00008
에 대하여, 수학식 4의 에너지 함수 E1(X)를 최소로 만드는 X 에 기초하여 제2 변환 데이터를 생성할 수 있다.The 3D matching apparatus according to an embodiment may perform non-rigid alignment based on a smoothness or a key point. The 3D matching apparatus may perform non-rigid alignment based on the reliability of the key point of the 3D source data calculated in operation 250. More specifically, the 3D matching device is the transformation matrix X= from the first transformed data to the 3D target data.
Figure 112015122693924-pat00008
For, it is possible to generate the second transform data based on X that minimizes the energy function E 1 (X) of Equation 4.

Figure 112015122693924-pat00009
Figure 112015122693924-pat00009

수학식 4를 참고하면, X=

Figure 112015122693924-pat00010
의 Xi는 3 x 4의 행렬이며, 3차원 소스 데이터의 제i번째 포인트의 변환행렬이다(n은 포인트의 개수).
Figure 112015122693924-pat00011
는 수학식 3의 가중 행렬이다. Es(X)는 평활도의 한도에 대한 함수이며, 수학식 5로 정의될 수 있다. El(X)는 키 포인트의 한도에 대한 함수이며, 수학식 6으로 정의될 수 있다.Referring to Equation 4, X=
Figure 112015122693924-pat00010
X i of is a 3 x 4 matrix, and is a transformation matrix of the i-th point of the 3D source data (n is the number of points).
Figure 112015122693924-pat00011
Is the weighting matrix of Equation 3. E s (X) is a function for the limit of smoothness, and may be defined by Equation 5. E l (X) is a function for the limit of the key point, and may be defined by Equation 6.

Figure 112015122693924-pat00012
Figure 112015122693924-pat00012

수학식 5를 참고하면, Es(X)는 서로 이웃한 제i번째 포인트 및 제j번째 포인트에 대하여, 제i번째 포인트의 변환행렬 Xi 및 제j번째 포인트의 변환행렬 Xj의 프로베니우스 놈(F norm, Frobenius norm)에 기초하여 계산될 수 있다. 앞서 설명한 바와 같이, 3차원 정합 장치는 E1(x)를 최소로 만드는 X에 기초하여 제2 변환 데이터를 생성하므로, Xi 및 Xj의 프로베니우스 놈은 최소가 되어야 한다.Referring to Equation 5, E s (X) denotes the Proveni of the transformation matrix X i of the ith point and the transformation matrix X j of the j th point for the ith point and the jth point adjacent to each other It can be calculated based on the F norm (Frobenius norm). As described above, since the 3D matching device generates second transform data based on X that minimizes E 1 (x), the probenius norms of X i and X j should be minimized.

Figure 112015122693924-pat00013
Figure 112015122693924-pat00013

수학식 6을 참고하면, l은 3차원 소스 데이터의 키 포인트이고; vi는 3차원 타겟 데이터의 키 포인트 중에 l과 대응하는 키 포인트이다. l 및 이에 대응하는 vi가 순서쌍을 이루어 집합

Figure 112015122693924-pat00014
을 구성한다. 3차원 정합 장치는 E1(x)를 최소로 만드는 X 에 기초하여 제2 변환 데이터를 생성하므로, 변환행렬 Xi에 의해 변환된 vi는 l과 가까워져야 한다.Referring to Equation 6, l is a key point of 3D source data; v i is a key point corresponding to l among the key points of the 3D target data. l and the corresponding v i are ordered pairs
Figure 112015122693924-pat00014
Configure. Since the 3D matching device generates the second transformed data based on X that minimizes E 1 (x), v i transformed by the transform matrix X i must be close to l.

단계(420)에서, 일실시예에 따른 3차원 정합 장치는 제2 변환 데이터 및 3차원 타겟 데이터 간의 변환행렬을 생성할 수 있다. 3차원 정합 장치는 제2 변환 데이터 및 3차원 타겟 데이터 간의 복수의 후보 변환행렬을 생성한 다음, 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정할 수 있다.In step 420, the 3D matching apparatus according to an embodiment may generate a transformation matrix between the second transformation data and the 3D target data. The 3D matching apparatus may generate a plurality of candidate transformation matrices between the second transformation data and the 3D target data, and then determine a final transformation matrix from among the plurality of candidate transformation matrices based on a distance between the candidate transformation matrices.

보다 구체적으로, 단계(421)에서, 일실시예에 따른 3차원 정합 장치는 제2 변환 데이터 및 3차원 타겟 데이터간의 변환행렬인 제1차 후보 변환행렬을 생성할 수 있다. 후보 변환행렬을 생성하는 구체적인 동작은 단계(423)에서 설명한다.More specifically, in step 421, the 3D matching apparatus according to an embodiment may generate a first-order candidate transformation matrix that is a transformation matrix between the second transformation data and the 3D target data. A detailed operation of generating the candidate transformation matrix will be described in step 423.

단계(422)에서, 일실시예에 따른 3차원 정합 장치는 제1차 후보 변환행렬이 수렴조건을 만족하는지 확인할 수 있다. 수렴조건에 대해서는 단계(424)에서 구체적으로 설명한다. 수렴조건을 만족하는 경우, 3차원 정합 장치는 단계(425)로 진행한다. 따라서, 제1차 후보 변환행렬이 최종 변환행렬로 결정될 수 있다. 수렴조건을 만족하지 않는 경우, 3차원 정합 장치는 단계(423)을 수행한다.In step 422, the 3D matching apparatus according to an embodiment may check whether the first-order candidate transformation matrix satisfies the convergence condition. The convergence condition will be described in detail in step 424. If the convergence condition is satisfied, the 3D matching device proceeds to step 425. Accordingly, the first-order candidate transformation matrix may be determined as the final transformation matrix. If the convergence condition is not satisfied, the 3D matching apparatus performs step 423.

단계(423)에서, 일실시예에 따른 3차원 정합 장치는 제n차 변환행렬을 생성할 수 있다. 3차원 정합 장치는 이전 단계에서 계산한 제n-1차 변환행렬로 변환된 3차원 소스 데이터를 이용할 수 있다.In step 423, the 3D matching apparatus according to an embodiment may generate an nth-th transform matrix. The 3D matching apparatus may use the 3D source data converted to the n-1 th transform matrix calculated in the previous step.

구체적으로, 3차원 정합 장치는 제2차 변환행렬을 생성하는 경우, 제2 변환 데이터를 제1차 후보 변환행렬에 따라 변환한 제1차 후보 변환행렬에 대한 변환 데이터를 이용할 수 있다. 유사하게, 3차원 정합 장치는 제3차 변환행렬을 생성하는 경우, 제1차 후보 변환행렬에 대한 변환 데이터를 제2차 후보 변환행렬에 따라 변환한 변환 데이터를 이용할 수 있다.Specifically, when generating the second order transformation matrix, the 3D matching apparatus may use transformation data for the first order candidate transformation matrix obtained by transforming the second transformation data according to the first order candidate transformation matrix. Similarly, when generating a third order transformation matrix, the 3D matching apparatus may use transformation data obtained by converting transformation data for the first order candidate transformation matrix according to the second order candidate transformation matrix.

3차원 정합 장치는 수학식 7의 에너지 함수 E(X)를 최소로 만드는 X에 기초하여 제n차 후보 변환행렬을 생성할 수 있다.The 3D matching device may generate an n-th candidate transformation matrix based on X that minimizes the energy function E(X) of Equation 7.

Figure 112015122693924-pat00015
Figure 112015122693924-pat00015

수학식 7을 참고하면, Es(X)는 평활도의 한도에 대한 함수로써, 수학식 5로 정의될 수 있으며, El(X)는 키 포인트의 한도에 대한 함수로써, 수학식 6으로 정의될 수 있다.Referring to Equation 7, E s (X) is a function for the limit of smoothness and may be defined by Equation 5, and E l (X) is a function for the limit of key points, and is defined by Equation 6. Can be.

Figure 112015122693924-pat00016
는 Es (X)의 가중계수이고, B는 El(X)의 가중계수이다. 일실시예에 따른, 3차원 정합 장치는 국부적 최적 해(local optimal solution)가 계산되는 것을 방지하기 위하여, 수학식 7의
Figure 112015122693924-pat00017
를 점진적으로 감소시킬 수 있다. 즉,
Figure 112015122693924-pat00018
로써
Figure 112015122693924-pat00019
은 미리 설정된 가중계수이며,
Figure 112015122693924-pat00020
의 관계가 성립할 수 있다. 3차원 정합 장치는
Figure 112015122693924-pat00021
을 사용하여 제n차 후보 변환행렬을 생성할 수 있다.
Figure 112015122693924-pat00016
Is the weighting factor of E s (X), and B is the weighting factor of E l (X). According to an embodiment, in order to prevent a local optimal solution from being calculated, the 3D matching device
Figure 112015122693924-pat00017
Can be gradually decreased. In other words,
Figure 112015122693924-pat00018
As
Figure 112015122693924-pat00019
Is a preset weighting factor,
Figure 112015122693924-pat00020
The relationship of can be established. 3D matching device
Figure 112015122693924-pat00021
The n-th candidate transformation matrix can be generated using.

Ed(X)는 제n-1차 변환행렬로 변환된 3차원 소스 데이터의 포인트 및 이에 대응하는 3차원 타겟 데이터의 포인트간의 거리의 한도에 대한 함수이다. Ed(X)는 수학식 8로 정의될 수 있다.E d (X) is a function of the limit of the distance between the points of the 3D source data converted to the n-th order transformation matrix and the corresponding points of the 3D target data. E d (X) may be defined by Equation 8.

Figure 112015122693924-pat00022
Figure 112015122693924-pat00022

수학식 8을 참고하면,

Figure 112015122693924-pat00023
는 3차원 소스 영상 데이터의 포인트의 집합이다.
Figure 112015122693924-pat00024
는 제j차(j는 n-1과 동일) 후보 변환행렬에서 3차원 소스 데이터의 제 i번째 포인트의 변환행렬이다.
Figure 112015122693924-pat00025
는 3차원 타겟 데이터이며, dist는 3차원 소스 데이터의 포인트 vi의 위치가 변환행렬
Figure 112015122693924-pat00026
로 변환된 위치와 이에 대응하는 3차원 타겟 데이터의 포인트간의 거리이다. wi는 이진 파라미터로써,
Figure 112015122693924-pat00027
에 대응하는 3차원 타겟 데이터의 포인트가 존재할 때, wi는 1이고, 포인트가 존재하지 않는 경우, wi는 0이다.Referring to Equation 8,
Figure 112015122693924-pat00023
Is a set of points of the 3D source image data.
Figure 112015122693924-pat00024
Is a transformation matrix of the i-th point of the 3D source data in the jth order (j is equal to n-1) candidate transformation matrix.
Figure 112015122693924-pat00025
Is the 3D target data, and dist is the location of the point v i of the 3D source data.
Figure 112015122693924-pat00026
It is the distance between the converted position and the corresponding point of the 3D target data. w i is a binary parameter,
Figure 112015122693924-pat00027
When there is a point of the 3D target data corresponding to, w i is 1, and when there is no point, w i is 0.

3차원 소스 데이터 및 3차원 타겟 데이터의 차이가 비교적 크고, 3차원 소스 데이터의 키 포인트 및 이에 대응하는 3차원 타겟 데이터의 키 포인트만을 비교하여 변환행렬을 계산하는 경우, 3차원 소스 데이터의 키 포인트의 변환 결과 및 키 포인트 주변의 포인트의 변환 결과의 차이가 클 수 있다.When the difference between the 3D source data and the 3D target data is relatively large, and the transformation matrix is calculated by comparing only the key points of the 3D source data and the corresponding key points of the 3D target data, the key points of the 3D source data The difference between the conversion result of and the conversion result of points around the key point may be large.

일실시예에 따른 3차원 정합 장치는 키 포인트뿐만 아니라 다른 포인트들을 추가적으로 고려함으로써, 이러한 문제를 해결할 수 있다. 보다 구체적으로, 3차원 정합 장치는 수학식 9의 부등식 조건을 추가로 고려하여 제n차 변환행렬을 계산할 수 있다.The 3D matching apparatus according to an exemplary embodiment can solve this problem by additionally considering not only the key point but also other points. More specifically, the 3D matching apparatus may calculate the nth-th transform matrix by additionally considering the inequality condition of Equation 9.

Figure 112015122693924-pat00028
Figure 112015122693924-pat00028

수학식 9를 참고하면,

Figure 112015122693924-pat00029
는 제n차 변환행렬에 따라 변환된 3차원 소스 데이터의 제u번째 포인트에 대한 변환행렬의 제e번째 원소 값이다.
Figure 112015122693924-pat00030
는 제n차 변환행렬에 따라 변환된 3차원 소스 데이터의 제u번째 포인트에 대한 변환행렬의 제m번째의 키 포인트, 즉 제im번째 포인트에 대한 변환행렬의 제e번째 원소 값이다. vu
Figure 112015122693924-pat00031
의 이웃 영역에 포함되고,
Figure 112015122693924-pat00032
은 3차원 소스 데이터 중의 제m번째 키 포인트, 즉 제im번째 포인트이다.
Figure 112015122693924-pat00033
는 vu
Figure 112015122693924-pat00034
사이의 거리에 비례할 수 있다.Referring to Equation 9,
Figure 112015122693924-pat00029
Is the value of the e-th element of the transformation matrix for the u-th point of the 3D source data converted according to the n-th transformation matrix.
Figure 112015122693924-pat00030
Is the m-th key point of the transformation matrix with respect to the u-th point of the 3D source data transformed according to the n-th transformation matrix, that is, the e-th element value of the transformation matrix for the i-m-th point. v u is
Figure 112015122693924-pat00031
Is included in the neighboring area of,
Figure 112015122693924-pat00032
Is the m-th key point in the 3D source data, that is, the i m- th point.
Figure 112015122693924-pat00033
Is v u and
Figure 112015122693924-pat00034
It can be proportional to the distance between them.

3차원 정합 장치는 키 포인트의 이웃 영역을 고려하여 변환행렬을 계산할 수 있으므로, 3차원 소스 데이터의 키 포인트의 변환 결과 및 키 포인트 주변의 포인트의 변환 결과의 차이가 줄어들 수 있다. 결과적으로, 생성된 3차원 정합의 정확도가 향상될 수 있다.Since the 3D matching apparatus may calculate the transformation matrix in consideration of the neighboring regions of the key points, a difference between the transformation result of the key point of the 3D source data and the transformation result of the points surrounding the key point may be reduced. As a result, the accuracy of the generated three-dimensional registration can be improved.

단계(424)에서, 일실시예에 따른 3차원 정합 장치는 제n차 변환행렬이 수렴 조건을 만족하는지 확인할 수 있다. 보다 구체적으로, 3차원 정합 장치는 수학식 10을 만족하는 경우, 제n차 변환행렬이 수렴조건을 만족함을 확인할 수 있다.In step 424, the 3D matching apparatus according to an embodiment may check whether the nth-th transform matrix satisfies the convergence condition. More specifically, when the 3D matching apparatus satisfies Equation 10, it can be confirmed that the nth-th transform matrix satisfies the convergence condition.

Figure 112015122693924-pat00035
Figure 112015122693924-pat00035

수학식 10을 참고하면,

Figure 112015122693924-pat00036
은 제n-1차 변환행렬, Xn은 제n차 변환행렬, δ는 미리 설정한 반복 중지 한계치이다. 수렴 조건을 만족하지 않는 경우, 3차원 정합 장치는 단계(423)로 진행하여 후보 변환행렬을 다시 계산한다. 이로써 계산되는 제n+1차 후보 변환행렬은 제n차 변환행렬 및 제n차 변환행렬에 의해 변환된 변환 데이터를 참조할 수 있다.Referring to Equation 10,
Figure 112015122693924-pat00036
Is an n-th transformation matrix, X n is an n-th transformation matrix, and δ is a preset iteration stop limit. If the convergence condition is not satisfied, the 3D matching apparatus proceeds to step 423 and recalculates the candidate transform matrix. The n-th order candidate transformation matrix calculated as a result may refer to an n-th order transformation matrix and transform data converted by the n-th order transformation matrix.

수렴 조건을 만족하는 경우, 3차원 정합 장치는 단계(425)로 진행하며, 제n차 변환행렬을 최종 변환행렬로 결정할 수 있다.When the convergence condition is satisfied, the 3D matching apparatus proceeds to step 425 and may determine the nth-th transform matrix as the final transform matrix.

단계(430)에서, 일실시예에 따른 3차원 정합 장치는 변환행렬에 대하여 평활처리를 수행할 수 있다. 3차원 정합 장치는 평활도, 3차원 소스 데이터의 키 포인트 및 이에 대응하는 3차원 타겟 데이터의 키 포인트 간의 거리에 기초하여 평활처리를 수행할 수 있다. 특히, 3차원 정합 장치는 단계(420)에서 계산된 변환행렬에 의해 3차원 소스 데이터를 변환한 제3 변환 데이터를 사용할 수 있다. 보다 구체적으로, 3차원 정합 장치는 수학식 11의 에너지 함수 E2(X)를 최소로 만드는 X에 기초하여 평활처리를 수행할 수 있다.In step 430, the 3D matching apparatus according to an embodiment may perform a smoothing process on the transform matrix. The 3D matching apparatus may perform smoothing processing based on a smoothness, a key point of the 3D source data, and a distance between the key points of the 3D target data corresponding thereto. In particular, the 3D matching apparatus may use third transformed data obtained by transforming the 3D source data using the transform matrix calculated in step 420. More specifically, the 3D matching device may perform smoothing processing based on X making the energy function E 2 (X) of Equation 11 to a minimum.

Figure 112015122693924-pat00037
Figure 112015122693924-pat00037

수학식 11을 참고하면,

Figure 112015122693924-pat00038
는 평활도의 한도에 대한 함수 Es(X)의 가중계수이다. Es는 평활도의 한도에 대한 함수로 수학식 5로 정의될 수 있다. Ed (X)는 제3 변환 데이터의 포인트 및 이에 대응하는 3차원 타겟 데이터의 포인트 간의 거리 제약 함수로써, 수학식 8로 정의될 수 있다.Referring to Equation 11,
Figure 112015122693924-pat00038
Is the weighting factor of the function E s (X) on the limit of smoothness. E s may be defined as Equation 5 as a function of the smoothness limit. E d (X) is a distance constraint function between the point of the third transform data and the point of the 3D target data corresponding thereto, and may be defined by Equation 8.

단계(440)에서, 일실시예에 따른 3차원 정합 장치는 3차원 소스 데이터 및 3차원 타겟 데이터에 대한 3차원 정합을 수행할 수 있다. 3차원 정합 장치는 평활처리된 변환행렬에 기초하여 3차원 정합을 수행할 수 있다.In step 440, the 3D matching apparatus according to an embodiment may perform 3D matching on 3D source data and 3D target data. The 3D matching device may perform 3D matching based on the smoothed transform matrix.

도 5a 내지 5d는 일실시예에 따른 3차원 정합 장치가 정합을 수행한 결과를 도시한 도면이다. 3차원 정합 장치는 도 1b 내지 1c에서 도시한 3차원 타겟 데이터에 기초하여, 도 1a에 도시한 3차원 소스 데이터 및 도 1b 내지 1c에서 도시한 3차원 타겟 데이터 간의 3차원 정합을 수행할 수 있다. 3차원 정합을 수행한 결과에 따라 정렬된 3차원 소스 데이터가 도 5a 내지 5d에 도시된다.5A to 5D are diagrams showing results of matching by a 3D matching device according to an exemplary embodiment. The 3D matching apparatus may perform 3D matching between the 3D source data shown in FIG. 1A and the 3D target data shown in FIGS. 1B to 1C based on the 3D target data shown in FIGS. 1B to 1C. . 3D source data arranged according to a result of performing 3D matching are shown in FIGS. 5A to 5D.

도 5a 내지 5b는 Optimal Step non-rigid ICP(OSICP) 방법을 사용하여 3차원 정합을 수행한 결과를 도시한 도면이다. 즉, 도 1a에 도시한 3차원 소스 데이터를 3차원 정합의 결과에 기초하여 정렬한 결과를 도시한 도면이다. 도 5a는 텍스쳐가 곡면에 표시되어 있으며, 도 5b는 텍스쳐를 제거하여 곡면만을 도시한 도면이다.5A to 5B are diagrams showing results of performing 3D matching using an Optimal Step non-rigid ICP (OSICP) method. That is, a diagram showing a result of sorting the 3D source data shown in FIG. 1A based on the result of 3D matching. 5A is a view showing only the curved surface by removing the texture, and FIG. 5B is a view showing the texture on the curved surface.

도 5c 내지 5d는 일실시예에 따른 3차원 정합 장치의 3차원 정합에 따라 3차원 소스 데이터를 정렬한 결과를 도시한 도면이다. 도 5c는 텍스쳐가 곡면에 표시되어 있으며, 도 5d는 텍스쳐를 제거하여 곡면만을 도시한 도면이다.5C to 5D are diagrams illustrating results of arranging 3D source data according to 3D registration by a 3D matching device according to an exemplary embodiment. 5C is a view showing only the curved surface by removing the texture.

도 5a 내지 5d를 참고하면, 3차원 소스 데이터는 3차원 정합에 따라 정렬될 경우, 3차원 타겟 데이터의 모양으로 정렬될 수 있다. 도 5b 및 도 5d의 눈, 코, 입 주변의 키 포인트를 비교하면, 일실시예에 따른 3차원 정합 장치가 OSICP 방법보다 더 정확하게 정렬하였음을 알 수 있다.5A to 5D, when 3D source data is aligned according to 3D registration, it may be aligned in the shape of 3D target data. Comparing the key points around the eyes, nose, and mouth of FIGS. 5B and 5D, it can be seen that the 3D matching apparatus according to an exemplary embodiment aligned more accurately than the OSICP method.

3차원 타겟 데이터 및 3차원 소스 데이터간의 일치 정도를 계산한 양자화 값에 기초하여 3차원 정합 장치 및 OSICP 방법을 비교할 수 있다. 구체적으로, 평활도의 양자화 값 및 데이터 일치에 대한 양자화 값을 계산하여 비교한다.A 3D matching device and an OSICP method may be compared based on a quantization value obtained by calculating a degree of matching between the 3D target data and the 3D source data. Specifically, quantization values for smoothness and quantization values for data matching are calculated and compared.

각 포인트 및 이웃 영역의 포인트의 변위 차이를 계산한 다음, 모든 포인트의 변위 차이의 평균을 평활도의 양자화 값으로 정의한다. 평활도의 양자화 값은 3차원 소스 데이터 및 3차원 타겟 데이터가 정확하게 대응될수록 감소할 수 있다.After calculating the displacement difference between each point and the points in the neighboring area, the average of the displacement differences between all points is defined as a quantized value of the smoothness. The quantization value of the smoothness may decrease as the 3D source data and the 3D target data accurately correspond.

3차원 소스 데이터의 포인트 및 이에 대응하는 3차원 타겟 데이터의 포인트 간의 거리를 계산한 다음, 모든 포인트에 대한 상기 거리를 데이터 일치에 대한 양자화 값으로 정의한다. 데이터 일치에 대한 양자화 값은 3차원 소스 데이터 및 3차원 타겟 데이터가 정확하게 대응될수록 감소할 수 있다.After calculating the distance between the points of the 3D source data and the corresponding points of the 3D target data, the distances for all points are defined as quantization values for data matching. The quantization value for data matching may decrease as the 3D source data and the 3D target data accurately correspond.

표 1은 3차원 정합 장치가 수행한 3차원 정합 방법 및 OSICP 방법에 따라 수행된 3차원 정합의 평활도의 양자화 값 및 데이터 일치에 대한 양자화 값을 비교한 것이다.Table 1 shows a comparison of quantization values for smoothness of 3D matching and quantization values for data matching performed according to the 3D matching method performed by the 3D matching apparatus and the OSICP method.

방법Way 평활도의 양자화 값Quantization value of smoothness 데이터 일치에 대한 양자화 값Quantization value for data match OSICP 방법OSICP method 0.33610.3361 0.64860.6486 3차원 정합 장치3D matching device 0.31520.3152 0.60960.6096

표 1을 참고하면, 일실시예에 따른 3차원 정합 장치가 수행한 3차원 정합의 대응관계가 더 정확함을 알 수 있다.Referring to Table 1, it can be seen that the correspondence of the 3D registration performed by the 3D matching apparatus according to an embodiment is more accurate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

210 : 3차원 소스 데이터/3차원 타겟 데이터 입력
220 : 데이터 전처리
230 : 키 포인트 선택
240 : 키 포인트 위치 조절
250 : 신뢰도 계산
260 : 3차원 정합 수행
210: 3D source data/3D target data input
220: data preprocessing
230: key point selection
240: Key point position adjustment
250: reliability calculation
260: Perform 3D registration

Claims (18)

색상에 대한 특징 또는 기하학적 특징에 기초하여, 3차원 소스 데이터 및 3차원 타겟 데이터에 포함된 포인트 중에서 키 포인트를 선택하는 단계;
상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 타겟 데이터의 키 포인트의 특징 또는 거리에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 위치를 조절하는 단계;
상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도를 계산하는 단계; 및
상기 신뢰도에 기초하여 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하고,
상기 3차원 정합을 수행하는 단계는,
상기 키 포인트 및 상기 3차원 타겟 데이터에 기초하여, 상기 3차원 소스 데이터를 정렬하는 단계;
정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 변환행렬을 생성하는 단계; 및
상기 변환행렬에 기초하여, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 단계를 포함하고,
상기 변환행렬을 생성하는 단계는,
정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 후보 변환행렬을 생성하는 단계; 및
복수의 상기 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정하는 단계를 포함하고,
상기 후보 변환행렬을 생성하는 단계는,
상기 후보 변환행렬에 의해 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 타겟 데이터의 포인트간의 거리, 평활도 및 상기 키 포인트에 기초하여 상기 후보 변환행렬을 생성하는,
3차원 정합(registration) 방법.
Selecting a key point from among points included in the 3D source data and the 3D target data based on a color feature or a geometric feature;
Adjusting a position of a key point of the 3D target data based on a key point of the 3D source data and a characteristic or distance of the key point of the 3D target data;
Calculating a reliability for a key point of the 3D source data based on a characteristic of a key point of the 3D target data corresponding to the key point of the 3D source data; And
3D matching between the 3D source data and the 3D target data is performed based on the reliability,
The step of performing the three-dimensional matching,
Aligning the 3D source data based on the key point and the 3D target data;
Generating a transformation matrix between the aligned 3D source data and the 3D target data; And
Based on the transformation matrix, performing 3D matching between the 3D source data and the 3D target data,
The step of generating the transformation matrix,
Generating a candidate transformation matrix between the aligned 3D source data and the 3D target data; And
Determining a final transformation matrix from among a plurality of candidate transformation matrices based on the distance between the plurality of candidate transformation matrices,
Generating the candidate transformation matrix,
Generating the candidate transformation matrix based on the distance between the points of the 3D source data and the points of the 3D target data transformed by the candidate transformation matrix, smoothness, and the key points,
Three-dimensional registration method.
제1항에 있어서,
상기 키 포인트를 선택하는 단계는,
상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여 특징 벡터(feature vector)를 생성하는 3차원 정합 방법.
The method of claim 1,
The step of selecting the key point,
A three-dimensional matching method for generating a feature vector based on the color feature or the geometric feature of the key point.
제1항에 있어서,
상기 위치를 조절하는 단계는,
상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 인접 영역에 위치한 포인트 및 상기 3차원 소스 데이터의 키 포인트간의 특징 거리를 계산하는 단계; 및
상기 특징 거리가 가장 작은 상기 포인트의 위치에 기초하여 상기 키 포인트의 위치를 조절하는 단계
를 포함하는 3차원 정합 방법.
The method of claim 1,
The step of adjusting the position,
Calculating a feature distance between a point located in a region adjacent to a key point of the 3D target data and a key point of the 3D source data based on the color characteristic or the geometric characteristic of the key point; And
Adjusting the position of the key point based on the position of the point having the smallest feature distance
Three-dimensional matching method comprising a.
제1항에 있어서,
상기 신뢰도를 계산하는 단계는,
상기 키 포인트의 상기 색상에 대한 특징 또는 상기 기하학적 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트간의 특징 거리를 계산하는 단계; 및
상기 특징 거리에 기초하여 상기 신뢰도를 계산하는 단계
를 포함하는 3차원 정합 방법.
The method of claim 1,
The step of calculating the reliability,
Calculate a feature distance between a key point of the 3D source data and a key point of the 3D target data corresponding to the key point of the 3D source data based on the color characteristic or the geometric characteristic of the key point Step to do; And
Calculating the reliability based on the feature distance
Three-dimensional matching method comprising a.
삭제delete 제1항에 있어서,
상기 3차원 소스 데이터를 정렬하는 단계는,
평활도(smoothness) 또는 상기 키 포인트에 기초하여, 상기 3차원 소스 데이터에 강성 정렬(Rigid Alignment)을 수행함으로써, 제1 변환 데이터를 생성하는 단계; 및
평활도, 상기 키 포인트 또는 상기 신뢰도에 기초하여, 상기 제1 변환 데이터에 비-강성 정렬(Non-Rigid Alignment)을 수행함으로써, 제2 변환 데이터를 생성하는 단계;
를 포함하는 3차원 정합 방법.

The method of claim 1,
Aligning the three-dimensional source data,
Generating first transformed data by performing rigid alignment on the 3D source data based on smoothness or the key point; And
Generating second transformed data by performing a non-rigid alignment on the first transformed data based on smoothness, the key point, or the reliability;
Three-dimensional matching method comprising a.

삭제delete 삭제delete 제1항에 있어서,
상기 3차원 정합을 수행하는 단계는,
상기 변환행렬에 기초하여 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 소스 데이터의 포인트에 대응하는 상기 3차원 타겟 데이터의 포인트간의 거리 또는 평활도에 기초하여, 상기 3차원 소스 데이터에 대한 평활처리를 수행하는 3차원 정합 방법.
The method of claim 1,
The step of performing the three-dimensional matching,
Smoothing processing for the 3D source data based on a distance or smoothness between points of the 3D source data converted based on the transformation matrix and points of the 3D target data corresponding to the points of the 3D source data A three-dimensional matching method to perform.
제1항에 있어서,
상기 3차원 정합을 수행하는 단계는,
전처리된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터에 기초하여 정합을 수행하는 3차원 정합 방법.
The method of claim 1,
The step of performing the three-dimensional matching,
A 3D matching method for performing matching based on the preprocessed 3D source data and the 3D target data.
키 포인트 및 3차원 타겟 데이터에 기초하여, 3차원 소스 데이터에 강성 정렬(Rigid Alignment)을 수행함으로써, 제1 변환 데이터를 획득하는 단계;
상기 키 포인트 및 상기 3차원 타겟 데이터에 기초하여, 상기 제1 변환 데이터에 비-강성 정렬(Non-Rigid Alignment)을 수행함으로써, 제2 변환 데이터를 획득하는 단계;
상기 제2 변환 데이터 및 상기 3차원 타겟 데이터간의 변환행렬을 생성하는 단계; 및
상기 변환행렬에 기초하여, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 단계를 포함하고,
상기 변환행렬을 생성하는 단계는,
상기 제2 변환 데이터 및 상기 3차원 타겟 데이터간의 후보 변환행렬을 생성하는 단계; 및
복수의 상기 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정하는 단계를 포함하고,
상기 후보 변환행렬을 생성하는 단계는,
상기 후보 변환행렬에 의해 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 타겟 데이터의 포인트간의 거리, 평활도 및 상기 키 포인트에 기초하여 상기 후보 변환행렬을 생성하는 단계를 포함하는,
3차원 정합(registration) 방법.
Obtaining first transform data by performing rigid alignment on the 3D source data based on the key point and the 3D target data;
Obtaining second transformed data by performing Non-Rigid Alignment on the first transformed data based on the key point and the 3D target data;
Generating a transformation matrix between the second transformed data and the 3D target data; And
Based on the transformation matrix, performing 3D matching between the 3D source data and the 3D target data,
The step of generating the transformation matrix,
Generating a candidate transform matrix between the second transform data and the 3D target data; And
Determining a final transformation matrix from among a plurality of candidate transformation matrices based on the distance between the plurality of candidate transformation matrices,
Generating the candidate transformation matrix,
Generating the candidate transformation matrix based on the distance between the points of the 3D source data and the points of the 3D target data transformed by the candidate transformation matrix, a smoothness, and the key point,
Three-dimensional registration method.
제11항에 있어서,
상기 키 포인트는,
상기 3차원 타겟 데이터 및 상기 3차원 소스 데이터에 포함된 포인트 중에서, 색상에 대한 특징 또는 기하학적 특징에 기초하여 선택된 포인트인 3차원 정합 방법.
The method of claim 11,
The key point is,
A three-dimensional matching method in which a point is selected based on a color feature or a geometric feature from among the points included in the three-dimensional target data and the three-dimensional source data.
제11항에 있어서,
상기 제2 변환 데이터를 획득하는 단계는,
평활도, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도 또는 상기 키 포인트에 기초하여 상기 비-강성 정렬을 수행하고,
상기 신뢰도는 상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여 계산된 3차원 정합 방법.
The method of claim 11,
Obtaining the second transformed data,
Performing the non-rigid alignment based on smoothness, reliability for a key point of the 3D source data, or the key point,
The reliability is calculated based on a characteristic of a key point of the 3D target data corresponding to a key point of the 3D source data.
삭제delete 삭제delete 제11항에 있어서,
상기 3차원 정합을 수행하는 단계는,
상기 변환행렬에 기초하여 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 소스 데이터의 포인트에 대응하는 상기 3차원 타겟 데이터의 포인트간의 거리 또는 평활도에 기초하여, 상기 3차원 소스 데이터에 대한 평활처리를 수행하는 3차원 정합 방법.
The method of claim 11,
The step of performing the three-dimensional matching,
Smoothing processing for the 3D source data based on a distance or smoothness between points of the 3D source data converted based on the transformation matrix and points of the 3D target data corresponding to the points of the 3D source data A three-dimensional matching method to perform.
색상에 대한 특징 또는 기하학적 특징에 기초하여, 3차원 소스 데이터 및 3차원 타겟 데이터에 포함된 포인트 중에서 키 포인트를 선택하는 키 포인트 선택부;
상기 3차원 소스 데이터의 키 포인트 및 상기 3차원 타겟 데이터의 키 포인트의 특징 또는 거리에 기초하여, 상기 3차원 타겟 데이터의 키 포인트의 위치를 조절하는 위치 조절부;
상기 3차원 소스 데이터의 키 포인트에 대응하는 상기 3차원 타겟 데이터의 키 포인트의 특징에 기초하여, 상기 3차원 소스 데이터의 키 포인트에 대한 신뢰도를 계산하는 신뢰도 계산부; 및
상기 신뢰도에 기초하여 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하는 3차원 영상 데이터 정합부를 포함하고,
상기 3차원 영상 데이터 정합부는,
상기 키 포인트 및 상기 3차원 타겟 데이터에 기초하여, 상기 3차원 소스 데이터를 정렬하고, 정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 변환행렬을 생성하고, 상기 변환행렬에 기초하여, 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 3차원 정합을 수행하고,
상기 3차원 영상 데이터 정합부는,
상기 변환행렬을 생성하기 위하여, 정렬된 상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터간의 후보 변환행렬을 생성하고, 복수의 상기 후보 변환행렬간의 거리에 기초하여, 복수의 후보 변환행렬 중에서 최종 변환행렬을 결정하고,
상기 3차원 영상 데이터 정합부는,
상기 후보 변환행렬을 생성하기 위하여, 상기 후보 변환행렬에 의해 변환된 상기 3차원 소스 데이터의 포인트 및 상기 3차원 타겟 데이터의 포인트간의 거리, 평활도 및 상기 키 포인트에 기초하여 상기 후보 변환행렬을 생성하는,
3차원 정합(registration) 장치.
A key point selection unit for selecting a key point from among points included in the 3D source data and the 3D target data, based on a color characteristic or a geometric characteristic;
A position adjusting unit configured to adjust a position of a key point of the 3D target data based on a key point of the 3D source data and a characteristic or distance of the key point of the 3D target data;
A reliability calculator configured to calculate a reliability for a key point of the 3D source data based on a characteristic of a key point of the 3D target data corresponding to the key point of the 3D source data; And
A 3D image data matching unit configured to perform 3D matching between the 3D source data and the 3D target data based on the reliability,
The 3D image data matching unit,
Based on the key point and the 3D target data, the 3D source data is aligned, a transformation matrix between the aligned 3D source data and the 3D target data is generated, and based on the transformation matrix, the 3D matching between the 3D source data and the 3D target data,
The 3D image data matching unit,
In order to generate the transformation matrix, a candidate transformation matrix between the aligned 3D source data and the 3D target data is generated, and a final transformation matrix among a plurality of candidate transformation matrices based on the distance between the plurality of candidate transformation matrices To decide,
The 3D image data matching unit,
In order to generate the candidate transformation matrix, generating the candidate transformation matrix based on the distance, smoothness, and key points between points of the 3D source data and points of the 3D target data transformed by the candidate transformation matrix. ,
Three-dimensional registration device.
제17항에 있어서,
상기 3차원 소스 데이터 및 상기 3차원 타겟 데이터에 대하여 전처리를 수행하는 데이터 전처리부
를 더 포함하는 3차원 정합 장치.
The method of claim 17,
A data preprocessing unit that performs preprocessing on the 3D source data and the 3D target data
A three-dimensional matching device further comprising a.
KR1020150178967A 2015-01-15 2015-12-15 Registration method and apparatus for 3D visual data KR102220099B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/994,688 US10360469B2 (en) 2015-01-15 2016-01-13 Registration method and apparatus for 3D image data

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510019073.X 2015-01-15
CN201510019073.XA CN105844582B (en) 2015-01-15 2015-01-15 The register method and device of 3D rendering data

Publications (2)

Publication Number Publication Date
KR20160088226A KR20160088226A (en) 2016-07-25
KR102220099B1 true KR102220099B1 (en) 2021-02-26

Family

ID=56580013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150178967A KR102220099B1 (en) 2015-01-15 2015-12-15 Registration method and apparatus for 3D visual data

Country Status (2)

Country Link
KR (1) KR102220099B1 (en)
CN (1) CN105844582B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102633159B1 (en) * 2016-12-13 2024-02-05 한국전자통신연구원 Apparatus and method for restoring 3d-model using the image-processing
US10424045B2 (en) * 2017-06-21 2019-09-24 International Business Machines Corporation Machine learning model for automatic image registration quality assessment and correction
KR102195168B1 (en) * 2017-11-21 2020-12-24 한국전자통신연구원 3d reconstruction terrain matching method of and apparatus thereof
CN108073914B (en) * 2018-01-10 2022-02-18 成都品果科技有限公司 Animal face key point marking method
CN108416846A (en) * 2018-03-16 2018-08-17 北京邮电大学 It is a kind of without the three-dimensional registration algorithm of mark
KR102276369B1 (en) * 2019-12-27 2021-07-12 중앙대학교 산학협력단 3D Point Cloud Reliability Determining System and Method
KR102334485B1 (en) * 2020-08-20 2021-12-06 이마고웍스 주식회사 Automated method for aligning 3d dental data and computer readable medium having program for performing the method
KR102438093B1 (en) * 2020-08-01 2022-08-30 센스타임 인터내셔널 피티이. 리미티드. Method and apparatus for associating objects, systems, electronic devices, storage media and computer programs
KR102455546B1 (en) * 2020-09-25 2022-10-18 인천대학교 산학협력단 Iterative Closest Point Algorithms for Reconstructing of Colored Point Cloud
KR20220112072A (en) 2021-02-03 2022-08-10 한국전자통신연구원 Apparatus and Method for Searching Global Minimum of Point Cloud Registration Error

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198330A (en) * 2010-03-24 2011-10-06 National Institute Of Advanced Industrial Science & Technology Method and program for collation in three-dimensional registration
CN104021547A (en) * 2014-05-17 2014-09-03 清华大学深圳研究生院 Three dimensional matching method for lung CT

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100559398C (en) * 2007-06-19 2009-11-11 北京航空航天大学 Automatic deepness image registration method
CN102831382A (en) * 2011-06-15 2012-12-19 北京三星通信技术研究有限公司 Face tracking apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011198330A (en) * 2010-03-24 2011-10-06 National Institute Of Advanced Industrial Science & Technology Method and program for collation in three-dimensional registration
CN104021547A (en) * 2014-05-17 2014-09-03 清华大学深圳研究生院 Three dimensional matching method for lung CT

Also Published As

Publication number Publication date
CN105844582A (en) 2016-08-10
CN105844582B (en) 2019-08-20
KR20160088226A (en) 2016-07-25

Similar Documents

Publication Publication Date Title
KR102220099B1 (en) Registration method and apparatus for 3D visual data
KR101997500B1 (en) Method and apparatus for generating personalized 3d face model
KR102068576B1 (en) Convolutional neural network based image processing system and method
JP5506785B2 (en) Fingerprint representation using gradient histogram
Sanchez et al. Planar 3D modeling of building interiors from point cloud data
Prakhya et al. B-SHOT: A binary feature descriptor for fast and efficient keypoint matching on 3D point clouds
Lu et al. GPF: GMM-inspired feature-preserving point set filtering
CN110807473B (en) Target detection method, device and computer storage medium
KR102285376B1 (en) 3d face modeling method and 3d face modeling apparatus
US20160210751A1 (en) Registration method and apparatus for 3d image data
KR102483641B1 (en) Method and apparatus for processing binocular image
KR20160088223A (en) Method and apparatus for pose correction on face image
JP6351350B2 (en) 3D model retrieval system and 3D model retrieval method
KR20170024303A (en) System and method for detecting feature points of face
Zhao et al. Using region-based saliency for 3d interest points detection
KR20170111452A (en) System and method for detecting feature points of face
KR101811135B1 (en) Apparatus and method for simplifying model through optimal level-of-detail decision
JP6320806B2 (en) 3D model search method and 3D model search system
KR101453713B1 (en) Object recognition method and apparatus
KR102466803B1 (en) Method and apparatus for automation of coarse registration based on deep learning in surgical navigation system
JP2019105992A (en) Image processing device, image processing program and image processing method
KR102389295B1 (en) Method and Apparatus for Instance Segmentation Based Object Size Estimation from Single Indoor Image
JP6499599B2 (en) Object recognition device, three-dimensional point cloud modeling device, method, and program
KR20170090976A (en) Method for acquiring image disparity and apparatus for the same
KR101783629B1 (en) System and method for detecting feature points of face

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right