KR20150024349A - 데이터를 위치 맞춤하는 방법 - Google Patents

데이터를 위치 맞춤하는 방법 Download PDF

Info

Publication number
KR20150024349A
KR20150024349A KR1020147036524A KR20147036524A KR20150024349A KR 20150024349 A KR20150024349 A KR 20150024349A KR 1020147036524 A KR1020147036524 A KR 1020147036524A KR 20147036524 A KR20147036524 A KR 20147036524A KR 20150024349 A KR20150024349 A KR 20150024349A
Authority
KR
South Korea
Prior art keywords
point
primitives
data
align data
alignment
Prior art date
Application number
KR1020147036524A
Other languages
English (en)
Other versions
KR101643079B1 (ko
Inventor
유이치 다구치
스리쿠마르 라말링암
용-디안 지안
첸 펭
Original Assignee
미쓰비시덴키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미쓰비시덴키 가부시키가이샤 filed Critical 미쓰비시덴키 가부시키가이샤
Publication of KR20150024349A publication Critical patent/KR20150024349A/ko
Application granted granted Critical
Publication of KR101643079B1 publication Critical patent/KR101643079B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

제 1 좌표계에 있어서의 데이터로부터, 적어도 1개의 면과, 적어도 1개의 점과, 점 또는 면의 어느 하나인 제 3 프리미티브를 포함하는 프리미티브의 제 1 집합을 선택하고, 제 2 좌표계에 있어서의 데이터로부터, 적어도 1개의 면과, 적어도 1개의 점과, 프리미티브의 제 1 집합 내의 제 3 프리미티브에 대응하는 제 3 프리미티브를 포함하는 프리미티브의 제 2 집합을 선택하는 것에 의해 3차원 데이터가 위치 맞춤된다. 다음으로, 점과 마찬가지로 면을 서로 위치 맞춤하여, 위치 맞춤된 프리미티브를 얻는다.

Description

데이터를 위치 맞춤하는 방법{METHOD FOR REGISTERING DATA}
본 발명은, 포괄적으로는 3차원(3D) 데이터의 위치 맞춤에 관한 것이고, 보다 상세하게는, 리얼타임 재구성 용도를 위해 3D 점 및 3D 면을 서로 위치 맞춤하는 것에 관한 것이다.
3D 재구성
장면(scene)의 대화형 및 리얼타임의 3D 재구성은, 다수의 용도, 예컨대 로봇 공학, 증강 현실, 의학 화상 및 컴퓨터 비전에 있어서 이용된다. 리얼타임의 조밀한 3D 재구성은, 카메라 등의 패시브 센서를 이용할 수 있다. 그렇지만, 패시브 센서는, 텍스처가 없는 영역을 재구성하는 것이 곤란하다.
텍스처가 없는 영역을 재구성하는 경우, 액티브 3D 센서를 이용할 수 있다. 예컨대, Microsoft Xbox를 위한 Kinect 센서는, IR 패턴을 이용하여 센서의 시점으로부터의 깊이 맵(depth map)으로서 3D 데이터를 리얼타임으로 취득한다.
다른 문제는, 처리 시간, 메모리 요건 및 정확도에 관한 것이다. 시야 및 분해능(resolution)에 기인하여, 3D 센서는 통상, 장면의 부분 재구성을 생성한다. 연속 부분 깊이 맵과 장면의 모델을 조합할 수 있는 정확하고 고속의 위치 맞춤 방법을 제공하는 것이 바람직하다. 관성 센서는 드리프트하기 쉽다. 따라서, 정확한 위치 맞춤을 위해서는, RGB(텍스처) 화상 또는 깊이 맵에 있어서의 특징에 의지할 필요가 있다. 또한, 깊이 맵은 통상, 잡음이 많고, 고차의 공간 제약을 일절 갖지 않는다. 또한, 점군(point cloud)은 매우 큰 메모리를 필요로 하고, 압축하는 것이 곤란하다.
3D 대 3D의 위치 맞춤
국소(local)
3D 데이터의 얼라인먼트 또는 위치 맞춤은, 컴퓨터 비전 용도에 있어서의 기본적인 문제이고, 이것은 몇 개의 방법을 이용하여 해결할 수 있다. 위치 맞춤 방법은 국소적(local) 또는 전역적(global)으로 할 수 있다. 국소적 방법은, 양호한 초기화로부터 개시하여, 비교적 작은 반복 운동을 이용하여 2개의 3D 점군을 위치 맞춤하여야 한다. 이것은, 양호한 초기 해(initial solution)를 이용하여 전역 해(global solution)에 수속되는 비선형 최소화 방법과 유사하다. 가장 일반적인 국소적 방법은 반복 최근 방점(ICP : Iterative Closest Point)법이고, 이 방법은, 폐형식 해(closed-form solution)를 이용하여 대응하는 3D 점 및 운동을 반복적으로 구한다.
전역(global)
전역적 방법은 통상, 3D 점군 전체를 검토하고, 몇 개의 주요한 기하학적 특징(프리미티브)을 특정하고, 점군에 걸쳐서 특징을 매칭하고, 랜덤 샘플 컨센서스(RANSAC : RANdom SAmple Consensus) 수순을 이용하여, 대응의 최소 집합을 이용한 최적의 가설을 생성한다. 전역적 방법에 의해 얻어지는 개략적인 위치 맞춤 후, 통상, 국소적인 비선형 정치화(refinement)가 계속된다. 전역적 방법은, 국소적 방법과 달리, 초기화를 필요로 하지 않는다. 그렇지만, 전역적 방법은, 잘못된 대응 및 불충분한 대응에 의한 피해를 입을 가능성이 있다. 전역적 방법에 있어서 통상 이용되는 기하학적 프리미티브는, 점, 선 또는 면 중 하나이다.
동종의 대응 및 이종의 대응을 이용한 몇 개의 전역적 위치 맞춤 방법이 알려져 있다. 예컨대, 점 대 점, 선 대 선, 면 대 면, 점 대 선, 점 대 면 또는 선 대 면의 대응을 소여로 한 위치 맞춤의 폐형식 해를 구하는 것이 가능하다. 1개의 방법은, 분기 한정법(branch-and-bound)을 이용하여, 점 대 점, 점 대 선, 및 점 대 면의 대응으로부터 전역 최적 해를 얻는다. 다른 방법은, 분기 한정법을 이용하여, 최적의 대응 및 점 대 점 위치 맞춤 문제로의 변환을 얻는다.
3D 센서를 이용한 SLAM
이동 로봇 공학에 있어서, 몇 개의 3D 센서 기반의 방법은, 센서의 움직임을 구하고, 장면 구조를 재구성하기 위해, 동시 위치 추정 및 지도 작성(SLAM : Simultaneous Localization And Mapping) 시스템을 이용한다. 이들 방법은 통상, 점 프리미티브, 선 프리미티브 또는 면 프리미티브 등의 기하학적 특징을 이용한다. 2D 레이저 스캐너 또는 초음파 센서 등의 3D 데이터의 평면 슬라이스를 제공하는 3D 센서는, 평면의 3 자유도(DOF : degrees-of-freedom)의 움직임을 구하는데 이용할 수 있다. 구조화 광 스캐너, 이동 스테이지에 장착된 2D 레이저 스캐너 및 Kinect 센서 등의, 완전한 3D 점군을 제공하는 3D 센서는, 6 DOF의 움직임을 구하는데 이용할 수 있다.
RGB-D 매핑은, RGB 화상으로부터 키 점(keypoint)을 추출하고, 깊이 맵을 이용하여 이들 점을 3D에 있어서 역 투영하고, 3개의 점 대 점의 대응을 이용하여, RANSAC 수순을 이용하여 자세의 초기 추정값을 구한다. 이 초기 추정값은, ICP법을 이용하여 더 정치화된다.
다른 방법은, SLAM 시스템에 있어서, 3D 센서와의 3개의 면 대 면의 대응을 이용한다. 그 방법은, 면 사이의 기하학적 제약을 이용하여 대응 문제에 대처한다.
다른 방법은, 면 및 선분의 양쪽을 프리미티브로서 이용하는, SLAM 시스템을 위한 보다 작은 시야(FOV)의 3D 센서 및 보다 큰 FOV의 2D 레이저 스캐너의 조합을 이용한다. 그 방법은, 국소적인 위치 맞춤 문제를 해결하는 연속 SLAM 시스템을 위해 설계되어, 전역적인 위치 맞춤을 해결할 수 없다.
Kinect Fusion은, 조밀 ICP법을 이용하는 것에 의해, 현재의 깊이 맵을, 전역적인 트런케이트된 부호형 거리 함수(TSDF : Truncated Signed Distance Function) 표현으로부터 생성된 가상 깊이 맵과 위치 맞춤한다. TSDF 표현은, 위치 맞춤된 모든 이전의 깊이 맵을 전역 좌표계에 통합하고, 단일 화상을 이용하는 것보다 고품질의 깊이 맵 생성을 가능하게 한다.
ICP법의 몇 개의 다른 변형이 알려져 있지만, 이들 변형은 여전히, 2개의 3D 점군이 별개일 때의 국소적 최소값 문제에 의한 피해를 입는다. 점에만 의거하는 위치 맞춤 방법 또는 SLAM 시스템은, 텍스처가 없는 영역 또는 반복 패턴을 갖는 영역에 있어서의 불충분한 대응 또는 부정확한 대응에 의한 피해를 입는다. 면에 근거하는 기술은, 불충분한 수의 평행이 아닌 면을 포함하는 장면에 있어서, 축퇴(degeneracy) 문제에 의한 피해를 입는다.
Kinect 센서 등의 3D 센서를 이용하면, 깊이 불연속성 부근의 잡음이 많은 깊이 값 또는 결핍된 깊이 값에 기인하여, 선 대응을 얻는 것이 곤란하다.
본 발명의 실시 형태는, 2개의 상이한 좌표계에 있어서 데이터를 위치 맞춤하는 방법을 제공한다. 본 방법은, 점 및 면의 양쪽을 위치 맞춤 프리미티브로서 이용한다. 본 방법은, 3D 센서를 이용하는, 동시 위치 추정 및 지도 작성(SLAM) 시스템에 의해 이용할 수 있다. SLAM 시스템은 본 발명에 의한 위치 맞춤 방법의 응용 형태이다.
본 방법을 이용하면, 적어도 3개의 점 및 면 프리미티브의 임의의 조합, 즉, 3면, 2면 및 1점, 1면 및 2점, 및 3점을 이용하여 2개의 상이한 좌표계에 있어서의 3D 데이터 집합을 위치 맞춤하는 것이 가능하다. 본 방법은, 특히, 적어도 2개의 3D 점 및 적어도 1개의 3D 면, 또는 적어도 1개의 3D 점 및 적어도 2개의 3D 면인 혼합(이종) 프리미티브의 집합에 관한 것이다.
즉, 본 방법은, 3개의 프리미티브의 최소 집합과, RANSAC 수순을 이용하여 3D 데이터를 위치 맞춤하고, 장면을 재구성할 수 있다. 3D 데이터에 있어서, 면의 수는 점의 수보다 대폭 작으므로, 바람직한 실시 형태에 의해 이용되는 RANSAC 수순은, 점보다 많은 면, 예컨대, 최저한 2개의 면 및 1개의 점을 포함하는 프리미티브의 조합을 이용한다.
위치 맞춤을 위한 주로 점을 이용하는 종래 기술에 의한 방법과 대조적으로, 본 방법은 이하의 이점을 갖는다. 대응 검색 및 위치 맞춤은, 면 프리미티브가 보다 적은 것에 기인하여 보다 고속이고, 리얼타임으로 실행할 수 있다. 본 방법은, 점 베이스의 모델보다 콤팩트한 면 베이스의 3D 모델을 생성한다. 본 방법은, 종래 기술에 있어서의 국소적인 위치 맞춤 방법에 있어서의 국소적 최소값 또는 초기화 문제에 의한 피해를 입는 일이 없는 전역적인 위치 맞춤을 제공한다.
본 발명은, 2개의 상이한 좌표계 내의 3D 데이터를 위치 맞춤하는데, 점 및 면의 양쪽을 프리미티브로서 이용하는 위치 맞춤 방법을 제공한다. 위치 맞춤 방법을 이용하여, 위치 맞춤을 위해 점 대 점 및 면 대 면의 양쪽의 대응을 이용하는 3D 센서를 위한 리얼타임 SLAM 시스템이 개발된다. 양쪽의 프리미티브를 이용하는 것에 의해, 점만을 이용하는 것보다 보다 고속으로 보다 정확한 위치 맞춤이 가능하게 된다. 본 발명에 의한 SLAM 시스템은, 3D 모델을 면의 집합으로서 생성하고, 이것은 엄밀하게 점 베이스의 표현보다 콤팩트하고 의미적인 장면 정보를 제공한다.
본 발명은, 3개의 3D 점/면 프리미티브의 임의의 조합이, 2개의 상이한 좌표계 사이의 위치 맞춤을 가능하게 하는 것을 나타내고 있다. 본 발명은 또한, 3D 점 및 3D 면의 양쪽을 이용하여 복수의 좌표계 사이의 위치 맞춤을 공동으로 최적화하는 번들 조정 프레임워크를 나타내고 있다. 번들 조정 프레임워크는, 평행성 및 직교성 등의 3D 면 사이의 기하학적 제약을 실시하여, 인공적인 환경의 경우의 위치 맞춤 정확도를 더욱 개선할 수 있다.
면을 이용하는 것에 의해, 보다 고속의 재구성 및 콤팩트한 모델화의 양쪽이 가능하게 된다. 반복 최근 방점(ICP)법 등의 국소적 방법은, 3D 센서의 고속 운동하에서 국소적 최솟값 문제가 생기기 쉬운 한편, 본 발명에 의한 위치 맞춤 방법은, 전역 해를 제공하여, 국소적 최소값 문제를 회피한다.
본 방법은, 이미 위치 맞춤된 3D 점군으로부터 면 프리미티브를 추출하는 방법과 상이하다. 대신에, 본 방법은, 위치 맞춤을 위해 개개의 3D 점군으로부터 선택된 면 프리미티브 및 점 프리미티브를 이용한다. 위치 맞춤에 있어서 점과 함께 면을 이용하는 것에 의해, 점만을 이용하는 것보다 효율적으로 정확한 위치 맞춤이 가능하게 된다.
도 4에 나타내는 바와 같이, 본 발명에 의한 SLAM 시스템의 출력은, 위치 맞춤된 점군(401)과, 장면의 면 베이스의 표현(402)이다. 면 베이스의 표현은, 점 베이스의 표현보다 콤팩트하고 의미적인 정보를 제공한다. 표현은 리얼타임으로 생성된다.
본 발명은 점 및 면의 양쪽을 이용하므로, 종래 기술의 방법에 있어서 존재하는 실패는 회피된다. 이 혼합 모드 위치 맞춤은 신규이다.
위치 맞춤에 대한 폐형식 해는, 점 대 점 대응 및 면 대 면 대응에 대하여 통일된 방식으로 주어진다.
도 1은 본 발명의 실시 형태에 의한 위치 맞춤 방법의 개략도이다.
도 2는 본 발명의 실시 형태에 의한 위치 맞춤 방법을 이용한 동시 위치 추정 및 지도 작성(SLAM) 시스템의 흐름도이다.
도 3은 본 발명의 실시 형태에 의해 이용되는 RANSAC 수순의 개략도이다.
도 4는 본 발명의 실시 형태에 의한 면 베이스 및 점 베이스의 혼합 모델의 개략도이다.
본 발명의 실시 형태는, 2개의 상이한 좌표계에 있어서 3D 데이터를 위치 맞춤하기 위한 방법을 제공한다. 도 1에 나타내는 바와 같이, 본 방법은, 해당 기술 분야에 있어서 알려진 메모리 및 입/출력 인터페이스에 접속된 프로세서(150)에 있어서 실행할 수 있다.
도 1은 위치 맞춤 방법(100)의 개략도를 나타내고 있다. 이 위치 맞춤 방법은, 2개의 상이한 좌표계에 있어서 3D 데이터로부터 선택된 적어도 3개의 프리미티브의 2개의 집합을 이용하는 것에 의해, 2개의 상이한 좌표계(101 및 102) 사이의 6-DOF의 강체 변환(rigid body transformation)(105)을 구한다. 프리미티브는 3D 점(110) 및 3D 면(120)을 포함한다. 각 집합 내의 3개의 프리미티브는, 적어도 1개의 3D 면과, 적어도 1개의 3D 점과, 점 또는 면의 어느 한쪽일 수 있는 제 3 프리미티브를 포함한다. 2개의 집합 내의 면은 면과 위치 맞춤되고, 점은 점과 위치 맞춤된다. 위치 맞춤 방법은 전역적으로 할 수 있고, 리얼타임으로 실행할 수 있다.
도 2에 나타내는 바와 같이, 위치 맞춤 방법은, 동시 위치 추정 및 지도 작성(SLAM) 시스템에 의해 이용할 수 있다. SLAM 시스템은, 본 발명에 의한 위치 맞춤 방법의 응용 형태이다. 본 시스템은, 해당 기술 분야에 있어서 알려진 메모리 및 입/출력 인터페이스에 접속된 프로세서(200)에 있어서 실시할 수 있다. SLAM 시스템으로의 예시적인 입력(201)은, 1개 또는 복수의 깊이 맵(202)의 집합이다. 깊이 맵은, 맵 내의 각 픽셀의 깊이 값(거리)을 기술하고, 이에 의해, 맵 내의 픽셀을 그들의 깊이 값에 따라서 역 투영하는 것에 의해, 3D 점군을 제공한다. SLAM 시스템은 옵션으로, 깊이 맵에 대응하는 1개 또는 복수의 2D 텍스처 화상(203)의 집합을 취득할 수 있다. 텍스처 화상은 그레이 스케일로 할 수도 있고, 또는 RGB 컬러 채널을 가질 수도 있다. 깊이 맵은, 3D 센서, 예컨대 패시브 스테레오 카메라(204) 또는 액티브 IR 스캐너 또는 액티브 레이저 스캐너(205)에 의해 취득할 수 있는 한편, 텍스처 화상은, 카메라, 예컨대 스테레오 카메라(204)에 있어서의 단일 카메라 또는 전용 카메라(206)에 의해 취득할 수 있다. 3D 센서 및 카메라는, 사람이 손으로 들 수도 있고, 기계, 예컨대 로봇 암 또는 기계적으로 이동하는 스테이지에 의해 유지할 수도 있다. 주요한 개념은, 가동 센서에 의해서 입력을 취득할 수 있고, 본 발명에 의한 위치 맞춤 방법은, 센서의 움직임을 구하여, 상이한 시점에 있어서 취득된 3D 점군을 위치 맞춤하는 것에 의해 장면을 재구성하는 것이다.
본 발명에 의한 SLAM 시스템은, 입력으로부터 3D 점 프리미티브 및 3D 면 프리미티브의 집합(측정값(211)으로 불린다)을 선택하고(210), 그들 점 및 면을, 전역 맵(225)에 있어서의 점 프리미티브 및 면 프리미티브의 집합(랜드마크(221)로 불린다)에 대하여 위치 맞춤한다(220). 각 집합은, 적어도 1개의 3D 점과 적어도 1개의 3D 면을 포함한다. 집합 내의 제 3 프리미티브는 모두 점이거나 또는 모두 면일 수 있다. 위치 맞춤은, 2개의 집합에 있어서 점끼리 위치 맞춤하고, 2개의 집합에 있어서 면끼리 위치 맞춤하는 것에 의해 실행된다.
SLAM 시스템은, 최소 3개의 프리미티브를 이용한 랜덤 샘플 컨센서스(RANSAC) 수순(220)에 의해 위치 맞춤 방법을 실행한다. 추가의 입력이 취득되면, 최적화(230)를 전역 맵에 적용할 수 있다.
3D 점
본 발명에 의한 SLAM 시스템은, 3D 점 프리미티브를 얻기 위해, 3D 점군 내의 1개 또는 복수의 키 점을 선택한다. 키 점은, 텍스처 화상을 이용하는 일 없이 3D 점군으로부터 3D 키 점 검출기를 이용하여 선택할 수 있다. 예시적인 3D 키 점 검출기는, 법선이 얼라인된 레이디얼 특징(NARF : Normal Aligned Radial Feature) 및 3D 고속화 로버스트 특징(SURF : Speeded Up Robust Feature)을 포함한다. 대안적으로, 시스템은, 2D 키 점 검출기를 이용하여 각 텍스처 화상으로부터 2D 키 점을 선택하고, 대응하는 깊이 값을 이용하여 키 점을 역 투영하여, 3D 점 프리미티브를 얻을 수 있다. 예시적인 2D 키 점 검출기는, 스케일 불변 특징 변환(SIFT : Scale-Invariant Feature Transform) 및 고속화 로버스트 특징(SURF)을 포함한다. 이들 3D 키 점 검출기 및 2D 키 점 검출기는, 검출된 키 점마다의 특징 기술자(descriptor)도 제공한다.
각 점 프리미티브는, 키 점의 위치 pm 및 기술자 Dm, 즉 (pm, Dm)에 의해 나타내진다. 기술자는, 측정값과 랜드마크의 사이에서 3D 점 프리미티브를 매칭하는데 이용할 수 있다.
3D 면
3D 점군으로부터 면을 선택하기 위해, 이하의 반복 수순을 이용한다.
1. 3D 점군에 있어서 기준점(reference point)의 집합을 랜덤으로 선택한다;
2. 로컬 윈도우 내의 근방점(nearby point)을 이용하여 기준점마다 최적의 면을 구한다;
3. 깊이 맵의 격자 그래프에 관하여 기준점과의 연결 성분을 형성하는 모든 인라이어(inlier)를 구한다;
4. 충분한 수의 최대수의 인라이어를 갖는 최적의 면을 특정한다; 및
5. 3D 점군으로부터 인라이어를 제거한다.
각 면 프리미티브는, 면 파라미터 πm 및 인라이어의 집합 Im에 의해 나타내진다. 면 파라미터는 4D 벡터
Figure pct00001
를 형성하고, 여기서 nm은 단위 법선 벡터이고, dm은 좌표계의 원점에 대한 거리이다.
위치 맞춤
센서의 자세(240)(즉, 전역 맵의 좌표계에 대한 6-DOF 강체 변환)는, 측정값에 있어서의 프리미티브를, 전역 맵 내의 랜드마크에 있어서의 프리미티브와 위치 맞춤하는 것에 의해 구해진다. 점 및 면의 양쪽을 이용한 본 발명에 의한 위치 맞춤 방법 및 본 발명에 의한 RANSAC 수순이 이하에 설명된다.
맵 갱신
본 발명에 의한 SLAM 시스템은, 키 프레임으로부터 선택된 점 프리미티브 및 면 프리미티브를 합산하는 것에 의해 전역 맵을 갱신한다(250). 현재의 프레임은, 자세가 이전의 키 프레임과 충분히 상이한(예컨대, 현재의 프레임의 병진(translation) 및 회전이 이전의 키 프레임의 병진 및 회전과 임계값보다 크게 상이한) 경우에만 키 프레임으로 간주된다. 각 점 랜드마크는, 위치 pl 및 기술자 Dl에 의해 (pl, Dl)로서 나타내진다. 각 면 랜드마크는, 면 파라미터
Figure pct00002
및 인라이어의 집합 Il에 의해 (πl, Il)로서 나타내진다.
맵 최적화
모든 키 프레임 사이의 위치 맞춤을 공동으로 정치화하기 위해, 본 발명에 의한 SLAM 시스템은, 점 및 면의 양쪽을 이용하여 번들 조정에 의해 최적화(230)를 실행한다. 번들 조정은, 위치 맞춤 방법을 이용한 카메라 자세의 추적을 위해, 메인 스레드와 별개의 스레드에 있어서 비동기적으로 실행된다. 번들 조정의 상세는 이하에 설명된다.
점 및 면을 이용한 위치 맞춤
본 발명에 의한 위치 맞춤 방법은, 점 대 점의 대응 및 면 대 면의 대응을 이용하고, 폐형식 해를 제공한다. 본 방법은, 3개 이상의 대응에 적용 가능하다. 이 때문에, 본 방법을 이용하여, 본 발명에 의한 RANSAC 수순에 있어서 최소수의 3개의 대응을 이용하여 가설을 생성하고, RANSAC 수순에 의해 주어진 초기 가설을 모든 인라이어 대응을 이용하여 정치화할 수 있다.
점 대 점의 대응 및 면 대 면의 대응이 혼합되어 있는 경우의 폐형식 해
{pi} 및 {p'i}, i=1, …, M을 대응하는 3D 점으로 하고,
Figure pct00003
Figure pct00004
, j=1, …, N을 2개의 상이한 좌표계에 있어서의 대응하는 3D 면으로 한다. 좌표계 사이의 6-DOF 강체 변환 [R, t]를 구한다. 여기서, R은 3×3의 회전 행렬이고, t는 3×1의 병진 벡터이다.
개개의 경우의 해
점 대 점 대응의 경우, 회전 성분 및 병진 성분은 분리할 수 있다.
Figure pct00005
Figure pct00006
가 3D 점집합의 중심이고,
Figure pct00007
Figure pct00008
인 것으로 한다. 이때, 회전의 사원수(quaternion) 표현 또는 특이값 분해(SVD : Singular Value Decomposition)를 이용하는 것에 의해, 오차를 최소로 하는 회전의 최소제곱해(least-squares solution)가 얻어진다.
Figure pct00009
추정되는 회전
Figure pct00010
를 이용하면, 병진은 회전된 중심 사이의 차이
Figure pct00011
이다.
면 대 면 대응의 경우, 회전은 오차를 최소로 하는 것에 의해 얻어진다.
Figure pct00012
이것은 점 대 점 대응의 경우와 마찬가지로 풀 수 있다. 병진을 구하기 위해, 3개 이상의 면에 대하여 이하의 선형 제약을 스택하고, 연립 일차 방정식(linear system)를 풀 수 있다.
Figure pct00013
여기서, T는 전치 연산자이다.
혼합된 경우의 해
혼합된 경우, 점 대 점 대응 및 면 대 면 대응을 갖는다. 개개의 사례에 있어서 이용되는 분해를 이용하여 회전 및 병진을 구한다. 회전을 구하기 위해, 식 (1) 및 식 (3)을 이하와 같이 조합한다.
Figure pct00014
여기서, wj는 면의 가중치이고, 면 대응마다 변경할 수 있다. 식 (5)는, 식 (1) 및 식 (3)과 동일한 형식을 공유하고, 최적의 회전이 동일하게 얻어진다. 상세하게는, 3×3의 상관 행렬 K를 이하와 같이 정의한다.
Figure pct00015
K=UDVT가 K의 특이값 분해(SVD)인 것으로 한다. 이때, 최적의 회전
Figure pct00016
는 이하가 된다.
Figure pct00017
병진 t를 구하기 위해, 이하의 오차를 최소로 한다.
Figure pct00018
이것은, 대각 가중치 행렬 W=diag(M, M, M, w1, …, wN)를 이용하여 이하의 연립 일차 방정식을 정의하는 것에 대응한다.
Figure pct00019
이때, 가중치 최소제곱해는 t=(ATWA)-1ATWb이다.
축퇴 문제
R 및 t를 특유하게 선택하기 위해, 식 (6)에 있어서의 상관 행렬 K 및 식 (9)에 있어서의 행렬 A는 일정한 조건을 만족시켜야 한다. R을 특유하게 구하려면, 상관 행렬 K의 계수가 1보다 크고, 또한 이하의 조건 중 적어도 1개가 참이어야 한다.
1. det(UVT)=1
2. K의 최소 특이값이 단일해(simple root)이다.
병진 t를 특유하게 구하기 위해, 식 (9)에 있어서의 행렬 A는 계수 3이어야 한다.
행렬 K 및 A는, 대응이 이하의 것, 즉 3면과, 2면 및 1점과, 1면 및 2점과, 3점 중 적어도 1개를 갖는 경우, 상기의 특성을 만족시킨다. 본 발명에 의한 SLAM 시스템에 있어서의 RANSAC 수순에 있어서, 이들의 최소수의 대응을 이용하여 가설을 생성한다.
RANSAC 수순
2D 화상 공간에만 있어서의 대응과 대조적으로, 본 발명에 의한 3D 프리미티브는, 오합치(false match)를 특정하는데 이용할 수 있는 몇 개의 불변량(invariant)을 제공한다. 2개의 상이한 좌표계에 있어서의 대응하는 점 및 면을 소여로 하여, 1개의 좌표계에 있어서 구해지는 특정한 기하학적 엔티티는, 제 2 좌표계에 있어서의 대응하는 엔티티와 실질적으로 합치하여야 한다.
각 좌표계에 있어서, 이하의 3개의 불변량, 즉, 2점 사이의 거리에 근거하는 I1과, 점과 면의 사이의 거리에 근거하는 I2와, 2개의 면 법선(plane normal) 사이의 각도에 근거하는 I3을 특정한다.
대응하는 기하학적 프리미티브는, 불변량 벡터 I=(i1, i2, i3)과 관련지을 수 있고, 여기서, i1, i2 및 i3은, 각각 타입 I1, I2 및 I3에 관한 불변량의 수에 대응한다.
점 및 면을 포함하는 모든 대응하는 3개 조가, 합계 3개의 불변량, 즉, 3점 : I=(3, 0, 0)과, 1면 및 2점 : I=(1, 2, 0)과, 2면 및 1점 : I=(0, 2, 1)과, 3면 : I=(0, 0, 3)을 갖는다.
해석 트리(interpretation tree) 또는 분기 한정법을 이용하여, 이들 불변량을 이용하여 오합치를 특정할 수 있다. 본 발명에 의한 RANSAC 수순의 경우, 단순한 해석 트리 기반의 전정(pruning)을 이용한다.
불변량에 근거하여 비합치(mismatch)를 삭제하기 전에, 몇 개의 초기 대응을 얻는다. 점의 경우, SURF 기술자를 이용하여 대응을 얻는다. 면의 경우, 모든 가능한 대응으로부터 개시하여, 불변량에 근거하여 비합치를 삭제한다. 3개의 면을 이용하는 RANSAC 수순은, 3개의 점을 이용하는 RANSAC 수순보다 훨씬 고속이다. 왜냐하면, 3D 데이터 내의 면의 수가 통상, 대응하는 점의 수보다 훨씬 적기 때문이다. 또한, 면은 많은 점에 의해 생성되므로, 면은 3D 데이터에 있어서의 잡음에 의해 받는 영향이 보다 적고, 보다 정확한 위치 맞춤으로 이어진다. 따라서, 도 3에 나타내는 바와 같이, 입수 가능한 경우, 프리미티브의 3개 조를 이용하여, 이하의 바람직한 순서, 즉 3면(301), 2면 및 1점(302), 1면 및 2점(303), 또는 3점(304)의 순서로 RANSAC 수순을 초기화한다.
RANSAC 수순의 종료 조건은, 샘플링되는 소정의 최소수의 대응으로 할 수 있다.
점 및 면을 이용한 번들 조정
본 발명에 의한 SLAM 시스템은, 번들 조정에 있어서 이하의 변수, 즉, 점 랜드마크
Figure pct00020
와, 면 랜드마크
Figure pct00021
와, 키 프레임 자세
Figure pct00022
를 최적화한다.
여기서,
Figure pct00023
는 k번째의 키 프레임의 병진의 (x, y, z) 성분이고,
Figure pct00024
는 (x, y, z)축을 중심으로 한 회전을 나타낸다. k번째의 키 프레임의 회전 행렬 Rk
Figure pct00025
에 의해 나타내진다.
각 점/면 랜드마크에 관련된 점/면 프리미티브를 이용한 야코비안 행렬(Jacobian matrix)을 이하와 같이 구한다.
점 랜드마크
점 랜드마크의 경우, 점 랜드마크
Figure pct00026
와 k번째의 키 프레임에 있어서의 관련되는 점
Figure pct00027
사이의 유클리드 거리(Euclidean distance) 오차를 최소로 한다. 이것은 이하가 된다.
Figure pct00028
랜드마크의 현재의 추정값
Figure pct00029
및 키 프레임 자세의 현재의 추정값
Figure pct00030
를 이용하는 것에 의해, 식 (10)을 이하와 같이 선형화한다.
Figure pct00031
여기서,
Figure pct00032
Figure pct00033
이다.
식 (11)로부터, (x, y, z) 성분마다 별개로 3개의 식이 얻어진다. x 성분에 대한 식은 이하이고,
Figure pct00034
y 성분 및 z 성분에 대한 식도 마찬가지로 얻을 수 있다.
면 랜드마크
면 랜드마크의 경우, 면 랜드마크와, 키 프레임에 있어서의 관련된 면으로부터 샘플링된 3D 점의 사이의 거리의 합에 의해 정의되는 기하학적 오차를 최소로 한다. 상세하게는, 면 프리미티브
Figure pct00035
의 인라이어 3D 점으로부터 3D 점
Figure pct00036
를 균일하게 샘플링하고, 각 샘플링된 점과, 관련된 면 랜드마크
Figure pct00037
의 사이의 거리를 구한다. 이 때문에, 최소화하는 기하학적 오차는 이하가 된다.
Figure pct00038
식 (14)를, 면 랜드마크의 현재의 추정값
Figure pct00039
및 키 프레임 자세의 현재의 추정값
Figure pct00040
를 이용하여 이하와 같이 선형화한다.
Figure pct00041
여기서,
Figure pct00042
이다. 간략화하면, 이하를 얻는다.
Figure pct00043
면 랜드마크 사이의 기하학적 제약
본 발명에 의한 SLAM 시스템은 옵션으로, 번들 조정에 있어서의 면 랜드마크 사이의 기하학적 제약을 실시할 수 있다. 기하학적 제약은 평행성 및 직교성을 포함한다. 직교하는 면 또는 평행한 면은, 인공적인 환경에 있어서 일반적으로 관찰할 수 있고, 이 인공적인 환경에서는, 기하학적 제약을 실시하는 것은, 정확한 위치 맞춤을 얻는데 유용하다.
면 랜드마크
Figure pct00044
Figure pct00045
의 모든 쌍에 대하여, 소정의 임계값을 이용하여, 2개의 면의 법선 벡터 사이의 각도가 0도(평행)에 충분히 가깝거나 또는 90도(직교)에 충분히 가까운지를 체크한다. 참인 경우, 이하의 제약을 실시한다.
Figure pct00046
여기서, 2개의 면이 평행에 충분히 가까운 경우, S=1인 한편, 2개의 면이 직교에 충분히 가까운 경우, S=0이다.
2개의 면 랜드마크의 현재의 추정값
Figure pct00047
Figure pct00048
를 이용하여, 식 (17)을 이하와 같이 선형화한다.
Figure pct00049
간략화하면, 식 (18)은 이하가 된다.
Figure pct00050
해(solution)
모든 랜드마크 및 키 프레임에 있어서 식 (13), 식 (16) 및 식 (19)를 스택하면, 연립 일차 방정식 JΔ=-εO가 얻어진다. 여기서, 야코비안 행렬은 J이고, 오차 벡터는 εO이고, 갱신 벡터는
Figure pct00051
이다. 가우스-뉴턴법(Gauss-Newton method)을 이용하여 최적화 문제를 푼다.
실시 형태
본 발명에 의한 리얼타임의 SLAM 시스템은, 640×480의 픽셀 분해능을 갖는 텍스처 화상 및 깊이 맵을 이용한다. 위치 맞춤에 성공하면, 현재의 점군 위에 겹쳐진 점 랜드마크 및 면 랜드마크를 시각화한다. 본 발명에 의한 SLAM 시스템은 항상, 전역 맵에 대하여 프레임마다 전역 위치 맞춤을 구한다. 이 때문에, 위치 맞춤의 실패는 후속 입력에 영향을 주지 않는다. 본 발명에 의한 SLAM 시스템은, 장면의 면 베이스의 표현으로서, 재구성된 면 랜드마크를 제공한다. 이것은 보다 콤팩트하고, 장면의 점 베이스의 표현보다 많은 의미적 정보를 제공한다.

Claims (20)

  1. 데이터를 위치 맞춤하는 방법으로서,
    상기 데이터는 3개의 차원을 갖고,
    상기 방법은,
    제 1 좌표계에 있어서의 상기 데이터로부터 프리미티브의 제 1 집합을 선택하는 단계로서, 상기 프리미티브의 제 1 집합은, 적어도 1개의 면과, 적어도 1개의 점과, 점 또는 면의 어느 하나인 제 3 프리미티브를 포함하는 단계와,
    제 2 좌표계에 있어서의 상기 데이터로부터 프리미티브의 제 2 집합을 선택하는 단계로서, 상기 프리미티브의 제 2 집합은, 적어도 1개의 면과, 적어도 1개의 점과, 상기 프리미티브의 제 1 집합 내의 상기 제 3 프리미티브에 대응하는 제 3 프리미티브를 포함하는 단계와,
    상기 프리미티브의 제 1 집합 및 상기 프리미티브의 제 2 집합에 있어서, 면을 서로 위치 맞춤함과 아울러 점을 서로 위치 맞춤하여, 위치 맞춤된 프리미티브를 얻는 단계
    를 포함하는
    데이터를 위치 맞춤하는 방법.
  2. 제 1 항에 있어서,
    상기 위치 맞춤은 동시 위치 추정 및 지도 작성(SLAM) 시스템에 있어서 이용되는
    데이터를 위치 맞춤하는 방법.
  3. 제 1 항에 있어서,
    상기 위치 맞춤은 전역적(global)인
    데이터를 위치 맞춤하는 방법.
  4. 제 1 항에 있어서,
    상기 위치 맞춤은 리얼타임인
    데이터를 위치 맞춤하는 방법.
  5. 제 2 항에 있어서,
    상기 데이터를 깊이 맵(depth map)으로서 취득하는 단계를 더 포함하는
    데이터를 위치 맞춤하는 방법.

  6. 제 5 항에 있어서,
    상기 깊이 맵은 3D 센서에 의해 취득되는
    데이터를 위치 맞춤하는 방법.
  7. 제 5 항에 있어서,
    상기 위치 맞춤된 프리미티브를 전역 맵 내에 유지하는 단계를 더 포함하는
    데이터를 위치 맞춤하는 방법.
  8. 제 5 항에 있어서,
    상기 위치 맞춤은 랜덤 샘플 컨센서스(random sample consensus) 수순을 이용하는
    데이터를 위치 맞춤하는 방법.
  9. 제 5 항에 있어서,
    위치 및 기술자(descriptor)에 의해 각 점을 나타냄과 아울러, 단위 법선 벡터(normal vector)와, 대응하는 좌표계의 원점에 대한 거리에 의해 각 면을 나타내는 단계를 더 포함하는
    데이터를 위치 맞춤하는 방법.
  10. 제 5 항에 있어서,
    각 면은,
    3D 점군(point cloud)에 있어서의 기준점(reference point)의 집합을 랜덤으로 선택하는 것과,
    로컬 윈도우 내의 근방점(nearby point)을 이용하여 기준점마다 최적의 면을 구하는 것과,
    상기 깊이 맵의 격자 그래프에 관하여 상기 기준점과의 연결 성분을 형성하는 모든 인라이어(inlier)를 구하는 것과,
    소정의 수의 상기 인라이어를 갖는 최적의 면을 특정하는 것과,
    상기 인라이어를 상기 3D 점군으로부터 제거하는 것
    에 의해 선택되는
    데이터를 위치 맞춤하는 방법.
  11. 제 7 항에 있어서,
    상기 전역 맵은, 상기 점 및 상기 면을 이용하여 번들 조정에 의해 최적화되는
    데이터를 위치 맞춤하는 방법.
  12. 제 1 항에 있어서,
    상기 위치 맞춤 동안, 각 좌표계에 있어서의, 점 사이의 거리, 점과 면의 사이의 거리, 또는 2개의 면의 법선 사이의 각도에 근거하여 오합치(false match)를 특정하는 것을 더 포함하는
    데이터를 위치 맞춤하는 방법.
  13. 제 8 항에 있어서,
    프리미티브의 입수 가능한 3조를 이용하여, 이하의 순서, 즉 3면, 2면 및 1점, 1면 및 2점, 또는 3점의 순서로 상기 랜덤 샘플 컨센서스 수순을 초기화하는 단계를 더 포함하는
    데이터를 위치 맞춤하는 방법.
  14. 제 5 항에 있어서,
    각 점은 3D 키 점 검출기에 의해 선택되는
    데이터를 위치 맞춤하는 방법.
  15. 제 11 항에 있어서,
    상기 번들 조정은, 상기 면 사이의 기하학적 제약을 실시하는
    데이터를 위치 맞춤하는 방법.
  16. 제 1 항에 있어서,
    상기 방법의 출력은, 장면(scene)의 위치 맞춤된 점군 및 면 베이스의 표현을 포함하는
    데이터를 위치 맞춤하는 방법.
  17. 제 6 항에 있어서,
    상기 3D 센서는 상기 취득 중에 이동 가능한
    데이터를 위치 맞춤하는 방법.
  18. 제 5 항에 있어서,
    상기 깊이 맵에 대응하는 텍스처 화상을 취득하는 것을 더 포함하는
    데이터를 위치 맞춤하는 방법.
  19. 제 18 항에 있어서,
    각 점은, 상기 텍스처 화상에 적용되는 2D 키 점 검출기에 의해 선택되고, 상기 2D 키 점 검출기는, 상기 깊이 맵을 이용하여, 검출된 키 점을 역 투영하는
    데이터를 위치 맞춤하는 방법.
  20. 제 19 항에 있어서,
    상기 텍스처 화상은 카메라에 의해 취득되는
    데이터를 위치 맞춤하는 방법.
KR1020147036524A 2012-06-29 2013-06-20 데이터를 위치 맞춤하는 방법 KR101643079B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/539,060 US9183631B2 (en) 2012-06-29 2012-06-29 Method for registering points and planes of 3D data in multiple coordinate systems
US13/539,060 2012-06-29
PCT/JP2013/067583 WO2014003081A1 (en) 2012-06-29 2013-06-20 Method for registering data

Publications (2)

Publication Number Publication Date
KR20150024349A true KR20150024349A (ko) 2015-03-06
KR101643079B1 KR101643079B1 (ko) 2016-07-26

Family

ID=48782575

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147036524A KR101643079B1 (ko) 2012-06-29 2013-06-20 데이터를 위치 맞춤하는 방법

Country Status (7)

Country Link
US (1) US9183631B2 (ko)
JP (1) JP5955406B2 (ko)
KR (1) KR101643079B1 (ko)
CN (1) CN104395932B (ko)
DE (1) DE112013003214T5 (ko)
TW (1) TWI569229B (ko)
WO (1) WO2014003081A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101988555B1 (ko) * 2017-12-05 2019-06-12 충북대학교 산학협력단 조명 불변 영상을 사용한 slam 시스템 및 점구름 지도 생성 방법
US11212507B2 (en) 2017-11-16 2021-12-28 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional images

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8422825B1 (en) * 2008-11-05 2013-04-16 Hover Inc. Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
RU2013106319A (ru) * 2013-02-13 2014-08-20 ЭлЭсАй Корпорейшн Основанная на характерных точках надежная регистрация трехмерного твердого тела
KR102084253B1 (ko) * 2013-11-20 2020-03-03 한국전자통신연구원 복원조각과 볼륨형 표면을 이용하는 카메라 트래킹 장치 및 방법
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9171403B2 (en) * 2014-02-13 2015-10-27 Microsoft Technology Licensing, Llc Contour completion for augmenting surface reconstructions
WO2015165523A1 (en) * 2014-04-30 2015-11-05 Longsand Limited Simultaneous localization and mapping initialization
US9430847B2 (en) 2014-06-12 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method for stereo visual odometry using points, lines and planes
JP6483832B2 (ja) * 2014-08-29 2019-03-13 トヨタ モーター ヨーロッパ Rgb−dセンサを使用して物体を走査する方法とシステム
CN106796721B (zh) * 2014-09-11 2021-05-04 赛博光学公司 三维轮廓测量中根据多个相机和源的点云合并
US9846963B2 (en) 2014-10-03 2017-12-19 Samsung Electronics Co., Ltd. 3-dimensional model generation using edges
TWI554976B (zh) 2014-11-17 2016-10-21 財團法人工業技術研究院 監控系統及其影像處理方法
US10360469B2 (en) * 2015-01-15 2019-07-23 Samsung Electronics Co., Ltd. Registration method and apparatus for 3D image data
WO2016161136A1 (en) * 2015-03-31 2016-10-06 Nxgen Partners Ip, Llc Compression of signals, images and video for multimedia, communications and other applications
EP3620838A1 (en) * 2015-06-02 2020-03-11 Life Technologies Corporation Systems and methods for calibrating a structured illumination imaging system and for capturing a structured illumination image
US9460513B1 (en) * 2015-06-17 2016-10-04 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
ITUB20154043A1 (it) 2015-09-30 2017-03-30 Datalogic IP Tech Srl Sistema e metodo di lettura di informazioni codificate
US11054802B2 (en) * 2015-10-21 2021-07-06 Mitsubishi Electric Research Laboratories, Inc. System and method for performing operations of numerical control machines
CN108604301B (zh) * 2015-12-04 2022-03-25 欧特克公司 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征
US9807365B2 (en) * 2015-12-08 2017-10-31 Mitsubishi Electric Research Laboratories, Inc. System and method for hybrid simultaneous localization and mapping of 2D and 3D data acquired by sensors from a 3D scene
DE102015017010A1 (de) * 2015-12-30 2017-07-06 Faurecia Innenraum Systeme Gmbh Verfahren zur Ermittlung von Oberflächendefekten sowie Computer-Programmprodukt
KR102434406B1 (ko) * 2016-01-05 2022-08-22 한국전자통신연구원 공간 구조 인식을 통한 증강 현실 장치 및 그 방법
KR101973917B1 (ko) 2016-01-20 2019-04-29 미쓰비시덴키 가부시키가이샤 3차원 계측 장치 및 그 계측 지원 처리 방법
US10482681B2 (en) 2016-02-09 2019-11-19 Intel Corporation Recognition-based object segmentation of a 3-dimensional image
US10373380B2 (en) 2016-02-18 2019-08-06 Intel Corporation 3-dimensional scene analysis for augmented reality operations
JP6775969B2 (ja) * 2016-02-29 2020-10-28 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
FR3048872B1 (fr) 2016-03-21 2018-04-13 Medtech Sa Procede et dispositif de recalage automatise pour un robot chirurgical
US10573018B2 (en) * 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
US10380767B2 (en) * 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
US10339716B1 (en) 2016-09-19 2019-07-02 Occipital, Inc. System and method for dense, large scale scene reconstruction
US10176589B2 (en) 2017-01-31 2019-01-08 Mitsubishi Electric Research Labroatories, Inc. Method and system for completing point clouds using planar segments
US10659768B2 (en) * 2017-02-28 2020-05-19 Mitsubishi Electric Research Laboratories, Inc. System and method for virtually-augmented visual simultaneous localization and mapping
JP6692321B2 (ja) * 2017-05-25 2020-05-13 日本電信電話株式会社 幾何的合わせこみ装置、方法、及びプログラム
US10848741B2 (en) * 2017-06-12 2020-11-24 Adobe Inc. Re-cinematography for spherical video
TWI652447B (zh) 2017-09-12 2019-03-01 財團法人成大研究發展基金會 適用於疊代最近點法以選擇關鍵圖框的系統與方法
WO2019057179A1 (zh) * 2017-09-22 2019-03-28 华为技术有限公司 一种基于点线特征的视觉slam方法和装置
CN109579794B (zh) * 2017-09-28 2021-03-23 财团法人成大研究发展基金会 适用于迭代最近点法以选择关键图框的系统与方法
TWI651687B (zh) 2017-11-24 2019-02-21 財團法人工業技術研究院 三維模型建構方法及其系統
CN108776990A (zh) * 2018-04-10 2018-11-09 清华大学 基于三阶球面谐波的动态场景高精度实时三维重建方法及系统
CN109345574B (zh) * 2018-08-31 2020-10-09 西安电子科技大学 基于语义点云配准的激光雷达三维建图方法
JP7078127B2 (ja) * 2018-10-18 2022-05-31 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
US20200125846A1 (en) * 2018-10-23 2020-04-23 The Boeing Company Augmented Reality System for Manufacturing Composite Parts
CN111582293B (zh) * 2019-02-19 2023-03-24 曜科智能科技(上海)有限公司 平面几何一致性检测方法、计算机设备、及存储介质
JP7220591B2 (ja) * 2019-03-07 2023-02-10 三菱重工業株式会社 自己位置推定装置、自己位置推定方法及びプログラム
CN110009726B (zh) * 2019-03-08 2022-09-30 浙江中海达空间信息技术有限公司 一种根据平面基元间的结构关系对点云提取平面的方法
TWI675000B (zh) * 2019-03-22 2019-10-21 所羅門股份有限公司 物件運送方法及系統
CN109949412B (zh) * 2019-03-26 2021-03-02 腾讯科技(深圳)有限公司 一种三维对象重建方法和装置
US11289078B2 (en) * 2019-06-28 2022-03-29 Intel Corporation Voice controlled camera with AI scene detection for precise focusing
US11138465B2 (en) 2019-12-10 2021-10-05 Toyota Research Institute, Inc. Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
WO2021235458A1 (ja) * 2020-05-21 2021-11-25 株式会社ソシオネクスト マップ情報更新方法、ランドマーク生成方法、及び特徴点分布調整方法
CN111899291B (zh) * 2020-08-05 2024-08-13 深圳市数字城市工程研究中心 基于多源维度分解的城市点云从粗到精的自动配准方法
CN112001955A (zh) * 2020-08-24 2020-11-27 深圳市建设综合勘察设计院有限公司 一种基于二维投影平面匹配约束的点云配准方法及系统
US12002227B1 (en) 2020-08-26 2024-06-04 Apple Inc. Deep partial point cloud registration of objects
CN112348893B (zh) * 2020-10-30 2021-11-19 珠海一微半导体股份有限公司 一种局部点云地图构建方法及视觉机器人
CN112379773B (zh) * 2020-11-12 2024-05-24 深圳市洲明科技股份有限公司 多人三维动作捕捉方法、存储介质及电子设备
US11481925B1 (en) * 2020-11-23 2022-10-25 Zillow, Inc. Automated determination of image acquisition locations in building interiors using determined room shapes
CN113311412B (zh) * 2021-05-13 2024-03-01 哈尔滨工业大学 用于移动机器人的激光雷达传感器六维外参标定方法
CN114463396B (zh) * 2022-01-07 2024-02-06 武汉大学 一种利用平面形状和拓扑图投票的点云配准方法
CN114882087B (zh) * 2022-07-12 2022-10-04 武汉瀚迈科技有限公司 针对具有不完整基本图元的三维扫描点云实时配准方法
CN117984074B (zh) * 2024-03-29 2024-07-12 成都飞机工业(集团)有限责任公司 一种用于大型三维立体装配无固定测量点调姿定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US20100049391A1 (en) * 2008-08-25 2010-02-25 Murata Machinery, Ltd. Autonomous moving apparatus
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
WO2012062652A1 (en) * 2010-11-08 2012-05-18 Telefonaktiebolaget L M Ericsson (Publ) Improved view synthesis

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3738456B2 (ja) * 1994-11-14 2006-01-25 マツダ株式会社 物品の位置検出方法およびその装置
JP2000337831A (ja) * 1999-05-28 2000-12-08 Minolta Co Ltd 3次元データの位置合わせ方法
JP2003162549A (ja) * 2001-11-28 2003-06-06 National Institute Of Advanced Industrial & Technology 統合された形状モデル生成方法及びコンピュータプログラム
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP3855053B2 (ja) * 2003-01-30 2006-12-06 国立大学法人 東京大学 画像処理装置、画像処理方法、及び画像処理プログラム
CN1312633C (zh) * 2004-04-13 2007-04-25 清华大学 大规模三维场景多视点激光扫描数据自动配准方法
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
CN100559398C (zh) * 2007-06-19 2009-11-11 北京航空航天大学 自动的深度图像配准方法
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
JP2010066595A (ja) * 2008-09-11 2010-03-25 Toyota Motor Corp 環境地図生成装置及び環境地図生成方法
JP2012524663A (ja) * 2009-04-23 2012-10-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体学習ロボットおよび方法
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP2011095858A (ja) * 2009-10-27 2011-05-12 Panasonic Electric Works Co Ltd 3次元デジタイザ
JP5580164B2 (ja) * 2010-10-18 2014-08-27 株式会社トプコン 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
US9449233B2 (en) * 2010-12-01 2016-09-20 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187809B2 (en) * 2004-06-10 2007-03-06 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
US20100049391A1 (en) * 2008-08-25 2010-02-25 Murata Machinery, Ltd. Autonomous moving apparatus
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
WO2012062652A1 (en) * 2010-11-08 2012-05-18 Telefonaktiebolaget L M Ericsson (Publ) Improved view synthesis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11212507B2 (en) 2017-11-16 2021-12-28 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional images
KR101988555B1 (ko) * 2017-12-05 2019-06-12 충북대학교 산학협력단 조명 불변 영상을 사용한 slam 시스템 및 점구름 지도 생성 방법

Also Published As

Publication number Publication date
KR101643079B1 (ko) 2016-07-26
CN104395932A (zh) 2015-03-04
US9183631B2 (en) 2015-11-10
JP5955406B2 (ja) 2016-07-20
DE112013003214T5 (de) 2015-04-02
TW201415414A (zh) 2014-04-16
JP2015515655A (ja) 2015-05-28
CN104395932B (zh) 2017-04-26
US20140003705A1 (en) 2014-01-02
TWI569229B (zh) 2017-02-01
WO2014003081A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
KR101643079B1 (ko) 데이터를 위치 맞춤하는 방법
Weber et al. Automatic registration of unordered point clouds acquired by Kinect sensors using an overlap heuristic
JP6426968B2 (ja) 情報処理装置およびその方法
CN103106688B (zh) 基于双层配准方法的室内三维场景重建方法
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
WO2013112749A1 (en) 3d body modeling, from a single or multiple 3d cameras, in the presence of motion
WO2010064907A1 (en) Method for recognizing objects in a set of images recorded by one or more cameras
Meline et al. A camcorder for 3D underwater reconstruction of archeological objects
Cobzas et al. A comparative analysis of geometric and image-based volumetric and intensity data registration algorithms
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
Navab et al. Canonical representation and multi-view geometry of cylinders
Murray et al. Patchlets: Representing stereo vision data with surface elements
JP6584139B2 (ja) 情報処理装置、情報処理方法及びプログラム
Garau et al. Unsupervised continuous camera network pose estimation through human mesh recovery
KR102705610B1 (ko) 다시점 카메라 기반 다관절 객체의 입체영상캡쳐 장치 및 방법
Lam et al. 3D human modeling using virtual multi-view stereopsis and object-camera motion estimation
Vitiuk et al. Software Package for Evaluation the Stereo Camera Calibration for 3D Reconstruction in Robotics Grasping System.
Parkison et al. 2d to 3d line-based registration with unknown associations via mixed-integer programming
Darwish et al. Robust Calibration of a Multi-View Azure Kinect Scanner Based on Spatial Consistency
Majji et al. Registration of LiDAR point clouds using image features
Fortenbury et al. Robust 2D/3D calibration using RANSAC registration
Boyer et al. 3D Modeling from multiple views with integrated registration and data fusion
Almeida et al. Incremental reconstruction approach for telepresence or ar applications
WO2024099593A1 (en) Localization based on neural networks

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant