KR102129458B1 - 객체의 3차원 정보 복원 방법 및 장치 - Google Patents

객체의 3차원 정보 복원 방법 및 장치 Download PDF

Info

Publication number
KR102129458B1
KR102129458B1 KR1020170156691A KR20170156691A KR102129458B1 KR 102129458 B1 KR102129458 B1 KR 102129458B1 KR 1020170156691 A KR1020170156691 A KR 1020170156691A KR 20170156691 A KR20170156691 A KR 20170156691A KR 102129458 B1 KR102129458 B1 KR 102129458B1
Authority
KR
South Korea
Prior art keywords
information
image
space
camera
background
Prior art date
Application number
KR1020170156691A
Other languages
English (en)
Other versions
KR20190059092A (ko
Inventor
한병옥
김재환
김호원
정유구
박창준
이길행
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170156691A priority Critical patent/KR102129458B1/ko
Priority to US15/836,542 priority patent/US10643372B2/en
Publication of KR20190059092A publication Critical patent/KR20190059092A/ko
Application granted granted Critical
Publication of KR102129458B1 publication Critical patent/KR102129458B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

객체의 3차원 정보 복원 방법 및 장치가 개시된다. 본 개시의 일 실시 예에 객체의 3차원 정보 복원 방법은 객체의 3차원 복원이 진행될 배경 공간을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원하는 과정과, 상기 배경 공간 상에 존재하는 객체를 촬영한 적어도 하나의 이미지를 기반으로, 상기 배경 공간과 객체를 분리하고, 상기 배경 공간으로부터 분리되는 객체의 깊이 영상을 획득하는 과정과, 상기 객체의 깊이 영상과 적어도 하나의 카메라 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성하는 과정을 포함할 수 있다.

Description

객체의 3차원 정보 복원 방법 및 장치{METHOD FOR RECONSTRUCTING THREE DIMENSION INFORMATION OF OBJECT AND APPARATUS FOR THE SAME}
본 개시는 영상 처리 기술에 관한 것이며, 보다 구체적으로는 깊이 이미지를 사용하여 3차원 객체를 모델링하는 방법 및 장치에 대한 것이다.
최근 프로세서의 처리 능력이 향상되고 3D 엔진이 발전함에 따라 다양한 기기에서 3D 영상 디스플레이에 대한요구가 점점 커지고 있다. 워크스테이션 등 고사양의 PC 뿐만 아니라 TV, PMP, MP3, 핸드폰 등 디스플레이 장치가 포함되어 있는 기기에서는 3D 영상 디스플레이에 대한 요구가 발생하고 있다.
또한 3D 영상 디스플레이의 활용 영역이 시뮬레이션 시스템, 가상현실 시스템 등의 영역에서 온라인 게임, 콘솔 게임, 모바일 게임 등의 게임영역뿐만 아니라 아바타 시스템, 유저 인터페이스, 애니메이션 등으로 그 영역이 점점 넓어지고 있다.
3D 컨텐츠의 소비가 활발하게 이루어짐에 따라 3D 컨텐츠의 생성에 대한 관심이 높아지고 있으며, 나아가, 3D 프린터 등의 보급에 힘입어 3D 조형물의 제작에 기초가 되는 3D 컨텐츠의 생성에 대한 더욱 관심이 높아지고 있다.
이러한 사용자들의 요구를 반영하여, 최근 컴퓨팅 시스템에 연결되는 깊이 센서(Consumer-level depth sensor)(예, 마이크로소프트(Microsoft(R) 키넥트(Kinect) 등)의 보급, 3D 모델링 기능이 탑재되는 휴대용 단말 등의 보급이 시도되고 있다.
3차원 객체를 스캔하기 위하 방식으로서, 고정 카메라 & 객체 이동(Static Camera & Moving Object) 기반의 스캔 방식과, 고정 객체 & 카메라 이동(Moving Camera & Static Object) 기반의 스캔 방식이 사용되고 있다.
고정 카메라 & 객체 이동(Static Camera & Moving Object) 기반의 스캔 방식은, 카메라가 고정되어 있는 상태에서 대상 객체를 회전 또는 이동시키면서 스캔을 하는 방식이다. 고정 카메라 & 객체 이동(Static Camera & Moving Object) 기반의 스캔 방식은, 카메라가 고정되어 있어서 대상 객체를 움직이기 어려운 상황에는 스캔에 어려움이 있다.
고정 객체 & 카메라 이동(Moving Camera & Static Object) 기반의 스캔 방식은 대상 객체를 고정한 상태에서 카메라를 움직이며 스캔을 수행하는 방식이다. 고정 객체 & 카메라 이동(Moving Camera & Static Object) 기반의 스캔 방식은 카메라를 움직이며 대상 객체를 스캔을 해야하는데, 카메라의 이동 또는 회전을 위한 공간이 요구되어 3차원 복원의 편의성이 저하되는 문제가 있다. 또한, 고정 객체 & 카메라 이동(Moving Camera & Static Object) 기반의 스캔 방식은 대상 객체를 움직이지 않도록 고정한 상태이므로, 카메라를 통해 촬영되지 않는 음영 영역이 발생될 수 있어, 음영 영역에 대한 3차원 정보를 정확하게 복원할 수 없는 문제가 있다.
본 개시의 기술적 과제는 전술한 문제를 해결하기 위한 것으로써, 카메라 이동 및 객체 이동을 실현할 수 있는 3차원 정보 복원 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따르면 객체의 3차원 정보 복원 방법이 제공될 수 있다. 상기 방법은 객체의 3차원 복원이 진행될 배경 공간을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원하는 과정과, 상기 배경 공간 상에 존재하는 객체를 촬영한 적어도 하나의 이미지를 기반으로, 상기 배경 공간과 객체를 분리하고, 상기 배경 공간으로부터 분리되는 객체의 깊이 영상을 획득하는 과정과, 상기 객체의 깊이 영상과 적어도 하나의 카메라 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성하는 과정을 포함할 수 있다.
본 개시의 다른 양상에 따르면 객체의 3차원 정보 복원 장치가 제공될 수 있다. 상기 장치는 3차원 정보 복원에 필요한 이미지를 촬영하는 적어도 하나의 카메라 장치와, 객체의 3차원 복원이 진행될 배경 공간을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원하는 배경 정보 복원부와, 상기 배경 공간 상에 존재하는 객체를 촬영한 적어도 하나의 이미지를 기반으로, 상기 배경 공간과 객체를 분리하고, 상기 배경 공간으로부터 분리되는 객체의 깊이 영상을 획득하는 배경/객체 정보 분리부와, 상기 객체의 깊이 영상과 상기 적어도 하나의 카메라 장치 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라 장치로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성하는 3차원 정보 복원부를 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 카메라 이동 및 객체 이동을 모두 적용하여 대상 객체의 3차원 정보를 복원하는 방법 및 장치가 제공될 수 있다.
또한, 본 개시에 따르면, 카메라 이동 및 객체 이동이 모두 가능하도록 하여 제약없이 자유롭게 대상 객체의 스캔을 진행할 수 있는 3차원 정보 복원 방법 및 장치가 제공될 수 있다.
또한, 본 개시에 따르면, 카메라 이동 및 객체 이동이 모두 가능하도록 하여 음영 영역의 발생없이 대상 객체의 모든 영역에 대한 스캔을 진행할 수 있는 3차원 정보 복원 방법 및 장치가 제공될 수 있다.
또한, 본 개시에 따르면, 음영 영역의 발생없이 대상 객체의 모든 영역에 대한 스캔을 진행할 수 있으므로, 정확한 대상 객체의 3차원 정보를 복원하는 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치의 구성을 도시하는 블록도이다.
도 2a는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원하면서 확인하는 배경 공간의 3차원 정보를 예시하는 도면이다.
도 2b는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원하면서 확인하는 객체의 깊이 영상을 예시하느 s도면이다.
도 2c는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원하면서 확인하는 객체의 볼륨 공간을 예시하는 도면이다.
도 2d는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원시, 객체 이동에 의해 검출되는 객체의 깊이 영상을 예시하는 도면이다.
도 2e는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원시, 카메라 장치의 이동에 의해 검출되는 객체의 깊이 영상을 예시하는 도면이다.
도 3은 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 방법의 순서를 도시하는 흐름도도이다.
도 4는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치 및 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 객체를 중심 또는 기준으로 카메라 장치를 이동하는 것은, 객체의 고정에 상관없이 카메라 장치를 객체를 촬영할 수 있는 범위 내에서 이동하는 것을 의미하고, 카메라 장치를 중심 또는 기준으로 객체를 이동 또는 회전하는 것은, 카메라 장치의 고정에 상관없이 객체를 카메라 장치가 촬영할 수 있는 범위 내에서 이동 또는 회전하는 것을 의미한다.
이하, 첨부한 도면을 참조하여 본 개시의 실시 예들에 대해서 설명한다.
도 1은 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치의 구성을 도시하는 블록도이다.
도 1을 참조하면, 객체의 3차원 정보 복원 장치(10)는 적어도 하나의 카메라 장치(11)와, 배경 정보 복원부(12), 배경/객체 정보 분리부(13), 및 3차원 정보 복원부(15)를 포함할 수 있다.
카메라 장치(11)는 3차원 정보 복원에 필요한 이미지를 촬영하는 장치일 수 있다.
카메라 장치(11)는 촬영되는 피사체의 깊이 정보(depth information)(예, 깊이 이미지)를 생성하여 제공할 수 있는 장치를 포함할 수 있다.
배경 정보 복원부(12)는 객체의 3차원 복원이 진행될 배경 공간을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원한다.
구체적으로, 배경 공간은 움직이지 않고 정지된 상태를 가정할 수 있으므로, 카메라 장치(11)의 움직임을 추적(Tracking)하고, 카메라 장치(11)에 의해 제공되는 적어도 하나의 이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원할 수 있다. 예를 들어, 포인트 기반의 공간 표현(Point-based Volumetric Representation), 표면 기반의 공간 표현(Surface-based Volumetric Representation), 암시적 표면 기반의 공간 표현 (Implicit Surface-based Volumetric Representation) 등의 방식에 기초하여, 상기 배경 공간의 3차원 정보를 복원할 수 있다.
이와 같이, 배경 정보 복원부(12)를 통해 상기 배경 공간의 3차원 정보를 복원할 경우, 객체의 3차원 복원을 위한 특수한 환경을 구성하지 않고 일상 공간의 환경에서 정확하게 객체의 3차원 정보를 복원을 실현할 수 있다.
또한, 상기 배경 공간의 3차원 정보의 복원을 통해서 카메라 장치(11)와 객체의 상대적 자세가 아닌 각각의 카메라 장치(11)와 객체 사이의 절대적 위치를 산출할 수 있다. 이는 객체의 3차원 정보를 보다 정확하게 생성하기 위하여 카메라 장치(11) 또는 객체의 움직임(예, 회전, 이동 등)을 가이드하는 정보를 생성하는데 사용될 수 있다.
배경/객체 정보 분리부(13)는 상기 배경 공간의 3차원 정보가 복원된 상태에서, 상기 배경 공간 상에 위치한 객체를 촬영한 적어도 하나의 이미지를 입력받을 수 있다. 그리고, 배경/객체 정보 분리부(13)는 상기 배경 공간 상에 위치한 객체를 촬영한 적어도 하나의 이미지로부터, 상기 객체를 분리할 수 있다. 예컨대, 배경/객체 정보 분리부(13)는 상기 배경 공간의 3차원 정보를 확인할 수 있으며, 상기 적어도 하나의 이미지를 촬영한 카메라 장치(11)에 대응되는 위치에서 획득될 수 있는 상기 배경 공간의 이미지를 예측할 수 있다. 배경/객체 정보 분리부(13)는 예측된 상기 배경 공간의 이미지를 기준으로, 상기 객체를 촬영한 이미지와의 차이를 확인할 수 있으며, 이에 기초하여 상기 객체의 외곽선 정보(outlier)를 추출하고, 이를 바탕으로 객체의 깊이 영상을 획득할 수 있다.
나아가, 외곽선 정보(outlier)를 기반으로 추출된 객체의 깊이 영상은 Consumer-level 깊이 센서가 갖고 있는 노이즈가 포함될 수 있다. 이와 같은 노이즈를 제거하기 위해, 배경/객체 정보 분리부(13)는 노이즈 제거부(14)를 구비할 수 있다. 노이즈 제거부(14)는 Erosion Filter, Bilateral filter 등을 포함할 수 있다. 배경/객체 정보 분리부(13)는 Erosion Filter를 통해 원하지 않는 작은 노이즈 값을 제거하고, Bilateral filter를 통해 깊이 영상의 표면 값을 부드럽게 처리하고 에지 부분은 강조할 수 있다.
다른 실시예로써, 노이즈 제거부(14)는 깊이 센서의 특성을 반영한 노이즈 모델을 미리 산출하고, 외곽선 정보(outlier)를 기반으로 추출된 객체의 깊이 영상에 상기 산출된 노이즈 모델을 반영하여 노이즈를 제거할 수 있다.
3차원 정보 복원부(15)는 상기 객체의 깊이 영상과 상기 적어도 하나의 카메라 장치(11) 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라 장치(11)로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성한다.
배경/객체 정보 분리부(13) 객체가 존재하는 영역을 분리함으로써, 객체를 중심으로 상기 적어도 하나의 카메라 장치(11)를 이동시킬 경우, 3차원 정보 복원부(15)는 상기 적어도 하나의 카메라 장치(11)의 위치와 상기 객체 사이의 상대 위치를 확인할 수 있으며, 이를 바탕으로 적어도 하나의 카메라 장치(11)를 통해 획득되는 이미지로부터 상기 객체의 3차원 정보를 복원할 수 있다. 또한, 상기 적어도 하나의 카메라 장치(11)를 기준으로 상기 객체를 이동 시킬 경우에도, 3차원 정보 복원부(15)는 배경 공간의 3차원 정보에 기초하여, 상기 적어도 하나의 카메라 장치(11)의 위치와 상기 객체 사이의 상대 위치를 확인할 수 있으며, 이를 바탕으로 적어도 하나의 카메라 장치(11)를 통해 획득되는 이미지로부터 상기 객체의 3차원 정보를 복원할 수 있다. 이와 같이, 3차원 정보 복원부(15)는 카메라 장치(11) 또는 객체를 이동하더라도 배경으로부터 분리된 객체의 깊이 영상을 통해, 영상 간의 상대 위치를 이용하여 객체의 3차원 정보를 복원할 수 있다.
3차원 정보 복원부(15)는 상기 객체가 위치하는 영역에 대응되는 객체 볼륨 공간을 설정하고, 상기 배경 공간의 3차원 정보와 상기 객체의 깊이 영상을 정합하여, 상기 객체 볼륨 공간의 상태 맵을 생성하는 동작을 처리할 수 있다. 그리고, 3차원 정보 복원부(15)는 느린 적응(Slow Adaptation)을 통한 상태 변경 기법을 이용하여, 상기 객체를 파지하는 물체에 대응되는 이미지 정보를 제거할 수 있다. 예컨대, 사용자가 손을 사용하여 객체를 집어들어 상기 객체를 이동 또는 회전시킬 수 있는데, 이때 사용자의 손은 상기 객체의 외곽면에 부가되므로, 이를 제거할 필요가 있다. 객체 볼륨 공간 내에서 객체는 지속적으로 존재할 수 있으나, 객체를 파지하는 물체(예, 사용자의 손)는 상대적으로 짧은 시간 동안만 객체 볼륨 공간 내에 존재할 수 있다. 이를 고려하여, 3차원 정보 복원부(15)는 객체 볼륨 공간 내에 존재하는 객체에 대해 느린 적응(Slow Adaptation)을 사용하여 상태를 변경 함으로써, 객체를 검출할 수 있다. 즉, 차원 정보 복원부(15)는 객체 볼륨 공간 내에서 미리 정해진 시간을 초과하여 존재하는 요소(예, 점 또는 영역)에 한하여, 객체를 구성하는 요소로서 설정할 수 있다. 반면, 객체 볼륨 공간 내에서 미리 정해진 시간 미만동안 존재하는 요소는 객체를 파지하는 물체(예, 사용자의 손)로 설정하고, 해당 요소는 제거할 수 있다.
3차원 정보 복원부(15)는 객체 이동에 의해 검출되는 상기 객체의 깊이 영상, 즉, 적어도 하나의 카메라 장치(11)를 기준으로 객체를 이동 또는 회전하면서 촬영되는 이미지를 사용하여 획득되는 깊이 영상과, 적어도 하나의 카메라 장치(11)의 이동에 의해 검출되는 상기 객체의 깊이 영상, 즉, 객체를 중심으로 적어도 하나의 카메라 장치(11)를 이동 또는 회전하면서 촬영되는 이미지를 사용하여 획득되는 깊이 영상을 조합하여 상기 객체의 3차원 정보를 복원할 수 있다.
이하, 전술한 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치에 의해 객체의 3차원 정보를 복원하는 동작을 설명한다.
도 2a 내지 도 2e는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치가 객체의 3차원 정보를 복원하면서 확인되는 정보를 설명하는 도면으로서, 도 2a는 배경 공간의 3차원 정보를 예시하고, 도 2b는 객체의 깊이 영상을 예시하고, 도 2c는 객체의 볼륨 공간을 예시하고, 도 2d는 객체 이동에 의해 검출되는 객체의 깊이 영상을 예시하고, 도 2e는 카메라 장치의 이동에 의해 검출되는 객체의 깊이 영상을 예시한다.
우선, 도 2a를 참조하면, 적어도 하나의 카메라 장치(21a, 21b, 21c)는 객체의 3차원 복원을 진행할 배경 공간(200)을 촬영한 이미지를 획득하고, 배경 정보 복원부(12)는 객체의 3차원 복원을 진행할 배경 공간(200)을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간(200)의 3차원 정보를 복원한다.
예를 들어, 배경 정보 복원부(12)는 포인트 기반의 공간 표현(Point-based Volumetric Representation), 표면 기반의 공간 표현(Surface-based Volumetric Representation), 암시적 표면 기반의 공간 표현 (Implicit Surface-based Volumetric Representation) 등의 방식에 기초하여, 상기 배경 공간의 3차원 정보를 복원할 수 있다.
다음으로, 도 2b를 참조하면, 상기 배경 공간(200)의 3차원 정보가 복원된 상태에서, 상기 배경 공간(200) 상에 객체(201)가 위치될 수 있다.
적어도 하나의 카메라 장치(21a, 21b, 21c)는 상기 배경 공간(200) 상에 위치한 객체(201)를 촬영한 적어도 하나의 이미지를 획득할 수 있으며, 상기 배경 공간(200) 상에 위치한 객체(201)를 촬영한 적어도 하나의 이미지를 배경/객체 정보 분리부(13)에 제공할 수 있다. 이에 따라, 배경/객체 정보 분리부(13)는 상기 배경 공간(200)의 3차원 정보를 기준으로, 상기 배경 공간(200)으로부터 상기 객체(210)를 분리할 수 있다. 예컨대, 배경/객체 정보 분리부(13)는 상기 배경 공간(200)의 3차원 정보를 확인할 수 있으며, 상기 적어도 하나의 이미지를 촬영한 카메라 장치(11)에 대응되는 위치에서 획득될 수 있는 상기 배경 공간의 이미지를 예측할 수 있다. 배경/객체 정보 분리부(13)는 예측된 상기 배경 공간의 이미지를 기준으로, 상기 객체(201)를 촬영한 이미지와의 차이를 확인할 수 있으며, 이에 기초하여 상기 객체의 외곽선 정보(outlier)를 추출하고, 이를 바탕으로 객체(201)의 깊이 영상을 획득할 수 있다.
나아가, 외곽선 정보(outlier)를 기반으로 추출된 객체의 깊이 영상은 Consumer-level 깊이 센서가 갖고 있는 노이즈가 포함될 수 있으며, 이와 같은 노이즈는 Erosion Filter, Bilateral filter 등을 사용하여 제거될 수 있다. 다른 실시예로써, 객체의 깊이 영상에 포함된 노이즈는 깊이 센서의 특성을 반영한 노이즈 모델을 고려하여 제거될 수도 있다.
다음으로, 3차원 정보 복원부(15)는 상기 객체의 깊이 영상과 상기 적어도 하나의 카메라 장치(11) 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라 장치(11)로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성할 수 있다.
구체적으로, 도 2c를 참조하면, 3차원 정보 복원부(15)는 상기 객체(201)의 깊이 영상을 기준으로, 3차원 정보 복원부(15)는 상기 객체(201)가 위치하는 영역에 대응되는 객체 볼륨 공간(203)을 설정하고, 상기 배경 공간(200)의 3차원 정보와 상기 객체의 깊이 영상을 정합하여, 상기 객체 볼륨 공간(203)의 상태 맵을 생성할 수 있다.
다음으로, 도 2d를 참조하면, 사용자가 손(205)을 사용하여 객체를 집어들어 상기 객체(201)를 이동 또는 회전시킬 수 있는데, 이때 사용자의 손(205)은 상기 객체의 외곽면에 부가되므로, 이를 제거할 필요가 있다. 3차원 정보 복원부(15)는 느린 적응(Slow Adaptation)을 통한 상태 변경 기법을 이용하여, 사용자의 손(205)에 대응되는 이미지 정보를 제거할 수 있다. 예를 들어, 객체 볼륨 공간(203) 내에서 객체는 지속적으로 존재할 수 있으나, 사용자의 손(205)은 상대적으로 짧은 시간 동안만 객체 볼륨 공간(203) 내에 존재할 수 있다. 이를 고려하여, 3차원 정보 복원부(15)는 객체 볼륨 공간(203) 내에 존재하는 객체(201)에 대해 느린 적응(Slow Adaptation)을 사용하여 상태를 변경 함으로써, 객체를 검출할 수 있다. 즉, 차원 정보 복원부(15)는 객체 볼륨 공간(203) 내에서 미리 정해진 시간을 초과하여 존재하는 요소(예, 점(Point) 또는 영역(Surface))에 한하여, 객체(201)를 구성하는 요소로서 설정할 수 있다. 반면, 객체 볼륨 공간(203) 내에서 미리 정해진 시간 미만 동안 존재하는 요소는 사용자의 손(205)으로 설정하고, 해당 요소는 제거할 수 있다.
이와 같이, 3차원 정보 복원부(15)는 상기 객체(201)를 이동 또는 회전시켜 적어도 하나의 이미지(211, 212, 213, 214, 215, 216)를 획득할 수 있으며, 느린 적응(Slow Adaptation)을 통한 상태 변경 기법을 사용하여, 획득된 적어도 하나의 이미지(211, 212, 213, 214, 215, 216)로부터 사용자의 손(205)을 제거할 수 있다.
또한, 도 2e를 참조하면, 3차원 정보 복원부(15)는 적어도 하나의 카메라 장치(11)의 이동에 의해 검출되는 상기 객체의 깊이 영상, 즉, 객체를 중심으로 적어도 하나의 카메라 장치(25)를 이동 또는 회전하면서 촬영되는 이미지(221, 222, 223, 224, 225, 226)를 획득할 수 있다.
그리고, 3차원 정보 복원부(15)는 객체 이동에 의해 검출되는 이미지(211, 212, 213, 214, 215, 216)를 기반으로 하는 깊이 영상과, 카메라 장치(25)의 이동에 의해 검출되는 이미지(221, 222, 223, 224, 225, 226)를 기반으로 하는 깊이 영상을 조합하여 상기 객체의 3차원 정보를 복원할 수 있다.
도 3은 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 방법의 순서를 도시하는 흐름도이다.
객체의 3차원 정보 복원 방법은 전술한 객체의 3차원 정보 복원 장치에 의해 수행될 수 있다.
우선, S301 단계에서, 객체의 3차원 정보 복원 장치는 적어도 하나의 카메라 장치로부터 객체의 3차원 복원을 진행할 배경 공간(200)을 촬영한 이미지를 획득하고, 객체의 3차원 복원을 진행할 배경 공간(200)을 촬영한 적어도 하나의 이미지를 사용하여 상기 배경 공간(200)의 3차원 정보를 복원한다.
예를 들어, 객체의 3차원 정보 복원 장치는 포인트 기반의 공간 표현(Point-based Volumetric Representation), 표면 기반의 공간 표현(Surface-based Volumetric Representation), 암시적 표면 기반의 공간 표현 (Implicit Surface-based Volumetric Representation) 등의 방식에 기초하여, 상기 배경 공간의 3차원 정보를 복원할 수 있다.
다음으로, 상기 배경 공간(200)의 3차원 정보가 복원된 상태에서, 상기 배경 공간(200) 상에 객체(201)가 위치될 수 있다. S302 단계에서, 객체의 3차원 정보 복원 장치는 상기 배경 공간(200) 상에 위치한 객체(201)를 촬영한 적어도 하나의 이미지를 획득할 수 있으며, 상기 배경 공간(200)의 3차원 정보를 기준으로, 상기 배경 공간(200)으로부터 상기 객체(210)를 분리할 수 있다.
예컨대, 객체의 3차원 정보 복원 장치는 상기 배경 공간(200)의 3차원 정보를 확인할 수 있으며, 상기 적어도 하나의 이미지를 촬영한 카메라 장치에 대응되는 위치에서 획득될 수 있는 상기 배경 공간의 이미지를 예측할 수 있다. 그리고, 객체의 3차원 정보 복원 장치는 예측된 상기 배경 공간의 이미지를 기준으로, 상기 객체(201)를 촬영한 이미지와의 차이를 확인할 수 있으며, 이에 기초하여 상기 객체의 외곽선 정보(outlier)를 추출하고, 이를 바탕으로 객체(201)의 깊이 영상을 획득할 수 있다.
나아가, 외곽선 정보(outlier)를 기반으로 추출된 객체의 깊이 영상은 Consumer-level 깊이 센서가 갖고 있는 노이즈가 포함될 수 있으며, 이와 같은 노이즈는 Erosion Filter, Bilateral filter 등을 사용하여 제거될 수 있다. 다른 실시예로써, 객체의 깊이 영상에 포함된 노이즈는 깊이 센서의 특성을 반영한 노이즈 모델을 고려하여 제거될 수도 있다.
다음으로, S303 단계에서, 객체의 3차원 정보 복원 장치는 상기 객체의 깊이 영상과 상기 적어도 하나의 카메라 장치 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라 장치로부터 촬영되는 이미지에 기초한 객체의 3차원 정보를 생성할 수 있다.
구체적으로, 객체의 3차원 정보 복원 장치는 상기 객체(201)의 깊이 영상을 기준으로, 상기 객체(201)가 위치하는 영역에 대응되는 객체 볼륨 공간(203)을 설정하고, 상기 배경 공간(200)의 3차원 정보와 상기 객체의 깊이 영상을 정합하여, 상기 객체 볼륨 공간(203)의 상태 맵을 생성할 수 있다.
사용자가 손(205)을 사용하여 객체를 집어들어 상기 객체(201)를 이동 또는 회전시킬 수 있는데, 이때 사용자의 손(205)은 상기 객체의 외곽면에 부가되므로, 이를 제거할 필요가 있다. 객체의 3차원 정보 복원 장치는 느린 적응(Slow Adaptation)을 통한 상태 변경 기법을 이용하여, 사용자의 손(205)에 대응되는 이미지 정보를 제거할 수 있다. 예를 들어, 객체 볼륨 공간(203) 내에서 객체는 지속적으로 존재할 수 있으나, 사용자의 손(205)은 상대적으로 짧은 시간 동안만 객체 볼륨 공간(203) 내에 존재할 수 있다. 이를 고려하여, 객체의 3차원 정보 복원 장치는 객체 볼륨 공간(203) 내에 존재하는 객체(201)에 대해 느린 적응(Slow Adaptation)을 사용하여 상태를 변경 함으로써, 객체를 검출할 수 있다. 즉, 객체의 3차원 정보 복원 장치는 객체 볼륨 공간(203) 내에서 미리 정해진 시간을 초과하여 존재하는 요소(예, 점(Point) 또는 영역(Surface))에 한하여, 객체(201)를 구성하는 요소로서 설정할 수 있다. 반면, 객체 볼륨 공간(203) 내에서 미리 정해진 시간 미만 동안 존재하는 요소는 사용자의 손(205)으로 설정하고, 해당 요소는 제거할 수 있다.
이와 같이, 상기 객체(201)를 이동 또는 회전시켜 적어도 하나의 이미지(211, 212, 213, 214, 215, 216)를 획득할 수 있으며, 느린 적응(Slow Adaptation)을 통한 상태 변경 기법을 사용하여, 획득된 적어도 하나의 이미지(211, 212, 213, 214, 215, 216)로부터 사용자의 손(205)을 제거할 수 있다.
또한, 객체의 3차원 정보 복원 장치는 적어도 하나의 카메라 장치의 이동에 의해 검출되는 상기 객체의 깊이 영상, 즉, 객체를 중심으로 적어도 하나의 카메라 장치를 이동 또는 회전하면서 촬영되는 이미지(221, 222, 223, 224, 225, 226)를 획득할 수 있다.
그리고, 객체의 3차원 정보 복원 장치는 객체 이동에 의해 검출되는 이미지(211, 212, 213, 214, 215, 216)를 기반으로 하는 깊이 영상과, 카메라 장치의 이동에 의해 검출되는 이미지(221, 222, 223, 224, 225, 226)를 기반으로 하는 깊이 영상을 조합하여 상기 객체의 3차원 정보를 복원할 수 있다.
도 4는 본 개시의 일 실시예에 따른 객체의 3차원 정보 복원 장치 및 방법을 실행하는 컴퓨팅 시스템을 예시하는 블록도이다.
도 4를 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다.
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (16)

  1. 3차원 정보 복원 방법에 있어서,
    객체의 3차원 복원이 진행될 배경 공간을 촬영한 적어도 하나의 제1이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원하는 과정과,
    상기 배경 공간 상에 존재하는 상기 객체를 촬영한 적어도 하나의 제2이미지를 기반으로, 상기 배경 공간과 상기 객체를 분리하고, 상기 배경 공간으로부터 분리되는 상기 객체의 깊이 영상을 획득하는 과정과,
    상기 객체의 깊이 영상과 적어도 하나의 카메라 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라로부터 촬영되는 적어도 하나의 제3이미지에 기초한 상기 객체의 3차원 정보를 생성하는 과정을 포함하고,
    상기 객체의 3차원 정보를 생성하는 과정은,
    상기 객체가 위치하는 영역에 대응되는 객체 볼륨 공간을 설정하는 과정과,
    상기 배경 공간의 3차원 정보와 상기 객체의 깊이 영상을 정합하여, 상기 객체 볼륨 공간의 상태 맵을 생성하는 과정을 포함하고,
    상기 객체 볼륨 공간의 상태 맵을 사용하여 상기 객체의 3차원 정보를 생성하고,
    상기 적어도 하나의 제1이미지는, 상기 적어도 하나의 카메라가 상기 배경 공간에 상기 객체가 존재하지 않는 상태를 촬영한 이미지이며,
    상기 적어도 하나의 제2이미지는, 상기 적어도 하나의 카메라가 상기 배경 공간에 상기 객체가 존재하는 상태를 촬영한 이미지이며,
    상기 적어도 하나의 제3이미지는, 상기 배경 공간에서 불규칙하게 이동 또는 회전되는 상태의 객체를 상기 적어도 하나의 카메라가 촬영한 이미지이며,
    상기 객체의 깊이 영상을 획득하는 과정은,
    상기 적어도 하나의 카메라와 상기 객체 사이의 절대적인 위치를 확인하는 과정과,
    상기 적어도 하나의 카메라와 상기 객체 사이의 절대적인 위치를 기반으로, 상기 배경 공간과 상기 객체를 분리하는 과정을 포함하고,
    상기 객체의 3차원 정보를 생성하는 과정은,
    상기 적어도 하나의 카메라와 상기 객체 볼륨 공간 사이의 상대적인 위치를 확인하는 과정과,
    상기 적어도 하나의 카메라와 상기 객체 볼륨 공간 사이의 상대적인 위치를 고려하여 상기 객체의 3차원 정보를 생성하는 과정을 포함하는,
    객체의 3차원 정보 복원 방법.
  2. 제1항에 있어서,
    상기 객체의 깊이 영상을 획득하는 과정은,
    상기 배경 공간의 3차원 정보와, 상기 배경 공간 상에 존재하는 상기 객체 사이의 대응관계에 기초한 외곽선 정보를 확인하는 과정을 포함하는 객체의 3차원 정보 복원 방법.
  3. 제2항에 있어서,
    상기 객체의 깊이 영상을 획득하는 과정은,
    상기 객체를 촬영한 상기 적어도 하나의 제2이미지로부터 노이즈 정보를 제거하는 과정을 포함하는 객체의 3차원 정보 복원 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 객체의 3차원 정보를 생성하는 과정은,
    느린 적응(Slow Adaptation)을 통한 상태 변경 기법에 기초하여, 상기 객체를 파지하는 물체에 대응되는 이미지 정보를 제거하는 과정을 포함하는 객체의 3차원 정보 복원 방법.
  6. 제5항에 있어서,
    상기 느린 적응(Slow Adaptation)을 통한 상태 변경 기법은,
    상기 객체 볼륨 공간 내에서 미리 정해진 시간을 초과하여 존재하는 요소를, 상기 객체를 구성하는 요소로서 결정하고, 상기 객체 볼륨 공간 내에서 상기 미리 정해진 시간 이하 동안 존재하는 요소를, 상기 객체를 파지하는 물체를 구성하는 요소로서 결정하는 것을 특징으로 하는 객체의 3차원 정보 복원 방법.
  7. 제1항에 있어서,
    상기 객체의 3차원 정보를 생성하는 과정은,
    상기 객체 볼륨 공간과 상기 적어도 하나의 카메라 사이의 상대 위치의 변화를 확인하고, 상기 객체 볼륨 공간과 상기 적어도 하나의 카메라 사이의 상대 위치에 대응되는 상기 객체의 3차원 정보를 생성하는 과정을 포함하는 객체의 3차원 정보 복원 방법.
  8. 제1항에 있어서,
    상기 적어도 하나의 제1, 제2, 및 제3이미지는 깊이 이미지인 것을 특징으로 하는 객체의 3차원 정보 복원 방법.
  9. 3차원 정보 복원 장치에 있어서,
    3차원 정보 복원에 필요한 이미지를 촬영하는 적어도 하나의 카메라 장치와,
    객체의 상기 3차원 정보 복원이 진행될 배경 공간을 촬영한 적어도 하나의 제1이미지를 사용하여 상기 배경 공간의 3차원 정보를 복원하는 배경 정보 복원부와,
    상기 배경 공간 상에 존재하는 상기 객체를 촬영한 적어도 하나의 제2이미지를 기반으로, 상기 배경 공간과 상기 객체를 분리하고, 상기 배경 공간으로부터 분리되는 상기 객체의 깊이 영상을 획득하는 배경/객체 정보 분리부와,
    상기 객체의 깊이 영상과 상기 적어도 하나의 카메라 장치 사이의 위치관계를 고려하여, 상기 적어도 하나의 카메라 장치로부터 촬영되는 적어도 하나의 제3이미지에 기초한 상기 객체의 3차원 정보를 생성하는 3차원 정보 복원부를 포함하고,
    상기 3차원 정보 복원부는,
    상기 객체가 위치하는 영역에 대응되는 객체 볼륨 공간을 설정하고,
    상기 배경 공간의 3차원 정보와 상기 객체의 깊이 영상을 정합하여, 상기 객체 볼륨 공간의 상태 맵을 생성하고,
    상기 객체 볼륨 공간의 상태 맵을 사용하여 상기 객체의 3차원 정보를 생성하고,
    상기 적어도 하나의 제1이미지는, 상기 적어도 하나의 카메라가 상기 배경 공간에 상기 객체가 존재하지 않는 상태를 촬영한 이미지이며,
    상기 적어도 하나의 제2이미지는, 상기 적어도 하나의 카메라가 상기 배경 공간에 상기 객체가 존재하는 상태를 촬영한 이미지이며,
    상기 적어도 하나의 제3이미지는, 상기 배경 공간에서 불규칙하게 이동 또는 회전되는 상태의 객체를 상기 적어도 하나의 카메라가 촬영한 이미지이며,
    상기 배경/객체 정보 분리부는,
    상기 적어도 하나의 카메라와 상기 객체 사이의 절대적인 위치를 확인하고,
    상기 적어도 하나의 카메라와 상기 객체 사이의 절대적인 위치를 기반으로, 상기 배경 공간과 상기 객체를 분리하고,
    상기 3차원 정보 복원부는,
    상기 적어도 하나의 카메라와 상기 객체 볼륨 공간 사이의 상대적인 위치를 확인하고,
    상기 적어도 하나의 카메라와 상기 객체 볼륨 공간 사이의 상대적인 위치를 고려하여 상기 객체의 3차원 정보를 생성하는,
    객체의 3차원 정보 복원 장치.
  10. 제9항에 있어서,
    상기 배경/객체 정보 분리부는,
    상기 배경 공간의 3차원 정보와, 상기 배경 공간 상에 존재하는 상기 객체 사이의 대응관계에 기초한 외곽선 정보를 확인하고, 상기 외곽선 정보를 사용하여 상기 객체의 깊이 영상을 생성하는 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
  11. 제10항에 있어서,
    상기 배경/객체 정보 분리부는,
    상기 객체를 촬영한 적어도 하나의 제2이미지로부터 노이즈 정보를 제거하는 노이즈 제거부를 포함하는 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
  12. 삭제
  13. 제9항에 있어서,
    상기 3차원 정보 복원부는,
    느린 적응(Slow Adaptation)을 통한 상태 변경 기법에 기초하여, 상기 객체를 파지하는 물체에 대응되는 이미지 정보를 제거하는 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
  14. 제13항에 있어서,
    상기 느린 적응(Slow Adaptation)을 통한 상태 변경 기법은,
    상기 객체 볼륨 공간 내에서 미리 정해진 시간을 초과하여 존재하는 요소를, 상기 객체를 구성하는 요소로서 결정하고, 상기 객체 볼륨 공간 내에서 상기 미리 정해진 시간 이하 동안 존재하는 요소를, 상기 객체를 파지하는 물체를 구성하는 요소로서 결정하는 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
  15. 제9항에 있어서,
    상기 3차원 정보 복원부는,
    상기 객체 볼륨 공간과 상기 적어도 하나의 카메라 사이의 상대 위치의 변화를 확인하고, 상기 객체 볼륨 공간과 상기 적어도 하나의 카메라 사이의 상대 위치에 대응되는 상기 객체의 3차원 정보를 생성하는 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
  16. 제9항에 있어서,
    상기 적어도 하나의 카메라 장치는 깊이 이미지를 촬영하는 깊이 카메라인 것을 특징으로 하는 객체의 3차원 정보 복원 장치.
KR1020170156691A 2017-11-22 2017-11-22 객체의 3차원 정보 복원 방법 및 장치 KR102129458B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170156691A KR102129458B1 (ko) 2017-11-22 2017-11-22 객체의 3차원 정보 복원 방법 및 장치
US15/836,542 US10643372B2 (en) 2017-11-22 2017-12-08 Method for reconstructing three-dimensional information of object and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170156691A KR102129458B1 (ko) 2017-11-22 2017-11-22 객체의 3차원 정보 복원 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190059092A KR20190059092A (ko) 2019-05-30
KR102129458B1 true KR102129458B1 (ko) 2020-07-08

Family

ID=66532487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170156691A KR102129458B1 (ko) 2017-11-22 2017-11-22 객체의 3차원 정보 복원 방법 및 장치

Country Status (2)

Country Link
US (1) US10643372B2 (ko)
KR (1) KR102129458B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102129458B1 (ko) * 2017-11-22 2020-07-08 한국전자통신연구원 객체의 3차원 정보 복원 방법 및 장치
CN110517305B (zh) * 2019-08-16 2022-11-04 兰州大学 一种基于图像序列的固定物体三维图像重构方法
KR102364822B1 (ko) * 2020-11-04 2022-02-18 한국전자기술연구원 가려진 영역 복원 방법 및 장치
KR102551194B1 (ko) * 2020-11-13 2023-07-05 주식회사 예간 3차원 모델의 텍스처를 생성하기 위한 방법 및 장치
KR102339472B1 (ko) * 2020-12-23 2021-12-16 고려대학교 산학협력단 3차원 공간 모델 생성 방법 및 장치
KR102662058B1 (ko) * 2021-11-25 2024-04-30 (주)천재교육 서로 다른 위치에서 획득한 복수의 2차원 이미지들을 이용하여 3차원 공간 모델링 데이터를 생성하는 장치 및 방법과 이를 위한 프로그램

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002540537A (ja) * 1999-03-26 2002-11-26 スキャンノヴァ ゲーエムベーハー 三次元構造の物体を撮影する装置
US20060067562A1 (en) * 2004-09-30 2006-03-30 The Regents Of The University Of California Detection of moving objects in a video
WO2009154484A2 (en) 2008-06-20 2009-12-23 Business Intelligence Solutions Safe B.V. Methods, apparatus and systems for data visualization and related applications
JP2011118495A (ja) 2009-12-01 2011-06-16 Saitama Univ 画像処理装置、画像処理方法およびプログラム
US9639943B1 (en) 2015-12-21 2017-05-02 Intel Corporation Scanning of a handheld object for 3-dimensional reconstruction

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3409873B2 (ja) * 1993-03-05 2003-05-26 株式会社東芝 物体入力装置
US20100182406A1 (en) * 2007-07-12 2010-07-22 Benitez Ana B System and method for three-dimensional object reconstruction from two-dimensional images
KR101665049B1 (ko) 2010-08-11 2016-10-11 삼성전자주식회사 영상 처리 장치 및 방법
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9053571B2 (en) 2011-06-06 2015-06-09 Microsoft Corporation Generating computer models of 3D objects
KR101697652B1 (ko) 2012-04-25 2017-01-18 한국전자통신연구원 3차원 영상 시스템에서 영상 객체를 추출하기 위한 장치 및 그 방법
US9384585B2 (en) 2012-10-23 2016-07-05 Electronics And Telecommunications Research Institute 3-dimensional shape reconstruction device using depth image and color image and the method
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
WO2017079278A1 (en) * 2015-11-04 2017-05-11 Intel Corporation Hybrid foreground-background technique for 3d model reconstruction of dynamic scenes
KR101759799B1 (ko) * 2015-12-29 2017-08-01 (주)태원이노베이션 3차원 이미지 제공 방법
KR102129458B1 (ko) * 2017-11-22 2020-07-08 한국전자통신연구원 객체의 3차원 정보 복원 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002540537A (ja) * 1999-03-26 2002-11-26 スキャンノヴァ ゲーエムベーハー 三次元構造の物体を撮影する装置
US20060067562A1 (en) * 2004-09-30 2006-03-30 The Regents Of The University Of California Detection of moving objects in a video
WO2009154484A2 (en) 2008-06-20 2009-12-23 Business Intelligence Solutions Safe B.V. Methods, apparatus and systems for data visualization and related applications
JP2011118495A (ja) 2009-12-01 2011-06-16 Saitama Univ 画像処理装置、画像処理方法およびプログラム
US9639943B1 (en) 2015-12-21 2017-05-02 Intel Corporation Scanning of a handheld object for 3-dimensional reconstruction

Also Published As

Publication number Publication date
US10643372B2 (en) 2020-05-05
US20190156552A1 (en) 2019-05-23
KR20190059092A (ko) 2019-05-30

Similar Documents

Publication Publication Date Title
KR102129458B1 (ko) 객체의 3차원 정보 복원 방법 및 장치
CN110264509B (zh) 确定图像捕捉设备的位姿的方法、装置及其存储介质
JP7161150B2 (ja) ジオメトリ情報の動き補償
US20210174124A1 (en) Method, device and storage medium for determining camera posture information
Le Pendu et al. Light field inpainting propagation via low rank matrix completion
KR102135770B1 (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
KR102455468B1 (ko) 객체의 3차원 모델을 복원하는 방법 및 장치
CN107958446B (zh) 信息处理设备和信息处理方法
EP3285484B1 (en) Image processing apparatus, image generation method, and program
WO2019196745A1 (zh) 人脸建模方法及相关产品
CN111080776B (zh) 人体动作三维数据采集和复现的处理方法及系统
CN105701762B (zh) 一种图片处理方法和电子设备
KR20170070620A (ko) 스테레오 영상 매칭 방법 및 장치
EP3326156A1 (en) Consistent tessellation via topology-aware surface tracking
CN105809664B (zh) 生成三维图像的方法和装置
CN108028904B (zh) 移动设备上光场增强现实/虚拟现实的方法和系统
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
CN116168143A (zh) 一种多视图三维重建的方法
WO2019196871A1 (zh) 建模方法及相关装置
WO2019124194A1 (ja) 立体を認識するためのプログラム、システム、電子装置、及び方法
JP2018032938A (ja) 画像処理装置、画像処理の方法およびプログラム
JP6730695B2 (ja) 特徴追跡及びモデル登録により三次元多視点を再構成するための方法。
US11475629B2 (en) Method for 3D reconstruction of an object
JP5769248B2 (ja) ステレオマッチング処理装置、ステレオマッチング処理方法、及び、プログラム
CN113034345B (zh) 一种基于sfm重建的人脸识别方法及系统

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)