KR20170031656A - 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방 - Google Patents

화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방 Download PDF

Info

Publication number
KR20170031656A
KR20170031656A KR1020167033704A KR20167033704A KR20170031656A KR 20170031656 A KR20170031656 A KR 20170031656A KR 1020167033704 A KR1020167033704 A KR 1020167033704A KR 20167033704 A KR20167033704 A KR 20167033704A KR 20170031656 A KR20170031656 A KR 20170031656A
Authority
KR
South Korea
Prior art keywords
information
space
dimensional model
altitude
unit
Prior art date
Application number
KR1020167033704A
Other languages
English (en)
Inventor
막심 타이스센코
젠나디 키스
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20170031656A publication Critical patent/KR20170031656A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

다양한 실시 예에 따르면, 전자 장치는, 피사체에 대한 화상을 획득하기 위한 카메라 모듈; 디스플레이 모듈; 및 상기 카메라 모듈을 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하고, 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하며, 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하고, 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 상기 디스플레이 모듈을 통해 표시하는 3차원 공간 결정 모듈을 포함할 수 있다. 다른 실시 예들이 가능하다.

Description

화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방법{ELECTRONIC APPARATUS AND METHOD FOR PROCESSING THREE-DIMENSIONAL INFORMATION USINS IMAGE}
다양한 실시 예들은 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방법에 관한 것이다.
전자 장치는 탑재된 카메라를 이용하여, 피사체에 대한 화상을 획득할 수 있다. 피사체에 대해 획득된 2차원 화상뿐만 아니라, 피사체와 관련된 3차원적인 시각적 효과를 제공하기 위해, 획득된 화상을 이용한 다양한 처리가 적용될 수 있다. 전자 장치는, 복수의 렌즈들을 이용하여 특정 피사체에 대한 복수의 화상들을 동시에 획득하고, 획득된 복수의 화상들 간 이미지 차이를 이용하여 피사체의 3차원 정보를 재구성할 수 있다. 전자장치는, 3차원 정보를 이용하여 피사체에 대한 3차원적인 시각 효과를 전자 장치의 화면을 통해 사용자에게 제공할 수 있다.
종래 기술에 따르면, 피사체에 대한 2차원 화상들로부터 피사체와 관련된 3차원 정보를 재구성하는 데에 상당히 많은 연산이 필요하다. 전자 장치는 한정된 자원으로 인해, 이러한 연산을 수행하기 위해 상대적으로 긴 시간이 필요할 수 있다. 피사체를 포함하는 2차원 화상들로부터 3차원 정보를 재구성하고, 3차원 공간의 특정 오브젝트가 다른 오브젝트들과 3차원적인 상호작용을 하는 시각적 효과를 제공하기 위해서는, 상대적으로 짧은 시간 내에 3차원 정보를 처리할 수 있어야 한다.
아울러, 전자 장치에 모노 카메라가 탑재된 경우에는, 하나의 렌즈로 촬영된 복수의 2차원 화상으로부터 피사체와 관련된 3차원 정보를 재구성할 수 있는 방법이 필요하다.
전술한 과제 또는 다른 과제를 해결하기 위한, 다양한 실시 예에 따르면, 전자 장치는, 피사체에 대한 화상을 획득하기 위한 카메라 모듈; 디스플레이 모듈; 및 상기 카메라 모듈을 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하고, 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하며, 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하고, 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 상기 디스플레이 모듈을 통해 표시하는 3차원 공간 결정 모듈을 포함할 수 있다.
다양한 실시 예에 따르면, 예를 들면, 자원의 제약에도 상대적으로 빠른 연산 속도로 2차원 화상으로부터 피사체와 관련된 3차원 정보를 효율적으로 재구성할 수 있다.
다양한 실시 예에 따르면, 예를 들면, 모노 카메라를 이용하여 촬영한 복수의 2차원 화상으로부터 피사체와 관련된 3차원 정보를 획득할 수 있다.
도 1은 다양한 실시 예에 따른 전자 장치을 포함하는 네트워크 환경을 도시한다.
도 2는 다양한 실시 예에 따른 피사체와 관련된 3차원 공간의 모식도를 도시한다.
도 3은 다양한 실시 예에 따른 전자 장치의 3차원 공간 결정 모듈의 블록도를 도시한다.
도 4는 다양한 실시 예에 따른 전자 장치에서 사용하는 플레인 스윕 기법의 모식도를 도시한다.
도 5는 다양한 실시 예에 따른 전자 장치에서 히스토그램을 이용하여 3차원 모델을 재구성하는 방법을 설명하기 위한 도면을 도시한다.
도 6은 다양한 실시 예에 따른 전자 장치에서 단위 공간의 크기를 제어하는 과정을 설명하기 위한 도면을 도시한다.
도 7은 다양한 실시 예에 따른 전자 장치에서 고도 지도를 획득하는 과정을 설명하기 위한 도면을 도시한다.
도 8은 다양한 실시 예에 따른 전자 장치에서 오브젝트를 3차원적으로 표시하는 화면을 예시한 도면을 도시한다.
도 9는 다양한 실시 예에 따른 전자 장치의 제어 방법의 순서도를 도시한다.
도 10은 다양한 실시 예에 따른 전자 장치의 블록도를 도시한다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용되었다.
본 발명의 다양한 실시 예에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 사용된 "제 1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 카메라 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛,산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 카메라 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른, 전자 장치(101)을 포함하는 네트워크 환경(100)를 도시한다. 도 1을 참조하면, 상기 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신인터페이스(160) 및 3차원 공간 결정 모듈(170)을 포함할 수 있다.
상기 버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서(120)는, 예를 들면, 상기 버스(110)를 통해 전술한 다른 구성요소들(예: 상기 메모리(130), 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 3차원 공간 결정 모듈(170) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리(130)는, 상기 프로세서(120) 또는 다른 구성요소들(예: 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 3차원 공간 결정 모듈(170)등)로부터 수신되거나 상기 프로세서(120)또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(130)는, 예를 들면, 커널(131), 미들웨어(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface)(133) 또는 어플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(131)은 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에서 상기 전자 장치(101)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어(132)는 상기 API(133) 또는 상기 어플리케이션(134)이 상기 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(132)는 상기 어플리케이션(134)로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션(134) 중 적어도 하나의 어플리케이션에 상기 전자 장치(101)의 시스템 리소스(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API(133)는 상기 어플리케이션(134)이 상기 커널(131) 또는 상기 미들웨어(132)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션(134)는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션(134)은 상기 전자 장치(101)와 외부 전자 장치(예: 전자 장치(104)) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치(101)의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치(104))로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치(104))로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치(101)와 통신하는 외부 전자 장치(예: 전자 장치(104))의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션(134)은 상기 외부 전자 장치(예: 전자 장치(104))의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션(134)은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션(134)은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 어플리케이션(134)은 전자 장치(101)에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버(106) 또는 전자 장치(104))로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스(140)은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 또는 상기 3차원 공간 결정 모듈(170)에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서(120)로 제공할 수 있다. 또한, 상기 입출력 인터페이스(140)은, 예를 들면, 상기 버스(110)을 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 또는 상기 3차원 공간 결정 모듈(170)로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다.예를 들면, 상기 입출력 인터페이스(140)은 상기 프로세서(120)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이(150)은 사용자에게각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
상기 통신 인터페이스(160)은 상기 전자 장치(101)와 외부 장치(예: 전자 장치(104) 또는 서버(106)) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스(160)은 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 상기 네트워크(162)는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시 예에 따르면, 상기 전자 장치 101와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션(134), 어플리케이션 프로그래밍 인터페이스(133), 상기 미들웨어(132), 커널(131) 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.
한 실시 예에 따르면, 상기 서버(106)는 상기 전자 장치(101)에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치(101)의 구동을 지원할 수 있다. 예를 들면, 상기 서버(106)는 상기 전자 장치(101)에 구현된 3차원 공간 결정 모듈(170)을 지원할 수 있는 화상 처리 서버 모듈(108)을 포함할 수 있다. 예컨대, 상기 화상 처리 서버 모듈(108)은 3차원 공간 결정 모듈(170)의 적어도 하나의 구성요소를 포함하여, 3차원 공간 결정 모듈(170)이 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다.
상기 3차원 공간 결정 모듈(170)은, 다른 구성요소들(예: 상기 프로세서(120), 상기 메모리(130), 상기 입출력 인터페이스(140), 또는 상기 통신 인터페이스(160) 등)로부터 획득된 정보 중 적어도 일부를 처리하고,이를 다양한 방법으로 사용자에게 제공 할 수 있다.예를 들면, 상기 3차원 공간 결정 모듈(170)은 피사체에 대한 3차원 공간의 적어도 일부 공간을 결정하기 위한 명령어를 받으면, 카메라로부터 피사체의 화상과 상기 카메라의 위치 또는 초점 정보들을 획득하고, 상기 프로세서(120)를 이용하여 또는 이와는 독립적으로, 상기 정보들을 처리하여 상기 피사체에 대한 3차원 공간의 적어도 일부 공간을 결정할 수 있고, 상기 결정된 결과는 상기 3차원 공간 결정 모듈(170) 또는 상기 전자 장치(101)의 다른 기능 모듈에 의해 이용될 수 있다.한 실시 예에 따르면, 3차원 공간 결정모듈(170)의 적어도 하나의 구성은 상기 서버(106)(예: 화상 처리 서버 모듈(108))에 포함될 수 있으며, 상기 서버(106)로부터 3차원 공간 결정모듈(170)에서 구현되는 적어도 하나의 동작을 지원받을 수 있다.
다양한 실시 예에 따르면, 3차원 공간 결정 모듈(170)은, 피사체의 3차원 공간에 대한 고도 정보를 획득할 수 있다. 3차원 공간 결정 모듈(170)은, 획득한 고도 정보(예: 고도지도)에 기반하여, 피사체와 관련된 3차원 공간을 다양한 특징 영역으로 판단할 수 있다. 한 실시 예에 따르면, 3차원 공간 결정 모듈(170)은, 피사체와 관련된 3차원 공간 중 인접한 영역에 비해 고도가 급격히 높아지는 영역에 대해서는 장애물(obstacle)로 판단할 수 있고, 고도가 서서히 높아지는 영역에 대해서는 오르막(uphill)으로 판단할 수 있다. 3차원 공간 결정 모듈(170)은, 피사체와 관련된 3차원 공간 중 인접한 영역에 비해 고도가 급격히 낮아지는 영역에 대해서는 구덩이(pit)으로 판단할 수 있고, 고도가 서서히 낮아지는 영역에 대해서는 내리막(downhill)으로 판단할 수 있다. 한 실시 예에 따르면, 고도의 변화(또는 경사, 기울기)가 급격한지 완만한지는 특정 기준치를 두어(예: 고도 지도에서 단위 평면 간의 고도 연속성 또는 차이), 고도의 변화의 정도에 따라, 예를 들면, 없음, 완만함 또는 급격함 등의 복수개의 레벨들로 나눌 수 있다. 한 실시 예에 따르면, 3차원 공간 결정 모듈(170)은, 처리 속도 향상을 위해, 피사체와 관련된 3차원 공간을 복수의 특징 영역들, 예를 들면, 장애물과 구덩이 중 하나로만 판단할 수 있다. 이는 하나의 실시 예에 불과하며, 다른 실시 예들도 가능하다.
도 2는 다양한 실시 예에 따른 피사체와 관련된 3차원 공간의 모식도(200)를 도시한다. 본 실시 예에 따른 전자 장치(예: 3차원 공간 결정 모듈(170))는 피사체와 관련된 3차원 공간으로, 카메라로부터 획득한 피사체의 화상들을 이용하여 재구성한 피사체 및 피사체 주변을 포함하는 3차원 공간을 결정할 수 있다.
도 2을 참조하면, 피사체는 테이블(220) 또는 테이블(220) 위에 올려진 꽃병(210) 등일 수 있다. 경계 박스(230)는 피사체(210) 또는(220)를 중심으로 일정 범위 내의 가상의 경계 공간을 나타낼 수 있다. 한 실시 예에 따르면, 경계 박스(230)는, 3차원 공간을 결정하는데 있어서 연산의 범위를 결정하기 위하여 설정될 수 있다. 전자 장치는, 경계 박스(230)에 기반하여 3차원 공간을 위한 연산을 수행함에 있어서, 경계 박스(230) 외부의 공간에 대한 연산을 생략할 수 있다. 예컨대, 경계 박스(230)의 크기가 작게 설정되면, 경계 박스(230)에 기반하여 결정되는 3차원 공간의 크기 또한, 작아지지만, 해당 3차원 공간을 결정하는 데에 필요한 연산량을 줄일 수 있다.
다양한 실시 예에 따르면, 전자 장치는, 피사체(210) 또는(220)와 관련하여 촬영된 화상들을 이용하여, 카메라로부터 피사체(210) 또는 (220)의 표면까지의 깊이 정보(예: 카메라와 피사체(210) 또는 (220)의 표면 간의 거리)에 대응되는 깊이 지도(미도시)를 생성하고, 생성된 깊이 지도에 기반하여 피사체(210 또는 220)과 관련된 3차원 모델(250)을 재구성할 수 있다.
다양한 실시 예에 따른 3차원 모델(250)은, 단위 공간(voxel)(255)의 집합일 수 있다. 단위 공간(255)은 3차원 공간을 나누는 기본 단위가 되는 입면체일 수 있다. 전자 장치는, 예를 들면, 생성된 깊이 지도에 포함된 깊이 정보를 이용하여, 피사체(210 또는 220) 주변의 공간(예: 경계 박스(230) 내부의 공간)에서, 피사체(210 또는 220)의 표면 또는 내부에 위치한다고 판단되는 단위 공간 (255)들로 피사체(210 또는 220)와 관련된 3차원 모델(250)을 재구성할 수 있다.
다양한 실시 예에 따른 고도 지도(260)는 특정 평면을 기준으로 3차원 모델(250)의 고도 방향으로의 위치 및 연속성 정보를 포함할 수 있다. 한 실시 예에 따르면, 고도 지도(260)는 단위 평면(pixel)(265)의 집합일 수 있다. 단위 평면(265)은 2차원 평면을 나누는 기본 단위가 되는 평면일 수 있다. 예를 들면, 고도 지도(260)를 구성하는 각 단위 평면(265)은, 단위 평면(265)의 면적에 대응하는, 3차원 모델(250)의 고도 방향으로의 위치 및 연속성 정보를 포함할 수 있다.
상기한 도 2에 도시된 구성요소들, 예를 들면, 피사체(210 또는 220), 경계박스(230), 3차원 모델(250), 고도 지도(260)의 중 적어도 하나는, 처리과정에서 전술한 입체적 또는 평면적인 특징에 대응하는 데이터, 자료구조, 또는 행렬 등의 형태로 표현되거나 저장될 수 있다.
전술한 도 2의 구성요소들은, 다양한 실시 예들의 이해를 돕기 위해, 후술부에서 계속 인용하여 서술 한다. 이때, 반드시 전술한 내용에 한정되는 것은 아니며 다양한 실시 예들을 포괄하는 개념으로 이해되어야 한다.
도 3은 다양한 실시 예에 따른 전자 장치(예: 전자 장치(101))의 3차원 공간 결정 모듈(170)의 블록도(300)를 도시한다. 도 3을 참조하면, 상기 3차원 공간 결정 모듈(170)은 깊이 지도(depth map) 처리 모듈(310), 3차원 모델(3-dimension model) 처리 모듈(320) 및 고도 지도(altitude map) 처리 모듈(330)을 포함할 수 있다.
다양한 실시 예에 따르면, 깊이 지도 처리 모듈(310)은, 예를 들면, 카메라로부터 획득한 피사체에 대한 화상 및 카메라의 위치 또는 초점 정보들을 이용하여, 카메라로부터 피사체까지의 거리 혹은 깊이를 판단할 수 있다. 깊이 지도 처리 모듈(310)은, 이렇게 판단된 깊이에 기반하여 피사체와 관련된 깊이 지도를 생성할 수 있다. 깊이 지도는 화상에 나타난 피사체와 관련된 3차원 정보 또는 이미지를 재구성하는데 이용될 수 있다.
다양한 실시 예에 따르면, 깊이 지도 처리 모듈(310)은, 깊이 지도를 생성하기 위해 모노 카메라(mono-scope camera)로부터 획득한 피사체에 대한 복수개의 화상들 및 복수개의 화상들에 대응하는 카메라의 촬영 위치 또는 초점을 이용할 수 있다.
다양한 실시 예에 따르면, 깊이 지도 처리 모듈(310)은, 획득한 피사체에 대한 화상과 카메라의 위치 또는 초점을 이용하여, 피사체의 깊이 정보(예: 카메라로부터 피사체 표면까지의 거리 정보)를 포함하는 깊이 지도를 생성한다. 화상 및 그에 대응하는 카메라의 위치 또는 초점 정보는 연속해서 획득될 수 있다. 피사체를 촬영하는 과정에서 피사체에 대한 카메라의 상대적인 위치가 바뀜(예: 사용자가 단말을 들고 각도를 바꾸는 경우 또는 사용자에 의해 촬영 중에 손 떨림 등에 의해 약간씩 차이가 있는 화상들이 발생하는 경우)에 따라, 다양한 각도 또는 초점에 대응하는 화상을 획득할 수 있다.
한 실시 예에 따르면, 깊이 처리 모듈(310)은, 예를 들면, 플레인 스윕 기법(plane-sweep approach)을 이용하여 획득한 화상들로부터 깊이 정보를 포함하는 깊이 지도를 생성할 수 있다. 도 4를 통하여 상기 플레인 스윕 기법에 대한 추가적인 정보가 제공된다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 예를 들면, 깊이 지도 처리 모듈(310)에 의해 생성된 깊이 정보를 이용하여 피사체의 적어도 일부 공간에 대한 3차원 모델을 재구성할 수 있다. 3차원 모델 처리 모듈(320)은, 예를 들면, 깊이 지도에 포함된 깊이 정보에 기반하여 3차원 공간에서 피사체의 표면 및 내부에 대응하는 공간을 판단할 수 있다. 3차원 모델 처리 모듈(320)은, 판단된 공간에 기반하여 피사체의 3차원 모델을 생성할 수 있다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 피사체의 적어도 일부 공간에 대한 피사체(예: 꽃병(210) 또는 테이블(220))의 3차원 모델(예: 3차원 모델(250))을 재구성 하기 위해, 피사체를 중심으로 경계 박스(예:경계 박스(230))를 설정할 수 있다. 3차원 모델 처리 모듈(320)은, 예를 들면, 피사체의 3차원 공간의 경계 박스로, 피사체를 중심에 두고 있는 육면체의 형태로 설정할 수 있다. 3차원 모델 처리 모듈(320)은, 깊이 지도에 나타난 모든 깊이 정보를 3차원으로 재구성하는 대신, 경계 박스의 범위 내에 대응하는 깊이 지도의 정보만 처리하여, 피사체의 3차원 모델을 구성하도록 할 수 있다.
다양한 실시 예에 따르면, 피사체의 3차원 모델은 함수(예: )의 형태로 구현될 수 있다. 여기서 X는 특정 범위의 3차원 공간 내부의(예: 경계 박스(230) 내부의) 단위 공간들의 집합일 수 있다. 예를 들면, 함수 는 단위 공간들 중 피사체의 내부에 위치하는 단위 공간을 음수(예: )에 대응시킬 수 있다. 함수 는 단위 공간들 중 피사체의 외부에 위치하는 단위 공간을 양수(예: ;)에 대응시킬 수 있다. 함수 는 피사체의 표면을 지나는 단위 공간을 에 대응시킬 수 있다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 피사체의 적어도 일부 공간에 대한 피사체의 3차원 모델(예: 3차원 모델(250))을 재구성 하기 위해 주 평면을 결정할 수 있다. 예를 들면, 주 평면은 경계 박스(예: 경계 박스(230))의 가장 아래 평면이 될 수 있다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 피사체의 적어도 일부 공간에 대한 피사체의 3차원 모델(예: 3차원 모델(250))을 재구성 하기 위해, 상기 적어도 일부 공간을 단위 공간(예: 단위 공간(255))으로 나눌 수 있다. 단위 공간은 3차원 공간을 나누는 기본 단위가 되는 입면체일 수 있다. 평면에 대응하는 개념을 예로 들면, 평면을 나누는 기본단위인 단위 평면에 대응될 수 있다. 예를 들면, 단위 공간은 공간 축(예: x축(x-axis), y축(y-axis), z축(z-axis) 등)에 대해 또는 공간 축들의 벡터(vector) 합에 의한 새로운 축에 대해 또는 이들의 조합에 대해 평행한 변을 가진 입면체일 수 있다. 단위 공간의 크기는 설정에 따라 달라질 수 있다. 예컨대, 단위 공간은, 상대적인 길이로써, x축에 평행한 변의 길이가 1,y축에 평행한 변의 길이가 1,z축에 평행한 변의 길이가 1인 육면체일 수 있다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 깊이 지도가 단위 공간들(예: 단위 공간(255))의 각각에 대해 대응하도록 상기 깊이 지도를 이산화(discretization)할 수 있다. 3차원 모델 처리 모듈(320)은, 이산화 처리 결과로, 고도 정보를 획득하기 위한 3차원 모델(예: 3차원 모델(250))을 얻을 수 있다. 3차원 모델 처리 모듈(320)은, 예를 들면, 깊이 지도로부터 피사체의 표면의 깊이를 알 수 있다. 3차원 모델 처리 모듈(320)은, 깊이 지도에 의해 3차원 공간 상에 대응되는 점과 직선상으로 뒤쪽으로 연결한 연장선이 지나는 단위 공간을 피사체가 점유하고 있는 공간으로 추정하고, 3차원 모델을 이러한 단위 공간(355)의 집합으로 획득할 수 있다. 3차원 모델 처리 모듈(320)은, 예를 들면, 단위 공간의 크기를 작게 설정하면 부드러운 형태의 3차원 모델을 얻을 수 있고, 단위 공간의 크기를 크게 설정하면 거친 형태의 3차원 모델을 얻을 수 있다. 한 실시 예에 따르면, 단위 공간의 크기는 후술할 고도 지도 처리 모듈(330)에서 수행하는 고도 지도 처리 과정에도 영향을 미칠 수 있다. 예를 들면, 단위 공간의 크기에 비례하여 고도 지도의 단위 평면(예: 단위 평면(265))의 크기가 설정될 수 있다. 도 5를 통하여 깊이 정보를 단위 공간에 대응시켜 3차원 모델로 구성하는 방법에 대한 추가적인 정보가 제공된다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 후술할 고도 지도 처리 모듈(330)에서 생성될 고도 지도와 관련하여, 유효한 정보 생성과 처리 속도 향상을 위해, 단위 공간(예: 단위 공간(255))의 크기를 다양한 레벨로 제어할 수 있다. 3차원 모델 처리 모듈(320)은, 예컨대, 단위 공간의 크기를 제어하는 방법으로 단위 공간의 변의 길이를 설정할 수 있다. 예를 들어, 고도에 관한 정보를 빠르게 처리하기 위해, 단위 공간을, 상대적인 길이로써, x축에 평행한 변의 길이가 1,y축에 평행한 변의 길이가 1,z축에 평행한 변의 길이가 3인 육면체로 설정할 수 있다. 한 실시 예에 따르면, 단위 공간의 부피를 크게 할수록 고도 지도 처리 모듈(330)의 처리속도가 빨라질 수 있다.
다양한 실시 예에 따르면, 3차원 모델 처리 모듈(320)은, 3차원 공간 결정과 관련된 연산의 처리 속도를 모니터링하고, 처리 속도에 따라 단위 공간(예:단위 공간(255))의 크기를 제어할 수 있다. 예를 들면, 3차원 모델 처리 모듈(320)은, 해당 연산의 처리 시간이 빠르면, 처리 속도가 빠른 것으로 판단할 수 있다. 3차원 모델 처리 모듈(320)의 모니터링 대상은 3차원 모델의 생성 속도, 고도 지도의 생성 속도 등이 될 수 있다. 모니터링 대상의 처리에 소요되는 시간을 임계 값과 비교하고, 비교 결과(예: 소요 시간이 임계 값을 초과 또는 미달하는지 여부)에 따라 단위 공간의 크기를 제어할 수 있다. 3차원 모델 처리 모듈(320)은, 예를 들면, 화상 위에서 움직이는 오브젝트의 안정적인 반응속도를 확보하기 위해 정보 처리(예: 3차원 모델 생성 또는 고도 지도 생성)가 적어도 500ms 이하의 시간 내에 처리될 필요가 있다면, 처리 속도를 모니터링하고, 500ms 이상이 걸리는 경우 단위 공간의 크기를 늘릴 수 있다.
한 실시 예에 따르면, 단위 공간의 크기는 3차원 모델 생성 과정에서 동적으로 제어될 수 있다. 예를 들면, 3차원 모델 처리 모듈(320)은, 3차원 모델 생성의 수행 시간을 모니터링하고, 수행 완료에 소요되는 시간이 임계 값을 초과하면, 단위 공간 의 크기를 제어할 수 있다. 예컨대, 단위 공간의 크기를 고도 축(예: z-axis)방향으로 늘릴 수 있다
단위 공간 크기 제어는 3차원 모델 생성 처리 전, 처리 후 또는 처리 도중에 수행될 수 있다. 단위 공간 크기 제어의 수행 결과인 단위 공간의 크기 설정은 3차원 모델 처리 모듈(320)에 반영될 수 있다. 도 6을 통하여 처리 속도에 기반한 단위 공간의 크기 제어에 대한 추가적인 정보가 제공된다.
다양한 실시 예에 따르면, 고도 지도 처리 모듈(330)은, 예를 들면, 3차원 모델 처리 모듈로부터 획득한 3차원 모델 정보에 기반하여 피사체와 관련한 고도 정보를 획득할 수 있다.
다양한 실시 예에 따르면, 고도 지도 처리 모듈(330)은, 피사체와 관련한 고도 정보를 포함하는 고도 지도(예: 고도 지도(260))를 생성할 수 있다. 예를 들면, 고도 지도는 주 평면(예: 경계 박스 가장 아래 평면 또는 넓은 범위에 걸쳐 고도가 일정한 평면 등)을 결정하고, 결정된 주 평면 위에 고도 정보를 대응시켜 구성할 수 있다. 고도 지도 처리 모듈(330)은, 예를 들어, 주 평면에 고도 정보를 대응시키기 위해 주 평면을 단위 평면으로 나눌 수 있다. 한 실시 예에 따르면, 단위 평면은 하나의 화소를 단위로 설정될 수도 있고, 가로 또는 세로가 복수개인 화소의 집합(pixel patch)으로 이루어진 단위(예: 단위 공간의 밑면의 면적에 대응하는 범위)로 설정될 수도 있다.
다양한 실시 예에 따르면, 고도 지도 처리 모듈 330은, 예를 들면, 경계 박스(예: 경계 박스(230))의 범위 내에서 피사체와 관련된 고도 지도(예: 고도 지도(260))를 생성할 수 있다. 고도 지도 처리 모듈(330)은, 고도 지도의 주 평면을 경계 박스 내부의 지면과 평행한 평면으로 결정할 수 있다. 고도 지도의 주 평면은, 예컨대, 경계 박스의 가장 아래 면이 될 수 있다. 고도 지도 처리 모듈(330)은, 주 평면에 대해, 경계 박스의 x축을 따라, 단위 공간(예: 단위 공간(255))의 개수에 대응하도록, 주 평면의 x축 길이 및 세그먼트를 결정할 수 있다. 같은 맥락으로, 경계 박스의 y축을 따라, 단위 공간의 개수에 대응하도록, 주 평면의 y축의 길이 및 세그먼트를 결정할 수 있다. 고도 지도 처리 모듈(330)은, 결정된 고도 지도의 주 평면을 세그먼트에 따라 단위 평면(예: 단위 평면(265))으로 나눌 수 있다. 한 실시 예에 따르면, 고도 지도는 주 평면의 단위 평면에 대해 고도 축을 따라 피사체의 3차원 모델(예: 3차원 모델(250))이 차지하고 있는 공간 정보를 포함할 수 있다. 예를 들어, 고도 지도는 피사체의 3차원 모델이 차지하고 있는 위치 및 연속성 정보를 포함할 수 있다. 이 정보들은 주 평면의 각 단위 평면에 대응시켜 구성할 수 있다. 도 7을 통하여 3차원 모델이 차지하고 있는 위치 및 연속성 정보를 고도 지도에 대응시키는 방법에 대한 추가적인 정보가 제공된다.
다양한 실시 예에 따르면, 고도 지도 처리 모듈(330)은, 고도 지도의 잡음 제거 처리를 할 수 있다. 고도 지도는 화상으로부터 고도 지도를 생성하는 각 과정에서 발생할 수 있는 유효성이 낮은 고도 정보를 포함할 수 있다. 전자장치는, 고도 지도의 특정 고도 정보로부터 인접한 다른 고도 정보들을 이용하여 특정 고도 정보의 유효성을 판단할 수 있다. 예를 들면, 전자 장치는, 특정 고도 정보와 인접한 다른 고도 정보를 비교했을 때, 고도의 연속성이 떨어진다면, 특정 고도 정보의 유효성이 낮은 것으로 판단할 수 있다. 고도 지도 처리 모듈(330)은, 고도 지도에 포함된 고도 정보 중 유효성이 상대적으로 낮은 고도 정보를 판단하여, 이를 제거할 수 있다.
한 실시 예에 따르면, 잡음 제거 처리는 고도 지도에 최대-최소 팽창(min-max dilation) 및 최대-최소 침식(min-max erosion) 방법을 순차적으로 적용할 수 있다. 예컨대, 고도 지도를 그레이 스케일(gray scale)로 나타냈을 때, 고도 지도 이미지에 대한 최대-최소 팽창 방법은 하기 수학식에 따라 수행될 수 있다.
Figure pct00001
여기서 I(x,y)는 단위 평면 (x,y)에 대응하는 이미지의 응집도일 수 있다. N(x,y)는 단위 평면(x,y) 중심에 위치하는 이미지 패치(image patch)(예 : 화소의 집합)일 수 있다. 같은 맥락으로 최대-최소 침식 방법은, 하기 수학식에 따라 수행될 수 있다.
Figure pct00002
본 실시 예에서는, 설명의 편의를 위해, 고도 지도의 잡음 제거를 위해, 최대-최소 팽창 방법 또는 최대-최소 침식 방법을 기술하였으나, 이는 하나의 실시 예에 불과하며, 잡음 제거와 관련된 다른 방법 또는 알고리즘이 적용될 수 있다.
도 4는 다양한 실시 예에 따른 전자 장치에서 사용하는 플레인 스윕 기법의 모식도(400)을 도시한다.
도 4를 참조하면, 전자 장치(예: 깊이 지도 처리 모듈(210))은 플레인 스윕 기법을 이용해 깊이 지도를 획득할 수 있다. 본 실시 예에서, 뷰(view)는 카메라의 위치 또는 초점 정보를 포함하는 화상일 수 있다. 전자 장치는, 획득한 복수의 뷰들 중에서 특정한 뷰를 키 뷰(key view)(410)로 결정할 수 있다. 전자 장치는, 키 뷰(420) 외의 다른 뷰는 레퍼런스 뷰(reference view)(420)로 결정할 수 있다. 전자 장치는 키 뷰(410)를 따라 3차원 공간을 가르는 평면들(430)을 반복적(iteratively)으로 특정 간격으로 평행(parallel)하게 정렬할 수 있다. 키 뷰(410)로부터 특정 깊이에 위치하는 평면(430)들은, 각 평면들 마다, 다른 모든 레퍼런스 뷰(420)들로부터 호모그래피(homography)가 입사(projected) 또는 매핑(mapped)되도록 형성될 수 있다. 키 뷰(410)와 평면(430) 간의 깊이가 달라짐에 따라, 키 뷰(410)와 레퍼런스 뷰(420)사이의 호모그래피가 달라질 수 있다. 따라서, 키 뷰(410)와 평면(430)들간의 깊이에 따라, 평행한 평면(430)들로 입사되는 레퍼런스 뷰(420)의 이미지가 달라질 수 있다. 예를 들어, 동일한 밝기 조건에서 특정 깊이에 있는 평면(430)이 피사체의 표면을 정확히 지나고 있다면, 해당하는 깊이의 평면(430)위로의, 키 뷰(410)로부터 입사된 키 뷰 이미지의 색과 레퍼런스 뷰(420)로부터 입사된 레퍼런스 뷰 이미지(예: 레퍼런스 뷰의 특정 픽셀(451)로부터 입사된 이미지)의 색이 서로 일치할 수 있다.
예를 들면, 전자 장치는, 이러한 평면들(430)로 3차원 공간을 가로지르면서 양 이미지들 간의 유사도를 판단하여, 피사체의 표면에 대응하는 키 뷰이미지의 각 영역들에 대한 3차원적인 깊이 값을 결정할 수 있다. 전자 장치는, 예를 들어, 3차원 공간을 가로지르는 각 평면(430)들 위로 입사된 키 뷰 이미지의 특정 픽셀(예: 픽셀(450))과 레퍼런스 뷰 이미지의 특정 픽셀(예: 픽셀(451))의 색을 비교하여 가장 색이 비슷한 평면의 깊이 값을 키 뷰의 특정 픽셀(예: 픽셀(450))에 할당할 수 있다. 전자 장치는, 예를 들면, 키 뷰에 가장 가까운 평면 위의 점(452)에서 키 뷰와 레퍼런스 뷰로부터의 각 픽셀(450, 451)의 색이 가장 비슷한 경우에, 점(452)의 깊이 값을, 픽셀(450)에 할당할 수 있다.
한 실시 예에 따르면, 전자 장치는, 예를 들어, 노이즈 또는 왜곡에 보다 덜 민감한 처리를 위해, 단일 픽셀보다는 가로 또는 세로가 여러 픽셀로 구성된 패치 단위(예: 3x3, 5x5, 2x5 등)로, 양 이미지의 색을 비교하는 과정을 진행할 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치에서 히스토그램을 이용하여 3차원 모델을 재구성하는 방법을 설명하기 위한 도면을 도시한다. 도 5를 참조하면, 전자 장치(예: 3차원 모델 처리 모듈(320))은, 예를 들면, 3차원 모델링을 위한 함수 u를 재구성하기 위해 깊이 지도를 히스토그램(510) 형태로 전환할 수 있다. 한 실시 예에 따르면, 히스토그램(510)은 또 다른 함수
Figure pct00003
로 표현될 수 있다. 히스토그램(510)은 고정된 개수(예: 5개)의 세그먼트로 분할될 수 있다. 각 세그먼트(510)에 대응하는 함수 u의 값은 히스토그램 빈(bin) (511)에 대응(예: bin0, bin1, bin2, bin3, bin4)될 수 있다. 특정 단위 공간 x 와 특정 히스토그램 빈 i 에 대응하는 히스토그램 값은 h(x,i)일 수 있다. 어떤 히스토그램 빈(511)에 누적된 값이 크다면, 함수 u가 해당 단위 공간에서 그 빈에 대응하는 세그먼트의 값의 범위에 속할 확률이 높을 수 있다. 예컨대, 특정 단위 공간에서, bin0은 함수 u의 값 []에 대응하고 bin1은 함수 u의 값 []에 대응할 수 있다. bin0 에 3이라는 값이 할당되고, bin1에 2라는 값이 할당된다면, 해당 단위 공간에서 함수 u의 값은 []의 범위에 들 확률이 높을 수 있다.
전자 장치(예: 3차원 모델 처리 모듈(320))은, 예를 들면, 깊이 지도의 깊이 정보를 이용해, 도 5에 도시된 바와 같이, 히스토그램(510)을 처리하여, 함수 u를 구할 수 있다. 전자 장치는, 함수 u와 관련하여, 깊이 지도의 각 픽셀에 대해 대응하는 깊이에 대한 점 p(530)를 계산할 수 있다. 점 p(530)를 포함하고 있는 단위 공간 x를 찾을 수 있다. 단위 공간 x에 대응하는 히스토그램의 가운데 빈(예: 히스토그램을 구성하는 복수개의 빈 중 가장 가운데 번호의 빈, 번호가 0부터 순서대로 할당된 경우 bins를 총 빈의 개수라 했을 때 |bins/2|에 해당하는 번호의 빈, 함수 u의 값 0에 대응하는 빈)의 값을 증가시킬 수 있다. 카메라(550)의 중앙으로부터 점 p(530)를 잇는 가상의 선을 따라, 점 p(530)로부터 가상의 선이 카메라(550)로부터 멀어지는 방향을 따라 통과하는 단위 공간(535)들(예: x1)에 대해, 각 단위 공간(535)이 한 단위씩 멀어질수록, 가운데 빈을 기준으로, 빈 번호를 감소시키면서 해당 빈 번호에 대응하는 값을 증가시킬 수 있다 (예: h(x1, bins/2 - 1)++ ). 같은 맥락으로, 점 p(530)로부터 가상의 선이 카메라(550)를 향해 가까워지는 방향을 따라 통과하는 단위 공간(535)들(예: x2, x3)에 대해, 각 단위 공간(535)에 대해 한 단위씩 가까워질수록, 가운데 빈을 기준으로, 빈 번호를 증가시키면서 해당 빈 번호에 대응하는 값을 증가시킬 수 있다(예: h(x2, bins/2 + 1)++, h(x3, bins/2 + 2)++ ).
전자 장치는, 예를 들면, 앞에서 처리한 히스토그램(510)을 이용하여, 다음과 같은 최적화 문제에 대한 하기 수학식의 솔루션을 구함으로써, 3차원 모델링을 위한 함수 u를 도출할 수 있다.
Figure pct00004
여기서 는 가중치이고
Figure pct00006
는 피사체 주변의 경계 박스일 수 있다. 한 실시 예에 따르면, 최적화 문제에 대한 솔루션을 구하기 위해, 1차원 쌍대 알고리즘(first order primal-dual algorithm)을 이용할 수 있다.
도 6은 다양한 실시 예에 따른 전자 장치에서 단위 공간의 크기를 제어하는 과정을 설명하기 위한 도면을 도시한다. 도 6을 참조하면, 단위 공간들(610-630)의 각각은 3차원 공간을 나누는 기본 단위가 되는 입면체일 수 있다. 평면에 대응하는 개념을 예로 들면, 평면을 나누는 기본 단위인 단위 평면(pixel)에 대응될 수 있다. 예를 들면, 단위 공간(355)은 공간 축(예: x축(x-axis), y축(y-axis), z축(z-axis) 등)에 대해 또는 공간 축들의 벡터(vector) 합에 의한 새로운 축에 대해 또는 이들의 조합에 대해 평행한 변을 가진 입면체 일 수 있다. 일반적으로 z축은 고도 축을 의미할 수 있다. 단위 공간의 크기는 설정에 따라 달라질 수 있다.
한 실시 예에 따르면, 제 1 단위 공간(610)은, 상대적인 길이로써, x축에 평행한 변의 길이가 1, y축에 평행한 변의 길이가 1, z축에 평행한 변의 길이가 1인 육면체일 수 있다.
한 실시 예에 따르면, 제 2 단위 공간(620)은, 상대적인 길이로써, x축에 평행한 변의 길이가 1, y축에 평행한 변의 길이가 1, z축에 평행한 변의 길이가 2인 육면체일 수 있다.
한 실시 예에 따르면, 제 3 단위 공간(630)은, 상대적인 길이로써, x축에 평행한 변의 길이가 1, y축에 평행한 변의 길이가 1, z축에 평행한 변의 길이가 3인 육면체일 수 있다.
다양한 실시 예에 따르면, 전자 장치(예: 3차원 모델 처리 모듈(320))은, 유효한 정보 생성과 처리 속도 향상을 위해, 단위 공간의 크기를 선택적으로 제어할 수 있다. 한 실시 예에 따르면, 전자 장치는, 단위 공간의 크기를 제어 하는 방법으로 단위 공간의 변의 길이를 축 별로 다르게 설정할 수 있다. 전자 장치는, 고도에 관한 정보를 유효하고 빠르게 처리하기 위해, 단위 공간을, 하나의 축(예: z축)에 평행한 길이를 다른 두 축(예: x축, y축)에 평행한 길이보다 상대적으로 더 길게 설정 할 수 있다. 예를 들면, 제 1 단위 공간(610)보다, 제 2 단위 공간(620) 또는 제 3 단위 공간(630)과 같이 단위 공간의 크기가 설정된 경우에, 전자 장치에서 고도 정보를 처리하는 속도가 향상될 수 있다.
다양한 실시 예에 따르면, 단위 공간의 크기 제어는 3차원 공간 결정과 관련된 연산의 처리 속도(예: 3차원 모델 생성 속도)에 기반하여 수행될 수 있다. 예컨대, 초기 단위 공간이 제 2 단위 공간(620)와 같이 설정된 경우에, 전자 장치는, 3차원 모델 처리를 위한 일련의 동작들의 수행시간을 모니터링 할 수 있고, 수행 시간에 기반하여 단위 공간의 크기를 정할 수 있다. 수행 완료에 소요되는 시간이 임계 값 t1 보다 크면(예: 수행 속도가 최소 요구치보다 느리면), 단위 공간의 크기를 고도 축(예: z축)방향으로 늘릴 수 있다(예: 제 3 단위 공간(630)와 같이 설정 변경). 수행 완료에 소요되는 시간이 임계 값 t2 보다 작으면(예: 수행 속도가 최적 요구치보다 빠르면), 단위 공간의 크기를 고도 축 방향으로 줄일 수 있다(예: 제 1 단위 공간(610)와 같이 설정 변경).
도 7은 다양한 실시 예에 따른 전자 장치에서 고도 지도를 획득하는 과정을 설명하기 위한 도면(700)를 도시한다.
다양한 실시 예에 따르면, 전자 장치(예: 고도 지도 처리 모듈(230))는피사체의 3차원 모델이 차지하고 있는 공간 정보를 함수 u로부터 추출할 수 있다. 예를 들면, 고도 지도(730)의 단위 평면(735)들은, 단위 평면(735)들에 대응하는 3차원 모델 행렬(710)을 포함할 수 있다. 전자 장치는 함수 u에 기반한 3차원 모델이 차지하는 공간(예: 함수 u에 대해
Figure pct00007
이 성립하는 단위 공간의 집합으로, 피사체의 내부 또는 표면을 지나고 있다고 판단된 공간 단위)에 기반하여 3차원 모델이 차지하고 있는 공간정보를 3차원 모델 행렬(710)에 대응시킬 수 있다. 예를 들면, 전자 장치는, 3차원 모델이 차지하는 단위 공간들을 3차원 모델 행렬(710)의 색으로 표시된 부분(예: 행(1,2) 와 행(5,6,7))에 대응시킬 수 있다.
다양한 실시 예에 따르면, 전자 장치는 고도 지도(730)의 각 단위 평면(735)에 대응하는 3차원 모델 행렬(710)에 나타난 연속성을 판단하고, 3차원 모델 행렬(710) 중 특정 길이 이상 연속한(예: 2개 행 이상 연속으로 나타나는 부분(예: (1,2) 와 (5,6,7)) 또는 가장 길게 연속한 부분(예: (5,6,7)) 등을 상대적으로 유효성이 높은 정보로 판단할 수 있다. 전자 장치는, 고도 지도(730)로부터 상대적으로 유효성이 낮은 정보로 판단된 부분들을 삭제할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 고도 지도(730)의 각 단위 평면에 대응하는 3차원 모델 행렬에 나타난 연속성을 판단하고, 특정 길이 이상 연속한 부분들 중 가장 고도가 높은 행을 포함하고 있는 부분을 상대적으로 유효성이 높은 정보로 판단할 수 있다. 전자 장치는, 고도 지도(730)으로부터 상대적으로 유효성이 낮은 정보로 판단된 부분들을 삭제할 수 있다. 전자 장치는 예를 들면, 상기 3차원 모델 행렬(710)에서 2개 행 이상 연속하는 (1,2) 와 (5,6,7) 중 가장 고도가 높은 7을 포함하는 (5,6,7)을 상대적으로 유효성이 높은 정보에 대응되는 부분으로 선택할 수 있다.
도 8은 다양한 실시 예에 따른 전자 장치에서 오브젝트를 3차원적으로 표시하는 화면을 예시한 도면을 도시한다. 다양한 실시 예에 따른 전자 장치(801)(예: 전자 장치(101))는 오브젝트를, 상기 화상의 적어도 일부 위를 상기 오브젝트가 마치 3차원 공간인 것처럼 움직이거나 반응하도록, 상기 공간의 적어도 일부에 기반하여 디스플레이(802)(예: 디스플레이(150))에 표시할 수 있다.
예를 들어, 피사체는 테이블(820)과 그 위에 올려진 꽃병(810)을 포함할 수 있다. 전자 장치(801)는 카메라 모듈을 통해 획득한 테이블(820)과 그 위에 올려진 꽃병(810)을 포함하는 피사체에 대한 화상을 디스플레이(802)를 통해 표시할 수 있다. 전자 장치(801)는 테이블(820)과 그 위에 올려진 꽃병(810)으로 구성된 피사체 및 주변 공간을 3차원으로 인식할 수 있다.
다양한 실시 예에 따라, 전자 장치는 인식된 3차원 공간 안에 오브젝트(850)를 표시할 수 있다. 한 실시 예에 따르면, 오브젝트(850)는 테이블(820)의 표면을 평면인 것처럼 그 위를 이동하는 시각적 효과(861)로 표시될 수 있다. 한 실시 예에 따르면, 오브젝트(850)는 이동에 의해 전자장치와의 가상의 거리가 가까워짐에 따라 점점 크게 표시되는 시각적 효과(853), 또는 멀어짐에 따라 점점 작게 표시되는 시각적 효과(851)로 표시될 수 있다. 한 실시 예에 다르면, 오브젝트(850)는 화상 안에서 꽃병(810)에 의해 장애물로 판단된 특징 영역에 부딪치는 시각적 효과(852)(예: 기우는 효과, 부딪침 효과 등), 튕겨나오는 시각적 효과(863)로 표시될 수 있다. 한 실시 예에 따르면, 오브젝트(850)는 화상 안에서 테이블의 가장자리에 의해 구덩이로 판단된 특징 영역에 떨어지는 시각적 효과(862)로 표시될 수 있다.
다양한 실시 예에 따르면, 전자 장치는, 피사체에 대한 화상을 획득하기 위한 카메라 모듈; 디스플레이 모듈; 및 상기 카메라 모듈을 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하고, 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하며, 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하고, 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 상기 디스플레이 모듈을 통해 표시하는 3차원 공간 결정 모듈을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 공간 결정 모듈은, 상기 고도 정보가 인접한 공간에 비해 급격하게 높아지는 경우 장애물이 위치한 것으로 판단하는 동작, 상기 고도 정보가 인접한 공간에 대해 서서히 높아지는 경우 오르막이 위치한 것으로 판단하는 동작, 상기 고도 정보가 인접한 공간에 비해 급격하게 낮아지는 경우 구덩이가 위치한 것으로 판단하는 동작 또는 상기 고도 정보가 인접한 공간에 대해 서서히 낮아지는 경우 내리막이 위치한 것으로 판단하는 동작 중 적어도 하나를 수행할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 공간 결정 모듈은, 상기 화상을 이용하여 상기 카메라로부터 상기 피사체 표면까지의 깊이 정보를 가진 깊이 지도를 생성하는 깊이 지도 처리 모듈; 및 상기 깊이 정보를 이용하여 상기 적어도 일부 공간을 단위 공간(voxel)의 집합으로 구성된 3차원 모델로 변환(transform) 하는 3차원 모델 처리 모듈을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 공간 결정 모듈은, 상기 3차원 모델에 기반하여 상기 3차원 모델의 평면 위로의 높이 정보를 가진 고도 지도로 변환하는 고도 지도 처리 모듈을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델 처리 모듈은, 상기 단위 공간의 크기를 설정하고, 상기 설정된 크기에 기반하여 상기 적어도 일부 공간을 상기 단위 공간으로 나누고, 상기 적어도 일부 공간의 각 단위 공간들에 대해 상기 깊이 지도를 대응시켜 이산화 할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델 처리 모듈은, 상기 3차원 모델 정보 획득의 처리 속도 또는 상기 고도 정보 획득의 처리속도 중 적어도 하나를 모니터링 하고, 상기 처리 속도에 기반하여 상기 단위 공간의 크기를 제어할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델 처리 모듈은, 상기 단위 공간의 크기를 제어하기 위하여, 상기 단위 공간의 고도 축에 평행한 길이를 조절할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델 처리 모듈은, 상기 처리 속도가 임계 값보다 느린 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 길게 설정하거나, 상기 처리 속도가 상기 임계 값보다 빠른 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 짧게 설정할 수 있다.
다양한 실시 예에 따르면, 상기 고도 지도 처리 모듈은, 주 평면을 결정하고, 상기 주 평면의 적어도 일부 단위 평면에 대해 고도 축을 따라 상기 피사체의 3차원 모델이 차지하는 위치 또는 연속성 정보 중 적어도 하나를 상기 단위 평면에 구성할 수 있다.
다양한 실시 예에 따르면, 상기 고도 지도 처리 모듈은, 상기 고도 지도의 상기 연속성 정보를 이용하여 상기 고도 정보의 유효성을 판단하고, 상기 유효성에 기반하여, 상기 고도 정보의 적어도 일부를 제거할 수 있다.
도 9는 다양한 실시 예에 따른 전자 장치의 제어 방법의 순서도를 도시한다.
동작 910에서, 전자 장치는 카메라로부터 피사체의 화상을 획득하고, 획득한 화상을 디스플레이에 표시할 수 있다. 화상은 촬영 위치 또는 초점 정보를 포함할 수 있다. 화상의 획득과 표시는 실시간으로 수행될 수 있다. 전자 장치는 획득한 화상을 메모리에 저장해두고 추후 3차원 공간을 결정하기 위한 처리에 이용할 수 있다. 동작 920에서, 전자 장치는 획득한 화상을 이용하여 피사체의 표면까지의 거리 정보를 판단할 수 있다. 전자 장치는 판단한 깊이 정보에 기반하여, 깊이 정보를 포함하는 깊이 지도를 생성할 수 있다. 동작 930에서, 전자 장치는 피사체 주변의 공간을 깊이 지도 정보에 대응하는 단위 공간들로 이산화하여 3차원 모델을 생성할 수 있다. 전자 장치는 경계 박스를 설정하고, 깊이 지도 정보에 대응하는 경계 박스 내부의 단위 공간들로 3차원 모델을 생성할 수 있다. 전자 장치는 고도축 방향의 길이가 다른 두 축보다 상대적으로 더 길게 설정된 단위 공간을 이용하여 3차원 모델을 생성할 수 있다.
동작 940에서, 전자 장치는 처리 시간을 모니터링 하고, 처리 시간에 기반하여 단위 공간의 크기를 제어할 수 있다. 한 실시 예에 따르면, 처리 시간이 제 1기준치(t1)보다 크면 단위 공간의 크기를 키우고, 처리 시간이 제 2기준치(t2)보다 작으면 단위 공간의 크기를 줄일 수 있다. 동작 940은, 순서도 상의 수행 순서가 변동될 수 있고, 경우에 따라, 생략될 수 있다.
동작 950에서, 전자 장치는 주 평면의 고도 축을 따라 생성된 3차원 모델이 차지하고 있는 공간의 고도 정보를 주 평면의 각 픽셀에 할당하여 고도 지도를 생성할 수 있다.
동작 960에서, 전자 장치는 생성한 고도 지도의 잡음 제거 동작을 수행할 수 있다. 예를 들면, 전자 장치는 고도 지도에 최대-최소 팽창(min-max dilation) 및 최대-최소 침식(min-max erosion) 방법을 순차적으로 적용하여 잡음 제거를 할 수 있다. 동작 950은, 순서도 상의 수행 순서가 변동될 수 있고, 경우에 따라, 생략될 수 있다.
동작 970에서, 전자 장치는 결정된 3차원 정보에 기반하여 오브젝트를 화상 영역 안에서 움직이거나 반응하도록 표시한다. 예를 들면, 전자 장치는 고도 지도의 고도 정보에 기반하여 오브젝트를 화상 영역 안에서 움직이거나 반응하도록 표시할 수 있다.
다양한 실시 예에 따르면, 전자 장치의 3차원 정보 처리 방법은, 기능적으로 연결된 카메라를 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하는 동작; 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하는 동작; 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하는 동작; 및 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 기능적으로 연결된 디스플레이에 표시하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 특징 영역을 판단하는 동작은, 상기 고도 정보가 인접한 공간에 비해 급격하게 높아지는 경우, 장애물이 위치한 것으로 판단하는 동작; 상기 고도 정보가 인접한 공간에 대해 서서히 높아지는 경우, 오르막이 위치한 것으로 판단하는 동작; 상기 고도 정보가 인접한 공간에 비해 급격하게 낮아지는 경우, 구덩이가 위치한 것으로 판단하는 동작; 또는 상기 고도 정보가 인접한 공간에 대해 서서히 낮아지는 경우, 내리막이 위치한 것으로 판단하는 동작 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델 정보를 획득하는 동작은, 상기 화상을 이용하여 상기 카메라로부터 상기 피사체 표면까지의 깊이 정보를 가진 깊이 지도를 생성하는 동작; 및 상기 깊이 정보를 이용하여 상기 적어도 일부 공간을 단위 공간(voxel)의 집합으로 구성된 3차원 모델로 변환(transform) 하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 고도 정보를 획득하는 동작은, 상기 3차원 모델에 기반하여 상기 3차원 모델의 평면 위로의 높이 정보를 가진 고도 지도로 변환하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 3차원 모델로 변환하는 동작은, 상기 단위 공간의 크기를 설정하는 동작; 상기 설정된 크기에 기반하여 상기 적어도 일부 공간을 상기 단위 공간으로 나누는 동작; 및 상기 적어도 일부 공간의 각 단위 공간들에 대해 상기 깊이 지도를 대응시켜 이산화하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 설정하는 동작은, 상기 3차원 모델 정보 획득의 처리 속도 또는 상기 고도 정보 획득의 처리 속도 중 적어도 하나를 모니터링 하는 동작; 및 상기 처리 속도에 기반하여 상기 단위 공간의 크기를 제어하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 단위 공간의 크기를 제어하는 동작은, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 조절하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 단위 공간의 크기를 제어하는 동작은, 상기 처리 속도가 임계 값보다 느린 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 길게 설정하는 동작; 또는 상기 처리 속도가 상기 임계 값보다 빠른 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 짧게 설정하는 동작 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 고도 지도로 변환하는 동작은, 주 평면(domain plane)을 결정하는 동작; 및 상기 주 평면의 적어도 일부 단위 평면(pixel)에 대해 고도 축을 따라 상기 피사체의 3차원 모델이 차지하는 위치 또는 연속성 정보 중 적어도 하나를 상기 단위 평면에 구성하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 고도 지도의 상기 연속성 정보를 이용하여 상기 고도 정보의 유효성을 판단하는 동작; 및 상기 유효성에 기반하여, 상기 고도 정보의 적어도 일부를 제거하는 동작을 포함할 수 있다.
도 10은 다양한 실시 예에 따른 전자 장치의 블록도(1000)를 도시한다.상기 전자 장치는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 구성할 수 있다. 도 10을 참조하면, 상기 전자 장치는 하나 이상의어플리케이션 프로세서(AP: application processor)(1010), 통신 모듈(1020), SIM(subscriber identification module) 카드(1024), 메모리(1030), 센서 모듈(1040), 입력 장치(1050), 디스플레이(1060), 인터페이스(1070), 오디오 모듈(1080), 카메라 모듈(1091), 전력관리 모듈(1095), 배터리(1096), 인디케이터(1097) 및 모터(1098)를 포함할 수 있다.
상기 AP(1010)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(1010)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1010)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP(1010)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈(1020)(예: 상기 통신 인터페이스(160))은 상기 전자 장치(예: 상기 전자 장치(101))와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치(104) 또는 서버(106)) 간의 통신에서 데이터 송수신을수행할 수 있다. 한 실시 예에 따르면, 상기 통신 모듈(1020)은 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027), NFC 모듈(1028) 및 RF(radio frequency) 모듈(1029)를 포함할 수 있다.
상기 셀룰러 모듈(1021)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈(1021)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드(1024))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1021)은 상기 AP(1010)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈(1021)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시 예에 따르면, 상기 셀룰러 모듈(1021)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈(1021)은, 예를 들면, SoC로 구현될 수 있다. 도 10에서는 상기 셀룰러 모듈(1021)(예: 커뮤니케이션 프로세서), 상기 메모리(1030) 또는 상기 전력관리 모듈(1095) 등의 구성요소들이 상기 AP(1010)와 별개의 구성요소로 도시되어 있으나, 한 실시 예에 따르면, 상기 AP(1010)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈(1021))를 포함하도록 구현될 수 있다.
한 실시 예에 따르면, 상기 AP(1010) 또는 상기 셀룰러 모듈(1021)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(1010) 또는 상기 셀룰러 모듈(1021)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈(1023), 상기 BT 모듈(1025), 상기 GPS 모듈(1027) 또는 상기 NFC 모듈(1028) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 10에서는 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027) 또는 NFC 모듈(1028)이 각각 별개의 블록으로 도시되었으나, 한 실시 예에 따르면, 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027) 또는 NFC 모듈(1028)중 적어도 일부(예: 두 개 이상)는하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027) 또는 NFC 모듈(1028) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(1021)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(1023)에 대응하는 Wifi프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈(1029)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈(1029)는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(1029)는 무선통신에서 자유공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 10에서는 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027) 및 NFC 모듈(1028)이 하나의 RF 모듈(1029)을 서로 공유하는 것으로 도시되어 있으나, 한 실시 예에 따르면, 셀룰러 모듈(1021), Wifi 모듈(1023), BT 모듈(1025), GPS 모듈(1027) 또는 NFC 모듈(1028) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드(1024)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(1024)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier))또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리(1030)(예: 상기 메모리(130))는 내장 메모리(1032) 또는 외장 메모리(1034)를 포함할 수 있다. 상기 내장 메모리(1032)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시 예에 따르면, 상기 내장 메모리(1032)는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리(1034)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(1034)는 다양한 인터페이스를 통하여 상기 전자 장치와 기능적으로 연결될 수 있다. 한 실시 예에 따르면, 상기 전자 장치는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈(1040)은 물리량을 계측하거나 전자 장치의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(1040)은, 예를 들면, 제스처 센서(1040A), 자이로 센서(1040B), 기압 센서(1040C), 마그네틱 센서(1040D), 가속도 센서(1040E), 그립 센서(1040F), 근접 센서(1040G), color 센서(1040H)(예: RGB(red, green, blue) 센서), 생체 센서(1040I), 온/습도 센서(1040J), 조도 센서(1040K) 또는 UV(ultra violet) 센서(1040M)중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈(1040)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시)또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈(1040)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 입력 장치(1050)은 터치 패널(touch panel)(1052), (디지털) 펜 센서(pen sensor)(1054), 키(key)(1056) 또는 초음파(ultrasonic) 입력 장치(1058)를 포함할 수 있다. 상기 터치 패널(1052)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(1052)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널(1052)은 택타일레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널(1052)은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서(1054)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(1056)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치(1058)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치에서 마이크(예: 마이크(1088))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시 예에 따르면, 상기 전자 장치는 상기 통신 모듈(1020)를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이(1060)(예: 상기 디스플레이(150))은 패널(1062), 홀로그램 장치(1064) 또는 프로젝터(1066)을 포함할 수 있다. 상기 패널(1062)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(1062)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널(1062)은 상기 터치 패널(1052)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(1064)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(1066)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이(1060)은 상기 패널(1062), 상기 홀로그램 장치(1064), 또는 프로젝터(1066)를 제어하기 위한 제어회로를 더 포함할 수 있다.
상기 인터페이스(1070)는, 예를 들면, HDMI(high-definition multimedia interface)(1072), USB(universal serial bus)(1074), 광 인터페이스(opticalinterface)(1076) 또는 D-sub(D-subminiature)(1078)를 포함할 수 있다. 상기 인터페이스(1070)는, 예를 들면, 도 1에 도시된 통신 인터페이스(160)에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(1070)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association)규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈(1080)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(1080)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 상기 오디오 모듈(1080)은, 예를 들면, 스피커(1082), 리시버(1084), 이어폰(1086) 또는 마이크(1088) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈(1091)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력관리 모듈(1095)은 상기 전자 장치의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력관리 모듈(1095)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시 예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리(1096)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(1096)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치에 전원을 공급할 수 있다. 상기 배터리(1096)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터(1097)는 상기 전자 장치 혹은 그 일부(예: 상기 AP(1010))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1098)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시 예에 사용된 용어 "모듈"은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(130)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서(120)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시 예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 기능적으로 연결된 카메라를 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하는 동작; 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하는 동작; 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하는 동작; 및 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 기능적으로 연결된 디스플레이에 표시하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 의 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (21)

  1. 기능적으로 연결된 카메라를 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하는 동작;
    상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하는 동작;
    상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하는 동작; 및
    상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 기능적으로 연결된 디스플레이에 표시하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  2. 제 1항에 있어서,
    상기 특징 영역을 판단하는 동작은,
    상기 고도 정보가 인접한 공간에 비해 급격하게 높아지는 경우, 장애물이 위치한 것으로 판단하는 동작;
    상기 고도 정보가 인접한 공간에 대해 서서히 높아지는 경우, 오르막이 위치한 것으로 판단하는 동작;
    상기 고도 정보가 인접한 공간에 비해 급격하게 낮아지는 경우, 구덩이가 위치한 것으로 판단하는 동작; 또는
    상기 고도 정보가 인접한 공간에 대해 서서히 낮아지는 경우, 내리막이 위치한 것으로 판단하는 동작 중 적어도 하나를 포함하는 전자 장치의 3차원 정보 처리 방법.
  3. 제 1항에 있어서,
    상기 3차원 모델 정보를 획득하는 동작은,
    상기 화상을 이용하여 상기 카메라로부터 상기 피사체 표면까지의 깊이 정보를 가진 깊이 지도를 생성하는 동작; 및
    상기 깊이 정보를 이용하여 상기 적어도 일부 공간을 단위 공간(voxel)의 집합으로 구성된 3차원 모델로 변환(transform) 하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  4. 제 3항에 있어서,
    상기 고도 정보를 획득하는 동작은,
    상기 3차원 모델에 기반하여 상기 3차원 모델의 평면 위로의 높이 정보를 가진 고도 지도로 변환하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  5. 제 3항에 있어서,
    상기 3차원 모델로 변환하는 동작은,
    상기 단위 공간의 크기를 설정하는 동작;
    상기 설정된 크기에 기반하여 상기 적어도 일부 공간을 상기 단위 공간으로 나누는 동작; 및
    상기 적어도 일부 공간의 각 단위 공간들에 대해 상기 깊이 지도를 대응시켜 이산화하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  6. 제 5항에 있어서,
    상기 설정하는 동작은,
    상기 3차원 모델 정보 획득의 처리 속도 또는 상기 고도 정보 획득의 처리 속도 중 적어도 하나를 모니터링 하는 동작; 및
    상기 처리 속도에 기반하여 상기 단위 공간의 크기를 제어하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  7. 제 6항에 있어서,
    상기 단위 공간의 크기를 제어하는 동작은,
    상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 조절하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  8. 제 7항에 있어서,
    상기 단위 공간의 크기를 제어하는 동작은,
    상기 처리 속도가 임계 값보다 느린 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 길게 설정하는 동작; 또는
    상기 처리 속도가 상기 임계 값보다 빠른 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 짧게 설정하는 동작 중 적어도 하나를 포함하는 전자 장치의 3차원 정보 처리 방법.
  9. 제 4항에 있어서,
    상기 고도 지도로 변환하는 동작은,
    주 평면(domain plane)을 결정하는 동작; 및
    상기 주 평면의 적어도 일부 단위 평면(pixel)에 대해 고도 축을 따라 상기 피사체의 3차원 모델이 차지하는 위치 또는 연속성 정보 중 적어도 하나를 상기 단위 평면에 구성하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  10. 제 9항에 있어서,
    상기 고도 정보를 획득하는 동작은,
    상기 고도 지도의 상기 연속성 정보를 이용하여 상기 고도 정보의 유효성을 판단하는 동작; 및
    상기 유효성에 기반하여, 상기 고도 정보의 적어도 일부를 제거하는 동작을 포함하는 전자 장치의 3차원 정보 처리 방법.
  11. 피사체에 대한 화상을 획득하기 위한 카메라 모듈;
    디스플레이 모듈; 및
    상기 카메라 모듈을 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하고, 상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하며, 상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하고, 상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 상기 디스플레이 모듈을 통해 표시하는 3차원 공간 결정 모듈을 포함하는 전자 장치.
  12. 제 11항에 있어서,
    상기 3차원 공간 결정 모듈은,
    상기 고도 정보가 인접한 공간에 비해 급격하게 높아지는 경우 장애물이 위치한 것으로 판단하는 동작, 상기 고도 정보가 인접한 공간에 대해 서서히 높아지는 경우 오르막이 위치한 것으로 판단하는 동작, 상기 고도 정보가 인접한 공간에 비해 급격하게 낮아지는 경우 구덩이가 위치한 것으로 판단하는 동작 또는 상기 고도 정보가 인접한 공간에 대해 서서히 낮아지는 경우 내리막이 위치한 것으로 판단하는 동작 중 적어도 하나를 수행하는 전자 장치.
  13. 제 11항에 있어서,
    상기 3차원 공간 결정 모듈은,
    상기 화상을 이용하여 상기 카메라로부터 상기 피사체 표면까지의 깊이 정보를 가진 깊이 지도를 생성하는 깊이 지도 처리 모듈; 및
    상기 깊이 정보를 이용하여 상기 적어도 일부 공간을 단위 공간(voxel)의 집합으로 구성된 3차원 모델로 변환(transform) 하는 3차원 모델 처리 모듈을 포함하는 전자 장치
  14. 제 13항에 있어서,
    상기 3차원 공간 결정 모듈은,
    상기 3차원 모델에 기반하여 상기 3차원 모델의 평면 위로의 높이 정보를 가진 고도 지도로 변환하는 고도 지도 처리 모듈을 더 포함하는 전자 장치.
  15. 제 13항에 있어서,
    상기 3차원 모델 처리 모듈은,
    상기 단위 공간의 크기를 설정하고, 상기 설정된 크기에 기반하여 상기 적어도 일부 공간을 상기 단위 공간으로 나누고, 상기 적어도 일부 공간의 각 단위 공간들에 대해 상기 깊이 지도를 대응시켜 이산화 하는 전자 장치.
  16. 제 15항에 있어서,
    상기 3차원 모델 처리 모듈은,
    상기 3차원 모델 정보 획득의 처리 속도 또는 상기 고도 정보 획득의 처리속도 중 적어도 하나를 모니터링 하고, 상기 처리 속도에 기반하여 상기 단위 공간의 크기를 제어하는 전자 장치.
  17. 제 16항에 있어서,
    상기 3차원 모델 처리 모듈은,
    상기 단위 공간의 크기를 제어하기 위하여, 상기 단위 공간의 고도 축에 평행한 길이를 조절하는 전자 장치.
  18. 제 17항에 있어서,
    상기 3차원 모델 처리 모듈은,
    상기 처리 속도가 임계 값보다 느린 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 길게 설정하거나, 상기 처리 속도가 상기 임계 값보다 빠른 경우, 상기 단위 공간의 고도 축(z-axis)에 평행한 길이를 다른 두 축(x-axis and/or y-axis)에 평행한 길이보다 짧게 설정하는 전자 장치.
  19. 제 14항에 있어서,
    상기 고도 지도 처리 모듈은,
    주 평면을 결정하고, 상기 주 평면의 적어도 일부 단위 평면에 대해 고도 축을 따라 상기 피사체의 3차원 모델이 차지하는 위치 또는 연속성 정보 중 적어도 하나를 상기 단위 평면에 구성하는 전자 장치.
  20. 제 19항에 있어서,
    상기 고도 지도 처리 모듈은,
    상기 고도 지도의 상기 연속성 정보를 이용하여 상기 고도 정보의 유효성을 판단하고, 상기 유효성에 기반하여, 상기 고도 정보의 적어도 일부를 제거하는 전자 장치.
  21. 기능적으로 연결된 카메라를 통하여 촬영된 화상에 포함된 피사체의 적어도 일부 공간에 대한 3차원 모델 정보를 획득하는 동작;
    상기 3차원 모델 정보에 기반하여 상기 적어도 일부 공간에 대한 고도 정보를 획득하는 동작;
    상기 고도 정보의 변화에 기반하여 상기 적어도 일부 공간에 위치한 적어도 하나의 특징 영역을 판단하는 동작; 및
    상기 3차원 모델 정보 및 상기 특징 영역에 기반하여, 오브젝트의 움직임에 대한 시각적 효과를 기능적으로 연결된 디스플레이에 표시하는 동작을 실행 시키기 위한 명령어들을 기록한 컴퓨터 판독 가능한 기록 매체.
KR1020167033704A 2014-07-08 2014-07-08 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방 KR20170031656A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/006101 WO2016006728A1 (ko) 2014-07-08 2014-07-08 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20170031656A true KR20170031656A (ko) 2017-03-21

Family

ID=55064349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167033704A KR20170031656A (ko) 2014-07-08 2014-07-08 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방

Country Status (3)

Country Link
US (1) US10142608B2 (ko)
KR (1) KR20170031656A (ko)
WO (1) WO2016006728A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107505619A (zh) * 2017-06-30 2017-12-22 努比亚技术有限公司 一种终端成像方法、摄像终端及计算机可读存储介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018031959A1 (en) * 2016-08-12 2018-02-15 Aquifi, Inc. Systems and methods for automatically generating metadata for media documents
US10366531B2 (en) * 2017-10-24 2019-07-30 Lowe's Companies, Inc. Robot motion planning for photogrammetry
US9990767B1 (en) 2017-10-24 2018-06-05 Lowe's Companies, Inc. Generation of 3D models using stochastic shape distribution
TWI815842B (zh) * 2018-01-16 2023-09-21 日商索尼股份有限公司 影像處理裝置及方法
JP7362265B2 (ja) * 2019-02-28 2023-10-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN115619960A (zh) * 2021-07-15 2023-01-17 北京小米移动软件有限公司 图像处理的方法、装置及电子设备
US11995859B2 (en) 2021-10-28 2024-05-28 Mineral Earth Sciences Llc Sparse depth estimation from plant traits
US20230133026A1 (en) * 2021-10-28 2023-05-04 X Development Llc Sparse and/or dense depth estimation from stereoscopic imaging

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US20100238161A1 (en) * 2009-03-19 2010-09-23 Kenneth Varga Computer-aided system for 360º heads up display of safety/mission critical data
JP5518677B2 (ja) 2010-11-05 2014-06-11 日本電信電話株式会社 仮想情報付与装置及び仮想情報付与プログラム
US10109065B2 (en) 2011-01-25 2018-10-23 Qualcomm Incorporated Using occlusions to detect and track three-dimensional objects
US9741145B2 (en) 2012-06-29 2017-08-22 Disney Enterprises, Inc. Augmented reality simulation continuum
US20140092005A1 (en) * 2012-09-28 2014-04-03 Glen Anderson Implementation of an augmented reality element
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107505619A (zh) * 2017-06-30 2017-12-22 努比亚技术有限公司 一种终端成像方法、摄像终端及计算机可读存储介质

Also Published As

Publication number Publication date
US10142608B2 (en) 2018-11-27
WO2016006728A1 (ko) 2016-01-14
US20170201735A1 (en) 2017-07-13

Similar Documents

Publication Publication Date Title
KR102559625B1 (ko) 증강 현실 출력 방법 및 이를 지원하는 전자 장치
CN107665485B (zh) 用于显示图形对象的电子装置和计算机可读记录介质
KR20170031656A (ko) 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방
US20160048170A1 (en) Method and electronic device for processing image
US20160086386A1 (en) Method and apparatus for screen capture
KR20150125472A (ko) 음성 명령 제공 방법 및 장치
KR20160125190A (ko) 화면을 표시하는 전자 장치 및 그 제어 방법
KR20160035248A (ko) 가상 오브젝트 제공 방법 및 그 전자 장치
KR20150139214A (ko) 이미지를 처리하기 위한 방법 및 장치
KR20160097974A (ko) 영상의 컬러 변환 방법 및 전자 장치
US20150301609A1 (en) Gesture recognition method and gesture recognition apparatus
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
US20160253779A1 (en) Image processing apparatus and method
KR20160004161A (ko) 전자 장치의 태스크 스케줄링 방법 및 이를 사용하는 전자 장치
EP2950273B1 (en) Image processing method and electronic device implementing the same
KR20170097884A (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
US9905050B2 (en) Method of processing image and electronic device thereof
KR20160084147A (ko) 이미지의 메타데이터 관리 방법 및 장치
KR20150099280A (ko) 영상 처리 방법 및 전자 장치
US20160065943A1 (en) Method for displaying images and electronic device thereof
EP3092613B1 (en) Image processing method and electronic device implementing the same
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR20170052984A (ko) 사용자의 위치를 결정하는 전자 장치 및 그 제어 방법
KR20160134428A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20150099672A (ko) 전자 장치 및 그것의 디스플레이 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application