KR20170001632A - 3차원 모델링 데이터 수집 시스템 및 그 방법 - Google Patents

3차원 모델링 데이터 수집 시스템 및 그 방법 Download PDF

Info

Publication number
KR20170001632A
KR20170001632A KR1020160078833A KR20160078833A KR20170001632A KR 20170001632 A KR20170001632 A KR 20170001632A KR 1020160078833 A KR1020160078833 A KR 1020160078833A KR 20160078833 A KR20160078833 A KR 20160078833A KR 20170001632 A KR20170001632 A KR 20170001632A
Authority
KR
South Korea
Prior art keywords
cameras
camera
image
subject
signal
Prior art date
Application number
KR1020160078833A
Other languages
English (en)
Inventor
오시영
Original Assignee
주식회사 파베리안
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 파베리안 filed Critical 주식회사 파베리안
Publication of KR20170001632A publication Critical patent/KR20170001632A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

본 발명의 일 실시 예는, 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신하는 영상수신단계; 상기 수신된 영상에 포함된 표식의 형태정보를 기초로 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 위치정보산출단계; 상기 산출된 위치정보에 의해 결정되는 상기 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단하는 카메라배치조건판단단계; 및 상기 복수의 카메라의 배치가 상기 카메라배치조건을 만족하면, 상기 복수의 카메라에 촬영개시신호를 송신하는 촬영개시신호송신단계를 포함하는 3차원 모델링 데이터 수집 방법을 제공한다.

Description

3차원 모델링 데이터 수집 시스템 및 그 방법 {Control system for collecting 3-dimension modeling data and method thereof}
본 발명은 3차원 모델링 데이터의 수집하는 시스템 및 방법에 관한 것으로서, 보다 구체적으로는 복수의 스마트 디바이스로부터 피사체에 대한 3차원 모델링 데이터를 수집하는 것을 제어하는 시스템 및 방법에 관한 것이다.
3차원 프린터는 종래의 2차원 프린터와는 달리 입체감을 갖는 3차원 출력물을 출력하는 점에 있어서 크게 각광을 받고 있으며, 2차원 프린터의 보급만큼은 아니지만 최근 양산화에 성공하여 빠른 속도로 다양한 소비자에게 보급되고 있다.
하지만, 여전히 소비자가 높은 품질의 3차원 출력물을 획득하기 위해서는 출력의 대상에 대한 정확한 3차원 모델링 데이터를 사전에 모두 수집해야 하는 것은 물론이고, 그 3차원 모델링 데이터를 활용하여 오류없이 3차원 출력물을 출력할 수 있는 고성능의 3차원 프린터가 필요하다는 한계점이 존재한다.
종전까지는, 정확한 3차원 모델링 데이터를 수집하기 위해서 3차원 스캐너가 활용되어왔다. 3차원 스캐너를 이용하면 3차원 프린터의 입력값이 되는 3차원 모델링 데이터를 손쉽게 얻을 수 있고, 3차원 스캐너 및 3차원 프린터가 모두 컴퓨터와 연동되어 동작하는 장치이므로 양 장치를 함께 구비하는 것이 용이한 점이 있었다. 다만, 3차원 스캐너의 비용이 3차원 프린터와 마찬가지로 아직까지 고가의 제품이라서 일개 소비자가 3차원 프린터와 함께 구비하기 어려운 점이 있었다.
3차원 프린터와 3차원 스캐너를 함께 구비하기 어려운 소비자가 3차원 출력물을 획득하기 위한 다른 방법으로서, 카메라 스튜디오(Camera Studio)를 방문하는 방법도 있다. 카메라 스튜디오는 사전에 구비된 고성능의 3차원 스캐너 및 3차원 프린터를 통해 소비자가 요청하는 대상의 3차원 출력물을 소비자에게 제공하는 서비스업을 영위하는 장소이다.
카메라 스튜디오를 활용하는 경우, 소비자는 3차원 출력물을 획득하기 위해 3차원 스캐너 및 3차원 프린터를 모두 소유할 필요가 없고, 고품질의 3차원 출력물을 획득할 수 있지만, 소비자가 카메라 스튜디오에 매번 방문해야 하는 점과 3차원 출력물의 대상을 반드시 지참해야 하는 한계점이 있다.
대한민국 공개특허공보 제2009-0007623호
본 발명이 해결하고자 하는 기술적 과제는, 통신기능과 카메라기능을 구비한 스마트 디바이스로 여러 방향에서 피사체와 표식을 함께 촬영한 촬영 결과물을 기초로, 3차원 출력물을 출력하기 위한 3차원 모델링 데이터의 수집이 가능하도록 하는 시스템 및 방법을 제공하는 데에 있다.
상기의 기술적 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 3차원 모델링 데이터 수집 방법은, 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신하는 영상수신단계; 상기 수신된 영상에 포함된 표식의 형태정보를 기초로 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 위치정보산출단계; 상기 산출된 위치정보에 의해 결정되는 상기 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단하는 카메라배치조건판단단계; 및 상기 복수의 카메라의 배치가 상기 카메라배치조건을 만족하면, 상기 복수의 카메라에 촬영개시신호를 송신하는 촬영개시신호송신단계를 포함한다.
상기 방법에 있어서, 상기 복수의 카메라는, 한 대의 제1카메라 및 적어도 한 대 이상의 제2카메라를 포함하고, 상기 영상수신단계는, 상기 제1카메라로부터 상기 피사체의 입체촬영 영역을 설정하는 영역설정신호를 수신하는 영역설정신호수신단계; 상기 영역설정신호를 수신하면, 상기 제1카메라, 상기 피사체 및 상기 표식을 포함하는 입체촬영 영역을 설정하는 입체촬영영역설정단계; 및 상기 제1카메라 및 상기 입체촬영 영역에 가입된 제2카메라로부터 상기 피사체 및 상기 표식을 함께 촬영한 영상을 수신하는 영역영상수신단계;를 포함할 수 있다.
상기 방법에 있어서, 상기 위치정보산출단계는, 상기 수신된 영상에 포함된 표식의 형태를 추출하는 표식형태추출단계; 상기 추출된 표식의 형태를 소정의 표식형태정보와 비교한 결과를 기초로 상기 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 표식중심위치정보산출단계; 및 상기 수신된 영상에서의 표식과 피사체의 상대적인 위치를 산출하고, 상기 산출된 상대적인 위치와 상기 산출된 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 비교한 결과를 기초로, 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 피사체중심위치정보산출단계를 포함할 수 있다.
상기 방법에 있어서, 상기 복수의 카메라의 배치는, 상기 피사체를 중심으로 한 상기 복수의 카메라의 거리, 수평각도 및 수직각도에 대한 정보이고, 상기 카메라배치조건은, 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준거리 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수평각도 및 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수직각도인 것을 특징으로 할 수 있다.
상기 방법에 있어서, 상기 영상수신단계는, 상기 복수의 카메라에 시험신호를 송신하는 시험신호송신단계; 상기 시험신호를 수신한 상기 복수의 카메라로부터 응답신호를 수신하는 응답신호수신단계; 및 상기 시험신호 및 응답신호에 포함된 시간정보를 기초로 상기 복수의 카메라 각각의 신호도달시간을 산출하고, 상기 수신된 영상에 상기 산출된 신호도달시간을 대응시키는 신호도달시간산출단계를 포함할 수 있다.
상기 방법에 있어서, 상기 송신된 촬영개시신호에 대응하여 상기 복수의 카메라로부터 모델링요청영상을 수신하면, 상기 산출된 신호도달시간에 따라 상기 수신된 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출하는 부분영상추출단계를 더 포함할 수 있다.
본 발명은 상기의 기술적 과제를 해결하기 위한 3차원 모델링 데이터 수집 방법을 실행시키기 위한 프로그램을 저장하고 있는 컴퓨터 판독가능한 기록매체를 제공할 수 있다.
상기의 기술적 과제를 해결하기 위한 본 발명의 다른 일 실시 예에 따른 3차원 모델링 데이터 수집 시스템은, 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신하는 영상수신부; 상기 수신된 영상에 포함된 표식의 형태정보를 기초로 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 위치정보산출부; 상기 산출된 위치정보에 의해 결정되는 상기 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단하는 카메라배치조건판단부; 및 상기 복수의 카메라의 배치가 상기 카메라배치조건을 만족하면, 상기 복수의 카메라에 촬영개시신호를 송신하는 촬영개시신호송신부를 포함한다.
상기 시스템에 있어서, 상기 복수의 카메라는, 한 대의 제1카메라 및 적어도 한 대 이상의 제2카메라를 포함하고, 상기 영상수신부는, 상기 제1카메라로부터 상기 피사체의 입체촬영 영역을 설정하는 영역설정신호를 수신하는 영역설정신호수신부; 상기 영역설정신호를 수신하면, 상기 제1카메라, 상기 피사체 및 상기 표식을 포함하는 입체촬영 영역을 설정하는 입체촬영영역설정부; 및 상기 제1카메라 및 상기 입체촬영 영역에 가입된 제2카메라로부터 상기 피사체 및 상기 표식을 함께 촬영한 영상을 수신하는 영역영상수신부;를 포함할 수 있다.
상기 시스템에 있어서, 상기 위치정보산출부는, 상기 수신된 영상에 포함된 표식의 형태를 추출하는 표식형태추출부; 상기 추출된 표식의 형태를 소정의 표식형태정보와 비교한 결과를 기초로 상기 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 표식중심위치정보산출부; 및 상기 수신된 영상에서의 표식과 피사체의 상대적인 위치를 산출하고, 상기 산출된 상대적인 위치와 상기 산출된 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 비교한 결과를 기초로, 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 피사체중심위치정보산출부;를 포함할 수 있다.
상기 시스템에 있어서, 상기 복수의 카메라의 배치는, 상기 피사체를 중심으로 한 상기 복수의 카메라의 거리, 수평각도 및 수직각도에 대한 정보이고, 상기 카메라배치조건은, 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준거리, 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수평각도 및 상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수직각도인 것을 특징으로 할 수 있다.
상기 시스템에 있어서, 상기 영상수신부는, 상기 복수의 카메라에 시험신호를 송신하는 시험신호송신부; 상기 시험신호를 수신한 상기 복수의 카메라로부터 응답신호를 수신하는 응답신호수신부; 및 상기 시험신호 및 응답신호에 포함된 시간정보를 기초로 상기 복수의 카메라 각각의 신호도달시간을 산출하고, 상기 수신된 영상에 상기 산출된 신호도달시간을 대응시키는 신호도달시간산출부를 포함할 수 있다.
상기 시스템에 있어서, 상기 송신된 촬영개시신호에 대응하여 상기 복수의 카메라로부터 모델링요청영상을 수신하면, 상기 산출된 신호도달시간에 따라 상기 수신된 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출하는 부분영상추출부를 더 포함할 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.
본 발명에 의하면, 사용자가 기존에 널리 보급되어 있는 스마트 디바이스를 통해 피사체를 촬영하여 전송한 결과물을 기초로 사용자는 곧바로 3차원 모델링 데이터를 획득할 수 있게 된다.
또한, 사용자는 3차원 스캐너 및 3차원 프린터를 모두 구비하거나, 3차원 출력물의 대상을 언제나 지참한 상태로 카메라 스튜디오에 방문할 필요없이, 즉각적으로 촬영한 피사체를 본 발명에 따른 3차원 모델링 데이터 수집 시스템에 전송하는 것만으로, 그 피사체의 형상을 기초로 제작된 피규어, 부조(浮彫) 등을 제공받을 수 있다.
도 1은 본 발명에 따른 3차원 모델링 데이터 수집 시스템의 전체구성을 개략적으로 도시한 도면이다.
도 2는 피사체 옆에 놓이는 표식의 일 예를 설명하기 위한 도면이다.
도 3은 본 발명에 따른 3차원 모델링 데이터 수집 시스템의 일 예에 대한 블록도를 도시한 도면이다.
도 4는 피사체와 표식을 개략적으로 설명하기 위한 도면이다.
도 5는 영상수신부의 일 예에 대한 블록도를 도시한 도면이다.
도 6은 위치정보산출부의 일 예의 블록도를 도시한 도면이다.
도 7은 영상수신부의 다른 선택적 실시 예에 대한 블록도를 도시한 도면이다.
도 8은 부분영상추출부가 부분영상을 추출하는 과정을 도식적으로 나타낸 도면이다.
도 9는 본 발명에 따른 3차원 모델링 데이터 수집 방법의 일 예에 대한 흐름도를 도시한 도면이다.
도 10은 본 발명에 따른 3차원 모델링 데이터 수집 방법에 대한 흐름도를 나타낸다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시 예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다.
이하의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하의 실시 예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징을 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
어떤 실시 예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
도 1은 본 발명에 따른 3차원 모델링 데이터 수집 시스템의 전체구성을 개략적으로 도시한 도면이다.
도 1을 참조하면, 본 발명에 따른 3차원 모델링 데이터 수집 시스템(100)은 통신망(110, 130)을 통해서 입체촬영 영역(120)과 통신한다는 것을 알 수 있다.
3차원 모델링 데이터 수집 시스템(100)은 통신망(110, 130)을 통해 그 3차원 모델링 데이터 수집 시스템(100)으로 흘러들어오는 각종 정보를 처리하는 시스템이다. 보다 구체적으로, 3차원 모델링 데이터 수집 시스템(100)은 통신망(110, 130)을 통해서 입체촬영 영역(120)으로부터 피사체(123)의 3차원 모델링 데이터를 수집한다.
여기서, 입체촬영 영역(120)으로부터 수신한 피사체(123)의 3차원 모델링 데이터는 3차원 프린터를 통해서 피사체를 양질감 있는 3차원 피규어(figure)로 구현할 수 있을 정도로 충분한 수준의 입체영상 정보를 의미한다. 3차원 모델링 데이터 수집 시스템(100)은 입체촬영 영역(120)에 포함되어 있는 복수의 카메라가 같은 시각에 특정 물체를 촬영한 영상을 수신할 수 있도록 마스터카메라(121) 및 슬레이브카메라군(127)에 포함된 슬레이브카메라를 제어하는 기능을 수행한다.
3차원 모델링 데이터 수집 시스템(100)과 입체촬영 영역(120) 사이의 통신망(110, 130)은 일반전화망, 데이터망, 이동통신망 등 각종 유무선 통신망을 포함한다.
입체촬영 영역(120)은 복수의 카메라가 영상을 촬영하는 영역을 의미하며, 3차원 모델링 데이터 수집 시스템(100)의 제어를 통신망(110, 130)을 통해 받음으로써, 3차원 모델링 데이터를 산출하고, 3차원 모델링 데이터 수집 시스템(100)에 3차원 모델링 데이터를 송신한다. 입체촬영 영역(120)은 마스터카메라(121), 피사체(123), 표식(125), 슬레이브카메라군(127)을 포함한다.
마스터카메라(121)는 입체촬영 영역(120)을 3차원 모델링 데이터 수집 시스템(100)을 통해 설정하고, 슬레이브카메라군(127)에 포함되어 있는 슬레이브카메라들과 함께 피사체(123)와 표식(125)을 촬영하여, 3차원 모델링 데이터를 산출하고, 그 3차원 모델링 데이터를 통신망(110)을 통해 3차원 모델링 데이터 수집 시스템(100)에 송신한다.
여기서, 마스터카메라(121)는 정지영상 및 동영상을 촬영할 수 있는 카메라와 통신망(110, 130)을 통해서 3차원 모델링 데이터 수집 시스템(100)과 통신할 수 있는 통신부 및 3차원 모델링 데이터 수집 시스템(100)으로부터 특정 신호를 수신하고, 그 신호에 대응하는 신호를 생성하여 통신부를 통해 3차원 모델링 데이터 수집 시스템(100)에 송신하도록 처리하는 프로세서를 구비한 스마트폰과 같은 장비이다.
피사체(123)와 표식(125)은 마스터카메라(121) 및 슬레이브카메라군(127)에 포함된 적어도 하나 이상의 슬레이브카메라에 의해 촬영되는 대상을 의미한다. 보다 구체적으로는, 피사체(123)는 3차원 모델링 데이터 수집 시스템(100)이 수집하려고 하는 3차원 모델링 데이터의 대상이 되는 물체이고, 표식(125)은 피사체(123)를 촬영하는 마스터카메라(121) 및 슬레이브카메라군(127)에 포함된 슬레이브카메라가 피사체(123)를 중심으로 어느 위치에 있는지 파악하기 위한 기준점을 의미한다.
표식(125)은 사람이 직접 만져서 양질감을 느낄 수 있는 물체, 종이에 그려진 그림, 스마트폰에 출력되는 문양일 수 있으며, 표식에 대해서는 도 2와 도 3을 통해 상세히 후술하기로 한다.
슬레이브카메라군(127)은 적어도 하나 이상의 슬레이브카메라를 포함하는 카메라집단으로서, 3차원 모델링 데이터 수집 시스템(100)으로부터 마스터카메라(121)가 입체촬영 영역(120)을 설정하였다는 정보를 수신하고, 그 입체촬영 영역(120)에 가입하여, 마스터카메라(121)와 함께 피사체(123) 및 표식(125)을 촬영한다.
도 1을 참조하면, 슬레이브카메라군(127)에는 세 대의 슬레이브카메라(127a, 127b, 127c)가 포함되어 있으나, 이는 예시적인 표현으로서, 본 발명은 슬레이브카메라군(127)에 속하는 카메라의 수를 특정한 수로 한정하지 않는다.
도 2는 피사체 옆에 놓이는 표식의 일 예를 설명하기 위한 도면이다.
먼저, 표식 원형(210)은 본 발명에 따른 3차원 모델링 데이터 수집 시스템에 저장되어 있는 표식의 기준 형태이다. 3차원 모델링 데이터 수집 시스템은 표식의 기준 형태를 저장하고 있다가, 마스터카메라나 슬레이브카메라로부터 촬영된 영상을 분석하여, 그 영상에 포함된 표식의 형태가 특정되면, 그 특정된 표식의 형태와 표식의 기준 형태를 비교함으로써, 표식을 중심으로 마스터카메라나 슬레이브카메라가 어느 위치에 있는지를 파악할 수 있다.
3차원 모델링 데이터 수집 시스템이 영상 속의 표식 원형(210)의 변형된 형태를 기준으로 표식을 중심으로 한 카메라의 위치를 산출하는 특성상, 표식 원형(210)은 좌우가 비대칭적이고, 카메라와 표식간의 거리 및 방향에 따라서 형태변화를 확인하기 쉬운 형태인 것이 바람직하다.
3차원 모델링 데이터 수집 시스템에는 표식 원형(210)의 모든 형태정보가 저장된다. 보다 구체적으로는, 3차원 모델링 데이터 수집 시스템은 표식 원형(210)의 가로, 세로, 높이에 대한 정보를 저장하고 있으며, 추가적으로 영상에 포함된 표식이 표식 원형(210)과 동일한 가로, 세로, 높이로 촬영되기 위한 카메라와 표식 원형(210)과의 거리(이하, 기준거리)에 대한 정보도 저장한다.
예를 들어, 3차원 모델링 데이터 수집 시스템에 저장된 기준거리가 3m라고 가정한다. 이와 같은 가정하에, 3차원 모델링 데이터 수집 시스템은 카메라가 촬영한 영상에 표식 A(230)가 포함되어 있으면, 표식 A(230)가 카메라로부터 3m보다 더 멀리 떨어져 있다고 판단할 수 있다. 다른 예로서, 3차원 모델링 데이터 수집 시스템은 카메라가 촬영한 영상에 표식 B(250)가 포함되어 있으면, 표식 B(250)가 카메라로부터 3m보다 더 가까이 있다고 판단할 수 있다.
또 다른 예로서, 3차원 모델링 데이터 수집 시스템은 카메라가 촬영한 영상에 표식 C(270)나 표식 D(290)가 포함되어 있으면, 카메라가 표식 C(270)나 표식 D(290)의 정면으로부터 좌측 또는 우측에 편향되어 위치하고 있다고 판단할 수 있다.
위에서 설명한 것과 같이, 3차원 모델링 데이터 수집 시스템은 표식을 중심으로 한 카메라의 위치를 파악하기 위해서 표식 원형(210)에 대한 형태정보를 저장하고 있다. 3차원 모델링 데이터 수집 시스템은 카메라와 표식과의 거리, 방향을 조금씩 달리할 때마다 수집되는 표식의 모든 형태정보를 저장하고 있거나, 카메라의 영상에 포함된 표식을 픽셀(pixel)단위로 분석하여 표식 원형(210)과 비교함으로써, 자동으로 표식과 카메라의 공간좌표를 산출해낼 수 있는 3차원 모델링 프로그램을 탑재할 수도 있다.
도 3은 본 발명에 따른 3차원 모델링 데이터 수집 시스템의 일 예에 대한 블록도를 도시한 도면이다.
도 3을 참조하면, 3차원 모델링 데이터 수집 시스템(30)은 통신부(31), 위치정보산출부(33), 카메라배치조건판단부(35), 데이터베이스(37), 부분영상추출부(39)를 포함하는 것을 알 수 있다. 이하에서는, 카메라는 특별히 한정하는 표현을 붙이지 않으면 도 1에서 설명한 마스터카메라 또는 슬레이브카메라인 것으로 간주한다.
통신부(31)는 각종 유무선 통신망을 통해서 카메라와 통신을 수행하며, 영상수신부(311)와 촬영개시신호송신부(313)를 포함할 수 있다. 보다 구체적으로는, 통신부(31)는 카메라가 촬영한 영상을 수신하거나, 카메라가 피사체 및 표식의 촬영을 개시하도록 지시하는 촬영개시신호를 카메라로 송신한다.
영상수신부(311)는 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신한다. 여기서, 복수의 카메라는 도 1에서 설명한 마스터카메라(제1카메라) 및 적어도 한 대 이상의 슬레이브카메라(제2카메라)를 의미한다. 영상수신부(311)가 수신한 영상은 사진이나 그림과 같은 정지영상 또는 동영상일 수 있으며, 그 영상에는 피사체와 표식이 함께 포함되어 있다.
또한, 표식의 형태정보는 표식과 카메라간의 거리가 변경될 때마다 달라지는 표식의 가로, 세로, 높이 등과 같은 정보이며, 표식 원형에 대한 정보에 대해서는 도 2를 통해 전술한 바 있으므로 생략하기로 한다.
영상수신부(311)는 복수의 카메라로부터 수신한 피사체와 표식을 함께 포함하는 영상을 위치정보산출부(33) 및 데이터베이스(37)로 송신한다. 촬영개시신호송신부(313)는 후술하는 카메라배치조건판단부(35)에 이어서 설명하기로 한다.
위치정보산출부(33)는 영상수신부(311)로부터 피사체와 표식을 함께 포함하는 영상을 수신하고, 그 영상에 포함된 표식의 형태정보를 기초로 피사체를 중심으로 한 복수의 카메라의 위치정보를 산출한다.
먼저, 위치정보산출부(33)는 영상수신부(311)로부터 피사체와 표식을 함께 포함하는 영상을 수신하고, 그 영상에 표식이 포함되어 있는지 여부를 판단한다. 이 단계에서, 위치정보산출부(33)는 미리 저장되어 있는 표식의 형태정보를 기초로 하여 영상수신부(311)가 수신한 영상을 픽셀 단위로 분석함으로써, 영상에 표식이 포함되어 있는지 여부를 판단할 수 있다.
이어서, 위치정보산출부(33)는 영상수신부(311)가 수신한 영상에 표식이 포함되어 있으면, 그 표식의 형태정보를 추출하고, 그 추출한 표식의 형태정보를 미리 수집되어 있는 표식의 형태정보 중에서 기준거리상에서의 표식의 형태정보(가로, 세로, 높이 등)와 비교한다.
위치정보산출부(33)는 표식의 형태정보를 미리 수집하고 있으므로, 표식 원형과 영상에 포함된 변경된 형태의 표식(가로길이의 감소, 세로길이의 증가, 높이의 감소 등)을 비교함으로써, 표식으로부터 카메라가 얼마나 떨어져 있는지에 대한 정보 및 표식으로부터 카메라가 얼마나 편향되어 위치하고 있는지에 대한 정보를 수학적으로 산출할 수 있다.
최종적으로, 위치정보산출부(33)는 영상에 포함된 피사체와 표식의 거리를 기초로 하여, 피사체로부터 카메라가 얼마나 떨어져 있는지에 대한 정보 및 피사체로부터 카메라가 얼마나 편향되어 위치하고 있는지에 대한 정보를 산출한다. 전술한 과정을 통해, 위치정보산출부(33)는 표식을 중심으로 한 복수의 카메라의 위치정보를 산출한 후, 피사체와 표식의 위치 및 거리를 반영하여, 이미 산출한 표식을 중심으로 한 복수의 카메라의 위치를 적절히 조정함으로써, 피사체를 중심으로 한 복수의 카메라의 위치정보를 산출할 수 있다.
위치정보산출부(33)는 피사체를 중심으로 한 복수의 카메라의 위치정보를 공간좌표 형태로 카메라배치조건판단부(35)에 송신한다.
카메라배치조건판단부(35)는 위치정보산출부(33)가 산출한 위치정보에 의해 결정되는 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단한다.
먼저, 카메라배치조건판단부(35)는 위치정보산출부(33)로부터 피사체를 중심으로 한 복수의 카메라의 위치정보를 수신하고, 그 위치정보를 통해 복수의 카메라의 배치를 결정한다. 보다 구체적으로, 위치정보산출부(33)로부터 수신한 복수의 카메라의 위치정보는 피사체를 원점으로 가정했을 때의 복수의 카메라의 좌표값이 된다.
복수의 카메라의 좌표값은 피사체를 원점으로 놓았을 때의 복수의 카메라 각각의 위치를 수치화한 값으로, 직교좌표(x, y, z)이나 극좌표(r, θ, φ)형태 등으로 표현될 수 있다. 카메라배치조건판단부(35)는 복수의 카메라의 좌표값에 따라 3차원 공간상에 복수의 카메라를 가상적으로 배치하고, 그 배치결과를 '피사체를 중심으로 한 복수의 카메라의 배치'로 결정한다.
이어서, 복수의 카메라의 위치정보를 통해 복수의 카메라의 배치가 결정되면, 카메라배치조건판단부(35)는 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단한다. 여기서, 카메라배치조건은 전술한 '피사체를 중심으로 한 복수의 카메라의 배치'와 비교하기 위한 정보로서, 데이터베이스(37)에 저장되어 있다가 카메라배치조건판단부(35)의 호출에 의해 데이터베이스(37)로부터 카메라배치조건판단부(35)에 전달되는 정보를 의미한다. 실시 예에 따라 카메라배치조건은 데이터베이스(37)가 아니라 카메라배치조건판단부(35)에 저장될 수도 있다.
카메라배치조건은 영상으로부터 미리 설정된 수준 이상의 3차원 모델링 데이터를 획득할 수 있는 복수의 카메라의 배치를 의미한다. 여기서, 미리 설정된 수준 이상의 3차원 모델링 데이터란, 3차원 모델링 프로그램 및 3차원 프린터(3D 프린터)를 통해 피사체를 3차원 물체(피규어)로 구현하기 위해 필요한 최저 수준 이상의 3차원 모델링 데이터를 의미한다. 즉, 카메라배치조건을 만족한 복수의 카메라의 배치에 따라 카메라들을 배치하여 피사체를 촬영하면, 3차원 모델링 데이터 수집 시스템은 그 복수의 카메라에 의해 촬영된 영상으로부터 그 피사체를 3차원 물체로 구현할 수 있는 3차원 모델링 데이터를 수집할 수 있게 된다.
보다 구체적으로는, 카메라배치조건은 피사체를 촬영하는 카메라의 수, 피사체를 촬영하는 카메라간의 간격, 피사체와 각 카메라와의 거리, 피사체에서 봤을 때 각 카메라의 방향 및 높이 등과 같은 정보를 일괄적으로 포함하는 정보이다.
예를 들어, 피사체를 촬영하는 카메라의 숫자가 많으면 많을수록, 피사체와 카메라와의 거리가 짧으면 짧을수록, 그렇지 않은 경우보다 복수의 카메라로부터 촬영되는 영상에 피사체의 정보가 더 세밀해지므로, 3차원 모델링 데이터 수집 시스템이 피사체의 3차원 모델링 데이터를 수집하는 것이 용이해지는데, 카메라배치조건은 위와 같은 내용을 기초로 하여 결정된 피사체를 촬영하는 데 필요한 카메라의 최소 수, 피사체와 카메라간의 최대 거리 등과 같은 정보가 된다.
특히, 카메라배치조건판단부(35)는 피사체와 카메라간의 거리가 카메라배치조건상의 피사체와 카메라간의 최대 거리를 상회하더라도, 카메라의 줌(Zoom)기능을 고려하여 피사체와 카메라간의 거리가 최대 거리보다 작다고 판단하여, 복수의 카메라의 배치가 카메라배치조건을 만족한다고 판단할 수도 있다.
카메라배치조건은 피사체를 촬영하는 카메라의 성능에 따라 달라지며, 복수의 카메라 각각이 다른 성능의 카메라라면, 가장 낮은 성능의 카메라에 맞춘 조건이 카메라배치조건으로 될 수 있다. 카메라배치조건은 3차원 모델링 데이터 수집 시스템(300)의 관리자에 의해 변경될 수 있다.
예를 들어, 카메라 한 대만으로 피사체를 촬영하면, 그 카메라에 의한 정지영상에는 피사체의 일부에 대한 3차원 모델링 데이터가 누락될 수 밖에 없으므로, 3차원 모델링 데이터 수집 시스템(30)은 피사체를 카메라 한 대만으로 촬영한 정지영상으로는 그 피사체를 3차원 물체로 구현하기 위해 필요한 3차원 모델링 데이터를 획득할 수 없다. 위와 유사한 논리로, 복수의 카메라가 피사체를 촬영하더라도, 복수의 카메라의 배치가 부적절한 경우에는 피사체의 일부에 대한 3차원 모델링 데이터가 부족하여, 3차원 모델링 데이터 수집 시스템(30)은 그 피사체를 3차원 물체로 구현하기 위해 필요한 3차원 모델링 데이터를 획득할 수 없다.
즉, 카메라배치조건판단부(35)는 위와 같은 상황에서 카메라의 배치는 카메라배치조건을 만족하지 않는다고 판단하게 된다.
카메라배치조건판단부(35)는 피사체를 중심으로 한 복수의 카메라의 배치가 카메라배치조건을 만족하는지 여부에 대해 판단하고, 그 판단한 결과를 촬영개시신호송신부(313)에 송신한다.
선택적 실시 예로서, 복수의 카메라의 배치는 피사체를 중심으로 한 복수의 카메라의 거리, 수평각도, 수직각도에 대한 정보이고, 카메라배치조건은 그 피사체로부터 복수의 카메라가 위치해야 하는 소정의 기준거리, 그 피사체로부터 복수의 카메라가 위치해야 하는 소정의 기준수평각도, 그 피사체로부터 복수의 카메라가 위치해야 하는 소정의 기준수직각도에 대한 정보일 수 있다.
본 선택적 실시 예에서, 카메라배치조건판단부(35)는 피사체를 중심으로 한 복수의 카메라의 거리, 수평각도, 수직각도를 기준거리, 기준수평각도, 기준수직각도와 각각 대응시켜 비교함으로써, 복수의 카메라의 배치가 카메라배치조건을 만족하는지 여부에 대해 판단할 수 있다. 또한, 본 선택적 실시 예에 따르면, 카메라(스마트폰)에 장착되어 있는 GPS(Global Positioning System)를 이용할 때와 달리, 피사체를 중심으로 한 거리 및 수평각도뿐만 아니라 수직각도를 추가로 고려하여 카메라배치조건을 판단할 수 있게 되어, 3차원 모델링 데이터 수집 시스템(30)은 더 정확한 3차원 모델링 데이터의 수집이 가능하게 된다.
다른 선택적 실시 예로서, 카메라배치조건판단부(35)는 복수의 카메라배치조건을 포함하고, 복수의 카메라의 배치가 복수의 카메라배치조건 중 어느 하나를 만족하는지 여부를 판단할 수도 있다. 이때, 카메라배치조건판단부(35)는 복수의 카메라배치조건 각각에 우선순위를 부여하고, 순차적으로 복수의 카메라의 배치가 우선순위에 따라 나열된 카메라배치조건을 만족하는지 여부를 판단할 수 있다.
예를 들어, 카메라배치조건판단부(35)는 제1카메라배치조건과 제2카메라배치조건을 포함할 수 있다. 여기서, 제1카메라배치조건은 마스터카메라의 사용자가 피사체의 피규어(figure)를 제작하려고 할 때, 본 발명에 따른 3차원 모델링 데이터 수집 시스템(30)이 피사체의 피규어를 제작하기 위해 필요한 3차원 모델링 데이터를 수집하기 위한 조건이고, 제2카메라배치조건은 마스터카메라의 사용자가 피사체의 부조(浮彫, relief)를 제작하려고 할 때, 본 발명에 따른 3차원 모델링 데이터 수집 시스템(30)이 피사체의 부조를 제작하기 위해 필요한 3차원 모델링 데이터를 수집하기 위한 조건이다.
통상적으로, 피사체의 부조보다 피사체의 피규어를 제작하기 위해 필요한 정보가 더 많으므로, 위와 같은 예에서 제1카메라배치조건은 제2카메라배치조건보다 더 높은 수준의 조건이 된다. 예를 들어, 제1카메라배치조건에서 피사체를 둘러싸고 촬영해야 하는 카메라의 수가 6대라면, 제2카메라배치조건에서 피사체를 촬영해야 하는 카메라의 수는 6대보다 더 적은 수가 된다.
카메라배치조건판단부(35)는 복수의 카메라의 배치를 1차적으로 제1카메라배치조건과 비교하여, 복수의 카메라의 배치가 제1카메라배치조건을 만족하는지 여부를 판단하고, 복수의 카메라의 배치가 제1카메라배치조건을 만족하지 않으면 제2카메라배치조건을 만족하는지 여부를 판단할 수 있다. 카메라배치조건판단부(35)는 복수의 카메라의 배치가 제1카메라배치조건과 제2카메라배치조건 중 어느 카메라배치조건을 만족했는지 여부에 대한 결과를 후술하는 촬영개시신호에 포함시켜 마스터카메라에 송신할 수 있다.
마스터카메라의 사용자는 마스터카메라의 화면을 통해 출력되는 촬영개시신호의 수신결과를 통해 피사체를 부조로 제작하기 위한 3차원 모델링 데이터를 수집하는 프로세스를 진행하거나, 피사체를 피규어로 제작하기 위한 3차원 모델링 데이터를 수집하기 위해서 피사체를 촬영하는 카메라의 수를 늘리고, 복수의 카메라의 배치를 적절하게 수정할 수 있다.
촬영개시신호송신부(313)는 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하면, 복수의 카메라에 촬영개시신호를 송신한다. 먼저, 촬영개시신호송신부(313)는 카메라배치조건판단부(35)로부터 피사체를 중심으로 한 복수의 카메라의 배치가 카메라배치조건을 만족하는지 여부에 대한 판단결과를 수신한다. 이어서, 촬영개시신호송신부(313)는 카메라배치조건판단부(35)가 복수의 카메라의 배치가 카메라배치조건을 만족한다고 판단했으면, 그 복수의 카메라에 촬영개시신호를 송신한다.
본 발명에 따른 3차원 모델링 데이터 수집 시스템(30)은 1차적으로 복수의 카메라로부터 피사체를 포함한 시험 영상을 수신하여, 피사체를 중심으로 한 카메라들의 배치를 원격으로 파악한 후, 그 파악한 결과에 따라 복수의 카메라에 촬영개시신호를 송신함으로써, 그 복수의 카메라들로부터 피사체에 대한 3차원 모델링 데이터를 용이하게 수집할 수 있다.
또한, 전술한 과정을 통해 수집된 피사체의 3차원 모델링 데이터는 그 피사체를 3차원 물체로 구현하기 위해 필요한 최소한의 기준을 충족하는 데이터이므로, 피사체에 대한 3차원 모델링 데이터의 누락을 최소화한 채로 3차원 프린터 등을 통해 피사체의 3차원 물체를 구현할 수 있다. 나아가, 사용자는 본 발명을 활용함으로써, 포토 스튜디오(photo studio)를 방문하지 않고도 피규어 제작업체에 사용자가 원하는 물체의 피규어 제작을 원격으로 의뢰할 수 있게 된다.
부분영상추출부(39)는 촬영개시신호송신부(313)가 송신한 촬영개시신호에 대응하여 복수의 카메라로부터 모델링요청영상을 수신하면, 영상수신부(311)에 의해 산출된 신호도달시간에 따라 모델링요청영상에서 동일한 시각에서 촬영된 부분영상을 추출한다. 여기서, 부분영상추출부(39)는 실시 예에 따라 생략될 수 있으며, 신호도달시간과 부분영상추출부(39)에 대한 상세한 설명은 도 7과 함께 후술하기로 한다.
도 4는 피사체와 표식을 개략적으로 설명하기 위한 도면이다.
먼저, 피사체(410)는 복수의 카메라에 의해 촬영되는 대상을 의미하며, 본 발명에 따른 3차원 모델링 데이터 수집 시스템은 복수의 카메라에 의해 촬영된 피사체의 영상은 분석하여, 그 피사체의 3차원 모델링 데이터를 수집하게 된다. 본 발명에 따른 3차원 모델링 데이터 수집 시스템은 후술하는 내용과 같이 동일한 시각에 촬영된 영상을 분석하여 3차원 모델링 데이터를 수집하므로, 피사체(410)는 반드시 고정된 물체가 아니어도 된다. 동일한 시각에 대한 영상에서 3차원 모델링 데이터를 수집하는 과정에 대해서는 도 8에 대한 설명과 함께 후술하기로 한다.
표식(430)은 피사체(410)의 주변에 놓여서 본 발명에 따른 3차원 모델링 데이터 수집 시스템이 피사체(410)를 중심으로 한 복수의 카메라의 위치정보를 산출하는 데에 이용된다.
본 발명에 따른 3차원 모델링 데이터 수집 시스템은 표식(430)의 형태정보를 미리 저장하고 있으므로, 표식(430)이 카메라의 방향에 따라 다른 형태로 영상에 포함되면, 그 다른 형태의 표식(430)을 미리 저장하고 있는 표식(430)의 형태정보와 비교한 결과를 기초로 복수의 카메라의 위치정보를 산출할 수 있다.
표식(430)의 예를 들면, 스마트폰의 화면을 통해 출력되는 그림 또는 A4 용지에 인쇄된 그림, 사용자가 휴대하고 다니는 3차원 물체 등이 표식(430)이 될 수 있다. 특히, 표식(430)이 스마트폰의 화면을 통해 출력되는 그림인 경우, 사용자는 이동하는 도중에 갑자기 특정한 물체를 피사체로 결정하여, 그 피사체에 대한 3차원 모델링 데이터를 얻고자 한다면, 스마트폰의 애플리케이션을 실행하여 표식(430)에 해당하는 그림을 불러온 후, 피사체 옆에 그 스마트폰을 손에 든 사람을 촬영함으로써, 그 피사체의 3차원 모델링 데이터를 수집할 수 있게 되므로, 사용자가 별도로 표식(430)을 휴대하고 다닐 필요가 없다는 점에서 편리하다.
피사체(410)에 주변에 놓이는 표식(430)은 복수가 될 수 있다. 본 발명에 따른 3차원 모델링 데이터 수집 시스템은 복수의 카메라로부터 수신한 영상에 복수의 표식(430)이 포함되어 있으면, 각 영상에 포함된 표식(430)의 형태를 분석하여 더 정확하게 카메라의 위치정보를 산출하는 것이 가능하다.
예를 들어, 카메라 A에 의해 촬영된 영상에 표식 a가 각각 aa, aaa 형태로 포함되어 있으며, 카메라 B에 의해 촬영된 영상에 표식 a가 각각 aaaa, aaaaa 형태로 포함되어 있고, aa, aaa, aaaa, aaaaa는 표식 a를 정면이 아닌 방향에서 바라볼 때 달라지는 형태를 각각 나타낸다고 가정한다. 위와 같은 예에서, 3차원 모델링 데이터 수집 시스템은 aa, aaaa를 통해 산출된 카메라 A, B의 상대적인 위치를 aaa, aaaaa를 통해 산출된 카메라 A, B의 상대적인 위치와 비교하여, 복수의 카메라의 위치정보를 보다 더 정확하게 산출할 수 있게 된다.
마스터카메라(450)는 피사체를 촬영하여 3차원 모델링 데이터를 수집하려는 최초의 사용자가 사용하는 카메라를 의미한다. 사용자는 마스터카메라(450)를 통해 입체촬영 영역을 설정하고, 슬레이브카메라(470)가 입체촬영 영역에 가입하고 난 뒤에 피사체(410)와 표식(430)을 모두 포함하는 영상을 촬영하게 된다.
슬레이브카메라(470)는 피사체를 촬영하여 3차원 모델링 데이터를 수집하려는 최초의 사용자가 입체촬영 영역을 설정하면, 그 입체촬영 영역에 가입하고, 피사체(410)와 표식(430)을 모두 포함하는 영상을 촬영하는 카메라를 의미한다. 슬레이브카메라(470)는 마스터카메라(450)와 다른 방향에서 피사체(410) 및 표식(430)을 포함하는 영상을 촬영하게 되며, 마스터카메라(450)와 달리 복수일 수 있다.
도 5는 영상수신부의 일 예에 대한 블록도를 도시한 도면이다.
도 5를 참조하면, 영상수신부(311)는 영역설정신호수신부(311a), 입체촬영영역설정부(311b) 및 영역영상수신부(311c)를 포함하고, 영역영상수신부(311c)는 데이터베이스(37)와 유선 또는 무선으로 연결되는 것을 알 수 있다. 이하에서, 설명을 용이하게 하기 위해 도 1 및 도 3을 참조하여 설명하기로 한다.
영역설정신호수신부(311a)는 마스터카메라로부터 피사체의 입체촬영 영역을 설정하는 영역설정신호를 수신한다. 사용자는 3차원 모델링 데이터를 수집할 피사체를 결정한 후, 마스터카메라를 통해 입체촬영 영역을 설정한다는 명령을 내릴 수 있고, 그 명령은 마스터카메라에 저장된 애플리케이션을 통해 영역설정신호로 변환되어 유무선 통신망을 통해 영역설정신호수신부(311a)에 송신된다.
입체촬영영역설정부(311b)는 영역설정신호수신부(311a)가 영역설정신호를 수신하면, 마스터카메라, 피사체, 표식을 함께 포함하는 입체촬영 영역을 설정한다. 먼저, 입체촬영영역설정부(311b)는 영역설정신호수신부(311a)가 수신한 영역설정신호에 포함되어 있는 마스터카메라의 위치를 추출한다. 보다 구체적으로는, 입체촬영영역설정부(311b)는 영역설정신호에 포함되어 있는 마스터카메라의 GPS정보를 분석함으로써, 마스터카메라의 위치를 추출하고, 사용자가 입력한 값에 따라 마스터카메라로부터 피사체가 얼마만큼 떨어져 있는지를 파악한다.
이어서, 입체촬영영역설정부(311b)는 마스터카메라의 위치와 마스터카메라 및 피사체의 거리를 기초로 하여, 입체촬영 영역의 크기를 결정한 후, 입체촬영 영역을 설정한다. 다른 일 예로서, 입체촬영영역설정부(311b)는 입체촬영 영역의 크기를 결정하는 숫자를 마스터카메라로부터 수신할 수도 있다.
입체촬영영역설정부(311b)는 입체촬영 영역이 설정되었다는 정보를 마스터카메라를 포함한 복수의 카메라에 송신하고, 각 카메라에 설치된 애플리케이션은 입체촬영 영역이 설정되었다는 정보를 각 카메라의 화면을 통해 출력한다. 이때, 입체촬영영역설정부(311b)는 입체촬영 영역이 설정되었다는 정보를 입체촬영 영역에 포함된 카메라에만 선택적으로 송신할 수도 있고, 관련 애플리케이션이 설치되어 있는 모든 카메라에 송신할 수도 있다.
슬레이브카메라를 사용하는 사용자는 입체촬영 영역이 설정되었다는 정보를 슬레이브카메라를 통해서 수신하고, 입체촬영 영역에 가입을 하거나 하지 않을 수 있다. 이때, 슬레이브카메라의 사용자는 마스터카메라의 사용자로부터 미리 지시받은 입체촬영 영역의 식별정보(영역명, 영역번호, 영역설명 등)를 통해 입체촬영 영역을 식별하게 된다.
입체촬영 영역에 마스터카메라 및 적어도 한 대 이상의 슬레이브카메라가 가입하게 되면, 영역영상수신부(311c)는 입체촬영 영역에 포함된 마스터카메라 및 슬레이브카메라로부터 피사체 및 표식을 함께 촬영한 영상을 수신한다. 영역영상수신부(311c)가 수신한 영상은 데이터베이스(37)에 저장되며, 전술한 위치정보산출부(33)는 그 데이터베이스(37)에 저장된 영상을 마스터카메라 및 슬레이브카메라의 위치정보를 산출하는 데에 이용한다.
도 5에서 설명한 본 발명의 선택적 실시 예에 따르면, 1차적으로 입체촬영 영역을 설정하고, 2차적으로 그 입체촬영 영역에 가입하여 피사체를 촬영하려는 카메라들만을 선출함으로써, 피사체의 3차원 모델링 데이터를 수집하는 데에 필요한 카메라만을 선별할 수 있다.
도 6은 위치정보산출부의 일 예의 블록도를 도시한 도면이다.
도 6을 참조하면, 위치정보산출부(33)는 표식형태추출부(33a), 표식중심위치정보산출부(33b) 및 피사체중심위치정보산출부(33c)를 포함하는 것을 알 수 있다. 보다 용이한 설명을 위해서 이하에서는 도 3을 참조하여 설명하기로 한다.
표식형태추출부(33a)는 영상수신부(311)가 수신한 영상에 포함된 표식의 형태를 추출한다. 영상수신부(311)가 수신한 영상은 피사체와 표식을 함께 포함하며, 피사체를 찍은 카메라의 위치에 따라 표식의 형태가 달라지는데, 표식형태추출부(33a)는 다양한 표식의 형태를 저장하고 있다가, 영상에 포함된 표식의 형태와 저장하고 있던 표식의 형태를 비교하는 방식으로 영상으로부터 표식을 추출한다.
표식중심위치정보산출부(33b)는 표식형태추출부(33a)가 추출한 표식의 형태를 소정의 표식형태정보와 비교한 결과를 기초로 표식을 중심으로 한 복수의 카메라의 위치정보를 산출한다.
먼저, 표식중심위치정보산출부(33b)는 표식형태추출부(33a)가 추출한 표식의 형태를 소정의 표식형태정보와 비교한다. 표식중심위치정보산출부(33b)는 다양한 표식형태정보를 저장하고 있으며, 표식형태정보는 다양한 각도 및 거리에서 표식을 봤을 때의 표식의 형태 및 그 표식의 형태가 관찰되기 위한 각도 및 거리에 대한 정보를 총괄하는 개념이다.
이어서, 표식중심위치정보산출부(33b)는 표식형태추출부(33a)가 추출한 표식의 형태를 소정의 표식형태정보와 비교함으로써, 표식을 중심으로 한 복수의 카메라의 위치정보를 산출한다. 복수의 카메라의 위치정보는 전술한 것과 같이 직교좌표계 또는 극좌표계에 따른 좌표값으로 산출될 수 있다.
피사체중심위치정보산출부(33c)는 영상수신부(311)가 수신한 영상에서의 표식과 피사체의 상대적인 위치를 산출하고, 그 상대적인 위치와 표식중심위치정보산출부(33b)가 산출한 복수의 카메라의 위치정보를 비교한 결과를 기초로 피사체를 중심으로 한 복수의 카메라의 위치정보를 산출한다.
먼저, 피사체중심위치정보산출부(33c)는 영상수신부(311)가 수신한 영상에서의 표식과 피사체의 상대적인 위치를 산출한다. 영상수신부(311)가 수신한 영상의 개수는 복수의 카메라의 수와 일치하게 되며, 피사체중심위치정보산출부(33c)는 다양한 각도 및 거리에서 찍힌 영상에 포함된 피사체 및 표식의 형태를 기초로 피사체와 표식의 상대적인 위치를 산출할 수 있다.
그 다음, 피사체중심위치정보산출부(33c)는 전술한 과정을 통해 산출한 표식과 피사체의 상대적인 위치와 표식중심위치정보산출부(33b)가 산출한 표식을 중심으로 한 복수의 카메라의 위치정보를 비교한다. 표식중심위치정보산출부(33b)가 산출한 복수의 카메라의 위치정보는 표식을 중심으로 했을 때의 복수의 카메라의 위치정보이므로, 피사체를 중심으로 했을 때의 복수의 카메라의 위치정보를 산출하기 위해서는 표식과 피사체의 상대적인 위치에 대한 정보가 필요하다.
최종적으로, 피사체중심위치정보산출부(33c)는 표식을 중심으로 한 복수의 카메라의 위치정보를 표식과 피사체의 상대적인 위치에 따라 보정하여, 피사체를 중심으로 한 복수의 카메라의 위치정보를 산출한다.
도 6에서 설명한 위치정보산출부(33)에 따르면, 표식과 피사체가 완전히 같은 위치에 놓여있지 않더라도 영상수신부(311)가 수신한 영상에 포함된 표식의 형태정보를 기초로 피사체를 중심으로 한 복수의 카메라의 위치정보를 정확하게 산출할 수 있다.
도 7은 영상수신부의 다른 선택적 실시 예에 대한 블록도를 도시한 도면이다.
도 7을 참조하면, 영상수신부(311)는 시험신호송신부(311d), 응답신호수신부(311e), 신호도달시간산출부(311f)를 포함하며, 영상수신부(311)는 데이터베이스(37)와 유선 또는 무선으로 통신하고, 부분영상추출부(39)는 신호도달시간산출부(311f) 및 데이터베이스(37)와 유선 또는 무선으로 통신한다는 것을 알 수 있다.도 7의 블록도에 대한 설명을 용이하게 하기 위해 도 3을 참조하여 설명하도록 한다.
시험신호송신부(311d)는 복수의 카메라에 시험신호를 송신한다. 여기서, 복수의 카메라는 피사체와 표식을 함께 포함한 영상을 영상수신부(311)에 송신한 마스터카메라 및 슬레이브카메라를 모두 포함한다.
시험신호는 시험신호 프리앰블(preamble)과 시험신호 페이로드(payload)로 구성되어 있다. 시험신호 프리앰블은 연속되는 이진 데이터 값을 갖는다. 시험신호를 수신한 카메라는 시험신호의 시험신호 프리앰블의 데이터 값이 미리 설정된 값과 일치하는 경우, 그 카메라가 수신한 신호를 시험신호라고 판단하고, 시험신호에 대응하는 응답신호를 생성하여 3차원 모델링 데이터 수집 시스템에 송신한다. 시험신호 페이로드는 응답신호 페이로드가 갖는 이진 데이터 값의 범위를 결정하기 위한 데이터 값 및 시스템이 시험신호를 복수의 카메라에 송신한 시각에 대한 이진 데이터 값을 갖는다.
응답신호는 응답신호 프리앰블과 응답신호 페이로드로 구성되어 있다. 응답신호 프리앰블은 연속되는 이진 데이터 값을 갖는다. 응답신호를 수신한 3차원 모델링 데이터 수집 시스템은, 그 시스템이 수신한 신호가 시험신호에 대한 응답신호라고 판단하고, 응답신호 페이로드가 갖는 데이터 값을 읽어들인다. 응답신호 페이로드는 카메라가 시험신호를 수신한 시각 및 카메라가 응답신호를 생성하여 3차원 모델링 데이터 수집 시스템에 송신한 시각에 대한 이진 데이터 값을 갖는다.
응답신호수신부(311e)는 시험신호를 수신한 복수의 카메라로부터 응답신호를 수신한다. 신호도달시간산출부(311f)는 시험신호 및 응답신호에 포함된 시간정보를 기초로 복수의 카메라 각각의 신호도달시간을 산출하고, 영상수신부(311)가 수신한 영상에 각각의 신호도달시간을 대응시킨다.
여기서 신호도달시간이란 시험신호송신부(311d)가 시험신호를 송신하고 난 뒤, 응답신호수신부(311e)가 응답신호를 수신할 때까지 걸린 시간을 의미하며, 세부적으로 시험신호가 카메라에 송신된 시각, 카메라가 시험신호를 수신한 시각, 카메라가 시험신호를 수신하고 응답신호를 생성한 시각, 응답신호수신부(311e)가 응답신호를 수신한 시각에 대한 정보를 포함할 수 있다.
신호도달시간산출부(311f)가 복수의 카메라 각각의 신호도달시간을 산출하여 각 카메라로부터 수신한 영상에 대응시키면, 그 각각의 신호도달시간은 각각의 영상에 대한 메타데이터(metadata)의 한 종류가 되어 데이터베이스(37)에 영상과 함께 저장된다.
부분영상추출부(39)는 촬영개시신호송신부(313)가 복수의 카메라에 송신한 촬영개시신호에 대응하여 복수의 카메라로부터 모델링요청영상을 수신하면, 신호도달시간산출부(311f)가 산출한 신호도달시간에 따라 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출한다.
피사체를 3차원 물체로 구현하기 위해서는 양질의 3차원 모델링 데이터가 필요하고, 피사체의 영상으로부터 양질의 3차원 모델링 데이터를 수집하기 위해서는 정확하게 동일한 시각(시점)에 피사체를 여러 방향에서 촬영한 영상이 필요하다.
본 발명에 따라 3차원 모델링 데이터 수집 시스템이 3차원 모델링 데이터 수집 시스템과 원격으로 떨어져 있는 복수의 카메라로부터 영상을 수신하게 되면, 신호의 송수신시각이 조금씩 달라지는 신호지연이 발생하여, 각 카메라가 영상을 촬영한 시각이 조금씩 달라지고, 그 촬영시각의 차이에 의해 정확한 3차원 모델링 데이터를 수집하는 것이 어렵다.
위와 같은 문제점을 해결하기 위해 부분영상추출부(39)는 복수의 카메라로부터 피사체를 일정시간동안 촬영한 모델링요청영상을 수신하고, 미리 수집해놓은 신호도달시간을 기초로 각각의 카메라의 신호지연을 감안하여 모델링요청영상으로부터 동일한 시각에 촬영된 부분영상을 추출한다.
먼저, 부분영상추출부(39)는 촬영개시신호송신부(313)가 송신한 촬영개시신호에 대응하여 영상수신부(311)가 복수의 카메라로부터 모델링요청영상을 수신하면, 영상수신부(311)로부터 그 모델링요청영상을 전달받는다. 모델링요청영상은 복수의 카메라가 피사체를 촬영한 영상으로서, 이미 복수의 카메라의 배치에 대한 정보가 3차원 모델링 데이터 수집 시스템에 저장되어 있으므로, 모델링요청영상은 표식을 포함하지 않아도 된다.
여기서, 모델링요청영상은 각 카메라에 설치된 애플리케이션에 의해 설정된 시간에 따라 짧게는 수 초, 길게는 수십 초동안 피사체를 촬영한 영상이다. 예를 들어, 마스터카메라가 피사체를 60fps(frame per second)로 1초동안 촬영한 영상이 모델링요청영상이라면, 그 모델링요청영상은 60개의 프레임(정지영상)으로 구성된 영상(동영상)이 된다. 여기서, 프레임은 부분영상추출부(39)가 모델링요청영상으로부터 추출하는 부분영상과 같은 의미가 될 수 있다.
부분영상추출부(39)는 모델링요청영상의 메타데이터를 읽어들여서, 각각의 모델링요청영상이 어느 카메라로부터 수신되었는지 파악하고, 그 파악한 카메라에 의해 촬영된 영상의 메타데이터를 데이터베이스(37)로부터 수신한다. 여기서 데이터베이스(37)로부터 수신하는 영상은 전술한 과정을 통해 복수의 카메라의 위치정보를 산출하기 위해 복수의 카메라로부터 영상수신부(311)가 수신한 피사체와 표식을 함께 포함한 영상을 의미하며, 신호도달시간산출부(311f)에 의해 그 영상에는 그 영상의 메타데이터로서 그 영상을 촬영한 카메라의 신호도달시간이 대응되어 있다.
이어서, 부분영상추출부(39)는 데이터베이스(37)로부터 수신한 영상의 메타데이터인 신호도달시간에 따라 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출한다.
보다 구체적으로는, 부분영상추출부(39)는 복수의 카메라로부터 수신한 모델링요청영상을 적어도 하나 이상의 부분영상으로 분리한다. 전술한 예와 같이, 60fps로 촬영된 1초짜리 모델링요청영상을 수신했다면, 부분영상추출부(39)는 모델링요청영상을 60개의 부분영상(프레임)으로 분리할 수 있다.
이어서, 부분영상추출부(39)는 신호도달시간에 따라 각각의 부분영상이 촬영된 시각에 대한 정보를 부분영상마다 맵핑시킨다. 최종적으로, 부분영상추출부(39)는 복수의 카메라로부터 수신한 복수의 모델링요청영상에 대해 부분영상의 분리 및 부분영상에 대한 촬영시각정보의 맵핑을 수행하고, 동일한 시각에 촬영된 부분영상을 추출하게 된다.
도 8은 부분영상추출부가 부분영상을 추출하는 과정을 도식적으로 나타낸 도면이다.
도 8에서 부분영상에 대한 시각정보는 t와 숫자의 결합으로 표현되었으며, t뒤에 붙는 숫자가 크면 클수록 수학적으로 큰 수치를 의미하고, t뒤에 붙는 숫자끼리의 차이가 같으면(5와 6 또는 3과 4 등) 각 시각정보의 차이는 동일하다고 가정한다.
부분영상추출부는 마스터카메라, 슬레이브카메라A, 슬레이브카메라B 및 슬레이브카메라 C로부터 수신한 모델링요청영상을 n개(단, n은 1보다 큰 자연수)의 부분영상으로 분리한다. 이어서, 부분영상추출부는 각 모델링요청영상의 첫 번째 부분영상에 신호도달시간에 비례하는 시각에 대한 정보를 맵핑하고, 나머지 부분영상에도 순차적으로 촬영시각에 대한 정보를 맵핑한다.
도 8을 참조하여 설명하면, 슬레이브카메라A의 신호도달시간은 t4로서, 나머지 3가지 카메라에 비해 길며, 그에 따라 슬레이브카메라A로부터 수신한 모델링요청영상의 첫 부분영상에는 슬레이브카메라A의 신호도달시간과 같은 t4가 맵핑되었고, 두 번째 부분영상부터는 t5, t6, t7, t8이 순차적으로 맵핑된 것을 알 수 있다.
즉, 슬레이브카메라A는 신호도달시간이 긴 카메라로서 다른 카메라에 비해 늦게 피사체를 촬영하게 되어 첫 부분영상이 촬영된 시점이 t4라는 의미이다.
부분영상추출부는 전술한 과정을 4가지 카메라 모두에 수행하고, 4가지 카메라의 모델링요청영상에 공통적으로 포함되어 있는 t4시점에 촬영된 부분영상을 추출한다. 실시 예에 따라서, 부분영상추출부는 t5시점에 촬영된 부분영상을 추출할 수도 있다.
위와 같은 과정을 통해 t4 시점에 촬영된 부분영상을 추출하여 3차원 모델링 데이터를 수집할 경우, 동일한 시각에 여러 각도에서 촬영된 피사체의 모습으로부터 양질의 3차원 모델링 데이터를 수집할 수 있게 되어, 그 3차원 모델링 데이터로부터 피사체와 유사도가 높은 피규어(figure)를 제작할 수 있게 된다.
특히, 본 실시 예에 따르면, 부분영상의 촬영 시각을 일치시키는 방식으로 부분영상을 추출함으로써, 피사체가 고정된 물체가 아니라 움직이는 물체여도, 그 피사체로부터 높은 수준의 3차원 모델링 데이터를 수집할 수 있다.
여기서부터는, 다시 도 7로 돌아가서 설명하기로 한다.
선택적 실시 예로서, 부분영상추출부(39)는 기설정된 부분영상조건을 고려하여 부분영상을 추출할 수도 있다. 전술한 도 8에 대한 설명에 따르면, 부분영상추출부(39)는 t4 시점에 대한 부분영상뿐만 아니라 t5 시점에 대한 부분영상을 추출할 수도 있는데, 이렇게 추출해야 하는 부분영상이 두 가지 이상이 될 때, 부분영상추출부(39)는 기설정된 부분영상조건을 고려하여 최종적으로 어느 한 시점의 부분영상만을 추출할 수 있다.
영상의 3차원 모델링 데이터의 수집은 영상이 아래와 같은 조건을 많이 만족할수록 더 용이하다.
먼저, 첫 번째 조건으로서, 영상의 해상도가 높으면 높을수록 영상에 포함된 피사체가 더 세밀하게 표현되므로, 영상으로부터 피사체의 3차원 모델링 데이터를 수집하는 것이 용이해진다. 이에 따라 3차원 모델링 데이터 수집 시스템은 카메라가 모델링요청영상을 그 카메라가 지원가능한 최고의 해상도로 촬영하도록 카메라의 영상촬영 설정을 변경하는 정보를 촬영개시신호에 포함시킬 수 있다.
또한, 두 번째 조건으로서, 카메라의 초점거리는 짧으면 짧을수록 광각이 짧아져서 영상의 외곽부분에 왜곡이 발생하므로, 3차원 모델링 데이터 수집 시스템이 영상으로부터 피사체의 3차원 모델링 데이터를 수집하는 것이 어려워진다. 즉, 카메라의 초점거리는 길면 길수록 좋은 모델링 데이터를 수집할 수 있다. 다만, 카메라의 초점거리는 카메라의 렌즈의 크기 및 성능에 의해 결정되는 것이므로, 3차원 모델링 데이터 수집 시스템이 특정한 신호로 카메라의 동작을 제어하여 초점거리를 변경할 수는 없다.
세 번째 조건으로서, 영상에 피사체를 제외한 나머지에 대한 정보가 최소화될수록 3차원 모델링 데이터 수집 시스템이 영상으로부터 피사체의 3차원 모델링 데이터를 수집하는 것이 용이해진다. 다만, 이 세 번째 조건은 카메라가 가까운 거리에서 피사체를 촬영함으로써 충족시킬 수 있으며, 카메라와 피사체의 거리가 멀더라도 카메라의 줌 기능을 이용하여 충족시킬 수 있다.
마지막 조건으로, 특정 카메라와 그 특정 카메라와 인접한 카메라가 각각 촬영한 영상에서 중첩적인 정보가 많을수록, 영상으로부터 피사체의 3차원 모델링 데이터를 수집하는 것이 용이해진다. 이 마지막 조건은 피사체를 둘러싸고 카메라가 빽빽하게 놓인 상태에서, 그 카메라들이 피사체를 촬영할수록 만족하기 쉬워지는 조건이다.
전술한 4가지 조건에서 마지막 조건이 부분영상추출부(39)의 기설정된 부분영상조건이 될 수 있다. 부분영상추출부(39)가 기설정된 부분영상조건을 기초로 부분영상을 추출하는 과정을 구체적으로 설명하면 다음과 같다.
먼저, 부분영상추출부(39)는 피사체를 촬영할 때의 복수의 카메라의 배치를 파악한다. 부분영상추출부(39)는 카메라배치조건판단부로부터 복수의 카메라의 배치에 대한 정보를 수신하여, 복수의 카메라가 피사체를 중심으로 어떻게 배치되어 있는지를 파악한다. 도 8을 참조하여 예를 들면, 부분영상추출부(39)는 마스터카메라, 슬레이브카메라A, 슬레이브카메라 B, 슬레이브카메라 C가 순차적으로 배치되어 있다고 파악했다고 가정한다.
이어서, 부분영상추출부(39)는 특정 카메라와 그 특정 카메라와 인접한 카메라가 촬영한 부분영상 간에 중첩되는 정도가 얼마나 되는지 파악한다. 위와 같은 예에 따르면, 카메라가 4대이므로, 부분영상추출부(39)는 3번의 부분영상 비교(마스터카메라와 슬레이브카메라A, 슬레이브카메라A와 슬레이브카메라B, 슬레이브카메라B와 슬레이브카메라C)를 통해, 복수의 카메라가 촬영한 모델링요청영상의 동일한 시점에서의 부분영상에서, 부분영상 간에 중첩되는 정도가 얼마나 되는지 파악한다.
일반적으로 부분영상들은 다수의 픽셀(pixel)로 표현되므로, 영상비교 프로그램 등을 통해서 부분영상추출부(39)는 서로 다른 두 개의 부분영상에서 중첩되는 부분이 얼마나 되는지 파악할 수 있다. 즉, 부분영상추출부(39)는 부분영상간에 중첩되는 정도가 미리 설정된 값을 초과하면, 기설정된 부분영상조건을 만족하는 것으로 판단하고, 그 부분영상을 추출한다.
부분영상추출부(39)는 특정 카메라와 그 특정 카메라와 인접한 카메라가 촬영한 부분영상 간에 중첩되는 정도가 미리 설정된 값을 초과하면, 그 시점에서의 부분영상을 3차원 모델링 데이터를 수집할 부분영상으로서 추출한다.
도 9는 본 발명에 따른 3차원 모델링 데이터 수집 방법의 일 예에 대한 흐름도를 도시한 도면이다.
도 9는 도 3에서 설명한 3차원 모델링 데이터 수집 시스템에 의해 구현될 수 있으므로, 도 3에서 설명한 것과 중복되는 설명은 생략하기로 한다.
먼저, 통신부는 복수의 카메라로부터 표식, 피사체를 촬영한 영상을 수신한다(910). 이어서, 위치정보산출부는 영상에 포함된 표식의 형태정보를 기초로 피사체를 중심으로 한 카메라 위치정보를 산출한다(930).
카메라배치조건판단부는 단계 930에서 산출된 위치정보에 의해 파악된 복수의 카메라의 배치가 미리 설정된 카메라배치조건을 만족하는지 여부를 판단한다(950). 통신부는 단계 950에서 복수의 카메라의 배치가 미리 설정된 카메라배치조건을 만족한다는 결과를 수신하면, 복수의 카메라에 촬영개시신호를 송신한다(970).
도 10은 본 발명에 따른 3차원 모델링 데이터 수집 방법에 대한 흐름도를 나타낸다.
도 10을 참조하면, 3차원 모델링 데이터 수집 방법은 크게 마스터카메라(1010), 데이터수집시스템(1030) 및 슬레이브카메라(1050) 간에 발생하는 데이터의 흐름에 의해 구현될 수 있고, 도 10에서 데이터수집시스템(1030)은 본 발명에 따른 3차원 모델링 데이터 수집 시스템의 일 예로 본다.
본 발명에 따른 3차원 모델링 데이터 수집 방법은 도 3을 통해 설명한 3차원 모델링 데이터 수집 시스템에 의해 구현될 수 있으므로, 도 3, 도 5 내지 도 7에서 설명한 것과 중복된 설명은 생략하기로 한다. 또한, 편의상 슬레이브카메라(1050)는 하나만 도시되어 있으나, 슬레이브카메라(1050)는 복수가 될 수 있으며, 그 복수의 슬레이브카메라(1050) 모두에 대해서 동일한 과정이 적용된다.
먼저, 마스터카메라(1010)는 입체촬영 영역의 설정을 요청하는 신호를 데이터수집시스템(1030)에 송신한다(S1001). 데이터수집시스템(1030)은 마스터카메라(1010)를 포함한 입체촬영 영역을 설정한다(S1003). 단계 S1003에서, 데이터수집시스템(1030)은 입체촬영 영역을 설정할 때에 마스터카메라(1010)로부터 수신한 정보를 기초로 입체촬영 영역의 크기 또는 식별정보 등을 결정할 수 있다.
데이터수집시스템(1030)은 입체촬영 영역이 설정되면, 마스터카메라(1010) 및 슬레이브카메라(1050)에 입체촬영 영역이 설정되었다는 알림메시지를 송신한다(S1005). 단계 S1005에서 데이터수집시스템(1030)은 입체촬영 영역에 속해 있는 슬레이브카메라에만 알림메시지를 보낼 수도 있고, 입체촬영 영역에 속해 있지 않더라도 데이터수집시스템(1030)의 알림메시지를 수신하여 출력하는 애플리케이션을 설치한 슬레이브카메라(1050)에게 알림메시지를 보냄으로써, 입체촬영 영역에 속해있지 않은 슬레이브카메라(1050)의 사용자가 입체촬영 영역안으로 들어오도록 유도할 수도 있다.
슬레이브카메라(1050)는 입체촬영 영역이 설정되었다는 알림메시지를 송신한 후, 입체촬영 영역에 가입을 요청한다(S1007). 데이터수집시스템(1030)은 슬레이브카메라(1050)의 입체촬영 영역에 대한 가입요청메시지를 수신하고, 그 가입요청메시지를 수락하며, 입체촬영 영역에 포함되는 카메라를 확정한다(S1009).
단계 S1009에서, 데이터수집시스템(1030)은 미리 설정된 시간동안 입체촬영 영역에 대한 가입요청메시지를 수신하고, 그 미리 설정된 시간이 경과하면, 그 경과시각에 입체촬영 영역에 포함되어 있던 마스터카메라 및 슬레이브카메라만을 입체촬영 영역에 포함시킬 수 있다. 다른 예로서, 마스터카메라(1010)로부터 입체촬영 영역에 포함되는 카메라의 수에 대한 정보를 수신하고, 입체촬영 영역에 포함된 카메라의 수가 마스터카메라(1010)로부터 수신한 카메라의 한계치에 도달하면, 미리 설정된 시간의 경과를 대기하지 않고, 바로 입체촬영 영역에 포함되는 카메라들을 확정할 수도 있다.
데이터수집시스템(1030)은 입체촬영 영역에 포함되는 카메라들이 모두 확정되었다는 정보를 마스터카메라(1010) 및 슬레이브카메라(1050)에 송신한다(S1011). 마스터카메라(1010)는 입체촬영 영역에 포함되는 카메라가 확정되면, 촬영개시준비신호를 데이터수집시스템(1030)에 송신한다(S1013).
데이터수집시스템(1030)은 마스터카메라(1010)로부터 촬영개시준비신호를 수신하면, 입체촬영 영역에 포함된 슬레이브카메라(1050)에 촬영개시준비신호를 송신한다(S1015). 슬레이브카메라(1050)는 데이터수집시스템(1030)으로부터 촬영개시준비신호를 수신하고, 그 촬영개시준비신호에 대응하는 촬영개시준비완료신호를 데이터수집시스템(1030)에 송신한다(S1017). 단계 S1017에서 슬레이브카메라(1050)에 설치된 애플리케이션에 의해, 슬레이브카메라(1050)는 프리뷰모드(preview mode)가 활성화되어, 그 슬레이브카메라(1050)의 사용자가 프리뷰 화면을 통해서 피사체와 표식을 함께 포함할 수 있도록 유도한다.
데이터수집시스템(1030)은 슬레이브카메라(1050)로부터 촬영개시준비완료신호를 수신한 후, 입체촬영 영역에 포함된 슬레이브카메라(1050)가 촬영개시준비완료신호를 보내왔다는 사실을 포함하는 촬영개시준비완료신호를 마스터카메라(1010)에 송신한다(S1019).
마스터카메라(1010)는 데이터수집시스템(1030)으로부터 촬영개시준비완료신호를 수신한 후, 표식과 피사체를 함께 포함한 1차 영상을 촬영하고, 그 1차 영상을 데이터수집시스템(1030)에 송신한다(S1021). 여기서, 1차 영상이란 피사체를 중심으로 마스터카메라(1010) 및 슬레이브카메라(1050)의 배치를 판단하기 위해 필요한 영상을 의미하며, 1차 영상에는 피사체와 표식이 함께 포함되어 있다.
데이터수집시스템(1030)은 슬레이브카메라(1050)에 표식, 피사체를 포함한 1차 영상의 송신을 요청한다(S1023). 슬레이브카메라(1050)는 데이터수집시스템(1030)이 요청한 1차 영상을 촬영하여, 데이터수집시스템(1030)에 송신한다(S1025). 슬레이브카메라(1050)가 촬영한 1차 영상은 피사체와 표식이 모두 포함되어 있다는 점에서는 마스터카메라(1010)가 촬영한 1차 영상과 동일하나, 마스터카메라(1010)와 슬레이브카메라(1050)가 피사체를 기준으로 서로 다른 위치, 거리, 높이에 있으므로, 마스터카메라(1010)가 촬영한 1차 영상과 완전히 동일한 영상을 의미하는 것은 아니다.
데이터수집시스템(1030)은 마스터카메라(1010) 및 슬레이브카메라(1050)로부터 수신한 1차 영상에 포함된 표식의 형태를 기초로 하여 입체촬영 영역 내에서의 피사체를 중심으로 한 마스터카메라(1010) 및 슬레이브카메라(1050)의 위치정보를 산출한다(S1027). 이어서, 데이터수집시스템(1030)은 마스터카메라(1010) 및 슬레이브카메라(1050)의 위치정보를 기초로 입체촬영 영역 내에서의 피사체를 중심으로 한 마스터카메라(1010) 및 슬레이브카메라(1050)의 배치를 산출하고, 그 배치가 기저장된 카메라배치조건을 만족하는지 여부를 판단한다(S1029).
데이터수집시스템(1030)은 입체촬영 영역 내에서의 피사체를 중심으로 한 마스터카메라(1010) 및 슬레이브카메라(1050)의 배치가 기저장된 카메라배치조건을 만족하지 않으면, 마스터카메라(1010) 및 슬레이브카메라(1050)에 2차 영상의 송신을 요청하지 않는다(S1031). 여기서, 2차 영상은 피사체의 3차원 모델링 데이터를 획득하기 위해 마스터카메라(1010) 및 슬레이브카메라(1050)로부터 수신하는 영상을 의미하며, 2차 영상은 표식을 반드시 포함하지 않아도 되는 점에서 1차 영상과 상이한 점이 있다.
또한, 2차 영상은 각 카메라에 설치된 애플리케이션에 의해 설정된 시간에 따라 짧게는 수 초, 길게는 수십 초동안 피사체를 촬영한 영상이다. 예를 들어, 마스터카메라(1010)가 피사체를 60fps(frames per second)로 1초동안 촬영한 영상이 2차 영상이라면, 그 2차 영상은 60개의 프레임으로 구성되어 있으며, 후술하는 단계 S1037에서 60개의 프레임 중 어느 하나의 프레임만이 선택될 수 있다.
데이터수집시스템(1030)은 입체촬영 영역 내에서의 피사체를 중심으로 한 마스터카메라(1010) 및 슬레이브카메라(1050)의 배치가 기저장된 카메라배치조건을 만족하면, 마스터카메라(1010) 및 슬레이브카메라(1050)에 2차 영상 촬영개시신호를 송신한다(S1033). 마스터카메라(1010) 및 슬레이브카메라(1050)는 2차 영상 촬영개시신호를 수신하고, 피사체를 포함한 2차 영상을 촬영하여 데이터수집시스템(1030)에 송신한다(S1035).
데이터수집시스템(1030)은 입체촬영 영역에 포함된 마스터카메라(1010) 및 슬레이브카메라(1050)으로부터 2차 영상을 수신하고, 각각의 2차 영상에서 같은 시각에 촬영된 프레임만 선택한다(S1037). 피사체를 3차원 프린터를 통해 3차원 물체로 재구현하기 위해서는 양질의 3차원 모델링 데이터가 필요하고, 여러 대의 카메라로 피사체를 동시에 가깝게 촬영한 것일수록 더 높은 수준의 3차원 모델링 데이터가 수집되는데, 데이터수집시스템(1030)과 입체촬영 영역에 포함된 카메라들이 원격적으로 떨어져 있으므로, 이런 구성을 고려하면서 동시에 촬영된 프레임을 선택하기 위해 데이터수집시스템(1030)은 2차 영상에서 특정 프레임을 선택, 추출하게 된다.
데이터수집시스템(1030)이 2차 영상에서 특정 프레임을 선택 및 추출하는 과정은 이미 도 7 및 도 8을 통해 설명한바 있으므로 생략하기로 한다.
데이터수집시스템(1030)은 단계 S1037에서 선택한 프레임들을 모아서 3차원 모델링 프로그램의 입력 데이터인 3차원 모델링 데이터를 수집한다(S1039).
본 발명에 따른 3차원 모델링 데이터 수집 시스템은 1차적으로 복수의 카메라로부터 피사체를 포함한 시험 영상을 수신하여, 피사체를 중심으로 한 카메라들의 배치를 원격으로 파악한 후, 그 파악한 결과에 따라 복수의 카메라에 촬영개시신호를 송신함으로써, 그 복수의 카메라들로부터 피사체에 대한 3차원 모델링 데이터를 용이하게 수집할 수 있다.
또한, 전술한 과정을 통해 수집된 피사체의 3차원 모델링 데이터는 그 피사체를 3차원 물체로 구현하기 위해 필요한 최소한의 기준을 충족하는 데이터이므로, 피사체에 대한 3차원 모델링 데이터의 누락을 최소화한 채로 3차원 프린터 등을 통해 피사체의 3차원 물체를 구현할 수 있다. 나아가, 사용자는 본 발명을 활용함으로써, 포토 스튜디오를 방문하지 않고도 피규어 제작업체에 사용자가 원하는 물체의 피규어 제작을 원격으로 의뢰할 수 있게 된다.
또한, 도 5에서 설명한 본 발명의 선택적 실시 예에 따르면, 1차적으로 입체촬영 영역을 설정하고, 2차적으로 그 입체촬영 영역에 가입하여 피사체를 촬영하려는 카메라들만을 선출함으로써, 피사체의 3차원 모델링 데이터를 수집하는 데에 필요한 카메라만을 선별할 수 있다.
본 발명에 따른 3차원 모델링 데이터 수집 시스템 및 방법에 따르면, 표식과 피사체가 완전히 같은 위치에 놓여있지 않거나, 원격으로 떨어져 있는 복수의 카메라로부터 영상을 수신하게 되면, 신호의 송수신시각이 조금씩 달라지는 신호지연이 발생하여, 각 카메라가 영상을 촬영한 시각이 조금씩 달라지더라도, 영상수신부가 수신한 영상에 포함된 표식의 형태정보 및 카메라별 신호도달시간을 기초로 피사체를 중심으로 한 복수의 카메라의 위치정보를 정확하게 산출하고, 모델링요청영상으로부터 동일한 시각에 촬영된 부분영상을 추출할 수 있다.
특히, 위와 같은 과정으로 3차원 모델링 데이터를 수집함에 따라, 피사체가 고정된 물체가 아니라 움직이는 물체여도, 그 피사체로부터 높은 수준의 3차원 모델링 데이터를 수집할 수 있다.
이상 설명된 본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100 : 3차원 모델링 데이터 수집 시스템 123 : 피사체
110 : 통신망 125 : 표식
120 : 입체촬영 영역 127 : 슬레이브카메라군
121 : 마스터카메라 130 : 통신망

Claims (13)

  1. 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신하는 영상수신단계;
    상기 수신된 영상에 포함된 표식의 형태정보를 기초로 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 위치정보산출단계;
    상기 산출된 위치정보에 의해 결정되는 상기 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단하는 카메라배치조건판단단계; 및
    상기 복수의 카메라의 배치가 상기 카메라배치조건을 만족하면, 상기 복수의 카메라에 촬영개시신호를 송신하는 촬영개시신호송신단계를 포함하는 3차원 모델링 데이터 수집 방법.
  2. 제1항에 있어서, 상기 복수의 카메라는,
    한 대의 제1카메라 및 적어도 한 대 이상의 제2카메라를 포함하고,
    상기 영상수신단계는,
    상기 제1카메라로부터 상기 피사체의 입체촬영 영역을 설정하는 영역설정신호를 수신하는 영역설정신호수신단계;
    상기 영역설정신호를 수신하면, 상기 제1카메라, 상기 피사체 및 상기 표식을 포함하는 입체촬영 영역을 설정하는 입체촬영영역설정단계; 및
    상기 제1카메라 및 상기 입체촬영 영역에 가입된 제2카메라로부터 상기 피사체 및 상기 표식을 함께 촬영한 영상을 수신하는 영역영상수신단계;를 포함하는 3차원 모델링 데이터 수집 방법.
  3. 제1항에 있어서,
    상기 위치정보산출단계는,
    상기 수신된 영상에 포함된 표식의 형태를 추출하는 표식형태추출단계;
    상기 추출된 표식의 형태를 소정의 표식형태정보와 비교한 결과를 기초로 상기 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 표식중심위치정보산출단계; 및
    상기 수신된 영상에서의 표식과 피사체의 상대적인 위치를 산출하고, 상기 산출된 상대적인 위치와 상기 산출된 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 비교한 결과를 기초로, 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 피사체중심위치정보산출단계를 포함하는 3차원 모델링 데이터 수집 방법.
  4. 제1항에 있어서,
    상기 복수의 카메라의 배치는,
    상기 피사체를 중심으로 한 상기 복수의 카메라의 거리, 수평각도 및 수직각도에 대한 정보이고,
    상기 카메라배치조건은,
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준거리,
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수평각도 및
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수직각도인 것을 특징으로 하는 3차원 모델링 데이터 수집 방법.
  5. 제1항에 있어서,
    상기 영상수신단계는,
    상기 복수의 카메라에 시험신호를 송신하는 시험신호송신단계;
    상기 시험신호를 수신한 상기 복수의 카메라로부터 응답신호를 수신하는 응답신호수신단계; 및
    상기 시험신호 및 응답신호에 포함된 시간정보를 기초로 상기 복수의 카메라 각각의 신호도달시간을 산출하고, 상기 수신된 영상에 상기 산출된 신호도달시간을 대응시키는 신호도달시간산출단계를 포함하는 3차원 모델링 데이터 수집 방법.
  6. 제5항에 있어서,
    상기 송신된 촬영개시신호에 대응하여 상기 복수의 카메라로부터 모델링요청영상을 수신하면, 상기 산출된 신호도달시간에 따라 상기 수신된 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출하는 부분영상추출단계를 더 포함하는 3차원 모델링 데이터 수집 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 따른 방법을 실행시키기 위한 프로그램을 저장하고 있는 컴퓨터 판독가능한 기록매체.
  8. 복수의 카메라로부터 피사체와 다수의 형태정보가 수집된 표식을 함께 포함하는 영상을 수신하는 영상수신부;
    상기 수신된 영상에 포함된 표식의 형태정보를 기초로 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 위치정보산출부;
    상기 산출된 위치정보에 의해 결정되는 상기 복수의 카메라의 배치가 소정의 카메라배치조건을 만족하는지 여부를 판단하는 카메라배치조건판단부; 및
    상기 복수의 카메라의 배치가 상기 카메라배치조건을 만족하면, 상기 복수의 카메라에 촬영개시신호를 송신하는 촬영개시신호송신부를 포함하는 3차원 모델링 데이터 수집 시스템.
  9. 제8항에 있어서, 상기 복수의 카메라는,
    한 대의 제1카메라 및 적어도 한 대 이상의 제2카메라를 포함하고,
    상기 영상수신부는,
    상기 제1카메라로부터 상기 피사체의 입체촬영 영역을 설정하는 영역설정신호를 수신하는 영역설정신호수신부;
    상기 영역설정신호를 수신하면, 상기 제1카메라, 상기 피사체 및 상기 표식을 포함하는 입체촬영 영역을 설정하는 입체촬영영역설정부; 및
    상기 제1카메라 및 상기 입체촬영 영역에 가입된 제2카메라로부터 상기 피사체 및 상기 표식을 함께 촬영한 영상을 수신하는 영역영상수신부;를 포함하는 3차원 모델링 데이터 수집 시스템.
  10. 제8항에 있어서,
    상기 위치정보산출부는,
    상기 수신된 영상에 포함된 표식의 형태를 추출하는 표식형태추출부;
    상기 추출된 표식의 형태를 소정의 표식형태정보와 비교한 결과를 기초로 상기 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 표식중심위치정보산출부; 및
    상기 수신된 영상에서의 표식과 피사체의 상대적인 위치를 산출하고, 상기 산출된 상대적인 위치와 상기 산출된 표식을 중심으로 한 상기 복수의 카메라의 위치정보를 비교한 결과를 기초로, 상기 피사체를 중심으로 한 상기 복수의 카메라의 위치정보를 산출하는 피사체중심위치정보산출부;를 포함하는 3차원 모델링 데이터 수집 시스템.
  11. 제8항에 있어서,
    상기 복수의 카메라의 배치는,
    상기 피사체를 중심으로 한 상기 복수의 카메라의 거리, 수평각도 및 수직각도에 대한 정보이고,
    상기 카메라배치조건은,
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준거리,
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수평각도 및
    상기 피사체로부터 상기 복수의 카메라가 위치해야 하는 소정의 기준수직각도인 것을 특징으로 하는 3차원 모델링 데이터 수집 시스템.
  12. 제8항에 있어서,
    상기 영상수신부는,
    상기 복수의 카메라에 시험신호를 송신하는 시험신호송신부;
    상기 시험신호를 수신한 상기 복수의 카메라로부터 응답신호를 수신하는 응답신호수신부; 및
    상기 시험신호 및 응답신호에 포함된 시간정보를 기초로 상기 복수의 카메라 각각의 신호도달시간을 산출하고, 상기 수신된 영상에 상기 산출된 신호도달시간을 대응시키는 신호도달시간산출부를 포함하는 3차원 모델링 데이터 수집 시스템.
  13. 제12항에 있어서,
    상기 송신된 촬영개시신호에 대응하여 상기 복수의 카메라로부터 모델링요청영상을 수신하면, 상기 산출된 신호도달시간에 따라 상기 수신된 모델링요청영상에서 동일한 시각에 촬영된 부분영상을 추출하는 부분영상추출부를 더 포함하는 3차원 모델링 데이터 수집 시스템.
KR1020160078833A 2015-06-26 2016-06-23 3차원 모델링 데이터 수집 시스템 및 그 방법 KR20170001632A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150091383 2015-06-26
KR20150091383 2015-06-26

Publications (1)

Publication Number Publication Date
KR20170001632A true KR20170001632A (ko) 2017-01-04

Family

ID=57831608

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160078833A KR20170001632A (ko) 2015-06-26 2016-06-23 3차원 모델링 데이터 수집 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR20170001632A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107901424A (zh) * 2017-12-15 2018-04-13 北京中睿华信信息技术有限公司 一种图像采集建模系统
CN110012281A (zh) * 2019-04-28 2019-07-12 廖新兴 一种多相机五维立体拍摄系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090007623A (ko) 2006-05-04 2009-01-19 해리스 코포레이션 기준 마커로 3차원 지리 공간상 이미지를 나타내기 위한 지리정보 시스템 및 관련방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090007623A (ko) 2006-05-04 2009-01-19 해리스 코포레이션 기준 마커로 3차원 지리 공간상 이미지를 나타내기 위한 지리정보 시스템 및 관련방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107901424A (zh) * 2017-12-15 2018-04-13 北京中睿华信信息技术有限公司 一种图像采集建模系统
CN110012281A (zh) * 2019-04-28 2019-07-12 廖新兴 一种多相机五维立体拍摄系统

Similar Documents

Publication Publication Date Title
KR101594048B1 (ko) 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치
KR102105189B1 (ko) 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법
JP2020529685A5 (ko)
KR101335617B1 (ko) 모바일 환경에서의 증강 현실 구현 방법 및 이를 위한 장치
CN202075794U (zh) 一种无人机航摄立体成像处理设备
KR101783237B1 (ko) 정보처리장치, 정보처리 시스템, 정보처리방법 및 매체
CN108108698A (zh) 基于人脸识别和全景视频的目标跟踪方法和系统
CN105721768B (zh) 从聚焦堆叠生成适合的切片图像的方法和装置
US11694349B2 (en) Apparatus and a method for obtaining a registration error map representing a level of sharpness of an image
JP2011039974A (ja) 画像検索方法およびシステム
WO2011096343A1 (ja) 撮影位置提案システム、撮影位置提案装置、撮影位置提案方法、及び撮影位置提案用プログラム
KR20170001632A (ko) 3차원 모델링 데이터 수집 시스템 및 그 방법
CN102479220A (zh) 影像检索系统及其方法
JP6388532B2 (ja) 画像提供システムおよび画像提供方法
KR102105510B1 (ko) 타임 슬라이스 영상을 제공하는 서버, 방법 및 사용자 단말
JP2016146601A (ja) 画像処理装置およびその制御方法
JP2020194454A (ja) 画像処理装置および画像処理方法、プログラム、並びに記憶媒体
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
US20130076868A1 (en) Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same
KR20110133677A (ko) 3d 영상 처리 장치 및 그 방법
KR102571876B1 (ko) 적어도 하나의 플렌옵틱 비디오를 리포커싱하기 위한 방법 및 디바이스
KR20080087256A (ko) 복수개의 이동통신단말기를 이용한 다시점 영상 획득 방법및 시스템
CN105282534A (zh) 用于嵌入立体图像的系统及方法
EP3287912A1 (en) Method for creating location-based space object, method for displaying space object, and application system thereof
JP2016099322A (ja) 撮像装置、撮像装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right