KR102084632B1 - 복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치 - Google Patents

복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치 Download PDF

Info

Publication number
KR102084632B1
KR102084632B1 KR1020130086262A KR20130086262A KR102084632B1 KR 102084632 B1 KR102084632 B1 KR 102084632B1 KR 1020130086262 A KR1020130086262 A KR 1020130086262A KR 20130086262 A KR20130086262 A KR 20130086262A KR 102084632 B1 KR102084632 B1 KR 102084632B1
Authority
KR
South Korea
Prior art keywords
terminal
image
view image
subject
distance
Prior art date
Application number
KR1020130086262A
Other languages
English (en)
Other versions
KR20140061217A (ko
Inventor
서브라마니안 무투쿠마르
프라산트 자야찬드란
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP13192234.6A priority Critical patent/EP2731336B1/en
Priority to US14/077,521 priority patent/US9661311B2/en
Publication of KR20140061217A publication Critical patent/KR20140061217A/ko
Application granted granted Critical
Publication of KR102084632B1 publication Critical patent/KR102084632B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording

Abstract

이 발명은 3D 이미지를 생성하기 위한 기술에 관한 것으로, 복수의 단말기를 이용하여 2D 피사체에 대한 각 단말기의 뷰 이미지를 통해 복수의 단말기 간의 렌즈 거리에 대한 캘리브레이션을 수행하고, 캘리브레이션 결과에 기초하여 결정된 렌즈 거리를 각 단말기 간에 유지하며 3D 피사체에 대한 뷰 이미지를 획득하고 획득된 3D 피사체에 대한 뷰 이미지를 처리하여 3D 피사체에 대한 3D이미지를 생성한다. 생성한 3D 피사체에 대한 3D 이미지를 통해 사용자는 현실과 같은 입체감을 경험할 수 있다.

Description

복수의 모바일 장치를 이용하여 3D 이미지를 생성하는 방법 및 장치{METHOD AND APPARATUS OF GENERATING 3D IMAGES USING A PLURALITY OF MOBILE DEVICES}
본 발명은 모바일 장치를 이용하여 입체적인 이미지를 생성하는 기술에 관한 것이다.
사용자는 3D 이미지를 통해 깊이 지각(depth perception)을 할 수 있기 때문에, 2D 이미지를 렌더링(rendering)하여 3D 이미지를 생성하는 것이 인기를 얻고 있다. 3D 이미지는 입체적인 이미지(stereoscopic image)라고 언급되기도 한다.
사용자는 다양한 컴퓨팅 장치(computing device)를 이용하여 3D 이미지를 생성할 수 있다. 최근에는 모바일 장치와 같은 소형화 장치의 발전으로 인해, 사용자는 모바일 장치를 이용하여 3D 이미지를 생성할 수 있다.
종래에는 제 1 카메라 및 제 2 카메라를 포함하고 있는 하나의 모바일 장치를 이용하여 3D 이미지를 생성한다. 제 1 카메라 및 제 2 카메라는 유사한 사진 촬영 범위를 얻을 수 있게 수평으로 정렬되어 있다. 제 1 카메라 및 제 2카메라 간에 양안 거리만큼 떨어진 상태에서 제 1 카메라 및 제 2 카메라는 3D피사체를 촬영한다. 입체적인 이미지를 생성하기 위해 제 1 카메라 및 제 2 카메라에서 촬영된 피사체에 대한 이미지에는 각각 오른쪽 눈을 위한 이미지와 왼쪽 눈을 위한 이미지임을 나타내는 정보가 첨부된다. 제 1 카메라 및 제 2카메라에서 촬영된 이미지를 기초로 3D 이미지 처리 알고리즘을 사용해서 3D 이미지를 생성한다. 생성된 3D이미지를 통해 사용자는 현실과 같은 입체감을 경험할 수 있다.
종래기술은 사용자가 휴대가 간편한 모바일 장치를 이용하여 3D 이미지를 생성하고, 생성된 3D 이미지를 통해 사용자는 현실과 같은 입체감을 경험할 수 있다는 장점이 있다. 하지만 대부분의 모바일 장치는 하나의 카메라만을 포함하고 있다. 따라서 3D이미지를 생성하기 위해서 사용자는 기존 모바일 장치보다 제작비용이 비싼 두개의 카메라를 포함하는 모바일 장치를 사용해야 하는 문제점이 있다.
따라서 절감된 비용으로 모바일 장치를 이용하여 보다 효율적으로 3D 이미지를 생성하는 방법 및 장치가 필요하다.
본 발명은 여러개의 모바일 장치를 이용하여 효율적으로 3D 이미지를 생성하는 방법 및 장치를 제공한다.
본 발명의 일 실시예는, 제 1 단말기가 제 2 단말기와 연계하여3D 이미지를 생성하는 방법에 있어서, 2D 피사체에 대한 상기 제 1 단말기의 뷰 이미지로부터, 상기 제 1 단말기에서 양안 거리만큼 떨어진 위치에서의 상기 2D 피사체에 대한 뷰 이미지를 추정(extrapolate)하는 단계; 상기 추정된 뷰 이미지를 이용하여 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리에 대한 캘리브레이션(calibration)을 수행하는 단계; 및 상기 제 1 단말기 및 상기 제 2 단말기 간에 상기 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 상기 제 1 단말기의 뷰 이미지 및 상기 제 2 단말기의 뷰 이미지를 이용하여 상기 3D 피사체에 대한 3D 이미지를 생성하는 단계를 포함한다.
상기 캘리브레이션을 수행하는 단계는, 상기 추정된 뷰 이미지를 상기 제 2 단말기에 송신하는 단계; 및 상기 송신된 이미지에 기초해서 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 상기 제 2 단말기로부터 수신하는 단계를 포함하는 것이 바람직하다.
상기 2D 피사체에 대한 뷰 이미지를 추정하는 단계는, 상기 제 1 단말기로부터 상기 2D 피사체까지의 거리, 양안 시차각 및 상기 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 하는 것이 바람직하다.
상기 수신된 메시지에 기초해서 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알리는 단계를 더 포함하는 것이 바람직하다.
상기 3D 이미지를 생성하는 단계는, 상기 3D 피사체에 대한 상기 제 2 단말기의 뷰 이미지를 상기 제 2 단말기로부터 수신하는 단계를 포함하는 것이 바람직하다.
본 발명의 다른 실시예는, 제 2 단말기가 제 1 단말기와 연계하여 3D 이미지를 생성하는 방법에 있어서, 상기 제 1 단말기로부터 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지로서 추정된 이미지를 상기 제 1 단말기로부터 수신하는 단계; 상기 수신된 이미지와 상기 제 2 단말기의 상기 2D 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 상기 제 1 단말기로부터의 렌즈 거리에 대한 캘리브레이션을 수행하는 단계; 및 상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 상기 제 1 단말기에 송신하는 단계를 포함한다.
상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알리는 단계를 더 포함하는 것이 바람직하다.
상기 제 1 단말기로부터 상기 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 뷰 이미지를 송신하는 단계를 더 포함하는 것이 바람직하다.
본 발명의 다른 실시예는, 제 2 단말기와 연계하여3D 이미지를 생성하는 제 1 단말기에 있어서, 2D 피사체에 대한 상기 제 1 단말기의 뷰 이미지로부터, 상기 제 1 단말기에서 양안 거리만큼 떨어진 위치에서의 상기 2D 피사체에 대한 뷰 이미지를 추정하는 추정부; 상기 추정된 뷰 이미지를 이용하여 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리에 대한 캘리브레이션을 수행하는 캘리브레이션 수행부; 및 상기 제 1 단말기 및 상기 제 2 단말기 간에 상기 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 상기 제 1 단말기의 뷰 이미지 및 상기 제 2 단말기의 뷰 이미지를 이용하여 상기 3D 피사체에 대한 3D 이미지를 생성하는 3D 이미지 생성부를 포함한다.
상기 캘리브레이션 수행부는, 상기 추정된 뷰 이미지를 상기 제 2 단말기에 송신하는 송신부; 및 상기 송신된 이미지에 기초해서 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 상기 제 2 단말기로부터 수신하는 수신부를 포함하는 것이 바람직하다.
상기 2D 피사체에 대한 뷰 이미지를 추정하는 추정부는, 상기 제 1 단말기로부터 상기 2D 피사체까지의 거리, 양안 시차각 및 상기 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 하는 것이 바람직하다.
상기 수신된 메시지에 기초해서 상기 제 1 단말기 및 상기 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알리는 사용자 알림부를 더 포함하는 것이 바람직하다.
상기 3D 피사체에 대한 상기 제 2 단말기의 뷰 이미지를 상기 제 2 단말기로부터 수신하는 수신부를 더 포함하는 것이 바람직하다.
본 발명의 다른 실시예는, 제 1 단말기와 연계하여 3D 이미지를 생성하는 제 2 단말기에 있어서, 상기 제 1 단말기로부터 양안 거리만큼 떨어진 위치에서 2D 피사체에 대한 뷰 이미지로서 추정된 이미지를 상기 제 1 단말기로부터 수신하는 수신부; 상기 수신된 이미지와 상기 제 2 단말기의 상기 2D 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 상기 제 1 단말기로부터의 렌즈 거리에 대한 캘리브레이션을 수행하는 캘리브레이션 수행부; 및 상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 상기 제 1 단말기에 송신하는 송신부를 포함한다.
상기 제 1 단말기로부터 상기 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 뷰 이미지를 송신하는 것이 바람직하다.
상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알리는 사용자 알림부를 더 포함하는 것이 바람직하다.
상기 송신부는 상기 제 1 단말기로부터 상기 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 뷰 이미지를 송신하는 것이 바람직하다.
도 1은 제 1 카메라 및 제 2카메라를 포함하는 모바일 장치를 이용하여 3D 이미지를 생성하는 것을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따라 두개의 모바일 장치를 이용하여 3D 이미지를 생성하는 방법을 나타낸 시퀀스 다이어그램(sequence diagram)이다.
도 3은 본 발명의 일 실시예에 따라 제 1 단말기가 제 2 단말기와 연계하여 3D 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따라 제 2 단말기가 제 1 단말기와 연계하여 3D 이미지를 생성하는 방법을 나타낸 흐름도이다.
도 5a-5i는 본 발명의 일 실시예에 따라 두개의 모바일 장치를 이용하여 입체적인 이미지를 생성하는 예시를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따라 두개의 모바일 장치 간에 설정 데이터 교환하여 제 1 단말기 및 제 2 단말기를 결정하는 구체적인 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따라 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에 표시하는 화면을 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따라 제 1 단말기 또는 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리를 벗어난 경우 각 단말기의 사용자에게 표시하는 화면을 나타낸 도면이다.
도 9a-9c는 본 발명의 일 실시예에 따라 3D 이미지를 생성하는 과정을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 3D 이미지를 생성하는 제 1 단말기 및 제 2 단말기를 나타낸 도면이다.
이하에서 뷰 이미지(view image)는 렌즈를 통해서 맺히게 되는 피사체의 상(image)을 의미한다. 뷰파인더(viewfinder)를 통해서 사용자가 보게 되는 이미지와 뷰 이미지는 동일할 수 있다. 여기서 뷰파인더는 촬영을 할 때 화면을 구성하는 데 있어 편리하도록 피사체를 관찰할 수 있게 고안된 카메라 내의 광학 장치이다. 다만 이에 제한되지 않고, 렌즈의 시각과 뷰파인더 시각이 구조상 약간 어긋나 있음으로 인해, 뷰파인더를 통해서 사용자가 보게 되는 이미지와 뷰 이미지는 상이할 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 제 1 카메라 및 제 2카메라를 포함하는 모바일 장치를 이용하여 3D 이미지를 생성하는 것을 설명하기 위한 개념도이다.
도 1에 도시한 바와 같이, 도 1은 단말기(100), 제 1 카메라(110), 제 2 카메라(120), 3D 물체(130)을 포함한다. 단말기(100)은 제 1 카메라(110) 및 제 2 카메라(120)을 포함한다.
제 1 카메라(110) 및 제 2 카메라(120)는 유사한 사진 촬영 범위를 얻을 수 있게 수평으로 정렬되어 있고 양안 거리(L)만큼 떨어져 있어 3D 이미지를 생성할 수 있다.
단말기(100)는 제 1 카메라(110) 및 제 2 카메라(120)를 이용하여 3D 물체(130)를 촬영한다. 입체적인 이미지를 생성하기 위해 제 1 카메라 및 제 2 카메라에서 촬영된 3D 물체(130)에 대한 이미지에는 각각 오른쪽 눈을 위한 이미지와 왼쪽 눈을 위한 이미지임을 나타내는 정보가 첨부될 수 있다. 제 1 카메라 및 제 2카메라에서 촬영된 이미지를 기초로 3D 이미지 처리 알고리즘을 사용해서 3D 이미지를 생성할 수 있다. 생성된 3D 이미지를 사용자에게 전송하여 사용자는 전송된 3D 이미지를 통해 현실과 같은 입체감을 경험할 수 있다.
도 2는 본 발명의 일 실시예에 따라 두개의 모바일 장치를 이용하여 3D 이미지를 생성하는 방법을 나타낸 시퀀스 다이어그램(sequence diagram)이다.
도 2에 도시한 바와 같이, 제 1 단말기(210) 및 제 2 단말기(220)를 포함한다.
단계 1 이전에, 제 1 단말기(210)는 임의의 2D 피사체에 대한 뷰 이미지를 획득한다. 획득한 뷰 이미지는 제 1 단말기(210)와 제 2 단말기(220) 간의 렌즈 거리에 대한 캘리브레이션을 수행하기 위해 필요한 이미지이다.
단계 1에서, 제 1 단말기(210)는 임의의 2D 피사체에 대한 뷰 이미지로부터 제 1 단말기(210)에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정한다.
단계 2 에서, 제 1 단말기(210)는 추정된 뷰 이미지를 전송한다.
단계 3에서, 제 2 단말기(220)는 제 1 단말기(210)가 전송한 뷰 이미지를 수신한다. 제 2 단말기(220)는 2D 피사체에 대한 뷰 이미지를 획득한다. 제 2 단말기에서 획득한 뷰 이미지의 2D피사체는 제 1 단말기(210)에서 획득한 뷰 이미지의 2D 피사체와 동일하다. 수신된 이미지 및 2D 피사체에 대한 뷰 이미지 간에 유사도를 판단한다. 본 실시예에서는 수신된 이미지 및 2D 피사체에 대한 뷰 이미지 간에 유사도가 소정의 값 이하인 경우를 가정한다. 따라서 제 2 단말기(220)는 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가3D 촬영을 위한 최적의 거리가 아니라고 판단할 수 있다.
단계 4에서, 제 1 단말기(210)는 다시 2D 피사체에 대한 뷰 이미지를 획득하고, 2D 피사체에 대한 뷰 이미지로부터 제 1 단말기(210)에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정한다.
단계 5에서, 제 1 단말기(210)는 다시 2D 피사체에 대한 뷰 이미지로부터 제 1 단말기(210)에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 추정된 뷰 이미지를 전송한다.
단계 6에서, 제 2 단말기(220)는 제 1 단말기(210)로부터 2D 피사체에 대한 뷰 이미지로부터 제 1 단말기(210)에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 추정된 뷰 이미지를 수신한다. 제 2 단말기(220)는 2D 피사체에 대한 뷰 이미지를 획득한다. 획득된 2D 피사체에 대한 뷰 이미지 및 수신된 뷰 이미지 간 유사도를 다시 판단한다. 본 실시예에서는 유사도가 획득된 2D 피사체에 대한 뷰 이미지 및 수신된 뷰 이미지 간 유사도가 소정의 값 이상이라고 가정한다. 따라서 제 2 단말기(220)는 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가3D 촬영을 위한 최적의 거리라고 판단할 수 있다.
단계 7에서, 제 2 단말기(220)는 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 전송한다.
단계 8에서, 제 1 단말기(210)는 제 2 단말기(220)로부터 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 수신한다. 제 1 단말기(210)는 제 2 단말기(220)로부터 수신한 메시지를 기초로 3D 촬영을 위한 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리만큼 떨어진 상태에서 3D 피사체에 대한 뷰 이미지를 획득한다. 제 2 단말기(220)는 단계 6에서 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈 거리가3D 촬영을 위한 최적의 거리라고 판단한 결과를 기초로 제 2 단말기(220)는 제 1 단말기(210)로부터 3D 촬영을 위한 제 1 단말기(210) 및 제 2 단말기(220) 간의 렌즈거리가 3D 촬영을 위한 최적의 거리만큼 떨어진 상태에서 3D 피사체에 대한 뷰 이미지를 획득한다.
단계 9에서, 제 2 단말기(220)는 3D 피사체에 대한 획득된 뷰 이미지를 제 1 단말기(210)에 전송한다.
단계 10에서, 제 1 단말기(210)는 제 1 단말기(210)로부터 획득된 3D 피사체에 대한 뷰 이미지 및 제 2 단말기(220)로부터 획득된 3D 피사체에 대한 뷰 이미지를 이용하여 3D 이미지를 생성한다. 3D 이미지를 생성하기 위해 3D 이미지 처리 알고리즘을 사용할 수 있다. 생성된 3D 이미지는 제 1 단말기(210)에 저장될 수 있다.
단계 11에서, 제 1 단말기(210)는 생성된 3D 이미지를 제 2 단말기(220)에 전송할 수 있다. 제 2 단말기(220)는 수신된 3D 이미지를 저장할 수 있다.
단계 4 및 5는 제 1 단말기(210)가 제 1 단말기(210) 및 제 2 단말기(220) 간 렌즈 거리가 최적의 거리임을 나타내는 메시지를 제 2 단말기(220)로부터 수신할 때까지 반복적으로 수행할 수 있다. 다만 이에 제한되지 않고, 단계 4 및 5는 수행되지 않을 수 있다. 이 경우, 제 2 단말기(220)는 단계2에서 수신된 뷰 이미지를 기초로 2D 피사체에 대한 뷰 이미지와 유사도를 판단할 수 있다.
도 3은 본 발명의 일 실시예에 따라 제 1 단말기가 제 2 단말기와 연계하여 3D 이미지를 생성하는 방법을 나타낸 흐름도이다.
단계 S310 이전에 제 1 단말기는 2D 피사체에 대한 뷰 이미지를 획득한다.
단계 S310에서, 제 1 단말기는 2D 피사체에 대한 획득된 뷰 이미지로부터 제 1 단말기에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정한다. 2D 피사체에 대한 뷰 이미지를 추정하는 단계는, 제 1 단말기로부터 2D 피사체까지의 거리, 양안 시차각 및 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 할 수 있다.
단계 S320에서, 제 1 단말기에서 추정된 뷰 이미지를 이용하여 제 1 단말기 및 제 2 단말기 간의 렌즈 거리에 대한 캘리브레이션을 수행한다. 캘리브레이션을 수행하는 단계는 제 1 단말기에서 추정된 뷰 이미지를 제 2 단말기에 전송하고, 전송된 이미지에 기초해서 제 1 단말기 및 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 제 2 단말기로부터 수신하는 단계를 포함한다. 수신된 메시지에 기초해서 제 1 단말기 및 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알릴 수 있다.
단계 S330에서, 제 1 단말기는 캘리브레이션 수행 결과에 기초하여 결정된 제 1 단말기 및 제 2 단말기 간의 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 제 1 단말기의 뷰 이미지 및 3D 피사체에 대한 제 2 단말기의 뷰 이미지를 이용하여 3D 피사체에 대한 3D 이미지를 생성한다. 3D 피사체에 대한 제 2 단말기의 뷰 이미지를 제 2 단말기로부터 수신하여 3D피사체에 대한 3D 이미지를 생성할 수 있다.
도 4는 본 발명의 일 실시예에 따라 제 2 단말기가 제 1 단말기와 연계하여 3D 이미지를 생성하는 방법을 나타낸 흐름도이다.
단계 S410에서, 제 2 단말기는 제 1 단말기로부터 양안 거리만큼 떨어진 위치에서 2D 피사체에 대한 뷰 이미지로서 추정된 이미지를 제 1 단말기로부터 수신한다.
단계 S420에서, 제 2 단말기는 2D 피사체에 대한 뷰 이미지를 획득한다. 제 1 단말기로부터 수신된 뷰 이미지 및 획득된 2D 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 제 1 단말기의 캘리브레이션을 수행한다. 유사도가 소정의 값 이상인 경우 제 1 단말기 및 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리라고 판단할 수 있다. 유사도가 소정의 값 이하인 경우 제 1 단말기 및 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리가 아니라고 판단할 수 있다.
단계 S430에서, 제 2 단말기는 캘리브레이션 결과에 기초하여 제 1 단말기 및 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 제 1 단말기에 송신한다.
제 2 단말기는 캘리브레이션 결과에 기초하여 제 1 단말기로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알릴 수 있다. 제 2 단말기는 제 1 단말기로부터 캘리브레이션에 의해 결정된 렌즈 거리만큼 떨어진 상태에서의 3D 피사체에 대한 뷰 이미지를 송신할 수 있다.
도 5a-5i는 본 발명의 일 실시예에 따라 두개의 모바일 장치를 이용하여 입체적인 이미지를 생성하는 예시를 나타낸 도면이다.
도 5a에 도시한 바와 같이 도 5a는 모바일 장치(505) 및 모바일 장치(510)을 포함한다. 모바일 장치(305)와 모바일 장치(510)은 각각 제 1 단말기 또는 제 2 단말기 중 어느 하나가 되도록 결정하는 과정이 수행된다. 따라서 캘리브레이션이 수행되기 이전에 제 1 단말기 또는 제 2 단말기 중 어느 하나가 되도록 결정하는 과정이 수행된다. 설정 데이터(515)는 제 1 단말기 또는 제 2 단말기를 결정하기 이전에 모바일 장치(505) 및 모바일 장치(510) 사이에 교환된다.
설정 데이터(515)는 모바일 장치와 관련된 카메라의 해상도, 거리 센서 정보, 프로세서 정보, 리소스 사용정보, 네트워크 연결정보를 포함할 수 있다.본 실시예에서 모바일 장치(505)는 모바일 장치(510) 보다 더 나은 카메라 해상도, 이미지 처리 성능 및 네트워크 연결 등을 가진다고 가정한다.
제 1 단말기 및 제 2 단말기 간에 설정 데이터(515)를 교환하자마자, 모바일 장치(505)는 모바일(510)보다 나은 성능을 가지므로 제 1 단말기로 결정될 수 있다. 모바일 장치(510)은 제 2 단말기로 결정될 수 있다.
제 1 단말기로 결정된 모바일 장치(505)는 임베디드된 카메라(525)를 이용하여 뷰 이미지(520)를 획득하여 캘리브레이션을 수행한다. 획득된 뷰 이미지(520) 는 도 5b에 도시한 바와 같이 제 1 단말기의 디스플레이 상에 디스플레이 된다.
도 5b에 도시한 바와 같이 뷰 이미지(520)은 제 1 단말기로 결정된 모바일 장치(505)로부터 거리 'd'만큼 떨어진 2D 피사체에 대한 이미지일 수 있다.
제 1 단말기로 결정된 모바일 장치(505)는 거리 측정 센서(530)를 포함할 수 있다. 모바일 장치(505)로부터 캘리브레이션을 수행하기 위한 거리 'd'를 결정하기 위해서 거리 측정 센서(530)을 사용할 수 있다. 거리 측정 센서(530)은 소리 및 빛에 기초한 센서일 수 있다.
도 5c에서 도시한 바와 같이 제 2 단말기로 결정된 모바일 장치(510)은 모바일 장치(510)에 임베디드된 카메라(540)을 이용하여 뷰 이미지(520)을 획득한다.
도 5c에 도시한 바와 같이 모바일 장치(510)에 의해 획득된 뷰 이미지(520)는 모바일 장치(510)의 디스플레이 상에서 디스플레이 된다.
모바일 장치(505)는 2D 피사체에 대한 제 1 단말기의 뷰 이미지로부터, 제 1 단말기에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정하여 추정된 이미지(535)를 생성한다. 본 실시예에서 모바일 장치(505)는 왼쪽 눈에서 보여지는 이미지를 캡쳐하고, 모바일 장치(510)은 오른쪽 눈에서 보여지는 이미지를 캡쳐한다고 가정한다. 모바일 장치(505)는 모바일 장치(505)에서 양안 거리만큼 오른쪽으로 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정할 수 있다. 모바일 장치(505)에서 양안 거리만큼 오른쪽으로 떨어진 위치에서의 2D 피사체에 대한 뷰 이미지를 추정하는 과정은 양안 시차각, 도 5b에 도시한 바와 같이 거리 측정 센서(530)에서 측정된 모바일 장치(505)로부터 2D 피사체까지의 거리 ? 및 모바일 장치(510)의 성능 정보에 기초하여 수행될 수 있다.
도 5c에 도시한 바와 같이, 추정된 이미지(535)는 모바일 장치(505)로부터 모바일 장치(510)으로 전송된다.
도 5d에 도시한 바와 같이 모바일 장치(510)는 캡쳐된 뷰 이미지(520) 및 추정된 이미지(535) 간에 유사도를 판단한다. 이러한 과정은 캡쳐된 뷰 이미지(520)를 추정된 이미지(535)에 겹치는 과정을 통해서 수행될 수 있다. 캡쳐된 뷰 이미지(520)가 추정된 이미지(535)에 정확하게 겹쳐질수록 캡쳐된 뷰 이미지(520) 및 추정된 이미지(535) 간에 유사도는 높을 수 있다.
도 5d에 도시한 바와 같이 모바일 장치(510)가 사용자에 의해 이동됨에 따라 캡쳐되는 모바일 장치(510)의 뷰 이미지(520)가 변할 수 있다. 본 실시예에서 모바일 장치(510)의 뷰 이미지(520)은 추정된 이미지(535)와 정확하게 겹쳐짐을 가정한다. 다만 추정된 이미지(535)와 뷰 이미지(520)이 정확하게 겹쳐짐에 제한되지 않고 유사도가 소정의 값보다 큰 경우에도 마찬가지이다. 따라서 입체적인 이미지를 지각하기 위한 양안 거리와 유사한 모바일 장치(505) 및 모바일 장치(510) 간 렌즈 거리(570)를 얻는 것이 가능하게 된다.
도 5e에 도시한 바와 같이 렌즈 거리(370)을 얻자마자, 모바일 장치(510)는 캘리브레이션이 완료되었음을 나타내는 명령(550)을 모바일 장치(505)으로 보낸다. 캘리브레이션이 완료되었음을 나타내는 명령(550)은 모바일 장치(505) 및 모바일 장치(510) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 포함할 수 있다.
모바일 장치(510)는 모바일 장치(505) 간에 렌즈 거리(570)을 유지하면서 뷰 이미지(575)를 획득할 수 있다. 본 실시예에서는 모바일 장치(510)에서 촬영을 하여 뷰 이미지(575)를 획득하는 것을 포함한다. 뷰 이미지(575)는 3D 물체의 일부 형상을 포함할 수 있다. 도 5f에 도시한 바와 같이 전면 뷰 이미지(555)는 3D 물체의 전면에서 모바일 장치(505)에 의해 획득된다. 측면 뷰 이미지(560)는 3D 물체의 측면에서 모바일 장치(510)에 의해 획득된다.
도 5g에 도시한 바와 같이 측면 뷰 이미지(560)는 모바일 장치(505)로 전송될 수 있다. 일 실시예로, 무선 네트워크 프로토콜은 모바일 장치(505)로 측면 뷰 이미지(560)을 전송하기 위해서 사용될 수 있다. 유사하게 다양한 다른 전송 프로토콜이 전송을 위해 사용될 수 있다.
도 5h에 도시한 바와 같이 전방 뷰 이미지(555) 및 측면 뷰 이미지(560)은 모바일 장치(505)에 의해서 입체적인 이미지(565)를 생성하기 위해서 처리될 수 있다.
도 5h에 도시한 바와 같이 3D 이미지 처리 알고리즘은 입체적인 이미지 (565)를 생성하기 위해 전방 뷰 이미지(555) 및 측면 뷰 이미지(560)을 처리하기 위해 사용될 수 있다.
도 5i에서 도시한 바와 같이 입체적인 이미지(565)는 모바일 장치(510)에서 사용자가 볼 수 있게 전송될 수 있다. 예를 들어, 무선 네트워크 프로토콜이 입체적인 이미지(565)를 전송하기 위해서 사용될 수 있다.
도 6은 본 발명의 일 실시예에 따라 두개의 모바일 장치 간에 설정 데이터 교환하여 제 1 단말기 및 제 2 단말기를 결정하는 구체적인 과정을 설명하기 위한 도면이다.
도 6의 (a)에 도시한 바와 같이, 모바일 장치(505), 모바일 장치(510), 모바일 장치(505)의 디스플레이(605) 및 모바일 장치(510)의 디스플레이(610)를 포함한다. 도6의 (a)에 도시한 바와 같이 디스플레이(605)는 제 1버튼(620)을 포함한다. 디스플레이(610)는 제 2 버튼(630)을 포함한다. 일 실시예에 따라 모바일 장치(505)에서 사용자가 제 1 버튼(620)을 클릭하는 경우 다른 단말기의 참여를 기다릴 수 있다. 도시되지는 않았으나, 다른 단말기의 참여를 기다리고 있음을 나타내는 메시지를 사용자에게 출력할 수 있다. 모바일 장치(510)에서 사용자가 제 2 버튼(630)을 클릭하는 경우 모바일 장치(505)가 다른 전자 장치의 참여를 기다리고 있기 때문에 모바일 장치(505)와 함께 3D 이미지를 생성하기 위해 모바일 장치(505)에게 3D 이미지 생성에 참여하겠다는 명령을 전송하여 3D 이미지 생성을 시작할 수 있다. 도면에 도시되지는 않았지만, 모바일 장치(505)뿐 아니라 다른 단말기도 사용자가 버튼을 클릭하여 단말기의 참여를 기다리고 있는 경우에는 사용자 인터페이스를 통하여 3D 이미지 생성을 함께할 단말기를 선택할 수 있다.
도 6의 (b)에 도시한 바와 같이 3D 이미지 생성에 참여할 모바일 장치가 결정된 경우에 모바일 장치(505)의 디스플레이(605) 및 모바일 장치(510)의 디스플레이(610)는 초기화 중임을 나타내는 메시지를 출력하면서, 설정 데이터(515)를 교환한다. 서로 설정 데이터(515)를 교환하자마자, 제 1 단말기(210) 및 제 2 단말기(220)를 결정한다. 본 실시예에서는 모바일 장치(505)는 모바일 장치(510)보다 더 나은 카메라 해상도 등을 가지고 있다고 가정한다. 따라서 모바일 장치(505)는 제 1 단말기(210)로 결정되고, 모바일 장치(510)는 제 2 단말기(220)로 결정된다. 제 1 단말기(210) 및 제 2 단말기(220)가 결정된 경우 도 6의 (c)에 도시한 바와 같이 제 1 단말기(210)로 결정된 모바일 장치(505)의 디스플레이(605)에서는 제 1 단말기(210)로 설정되었다는 메시지를 출력하고, 제 2 단말기(220)로 결정된 모바일 장치(510)의 디스플레이(610)에서는 제 2 단말기(220)로 설정되었다는 메시지를 출력하여 제 1 단말기(210) 및 제 2 단말기(220) 결정을 완료한다.
도 7은 본 발명의 일 실시예에 따라 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에 표시하는 화면을 나타낸 도면이다.
도 7에 도시한 바와 같이 메시지(710)를 포함한다.
도 5e에 도시한 바와 같이 렌즈 거리(570)을 얻자마자, 모바일 장치(510)는 캘리브레이션이 완료되었음을 나타내는 명령(550)을 모바일 장치(505)로 보낸다. 캘리브레이션이 완료되었음을 나타내는 명령(550)은 모바일 장치(505) 및 모바일 장치(510) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 포함할 수 있다.
모바일 장치(505) 및 모바일 장치(510)에서는 모바일 장치(505) 및 모바일 장치(510) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지(710)를 디스플레이를 통해 사용자에게 알릴 수 있다. 메시지(710)를 사용자에게 출력하여 사용자로 하여금 모바일 장치(505) 및 모바일 장치(510) 간의 렌즈 거리를 유지하도록 하게 할 수 있다.
도 8은 본 발명의 일 실시예에 따라 제 1 단말기 또는 제 2 단말기 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리를 벗어난 경우 각 단말기의 사용자에게 표시하는 화면을 나타낸 도면이다.
제 1 단말기(210) 및 제 2 단말기(220)는 제 1 단말기(210) 및 제 2 단말기(220) 간에 3D 촬영을 위한 최적의 거리를 크게 벗어나지 않는 범위 내에서 3D 물체에 대한 뷰 이미지를 획득하여 3D 이미지를 생성할 수 있다. 다만 제 1 단말기(210) 또는 제 2 단말기(220)가 움직이게 되는 경우에 사용자에게 경고 메시지(810)를 출력하여 최적의 거리를 벗어나지 않도록 경고할 수 있다.
제 1 단말기(210) 또는 제 2 단말기(220)의 이동으로 인해서 제 1 단말기(210) 및 제 2 단말기(220) 간에 최적의 거리를 유지하지 못하게 되는 경우 메시지(820)을 사용자에게 출력하고, 제 1 단말기(210) 및 제 2 단말기(220) 간에 최적의 거리를 결정하기 위해 다시 렌즈 거리에 대한 캘리브레이션 과정을 수행한다.
다시 도 7을 참조하면, 제 1 단말기(210) 및 제 2 단말기(220) 간에 3D 촬영을 위한 최적의 거리를 다시 결정하기 되면 최적의 거리임을 알리는 메시지를 다시 출력할 수 있다. 도 8에 도시한 바와 같이, 최적의 거리를 벗어나지 않기 위해 메시지(810)를 출력할 수 있다.
도 9a-9c는 본 발명의 일 실시예에 따라 3D 이미지를 생성하는 과정을 설명하기 위한 도면이다.
본 실시예에서, 제 1 단말기(210) 및 제 2 단말기(220) 간에 3D 이미지 촬영을 위한 최적의 거리가 설정되어 있다고 가정한다.
도 9a-9c에 도시한 바와 같이 도 9a-9c는 제 1 단말기(210)의 디스플레이(605) 및 제 2 단말기(220)의 디스플레이(610)를 포함한다. 도 9a에 도시한 바와 같이, 최적의 거리가 설정되어 있음을 나타내는 메시지를 사용자에게 출력할 수 있다. 촬영버튼(910 및 920)을 사용자가 선택하는 경우 사용자는 제 1 단말기(210) 및 제 2 단말기(220)에서 3D 이미지를 생성하기 위한 뷰 이미지를 획득할 수 있다. 제 1 단말기(210)의 촬영버튼(910)을 선택하여 제 2 단말기(220)의 촬영버튼(920)을 선택할 필요 없이 제 2 단말기(220)에서도 뷰 이미지를 획득할 수 있다. 다만 이에 제한되지 않고, 제 2 단말기(220)의 디스플레이(610)에 촬영버튼(920)이 포함되지 않을 수 있다.
사용자가 3D 이미지를 생성하기 위한 뷰 이미지를 획득한 후에 3D 이미지를 생성하기 위한 이미지 처리를 수행한다. 이미지 처리 수행은 제 1 단말기(210)에서 수행되는 것이 바람직하다. 제 1 단말기(210)에서 이미지 처리를 수행하기 위해서 제 2 단말기(220)에서 획득된 뷰 이미지는 제 1 단말기(210)로 전송될 수 있다.
도 9b에 도시한 바와 같이 획득된 뷰 이미지를 처리하여 3D 이미지를 생성하는 동안 제 1 단말기(210)의 디스플레이(605)에서는 이미지가 처리중임을 나타내는 메시지를 출력한다. 마찬가지로 제 2 단말기(220)의 디스플레이(610)에서도 제 1 단말기(210)에서 이미지가 처리중임을 나타내는 메시지를 출력할 수 있다.
도 9c에 도시한 바와 같이 3D 이미지 생성이 완료된 경우, 생성이 완료되었음을 나타내는 메시지를 출력한다. 생성된 3D 이미지를 저장하기 위해 제 1 버튼(930)을 클릭하여 제 1 단말기(210)의 저장장치에 저장할 수 있다. 제 2 버튼(940)을 클릭하면 생성된 3D 이미지를 저장하지 않을 수 있다.
도 9c에 도시한 바와 같이 제 2 단말기(220)의 디스플레이(610)에서는 이미지를 생성된 3D 이미지를 전송받을 것인지 여부를 선택하는 메시지를 출력한다. 사용자가 제 3 버튼(950)을 선택하는 경우 제 1 단말기(210)에서 생성된 이미지를 수신한다. 제 4 버튼(960)을 선택하는 경우 제 1 단말기(210)에서 생성된 이미지를 수신하지 않을 수 있다. 도시되지는 않았지만, 저장할 것인지 여부를 묻는 메시지를 별도로 사용자에게 출력할 수 있다. 사용자가 저장하기를 선택한 경우, 제 2 단말기(220)의 저장장치에 3D 이미지를 저장할 수 있다.
도 10은 본 발명의 일 실시예에 따라 3D 이미지를 생성하는 제 1 단말기 및 제 2 단말기를 나타낸 도면이다.
도 10에 도시한 바와 같이 제 1 단말기(1010) 및 제 2 단말기(1020)를 포함한다.
도 10에 도시한 바와 같이, 제 1 단말기(1010)는 카메라 모듈, 추정부(1040), 캘리브레이션 수행부(1050), 이미지 생성부(1090), 송신부(1060), 수신부(1070) 및 사용자 알림부(1080)를 포함한다.
도 10에 도시한 바와 같이, 제 2 단말기(1020)는 카메라 모듈(1100), 송신부(1120), 수신부(1110), 캘리브레이션 수행부(1130) 및 사용자 알림부(1140)를 포함한다.
제 1 단말기(1010) 및 제 2 단말기(1020)의 카메라 모듈(1030 및 1100)을 이용하여 피사체에 대한 뷰 이미지를 획득할 수 있다. 구체적으로 제 1 단말기(1010) 및 제 2 단말기(1020)의 카메라 모듈(1030 및 1100)을 이용하여 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리에 대한 캘리브레이션을 위해서 2D 피사체에 대한 뷰 이미지를 획득할 수 있고, 3D 이미지를 생성하기 위해서 3D 피사체에 대한 뷰 이미지를 획득할 수 있다.
제 1 단말기의 추정부(1040)는 제 1 단말기(1010)로부터 획득된 뷰 이미지로부터, 제 1 단말기(1010)에서 양안 거리만큼 떨어진 위치에서의 상기 2D 피사체에 대한 뷰 이미지를 추정할 수 있다. 제 1 단말기(1010)로부터 2D 피사체까지의 거리, 양안 시차각 및 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 하여서 제 1 단말기(1010)로부터 획득된 뷰 이미지로부터, 제 1 단말기(1010)에서 양안 거리만큼 떨어진 위치에서의 상기 2D 피사체에 대한 뷰 이미지를 추정할 수 있다.
제 1 단말기(1010)의 캘리브레이션 수행부(1050)는 추정된 이미지를 이용하여 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리에 대한 캘리브레이션(calibration)을 수행한다. 캘리브레이션 수행부는 추정된 뷰 이미지를 제 2 단말기(1020)에 송신하는 송신부(1060) 및 송신된 이미지에 기초해서 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리가 최적의 거리임을 나타내는 메시지를 제 2 단말기(1020)로부터 수신하는 수신부(1070)를 포함할 수 있다.
제 1 단말기의 사용자 알림부(1080)는 수신하여 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알릴 수 있다.
제 1 단말기(1010)의 수신부(1070)는 3D 피사체에 대한 제 2 단말기(1020)의 뷰 이미지를 제 2 단말기(1020)로부터 수신하거나, 추정된 이미지에 기초해서 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 제 2 단말기(1020)로부터 수신할 수 있다.
제 1 단말기(1010)의 송신부(1070)는 2D 피사체에 대한 뷰 이미지로부터, 제 1 단말기(1010)에서 양안 거리만큼 떨어진 위치에서의 2D 피사체에 대한 추정된 뷰 이미지를 제 2 단말기(1020)에 송신할 수 있다.
제 2 단말기(1020)의 수신부(1110)는 제 1 단말기(1010)로부터 양안 거리만큼 떨어진 위치에서 2D 피사체에 대한 뷰 이미지로서 추정된 이미지를 제 1 단말기(1010)로부터 수신할 수 있다.
제 2 단말기(1020)의 캘리브레이션 수행부(1130)는 수신부(1110)에서 수신된 이미지 및 2D 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 제 1 단말기(1010)로부터 렌즈 거리에 대한 캘리브레이션을 수행한다. 예를 들어 수신부(1110)에서 수신된 이미지 및 2D 피사체에 대한 뷰 이미지 간의 유사도가 소정의 값보다 큰 경우에는 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 결정할 수 있다. 수신부(1110)에서 수신된 이미지 및 2D 피사체에 대한 뷰 이미지 간의 유사도가 소정의 값보다 작은 경우에는 제 1 단말기(1010) 및 제 2 단말기(1020) 간의 렌즈 거리가 3D 촬영을 위한 최적의 거리가 아님을 결정할 수 있다.
제 2 단말기(1020)의 송신부(1120)는 제 2 단말기(1020)의 캘리브레이션 수행부(1130)에서의 수행 결과에 기초하여 제 1 단말기(1010)로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 나타내는 메시지를 제 1 단말기(1010)에 송신할 수 있다. 제 2 단말기의 송신부(1120)는 캘리브레이션 수행부(1130)에 의해 결정된 렌즈 거리만큼 제 1 단말기(1010)로부터 떨어진 상태에서의 3D 피사체에 대한 뷰 이미지를 송신할 수 있다.
제 2 단말기(1020)의 사용자 알림부(1140)는 제 2 단말기(1020)의 캘리브레이션 수행부(1130)에서의 수행 결과에 기초하여 제 1 단말기(1010)로부터의 렌즈 거리가 3D 촬영을 위한 최적의 거리임을 사용자에게 알릴 수 있다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (16)

  1. 제 1 단말기가 제 2 단말기와 연계하여 3D 이미지를 생성하는 방법에 있어서,
    피사체에 대한 상기 제 1 단말기의 뷰 이미지로부터, 상기 제 1 단말기에서 소정의 거리만큼 떨어진 위치에서의 상기 피사체에 대한 뷰 이미지를 추정(extrapolate)하는 단계, 상기 추정된 뷰 이미지는 상기 제 2 단말기에 의해 획득된 피사체의 뷰 이미지에 대응되고;
    상기 제 2 단말기로 상기 추정된 뷰 이미지를 송신하는 단계;
    상기 송신된 추정된 뷰 이미지를 기초로, 상기 제 2 단말기로부터, 상기 제1 단말기 및 상기 제 2 단말기 간 거리가 3D 이미징을 위한 최적의 거리임을 나타내는 메시지를 수신하는 단계;
    상기 메시지를 디스플레이하는 단계; 및
    상기 제 1 단말기 및 상기 제 2 단말기 간에 상기 메시지에 기초한 거리만큼 떨어진 상태에서의 피사체에 대한 상기 제 1 단말기의 뷰 이미지 및 상기 제 2 단말기의 뷰 이미지를 이용하여 상기 피사체에 대한 3D 이미지를 생성하는 단계를 포함하고,
    상기 제 2 단말기의 뷰 이미지는 상기 제2 단말기의 카메라 모듈에 의해 획득된 뷰 이미지이고,
    상기 제 2 단말기는 상기 추정된 뷰 이미지에 기초하여 상기 제 1 단말기로부터 소정의 거리만큼 떨어진 위치에 위치하는 것을 특징으로 하는 3D 이미지 생성 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 피사체에 대한 뷰 이미지를 추정하는 단계는,
    상기 제 1 단말기로부터 상기 피사체까지의 거리, 양안 시차각 및 상기 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 하는 것을 특징으로 하는 3D 이미지 생성 방법.
  4. 삭제
  5. 삭제
  6. 제 2 단말기가 제 1 단말기와 연계하여 3D 이미지를 생성하는 방법에 있어서,
    상기 제 1 단말기로부터 소정의 거리만큼 떨어진 위치에서의 피사체에 대한 뷰 이미지로서 추정된 이미지를 상기 제 1 단말기로부터 수신하는 단계;
    상기 수신된 이미지와 상기 제 2 단말기의 상기 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 상기 제 1 단말기로부터의 거리에 대한 캘리브레이션을 수행하는 단계;
    상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 거리가 3D 이미징을 위한 최적의 거리임을 나타내는 메시지를 상기 제 1 단말기에 송신하는 단계; 및
    상기 피사체의 3D 이미지를 생성하기 위해 상기 제 2 단말기가 상기 캘리브레이션 결과에 기초한 거리만큼 상기 제 1 단말기로부터 떨어져 있을 때 획득된 상기 피사체의 뷰 이미지를 상기 제 1 단말기로 송신하는 단계를 포함하는 것을 특징으로 하는 3D 이미지 생성 방법.
  7. 삭제
  8. 삭제
  9. 제 2 단말기와 연계하여 3D 이미지를 생성하는 제 1 단말기에 있어서,
    피사체에 대한 상기 제 1 단말기의 뷰 이미지로부터, 상기 제 1 단말기에서 소정의 거리만큼 떨어진 위치에서의 상기 피사체에 대한 뷰 이미지를 추정하는 추정부, 상기 추정된 뷰 이미지는 상기 제 2 단말기에 의해 획득된 피사체의 뷰 이미지에 대응되고;
    상기 제 2 단말기로 상기 추정된 뷰 이미지를 송신하는 송신부;
    상기 송신된 추정된 뷰 이미지를 기초로 상기 제 2 단말기로부터 상기 제 1 단말기 및 상기 제 2 단말기 간 거리가 3D 이미징을 위한 최적의 거리임을 나타내는 메시지를 수신하는 수신부; 및
    상기 메시지를 디스플레이하는 사용자 알림부를 포함하고,
    상기 제 1 단말기 및 상기 제 2 단말기 간에 상기 메시지에 기초한 거리만큼 떨어진 상태에서의 피사체에 대한 상기 제 1 단말기의 뷰 이미지 및 상기 제 2 단말기의 뷰 이미지를 이용하여 상기 피사체에 대한 3D 이미지를 생성하는 3D 이미지 생성부를 포함하고,
    상기 제 2 단말기의 뷰 이미지는 상기 제 2 단말기의 카메라 모듈에 의해 획득된 뷰 이미지이고,
    상기 제 2 단말기는 상기 추정된 뷰 이미지에 기초하여 상기 제 1 단말기로부터 소정의 거리만큼 떨어진 위치에 위치하는 것을 특징으로 하는 제 1 단말기.
  10. 삭제
  11. 제 9 항에 있어서,
    상기 피사체에 대한 뷰 이미지를 추정하는 추정부는,
    상기 제 1 단말기로부터 상기 피사체까지의 거리, 양안 시차각 및 상기 제 2 단말기의 성능 정보 중 적어도 하나를 기초로 하는 것을 특징으로 하는 제 1 단말기.
  12. 삭제
  13. 삭제
  14. 제 1 단말기와 연계하여 3D 이미지를 생성하는 제 2 단말기에 있어서,
    상기 제 1 단말기로부터 소정의 거리만큼 떨어진 위치에서 피사체에 대한 뷰 이미지로서 추정된 이미지를 상기 제 1 단말기로부터 수신하는 수신부;
    상기 수신된 이미지와 상기 제 2 단말기의 상기 피사체에 대한 뷰 이미지 간의 유사도에 기초하여 상기 제 1 단말기로부터의 거리에 대한 캘리브레이션을 수행하는 캘리브레이션 수행부; 및
    상기 캘리브레이션 결과에 기초하여 상기 제 1 단말기로부터의 거리가 3D 이미징을 위한 최적의 거리임을 나타내는 메시지를 상기 제 1 단말기에 송신하고,
    상기 피사체의 3D 이미지를 생성하기 위해 상기 제 2 단말기가 상기 캘리브레이션 결과에 기초한 거리만큼 상기 제 1 단말기로부터 떨어져 있을 때 획득된 상기 피사체의 뷰 이미지를 상기 제 1 단말기로 송신하는 송신부를 포함하는 것을 특징으로 하는 제 2 단말기.
  15. 삭제
  16. 삭제
KR1020130086262A 2012-11-12 2013-07-22 복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치 KR102084632B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP13192234.6A EP2731336B1 (en) 2012-11-12 2013-11-08 Method and apparatus for generating 3D images using plurality of mobile devices
US14/077,521 US9661311B2 (en) 2012-11-12 2013-11-12 Method and apparatus for generating 3D images using a plurality of mobile devices

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN4725CH2012 2012-11-12
IN4725/CHE/2012 2012-11-12

Publications (2)

Publication Number Publication Date
KR20140061217A KR20140061217A (ko) 2014-05-21
KR102084632B1 true KR102084632B1 (ko) 2020-03-04

Family

ID=50890313

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130086262A KR102084632B1 (ko) 2012-11-12 2013-07-22 복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102084632B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157850A (ja) 2008-12-26 2010-07-15 Olympus Imaging Corp カメラ及びカメラシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101720190B1 (ko) * 2010-11-04 2017-03-27 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010157850A (ja) 2008-12-26 2010-07-15 Olympus Imaging Corp カメラ及びカメラシステム

Also Published As

Publication number Publication date
KR20140061217A (ko) 2014-05-21

Similar Documents

Publication Publication Date Title
US10116922B2 (en) Method and system for automatic 3-D image creation
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
JP5456020B2 (ja) 情報処理装置および方法
JP4657313B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2013192229A (ja) 2次元/3次元デジタル情報取得及び表示装置
JP2007529960A (ja) 個人用電子機器の3次元情報取得及び表示システム
US20170278263A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP2012186612A (ja) 撮像装置
JP2013171058A (ja) 立体画像処理装置、立体画像撮像装置、立体画像表示装置
EP2731336B1 (en) Method and apparatus for generating 3D images using plurality of mobile devices
KR102084632B1 (ko) 복수의 모바일 장치를 이용하여 3d 이미지를 생성하는 방법 및 장치
JP5351878B2 (ja) 立体画像表示装置および方法並びにプログラム
JP2021150942A (ja) 撮像装置および撮像処理方法
JP5871113B2 (ja) 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
JP2010066754A (ja) 映像表示装置および映像表示方法
KR20120046981A (ko) 위치정보 기반의 영상데이터의 처리 방법 및 장치
JP2012199759A (ja) 情報処理装置、そのプログラム、および情報処理方法
KR102101771B1 (ko) 컨텐츠를 제공하는 장치 및 방법
JP2021150943A (ja) 撮像装置および撮像処理方法
JP2021150880A (ja) 撮像装置および撮像処理方法
JP2021150882A (ja) 撮像装置および撮像処理方法
JP2017169142A (ja) 画像処理装置およびその制御方法、プログラムならびに撮像システム
JP2013074344A (ja) 立体画像生成装置、立体画像生成システム、立体画像生成方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant