KR20180117366A - Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템 - Google Patents

Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템 Download PDF

Info

Publication number
KR20180117366A
KR20180117366A KR1020170050363A KR20170050363A KR20180117366A KR 20180117366 A KR20180117366 A KR 20180117366A KR 1020170050363 A KR1020170050363 A KR 1020170050363A KR 20170050363 A KR20170050363 A KR 20170050363A KR 20180117366 A KR20180117366 A KR 20180117366A
Authority
KR
South Korea
Prior art keywords
terminal
image
photographing
master terminal
terminals
Prior art date
Application number
KR1020170050363A
Other languages
English (en)
Other versions
KR102400790B1 (ko
Inventor
김태효
Original Assignee
주식회사 넥슨코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥슨코리아 filed Critical 주식회사 넥슨코리아
Priority to KR1020170050363A priority Critical patent/KR102400790B1/ko
Publication of KR20180117366A publication Critical patent/KR20180117366A/ko
Application granted granted Critical
Publication of KR102400790B1 publication Critical patent/KR102400790B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

VR 영상을 제작하기 위한 방법 및 장치를 제시하며, VR 영상 제작 방법은, 적어도 하나의 단말과의 연결을 설정하는 단계, 상기 적어도 하나의 단말과 촬영 조건을 일치시키는 단계, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 저장하는 단계 및 상기 저장된 촬영 영상을, 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하는 단계를 포함한다.

Description

VR 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템 {METHOD FOR GENERATING VIRTUAL REALITY IMAGE, ARRARATUS AND SYSTEM FOR PERFORMING THE SAME}
본 명세서에서 개시되는 실시예들은 VR(Virtual Reality) 영상을 제작하기 위한 방법, 장치 및 시스템에 관한 것으로, 보다 상세하게는 두 대 이상의 단말을 이용하여 촬영한 영상을 결합함으로써 VR 영상을 제작하는 방법, 장치 및 시스템에 관한 것이다.
최근 VR에 대한 관심이 높아지고 있으며, 특히 게임 및 영화 등의 분야에서 VR 영상을 통해 사용자가 실제와 같은 경험을 할 수 있도록 하는 방안들이 연구되고 있다. 또한, VR 영상의 활용 분야가 점점 넓어짐에 따라 VR 영상을 간편하게 만들 수 있는 기술에 대한 수요도 생겨났다.
그런데, 기존의 VR 영상 제작용 장치들은 전문적인 장치로서 용도가 VR 영상 제작용으로만 한정되고, 가격대 또한 높아 일반 사용자들이 접근하기 어렵다는 한계가 있다.
관련하여 선행기술 문헌인 일본공개특허 제 2006-40053호에서는, 2대의 카메라들을 이용하여 피사체에 대한 실영상을 촬영하고, 촬영된 영상들을 이용하여 VR 영상을 생성하는 내용이 개시되어 있다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 스마트폰과 같이 보급률이 높은 단말들을 이용하여 VR 영상을 제작하는 방법, 장치 및 시스템을 제시하는데 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, VR 영상 제작 방법은, 적어도 하나의 단말과의 연결을 설정하는 단계, 상기 적어도 하나의 단말과 촬영 조건을 일치시키는 단계, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 저장하는 단계 및 상기 저장된 촬영 영상을, 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하는 단계를 포함할 수 있다.
다른 실시예에 따르면, VR 영상 제작 방법을 수행하기 위한 컴퓨터 프로그램으로서, VR 영상 제작 방법은, 적어도 하나의 단말과의 연결을 설정하는 단계, 상기 적어도 하나의 단말과 촬영 조건을 일치시키는 단계, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 저장하는 단계 및 상기 저장된 촬영 영상을, 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, VR 영상 제작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체로서, VR 영상 제작 방법은, 적어도 하나의 단말과의 연결을 설정하는 단계, 상기 적어도 하나의 단말과 촬영 조건을 일치시키는 단계, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 저장하는 단계 및 상기 저장된 촬영 영상을, 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, VR 영상 제작 장치는, 영상을 촬영하기 위한 촬영부, 사용자로부터 입력을 수신하고, 상기 촬영부에 의해 촬영되는 영상을 표시하기 위한 입출력부, 상기 촬영부에 의해 촬영되는 영상이 저장되는 저장부, 적어도 하나의 단말과 통신을 수행하기 위한 통신부 및 VR 영상 제작을 제어하는 제어부를 포함하며, 상기 제어부는, 상기 통신부를 통해 적어도 하나의 단말과 연결이 설정되면, 상기 적어도 하나의 단말과 촬영 조건을 일치시키고, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 상기 저장부에 저장하고, 상기 저장된 촬영 영상을 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하도록 할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 서로 연결된 두 대 이상의 단말들의 촬영 조건을 일치시키고, 단말들이 서로 필드 오브 뷰(field of view)가 겹치도록 촬영한 영상들을 결합함으로써 VR 영상을 제작할 수 있고, 따라서 촬영 기능 및 통신 기능만 구비한 단말들이라면 VR 영상 제작에 활용할 수 있는 장점이 있다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 VR 영상을 제작하기 위한 환경을 도시한 도면이다.
도 2는 일 실시예에 따른 VR 영상 제작에 사용되는 단말들의 구성을 도시한 도면이다.
도 3 및 4는 실시예들에 따라 VR 영상 제작 과정에서, 단말들의 촬영 조건을 일치시키는 방법을 설명하기 위한 도면들이다.
도 5는 일 실시예에 따라 단말들에서 촬영한 영상을 결합하여 VR 영상을 생성하는 과정을 설명하기 위한 도면이다.
도 6은 일 실시예에 따라 3대 이상의 단말들을 이용하여 VR 영상을 제작하기 위한 환경을 도시한 도면이다.
도 7 내지 도 9는 실시예들에 따른 VR 영상 제작 방법을 설명하기 위한 순서도들이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 VR 영상을 제작하기 위한 환경을 도시한 도면이다. 도 1을 참조하면, 일 실시예에 따른 VR 영상 제작 환경에서는 두 대의 단말들(100, 200)이 사용될 수 있다. 일 실시예에 따르면, 단말들(100, 200)은 카메라 및 무선 통신 모듈을 구비하는 스마트폰 또는 태블릿과 같은 모바일 단말일 수 있다. 그러나 이에 한정되지 않고, 단말들(100, 200)은 각각 촬영 기능 및 통신 기능을 구비하는 다양한 종류의 장치일 수 있다. 또한, 단말들(100, 200)은 동일한 종류의 장치일 필요는 없고, 서로 다른 종류의 장치라도 무방하다. 한편, 두 대의 단말들(100, 200) 각각에는 VR 영상을 제작하기 위한 어플리케이션이 설치될 수 있다.
두 대의 단말들(100, 200)은 서로 일정 거리(d)만큼 떨어져서 배치되며, 서로 필드 오브 뷰(field of view)가 겹치도록 촬영을 수행할 수 있도록 촬영 방향이 설정된다. 도 1에서는 두 단말들(100, 200) 모두 임의의 객체(1)를 포함하도록 영상을 촬영한다고 가정한다. 이때, 두 대의 단말들(100, 200) 사이의 거리(d) 및 촬영 방향 등은 상황 및 필요에 따라 적절하게 설정될 수 있다. 일 실시예에 따르면, 두 대의 단말들(100, 200) 사이의 거리(d)는 사용자의 두 눈 사이의 거리일 수 있다. 또한, 보조 기구를 이용하여 두 대의 단말들(100, 200)이 일정 거리(d) 이격되어 같은 높이에 위치하도록 거치할 수도 있다.
두 대의 단말들(100, 200)은 블루투스, Wi-Fi Direct 또는 NFC(Near Field Communication) 등과 같은 무선 통신을 통해 서로 연결될 수 있으며, 두 대의 단말들(100, 200)의 촬영 조건을 일치시킨 상태에서 각각 영상을 촬영하고, 촬영 영상을 결합함으로써 VR 영상을 생성할 수 있다. 이때, 촬영 조건이란 촬영과 관련된 다양한 설정을 의미하며, 특히 카메라의 일반 옵션, 영상의 해상도 및 촬영 영역 등을 의미한다. 여기서 촬영 영역이란, 촬영이 진행될 때 단말의 화면에 표시되는 전체 영상 중에서, 단말에 촬영 영상으로서 저장되는 영역을 의미한다. 촬영 조건을 일치시키는 구체적인 방법은 아래에서 자세히 설명하도록 한다.
일 실시예에 따르면, 두 대의 단말들(100, 200) 중 어느 하나는 마스터 단말로 선택되고, 나머지 하나는 서브 단말로 선택될 수 있다. 도 1의 왼쪽의 단말(100)이 마스터 단말로 선택되고, 오른쪽의 단말(200)이 서브 단말로 선택되었다고 가정한다. 일 실시예에 따르면, 마스터 단말(100)에서 설정된 촬영 조건에 따라서 서브 단말(200)의 촬영 조건을 조정할 수 있다. 또한, 서브 단말(200)이 촬영 영상을 마스터 단말(100)로 전송하면, 마스터 단말(100)은 수신한 영상과, 직접 촬영한 영상을 결합하여 VR 영상을 생성할 수 있다.
이하에서는, 두 대의 단말들(100, 200)을 이용하여 VR 영상을 제작하는 구제척인 과정을 도 2 내지 도 4를 참조하여 설명한다.
도 2는 일 실시예에 따른 VR 영상 제작에 사용되는 단말들의 구성을 도시한 도면이다. 도 2를 참조하면, 두 대의 단말들(100, 200)은 동일한 구성들을 포함한다.
촬영부(110, 210)는 영상을 촬영하기 위한 구성이며, 예를 들어 카메라일 수 있다.
입출력부(120, 220)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 단말들(100, 200)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(120, 220)는 사용자 입력을 수신하는 조작 패널 및 화면을 표시하는 디스플레이 패널 등을 포함할 수 있다. 또는, 입출력부(120, 220)는 터치 스크린과 같이 입력부 및 출력부가 하나로 통합된 구성일 수도 있다. 입출력부(120, 220)는 촬영부(110, 210)에서 촬영 중인 영상을 표시할 수도 있다.
제어부(130, 230)는 적어도 하나의 프로세서를 포함하는 구성이며, 단말들(100, 200)의 전체적인 동작을 제어한다. 제어부(130, 230)는 입출력부(120, 220)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 단말들(100, 200)에 포함된 다른 구성들을 제어할 수 있다. 제어부(130, 230)는 저장부(140, 240)에 저장된 VR 영상 제작 어플리케이션(이하, VR 영상 제작 앱)을 실행함으로써 VR영상 제작을 제어할 수 있다. 제어부(130, 230)가 VR 영상 제작을 제어하는 구체적인 과정은 아래에서 다시 설명하도록 한다.
저장부(140, 240)에는 파일, 영상 및 어플리케이션 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 일 실시예에 따르면, 저장부(140, 240)에는 촬영부(110, 210)에서 촬영된 영상 및 VR 영상 제작 앱 등이 저장될 수 있다.
통신부(150, 250)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(150, 250)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다. 통신부(150, 250)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth) 또는 NFC(Near Field Communication) 등일 수 있다.
제어부(130, 230)에 의해 저장부(140, 240)에 저장된 VR 영상 제작 앱이 실행됨으로써 VR 영상 제작 프로세스가 시작된다. VR 영상 제작 앱이 실행되면 두 대의 단말들(100, 200)은 통신부(150, 250)를 통해 서로 연결될 수 있다. 예를 들어, 단말에서 VR 영상 제작 앱이 실행되면 주위에 연결 가능한 단말이 있는지를 검색하여 검색된 단말을 화면에 보여주고, 검색된 단말 중 사용자에 의해 선택된 단말과 연결을 설정할 수 있다.
연결이 설정된 후에는 두 대의 단말들(100, 200) 중 어느 하나는 마스터 단말로 선택되고, 나머지 하나는 서브 단말로 선택될 수 있다. 앞서 도 1에서 가정한 바와 같이, 왼쪽의 단말(100)이 마스터 단말, 오른쪽의 단말(200)이 서브 단말로 선택되었다고 가정한다.
마스터 단말(100) 및 서브 단말(200)이 선택된 후에는, 두 단말들(100, 200)의 촬영 조건을 일치시킨다. 일 실시예에 따르면, 마스터 단말(100)에서 설정된 촬영 조건에 따라서 서브 단말(200)의 촬영 조건을 조정할 수 있다. 이를 위해, 마스터 단말(100)의 제어부(130)는 설정된 촬영 조건을 확인하여 서브 단말(200)에 전송하고, 서브 단말(200)의 제어부(230)는 수신한 촬영 조건에 따라서 촬영 조건을 조정할 수 있다.
예를 들어, 마스터 단말(100)의 해상도에 따라 서브 단말(200)의 해상도를 변경할 수 있다. 이 과정을 도 3을 참조하여 더 자세히 설명한다.
도 3은 일 실시예에 따른 VR 영상 제작 과정에서, 단말들의 해상도를 일치시키는 방법을 설명하기 위한 도면이다. 도 3을 참조하면, 마스터 단말(100) 및 서브 단말(200)의 화면에는 각각의 단말에서 촬영되는 영상이 표시되었다. 마스터 단말(100)과 서브 단말(200)은 모두, 도 1에 도시된 동일한 객체(1)를 촬영하고 있지만, 마스터 단말(100)의 화면에 표시되는 영상 속 객체(1a)와, 서브 단말(200)의 화면에 표시되는 영상 속 객체(1b)는 크기가 상이하다. 이는 마스터 단말(100)과 서브 단말(200)의 해상도가 일치하지 않기 때문이다.
따라서, 두 단말들(100, 200)의 해상도를 일치시키기 위해, 마스터 단말(100)의 제어부(130)가 마스터 단말(100)의 해상도를 확인하여 서브 단말(200)에 전송하면, 서브 단말(200)의 제어부(230)는 수신한 해상도에 따라서 서브 단말(200)의 해상도를 변경할 수 있다. 이러한 동작은 단말들(100, 200)에서 실행되는 VR 영상 제작 앱에 의해 자동으로 수행될 수도 있으며, 또는 사용자가 직접 VR 영상 앱을 통해 각 단말의 해상도를 확인하고 변경할 수도 있다.
또는 예를 들어, 마스터 단말(100)에서 설정된 촬영 영역에 따라서, 서브 단말(200)의 촬영 영역을 조정할 수 있다. 이 과정을 도 4를 참조하여 더 자세히 설명한다.
도 4는 일 실시예에 따른 VR 영상 제작 과정에서, 단말들의 촬영 영역을 일치시키는 방법을 설명하기 위한 도면이다. 도 4에서 마스터 단말(100) 및 서브 단말(200)의 화면에는 각각의 단말에서 촬영되는 영상이 표시되었다. 도 4에서 마스터 단말(100)과 서브 단말(200)의 해상도는 일치한다고 가정한다.
마스터 단말(100) 및 서브 단말(200)은 모두 도 1에 도시된 동일한 객체(1)를 촬영하고 있다. 하지만, 도 4를 참조하면, 마스터 단말(100)의 전체 화면에서의 객체(1a)의 위치에 대한 좌표 값은, 서브 단말(200)의 전체 화면에서의 객체(1b)의 위치에 대한 좌표 값과 상이하다. 이는, 두 단말들(100, 200)의 화면의 크기가 다르기 때문이다.
따라서, 마스터 단말(100)의 촬영 영역에서의 객체(1a)의 좌표 값과, 서브 단말(200)의 촬영 영역에서의 객체(1b)의 좌표 값이 일치하도록 서브 단말(200)의 촬영 영역을 조정하는 작업을 수행한다. 이때, 촬영 영역이란 앞서 설명한 바와 같이 촬영이 진행될 때 단말의 화면에 표시되는 전체 영상 중에서, 단말에 촬영 영상으로서 저장되는 영역을 의미한다.
도 4에서 마스터 단말(100)의 전체 화면이 마스터 단말(100)의 촬영 영역으로 설정되었다고 가정한다. 마스터 단말(100)의 제어부(130)는 마스터 단말(100)의 촬영 영역 내에서의 객체(1a)의 좌표 값을 추출하고, 추출된 좌표 값을 서브 단말(200)로 전송한다. 서브 단말(200)의 제어부(230)는 수신한 좌표 값에 따라서 서브 단말(200)의 촬영 영역(40)을 조정한다. 즉, 서브 단말(200)의 제어부(230)는 서브 단말(200)의 촬영 영역(40) 내에서의 객체(1b)의 좌표 값이, 마스터 단말(100)로부터 수신한 좌표 값과 일치하도록 서브 단말(200)의 촬영 영역(40)을 조정할 수 있다.
이와 같은 촬영 영역의 조정은 서브 단말(200)의 제어부(230)가 자동으로 수행할 수 있지만, 사용자가 촬영 영역을 재조정할 수도 있다. 예를 들어, 사용자는 촬영 영역(40)을 나타내는 경계선의 모서리들을 터치한 상태에서 손가락을 이동함으로써 촬영 영역(40)을 늘이거나 줄일 수 있으며, 또는 경계선을 터치한 상태에서 손가락을 이동함으로써 촬영 영역(40)의 위치를 이동시킬 수도 있다.
한편, 위에서는 마스터 단말(100)의 촬영 영역에 포함된 객체(1a)를 촬영 영역 조정을 위한 기준점으로 사용했지만, 다른 방식으로 기준점을 선택하거나 표시할 수도 있다. 예를 들어, 마스터 단말(100)의 촬영 영역 내 특정 지점을 하이라이트로 표시하고, 표시된 지점의 좌표 값을 추출하여 촬영 영역 조정에 이용할 수도 있다. 이를 위해, 마스터 단말(100)의 제어부(130)는, 마스터 단말(100)의 화면의 색상값을 수치화하고, 하이라이트된 지점의 좌표 값을 산출할 수 있다.
마스터 단말(100)과 서브 단말(200)의 촬영 조건이 일치되었으면, 두 단말들(100, 200)의 촬영부(110, 210)는 각각 촬영을 수행한다. 이때, 앞서 도 1을 참조하여 설명한 바와 같이, 두 단말들(100, 200)은 서로 필드 오브 뷰가 겹치도록 영상을 촬영한다. 두 단말들(100, 200)은 각각 설정된 촬영 영역에 따라 촬영 영상을 저장부(140, 240)에 저장한다.
이어서, 두 단말들(100, 200)의 촬영 영상을 결합하여 VR 영상을 생성한다. 도 5는 일 실시예에 따라 단말들에서 촬영한 영상을 결합하여 VR 영상을 생성하는 과정을 설명하기 위한 도면이다. 도 5를 참조하면, 서브 단말(200)은 저장부(240)에 저장된 촬영 영상을 마스터 단말(100)에 전송한다. 마스터 단말(100)의 제어부(130)는 수신한 촬영 영상을, 저장부(140)에 저장된 촬영 영상과 결합함으로써 VR 영상을 생성한다. 예를 들어, 제어부(130)는 서브 단말(200)로부터 수신한 촬영 영상 및 저장부(140)에 저장된 촬영 영상을 각각 좌측과 우측에 배치함으로써 VR 영상을 생성할 수 있다.
이와 같이 일 실시예에 따른 VR 영상 제작 장치 및 시스템을 이용하면, 서로 연결된 두 대 이상의 단말들의 촬영 조건을 일치시키고, 단말들이 서로 필드 오브 뷰가 겹치도록 촬영한 영상들을 결합함으로써 VR 영상을 제작할 수 있고, 따라서 촬영 기능 및 통신 기능만 구비한 단말들이라면 VR 영상 제작에 활용할 수 있는 장점이 있다.
한편, 지금까지는 두 대의 단말들(100, 200)을 이용하여 VR 영상을 제작하는 실시예에 대해서 설명하였는데, 세 대 이상의 단말들을 이용하여 VR 영상을 제작하는 것도 가능하다. 도 6은 일 실시예에 따라 3대 이상의 단말들을 이용하여 VR 영상을 제작하기 위한 환경을 도시한 도면이다.
도 6을 참조하면, 5대의 단말들(S1, S2, S3, S4, S5, M)이 동일한 객체(1)를 촬영하도록 배치되어 있다. 하나의 단말(M)이 마스터 단말로 선택되면, 나머지 단말들(S1, S2, S3, S4)은 모두 서브 단말로 선택될 수 있다. 서브 단말들(S1, S2, S3, S4)은 마스터 단말(M)의 촬영 조건에 따라서 촬영 조건이 조정된 후 촬영을 수행한다. 그리고, 서브 단말들(S1, S2, S3, S4)이 촬영 영상을 마스터 단말(M)로 전송하면, 마스터 단말(M)은 직접 촬영한 촬영 영상과, 수신한 촬영 영상들을 결합함으로써 VR 영상을 생성할 수 있다.
도 7 내지 도 9는 실시예들에 따른 VR 영상 제작 방법을 설명하기 위한 순서도들이다. 도 7 내지 도 9에 도시된 실시예들에 따른 VR 영상 제작 방법은 도 1 내지 도 6에 도시된 단말들(100, 200)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 6에 도시된 단말들(100, 200)에 관하여 이상에서 기술한 내용은 도 7 내지 도 9에 도시된 실시예들에 따른 VR 영상 제작 방법에도 적용될 수 있다.
도 7을 참조하면, 701 단계에서 어느 하나의 단말과 적어도 하나의 단말간의 연결을 설정한다.
단말들끼리의 연결이 설정되면, 702 단계에서는 연결된 적어도 하나의 단말과 촬영 조건을 일치시킨다. 예를 들어, 연결된 단말들 중 어느 하나가 마스터 단말로 선택되고 나머지는 서브 단말로 선택된다면, 마스터 단말의 촬영 조건에 따라서 서브 단말의 촬영 조건을 조정할 수 있다. 구체적으로, 마스터 단말의 해상도에 따라서 서브 단말의 해상도를 조정하거나, 마스터 단말로부터 기준점에 대한 좌표 값을 수신하면 서브 단말은 수신한 좌표 값에 따라서 촬영 영역을 조정할 수도 있다. 이를 위해, 마스터 단말은 설정된 해상도 및 기준점에 대한 좌표 값 중 적어도 하나를 서브 단말에 전송할 수 있다.
703 단계에서는 적어도 하나의 단말과 필드 오브 뷰가 겹치도록 영상을 촬영하여 저장한다. 이를 위해, 연결된 복수의 단말들은 일정 거리 이격되어 서로 필드 오브 뷰가 겹치도록 촬영 방향이 설정될 수 있다.
704 단계에서는 어느 하나의 단말에 저장된 촬영 영상을, 적어도 하나의 다른 단말의 촬영 영상과 결합함으로써 VR 영상을 생성한다. 예를 들어, 서브 단말은 자신의 저장부에 저장된 촬영 영상을 마스터 단말로 전송하고, 마스터 단말은 수신한 촬영 영상 및 자신의 저장부에 저장된 촬영 영상을 좌우에 배치함으로써 VR 영상을 생성할 수 있다.
도 8은 일 실시예에 따라 연결된 단말들이 마스터 단말 또는 서브 단말로 선택되었을 때 수행되는 프로세스들을 도시한 순서도이다.
도 8을 참조하면, 801 단계에서 어느 하나의 단말이 적어도 하나의 다른 단말과 연결이 설정되면, 802 단계에서는 연결된 각각의 단말들이 마스터 단말 또는 서브 단말 중 어느 하나로 선택될 수 있다. 예를 들어, 연결된 복수의 단말들 중 어느 하나가 마스터 단말로 선택되면, 나머지 단말들은 모두 서브 단말로 선택될 수도 있다.
우선, 마스터 단말로 선택된 경우에는, 803 단계에서 마스터 단말은 해상도 및 기준점에 대한 좌표 값 중 적어도 하나를 서브 단말에 전송한다.
단말들간의 촬영 조건이 일치되면, 804 단계에서 마스터 단말은 영상을 촬영하여 저장한다. 이때, 마스터 단말이 촬영하여 저장하는 영상은, 적어도 하나의 서브 단말이 촬영하여 저장하는 영상과 필드 오브 뷰가 겹칠 수 있다.
805 단계에서 마스터 단말이 서브 단말로부터 촬영 영상을 수신하면, 806 단계에서 마스터 단말은 저장된 촬영 영상과, 서브 단말로부터 수신한 촬영 영상을 결합함으로써 VR 영상을 생성할 수 있다.
한편, 802 단계에서 서브 단말로 선택된 경우에는, 807 단계에서 마스터 단말로부터 해상도 및 좌표 값 중 적어도 하나를 수신하고, 808 단계에서는 수신한 촬영 조건, 즉 해상도 및 좌표 값 중 적어도 하나에 기초하여 서브 단말의 촬영 조건을 조정한다,.
809 단계에서 서브 단말은 영상을 촬영해서 저장하는데, 이때 서브 단말이 촬영하여 저장하는 영상은, 마스터 단말이 촬영하여 저장하는 영상과 필드 오브 뷰가 겹칠 수 있다.
810 단계에서 서브 단말은 저장된 촬영 영상을 마스터 단말에 전송한다.
도 9는 일 실시예에 따른 VR 영상 제작 방법을 설명하기 위한 순서도이다. 도 9를 참조하면, 901 단계에서 복수의 단말들간의 연결을 설정한다. 이어서, 902 단계에서는 복수의 단말들 중 어느 하나를 마스터 단말로 선택하고, 나머지 적어도 하나의 단말은 서브 단말로 선택한다.
903 단계에서는 마스터 단말의 촬영 조건에 따라서, 서브 단말의 촬영 조건을 조정한다. 이를 위해, 마스터 단말은 자신의 촬영 조건을 확인하고, 이를 서브 단말에 전송할 수 있다.
904 단계에서 마스터 단말 및 서브 단말이 서로 필드 오브 뷰가 겹치도록 촬영을 수행한다. 그리고 마지막으로, 905 단계에서는 마스터 단말 및 서브 단말의 촬영 영상들을 결합함으로써 VR 영상을 생성할 수 있다.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
도 7 내지 도 9를 통해 설명된 실시예들에 따른 VR 영상 제작 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
또한 도 7 내지 도 9를 통해 설명된 실시예들에 따른 VR 영상 제작 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 도 7 내지 도 9를 통해 설명된 실시예들에 따른 VR 영상 제작 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100, 200: 단말 110, 210: 통신부
120, 220: 입출력부 130, 230: 제어부
140, 240: 저장부 150, 250: 통신부

Claims (18)

  1. VR(Virtual Reality) 영상 제작 방법에 있어서,
    적어도 하나의 단말과의 연결을 설정하는 단계;
    상기 적어도 하나의 단말과 촬영 조건을 일치시키는 단계;
    상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 저장하는 단계; 및
    상기 저장된 촬영 영상을, 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하는 단계를 포함하는 방법.
  2. 제1항에 있어서,
    상기 촬영 조건을 일치시키는 단계는,
    상기 연결된 적어도 하나의 단말 중 마스터 단말로부터 해상도를 수신하는 단계; 및
    상기 수신한 해상도와 일치하도록 해상도를 조정하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 제1항에 있어서,
    상기 촬영 조건을 일치시키는 단계는,
    상기 연결된 적어도 하나의 단말 중 마스터 단말로부터 기준점에 대한 좌표 값을 수신하는 단계; 및
    상기 수신한 좌표 값에 따라서 촬영 영역을 조정하는 단계를 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서,
    상기 촬영 조건을 일치시키는 단계는,
    사용자 입력에 따라서 상기 촬영 영역을 재조정하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  5. 제1항에 있어서,
    상기 촬영 조건을 일치시키는 단계는,
    해상도 및 기준점에 대한 좌표 값 중 적어도 하나를 상기 연결된 적어도 하나의 단말에 전송하는 것을 특징으로 하는 방법.
  6. 제1항에 있어서,
    상기 VR 영상을 생성하는 단계는,
    상기 저장된 촬영 영상을 상기 적어도 하나의 단말 중 마스터 단말에 전송하는 것을 특징으로 하는 방법.
  7. 제1항에 있어서,
    상기 VR 영상을 생성하는 단계는,
    상기 적어도 하나의 단말로부터 촬영 영상을 수신하는 단계; 및
    상기 수신한 촬영 영상 및 상기 저장된 촬영 영상을 좌우에 배치하여 VR 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
  8. 제1항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  9. VR 영상 제작 장치에 의해 수행되며, 제1항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
  10. VR 영상 제작 방법에 있어서,
    복수의 단말들간의 연결을 설정하는 단계;
    상기 복수의 단말들 중 어느 하나를 마스터 단말로 선택하고, 나머지 적어도 하나의 단말은 서브 단말로 선택하는 단계;
    상기 마스터 단말의 촬영 조건에 따라서, 상기 서브 단말의 촬영 조건을 조정하는 단계;
    상기 마스터 단말 및 서브 단말이 서로 필드 오브 뷰(field of view)가 겹치도록 촬영을 수행하는 단계; 및
    상기 마스터 단말 및 서브 단말의 촬영 영상들을 결합하여 VR 영상을 생성하는 단계를 포함하는 방법.
  11. VR(Virtual Reality) 영상 제작 장치에 있어서,
    영상을 촬영하기 위한 촬영부;
    사용자로부터 입력을 수신하고, 상기 촬영부에 의해 촬영되는 영상을 표시하기 위한 입출력부;
    상기 촬영부에 의해 촬영되는 영상이 저장되는 저장부;
    적어도 하나의 단말과 통신을 수행하기 위한 통신부; 및
    VR 영상 제작을 제어하는 제어부를 포함하며,
    상기 제어부는, 상기 통신부를 통해 적어도 하나의 단말과 연결이 설정되면, 상기 적어도 하나의 단말과 촬영 조건을 일치시키고, 상기 적어도 하나의 단말이 촬영하는 영상과 필드 오브 뷰(field of view)가 겹치도록 영상을 촬영하여 상기 저장부에 저장하고, 상기 저장된 촬영 영상을 상기 적어도 하나의 단말의 촬영 영상과 결합하여 VR 영상을 생성하도록 하는, 장치.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 연결된 적어도 하나의 단말 중 마스터 단말로부터 해상도를 수신하면, 상기 수신한 해상도와 일치하도록 해상도를 조정하는 것을 특징으로 하는 장치.
  13. 제11항에 있어서,
    상기 제어부는,
    상기 연결된 적어도 하나의 단말 중 마스터 단말로부터 기준점에 대한 좌표 값을 수신하면, 상기 수신한 좌표 값에 따라서 촬영 영역을 조정하는 것을 특징으로 하는 장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 입출력부를 통해 수신한 사용자 입력에 따라 상기 촬영 영역을 재조정하는 것을 특징으로 하는 장치.
  15. 제11항에 있어서,
    상기 제어부는,
    해상도 및 기준점에 대한 좌표 값 중 적어도 하나를 상기 연결된 적어도 하나의 단말에 전송하는 것을 특징으로 하는 장치.
  16. 제11항에 있어서,
    상기 제어부는,
    상기 저장부에 저장된 촬영 영상을 상기 적어도 하나의 단말 중 마스터 단말에 전송하는 것을 특징으로 하는 장치.
  17. 제11항에 있어서,
    상기 제어부는,
    상기 적어도 하나의 단말로부터 촬영 영상을 수신하고, 상기 수신한 촬영 영상 및 상기 저장부에 저장된 촬영 영상을 좌우에 배치하여 VR 영상을 생성하는 것을 특징으로 하는 장치.
  18. VR 영상 제작 시스템에 있어서,
    촬영 기능을 구비하는 마스터 단말; 및
    상기 마스터 단말과 통신이 가능하며, 촬영 기능을 구비하는 적어도 하나의 서브 단말을 포함하며,
    상기 적어도 하나의 서브 단말은, 상기 마스터 단말에 따라서 촬영 조건이 조정된 후, 상기 마스터 단말과 필드 오브 뷰가 겹치도록 영상을 촬영하여 상기 마스터 단말에 전송하며,
    상기 마스터 단말은, 상기 서브 단말로부터 수신한 촬영 영상을, 상기 마스터 단말이 촬영한 영상과 결합함으로써 VR 영상을 생성하는, 시스템.


KR1020170050363A 2017-04-19 2017-04-19 Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템 KR102400790B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170050363A KR102400790B1 (ko) 2017-04-19 2017-04-19 Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170050363A KR102400790B1 (ko) 2017-04-19 2017-04-19 Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템

Publications (2)

Publication Number Publication Date
KR20180117366A true KR20180117366A (ko) 2018-10-29
KR102400790B1 KR102400790B1 (ko) 2022-05-20

Family

ID=64101503

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170050363A KR102400790B1 (ko) 2017-04-19 2017-04-19 Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102400790B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080106707A (ko) * 2007-06-04 2008-12-09 (주)마스터이미지 입체 영상 생성 방법 및 장치
KR20110001333A (ko) * 2009-06-30 2011-01-06 에이알비전 (주) 다수의 카메라센서를 이용한 가상 이미지가 합성된 방송영상의 송출 방법
JP2012242488A (ja) * 2011-05-17 2012-12-10 Canon Inc 撮像装置、立体撮像光学系、およびプログラム
KR20150003936A (ko) * 2013-07-01 2015-01-12 한국전자통신연구원 외장카메라 장착을 통한 입체영상 생성 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080106707A (ko) * 2007-06-04 2008-12-09 (주)마스터이미지 입체 영상 생성 방법 및 장치
KR20110001333A (ko) * 2009-06-30 2011-01-06 에이알비전 (주) 다수의 카메라센서를 이용한 가상 이미지가 합성된 방송영상의 송출 방법
JP2012242488A (ja) * 2011-05-17 2012-12-10 Canon Inc 撮像装置、立体撮像光学系、およびプログラム
KR20150003936A (ko) * 2013-07-01 2015-01-12 한국전자통신연구원 외장카메라 장착을 통한 입체영상 생성 장치 및 방법

Also Published As

Publication number Publication date
KR102400790B1 (ko) 2022-05-20

Similar Documents

Publication Publication Date Title
US11455738B2 (en) Electronic device and method for applying image effect to images obtained using image sensor
US11025814B2 (en) Electronic device for storing depth information in connection with image depending on properties of depth information obtained using image and control method thereof
CN105282430B (zh) 使用照片的构图信息的电子装置及使用该装置的拍摄方法
KR102423175B1 (ko) 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
CN109565551B (zh) 对齐于参考帧合成图像
US9692959B2 (en) Image processing apparatus and method
US20170026565A1 (en) Image capturing apparatus and method of operating the same
WO2019179168A1 (zh) 投影畸变校正方法、装置、系统及存储介质
EP2940655A1 (en) Method and electronic device for implementing refocusing
US20150138314A1 (en) Generating Panoramic Images
CN107637063B (zh) 用于基于用户的手势控制功能的方法和拍摄装置
CN107888904B (zh) 用于处理图像的方法和支持该方法的电子装置
US10984513B1 (en) Automatic generation of all-in-focus images with a mobile camera
US12003867B2 (en) Electronic device and method for displaying image in electronic device
US10134137B2 (en) Reducing storage using commonalities
EP3360317A1 (en) Autofocus method and apparatus using modulation transfer function curves
US10860166B2 (en) Electronic apparatus and image processing method for generating a depth adjusted image file
CN108961424B (zh) 虚拟信息处理方法、设备及存储介质
KR102038128B1 (ko) 객체센서를 이용한 구도 설정 방법 및 시스템
KR102422448B1 (ko) 이미지와 관련된 링크 정보를 이용하여 외부 전자 장치와 이미지를 공유하는 방법 및 전자 장치
CN105467741A (zh) 一种全景拍照方法及终端
KR20160053428A (ko) 유저 인터페이스를 통한 카메라 장치의 동작 방법
CN109931923B (zh) 一种导航引导图的生成方法和装置
KR20180117366A (ko) Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템
US10902265B2 (en) Imaging effect based on object depth information

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant