KR20180045668A - 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법 - Google Patents

터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법 Download PDF

Info

Publication number
KR20180045668A
KR20180045668A KR1020160140301A KR20160140301A KR20180045668A KR 20180045668 A KR20180045668 A KR 20180045668A KR 1020160140301 A KR1020160140301 A KR 1020160140301A KR 20160140301 A KR20160140301 A KR 20160140301A KR 20180045668 A KR20180045668 A KR 20180045668A
Authority
KR
South Korea
Prior art keywords
camera
point
touch
path
movement
Prior art date
Application number
KR1020160140301A
Other languages
English (en)
Inventor
천솔지
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Priority to KR1020160140301A priority Critical patent/KR20180045668A/ko
Priority to PCT/KR2017/011477 priority patent/WO2018074821A1/ko
Publication of KR20180045668A publication Critical patent/KR20180045668A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • H04N5/23216
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • H04N5/23222
    • H04N5/23293
    • H04N5/23296
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

터치스크린; 프로세서; 및 카메라 설정 애플리케이션을 저장하는 저장모듈;을 포함하여 구성되는 사용자 단말장치에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우를 디스플레이하는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계; 상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점과 상기 이동시점 종료 터치지점을 이용하여 이에 매칭되는 실제 카메라 이동시점을 연산하는 단계; 및 상기 카메라 설정 애플리케이션이 상기 실제 카메라 이동경로 및 상기 실제 카메라 이동시점에 근거하여 카메라 제어 데이터를 생성하는 단계;를 포함하여 수행하도록 구성되는 것을 특징으로 하는 사용자 단말장치가 제공된다.

Description

터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법{User Terminal and Computer Implemented Method for Synchronizing Camera Movement Path and Camera Movement Timing Using Touch User Interface}
터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법에 관한 것으로, 보다 상세하게는 일반 용자가 편리하게 카메라 동작을 설정할 수 있는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법에 관한 것이다.
최근에, 미디어 및 통신 기술의 발전으로, UGC(User Generated Contents)의 품질이 높아지고 있다. 또한, 이러한 컨텐츠에 익숙한 일반인들의 고품질의 UGC 생성에 대한 욕구도 커져간다. 가상의 배경을 합성하여 뮤직비디오를 자동으로 만들어주는 자동 가라오케 스튜디오가 등장하여, 일반인들도 뮤직비디오를 전문가의 도움없이 생성할 수 있게 되었다. 하지만, 이러한 자동 가라오케 스튜디오는 고정식의 카메라를 사용한다. 따라서, 촬영 전문가가 구현한 카메라 워크가 반영된 전문적인 컨텐츠에 비해, 자동 가라오케 스튜디오에서 생성된 뮤직비디오는 카메라 워크가 제한되어 가상의 배경에 적용하여 생성된 뮤직비디오는 단조롭고 식상할 수 있다.
자동으로 다양한 카메라 워크를 구현하기 위해서는 로봇 카메라가 필요한데, 로봇 카메라는 이동 로봇에 카메라가 탑재된 형태이다. 로봇 카메라의 일례로, 방송용으로 주로 사용되는 Ross Video 사의 로봇 카메라 시스템인 Furio Robo와 같은 상용 제품이 있다. 그런데, 이러한 로봇 카메라는 일반인들이 제어하기 어려워, 전문가들이 전문적인 조작 프로그램 및 조작 장치를 이용하여 제어하는 것이 일반적이다.
피사체를 중심으로 카메라를 이동시키면 해당 경로에 따라 다양한 화각으로 촬영 할 수 있다. 따라서, 로봇 카메라의 이동 경로를 미리 편리하게 일반인들이 설정할 수 있는 기술이 요구된다. 또한, 카메라의 이동 속도에 따라 다양한 카메라 워크를 구현할 수 있어, 일반인들이 편리하게 로봇 카메라의 이동 속도를 미리 설정할 수 있는 기술이 요구된다. 이러한 다양한 화각 및 카메라 워크도 동영상 촬영시 언제 적용하느냐에 따라 생성되는 동영상은 다를 수 있다. 따라서, 로봇 카메라의 다양한 화각, 카메라 워크, 및 적용 시점을 일반인도 편리하게 미리 설정할 수 있는 유저 인터페이스가 요구된다.
Gay et al.의 미국 등록특허 제8,817,078호 "Augmented reality videogame broadcasting programming"은 해당 시간별 설정된 가상의 카메라 이동경로에 따라, 실제 카메라의 이동을 제어하는 방법에 대해 기술하고 있다. 그런데, 이러한 해당 시간별로 카메라의 이동경로를 일반인들이 전문적인 프로그램 없이 직접 구현하긴 여전히 어렵다. 또한 해당 시간을 편리하게 설정하는 방법에 대해서도 구체적으로 기술되어 있지 않다. 게다가, 다양한 카메라 워크를 적용하기 위한 카메라 속도 제어를 편리하게 하는 방법에 대해서도 기술하고 있지 않다.
미국 등록특허 제8,817,078호
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적과 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 터치스크린을 통해 입력받는 간단한 입력 환경을 제공하여, 카메라의 이동경로를 동기화 터치궤적을 통해 입력받아 일반 사용자가 편리하게 카메라의 화각을 설정할 수 있도록 하고, 또한, 카메라의 이동시점을 동기화 터치궤적을 통해 입력받고, 이동시점 시작 터치지점 및 이동시점 종료 터치지점의 간격에 따라 속도도 설정할 수 있도록 하여, 일반 사용자가 편리하게 이동 속도에 따른 다양한 카메라 워크와 적절한 이동시점 설정을 구현할 수 있는 유저 인터페이스를 제공하는 것을 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 카메라 경로설정 윈도우가 터치스크린의 디스플레이 영역의 85% 이상을 점유하고, 카메라 타이밍 설정 윈도우가 카메라 경로설정 윈도우 내부의 일측변 근처에 배치하여, 디스플레이 영역이 작은 스마트폰의 공간활용에 적합한 유저 인터페이스를 제공하고, 또한, 카메라 타이밍 설정 윈도우를 실질적으로 투명하게 하여 카메라 카메라 타이밍 설정 윈도우가 카메라 경로설정 윈도우의 기능도 할 수 있도록 하여 디스플레이 영역의 효율적인 사용을 가능하게 하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 줌 샘플을 디스플레이하고 터치 방식으로 선택할 수 있도록 하여, 각각의 이동시점에 대응하는 카메라의 줌 설정을 편리하게 하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 가상 카메라 이동경로 상에 카메라 팬(pan)을 위한 팬 터치궤적, 틸트(tilt) 터치궤적, 및 줌 터치궤적을 터치스크린을 통해 터치 방식으로 입력받도록 하여, 각각의 이동경로의 이동시점에 대응하는 팬동작, 틸트동작, 및 줌동작의 설정을 편리하게 하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하고, 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 확대 디스플레이하여, 이동시점을 이벤트와 정확히 매칭하도록 하고, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 입력받을 시에만 디스플레이하고, 레퍼런스 타임라인 윈도우를 카메라 경로설정 윈도우 내부의 일측변과 다른 일측변 근처에 형성하여, 좁은 스마트폰의 디스플레이 영역을 효율적으로 활용하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하고, 카메라 제어 데이터를 이벤트로서 레퍼런스 타임라인 윈도우에 포함시킨 후, 레퍼런스 타임라인 윈도우 상에 이벤트 시점변경 터치궤적을 입력받아 해당 이벤트의 시점을 변경하여, 다른 이벤트들의 시점들도 서로 맞추거나 시계열상 잘못 입력된 이벤트들의 시점을 간편하게 보정하여 보다 자연스러운 컨텐츠를 생성할 수 있도록 하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 가상 피사체를 상기 카메라 경로설정 윈도우 상에 디스플레이 하고, 가상 피사체를 카메라 제어 데이터를 이용하여 카메라 경로설정 윈도우 상에 애니메이션 하여, 사용자는 미리 카메라 워크의 결과를 시뮬레이션해 볼 수 있으며, 카메라의 이동경로와 동기화될 이동시간의 설정을 보다 편리하고 정확하게 할 수 있고, 결국, 다른 이벤트들과 대응되는 시점이 정확하여 자연스런 동영상 생성을 가능하게 하고, 애니메이션을 카메라 경로설정 윈도우의 빈 공간에 하여 스마트폰의 좁은 디스플레이 영역을 효과적으로 활용하는 것을 다른 목적으로 한다.
본 발명은 상기의 문제를 해결하기 위한 것으로 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치는 터치스크린; 프로세서; 및 카메라 설정 애플리케이션을 저장하는 저장모듈;을 포함하여 구성되는 사용자 단말장치에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우를 디스플레이하는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계; 상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점과 상기 이동시점 종료 터치지점을 이용하여 이에 매칭되는 실제 카메라 이동시점을 연산하는 단계; 및 상기 카메라 설정 애플리케이션이 상기 실제 카메라 이동경로 및 상기 실제 카메라 이동시점에 근거하여 카메라 제어 데이터를 생성하는 단계;를 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 상기 카메라 경로설정 윈도우는, 상기 카메라 설정 애플리케이션이 상기 제 1 동기화 터치궤적의 모양을 추가로 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계;를 포함하는 것을 특징으로 한다.
본 발명의 실시예에 따른 상기 카메라 경로설정 윈도우는, 상기 터치스크린의 디스플레이 영역의 85% 이상을 점유하는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 타이밍 설정 윈도우는, 상기 카메라 경로설정 윈도우 내부의 일측변 근처에 형성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 기 카메라 타이밍 설정 윈도우는, 실질적으로 투명한 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 터치스크린 상에 복수의 서로 다른 카메라 줌 샘플을 디스플레이하는 단계; 상기 복수의 서로 다른 카메라 줌 샘플 중 줌 샘플 터치지점을 상기 터치스크린을 통해 입력받는 단계; 상기 줌 샘플 터치지점을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및 상기 실제 카메라 줌동작에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 복수의 카메라 줌 샘플은, 풀샷(full shot) 이미지, 무릎샷(knee shot) 이미지, 웨이스트샷(waist shot) 이미지, 바스트샷(bust shot) 이미지, 및 클로즈업(close-up) 이미지 중 어느 하나 또는 그 조합을 포함하는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 터치스크린 상에 상기 가상 카메라 이동경로를 디스플레이하는 단계; 상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 팬(pan)을 위한 수평방향의 팬 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 팬 터치궤적을 이용하여 이에 매칭되는 실제 카메라 팬동작을 연산하는 단계; 상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 틸트(tilt)를 위한 수직방향의 틸트 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 틸트 터치궤적을 이용하여 이에 매칭되는 실제 카메라 틸트동작을 연산하는 단계; 상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 줌(zoom)을 위한 원형 방향의 줌 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 줌 터치궤적을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및 상기 실제 카메라 팬동작, 상기 실제 카메라 틸트동작, 및 상기 실제 카메라 줌 동작 중 적어도 어느 하나에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및 상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 상기 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계; 및 상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 레퍼런스 타임라인 윈도우 상에 이벤트 시점변경 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 및 상기 이벤트 시점변경 터치궤적을 이용하여 해당 이벤트의 시점을 변경하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및 상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되고, 상기 레퍼런스 타임라인 윈도우는 상기 카메라 경로설정 윈도우 내부의 상기 일측변과 다른 일측변 근처에 형성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 가상 피사체를 상기 카메라 경로설정 윈도우 상에 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명의 실시예에 따른 카메라 설정 애플리케이션은, 상기 프로세서가, 상기 가상 피사체를 상기 카메라 제어 데이터를 이용하여 상기 카메라 경로설정 윈도우 상에 애니메이션 하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 한다.
본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시점의 동기화를 위한 컴퓨터 구현 방법에 있어서, 카메라 설정 애플리케이션이 터치스크린 상에 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우를 디스플레이하는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 상기 카메라 설정 애플리케이션이 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계; 상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점과 상기 이동시점 종료 터치지점을 이용하여 이에 매칭되는 실제 카메라 이동시점을 연산하는 단계; 및 상기 카메라 설정 애플리케이션이 상기 실제 카메라 이동경로 및 상기 실제 카메라 이동시점에 근거하여 카메라 제어 데이터를 생성하는 단계;를 포함하는 것을 특징으로 한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적과 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 터치스크린을 통해 입력받는 간단한 입력 환경을 제공하여, 카메라의 이동경로를 동기화 터치궤적을 통해 입력받아 일반 사용자가 편리하게 카메라의 화각을 설정할 수 있도록 하고, 또한, 카메라의 이동시점을 동기화 터치궤적을 통해 입력받고, 이동시점 시작 터치지점 및 이동시점 종료 터치지점의 간격에 따라 속도도 설정할 수 있도록 하여, 일반 사용자가 편리하게 이동 속도에 따른 다양한 카메라 워크와 적절한 이동시점 설정을 구현할 수 있는 유저 인터페이스를 제공하는 효과를 제공한다. 한편, 이러한 단순한 2개의 윈도우 만을 통해 카메라를 제어할 수 있으므로, 복잡한 제어 인터페이스를 작은 디스플레이 영역을 갖는 스마트폰과 같은 장치에 적용할 수 없는 문제점을 해결하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 카메라 경로설정 윈도우가 터치스크린의 디스플레이 영역의 85% 이상을 점유하고, 카메라 타이밍 설정 윈도우가 카메라 경로설정 윈도우 내부의 일측변 근처에 배치하여, 디스플레이 영역이 작은 스마트폰의 공간활용에 적합한 유저 인터페이스를 제공하고, 또한, 카메라 타이밍 설정 윈도우를 실질적으로 투명하게 하여 카메라 카메라 타이밍 설정 윈도우가 카메라 경로설정 윈도우의 기능도 할 수 있도록 하여 디스플레이 영역의 효율적인 사용을 가능하게 하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 줌 샘플을 디스플레이하고 터치 방식으로 선택할 수 있도록 하여, 각각의 이동시점에 대응하는 카메라의 줌 설정을 편리하게 하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 가상 카메라 이동경로 상에 카메라 팬(pan)을 위한 팬 터치궤적, 틸트(tilt) 터치궤적, 및 줌 터치궤적을 터치스크린을 통해 터치 방식으로 입력받도록 하여, 각각의 이동경로의 이동시점에 대응하는 팬동작, 틸트동작, 및 줌동작의 설정을 편리하게 하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하고, 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 확대 디스플레이하여, 이동시점을 이벤트와 정확히 매칭하도록 하고, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 입력받을 시에만 디스플레이하고, 레퍼런스 타임라인 윈도우를 카메라 경로설정 윈도우 내부의 일측변과 다른 일측변 근처에 형성하여, 좁은 스마트폰의 디스플레이 영역을 효율적으로 활용하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하고, 카메라 제어 데이터를 이벤트로서 레퍼런스 타임라인 윈도우에 포함시킨 후, 레퍼런스 타임라인 윈도우 상에 이벤트 시점변경 터치궤적을 입력받아 해당 이벤트의 시점을 변경하여, 다른 이벤트들의 시점들도 서로 맞추거나 시계열상 잘못 입력된 이벤트들의 시점을 간편하게 보정하여 보다 자연스러운 컨텐츠를 생성할 수 있도록 하는 효과를 제공한다.
본 발명의 상기의 구성에 따라, 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 방법은, 가상 피사체를 상기 카메라 경로설정 윈도우 상에 디스플레이 하고, 가상 피사체를 카메라 제어 데이터를 이용하여 카메라 경로설정 윈도우 상에 애니메이션 하여, 사용자는 미리 카메라 워크의 결과를 시뮬레이션해 볼 수 있으며, 카메라의 이동경로와 동기화될 이동시간의 설정을 보다 편리하고 정확하게 할 수 있고, 결국, 다른 이벤트들과 대응되는 시점이 정확하여 자연스런 동영상 생성을 가능하게 하고, 애니메이션을 카메라 경로설정 윈도우의 빈 공간에 하여 스마트폰의 좁은 디스플레이 영역을 효과적으로 활용하는는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 사용자 단말장치를 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 카메라 설정 애플리케이션의 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우의 디스플레이 예시도.
도 3은 본 발명의 실시예에 따른 카메라가 이동할 수 있는 수직 평면(x-y 평면)을 도시하는 예시도.
도 4는 본 발명의 실시예에 따른 제 1 동기화 터치궤적을 터치스크린을 통해 입력받는 것을 도시하는 예시도.
도 5는 본 발명의 실시예에 따른 제 2 동기화 터치궤적을 터치스크린을 통해 입력받는 것을 도시하는 예시도.
도 6은 본 발명의 실시예에 따른 가상 카메라 이동경로를 도시하는 예시도.
도 7은 본 발명의 실시예에 따른 실제평면 및 실제 카메라의 이동경로를 도시하는 예시도.
도 8은 본 발명의 실시예에 따른 실제 타임라인 및 실제 카메라의 이동시점을 도시하는 예시도.
도 9는 본 발명의 다른 실시예에 따른 곡선 모양의 제 1 동기화 터치궤적을 터치스크린을 통해 입력받는 것을 도시하는 예시도.
도 10은 본 발명의 다른 실시예에 따른 이동시점 시작 터치지점과 이동시점 종료 터치지점 간의 간격이 짧은 제 2 동기화 터치궤적을 터치스크린을 통해 입력받는 것을 도시하는 예시도.
도 11은 본 발명의 다른 실시예에 따른 곡선 모양의 제 1 동기화 터치궤적을 이용한 가상 카메라 이동경로를 도시하는 예시도.
도 12는 본 발명의 다른 실시예에 따른 실제평면 및 실제 카메라의 이동경로를 도시하는 예시도.
도 13은 본 발명의 실시예에 이동시점 시작 터치지점 및 이동시점 종료 터치지점의 간격에 따른 속도 계산을 나타내는 예시도.
도 14는 본 발명의 다른 실시예에 따른 카메라 설정 애플리케이션의 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우의 디스플레이 예시도.
도 15는 본 발명의 다른 실시예에 따른 카메라 설정 애플리케이션의 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우의 디스플레이 예시도.
도 16은 본 발명의 실시예에 따른 카메라 줌샘플의 터치 입력을 구현하는 예시도.
도 17은 본 발명의 실시예에 따른 카메라의 팬 터치궤적 입력을 구현하는 예시도.
도 18은 본 발명의 실시예에 따른 카메라의 틸트 터치궤적 입력을 구현하는 예시도.
도 19는 본 발명의 실시예에 따른 카메라의 틸트 터치궤적 입력 위치에 줌 터치궤적 입력을 구현하는 예시도.
도 20은 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우 및 표식자의 디스플레이 예시도.
도 21은 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우 및 표식자의 확대 디스플레이 예시도.
도 22는 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우에 카메라 제어 데이터를 이벤트로서 포함하여 도시하는 예시도.
도 23은 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우의 이벤트의 시점을 변경하는 것을 도시하는 예시도.
도 24는 본 발명의 실시예에 따른 타이밍 설정 윈도우 및 레퍼런스 타임라인 윈도우를 서로 다른 일측에 디스플레이하는 예시도.
도 25는 본 발명의 실시예에 따른 투명한 타이밍 설정 윈도우 및 레퍼런스 타임라인 윈도우를 서로 다른 일측에 디스플레이하는 예시도.
도 26은 본 발명의 실시예에 따른 투명한 타이밍 설정 윈도우 및 확대된 레퍼런스 타임라인 윈도우를 서로 다른 일측에 디스플레이하는 예시도.
도 27은 본 발명의 실시예에 따른 카메라 경로설정 윈도우 상에 가상 피사체를 디스플레이하는 예시도.
도 28은 본 발명의 실시예에 따른 카메라 경로설정 윈도우 상에 줌샘플 터치지점을 터치 시 가상 피사체를 애니메이션하는 것을 디스플레이하는 예시도.
도 29는 본 발명의 실시예에 따른 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점 근처에 팬 터치궤적을 터치 입력시 가상 피사체를 애니메이션하는 것을 디스플레이하는 예시도.
도 30은 본 발명의 실시예에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법을 도시하는 흐름도.
도 31은 본 발명의 실시예에 따른 카메라 줌샘플의 터치 입력을 위한 컴퓨터 구현 방법을 도시하는 흐름도.
도 32는 본 발명의 실시예에 따른 카메라의 팬 터치궤적, 틸트 터치궤적, 및 줌 터치궤적의 입력을 위한 컴퓨터 구현 방법을 도시하는 흐름도.
도 33은 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우의 표식자 및 확대의 구현을 위한 컴퓨터 구현 방법을 도시하는 흐름도.
도 34는 본 발명의 실시예에 따른 레퍼런스 타임라인 윈도우의 이벤트의 시점 변경의 컴퓨터 구현 방법을 도시하는 흐름도.
도 35는 본 발명의 실시예에 따른 카메라 경로설정 윈도우 상에 가상 피사체 애니메이션의 컴퓨터 구현 방법을 도시하는 흐름도.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안 되며, 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.
명세서 전반에서 어떠한 부분이 어떤 구성요소를 "포함"한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 "..모듈", "..부", "..시스템" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.
이하에서는 도면을 참조하여 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치(100)을 설명한다.
도 1은 본 발명에 따른 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치(100)를 도시한다. 본 발명에 따른 사용자 단말장치(100)는 터치스크린(110), 프로세서(120), 저장모듈(130)을 포함하여 구성된다. 사용자 단말장치(100)는 예컨대 스마트폰, 태블릿 PC 등과 같은 범용적 정보처리 단말장치이거나 차량용 인포테인먼트 장치 또는 멀티미디어 파일을 재생하기 위한 동영상 플레이어 장치와 같은 특정기능에 특화된 정보처리 단말장치 등을 예시할 수 있다.
터치스크린(110)은 디스플레이 상에 형성되는 터치 감응식 유저 인터페이스를 위한 터치 감지장치를 포함하여 구성된다. 터치 감지장치는 사용자의 손가락을 포함하는 신체의 접촉 또는 스타일러스 펜과 같은 물체의 접촉을 감지하고, 일정 방향으로의 접촉점의 이동으로 구현되는 슬라이드 동작을 감지하는 기능을 수행한다. 본 명세서에서의 터치스크린(110)에 대한 접촉은 터치스크린(110) 표면에 대한 직접 접촉 뿐 아니라 터치스크린(110) 표면에 대한 10 mm 이내의 근접(근접 터치, hovering)을 포함한다. 터치스크린(110)의 구현방식은 특별히 제한되지 않으며 예컨대 정전용량방식 또는 저항막(resistive overlay)을 이용한 감압식으로 구현될 수 있고, 표면 초음파 또는 적외선을 이용한 방식 등으로 구현될 수 있다. 본 발명에서의 터치스크린(110)은 예컨대 랩탑 컴퓨터의 키보드 하단에 설치되는 터치패드 또는 터치 감응식 마우스 등과 같이 디스플레이와 결합되지 않는 터치 감응식 인터페이스는 포함하지 않는다.
프로세서(120)는 중앙처리장치 또는 모바일 프로세서(120)를 예시할 수 있으며 애플리케이션/프로그램의 명령어 집합에 따른 연산처리를 수행한다. 프로세서(120)는 단일의 연산처리장치 또는 복수개의 연산처리장치로 구성될 수 있다.
저장모듈(130)은 카메라 설정 애플리케이션(140)을 저장하는 기능을 수행하며, 카메라 설정 애플리케이션(140)을 위해 필요한 데이터를 저장하는 기능을 수행한다. 저장모듈(130)은 특별히 제한되지 않으며 메모리 소자, 자기적 저장매체, 광학적 저장매체 등으로 구현될 수 있다.
카메라 설정 애플리케이션(140)은 예컨대 다운로드를 통해 스마트폰에 설치되는 애플리케이션 또는 웹브라우저를 통해 구동될 수 있다. 카메라 설정 애플리케이션(140)은 사용자 단말장치(100)의 저장모듈(130)에 설치되고 프로세서(120)에 의해 구동되어 다음의 단계들을 프로세서(120)가 수행하도록 하는 명령어의 조합으로 구성된다. 카메라 설정 애플리케이션(140)에 의해 프로세서(120)는 다음의 단계들을 수행하게 된다. 이하에서는 도 2 및 도 28을 참조하여 각 단계를 상세히 설명한다.
먼저, 터치스크린(110) 상에 카메라 경로설정 윈도우(410) 및 카메라 타이밍 설정 윈도우(420)를 디스플레이하는 단계(s100)를 수행한다. 카메라 경로설정 윈도우(410)는 원격제어 가능한 카메라의 경로를 설정하기 위한 유저 인터페이스이다. 카메라 타이밍 설정 윈도우(420)는 원격제어 가능한 카메라의 특정 좌표에 대응하는 타이밍을 설정하기 위한 유저 인터페이스이다. 여기서 원격제어 가능한 카메라는 사용자 단말장치(100)에 통신모듈(150)을 통해 직접 연결되거나, 도 1에 도시된 바와 같이, 통신망을 거쳐서 연결될 수 있다. 즉, 사용자 단말장치(100)는 통신망을 거쳐서 자동 스튜디오에 구비된 자동 스튜디오 제어서버(200)에 연결된 카메라(210)와 연결되고, 카메라 설정 애플리케이션(140)을 이용하여 카메라(210)의 경로 및 타이밍을 설정할 수 있다. 카메라(210)는 동영상 촬영이 가능한 캠코더, 방송용 카메라, 스마트폰의 카메라 모듈일 수 있다. 또한, 카메라(210)는 별도의 이동 가능한 마운팅 장치에 탑재되어, 팬(pan) 및 틸트(tilt)를 구현할 수 있다.
한편, 카메라 경로설정 윈도우(410)는 카메라(210)가 실제로 이동할 수 있는 평면, 예컨대 도 7에 도시된 실제평면(510)에 대응하는 가상의 평면이다. 여기서 실제평면(510)은, 도 3에 도시된 바와 같이, 지면에서 수직인 평면(x-y 평면)이나, 여기에 한정되는 것은 아니다. 여기서 도 3의 카메라(210)는 피사체를 바라보며 x축 및 y축을 따라 이동가능하도록 설정되어 있다. 카메라 타이밍 설정 윈도우(420)는 카메라(210)가 실제로 이동하는 좌표에 대응하는 타이밍, 예컨대 도 8에 도시된 실제 타임라인(620)에 대응하는 가상의 타임라인이다.
일반적으로, 스마트폰과 같은 사용자 단말장치(100)는 디스플레이 영역이 크지 않다. 그런데, 카메라 경로설정 윈도우(410)는 2차원 정보, 즉, x좌표 및 y좌표를 평면 상에서 터치 방식으로 입력해야 하므로, 정확한 좌표 입력의 편의를 위해 그 크기가 가급적 큰 것이 바람직하다. 도 2에 도시된 바와 같이, 카메라 경로설정 윈도우(410)는 사용자 단말장치(100)의 디스플레이 영역의 대부분을 점유한다. 예컨대, 카메라 경로설정 윈도우(410)는 터치스크린(110)의 디스플레이 영역의 85% 이상을 점유할 수 있다. 한편, 도 2에 도시된 바와 같이, 카메라 타이밍 설정 윈도우(420)는 1차원 정보, 즉, 이동시점만 터치 방식으로 입력하면 되므로 터치스크린(110)의 디스플레이 영역의 공간을 최대한 적게 차지하면서도 정확한 타이밍 입력이 가능하도록, 예컨대, 가는 띠 형태로 구성하는 것이 바람직하다. 이러한 단순한 카메라 타이밍 설정 윈도우(420) 만으로 이동시점을 선택할 수 있으므로, 디스플레이 영역이 좁은 스마트폰에 적용하여도 터치 입력에 큰 장애가 되지 않는다.
단순히 빈 공간으로 구성된 카메라 경로설정 윈도우(410) 및 카메라 타이밍 설정 윈도우(420)를 이용하여, 사용자는 카메라(210)의 이동경로에 따른 속도도 편리하게 제어할 수 있다. 예컨대, 이동경로를 길게 터치하고, 이동시점을 짧게 터치하면 카메라(210)의 이동 속도는 빨라진다. 즉, 유저 인터페이스는 단순하지만, 이동경로의 길이 및 이동시점의 간격을 간단하게 변형하면, 다양한 카메라 화각 및 카메라 속도 제어가 가능하다.
도 14에 도시된 바와 같이, 카메라 타이밍 설정 윈도우(420)는 카메라 경로설정 윈도우(410) 내부의 일측변(416) 근처에 형성될 수 있다. 이 경우 터치스크린(110)의 디스플레이 영역의 공간을 더욱 절약할 수 있다. 카메라 타이밍 설정 윈도우(420)를 반투명하게 하거나, 카메라 타이밍 설정 윈도우(420)를 완전히 투명하게 하고 해당 일측변(416)에 식별표시를 하는 것도 가능하다. 또한, 사용자가 카메라 설정 애플리케이션(140)의 사용에 익숙해 질 경우, 도 15에 도시된 바와 같이, 카메라 타이밍 설정 윈도우(420)를 완전히 투명하게 하고, 해당 영역을 카메라 경로설정 윈도우(410)로 활용 하여, 터치스크린(110)의 디스플레이 영역을 최대한 활용할 수 있다. 카메라 타이밍 설정 윈도우(420)는 디스플레이 영역을 보다 잘 활용하기 위해, 도 24 내지 도 26에 기재된 바와 같이, 일측변(416)에 접할 수도 있다.
한편, 카메라 타이밍 설정 윈도우(420)를 투명하게 할 경우, 카메라 경로설정 윈도우(410) 내부의 일측변(416) 근처뿐만 아니라 나머지 측변 근처들에도 모두 배치하여, 사용자가 카메라 경로설정 윈도우(410)를 통한 터치 입력을 종료한 후, 가까운 일측변 근처에 배치된된 투명한 카메라 타이밍 설정 윈도우(420)를 통한 터치 입력을 할 수 있다. 따라서, 이러한 구성은 최단의 터치를 가능하게 하는 유저 인터페이스를 제공할 수 있다.
다음으로, 카메라 경로설정 윈도우(410) 상에 가상 카메라 경로 시작점(411)과 카메라 타이밍 설정 윈도우(420) 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점(423)을 포함하는 제 1 동기화 터치궤적(426)을 터치스크린(110)을 통해 입력받는 단계(s110)를 수행한다.
다음으로, 카메라 경로설정 윈도우(410) 상에 가상 카메라 경로 종료점(412)과 카메라 타이밍 설정 윈도우(420) 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점(425)을 포함하는 제 2 동기화 터치궤적(427)을 터치스크린(110)을 통해 입력받는 단계(s120)를 수행한다.
도 4에는 제 1 동기화 터치궤적(426)의 일례인 스와이프(swipe) 궤적이 도시되어 있다. 구체적으로, 손가락으로 가상 카메라 경로 시작점(411)을 터치하면서 손가락을 떼지 않고 이동시점 시작 터치지점(423)까지 이동한 후 손가락을 떼는 동작이 도시되어 있다. 제 1 동기화 터치궤적(426)의 일례로 스와이프 궤적 외에, 도시되지는 않았지만, 복수의 터치 궤적도 가능하다. 구체적으로, 손가락으로 가상 카메라 경로 시작점(411)을 터치하고 손가락을 떼고, 이동시점 시작 터치지점(423)을 터치하고 손가락을 뗄 수 있다. 제 1 동기화 터치궤적(426)의 일례로 스와이프 궤적 및 터치 궤적의 조합도 가능하며, 다른 형태의 궤적도 가능하다. 여기서 제 1 동기화 터치궤적(426)은 카메라(210)의 전체 이동경로 및 이동시점의 일부 일 수 있으며 다양한 동기화 터치궤적이 전체 이동경로 및 이동시점을 구성할 수 있다. 도 5에는 제 2 동기화 터치궤적(427)의 일례가 도시되어 있고, 자세한 설명은 제 1 동기화 터치궤적(426)과 유사하므로 생략한다.
가상 카메라 경로 시작점(411)과 가상 카메라 경로 종료점(423)을 이용하여 이에 매칭되는 실제 카메라 이동경로(414)를 연산하는 단계(s200)를 수행한다.
도 6 및 도 7에 도시된 바와 같이, 실제평면(510) 상의 실제 카메라 이동경로(414)를 구하기 위해서는, 가상의 평면에 해당하는 카메라 경로설정 윈도우(410) 상에서 입력받은 가상 카메라 경로 시작점(411)과 가상 카메라 경로 종료점(423)을 연결한 직선 형태의 가상 카메라 이동경로(413)를 구한 뒤, 해당 스케일로 변환하면 쉽게 얻을 수 있다.
한편, 도 12에 도시된 바와 같이, 곡선 모양의 궤적을 갖는 실제 카메라 이동경로(414)를 구하기 위해서는, 도 9에 도시된 바와 같이 곡선 모양의 제 1 동기화 터치궤적(426)을 터치 스크린(110)을 통해 입력받는다. 이후에, 도 11에 도시된 바와 같이, 이동시점 시작 터치지점(423)이 가상 카메라 경로 종료점(423)과 만나도록 제 1 동기화 터치궤적(426)을 가상 카메라 경로 시작점(411)을 중심으로 회전 및 해당 스케일로 확대 또는 축소한다. 한편, 제 1 동기화 터치궤적(426)을 입력 시 가상 카메라 이동경로(413)의 모양을 반영하지 않는 경우, 직선 형태의 가상 카메라 이동경로(413) 상의 일부분을 터치하고 잡아당겨 곡선 형태의 가상 카메라 이동경로(413)로 추후에 변경하는 것도 가능하다.
이동시점 시작 터치지점(423)과 이동시점 종료 터치지점(425)을 이용하여 이에 매칭되는 실제 카메라 이동시점(424)을 연산하는 단계(s210)를 수행한다.
도 8에 도시된 실제 타임라인(620) 상의 실제 카메라 이동시점(424)을 계산하기 위해, 이동시점 시작 터치지점(423)과 이동시점 종료 터치지점(425)의 카메라 타이밍 설정 윈도우(420)의 전체 폭에 대한 상대적 비율을 먼저 계산한다. 실제 타임라인(620)의 기 설정된 전체 시간에 계산된 상대적 비율을 곱하면 실제 카메라 이동시점(424)을 계산할 수 있다.
예컨대, 가상 카메라 이동경로(413)의 길이가 5cm이고, 스케일이 50배 축소인경우, 실제 카메라 이동경로(414)의 길이는 2.5m가 된다. 카메라 타이밍 설정 윈도우(420)의 길이가 10cm이고 전체 촬영 시간이 10분이면, 도 13에 도시된 바와 같이 이동시점 시작 터치지점(423)과 이동시점 종료 터치지점(425) 간의 길이가 2cm인 경우(Case: 1, 도 5)와 1cm인 경우(Case: 1, 도 10)에 따라 속도를 다르게 설정할 수 있다. 결국, 사용자가 간편하게 각각의 가상 카메라 이동경로(413)마다 다양한 속도를 설정할 수 있어서, 다양한 카메라 워크를 생성할 수 있다.
한편, 카메라 타이밍 설정 윈도우(420)에서 터치 입력을 먼저 입력받을 경우, 실제카메라 이동경로(414)보다 실제 카메라 이동시점(424)을 먼저 계산할수도 있다.
다음으로, 실제 카메라 이동경로(414) 및 실제 카메라 이동시점(424)에 근거하여 카메라 제어 데이터를 생성하는 단계(s300)를 수행한다. 카메라 제어 데이터는 카메라(210)의 동작을 정의하는 제어신호들의 집합으로 구성된다. 여기서 생성된 카메라 제어 데이터는 저장모듈(130) 또는 다른 저장장치에 저장되어, 동영상 촬영 전문가 없이 원격 제어 가능한 카메라(210)를 제어하여 사용자가 자동으로 동영상을 만들 수 있도록 할 수 있다.
지금까지는 카메라(210) 전체가 한 평면에서 이동할 수 있도록 하는 카메라 제어에 대해서 설명했지만, 보다 다양한 촬영효과를 위해 카메라의 줌 설정을 제어하는 방법에 대해 설명한다. 이하에서는 도 31을 참조하여 각 단계를 상세히 설명한다.
우선, 터치스크린(110) 상에 복수의 서로 다른 카메라 줌 샘플(430)을 디스플레이하는 단계(s400)를 수행한다. 도 16에 도시된 바와 같이, 카메라 줌 샘플(430)은 동일 피사체의 풀샷(full shot) 이미지, 무릎샷(knee shot) 이미지, 웨이스트샷(waist shot) 이미지, 바스트샷(bust shot) 이미지, 및 클로즈업(close-up) 이미지를 포함한다.
다음으로, 복수의 서로 다른 카메라 줌 샘플(430) 중 줌 샘플 터치지점(431)을 터치스크린(110)을 통해 입력받는 단계(s410)를 수행한다. 도 16에는 풀샷 이미지를 터치하는 동작이 도시되어 있지만, 추가로 다른 샘플을 터치할 수 있다. 복수의 카메라 줌 샘플(430)이 입력된 경우, 해당 실제 카메라 이동경로(414) 및 실제 카메라 이동시점(424)과 동기화된다. 예컨대, 복수의 카메라 줌 샘플(430)이 스와이프 동작으로 입력된 경우, 복수의 카메라 줌 샘플(430) 사이의 줌 크기는 연속적으로 커지거나 작아질 수 있다.
다음으로, 줌 샘플 터치지점(431)을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계(s420)를 수행한다. 카메라마다 이미지 센서의 크기 및 렌즈의 스펙이 다르므로, 카메라마다 미리 설정된 이미지 센서의 크기 및 렌즈 스펙을 참조하여, 입력받은 샘플 터치지점(431)에 대응하는 각각의 줌 샘플(430) 별로 실제 카메라 줌동작을 계산한다.
다음으로, 실제 카메라 줌동작에 추가로 근거하여 카메라 제어 데이터를 생성하는 단계(s310)를 수행한다.
한편, 복수의 서로 다른 카메라 줌 샘플(430)은 터치스크린(110)의 디스플레이 영역을 절약하기 위해 가상 카메라 경로 시작점(411), 가상 카메라 경로 종료점(412), 이동시점 시작 터치지점(423), 및 이동시점 종료 터치지점(425)을 입력받은 직후 터치스크린(110) 상에 자동으로 디스플레이되게 하고, 줌 샘플 터치지점(431)을 입력받은 후 사라지게 할 수 있다. 반대로, 가상 카메라 경로 시작점(411), 가상 카메라 경로 종료점(412), 이동시점 시작 터치지점(423), 및 이동시점 종료 터치지점(425)을 입력받기 전에, 터치스크린(110) 상에 복수의 서로 다른 카메라 줌 샘플(430)을 디스플레이하고, 줌 샘플 터치지점(431)을 입력받은 후 사라지게 할 수 있다. 이러한 줌 샘플(430)의 디스플레이 방식은 부가적으로 터치스크린(110) 상의 디스플레이 영역을 깔끔하게 유지할 수 있도록 한다.
줌 샘플(430) 외에, 카메라의 초점을 다양하게 구현한 카메라 초점 샘플을 터치 동작으로 입력받는 단계도 수행할 수 있다. 다양한 카메라 효과를 구현하기 위해, 해당 카메라별로 지원하는 다양한 기능도 미리 설정할 수 있다.
한 평면에서의 x축 및 y축에 대한 카메라(210)의 위치 제어에 대해서 전술했지만, 보다 다양한 카메라 워크를 구현하기 위해, 카메라(210)의 팬(pan), 틸트(tilt), 및 줌을 제어하는 방법에 대해 설명한다. 이하에서는 도 17 내지 19 및 도 32를 참조하여 각 단계를 상세히 설명한다.
우선, 터치스크린(110) 상에 가상 카메라 이동경로(413)를 디스플레이하는 단계(s500)를 수행한다.
다음으로, 터치스크린(110) 상에 디스플레이된 가상 카메라 이동경로(413) 상에 카메라 팬(pan)을 위한 수평방향의 팬 터치궤적(440)을 터치스크린(110)을 통해 입력받는 단계(s510, s511)를 수행한다. 도 17에 도시된 바와 같이, 팬 터치궤적(440)의 일례인 수평 방향의 스와이프 궤적이 도시되어 있다. 구체적으로, 손가락으로 가상 카메라 경로 시작점(411)의 왼쪽 부분을 터치하면서 손가락을 떼지 않고 가상 카메라 경로 시작점(411)의 오른쪽 부분까지 이동한 후 손가락을 떼는 동작이 도시되어 있다. 여기서 가상 카메라 경로 시작점(411)의 왼쪽 부분에서 오른쪽 부분까지의 거리는 카메라 팬의 각도에 해당하고, 왼쪽에서 오른쪽으로의 스와이프 방향은 카메라 팬의 방향에 해당한다. 스와이프 동작 이외에 두 지점을 터치하는 동작도 가능하며, 이외의 다른 터치 동작도 가능하다. 한편, 팬의 회전 속도에 대해서는 구체적으로 설명하지 않았지만, 스와이프 동작의 속도 및 두 지점을 터치하는 동작의 속도도 측정하여 활용할 수 있고, 기 설정된 속도를 활용할 수도 있다.
다음으로, 팬 터치궤적(440)을 이용하여 이에 매칭되는 실제 카메라 팬동작을 연산하는 단계(s520)를 수행한다. 카메라 팬의 각도 및 방향을 모두 팬 터치궤적(440)을 통해 바로 계산할 수 있다. 실제 카메라 팬동작에 팬의 회전 속도가 추가될 경우, 그 회전 속도는 상술한 스와이프 동작의 속도 또는 두 지점을 터치하는 동작의 속도를 일정 비율로 스케일하여 계산할 수 있다.
다음으로, 터치스크린(110) 상에 디스플레이된 가상 카메라 이동경로(413) 상에 카메라 틸트(tilt)를 위한 수직방향의 틸트 터치궤적(450)을 터치스크린(110)을 통해 입력받는 단계(s600)를 수행한다. 도 18에 도시된 바와 같이, 틸트 터치궤적(450)의 일례인 수직 방향의 스와이프 궤적이 도시되어 있다. 구체적으로, 손가락으로 가상 카메라 이동경로(413)의 특정 부위 위쪽 부분을 터치하면서 손가락을 떼지 않고 특정 부위 아래쪽 부분까지 이동한 후 손가락을 떼는 동작이 도시되어 있다. 여기서 특정 부위의 위쪽 부분에서 아래쪽 부분까지의 거리는 카메라 틸트의 각도에 해당하고, 위쪽에서 아래쪽으로의 스와이프 동작은 카메라 틸트의 방향에 해당한다. 스와이프 동작 이외에 두 지점을 터치하는 동작도 가능하며, 이외의 다른 터치 동작도 가능하다. 한편, 틸트의 회전 속도에 대해서는 구체적으로 설명하지 않았지만, 스와이프 동작의 속도 및 두 지점을 터치하는 동작의 속도도 측정하여 활용할 수 있고, 기 설정된 속도를 활용할 수도 있다.
다음으로, 틸트 터치궤적(450)을 이용하여 이에 매칭되는 실제 카메라 틸트동작을 연산하는 단계(s610)를 수행한다. 카메라 틸트의 각도 및 방향을 모두 틸트 터치궤적(450)을 통해 바로 계산할 수 있다. 실제 카메라 틸트동작에 틸트의 회전 속도가 추가될 경우, 그 회전 속도는 상술한 스와이프 동작의 속도 및 두 지점을 터치하는 동작의 속도를 일정 비율로 스케일하여 계산할 수 있다.
다음으로, 터치스크린(110) 상에 디스플레이된 가상 카메라 이동경로(413) 상에 카메라 줌(zoom)을 위한 원형 방향의 줌 터치궤적(460)을 터치스크린(110)을 통해 입력받는 단계(s700)를 수행한다. 도 19에 도시된 바와 같이, 줌 터치궤적(460)의 일례인 원형 방향의 스와이프 궤적이 도시되어 있다. 여기서는 가상 카메라 이동경로(413) 상의 특정 위치에 틸트 터치궤적(450)과 줌 터치궤적(460)을 같이 입력한다. 구체적으로, 손가락으로 가상 카메라 이동경로(413)의 특정 부위 아래쪽 일 부분을 터치하면서 손가락을 떼지 않고 시계방향으로 특정 각도만큼 회전 이동한 후 손가락을 떼는 동작이 도시되어 있다. 여기서 특정 각도는 카메라 줌의 정도에 해당하고, 시계방향의 스와이프 동작은 카메라 줌의 확대 모드 또는 축소 모드에 해당한다. 원형 방향의 스와이프 동작 이외에 다른 터치 동작도 가능하다. 한편, 줌의 속도에 대해서는 구체적으로 설명하지 않았지만, 원형 방향의 스와이프 동작의 속도를 측정하여 활용할 수 있고, 기 설정된 속도를 활용할 수도 있다.
다음으로, 줌 터치궤적(460)을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계(s710)를 수행한다. 카메라 줌의 정도는 줌 터치궤적(460)의 각도와 카메라의 렌즈 스펙을 참조하고, 확대 또는 축소 모드의 선택은 줌 터치궤적(460)의 방향을 통해 바로 계산할 수 있다. 실제 카메라 줌동작에 줌의 회전 속도가 추가될 경우, 그 회전 속도는 상술한 스와이프 동작의 속도를 일정 비율로 스케일하여 계산할 수 있다.
도 17 및 도 18에는 수평 방향의 스와이프 동작인 팬 터치궤적(440) 및 수직 방향의 스와이프 동작인 틸트 터치궤적(450)이 도시되어 있지만, 한 번의 사선 방향의 스와이프 동작을 통해 동시에 카메라(210)의 팬동작과 틸트동작을 제어할 수 있는 사선 방향의 터치궤적도 구현 가능하다. 결국, 사선 방향의 터치궤적을 이용하여 사선 방향의 카메라 이동 제어를 손쉽게 구현할 수 있다. 한편, 피사체가 예상 밖의 위치로 이동할 수도 있으므로, 자동으로 항상 카메라가 피사체를 향하도록 할 수도 있다. 구체적으로, 추적 모드를 터치 방식으로 구현하여, 예컨대, 기 설정된 두 손가락 탭 동작 또는 두 손가락 스와이프 동작과 같은 터치 동작을 입력받아, 동작 감지 센서를 통해 피사체를 추적하도록 할 수 있다. 동작감지를 위해, 깊이 측정(depth-sensing) 기능이 있는 비디오카메라를 사용하는 것도 가능하다. 영상의 깊이 측정방식은 Microsoft사의 Kinnect 및 Intel사의 RealSense Camera를 통해 상용화된 적외선 패턴 인식 방식을 통해 구현하거나 Lytro사에 의해 상용화된 마이크로 렌즈 어레이(Micro Lens Array)를 통한 라이트필드(Light Field) 방식을 예시할 수 있다. 일반적인 멀티 카메라 방식에 의한 깊이 측정의 경우 별도의 센서가 필요하지 않을 수도 있다. 이때 얻어진 좌표로 자동으로 카메라(210)의 팬동작 및 틸트동작을 제어하여 카메라(210)가 항상 피사체를 향하도록 구현할 수 있다.
다음으로, 실제 카메라 팬동작, 실제 카메라 틸트동작, 및 실제 카메라 줌동작 중 적어도 어느 하나에 추가로 근거하여 카메라 제어 데이터를 생성하는 단계(s320)를 수행한다.
한편, 실제 카메라 팬동작, 실제 카메라 틸트동작, 및 실제 카메라 줌동작은 모두 카메라 경로설정 윈도우(410) 상의 가상 카메라 이동경로(413)을 참조하여 터치 동작을 입력받아 생성되지만, 카메라 타이밍 설정 윈도우(420) 상의 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)을 참조하여 터치 동작을 입력받아 생성될 수도 있다. 이 경우 카메라 타이밍 설정 윈도우(420)의 크기 제한 때문에, 터치 동작은 카메라 타이밍 설정 윈도우(420)를 벗어나서 터치스크린(110)을 통해 입력받을 수도 있다.
일반적으로 동영상 촬영은 단독으로 영상만 촬영하는 것이 아니고, 어떤 주제를 최대한 효과적으로 표현하기 위해 배경, 음악, 및 조명을 적극적으로 활용한다. 이에 따라, 삽입되는 음악 및 배경, 촬영 시 이용되는 조명을 참조하여 카메라 워크를 설정하는 것이 바람직하다. 실제 카메라의 이동시점(424)에 해당하는 카메라 타이밍 설정 윈도우(420) 상의 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)을 결정하기 위해 참조 데이터를 활용하는 방법에 대해 설명한다. 이하에서는 도 33을 참조하여 각 단계를 상세히 설명한다.
우선, 도 20에 도시된 바와 같이, 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)을 각각 입력받을 시, 터치스크린(110) 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우(470)를 디스플레이하는 단계(s800)를 수행한다. 레퍼런스 타임라인 윈도우(470)는 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)을 입력받을 때마다 각각 디스플레이할 수도 있고, 이동시점 시작 터치지점(423)을 입력받을 때 디스플레이 상태를 유지하다가 이동시점 종료 터치지점(425)을 입력받고 사용자의 손이 터치스크린(110)에서 떨어지면 디스플레이하지 않을 수도 있다. 여기서 이벤트들은 도 24에 도시된 바와 같이 레퍼런스 타임라인 윈도우(470)의 첫 번째 행에 나열된 배경화면, 두 번째 행에 나열된 배경음악의 볼륨 크기 및 피치의 높낮이, 세 번째 행에 나열된 조명의 방향 등이 있다. 각 행에 나열된 이벤트들은 예시에 불과하며, 레퍼런스 타임라인 윈도우(470)는 다양한 이벤트를 포함할 수 있다.
다음으로, 입력받은 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)과 매칭되는 실제 카메라 이동시점(424)에 해당하는 이벤트 상에 표식자(471)를 디스플레이하는 단계(s810)를 수행한다. 표식자(471)는 사용자의 손이 터치스크린(110)에서 떨어지기 전까지 사용자의 손이 움직임에 따라 같이 움직일 수 있다. 이전의 사용자의 터치에 해당하는 표식자(471)는 현재 사용자의 터치에 해당하는 표식자(471)와 구별되게, 예컨대, 점선으로 디스플레이할 수 있다.
레퍼런스 타임라인 윈도우(470)는 다양한 이벤트들이 시계열상으로 모두 나열되어 디스플레이 된다. 따라서, 스마트폰과 같은 소형의 사용자 단말장치(100)의 터치스크린(110)에 레퍼런스 타임라인 윈도우(470)를 모두 디스플레이 하기에는 가독성이 떨어질 수 있다. 이 경우, 도 21에 도시된 바와 같이, 표식자(471)를 중심으로 레퍼런스 타임라인 윈도우(470)를 확대하여 디스플레이하는 단계(s810)를 수행한다. 가독성의 판단 기준을 미리 설정하여 자동으로 레퍼런스 타임라인 윈도우(470)를 확대하여 디스플레이하는 단계(s810)를 수행할 수도 있고, 사용자의 특별한 터치 동작, 예컨대, 두손가락 스와이프, 멀티 터치와 같은 추가 입력을 통해 레퍼런스 타임라인 윈도우(470)를 확대하여 디스플레이하는 단계(s810)를 수행할 수도 있다. 레퍼런스 타임라인 윈도우(470)가 확대될 경우 또는 확대되지 않는 경우라도, 카메라 타이밍 설정 윈도우(420)를 확대하여 보다 정교한 터치 입력을 가능하게 할 수 있다.
상술한 단계를 거쳐 생성된 카메라 제어 데이터도 결국 실제 카메라 촬영 시 일어날 이벤트들 중 하나일 수 있으므로, 레퍼런스 타임라인 윈도우(470)에 카메라 제어 데이터(490)를 이벤트로서 포함시킬 수 있다. 따라서, 도 22 및 도 33에 도시된 바와 같이, 카메라 제어 데이터(490)를 이벤트로서 레퍼런스 타임라인 윈도우(470)에 포함시키는 단계(s830)를 수행한다. 도 22에 도시된 바와 같이, 카메라 제어 데이터(490)는 사용자가 쉽게 인식할 수 있는 형태인 카메라 제어 이벤트(491)로 표현된다.
그런데, 카메라 제어 데이터를 레퍼런스 타임라인 윈도우(470)의 특정 이벤트에 맞추어 설정하였지만, 다른 이벤트와 시점이 맞지 않아 생성될 동영상이 어색할 수 있을 경우 그 이벤트의 시점을 변경할 필요가 있다. 레퍼런스 타임라인 윈도우(470)의 특정 이벤트를 변경하는 방법에 대해 설명한다. 이하에서는 도 34를 참조하여 각 단계를 상세히 설명한다.
우선, 도 23에 도시된 바와 같이 레퍼런스 타임라인 윈도우(470) 상에 이벤트 시점변경 터치궤적(472)을 터치스크린(110)을 통해 입력받는 단계(s840)를 수행한다. 사용자의 손가락이 이벤트의 하나인 드럼 배경이미지를 터치하고 화살표 방향으로 이동시켜 터치궤적(472)을 생성한다.
다음으로, 이벤트 시점변경 터치궤적(472)을 이용하여 해당 이벤트의 시점을 변경하는 단계(s850)를 수행한다. 이벤트의 시점을 변경한 후, 드럼 배경이미지를 변경된 이벤트의 시점에 따라 이동시킬 수 있다.
한편, 터치스크린(110)의 디스플레이 영역이 넓지 않은 스마트폰 같은 경우, 다양한 이벤트를 모두 나열하여 표시하는 레퍼런스 타임라인 윈도우(470)는 디스플레이 영역의 대부분을 차지할 수 있다. 따라서, 도 24에 도시된 바와 같이 카메라 타이밍 설정 윈도우(420)를 카메라 경로설정 윈도우(410) 내부의 일측변(416) 근처에 형성하고, 레퍼런스 타임라인 윈도우(470)는 일측변(416) 근처와 다른 카메라 경로설정 윈도우(410) 내부의 일측변(417) 근처에 형성하여 터치스크린(110)의 좁은 디스플레이 영역을 잘 활용할 수 있다. 이 경우, 도 25에 도시된 바와 같이, 타이밍 설정 윈도우(420)를 일측변(416)과 다른 일측변(417)에 투명하게 형성할 경우 디스플레이 영역을 더 잘 활용할 수 있다. 게다가, 도 26에 도시된 바와 같이, 표식자(471)를 중심으로 레퍼런스 타임라인 윈도우(470)를 확대하여 디스플레이하여 레퍼런스 타임라인 윈도우(470)의 가독성을 높일 수도 있다.
한편, 카메라 경로설정 윈도우(410)는 터치스크린(110)의 디스플레이 영역의 대부분을 차지하지만, 가상 카메라 경로 시작점(411) 및 가상 카메라 경로 종료점(412)이 입력되는 공간 및 일측변 근처에 위치할 수 있는 이동시점 시작 터치지점(423) 및 이동시점 종료 터치지점(425)이 입력되는 공간 이외의 공간은 거의 사용되지 않는다. 따라서, 이 사용되지 않는 공간을 카메라의 이동경로와 이동시간의 동기화를 사용자가 보다 편리하게 할 수 있도록 적절히 활용하는 것이 바람직하다. 경로설정 윈도우(410) 상의 빈 공간을 활용하는 방법에 대해 설명한다. 이하에서는 도 35를 참조하여 각 단계를 상세히 설명한다.
우선, 도 35에 도시된 바와 같이, 가상 피사체(480)를 카메라 경로설정 윈도우(410) 상에 디스플레이하는 단계(s900)를 수행한다. 도 27에는 가상 피사체(480)가 1개 도시되어 있지만, 촬영 상황에 따라서, 복수의 가상 피사체(480)를 카메라 경로설정 윈도우(410) 상에 디스플레이할 수 있다. 여기서 가상 피사체(480)의 크기 및 위치는 카메라(210)의 촬상소자에 촬영될 실제 피사체의 크기 및 위치와 유사하게 설정하는 것이 바람직하다.
다음으로, 가상 피사체(480)를 카메라 제어 데이터(490)를 이용하여 카메라 경로설정 윈도우(410) 상에 애니메이션 하는 단계(s910)를 수행한다. 도 28에 도시된 바와 같이, 사용자의 손가락이 카메라 줌 샘플(430) 중 어느 하나의 줌샘플 터치지점(431)을 터치하면, 가상 피사체(480)의 크기가 터치지점(431)에 대응하는 카메라 줌 샘플(430)에 대응하도록 애니메이션될 수 있다. 또한, 도 29에 도시된 바와 같이, 사용자의 손가락이 가상 카메라 경로 종료점(412) 근처에 수평방향의 팬 터치궤적(440)을 남기고 손가락을 때면, 가상 피사체(480)가 가상 카메라 이동경로(413) 및 팬 터치궤적(440)에 대응하도록 애니메이션될 수 있다. 구체적으로, 가상의 카메라가 우측 하단으로 이동함에 따라 가상 피사체(480)는 좌측으로 이동하고, 이후 가상의 카메라의 팬동작에 따라, 도 29에 도시된 바와 같이, 가운데로 이동할 수 있다. 이와 같은 애니메이션 효과를 통해 사용자는 미리 카메라 워크의 결과를 실시간으로 볼 수 있으며, 카메라의 이동경로와 동기화될 이동시간의 설정을 보다 편리하고 정확하게 할 수 있다. 결국, 다른 이벤트들과 대응되는 시점이 정확하여 자연스런 동영상 생성을 가능하게 하는 카메라 제어 데이터를 얻을 수 있다.
한편, 레퍼런스 타임라인 윈도우(470)에 재생 기능을 추가할 수 있다. 재생 기능을 통해 레퍼런스 타임라인 윈도우(470)에 포함된 이벤트들을 실제로 구현할 수 있다. 예컨대, 사용자는 재생 기능을 통해, 도 1에 도시된, 자동 스튜디오 제어서버(200)에 연결된 카메라(210), 조명(220), 및 오디오 장치(230)를 실제로 레퍼런스 타임라인 윈도우(470)에 나열된 순서대로 구현할 수 있다. 따라서, 사용자는 카메라 제어 데이터를 생성 도중이거나 생성 후에 다른 이벤트들과 조화로운지, 원하는 카메라 효과가 제대로 구현되는지 미리 확인할 수 있다. 사용자는 필요에 따라 해당 이벤트의 시점 조정을 통해 보다 자연스럽고 전문적인 동영상을 생성할 수 있다. 직접적으로 이벤트들을 실제로 구현할 수도 있지만, 간접적으로 구현하는 것도 가능하다. 이 경우, 가상 피사체(480)의 애니메이션 기능과 연동하여 가상 피사체(480)를 애니메이션하면서, 레퍼런스 타임라인 윈도우(470)에 포함된 조명에 대응하는 가상의 조명 및 레퍼런스 타임라인 윈도우(470)에 포함된 배경 이미지를 터치스크린(110)의 카메라 경로설정 윈도우(410)에 디스플레이하고, 배경 음악은 사용자 단말장치(100)의 오디오 장치를 이용하여 재생할 수 있다.
본 명세서에서의 발명의 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.
사용자 단말장치(100) 터치스크린(110)
프로세서(120) 저장모듈(130)
카메라 설정 애플리케이션(140) 카메라(210)
카메라 경로설정 윈도우(410) 가상 카메라 경로 시작점(411)
가상 카메라 경로 종료점(412) 가상 카메라 이동경로(413)
실제 카메라 이동경로(414)
카메라 경로설정 윈도우의 일측변(416)
카메라 경로설정 윈도우의 다른 일측변(417)
카메라 타이밍 설정 윈도우(420) 이동시점 시작 터치지점(423)
이동시점 종료 터치지점(424) 실제 카메라 이동시점(424)
제 1 동기화 터치궤적(426) 제 2 동기화 터치궤적(427)
카메라 줌 샘플(430) 줌샘플 터치지점(431)
팬 터치궤적(440) 틸트 터치궤적(450)
줌 터치궤적(460) 레퍼런스 타임라인 윈도우(470)
표식자(471) 이벤트 시점변경 터치궤적(472)
가상 피사체(480)카메라 제어 데이터(490)

Claims (34)

  1. 터치스크린;
    프로세서; 및
    카메라 설정 애플리케이션을 저장하는 저장모듈;을 포함하여 구성되는 사용자 단말장치에 있어서,
    상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우를 디스플레이하는 단계;
    상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계;
    상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점과 상기 이동시점 종료 터치지점을 이용하여 이에 매칭되는 실제 카메라 이동시점을 연산하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 실제 카메라 이동경로 및 상기 실제 카메라 이동시점에 근거하여 카메라 제어 데이터를 생성하는 단계;를 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  2. 제 1 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 제 1 동기화 터치궤적의 모양을 추가로 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계;를 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  3. 제 1 항에 있어서, 상기 카메라 경로설정 윈도우는,
    상기 터치스크린의 디스플레이 영역의 85% 이상을 점유하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  4. 제 3 항에 있어서, 상기 카메라 타이밍 설정 윈도우는,
    상기 카메라 경로설정 윈도우 내부의 일측변 근처에 형성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  5. 제 4 항에 있어서, 상기 카메라 타이밍 설정 윈도우는,
    실질적으로 투명한 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  6. 제 1 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 터치스크린 상에 복수의 서로 다른 카메라 줌 샘플을 디스플레이하는 단계;
    상기 복수의 서로 다른 카메라 줌 샘플 중 줌 샘플 터치지점을 상기 터치스크린을 통해 입력받는 단계;
    상기 줌 샘플 터치지점을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및
    상기 실제 카메라 줌동작에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  7. 제 6 항에 있어서, 상기 복수의 카메라 줌 샘플은,
    풀샷(full shot) 이미지, 무릎샷(knee shot) 이미지, 웨이스트샷(waist shot) 이미지, 바스트샷(bust shot) 이미지, 및 클로즈업(close-up) 이미지 중 어느 하나 또는 그 조합을 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  8. 제 1 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 터치스크린 상에 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 포함하는 가상 카메라 이동경로를 디스플레이하는 단계;
    상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 팬(pan)을 위한 수평방향의 팬 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 팬 터치궤적을 이용하여 이에 매칭되는 실제 카메라 팬동작을 연산하는 단계;
    상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 틸트(tilt)를 위한 수직방향의 틸트 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 틸트 터치궤적을 이용하여 이에 매칭되는 실제 카메라 틸트동작을 연산하는 단계;
    상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 줌(zoom)을 위한 원형 방향의 줌 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 줌 터치궤적을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및
    상기 실제 카메라 팬동작, 상기 실제 카메라 틸트동작, 및 상기 실제 카메라 줌 동작 중 적어도 어느 하나에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  9. 제 1 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및
    상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  10. 제 9 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  11. 제 9 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  12. 제 8 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계;
    상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계; 및
    상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  13. 제 11 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 레퍼런스 타임라인 윈도우 상에 이벤트 시점변경 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 및
    상기 이벤트 시점변경 터치궤적을 이용하여 해당 이벤트의 시점을 변경하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  14. 제 4 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및
    상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되고,
    상기 레퍼런스 타임라인 윈도우는 상기 카메라 경로설정 윈도우 내부의 상기 일측변과 다른 일측변 근처에 형성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  15. 제 14 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  16. 제 1 항 또는 제 8 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    가상 피사체를 상기 카메라 경로설정 윈도우 상에 디스플레이하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  17. 제 16 항에 있어서, 상기 카메라 설정 애플리케이션은, 상기 프로세서가,
    상기 가상 피사체를 상기 카메라 제어 데이터를 이용하여 상기 카메라 경로설정 윈도우 상에 애니메이션 하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치.
  18. 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시점의 동기화를 위한 컴퓨터 구현 방법에 있어서,
    카메라 설정 애플리케이션이 터치스크린 상에 카메라 경로설정 윈도우 및 카메라 타이밍 설정 윈도우를 디스플레이하는 단계;
    상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 시작점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 시작시점을 나타내는 이동시점 시작 터치지점을 포함하는 제 1 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 카메라 경로설정 윈도우 상에 가상 카메라 경로 종료점과 상기 카메라 타이밍 설정 윈도우 상에 가상 카메라 이동 종료시점을 나타내는 이동시점 종료 터치지점을 포함하는 제 2 동기화 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 가상 카메라 경로 시작점과 상기 가상 카메라 경로 종료점을 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계;
    상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점과 상기 이동시점 종료 터치지점을 이용하여 이에 매칭되는 실제 카메라 이동시점을 연산하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 실제 카메라 이동경로 및 상기 실제 카메라 이동시점에 근거하여 카메라 제어 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  19. 제 18 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 제 1 동기화 터치궤적의 모양을 추가로 이용하여 이에 매칭되는 실제 카메라 이동경로를 연산하는 단계;를 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  20. 제 19 항에 있어서, 상기 카메라 경로설정 윈도우는,
    상기 터치스크린의 디스플레이 영역의 85% 이상을 점유하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  21. 제 19 항에 있어서, 상기 카메라 타이밍 설정 윈도우는,
    상기 카메라 경로설정 윈도우 내부의 일측변 근처에 형성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  22. 제 21 항에 있어서, 상기 카메라 타이밍 설정 윈도우는,
    실질적으로 투명한 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  23. 제 18 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 복수의 서로 다른 카메라 줌 샘플을 디스플레이하는 단계;
    상기 카메라 설정 애플리케이션이 상기 복수의 서로 다른 카메라 줌 샘플 중 줌 샘플 터치지점을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 줌 샘플 터치지점을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 실제 카메라 줌동작에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  24. 제 23 항에 있어서, 상기 복수의 카메라 줌 샘플은,
    풀샷(full shot) 이미지, 무릎샷(knee shot) 이미지, 웨이스트샷(waist shot) 이미지, 바스트샷(bust shot) 이미지, 및 클로즈업(close-up) 이미지 중 어느 하나 또는 그 조합을 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  25. 제 18 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 상기 가상 카메라 이동경로를 디스플레이하는 단계;
    상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 팬(pan)을 위한 수평방향의 팬 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 팬 터치궤적을 이용하여 이에 매칭되는 실제 카메라 팬동작을 연산하는 단계;
    상기 카메라 설정 애플리케이션이 상기 가상 카메라 이동경로 상에 카메라 틸트(tilt)를 위한 수직방향의 틸트 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 틸트 터치궤적을 이용하여 이에 매칭되는 실제 카메라 틸트동작을 연산하는 단계;
    상기 카메라 설정 애플리케이션이 상기 터치스크린 상에 디스플레이된 상기 가상 카메라 이동경로 상에 카메라 줌(zoom)을 위한 원형 방향의 줌 터치궤적을 상기 터치스크린을 통해 입력받는 단계;
    상기 카메라 설정 애플리케이션이 상기 줌 터치궤적을 이용하여 이에 매칭되는 실제 카메라 줌동작을 연산하는 단계; 및
    상기 실제 카메라 팬동작, 상기 실제 카메라 틸트동작, 및 상기 실제 카메라 줌 동작 중 적어도 어느 하나에 추가로 근거하여 상기 카메라 제어 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  26. 제 18 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점 및 상기 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 입력받은 이동시점 시작 터치지점 및 상기 입력받은 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  27. 제 26 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  28. 제 27 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  29. 제 25 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계;
    상기 카메라 설정 애플리케이션이 상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 카메라 제어 데이터를 이벤트로서 상기 레퍼런스 타임라인 윈도우에 포함시키는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  30. 제 28 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 레퍼런스 타임라인 윈도우 상에 이벤트 시점변경 터치궤적을 상기 터치스크린을 통해 입력받는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 이벤트 시점변경 터치궤적을 이용하여 해당 이벤트의 시점을 변경하는 단계;를 추가로 포함하여 수행하도록 구성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  31. 제 21 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 이동시점 시작 터치지점 및 이동시점 종료 터치지점을 각각 입력받을 시, 상기 터치스크린 상에 실제 카메라 촬영 시 일어날 이벤트들을 시계열 상으로 나열한 레퍼런스 타임라인 윈도우를 디스플레이하는 단계; 및
    상기 카메라 설정 애플리케이션이 상기 입력받은 이동시점 시작 터치지점 및 이동시점 종료 터치지점과 매칭되는 상기 실제 카메라 이동시점에 해당하는 이벤트 상에 표식자를 디스플레이하는 단계;를 추가로 포함하고,
    상기 레퍼런스 타임라인 윈도우는 상기 카메라 경로설정 윈도우 내부의 상기 일측변과 다른 일측변 근처에 형성되는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  32. 제 31 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 표식자를 중심으로 상기 레퍼런스 타임라인 윈도우를 확대하여 디스플레이하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  33. 제 18 항 또는 제 25 항에 있어서,
    상기 카메라 설정 애플리케이션이 가상 피사체를 상기 카메라 경로설정 윈도우 상에 디스플레이하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
  34. 제 33 항에 있어서,
    상기 카메라 설정 애플리케이션이 상기 가상 피사체를 상기 카메라 제어 데이터를 이용하여 상기 카메라 경로설정 윈도우 상에 애니메이션 하는 단계;를 추가로 포함하는 것을 특징으로 하는 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 컴퓨터 구현 방법.
KR1020160140301A 2016-10-19 2016-10-26 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법 KR20180045668A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160140301A KR20180045668A (ko) 2016-10-26 2016-10-26 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
PCT/KR2017/011477 WO2018074821A1 (ko) 2016-10-19 2017-10-17 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160140301A KR20180045668A (ko) 2016-10-26 2016-10-26 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법

Publications (1)

Publication Number Publication Date
KR20180045668A true KR20180045668A (ko) 2018-05-04

Family

ID=62199649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160140301A KR20180045668A (ko) 2016-10-19 2016-10-26 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법

Country Status (1)

Country Link
KR (1) KR20180045668A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181074A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for multi-angle free-perspective interaction
CN112985372A (zh) * 2019-12-13 2021-06-18 南宁富桂精密工业有限公司 路径规划系统及其方法
CN113426103A (zh) * 2021-07-05 2021-09-24 网易(杭州)网络有限公司 虚拟角色移动控制方法、装置、电子设备及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181074A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for multi-angle free-perspective interaction
WO2020181112A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Video generating method, apparatus, medium, and terminal
WO2020181084A1 (en) * 2019-03-07 2020-09-10 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for multi-angle free-perspective interaction
US11037365B2 (en) 2019-03-07 2021-06-15 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for processing multi-angle free-perspective data
US11055901B2 (en) 2019-03-07 2021-07-06 Alibaba Group Holding Limited Method, apparatus, medium, and server for generating multi-angle free-perspective video data
US11257283B2 (en) 2019-03-07 2022-02-22 Alibaba Group Holding Limited Image reconstruction method, system, device and computer-readable storage medium
US11341715B2 (en) 2019-03-07 2022-05-24 Alibaba Group Holding Limited Video reconstruction method, system, device, and computer readable storage medium
US11521347B2 (en) 2019-03-07 2022-12-06 Alibaba Group Holding Limited Method, apparatus, medium, and device for generating multi-angle free-respective image data
CN112985372A (zh) * 2019-12-13 2021-06-18 南宁富桂精密工业有限公司 路径规划系统及其方法
CN113426103A (zh) * 2021-07-05 2021-09-24 网易(杭州)网络有限公司 虚拟角色移动控制方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110944727B (zh) 控制虚拟照相机的系统和方法
US11663785B2 (en) Augmented and virtual reality
US20220084279A1 (en) Methods for manipulating objects in an environment
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US10948993B2 (en) Picture-taking within virtual reality
US11080879B1 (en) Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
JP7457082B2 (ja) 反応型映像生成方法及び生成プログラム
US9489040B2 (en) Interactive input system having a 3D input space
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
Boring et al. Touch projector: mobile interaction through video
Leibe et al. Toward spontaneous interaction with the perceptive workbench
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
WO2015003544A1 (zh) 多深度区间的重聚焦方法、装置及电子设备
EP4254147A2 (en) Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US20200106967A1 (en) System and method of configuring a virtual camera
KR20180045668A (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
KR101743888B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
CN117224952A (zh) 显示控制方法、显示控制装置、存储介质与电子设备
Singletary et al. Toward Spontaneous Interaction with the Perceptive Workbench

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination