KR101399234B1 - 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체 - Google Patents

터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체 Download PDF

Info

Publication number
KR101399234B1
KR101399234B1 KR1020130094881A KR20130094881A KR101399234B1 KR 101399234 B1 KR101399234 B1 KR 101399234B1 KR 1020130094881 A KR1020130094881 A KR 1020130094881A KR 20130094881 A KR20130094881 A KR 20130094881A KR 101399234 B1 KR101399234 B1 KR 101399234B1
Authority
KR
South Korea
Prior art keywords
user interface
frames
frame
user
moving picture
Prior art date
Application number
KR1020130094881A
Other languages
English (en)
Inventor
정춘선
김경중
김종득
Original Assignee
넥스트리밍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스트리밍(주) filed Critical 넥스트리밍(주)
Priority to KR1020130094881A priority Critical patent/KR101399234B1/ko
Application granted granted Critical
Publication of KR101399234B1 publication Critical patent/KR101399234B1/ko
Priority to PCT/KR2014/007412 priority patent/WO2015020497A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법이 개시된다. 본 발명에 의할 때, 사용자가 선택한 동영상의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하여 제 1 사용자 인터페이스 영역에 표시한다. 이후, 사용자가 표시된 다수의 프레임 가운데 임의의 두 개의 프레임을 화면 타측의 제 2 사용자 인터페이스 영역으로 드래그하면 선택된 두 프레임의 사이 구간에 해당하는 동영상 클립을 생성하여 드래그가 종료된 지점에 해당하는 타임라인상 위치에 삽입한다. 한편, 사용자가 제 1 사용자 인터페이스의 두 지점을 동시에 터치한 다음 두 접촉점의 거리를 멀게, 또는 가깝게 드래그함에 따라 프레임 획득 간격을 동적으로 재설정하고 다시 동영상으로부터 프레임을 획득한 후 상기의 과정을 반복한다.

Description

터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체{ENHANCED USER INTERFACE BASED ON GESTURE INPUT FOR MOTION PICTURE AUTHORING TOOL ON A MOBILE DEVICE}
본 발명은 모바일에서 실행되는 동영상 편집 소프트웨어의 그래픽 사용자 인터페이스(GUI : Graphic User Interface)에 관한 것이다.
과거에는 동영상의 편집에 대단히 전문적인 기술과 고가의 장비를 필요로 했다.
그러나, 컴퓨팅 기술의 비약적인 발전, 그리고 컨텐츠들을 일반 사용자들이 스스로 만들어 배포하거나, 공유할 수 있도록 하는 다양한 플랫폼의 등장으로 최근에는 일반 사용자들도 동영상을 간단히 촬영하고 편집할 수 있게 되었다.
동영상 편집도구에 대한 수요가 점차 증가하면서 전문가를 위한 동영상 편집 패키지에서부터 간단한 편집 기능을 제공하는 라이트 유저를 위한 동영상 편집 소프트웨어에 이르기까지 다양한 저작도구들이 제작되어 유통되기에 이르렀다.
도 1은 이와 같은 공지의 PC(Personal Computer)용 동영상 편집 소프트웨어의 일반적인 사용자 인터페이스를 설명하는 도면이다.
한편, 동영상 편집 과정을 살펴보면, 동영상 파일들을 메모리에 적재한 다음 해당 동영상의 일부분을 선택하여 선택된 부분에 해당하는 동영상 클립을 타임라인에 삽입하게 된다.
이와 같이 타임라인에 다수의 동영상 클립을 삽입한 다음에는 적절한 효과나 배경음을 삽입하고, 자막을 추가하는 등의 편집과정을 거치게 된다.
이후, 최종결과물을 얻기 위해 렌더링을 실행하면, 동영상 편집 소프트웨어는 타임라인에 배열된 각 동영상 클립을 시간순으로 렌더링함으로써 최종 동영상 편집 결과물을 생성한다.
한편, 원활한 동영상의 편집을 위하여 사용자는 동영상 파일 가운데 자신이 원하는 만큼을 정확하게 선택하여 동영상 클립으로 타임라인에 삽입할 수 있어야 하며, 공지의 동영상 편집 소프트웨어들은 이를 위하여 몇 가지의 사용자 인터페이스를 제공한다.
이러한 사용자 인터페이스들은 사용자가 동영상 파일로부터 편집에 사용할 부분을 정확하게 선택하고, 원하는 길이만큼 손쉽게 선택할 수 있도록 구현된다.
예컨대, 도 1에 도시된 바와 같이 동영상 파일을 메모리에 적재한 다음, 초 단위로 시작위치와 종료위치를 설정함으로써 상기 동영상 파일의 일부를 선택할 수 있다.
그리고, 선택된 부분에 해당하는 인스턴스를 생성하여 이를 마우스로 드래그하는 것에 의하여 타임라인의 적절한 위치에 삽입할 수 있다.
한편, 동영상 편집 과정 그 자체의 특성상 동영상 편집 소프트웨어에서 어떤 사용자 인터페이스가 제공되는지와 무관하게 편집화면에는 많은 정보가 동시에 표시되어야 하므로 가급적 고해상도의 대형 모니터를 사용하는 것이 편집 작업에 도움이 된다.
때로는 둘 이상의 고해상도 모니터를 연결하여 듀얼 모니터로 사용함으로써 동영상의 편집에 필요한 많은 정보를 표시하기도 한다.
한편, 최근 소프트웨어 기술분야의 화두는 단연 스마트폰(Smartphone)을 이용한 모바일 컴퓨팅이라 할 수 있다.
동영상 편집 소프트웨어 역시 예외가 아니어서 스마트폰에서 실행되는 스마트폰용 동영상 편집 소프트웨어들이 속속 개발되어 배포되고 있다.
그런데, 스마트폰 또는 타블렛 컴퓨터(Tablet Computer)와 같은 모바일 디바이스들은 작게는 3, 4인치에서부터 최대 10인치 정도에 불과한 다소 작은 크기의 화면을 가지고 있을 뿐이어서 태생적으로 동영상 편집작업에는 매우 불리한 환경이라 할 수 있다.
이에 따라, 모바일에 최적화된 동영상 편집 소프트웨어용의 사용자 인터페이스의 개발이 절실한 실정이다.
특히, 모바일의 상대적으로 작은 크기의 화면에 동영상 데이터를 표시하되 그 가운데 일부를 원하는 길이만큼, 원하는 위치에서 정확하게 선택할 수 있도록 할 필요성이 있다.
그러나, 공지의 PC용 동영상 편집소프트웨어의 사용자 인터페이스를 그대로 적용하기에는 화면의 크기가 작아 표시할 수 있는 정보가 매우 제한적임은 물론, 마우스가 아닌 손가락을 이용하여 터치스크린을 터치하여 조작해야하는 관계로 정확하고 세밀한 조작이 어렵다는 문제가 있다.
문헌 1. 대한민국특허청, 특허공개 제10-2009-0058305호 "동영상 촬영 편집 장치 및 방법" 문헌 2. 대한민국특허청, 특허등록 제10-0860510호 "모바일 장치에서 시각 효과가 삽입된 슬라이드 쇼의 생성 방법"
문헌 3. 최은영, 최훈, 스마트폰 시장 확대에 따른 모바일 동영상 편집 기법 연구, 한국콘텐츠학회논문지 10(5) 115-123 1738-6764 KCI, 2010년
본 발명은 상기와 같은 종래기술의 문제점을 해소하기 위하여 개발된 것으로, 직관적이고 간단한 조작만으로 동영상의 일부분을 선택하여 동영상 클립을 생성하고 타임라인 상에 삽입할 수 있도록 하는 모바일용의 동영상 편집 소프트웨어의 사용자 인터페이스를 제시하는 것에 그 목적이 있다.
본 발명의 다른 목적은 상대적으로 협소한 크기의 화면에 동영상의 내용을 시각적으로 알 수 있도록 다수의 프레임을 표시하고, 그 가운데 일부를 선택하는 것에 의하여 동영상 클립을 생성할 수 있도록 하되, 이때 간단하고 직관적인 조작을 통해 프레임들의 시간 간격을 동적으로 조절할 수 있도록 하는 사용자 인터페이스의 제공에 있다.
이러한 목적을 달성하기 위하여 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치는 터치스크린 화면 일측에 제 1 사용자 인터페이스, 화면 타측에 제 2 사용자 인터페이스를 표시하는 사용자 인터페이스 처리수단;
사용자에 의하여 선택된 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 제 1 사용자 인터페이스에 표시할 프레임들을 획득하는 프레임 획득 수단;
사용자 조작에 의하여 프레임 획득 간격을 설정하는 프레임 간격 조절 수단; 및
제 2 사용자 인터페이스에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 동영상 파일을 생성하는 렌더링 수단;을 구비한다.
이때, 상기 사용자 인터페이스 처리수단은 제 1 사용자 인터페이스에 상기 프레임 획득 수단에 의하여 획득된 프레임들을 표시하되, 사용자가 제 1 사용자 인터페이스에 표시된 임의의 두 프레임을 터치하여 상기 제 2 사용자 인터페이스 방향으로 드래그함에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞서는 프레임에 해당하는 동영상의 위치에서부터 나중의 프레임에 해당하는 동영상의 위치에 이르는 동영상 클립을 생성한다.
그리고, 이를 나타내는 아이콘을 제 2 사용자 인터페이스, 즉, 타임라인에 배열한다.
한편, 상기 프레임 간격 조절 수단은 사용자가 상기 제 1 사용자 인터페이스 상의 임의의 두 지점을 터치한 다음 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 프레임 획득 간격을 실시간으로 변경하며,
상기 프레임 획득 수단은 프레임 획득 간격의 실시간 변경시, 상기 동영상 데이터로부터 변경된 프레임 획득 간격을 이용하여 프레임들을 재차 획득한다.
그리고, 상기 사용자 인터페이스 처리수단은 재차 획득된 프레임들을 상기 제 1 사용자 인터페이스에 표시함으로써 갱신한다.
한편, 이러한 목적을 달성하기 위하여 본 발명에 의한 동영상 편집 사용자 인터페이스 제공방법은 a) 동영상 데이터의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 단계;
b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면 일측에 도시된 제 1 사용자 인터페이스 영역에 표시하는 단계;
c) 사용자에 의하여 상기 시간순으로 표시된 다수의 프레임 가운데 임의의 두 개의 프레임이 선택되어 터치스크린 타측의 제 2 사용자 인터페이스 영역을 향해 드래그 됨에 따라, 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 제 2 사용자 인터페이스 영역의 드래그가 종료된 위치에 해당하는 타임라인상 위치에 삽입하는 단계;
d) 사용자가 제 1 사용자 인터페이스 영역을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 상기 프레임 획득 간격을 실시간으로 변경한 다음 a) 단계로 분기하는 단계; 및
e) 타임라인에 배열된 동영상 클립들을 타임라인 순서에 따라 렌더링하는 단계;를 포함한다.
이러한 본 발명에 의할 때, 동영상으로부터 얻어진 다수의 프레임들이 화면 일측에 시간순으로 표시된 상태에서, 사용자는 그 가운데 임의의 두 개를 터치한 다음 타임라인의 방향으로 단순히 드래그하는 것만으로 선택된 두 프레임을 시작점과 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 타임 라인으로 삽입하는 일련의 편집과정을 간단히 처리할 수 있게 된다.
뿐만 아니라, 다수의 프레임들이 표시된 터치스크린 영역 내의 임의의 두 지점을 동시에 터치한 다음 그 사이 간격을 벌리거나 좁히는 동작을 통해 동영상으로부터 프레임들을 획득하는 간격을 변경할 수 있게 되며, 변경된 프레임 획득 간격에 의해 새롭게 획득된 다수의 프레임들이 화면 일측에 재차 표시되면 그 가운데 임의의 두 프레임을 선택하여 드래그하는 동작을 통해 원하는 위치, 원하는 길이만큼 정확하게 동영상 클립을 선택하여 생성할 수 있게 된다.
도 1은 종래의 동영상 편집 소프트웨어의 사용자 인터페이스 구성을 설명하는 도면이며,
도 2는 본 발명이 제시하는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 설명하는 도면이며,
도 3은 본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공장치의 구성을 설명하는 도면이며,
도 4는 터치스크린 제스쳐 입력을 통해 동영상 클립을 생성하고 타임라인에 삽입하는 과정을 설명하는 도면이며,
도 5는 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 시계열적으로 설명하는 플로우차트이며,
도 6은 터치스크린 제스쳐 입력을 통해 프레임 간격을 실시간으로 조절하는 과정을 설명하는 도면이다.
이하에서는 본 발명의 바람직한 실시예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.
또한, 발명의 상세한 설명 또는 특허청구범위에서 "~수단", "~부", "~모듈", "~블록"으로 명명된 구성요소들은 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이들 각각은 소프트웨어 또는 하드웨어, 또는 이들의 결합에 의하여 구현될 수 있다.
본 발명의 구성에 대하여 본격적으로 설명하기에 앞서 본 발명에서 사용되는 용어들을 다음과 같이 정의한다.
타임라인이란 말 그대로 시간축을 의미한다. 동영상 편집 소프트웨어를 사용하여 동영상을 오쏘링할 때에 사용자는 타임라인을 따라서 다수의 동영상 클립을 배열하고, 배열된 각 동영상 클립에 이펙트를 설정한 다음 렌더링을 함으로써 최종 결과물인 하나의 동영상 파일을 얻게 된다.
즉, 타임라인이란 최종 결과물로 렌더링되어 얻어지는 동영상 파일에서 각각의 동영상 클립이 차지하는 시간상 위치를 의미한다. 예컨대, 특정 동영상 클립이 "1분 10초 내지 1분 30초" 구간에 해당하는 타임라인상 위치에 존재한다는 등의 용법으로 사용할 수 있다.
한편, 동영상 클립이란 동영상 편집물을 오쏘링하기 위하여 잘게 쪼개진 동영상의 조각, 일부분을 의미한다.
사용자는 로컬에 저장된 동영상 파일을 전체로서 타임라인에 삽입할 수도 있으며, 또는 그 일부를 선택하여 타임라인에 삽입할 수 있는데 어느 경우이건 이들은 타임라인에 배열되었다가 최종 렌더링 된 동영상 파일의 결과물의 일부분을 구성한다는 점에서 동영상 클립이라 지칭될 수 있다.
도 2는 본 발명이 제시하는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 설명하는 도면이다.
도 2에 도시된 바에 의할 때, 화면 상단에 제 1 사용자 인터페이스(11)가 표시되어 있다.
제 1 사용자 인터페이스(11)는 동영상의 여러 장면들을 시계열적으로 표시한다.
제 1 사용자 인터페이스(11)에는 다수의 프레임들이 시간순에 따라 표시된다. 각 프레임은 동영상의 장면들을 시각적으로 표시한다.
사용자는 이러한 제 1 사용자 인터페이스(11)를 통해 전체 동영상 가운데 자신이 원하는 부분을 선택하여 동영상 클립을 생성할 수 있다.
한편, 화면 하단에는 제 2 사용자 인터페이스(12)가 표시되어 있는 것을 알 수 있다.
제 2 사용자 인터페이스(12)는 타임라인을 시각적으로 나타낸다.
사용자는 다수의 동영상 클립을 제 2 사용자 인터페이스(12) 상의 적절한 위치에 배치할 수 있다.
도 2의 하단에는 좌우로 길게 연장된 형상의 제 2 사용자 인터페이스(12)가 도시되어 있으며, 그 위에 동영상 클립의 아이콘이 표시된 것을 볼 수 있다.
도 2 하단의 "1", "2", "3", "4"와 같이 각각 쓰여있는 네 개의 사각형을 확인할 수 있는데, 생성되어 제 2 사용자 인터페이스(12) 상에 배치된 각 동영상 클립을 나타내는 아이콘에 해당한다.
동영상 클립의 아이콘이 표시된 위치는 편집할 동영상의 타임라인 상의 위치에 해당한다.
본 발명은 도 2에 도시된 바와 같은 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스 구성을 전제한다.
특히, 이와 같은 구성을 갖는 모바일용 동영상 편집 소프트웨어의 사용자 인터페이스를 전제로 하여, 간단한 조작만으로 동영상의 일부를 정확하게 선택하여 동영상 클립을 생성할 수 있도록 사용자 인터페이스를 더 제시하고자 한다.
본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공장치(이하 "동영상 편집 사용자 인터페이스 제공장치"라 함.)는 바로 이러한 사용자 인터페이스를 제공하기 위한 것으로, 모바일(1)에서 실행되는 소프트웨어, 펌웨어의 형태로 구현될 수 있다.
도 3은 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치의 구성을 설명하는 도면이다.
도 3에 도시된 바에 의할 때, 본 발명에 의한 동영상 편집 사용자 인터페이스 제공장치(100)는 사용자 인터페이스 처리수단(110), 프레임 획득 수단(120), 프레임 간격 조절 수단(130), 렌더링 수단(140)을 구비한다.
사용자 인터페이스 처리수단(110)은 도 2에 도시된 바와 같이 동영상으로부터 얻어진 다수의 프레임을 시간순으로 표시하는 제 1 사용자 인터페이스(11)와 타임라인에 해당하는 제 2 사용자 인터페이스(12)를 터치스크린 화면에 각각 표시한다.
한편, 사용자가 모바일(1)의 로컬에 저장된 동영상 파일을 선택하거나, 또는 모바일(1)에 내장된 카메라 모듈을 이용하여 동영상을 촬영하면, 프레임 획득 수단(120)은 이와 같은 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 다수의 프레임을 획득한다.
예를 들어, 프레임 획득 간격이 "10초"로 설정되어 있는 경우라면 프레임 획득 수단(120)은 동영상을 디코딩하여 10초 간격으로 정지영상을 생성함으로써 다수의 프레임들을 획득할 수 있을 것이다. 또는, 10초 간격마다 가장 가까운 키 프레임을 획득할 수도 있을 것이다.
프레임 획득 간격은 반드시 시간 간격으로 한정되지는 않으며, 예컨대 "매 5번째의 키프레임"과 같이 설정될 수도 있을 것이다. 이러한 경우라면 프레임 획득 수단(120)은 매 5개의 키프레임마다 하나씩 획득할 수 있다.
한편, 프레임들은 바람직하게는 썸네일(Thumbnail)의 형태로 획득될 수 있다.
사용자 인터페이스 처리수단(110)은 이와 같이 얻어진 다수의 프레임들을 시간순으로 제 1 사용자 인터페이스(11)에 표시한다.
도 2의 상단에 도시된 제 1 사용자 인터페이스(11)의 예를 참조할 때, 좌측에서 우측으로 시간순에 따라 프레임들의 썸네일들을 표시할 수 있다.
즉, 제 1 사용자 인터페이스(11)를 통해 동영상의 일부 구간의 각 장면들이 시간순으로 표시되는 영역에 해당한다.
사용자는 제 1 사용자 인터페이스(11)를 통해 동영상의 여러 장면들을 한 눈에 확인할 수 있게 된다.
그리고, 그 상태에서 제 1 사용자 인터페이스(11)에 표시된 다수의 프레임 가운데 임의의 두 개를 동시에 터치한 다음, 제 2 사용자 인터페이스(12) 방향으로 드래그함으로써 동영상 클립의 생성과 타임라인으로의 동영상 클립의 추가, 두 가지의 편집동작을 간단히 행할 수 있다.
도 4는 터치스크린 제스쳐 입력을 통해 동영상 클립을 생성하고 타임라인에 삽입하는 과정을 설명하는 도면이다.
도 4의 (a)에 도시된 바와 같이 사용자가 제 1 사용자 인터페이스(11)에 도시된 프레임들 가운데 임의의 두 개를 터치한 다음, 제 2 사용자 인터페이스(12)의 특정 위치까지 드래그한 다음 터치를 해제하면 - 즉, 터치스크린 화면에서 손가락을 떼면, 상기 사용자 인터페이스 처리수단(110)은 상기 두 개의 프레임 가운데 시간순으로 앞 선 프레임에 해당하는 위치에서부터 나중의 프레임에 해당하는 위치에 해당하는 동영상 클립을 생성한다.
그리고, 사용자가 손가락을 뗀 제 2 사용자 인터페이스(12) 상의 좌표에 해당하는 타임라인 상의 위치에 상기 생성된 동영상 클립을 삽입하고, 상기 동영상 클립의 아이콘을 표시한다.
도 4의 (b) 하단에는 제 2 사용자 인터페이스(12) 위에 "1"이라 쓰여있는 사각형이 표시되어 있는 것을 확인할 수 있으며, 이는 삽입된 동영상 클립의 아이콘에 해당한다.
이때, 사용자가 터치하여 드래그를 한 프레임이 반드시 동영상 클립에 포함되어야 하는 것은 아니며, 동영상의 일부를 추출하는 알고리즘에 따라서는 사용자가 터치하여 드래그했던 프레임의 직전 또는 직후의 키프레임을 기준으로 동영상 클립을 생성할 수도 있다.
이와 관련한 구체적인 알고리즘은 본 출원인의 대한민국 특허출원 제10-2012-0124330호를 통해 개시된 바 있으며, 본 발명에서는 다루지 아니한다.
한편, 제 1 사용자 인터페이스(11)의 물리적인 화면 크기의 한계상 한 화면에 표시할 수 있는 프레임의 수는 극히 제한적이라 할 수 있는데, 사용자는 제 2 사용자 인터페이스(12)의 타임라인 자체를 앞뒤로 드래그하거나 또는 미도시된 별도의 프로그레스 바를 드래그하여 전후의 다른 장면에 해당하는 프레임들을 돌려볼 수 있다.
그런데, 동영상 클립으로 선택하고자 하는 동영상 파일의 구간이 다소 긴 경우라면 제 1 사용자 인터페이스(11)에 자신이 원하는 구간의 첫 장면과 마지막 장면에 해당하는 프레임들이 동시에 표시되지 않을 것이다.
이러한 경우 사용자는 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 양쪽으로 벌려줌으로써 제 1 사용자 인터페이스(11)에 표시되는 프레임들의 시간 간격을 넓힐 수 있다.
또는 반대로 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 가운데 쪽으로 좁혀줌으로써 제 1 사용자 인터페이스(11)에 표시되는 프레임들의 시간 간격을 좁힐 수도 있다.
이와 같이 사용자가 제 1 사용자 인터페이스(11)의 임의의 두 지점을 터치한 후 상기 두 접촉점 - 즉, 터치가 이루어진 두 지점의 좌표를 벌려주거나 또는 좁혀주면 프레임 간격 조절 수단(130)은 프레임 획득 간격을 동적으로 변경한다.
이에 따라 프레임 획득 수단(120)은 동적으로 변경된 프레임 획득 간격을 이용하여 상기 동영상으로부터 프레임들을 새롭게 획득한다.
프레임들이 새롭게 획득됨에 따라 사용자 인터페이스 처리수단(110)은 획득된 새로운 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.
이와 같은 과정을 통해 사용자는 간편한 조작과정을 통해 동영상으로부터 자신이 원하는 장면에서, 자신이 원하는 길이만큼 동영상 클립을 만들 수 있게 된다.
뿐만 아니라, 생성된 동영상 클립을 간단한 동작만으로 제 2 사용자 인터페이스(12)의 타임라인 상에 배열할 수 있다.
타임라인 상에 배열된 다수의 동영상 클립들을 드래그하는 등의 동작에 의해 동영상 클립들의 선후관계나 타임라인 상의 위치를 간단히 변경할 수 있다.
한편, 이와 같이 편집할 동영상 클립들을 배열하고, 트랜지션 효과나 배경음, 자막 등의 설정이 끝난 후 사용자는 종래의 동영상 편집 소프트웨어에서와 마찬가지로 렌더링 과정을 통해 최종 동영상 편집결과물을 얻을 수 있게 된다.
렌더링 수단(140)은 제 2 사용자 인터페이스(12)에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 최종 편집결과물인 동영상 파일을 생성한다.
렌더링 과정에서 다양한 효과나 배경음, 자막 등이 입혀진다.
이하에서는 도 4 내지 도 6을 참조하여 본 발명에 의한 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 살펴보기로 한다.
도 5는 터치스크린 제스쳐 입력을 이용하는 동영상 편집 사용자 인터페이스 제공방법을 시계열적으로 설명하는 플로우차트이며, 도 6은 터치스크린 제스쳐 입력을 통해 프레임 간격을 실시간으로 조절하는 과정을 설명하는 도면이다.
도 5에 도시된 본 발명은 터치스크린을 갖는 모바일(1)이 동영상 편집 앱이 실행된 상태에서 도 4 및 도 6에 도시된 바와 같은 사용자 인터페이스를 제공하는 과정을 설명한다.
도 5에 도시된 바에 의할 때, 본 발명은 프레임 획득 단계(a 단계), 프레임 표시 단계(b 단계), 클립 선택 단계(c 단계), 획득 간격 조정단계(d 단계) 및 렌더링 단계(e 단계)를 포함한다.
프레임 획득단계에서, 사용자가 동영상 데이터를 선택함에 따라 모바일(1)은 상기 동영상 데이터로부터 미리 설정된 프레임 획득 간격마다 프레임을 획득한다(a 단계).
프레임은 바람직하게는 썸네일의 형태로 획득할 수 있다.
이때 반드시 동영상 데이터 전체에 대하여 일정 간격으로 프레임을 획득할 필요는 없으며, 제 1 사용자 인터페이스(11)에 표시될 부분만큼만 프레임을 획득하여도 무방하다.
이와 같이 프레임을 획득한 다음, 프레임 표시 단계에서는 획득된 다수의 프레임 가운데 적어도 일부를 제 1 사용자 인터페이스(11)에 표시한다.
이때, 바람직하게는 제 1 사용자 인터페이스(11)의 영역 내에서 일측 방향으로 시간순에 따라 표시한다.
예컨대, 도 2에 도시된 바와 같은 제 1 사용자 인터페이스(11) 상에서 좌측으로 갈수록 시간순으로 앞서는 프레임들을 표시할 수 있다.
이때, 제 1 사용자 인터페이스(11) 상에 표시되는 프레임들은 동영상의 일부분으로부터 획득한 프레임들일 수 있으며, 다른 부분의 프레임을 확인하고자 하는 경우 사용자는 미도시 된 프로그레스 바를 드래그하는 등의 방식으로 조작할 수 있다.
이 경우 모바일(1)은 동영상의 해당 부분의 동적으로 획득하여 제 1 사용자 인터페이스(11)에 표시할 수 있다.
한편, 이와 같이 제 1 사용자 인터페이스(11) 상에 다수의 프레임이 표시된 상태에서 사용자가 임의의 두 개의 프레임을 선택함에 따라, 클립 선택 단계에서는 사용자에 의하여 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성한다.
이때, 동영상 클립의 생성이라 표현하였으나 반드시 동영상으로부터 선택된 부분에 해당하는 인스턴스를 만들어 독립적인 데이터로 저장하는 것만을 의미하지 않으며, 원본 동영상 데이터가 존재하는 상태에서 선택된 영역의 시작 위치와 종료 위치에 관한 정보를 생성하는 것으로 처리할 수도 있을 것이다.
한편, 동영상 클립을 생성하기 위하여 사용자는 제 1 사용자 인터페이스(11)에 표시된 다수의 프레임 가운데 시작점과 종료점에 해당하는 것을 각각 하나씩 선택한 다음, 동영상 클립 만들기 기능을 선택하는 등의 방식에 의하여 동영상 클립을 생성할 수도 있을 것이다.
그러나, 보다 직관적이고 단순한 방식에 의한 터치스크린 조작을 통해 동영상 클립을 선택, 생성할 수 있도록 모바일(1)은 도 4에 도시된 바와 같이 제 1 사용자 인터페이스(11)에 도시된 임의의 두 개의 프레임을 터치한 다음 아래쪽의 제 2 사용자 인터페이스(12)로 드래그하는 동작에 의하여 동영상 클립을 만들고, 만들어진 동영상 클립을 타임 라인에 자동으로 배치한다.
이를 구체적으로 살펴보면, 두 개의 프레임에 대한 사용자의 드래그 동작이 제 1 사용자 인터페이스(11)의 영역을 벗어남에 따라 모바일(1)은 상기 두 프레임 사이의 구간에 해당하는 동영상 클립을 만들고, 사용자의 드래그가 제 2 사용자 인터페이스(12) 상에서 종료되면, 드래그가 종료된 제 2 사용자 인터페이스(12) 상의 위치에 해당하는 타임라인 상에 상기 동영상 클립을 삽입한다.
동영상 클립의 시작 위치를 선택하고 / 그 다음으로 동영상 클립의 종료 위치를 선택한 다음 / 동영상 클립의 만들기 버튼을 누르는 조작을 하고 / 생성된 동영상 클립을 드래그하여 타임라인으로 끌어놓는 4 단계에 걸친 편집과정이 단 한 차례의 멀티 터치 후 드래그 동작에 의하여 완료된다.
그런데, 이와 같이 한 차례의 터치스크린 조작에 의하여 이러한 과정이 완료되기 위해서는 제 1 사용자 인터페이스(11) 내에 사용자가 선택하고자 하는 시작 위치 및 종료 위치에 해당하는 프레임이 동시에 표시가 되어 있어야 한다.
그러나, 한정된 제 1 사용자 인터페이스(11)의 크기 한계상 많은 수의 프레임이 동시에 표시되기는 어렵다.
특히, 선택하고자 하는 시작 위치와 종료 위치 사이의 시간차이가 커서 시간 위치에 해당하는 프레임과 종료 위치에 해당하는 프레임이 제 1 사용자 인터페이스(11) 상에 모두 포함되기 어려운 경우가 있다.
이러한 경우 사용자는 두 개의 손가락, 예컨대 엄지와 검지를 오므린 채 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 손가락을 벌리는 방식으로 드래그한다.
예컨대, 도 6의 (a)에 도시된 바와 같이 인접한 임의의 두 개의 프레임을 동시에 터치한 다음 그 둘 사이의 거리를 벌리는 느낌으로 각각 좌우로 드래그할 수 있다.
도 6의 (a)는 바로 이와 같이 사용자가 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 접촉점 간의 간격을 넓히는 제어동작을 하는 경우를 설명한다.
이와 같은 사용자의 조작이 있으면, 획득 간격 조정단계에서 모바일(1)은 프레임 획득 간격을 실시간으로 넓힌다(d 단계).
한편, 프레임 획득 간격의 변경 이벤트가 발생하면 모바일(1)은 a) 단계로 분기한다.
그리고, a) 단계에서 변경된 프레임 획득 간격에 따라 프레임을 재차 획득한다.
그리고, b) 단계로 이행하여 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.
프레임 획득 간격이 넓어졌으므로 제 1 사용자 인터페이스(11)에 동시에 표시되는 프레임들의 시간 간격이 더 넓어지게 된다.
그래도, 원하는 프레임들이 제 1 사용자 인터페이스(11)에 모두 표시되어 있지 않다면 사용자는 동일한 동작을 반복적으로 할 수 있다.
이때, 바람직하게는 프레임들 사이의 시간 간격(즉, 동영상 내에서 두 프레임이 재생되는 시간 간격)이 넓어졌음을 직관적으로 알 수 있도록 사용자가 손가락을 벌리는 드래그 동작을 함에 따라 프레임들 사이의 물리적 간격(즉, 화면상에서의 프레임 간의 거리)이 서로 멀어지게끔 애니메이션 처리를 한다.
이때, 사용자가 제 1 사용자 인터페이스 영역(11)을 터치했을 때의 두 접촉점의 중심좌표, 즉 사용자가 두 손가락을 붙인 상태에서 터치스크린을 터치한 경우 두 손가락 사이의 좌표를 중심으로 하여 프레임들이 좌우로 멀어지는 애니메이션을 표시할 수 있다.
그 이후 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11) 상에 표시할 수 있다.
이때, 사용자가 두 손가락을 붙인 상태에서 터치스크린을 터치했을 때, 두 손가락 사이의 좌표에 인접한 프레임을 가급적 그대로 제 1 사용자 인터페이스(11)에 표시한 상태에서 해당 프레임의 주위로 새롭게 획득한 프레임들을 표시한다.
그 반대의 경우도 생각할 수 있다.
제 1 사용자 인터페이스(11)에 표시된 프레임들의 간격이 너무 넓어 원하는 프레임이 생략된 경우 사용자는 프레임들의 시간 간격을 좁혀서 원하는 프레임이 제 1 사용자 인터페이스(11)에 나타나도록 조작할 수도 있다.
이를 위하여 사용자는 두 손가락을 벌린 상태에서 제 1 사용자 인터페이스(11) 상의 임의의 두 점을 터치한 다음 오므리는 방식으로 드래그 동작을 할 수 있다.
도 6의 (b)는 이와 같이 사용자가 제 1 사용자 인터페이스(11) 상의 두 지점을 터치한 다음 두 접촉점 간의 간격을 좁히는 제어동작을 하는 경우를 설명한다.
이와 같은 사용자의 조작이 있으면, 획득 간격 조정단계에서 모바일(1)은 프레임 획득 간격을 실시간으로 좁힌다(d 단계).
이에 따라 프레임 획득 간격의 변경 이벤트가 발생하며, 모바일(1)은 a) 단계로 분기한다.
그리고, a) 단계에서 변경된 프레임 획득 간격에 따라 프레임을 재차 획득하며, b) 단계로 이행하여 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11)에 표시함으로써 갱신한다.
이 경우 프레임들 사이의 시간 간격이 좁하지므로, 이를 사용자가 직관적으로 알 수 있도록 사용자가 손가락을 오므리는 드래그 동작을 하는 동안 프레임들 사이의 물리적 간격이 서로 가까워지게끔 애니메이션 처리를 한다.
이때, 사용자가 제 1 사용자 인터페이스 영역(11)에서의 드래그 동작을 끝내고 터치를 해제할 때 - 즉, 손가락을 터치스크린에서 뗄 때의 두 접촉점의 중간에 해당하는 좌표를 중심으로 프레임들이 모이는 애니메이션을 표시할 수 있다.
그 이후 새롭게 획득한 프레임들을 제 1 사용자 인터페이스(11) 상에 표시할 수 있다.
이때에도, 사용자가 터치를 해제했을 때 두 접촉점의 중간 좌표에서 인접한 프레임을 가급적 그대로 둔 채로 해당 프레임의 주위로 새롭게 획득한 프레임들을 표시한다.
이러한 과정을 거쳐 다수 개의 동영상 클립이 제 2 사용자 인터페이스(12) - 즉, 타임라인 상에 배열되면, 사용자는 트랜지션 효과의 설정이나 배경음의 삽입과 같은 편집을 거친 다음 최종 결과물의 획득을 위하여 렌더링 기능을 실행한다.
이에 따라 렌더링 단계에서 모바일(1)은 제 2 사용자 인터페이스(12)에 배열된 동영상 클립들을 타임라인 순서에 따라 렌더링함으로써 최종 동영상 편집결과물을 생성한다.
이와 같이 동영상 편집결과물이 생성됨에 따라 모바일(1)은 이를 로컬에 저장하거나, 또는 사용자의 선택이나 설정에 따라서 네트워크를 통해 소셜 네트워크 서비스나 클라우드에 자동으로 업로드 할 수도 있다.
이상 살펴본 바와 같이 모바일(1)이 동영상 클립을 선택하기 위한 프레임들의 시간 간격을 동적으로 넓히거나, 또는 좁힐 수 있도록 사용자 인터페이스를 제공하는 방법의 각 단계들은 컴퓨터가 판독할 수 있는 명령어의 집합인 소프트웨어의 형태로 구현되어 기록 매체에 수록될 수 있다.
이때, 기록매체는 컴퓨터에 의하여 읽을 수 있는 모든 종류의 매체를 포함할 수 있으며, 그 예로는 DVD-ROM, CD-ROM, 하드 디스크, USB 메모리, 플래쉬 메모리와 같은 유형물을 들 수 있다.
한편, 기록매체에 수록된다는 표현은 이와 같은 유형의 기록매체에 수록되는 경우는 물론, 무형의 반송파(Carrier Wave)의 형태로 통신회선을 통해 제공되는 경우를 포함한다.
한편, 상기에서는 "모바일"이라는 표현을 사용하되, 그 예로 스마트폰과 타블렛 컴퓨터를 들었으나, 터치스크린을 구비하되 휴대할 수 있는 전자기기로서 동영상 편집 소프트웨어가 실행되는 수단이라면 이에 국한되지 아니한다. 즉, 이동통신단말기나 PDA와 같은 공지의 형태는 물론 상기 조건을 만족하는 새로운 형태의 디바이스일 수도 있을 것이다.
본 발명은 첨부 도면 및 상기와 같은 실시예를 참조하여 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다.
본 발명은 모바일 사용자 인터페이스 기술분야에 적용될 수 있다.
1 : 모바일
11 : 제 1 사용자 인터페이스
12 : 제 2 사용자 인터페이스
100 : 동영상 편집 사용자 인터페이스 제공장치
110 : 사용자 인터페이스 처리수단
120 : 프레임 획득 수단
130 : 프레임 간격 조절 수단
140 : 렌더링 수단

Claims (10)

  1. 터치스크린을 갖는 모바일 디바이스에 있어서,
    터치스크린 화면 일측에 제 1 사용자 인터페이스, 화면 타측에 제 2 사용자 인터페이스를 표시하는 사용자 인터페이스 처리수단;
    사용자에 의하여 선택된 동영상 데이터로부터 소정의 프레임 획득 간격을 이용하여 제 1 사용자 인터페이스에 표시할 프레임들을 획득하는 프레임 획득 수단;
    사용자 조작에 의하여 프레임 획득 간격을 설정하는 프레임 간격 조절 수단; 및
    제 2 사용자 인터페이스에 배열된 동영상 클립들을 렌더링함으로써 상기 동영상 클립들을 포함하는 동영상 파일을 생성하는 렌더링 수단;을 구비하되,
    상기 사용자 인터페이스 처리수단은 제 1 사용자 인터페이스에 상기 프레임 획득 수단에 의하여 획득된 프레임들을 표시하되, 사용자가 제 1 사용자 인터페이스에 표시된 임의의 두 프레임을 터치하여 상기 제 2 사용자 인터페이스 방향으로 드래그함에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞서는 프레임에 해당하는 동영상의 위치에서부터 나중의 프레임에 해당하는 동영상의 위치에 이르는 동영상 클립을 생성하고, 이를 나타내는 아이콘을 제 2 사용자 인터페이스에 배열하며,
    상기 프레임 간격 조절 수단은 사용자가 상기 제 1 사용자 인터페이스 상의 임의의 두 지점을 터치한 다음 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 프레임 획득 간격을 실시간으로 변경하며,
    상기 프레임 획득 수단은 프레임 획득 간격의 실시간 변경시, 상기 동영상 데이터로부터 변경된 프레임 획득 간격을 이용하여 프레임들을 재차 획득하며,
    상기 사용자 인터페이스 처리수단은 재차 획득된 프레임들을 상기 제 1 사용자 인터페이스에 표시하여 갱신하는 동영상 편집 사용자 인터페이스를 갖는 모바일 디바이스.
  2. 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법에 있어서,
    a) 동영상 데이터로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 프레임 획득 단계;
    b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면의 일측 방향을 따라 시간순으로 표시하는 프레임 표시 단계;
    c) 사용자에 의하여 상기 시간순으로 표시된 다수의 프레임 가운데 임의의 두 개의 프레임이 선택됨에 따라 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하는 클립 선택 단계; 및
    d) 사용자가 상기 터치스크린 상의 두 지점을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 모바일이 상기 프레임 획득 간격을 실시간으로 변경하는 획득 간격 조정단계;를 포함하되,
    상기 d) 단계에서는, 프레임 획득 간격이 실시간으로 변경됨에 따라 변경된 프레임 획득 간격에 따라 프레임을 재차 획득하며, 재차 획득된 다수의 프레임 가운데 적어도 일부를 화면 일측 방향을 따라 시간순으로 표시함으로써 실시간으로 갱신하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  3. 제 2 항에 있어서,
    상기 c) 단계에서, 사용자가 임의의 두 개의 프레임을 터치한 다음 화면 타측으로 드래그함에 따라, 모바일이 드래그가 종료된 좌표에 해당하는 타임라인 위치에 상기 생성된 동영상 클립을 삽입하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  4. 제 3 항에 있어서,
    상기 d) 단계 이후,
    e) 타임라인에 삽입된 동영상 클립들을 타임라인 순서에 따라 렌더링하는 렌더링 단계;를 더 포함하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  5. 제 2 항에 있어서,
    상기 d) 단계에서, 사용자가 상기 다수의 프레임이 표시된 터치스크린 화면 영역의 임의의 두 지점을 터치한 후 상기 두 접촉점의 간격이 멀어지도록 드래그하면 상기 프레임 획득 간격을 넓히되,
    상기 두 접촉점의 간격이 좁아지도록 드래그하면 상기 프레임 획득 간격을 좁힌 다음 프레임 획득 단계로 분기하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  6. 제 5 항에 있어서,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그한 경우, 상기 두 접촉점의 최초 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  7. 제 6 항에 있어서,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 멀어지도록 드래그함에 따라, 상기 두 접촉점의 최초 접촉위치의 중심좌표를 중심으로 양측방향으로 프레임들이 멀어지는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  8. 제 5 항에 있어서,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그한 경우, 상기 두 접촉점의 최후 접촉위치의 중심좌표에 인접한 프레임을 중심으로 양측방향으로 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  9. 제 8 항에 있어서,
    상기 d) 단계에서, 사용자가 두 접촉점의 간격이 좁아지도록 드래그함에 따라, 상기 두 접촉점의 최후 접촉위치의 중심좌표의 방향으로 양측의 프레임들이 가까이 이동하는 애니메이션을 표시한 다음, 새롭게 획득된 프레임들을 표시하는 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법.
  10. 프로그램 코드를 갖는 컴퓨터로 판독가능한 기록매체에 있어서,
    a) 동영상 데이터의 일부 구간으로부터 소정의 프레임 획득 간격마다 프레임을 획득하는 단계;
    b) 획득된 다수의 프레임 가운데 적어도 일부를 터치스크린의 화면 일측에 도시된 제 1 사용자 인터페이스 영역에 표시하는 단계;
    c) 사용자에 의하여 상기 제 1 사용자 인터페이스 영역에 표시된 프레임 가운데 임의의 두 개의 프레임이 선택되어 터치스크린 타측의 제 2 사용자 인터페이스 영역을 향해 드래그 됨에 따라, 상기 선택된 두 프레임 가운데 시간순으로 앞선 프레임에 대응하는 동영상의 위치를 시작점으로 하되, 시간순으로 늦은 프레임에 대응하는 동영상의 위치를 종료점으로 하는 동영상 클립을 생성하고, 생성된 동영상 클립을 제 2 사용자 인터페이스 영역의 드래그가 종료된 위치에 해당하는 타임라인상 위치에 삽입하는 단계; 및
    d) 사용자가 제 1 사용자 인터페이스 영역을 동시에 터치한 후 접촉상태를 유지한 채 상기 두 접촉점의 간격을 좁히거나 늘림에 따라 상기 프레임 획득 간격을 실시간으로 변경한 다음 a) 단계로 분기하는 단계;를 포함하는 모바일 디바이스의 동영상 편집 사용자 인터페이스 처리방법을 수행하기 위한 프로그램 코드를 갖는 컴퓨터로 판독가능한 기록매체.
KR1020130094881A 2013-08-09 2013-08-09 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체 KR101399234B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130094881A KR101399234B1 (ko) 2013-08-09 2013-08-09 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체
PCT/KR2014/007412 WO2015020497A1 (ko) 2013-08-09 2014-08-08 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130094881A KR101399234B1 (ko) 2013-08-09 2013-08-09 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체

Publications (1)

Publication Number Publication Date
KR101399234B1 true KR101399234B1 (ko) 2014-05-27

Family

ID=50895235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130094881A KR101399234B1 (ko) 2013-08-09 2013-08-09 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체

Country Status (2)

Country Link
KR (1) KR101399234B1 (ko)
WO (1) WO2015020497A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013944A (ko) * 2016-06-02 2019-02-11 알리바바 그룹 홀딩 리미티드 비디오 재생 제어 방법 및 장치와 비디오 재생 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032623B (zh) * 2021-03-10 2024-04-05 珠海安士佳电子有限公司 一种智能视频数据检索方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058305A (ko) * 2007-12-04 2009-06-09 삼성전자주식회사 동영상 촬영 편집 장치 및 방법
KR20100086136A (ko) * 2009-01-22 2010-07-30 (주)코드엑트 동영상 편집 시스템
JP2012156686A (ja) * 2011-01-25 2012-08-16 Grafficia Inc 検索方法および検索装置、ならびに動画編集装置
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201312497A (zh) * 2011-09-07 2013-03-16 Yi-Lin Chen 用於製作個人化影音編輯系統

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090058305A (ko) * 2007-12-04 2009-06-09 삼성전자주식회사 동영상 촬영 편집 장치 및 방법
KR20100086136A (ko) * 2009-01-22 2010-07-30 (주)코드엑트 동영상 편집 시스템
JP2012156686A (ja) * 2011-01-25 2012-08-16 Grafficia Inc 検索方法および検索装置、ならびに動画編集装置
KR20130052753A (ko) * 2011-08-16 2013-05-23 삼성전자주식회사 터치스크린을 이용한 어플리케이션 실행 방법 및 이를 지원하는 단말기

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013944A (ko) * 2016-06-02 2019-02-11 알리바바 그룹 홀딩 리미티드 비디오 재생 제어 방법 및 장치와 비디오 재생 시스템
US10924806B2 (en) 2016-06-02 2021-02-16 Advanced New Technologies Co., Ltd. Video playing control method and apparatus, and video playing system
KR102240547B1 (ko) * 2016-06-02 2021-04-19 어드밴스드 뉴 테크놀로지스 씨오., 엘티디. 비디오 재생 제어 방법 및 장치와 비디오 재생 시스템
US11259091B2 (en) 2016-06-02 2022-02-22 Advanced New Technologies Co., Ltd. Video playing control method and apparatus, and video playing system

Also Published As

Publication number Publication date
WO2015020497A1 (ko) 2015-02-12

Similar Documents

Publication Publication Date Title
US11417367B2 (en) Systems and methods for reviewing video content
US10042537B2 (en) Video frame loupe
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
US20170024110A1 (en) Video editing on mobile platform
KR101352713B1 (ko) 동영상 편집을 위한 사용자 인터페이스의 제공장치, 그 제공방법 및 기록매체
US11074940B2 (en) Interface apparatus and recording apparatus
US9910584B2 (en) Method for manipulating folders and apparatus thereof
US10622021B2 (en) Method and system for video editing
EP2530677A2 (en) Method and apparatus for controlling a display of multimedia content using a timeline-based interface
CN107992246A (zh) 一种视频编辑方法与其装置及智能终端
US9436358B2 (en) Systems and methods for editing three-dimensional video
CN106406651B (zh) 动态放大显示视频的方法及装置
US11550452B1 (en) Presentation of a media sequence
US9372609B2 (en) Asset-based animation timelines
KR101267872B1 (ko) 썸네일을 활용한 동영상 탐색 사용자인터페이스 제공 방법 및 그 장치
WO2018001115A1 (zh) 滑动控件控制方法及装置、滑块选择器
EP2911115B1 (en) Electronic device and method for color extraction
TW201833902A (zh) 子畫面佈局控制方法和裝置
KR101399234B1 (ko) 터치스크린을 갖는 모바일 디바이스에서 실행되는 동영상 편집 사용자 인터페이스 처리방법, 모바일 디바이스 및 기록매체
US9836200B2 (en) Interacting with electronic devices using a single-point gesture
CN113810538B (zh) 视频编辑方法和视频编辑装置
US20150058394A1 (en) Method for processing data and electronic apparatus
US10817167B2 (en) Device, method and computer program product for creating viewable content on an interactive display using gesture inputs indicating desired effects
TW201546655A (zh) 映射投影之控制系統及其控制方法
KR102648288B1 (ko) 편집 환경에서 다수의 미디어 요소들을 갖는 미디어 콘텐츠를 제시하기 위한 방법들 및 시스템들

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170517

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190311

Year of fee payment: 6