KR102031408B1 - 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체 - Google Patents

터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체 Download PDF

Info

Publication number
KR102031408B1
KR102031408B1 KR1020167036773A KR20167036773A KR102031408B1 KR 102031408 B1 KR102031408 B1 KR 102031408B1 KR 1020167036773 A KR1020167036773 A KR 1020167036773A KR 20167036773 A KR20167036773 A KR 20167036773A KR 102031408 B1 KR102031408 B1 KR 102031408B1
Authority
KR
South Korea
Prior art keywords
gesture
player window
video
long press
video content
Prior art date
Application number
KR1020167036773A
Other languages
English (en)
Other versions
KR20170010015A (ko
Inventor
가렌 체클리
제임스 브라이스 기브슨
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20170010015A publication Critical patent/KR20170010015A/ko
Application granted granted Critical
Publication of KR102031408B1 publication Critical patent/KR102031408B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • H04N21/8153Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체가 제공된다. 일부 실시예에서, 이 방법은: 비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우에서 프리젠팅되게 하는 단계; 플레이어 윈도우 내에서 제1 탭 제스처를 검출하는 단계; 비디오 콘텐츠의 프리젠테이션이 일시정지되게 하는 단계; 터치스크린을 통해 제2 탭 제스처를 검출하는 단계; 비디오 콘텐츠의 프리젠테이션이 계속되게 하는 단계; 좌측에서 우측으로의 스와이프 제스처를 검출하는 단계; 이후의 시간의 비디오 콘텐츠의 제1 부분이 프리젠팅되게 하는 단계; 우측에서 좌측으로의 스와이프 제스처를 검출하는 단계; 현재 프리젠팅 중인 비디오 콘텐츠의 시간보다 더 이른 비디오 콘텐츠의 제2 부분이 프리젠팅되게 하는 단계를 포함한다.

Description

터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체{METHODS, SYSTEMS AND MEDIA FOR CONTROLLING PLAYBACK OF VIDEO USING A TOUCHSCREEN}
관련 출원의 상호참조
본 출원은, 참조로 그 전체를 본 명세서에 포함시키는 2014년 6월 18일 출원된 미국 가출원 번호 제62/014,089호를 우선권 주장한다.
기술분야
개시된 주제는 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템, 및 매체에 관한 것이다.
터치스크린을 갖는 디바이스들은 종종 비디오를 시청하는데 이용되지만, 터치스크린 상의 비디오 네비게이션을 위한 제어는, 종종, 무엇이 선택중에 있는지에 대한 더 정확한 제어를 허용하는 마우스 등의 포인팅 디바이스를 갖는 디바이스에 더 적절하다. 예를 들어, 비디오의 특정 지점으로 네비게이트하기 위해, 터치스크린을 위한 일부 사용자 인터페이스는 프리젠팅 중인 비디오의 현재 부분을 보여주는 선택가능한 표시자를 갖춘 진행/스크러버 막대(progress/scrubber bar)를 포함한다. 네비게이트하여 프리젠팅할 비디오의 특정 부분을 선택하기 위해 스크러버/진행 막대를 따라 특정 위치로 표시자가 드래그될 수 있다. 그러나, 이것은 사용자 인터페이스의 표시자에 대응하는 터치스크린 상의 특정 위치를 터치하고 표시자를 스크러버/진행 막대의 의도한 부분으로 정확하게 드래그할 것을 요구한다. 또 다른 예로서, 빨리감기, 재생/일시정지, 및 되감기 기능은 통상적으로, 빨리감기 또는 되감기를 나타내는 아이콘을 터치함으로써 선택되고, 이것은 이들 아이콘들이 먼저 프리젠팅될 것을 요구하며, 그 다음, 사용자 인터페이스의 특정한 부분을 선택할 것을 요구할 수 있는데, 이러한 것들이 터치스크린을 갖는 디바이스를 이용할 때 항상 편리한 것은 아니다.
따라서, 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 새로운 방법, 시스템 및 매체가 바람직하다.
개시된 주제의 일부 실시예에 따르면, 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 메커니즘이 제공된다.
일부 실시예에 따르면, 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 방법이 제공되고, 이 방법은, 비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우 ―플레이어 윈도우는 길이와 폭을 가짐― 에 프리젠팅되게 하는 단계; 플레이어 윈도우 내의 터치스크린을 통해 제1 탭 제스처를 검출하는 단계; 제1 탭 제스처의 수신에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지시키는 단계; 플레이어 윈도우 내의 터치스크린을 통해 제2 탭 제스처를 검출하는 단계; 제2 탭 제스처의 검출에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하는 단계; 적어도 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처 ―제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임― 를 터치스크린을 통해 검출하는 단계; 제1 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하는 단계; 적어도 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처 ―제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임― 를 터치스크린을 통해 검출하는 단계; 및 제2 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하는 단계를 포함한다.
개시된 주제의 일부 실시예에 따르면, 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 시스템이 제공되고, 이 시스템은, 비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우 ―플레이어 윈도우는 길이와 폭을 가짐― 에 프리젠팅되게 하고; 플레이어 윈도우 내의 터치스크린을 통해 제1 탭 제스처를 검출하며; 제1 탭 제스처의 수신에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지시키고; 플레이어 윈도우 내의 터치스크린을 통해 제2 탭 제스처를 검출하며; 제2 탭 제스처의 검출에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하고; 적어도 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처 ―제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임― 를 터치스크린을 통해 검출하며; 제1 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하고; 적어도 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처 ―제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임― 를 터치스크린을 통해 검출하며; 및 제2 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하도록 프로그램된 하드웨어 프로세서를 포함한다.
개시된 주제의 일부 실시예에 따르면, 프로세서에 의해 실행될 때, 프로세서로 하여금, 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 방법을 수행하게 하는 컴퓨터 실행가능한 명령어들을 포함하는 비일시적 컴퓨터 판독가능한 매체가 제공되고, 이 방법은, 비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우 ―플레이어 윈도우는 길이와 폭을 가짐― 에 프리젠팅되게 하는 단계; 플레이어 윈도우 내의 터치스크린을 통해 제1 탭 제스처를 검출하는 단계; 제1 탭 제스처의 수신에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지시키는 단계; 플레이어 윈도우 내의 터치스크린을 통해 제2 탭 제스처를 검출하는 단계; 제2 탭 제스처의 검출에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하는 단계; 적어도 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처 ―제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임― 를 터치스크린을 통해 검출하는 단계; 제1 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하는 단계; 적어도 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처 ―제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임― 를 터치스크린을 통해 검출하는 단계; 및 제2 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하는 단계를 포함한다.
일부 실시예에 따르면, 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 시스템이 제공되고, 이 시스템은, 비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우 ―플레이어 윈도우는 길이와 폭을 가짐― 에 프리젠팅되게 하기 위한 수단; 플레이어 윈도우 내의 터치스크린을 통해 제1 탭 제스처를 검출하기 위한 수단; 제1 탭 제스처의 수신에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지시키기 위한 수단; 플레이어 윈도우 내의 터치스크린을 통해 제2 탭 제스처를 검출하기 위한 수단; 제2 탭 제스처의 검출에 응답하여 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하기 위한 수단; 적어도 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처 ―제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임― 를 터치스크린을 통해 검출하기 위한 수단; 제1 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하기 위한 수단; 적어도 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처 ―제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임― 를 터치스크린을 통해 검출하기 위한 수단; 및 제2 스와이프 제스처의 검출에 응답하여, 비디오 콘텐츠의 프리젠테이션을 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하기 위한 수단을 포함한다.
일부 실시예에서, 이 시스템은, 터치스크린을 통해 길게 누르기 제스처(press and hold gesture)를 검출하기 위한 수단; 길게 누르기 제스처의 검출과 연계하여 터치스크린을 통해 후속 입력을 수신하기 위한 수단; 및 후속 입력 및 길게 누르기 제스처의 검출에 기초하여 비디오 콘텐츠의 특정 시간이 프리젠팅되게 하기 위한 수단을 더 포함한다.
일부 실시예에서, 길게 누르기 제스처는 플레이어 윈도우의 폭을 따라 제1 지점에서 검출되고, 후속 입력은 적어도 플레이어 윈도우의 폭을 따르는 제2 지점으로의 길게 누르기 제스처의 해제 없는 이동을 포함하고, 이 시스템은 비디오 콘텐츠 내의 시간들을 플레이어 윈도우의 폭에 맵핑하기 위한 수단; 길게 누르기 제스처가 해제 없이 플레이어 윈도우의 폭을 따르는 제2 지점으로 이동했다고 결정하기 위한 수단; 길게 누르기 제스처가 제2 지점으로 이동했다는 결정에 응답하여, 비디오 콘텐츠의 플레이어 윈도우의 폭으로의 맵핑에 기초해 제2 지점에 대응하는 비디오 콘텐츠의 특정한 시간이 프리젠팅되게 하기 위한 수단; 길게 누르기 제스처가 플레이어 윈도우의 폭을 따르는 제2 지점에서 해제되었다고 결정하기 위한 수단; 및 길게 누르기 제스처가 제2 지점에서 해제되었다는 결정에 응답하여, 비디오 콘텐츠의 프리젠테이션을 상기 특정한 시간으로부터 계속하게 하기 위한 수단을 더 포함한다.
일부 실시예들에서, 길게 누르기 제스처가 플레이어 윈도우의 폭을 따르는 제1 지점에서 검출되고, 후속 입력은 적어도 플레이어 윈도우의 폭을 따르는 제2 지점으로의 길게 누르기 제스처의 해제 없는 이동을 포함하며, 이 시스템은, 제1 지점에 기초하여 네비게이션 속도를 플레이어 윈도우의 상이한 부분들에 맵핑하기 위한 수단 ―플레이어 윈도우의 폭을 따르는 제1 지점의 우측의 지점들은 제1 복수의 속도에서의 비디오의 전방 네비게이션에 대응하고 플레이어 윈도우의 폭을 따르는 제1 지점의 좌측의 지점들은 제2 복수의 속도에서의 비디오의 후방 네비게이션에 대응함― ; 길게 누르기 제스처가 해제 없이 플레이어 윈도우의 폭을 따르는 제2 지점으로 이동했다고 결정하기 위한 수단; 길게 누르기 제스처가 제2 지점으로 이동했다는 결정에 응답하여, 네비게이션 속도의 플레이어 윈도우의 폭으로의 맵핑과 플레이어 윈도우의 폭을 따르는 제2 지점의 위치에 기초하여 네비게이션 동작이 특정한 속도로 비디오 콘텐츠를 통한 특정한 방향으로 수행되게 하기 위한 수단; 길게 누르기 제스처가 해제되었다고 결정하기 위한 수단; 및 길게 누르기 제스처가 해제되었다는 결정에 응답하여, 수행 중인 네비게이션 동작에 적어도 부분적으로 기초하여 네비게이트한 비디오의 제3 부분으로부터 비디오 콘텐츠의 프리젠테이션을 계속하게 하기 위한 수단을 더 포함한다.
일부 실시예에서, 이 시스템은, 길게 누르기 제스처의 검출에 응답하여, 복수의 썸네일 ―복수의 썸네일들 각각은 비디오 내의 하나의 시간에서의(at a time) 비디오 데이터를 나타냄― 이 프리젠팅되게 하기 위한 수단; 플레이어 윈도우 내의 터치스크린을 통해 제3 탭 제스처 ―제3 탭 제스처는 복수의 썸네일들 중 하나의 썸네일에 대응함― 를 검출하기 위한 수단; 및 복수의 썸네일들 중 하나의 썸네일에 대응하는 제3 탭 제스처의 검출에 응답하여 선택된 썸네일에 의해 표현되는 비디오의 특정 시간에 대응하는 비디오의 시간으로부터 비디오 콘텐츠의 프리젠테이션을 계속하게 하기 위한 수단을 더 포함한다.
일부 실시예에서, 이 방법은, 복수의 썸네일의 프리젠테이션 동안에 적어도 플레이어 윈도우 내에서 시작하는 제3 스와이프 제스처를 터치스크린을 통해 검출하는 단계; 제3 스와이프 제스처의 검출에 응답하여 제2 복수의 썸네일 ― 제2 복수의 썸네일들 각각은 비디오의 하나의 시간에서의 비디오 데이터를 나타내고, 제2 복수의 썸네일들 중 적어도 하나는 제1 복수의 썸네일들 중 어떠한 것에 의해서도 표현되지 않는 비디오 데이터의 시간을 나타냄― 이 프리젠팅되게 하는 단계; 및 제2 복수의 썸네일들의 프리젠테이션 동안에 플레이어 윈도우 내의 터치스크린을 통해 제3 탭 제스처 ―제3 탭 제스처는 제2 복수의 썸네일들 중 하나의 썸네일에 대응함― 를 검출하는 단계를 더 포함한다.
일부 실시예에서, 플레이어 윈도우는 터치스크린의 전체 스크린을 점유한다.
개시된 주제의 다양한 목적, 피쳐, 및 이점들은, 유사한 참조 번호가 유사한 요소를 식별하는 이하의 도면들과 연계하여 개시된 주제의 이하의 상세한 설명을 참조하면 더욱 충분히 이해될 수 있다.
도 1은 개시된 주제의 일부 실시예에 따른 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 프로세스의 예를 도시한다.
도 2a 내지 도 2c는 개시된 주제의 일부 실시예에 따른 길게 누르기 제스처의 개시 지점으로부터의 이동에 기초하여 프리젠팅 중인 비디오의 특정 부분으로 네비게이트하기 위한 프로세스의 예를 도시한다.
도 3a 및 도 3b는 개시된 주제의 일부 실시예에 따른 비디오의 프리젠테이션을 일시정지하는 사용자 상호작용 동안에 및 그 이후에 터치스크린의 스크린을 이용하여 비디오를 프리젠팅하는 모바일 디바이스의 예를 도시한다.
도 4a 및 도 4b는 개시된 실시예들 중 일부 실시예에 따른 비디오를 네비게이트하기 위한 사용자 입력이 검출되는 동안에 및 그 이후에 터치스크린의 스크린을 이용하여 비디오를 프리젠팅하는 모바일 디바이스의 예를 도시한다.
도 5a 및 도 5b는 개시된 실시예들 중 일부 실시예에 따른 비디오를 네비게이트하기 위한, 길게 누르기 제스처를 포함한 사용자 입력이 검출되는 동안에 및 그 이후에 터치스크린의 스크린을 이용하여 비디오를 프리젠팅하는 모바일 디바이스의 예를 도시한다.
도 6a 내지 도 6c는 개시된 실시예들 중 일부 실시예에 따른 비디오를 네비게이트하기 위한, 길게 누르기 제스처를 포함한 사용자 입력이 검출되는 동안에 및 그 이후에 터치스크린의 스크린을 이용하여 비디오를 프리젠팅하는 모바일 디바이스의 또 다른 예를 도시한다.
도 7a 내지 도 7c는 개시된 실시예들 중 일부 실시예에 따른 비디오를 네비게이트하기 위한, 길게 누르기 제스처를 포함한 사용자 입력이 검출되는 동안에 및 그 이후에 터치스크린의 스크린을 이용하여 비디오를 프리젠팅하는 모바일 디바이스의 역시 또 다른 예를 도시한다.
도 8a 내지 도 8c는 개시된 주제의 일부 실시예에 따른 비디오의 네비게이션 동안 플레이어 윈도우 내에서 프리젠팅될 수 있는 사용자 인터페이스의 예를 도시한다.
도 9는 개시된 주제의 일부 실시예에 따른 컴퓨팅 디바이스를 구현하는데 이용될 수 있는 하드웨어의 예를 도시한다.
개시된 주제의 일부 실시예에 따라, 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 (방법, 시스템 및 매체를 포함할 수 있는) 메커니즘이 제공된다.
일부 실시예에서, 이들 메커니즘은, 사용자가, 비디오 콘텐츠를 프리젠팅하는데 이용되는 플레이어 윈도우 내의 비특정 위치에서 수락될 수 있는 터치 제스처들을 이용하여 비디오 콘텐츠의 재생 및 네비게이션을 제어할 수 있게 한다. 일부 실시예에서, 터치스크린(예를 들어, 스마트폰, 태블릿 컴퓨터, 올인원 컴퓨터, 터치스크린을 갖는 데스크탑 컴퓨터, 터치스크린을 갖는 랩톱 등)을 갖는 컴퓨팅 디바이스에 의해 실행되는 애플리케이션 또는 웹브라우저는 컴퓨팅 디바이스의 스크린의 적어도 일부에 대응하는 플레이어 윈도우에서 비디오를 프리젠팅할 수 있다. 터치스크린은 여기서 일반적으로 입력을 검출하는데 이용되는 것으로 설명되지만, 터치 패드, 트랙볼, 조이스틱, 아날로그 스틱, 마우스, 임의의 다른 적절한 디바이스 및/또는 기술들, 및/또는 이들의 임의의 적절한 조합 등의, 임의의 적절한 디바이스 또는 기술들이 입력을 검출하는데 이용될 수 있다.
일부 실시예에서, 비디오의 프리젠테이션 동안, 여기서 설명된 메커니즘이 플레이어 윈도우 내의 탭 제스처를 검출하거나 및/또는 이러한 탭 제스처가 수신되었다는 표시를 수신한다면, 이 메커니즘은, 비디오가 재생중이면 재생이 일시정지되고 그 반대의 경우도 가능하도록 비디오의 재생/일시정지가 토글(toggle)되게 할 수 있다.
일부 실시예에서, 비디오의 프리젠테이션 동안, 여기서 설명된 메커니즘이 적어도 플레이어 윈도우 내에서 시작하는 스와이프 제스처를 검출하거나 및/또는 이러한 스와이프 제스처가 수신되었다는 표시를 수신한다면, 이 메커니즘은 비디오의 프리젠테이션이 스와이프의 방향에 기초하여 비디오에서 전방 또는 후방으로 미리 결정된 양만큼 스킵하게 할 수 있다.
일부 실시예에서, 비디오의 프리젠테이션 동안에, 여기서 설명된 메커니즘이 플레이어 윈도우 내의 길게 누르기 제스처를 검출하거나 및/또는 이러한 길게 누르기 제스처가 수신되었다는 표시를 수신한다면, 이 메커니즘은 길게 누르기 제스처에 후속하여 수신된 입력에 따라 비디오의 일부로 네비게이트할 수 있다.
도 1은 개시된 주제의 일부 실시예에 따른 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 프로세스의 예(100)를 도시한다.
도 1에 도시된 바와 같이, 프로세스(100)는, 102에서, 사용자 인터페이스의 비디오 프리젠테이션 부분에서 비디오 콘텐츠를 프리젠팅함으로써 시작할 수 있다. 비디오 프리젠테이션 부분은 프리젠팅 중인 비디오의 비디오 데이터를 프리젠팅하는데 이용되는 사용자 인터페이스의 임의의 적절한 부분일 수 있다(비디오는 또한, 비디오 프리젠테이션 부분에 의해 프리젠팅되거나 프리젠팅되지 않을 수도 있는, 오디오 데이터, 메타데이터, 링크, 주석 등의 다른 데이터를 포함할 수 있다는 점에 유의한다). 예를 들어, 비디오 프리젠테이션 부분은, 웹 페이지의 비디오 플레이어 윈도우, 특정 소스 또는 소스들로부터 비디오를 발견 및/또는 프리젠팅하기 위한 애플리케이션의 플레이어 윈도우, 특정 포맷 또는 특정 포맷들의 임의의 소스로부터의 비디오를 프리젠팅하기 위한 애플리케이션(예를 들어, 플러그인)의 플레이어 윈도우, 및/또는 사용자 인터페이스의 임의의 다른 적절한 부분일 수 있다. 비디오를 프리젠팅하는데 이용되는 사용자 인터페이스의 부분은 여기서 일반적으로 플레이어 윈도우라고 지칭된다. 이 용어는 예로서 사용되는 것이며 여기서 설명된 메커니즘이 이용될 수 있는 사용자 인터페이스를 프리젠팅하기 위한 사용자 인터페이스의 부분들을 제한하기 위한 것이 아니라는 점에 유의한다. 일부 실시예에서, 플레이어 윈도우는 비디오를 프리젠팅하는데 이용되고 있는 디바이스의 전체 스크린을 포함할 수 있다.
단계 104에서, 프로세스(100)는, (예를 들어, 도 8과 연계하여 후술되는) 프로세스(100)를 실행하는 디바이스의 터치스크린을 통해 플레이어 윈도우 내에서 탭 입력이 검출되는지를 결정할 수 있다. 탭은, 미리 결정된 기간보다 적은 기간 동안 및/또는 초기 접촉점으로부터 미리 결정된 이동량보다 적은 이동량으로 터치스크린에 의해 검출된 임의의 적절한 터치를 포함할 수 있다. 프로세스(100)는 임의의 적절한 기간을 이용하여, 탭과, 길게 누르기 등의 또 다른 타입의 제스처 간을 구분할 수 있다. 예를 들어, 500 밀리초 미만, 750 밀리초 미만, 1초 미만, 및/또는 임의의 다른 적절한 기간 동안의 접촉은 탭으로서 해석될 수 있다. 프로세스(100)는 제스처가 스와이프 대신에 탭이라고 결정하기 위해 임의의 적절한 거리 임계치를 이용할 수 있다. 예를 들어, 접촉점이 초기 접촉과 해제 사이에서 이동한 거리가 임의의 방향으로 임계치 거리보다 작거나 같다면, 프로세스(100)는 (접촉 시간도 역시 임계 기간 아래이면) 그 제스처를 탭으로서 해석할 수 있다.
일부 실시예에서, 프로세스(100)를 실행하는 디바이스는 제스처를 검출 및/또는 해석하고(예를 들어, 특정 접촉이 탭, 길게 누르기, 스와이프 등인지) 이러한 검출된 제스처를 프로세스(100)에 이용가능하게 할 수 있다. 예를 들어, 특정 제스처가 프로세스(100)를 실행하는 디바이스의 터치스크린에 입력되면, 이 디바이스는 제스처가 탭이라고 결정할 수 있고 탭의 좌표를 결정하며, 이 정보는 제스처 및/또는 좌표에 기초하여 취할 동작을 결정할 수 있는 프로세스(100)에 중계될 수 있다.
프로세스(100)가 터치스크린의 플레이어 윈도우 내의 소정 지점에서 탭 입력이 검출되었다고 결정하면(104에서 "예"), 프로세스(100)는 106으로 진행할 수 있다. 106에서, 프로세스(100)는, 비디오가 현재 재생 상태에 있거나 비디오가 현재 일시정지된 상태에 있는 경우에 재생된다면 비디오의 프리젠테이션을 일시정지시킬 수 있다.
도 3a는 개시된 주제의 일부 실시예에 따른 터치스크린의 스크린(304)을 이용하여 비디오를 프리젠팅하는 모바일 디바이스(302)의 예를 도시한다. 일부 실시예에서, 모바일 디바이스(302)에 의한 비디오의 프리젠테이션 동안, 진행 막대(306)는, 비디오가 프리젠팅될 때 진행 막대(306)를 채우는 막대를 보여줌으로써 프리젠팅되는 비디오의 현재 시간을 보여줄 수 있다. 도 3a의 예에서, 손(308)으로 표시된 사용자는 빈 원(310)으로 나타낸 탭 제스처를 수행하고 있다. 도 3a에 도시된 바와 같이, 모바일 디바이스(302)의 전체 스크린 영역이 플레이어 윈도우로서 이용되고 있지만, 이것은 단지 예일 뿐이며, 스크린(304)의 임의의 적절한 부분이 비디오를 프리젠팅하는데 이용될 수 있다.
도 3b는, 개시된 주제의 일부 실시예에 따른 프로세스(100)가 플레이어 윈도우 내의(예를 들어, 이 예에서는 스크린(304) 내의 임의의 위치에서) 탭을 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 진행 막대(306)는, 탭(및/또는 임의의 다른 적절한 제스처)의 검출에 응답하여, 사용자가 현재 시간 정보를 더 용이하게 인식할 수 있도록 더 큰 크기로 프리젠팅될 수 있다. 일부 실시예에서, 다른 제어 및/또는 정보는, 음량 제어, (예를 들어, 전체 스크린과 비전체 스크린 간의 전환, 되돌아가기 등을 위한) 네비게이션 제어, 및/또는 임의의 다른 적절한 제어 등의, 검출된 탭(310) 등의 입력에 응답하여 노출될 수 있다. 일부 실시예에서, 더 큰 크기로 진행 막대(306)를 프리젠팅하는 대신에 또는 이에 추가하여, 비디오의 진행을 마킹하기 위해, 현재 시간에 대응하는 위치에서 진행 막대(306)를 따른 현재 장면을 나타내는 썸네일 등의, 임의의 다른 적절한 사용자 인터페이스 요소가 프리젠팅될 수 있다.
도 1로 돌아와서, 104에서, 탭이 검출되지 않으면 (104에서 "아니오"), 프로세스(100)는 108로 진행할 수 있다. 108에서, 프로세스(100)는 프로세스(100)를 실행하는 디바이스의 터치스크린을 통해 비디오 프리젠테이션 부분 내에서(및/또는 적어도 그 내에서 시작하는) 스와이프 제스처가 검출되는지를 결정할 수 있다. 스와이프는, 미리 결정된 기간보다 적은 기간 동안 및/또는 초기 접촉점으로부터 임계 이동량보다 크거나 같은 이동량으로 터치스크린에 의해 검출된 임의의 적절한 터치를 포함할 수 있다. 프로세스(100)는 임의의 적절한 기간을 이용하여, 스와이프와, 길게 누르기 및 특정한 방향으로의 이동 등의 또 다른 타입의 제스처 간을 구분할 수 있다. 예를 들어, 500 밀리초 미만, 750 밀리초 미만, 1초 미만, 및/또는 임의의 다른 적절한 기간 동안의 접촉은, 이동량이 임계량보다 크거나 같다면 스와이프로서 해석될 수 있다. 일부 실시예에서, 프로세스(100)는 제스처가 탭 대신에 스와이프라고 결정하기 위해 임의의 적절한 거리 임계치를 이용할 수 있다. 예를 들어, 접촉점이 초기 접촉과 해제 사이에서 이동한 거리가 임의의 방향으로 임계치 거리보다 크거나 같다면, 프로세스(100)는 (접촉 시간도 역시 임계 기간 아래이면) 그 제스처를 스와이프로서 해석할 수 있다.
104와 연계하여 전술된 바와 같이, 일부 실시예에서, 프로세스(100)를 실행하는 디바이스는 제스처를 검출 및/또는 해석하고(예를 들어, 특정 접촉이 탭, 길게 누르기, 스와이프 등인지) 이러한 검출된 제스처를 프로세스(100)에 이용가능하게 할 수 있다.
프로세스(100)가 스와이프 입력이 적어도 플레이어 윈도우의 일부에서 소정 지점에서 시작하여 터치스크린에서 검출되었다고 결정하면(108에서 "예"), 프로세스(100)는 110으로 진행할 수 있다.
110에서, 프로세스(100)는 비디오의 프리젠테이션이 미리 결정된 양의 시간만큼 전방 또는 후방 스킵되도록 할 수 있다. 일부 실시예에서, 프로세스(100)는 비디오의 프리젠테이션이 미리 결정된 양만큼 전방 스킵(예를 들어, 빨리 감기)하도록 함으로써 108에서 검출된 좌측에서 우측으로의 스와이프에 응답할 수 있다. 유사하게, 일부 실시예에서, 프로세스(100)는 비디오의 프리젠테이션이 미리 결정된 양(우측 스와이프가 프리젠테이션이 앞으로 스킵하게 하는 양과 동일하거나 상이할 수 있음)만큼 후방 스킵(예를 들어, 되감기)하게 함으로써 108에서 검출된 우측에서 좌측으로의 스와이프에 응답할 수 있다.
일부 실시예에서, 스와이프에 응답하여 프로세스(100)에 의해 프리젠테이션이 전방 및/또는 후방 스킵되는 시간량은 고정된 시간량(예를 들어, 5 초, 10 초 등)일 수 있다. 대안으로서, 일부 실시예에서, 스와이프에 응답하여 프로세스(100)에 의해 프리젠테이션이 전방 또는 후방 스킵되는 시간량은 하나 이상의 인자에 기초한 가변량의 시간일 수 있다. 예를 들어, 프리젠테이션이 전방 또는 후방 스킵되는 양은 스와이프의 길이에 의존할 수 있다(예를 들어, 더 긴 스와이프는 더 긴 스킵을 야기할 수 있다). 또 다른 예로서, 프리젠테이션이 전방 또는 후방 스킵되는 양은 얼마나 많은 비디오가 남아 있는지 및/또는 프리젠팅되었는지에 의존할 수 있다. 이러한 예에서, 프리젠테이션이 전방 스킵되는 양은, 현재 시간으로부터 프리젠팅될 남아 있는 비디오가 많을수록 더 길고, 현재 시간으로부터 프리젠팅될 남아 있는 비디오가 적을수록 더 짧다. 더 특정한 예에서, 현재 시간으로부터 프리젠팅될 남아 있는 시간이 5분이라면, 프로세스(100)는 스와이프에 응답하여 비디오를 10초만큼 전방 스킵할 수 있지만, 단지 30 초만 남아 있다면, 프로세스(100)는 스와이프에 응답하여 비디오를 5초만큼 전방 스킵할 수 있다. 역시 또 다른 예로서, 프리젠테이션이 전방 또는 후방 스킵되는 양은 얼마나 많은 비디오가 남아 있는지 및/또는 프리젠팅되었는지에 비례할 수 있다. 이러한 예에서, 프로세스(100)는, (예를 들어, 스와이프가 각각 전방 또는 후방 스킵인지에 기초하여) 비디오가 비디오의 총 길이의 미리 결정된 비율만큼 또는 프리젠팅될 남아 있는 비디오의 양의 미리 결정된 비율만큼 전방 스킵하게 할 수 있다.
도 4a는 개시된 실시예들 중 일부 실시예에 따른 파선(402)으로 나타낸 스와이프가 검출될 때 스크린(304)을 이용하여 비디오를 프리젠팅하는 모바일 디바이스(302)의 예를 도시한다. 도 4a의 예에 도시된 바와 같이, 스와이프가 수신될 때 비디오의 현재 시간은 시간 tn으로 표시되고, 또한 진행 막대(306)에 의한 비디오의 총 시간의 비율로서 표시된다. 도 4b는 개시된 실시예들 중 일부 실시예에 따른 프로세스(100)가 플레이어 윈도우 내에서 좌측에서 우측으로의 스와이프(402)를 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(100)는, (예를 들어, 110과 관련하여 전술된 바와 같이) 시간 tn+10초로의 스와이프에 응답하여 비디오의 프리젠테이션이 10초만큼 전방 스킵하게 한다. 스와이프의 높이(예를 들어, 도 4a 및 도 4b에서 위 또는 아래)는 스와이프에 기초하여 스킵되는 시간의 양에 영향을 주거나 주지 않을 수도 있다는 점에 유의한다.
도 1로 돌아와서, 108에서, 스와이프가 검출되지 않으면(108에서 "아니오"), 프로세스(100)는 112로 진행할 수 있다. 112에서, 프로세스(100)는, 프로세스(100)를 실행하는 디바이스의 터치스크린을 통해 플레이어 윈도우 내에서 길게 누르기 제스처가 검출되는지를 결정할 수 있다. 길게 누르기는, 미리 결정된 기간보다 큰 기간 동안 및/또는 초기 접촉점으로부터 임계 이동량보다 작거나 같은 이동량으로 터치스크린에 의해 검출된 임의의 적절한 터치를 포함할 수 있다. 프로세스(100)는 임의의 적절한 기간을 이용하여, 길게 누르기와, 탭 및/또는 스와이프 등의 또 다른 타입의 제스처 간을 구분할 수 있다. 예를 들어, 500 밀리초 초과, 750 밀리초 초과, 1초 초과, 및/또는 임의의 다른 적절한 기간 동안의 접촉은, 이동량이 임계량보다 작거나 같다면 길게 누르기로서 해석될 수 있다. 프로세스(100)는 제스처가 길게 누르기라고 결정하기 위해 임의의 적절한 거리 임계치를 이용할 수 있다. 예를 들어, 접촉점이 초기 접촉과 임계치 기간이 경과한 이후의 접촉점 사이에서 이동한 거리가 임계치 거리보다 작다면, 프로세스(100)는 그 제스처를 길게 누르기로서 해석할 수 있다.
104 및 108과 연계하여 전술된 바와 같이, 일부 실시예에서, 프로세스(100)를 실행하는 디바이스는 제스처를 검출 및/또는 해석하고(예를 들어, 특정 접촉이 탭, 길게 누르기, 스와이프 등인지) 이러한 검출된 제스처를 프로세스(100)에 이용가능하게 할 수 있다.
프로세스(100)가 비디오를 프리젠팅하기 위한 사용자 인터페이스의 부분 내의 터치스크린에서 길게 누르기 입력이 검출되었다고 결정하면(112에서 "예"), 프로세스(100)는 114로 진행할 수 있다. 114에서, 프로세스(100)는 (예를 들어, 특정 양만큼 전방 또는 후방으로 스킵하는 것과는 대조적으로) 비디오 내에서 특정한 및/또는 임의의 시간으로 네비게이트하기 위한 하나 이상의 기능을 수행할 수 있다. 이러한 네비게이션 기능의 예는, 도 2a 내지 도 2c, 도 5a 및 도 5b, 도 6a 내지 도 6c, 및 도 7a 내지 도 7c에 도시되고 이하에서 설명된다.
그렇지 않고, 길게 누르기가 검출되지 않으면(112에서 "아니오"), 프로세스(100)는 102로 복귀하여 비디오 프리젠팅을 계속할 수 있다.
도 2a는 개시된 주제의 일부 실시예에 따른 길게 누르기 제스처의 개시 지점으로부터의 이동에 기초하여 프리젠팅중인 비디오의 특정 부분으로 네비게이트하기 위한 프로세스의 예(200)를 도시한다. 도 2a에 도시된 바와 같이, 프로세스(200)는, 202에서, (예를 들어, 112에서 검출된) 길게 누르기 제스처가 처음 발생하는 플레이어 윈도우의 폭을 따르는 지점을 결정함으로써 시작될 수 있다. 임의의 적절한 기술 또는 기술의 조합이 이러한 지점을 결정하는데 이용될 수 있다. 예를 들어, 플레이어 윈도우의 폭을 따르는 지점을 나타내는 좌표는 길게 누르기가 초기에 검출된 곳(예를 들어, 초기 접촉점 및/또는 접촉의 지속시간이 길게 누르기가 검출된다고 결정하기 위한 임계 기간을 경과한 때의 접촉점)에 기초하여 결정될 수 있습니다. 그 다음 좌표가 플레이어 윈도우의 크기 및/또는 좌표들과 비교되어 초기 지점 앞에 있는(예를 들어, 좌표의 좌측 및 비디오를 프리젠팅하기 위한 부분 내에 있는) 폭의 비율 및 초기 지점 뒤에 있는(예를 들어, 좌표의 좌측 및 비디오를 프리젠팅하기 위한 부분 내에 있는) 부분을 결정할 수 있다. 여기서 논의되는 폭은, 비디오가 초상화 비디오로서 프리젠팅되고 있을 때에는 비디오를 프리젠팅하기 위한 부분의 짧은 측이 폭이 될 수 있고 비디오가 풍경화 비디오로서 프리젠팅되고 있을 때에는 비디오를 프리젠팅하기 위한 부분의 긴 측이 폭이 될 수 있도록 하는, 비디오가 프리젠팅되고 있는 방식에 기초할 수 있다는 점에 유의한다. 비디오를 프리젠팅하기 위한 부분의 긴 측은(예를 들어, 그 부분이 전체 크기보다 작고 스크린이 초상화 방식으로 배향되어 있을 때 풍경화로서 프리젠팅되고 있다면), 비디오를 프리젠팅하는데 이용되고 있는 스크린의 긴 측과 반드시 일치할 필요는 없다는 점에도 유의한다. 일부 실시예에서, 폭이 측정되는 측은 진행 막대가 프리젠팅되는 측에 대응할 수 있다.
204에서, 프로세스(200)는 프리젠팅 중인 비디오의 시간을 플레이어 윈도우의 폭에 맵핑할 수 있다. 일부 실시예에서, 이러한 맵핑은, 임의의 적절한 기술 또는 기술들의 조합을 이용하여 수행될 수 있고 임의의 적절한 방식으로 수행될 수 있다. 예를 들어, 초기 접촉점의 우측에 있는 플레이어 윈도우의 부분은 현재 시간으로부터 시간적으로 전방인 비디오 내의 지점들로 맵핑될 수 있고 플레이어 윈도우의 좌측에 있는 부분은 현재 시간으로부터 시간적으로 후방인 비디오의 지점들로 맵핑될 수 있다.
일부 실시예에서, 프로세스(200)는, 비디오의 시작이 플레이어 윈도우의 좌측에 대응하고, 초기 접촉점이 길게 누르기가 검출되었을 때의 비디오의 시간에 대응하며, 비디오의 끝은 플레이어 윈도우의 우측에 대응하도록, 맵핑을 수행할 수 있다. 이러한 실시예에서, 길게 누르기가 검출된 시간 전후의 시간들은 상이한 스케일로 맵핑될 수 있다. 예를 들어, 길게 누르기가 플레이어 윈도우의 좌측 부근에서 시작되면, 현재 시간 이전의 시간들은 맵핑에 대해 작은 공간을 할당받고 현재 시간 이후의 시간들은 더 많은 공간을 할당받을 수 있다. 이것은, 예를 들어 가장자리 부근에서 네비게이션을 시작함으로써 비디오 내에서 시간적으로 특정 방향으로의 더 정교한 네비게이션을 허용할 수 있다.
206에서, 프로세스(200)는, 길게 누르기가 검출된 후에, 길게 누르기 제스처의 플레이어 윈도우의 폭 방향을 따른 이동이 검출되는지를 결정할 수 있다. 폭 방향을 따른 이동이 검출되면(206에서 "예"), 프로세스(200)는 208로 진행할 수 있다. 208에서, 프로세스(200)는, 204에서 수행된 맵핑에 기초하여, 플레이어 윈도우의 폭을 따르는 새로운 입력 지점에 대응하는 이미지 데이터가 프리젠팅되도록 할 수 있다. 예를 들어, 우측 이동의 각각의 픽셀은 프리젠팅 중인 비디오를 통해 시간적으로 전방으로의 2초 이동으로 맵핑되고 10 픽셀의 우측 이동이 프로세스(200)(및/또는 임의의 다른 적절한 프로세스)에 의해 검출된다면, 프로세스(200)는 길게 누르기가 검출된 시점으로부터 20초 전진하는 시간에 대응하는 이미지 데이터가 프리젠팅되게 할 수 있다. 일부 실시예에서, 이러한 프리젠테이션은 (예를 들어, 썸네일을 프리젠팅함으로써) 전체 플레이어 윈도우 또는 플레이어 윈도우의 일부를 이용하여 발생할 수 있다. 추가로, 일부 실시예에서, 비디오의 프리젠테이션은, (예를 들어, 전체 플레이어 윈도우가 이미지 데이터를 프리젠팅하는데 이용되는 경우) 프로세스(200)와 관련하여 설명된 이러한 네비게이션 동작 동안에 일시정지되거나 그렇지 않으면 금지될 수 있다. 대안으로서, 일부 실시예에서, 비디오의 프리젠테이션은, (예를 들어, 썸네일이 이미지 데이터를 프리젠팅하는데 이용되는 경우) 프로세스(200)와 관련하여 설명된 이러한 네비게이션 동작 동안 길게 누르기가 검출된 지점으로부터 계속될 수 있다.
그렇지 않고, 입력이 검출되지 않는다면(206에서 "아니오"), 프로세스(200)는 210으로 진행할 수 있다. 210에서, 프로세스(200)는 길게 누르기 제스처가 해제되었는지를 결정할 수 있다. 길게 누르기 제스처가 해제되어 있다면(210에서 "예"), 프로세스(200)는 212로 진행하여, 206에서의 검출에 응답한 임의의 네비게이션 이후에 현재 프리젠팅 중인 이미지 데이터에 대응하는 비디오의 지점으로부터 비디오의 프리젠테이션이 계속되게 할 수 있다.
그렇지 않고, 길게 누르기 제스처가 해제되지 않았다면(210에서 "아니오"), 프로세스(200)는 206으로 되돌아가서 이동이 검출되는지를 계속 결정할 수 있다.
일부 실시예에서, 프로세스(200)는 임의의 적절한 검출에 응답하여 네비게이션을 취소할 수 있다(예를 들어, 길게 누르기 제스처가 처음 검출되었을 때의 비디오 내의 지점에 대응하는 비디오 내의 지점으로 다시 네비게이트할 수 있다). 예를 들어, 프로세스(200)는 플레이어 윈도우에 대응하지 않는 터치스크린의 부분으로의 이동의 검출에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(200)는 (예를 들어, 플레이어 윈도우가 전체 스크린에 대응할 때 등) 접촉이 유지되는 동안 터치스크린으로부터의 이탈 이동(movement off the touch screen)을 검출하는 것에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(200)는 터치스크린의 중심을 향한 특정한 베젤로부터의 특정한 제스처, 특정한 다중터치 제스처, 임의의 다른 적절한 제스처, 또는 이들의 임의의 적절한 조합과 같은, 프로세스(200)에서의 네비게이션을 위한 유효한 입력으로서 검출되지 않은 특정한 제스처를 검출하는 것에 응답하여 네비게이션을 취소할 수 있다.
도 5a는 일부 실시예에 따른 채워진 원(502)으로 도시된 길게 누르기 제스처가 검출될 때 스크린(304)을 이용하여 비디오를 프리젠팅하는 모바일 디바이스(302)의 예를 도시한다. 도 5a의 예에 도시된 바와 같이, 길게 누르기가 수신될 때 비디오 내의 현재 시간 tn은 진행 막대(306) 상에 (및/또는 현재 시간을 표현하기 위한 임의의 다른 적절한 기술을 이용하여) 표현될 수 있다. 도 5b는 일부 실시예에 따른 프로세스(100 및/또는 200)가 길게 누르기(502)와 파선(504)으로 나타낸 우측으로의 이동을 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(200)는 도 5b에 도시된 진행 막대(306)로 나타낸 비디오의 시간 tm에 대응하는 이미지 데이터가 프리젠팅되게 한다. 사용자가 도 5b에 도시된 위치로부터의 추가 이동 없이 길게 누르기(502)를 해제했다면, 프로세스(200)는 비디오의 프리젠테이션이 시간 tm으로부터 계속되게 할 수 있다. 높이 방향(예를 들어, 도 5a 및 도 5b의 위와 아래)으로의 이동은 프로세스(200)가 네비게이트하는 비디오의 지점에 영향을 줄 수도 있고 주지 않을 수도 있다는 점에 유의한다.
도 2b는 개시된 주제의 일부 실시예에 따른 길게 누르기 제스처의 개시 지점으로부터의 이동에 기초하여 프리젠팅중인 비디오의 부분들을 통해 네비게이트하기 위한 프로세스의 예(220)를 도시한다. 도 2b에 도시된 바와 같이, 프로세스(220)는, 222에서, (예를 들어, 112에서 검출된) 길게 누르기 제스처가 처음 검출된 플레이어 윈도우의 폭을 따르는 지점을 결정함으로써 시작될 수 있다. 일부 실시예에서, 222는 도 2a와 관련하여 전술된 202와 유사할 수 있다.
224에서, 프로세스(220)는 네비게이션 속도를 플레이어 윈도우의 폭에 맵핑할 수 있다. 일부 실시예에서, 이러한 맵핑은, 임의의 적절한 기술 또는 기술들의 조합을 이용하여 수행될 수 있고 임의의 적절한 방식으로 수행될 수 있다. 예를 들어, 초기 접촉점의 우측에 있는 플레이어 윈도우의 부분은 시간적으로 전방 이동하기 위한 빨리 감기 네비게이션에 맵핑될 수 있고, 초기 접촉점의 좌측에 있는 플레이어 윈도우의 부분은 시간적으로 후방 이동하기 위한 되감기 네비게이션에 맵핑될 수 있다. 일부 실시예에서, 플레이어 윈도우의 폭을 따르는 다양한 지점들에 대응하는 네비게이션의 속도는, 우측 가장자리에 가까운 부분은 초기 접촉점의 바로 우측에 있는 부분보다 빠른 빨리 감기 속도를 나타낼 수 있도록, 초기 접촉점으로부터의 거리에 따라 증가할 수 있다. 일부 실시예에서, 네비게이션 속도의 맵핑은 플레이어 윈도우의 소정 영역이 특정한 속도에 대응하고 그 이웃 영역은 또 다른 속도 등에 대응하게 하도록 이산적일 수 있다. 추가로 또는 대안으로서, 속도는 네비게이션 속도의 맵핑은 플레이어 윈도우의 소저 부분들에서의 초기 접촉점으로부터 거리에 따라 증가하도록 연속적일 수 있고, 소정 지점들에서 이산적인 양만큼 변경되거나 변경되지 않을 수 있다.
226에서, 프로세스(220)는, 좌측 또는 우측으로의 플레이어 윈도우의 폭 방향을 따라, 플레이어 윈도우의 초기 지점과 현재 지점 간에 차이가 있는지를 결정할 수 있다. 폭 방향을 따른 차이가 검출되면(226에서 "예"), 프로세스(220)는 228로 진행할 수 있다. 228에서, 프로세스(220)는 (예를 들어, 224에서의 맵핑에 기초하여) 초기 접촉점과 현재 접촉점 사이의 거리에 기초한 속도로 비디오 데이터를 네비게이트할 수 있다.
그렇지 않고, 입력이 검출되지 않는다면(226에서 "아니오"), 프로세스(220)는 230으로 진행할 수 있다. 230에서, 프로세스(220)는 길게 누르기 제스처가 해제되었는지를 결정할 수 있다. 길게 누르기 제스처가 해제된다면(230에서 "예"), 프로세스(220)는 232로 진행하여 초기 접촉점으로부터 좌측 및/또는 우측으로의 이동을 이용해 빨리 감기 및/또는 되감기하여 네비게이트한 비디오 내의 현재 지점으로부터 비디오의 프리젠테이션이 계속되게 한다. 그렇지 않고, 길게 누르기 제스처가 해제되지 않았다면(230에서 "아니오"), 프로세스(220)는 226으로 되돌아가서 이동이 검출되는지를 계속 결정할 수 있다.
일부 실시예에서, 프로세스(220)는 임의의 적절한 검출에 응답하여 네비게이션을 취소할 수 있다(예를 들어, 길게 누르기 제스처가 처음 검출되었을 때의 비디오 내의 지점에 대응하는 비디오 내의 지점으로 다시 네비게이트할 수 있다). 예를 들어, 프로세스(220)는 플레이어 윈도우에 대응하지 않는 터치스크린의 부분으로의 이동의 검출에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(220)는 (예를 들어, 플레이어 윈도우가 전체 스크린에 대응할 때 등) 접촉이 유지되는 동안 터치스크린으로부터의 이탈 이동을 검출하는 것에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(220)는 터치스크린의 중심을 향한 특정한 베젤로부터의 특정한 제스처, 특정한 다중터치 제스처, 임의의 다른 적절한 제스처, 또는 이들의 임의의 적절한 조합 등의, 프로세스(220)에서의 네비게이션을 위한 유효한 입력으로서 검출되지 않은 특정한 제스처를 검출하는 것에 응답하여 네비게이션을 취소할 수 있다.
도 6a는 개시된 주제의 일부 실시예에 따른 채워진 원(602)으로 도시된 길게 누르기 제스처가 검출될 때 스크린(304)을 이용하여 비디오를 프리젠팅하는 모바일 디바이스(302)의 예를 도시한다. 도 6a의 예에 도시된 바와 같이, 길게 누르기가 수신되는 비디오의 현재 시간은 진행 막대(306)에 의해 (및/또는 현재 시간을 표현하기 위한 임의의 다른 적절한 기술을 이용하여) 표현될 수 있다. 도 6b는 개시된 주제의 일부 실시예에 따른 프로세스(100 및/또는 220)가 길게 누르기(602)와 파선(604)으로 나타낸 우측으로의 이동을 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(220)는 길게 누르기(602)의 초기 접촉점과 (예를 들어, 파선(604)의 길이와 방향으로 나타낸) 현재 위치 사이의 거리에 기초하여 (예를 들어, 최대 네비게이션 속도에 비해) 비교적 느린 속도로 비디오를 통해 전방으로 네비게이트할 수 있다. 도 6c는 개시된 주제의 일부 실시예에 따른 프로세스(100 및/또는 220)가 길게 누르기(602)와 (파선(604)보다 긴) 파선(606)으로 나타낸 더 우측으로의 이동을 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(220)는 길게 누르기(602)의 초기 접촉점과 (예를 들어, 파선(606)의 길이와 방향으로 나타낸) 현재 위치 사이의 거리에 기초하여 (예를 들어, 도 6b의 속도에 비해) 비교적 빠른 속도로 비디오를 통해 전방으로 네비게이트할 수 있다. 높이 방향(예를 들어, 도 6a 내지 도 6c의 위와 아래)으로의 이동은 네비게이션 속도에 영향을 줄 수도 있고 주지 않을 수도 있다는 점에 유의한다.
도 2c는 개시된 주제의 일부 실시예에 따른 길게 누르기 제스처에 응답하여 프리젠팅되는 비디오 내의 지점들을 나타내는 썸네일들에 기초하여 프리젠팅 중인 비디오의 특정 부분으로 네비게이트하기 위한 프로세스의 예(240)를 도시한다. 도 2c에 도시된 바와 같이, 프로세스(240)는, 242에서, 길게 누르기 제스처가 검출될 때 (예를 들어, 112), 비디오의 현재 시간 주변의 비디오 데이터에 대응하는 썸네일을 프리젠팅함으로써 시작될 수 있다. 일부 실시예에서, 길게 누르기 제스처가 검출되었을 때 프리젠팅되는 비디오의 시간에 대응하는 썸네일이 프리젠팅될 수 있고, 하나 이상의 썸네일은 길게 누르기 제스처가 검출되었을 때 프리젠팅 중인 비디오의 시간 전 및/또는 후의 비디오의 시간들에 대응한다.
일부 실시예에서, 이러한 썸네일들은 도 1의 112와 관련하여 전술된 바와 같이 길게 누르기 제스처의 검출에 응답하여 생성될 수 있다. 예를 들어, 이러한 썸네일들은 길게 누르기 제스처가 검출될 때 비디오 데이터로부터 추출될 수 있다. 추가로 또는 대안으로서, 일부 실시예에서, 이러한 썸네일들은 도 1의 112와 관련하여 전술된 길게 누르기 제스처의 검출 이전에 캐싱 및/또는 기타의 방식으로 저장될 수 있고, 길게 누르기 제스처의 검출에 응답하여 회수될 수 있다.
일부 실시예에서, 각각의 썸네일은 비디오 내의 특정한 지점을 나타낼 수 있거나 및/또는 비디오 내의 이러한 지점 주변의 부분을 나타낼 수 있다. 예를 들어, 일부 실시예에서, 하나의 썸네일이 비디오의 각각의 초(second)와 연관될 수 있고, 이러한 썸네일은 비디오의 그 초와 연관된 프레임으로부터 생성될 수 있다. 또 다른 예로서, 일부 실시예에서, 하나의 썸네일은 (예를 들어, 이미지 데이터에서의 차이들이 임계치 적어도 차이라는 것에 기초하여) 5초 및/또는 비디오 내의 장면의 구성에 상당한 변화가 있는 곳 등의 비디오의 더 큰 부분과 연관될 수 있다.
244에서, 프로세스(240)는 스크롤 또는 스와이프 제스처가 검출되는지를 결정할 수 있다. 일부 실시예에서, 스크롤은 터치스크린과의 접촉이 유지되는 시간의 양에 의해 스와이프와 구별될 수 있는데, 여기서, 스크롤은 임계 기간보다 긴 기간 동안 접촉이 유지되는 제스처이고, 스와이프는, 전술된 바와 같이, 임계 기간보다 짧은 기간 동안 접촉이 유지되는 제스처일 수 있다. 스크롤 또는 스와이프 제스처가 검출되면(244에서 "예"), 프로세스(240)는 246으로 진행할 수 있다. 246에서, 프로세스(240)는 입력에 기초하여 썸네일을 통해 네비게이트할 수 있고, 비디오 내의 새로운 위치와 연관된 썸네일들이 프리젠팅되게 할 수 있다. 일부 실시예에서, 상이한 입력들은 썸네일을 통한 네비게이션이 상이한 양만큼 수행되게 할 수 있다. 예를 들어, 좌측으로의 스크롤 입력에 응답하여, 프로세스(240)는 스크롤 동작의 속도에 대응하는 비교적 느린 속도로 현재 시간 이전의 시간에 대응하는 썸네일들을 통한 네비게이션을 야기할 수 있다. 또 다른 예로서, 우측으로의 스와이프 입력에 응답하여, 240은 비교적 빠른 속도로 현재 시간 이후의 시간에 대응하는 썸네일들을 통한 네비게이션을 야기할 수 있다(예를 들어, 현재 시간 이후의 시간에 대응하는 미리 결정된 개수의 썸네일들을 스킵한다). 일부 실시예들에서, 네비게이션의 속도는, 입력을 형성하는데 이용된 이동이 더 빠를 때 썸네일들이 더 빠르게 네비게이트되도록, 검출된 입력의 이동 속도에 대응할 수 있다.
그렇지 않고, 입력이 검출되지 않는다면(244에서 "아니오"), 프로세스(240)는 248로 진행할 수 있다. 248에서, 프로세스(240)는, 선택하고자 하는 썸네일 상의 탭 등의 임의의 적절한 입력을 이용하여 프리젠팅 중인 특정한 썸네일이 선택되었는지를 결정할 수 있다. 특정한 썸네일이 선택되었다면(248에서 "예"), 프로세스(240)는 250으로 진행할 수 있고, 선택된 썸네일에 대응하는 시간부터 비디오의 프리젠테이션이 계속되게 할 수 있다. 그렇지 않고, 썸네일이 선택되지 않으면(248에서 "아니오"), 프로세스(240)는 242로 되돌아가서 (예를 들어, 246에서 썸네일을 통한 네비게이션에 기초하여) 현재 시점과 연관된 썸네일을 계속 프리젠팅할 수 있다.
일부 실시예에서, 프로세스(240)는 임의의 적절한 검출에 응답하여 네비게이션을 취소할 수 있다(예를 들어, 길게 누르기 제스처가 처음 검출되었을 때의 비디오 내의 지점에 대응하는 비디오 내의 지점으로 다시 네비게이트할 수 있다). 예를 들어, 프로세스(240)는 썸네일에 대응하지 않는 플레이어 윈도우의 부분 상에서 탭을 검출하는 것에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(240)는, (예를 들어, 썸네일이 전체 플레이어 윈도우에 대응할 때 등) 썸네일을 통한 네비게이션을 달성하는 방향과 직교하는 방향의 스와이프를 검출하는 것에 응답하여 네비게이션을 취소할 수 있다. 또 다른 예로서, 프로세스(240)는 터치스크린의 중심을 향한 특정한 베젤로부터의 특정한 제스처, 특정한 다중터치 제스처, 임의의 다른 적절한 제스처, 또는 이들의 임의의 적절한 조합 등의, 프로세스(240)에서의 네비게이션을 위한 유효한 입력으로서 검출되지 않은 특정한 제스처를 검출하는 것에 응답하여 네비게이션을 취소할 수 있다.
도 7a는 개시된 주제의 일부 실시예에 따른 채워진 원(702)으로 도시된 길게 누르기 제스처가 검출될 때 스크린(304)을 이용하여 비디오를 프리젠팅하는 모바일 디바이스(302)의 예를 도시한다. 도 7a의 예에 도시된 바와 같이, 길게 누르기가 수신될 때 비디오 내의 현재 시간은 진행 막대(306) 상에 (및/또는 현재 시간을 표현하기 위한 임의의 다른 적절한 기술을 이용하여) 표현될 수 있다. 도 7b는 프로세스(100 및/또는 240)가 길게 누르기(702)를 검출한 후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(240)는, 개시된 주제의 일부 실시예에 따라 길게 누르기(702)가 초기에 수신된 시간에서의 현재 장면을 나타내는 (예를 들어, 썸네일(706)로 나타낸) 썸네일들(704-708) 및 현재 시간 전후의 시간들을 나타내는 (예를 들어, 각각 썸네일들(704 및 708)로 나타낸) 썸네일들이 프리젠팅되게 할 수 있다. 3개의 썸네일이 도시되어 있지만, 이용중인 스크린의 크기, 스크린 내의 플레이어 윈도우의 크기, 스크린의 해상도, 썸네일의 크기에 기초하여, 및/또는 임의의 다른 적절한 인자들에 기초하여, 임의의 적절한 개수의 썸네일들이 프리젠팅될 수 있다는 점에 유의한다. 또한, 썸네일들(704-708)이 프리젠팅되는 크기와 스타일은 단지 예일 뿐이고, 썸네일들은 임의의 적절한 기술, 크기, 스타일 등을 이용하여 프리젠팅될 수 있다는 점에 유의한다.
도 7b에 도시된 바와 같이, 파선(710)으로 나타낸 스와이프가 검출된다. 도 7c는 프로세스들(100 및/또는 240)이 개시된 주제의 일부 실시예에 따라 스와이프(710) 및/또는 임의의 다른 적절한 입력 등의, 썸네일들을 통해 네비게이트하는 입력들을 검출한 이후의 모바일 디바이스(302)의 예를 도시한다. 도시된 바와 같이, 프로세스(240)는 도 7c에 도시된 진행 막대(306)에 의해 표시된 시간 주변의 시간들에서 비디오를 나타낼 수 있는 썸네일들(712-716)이 프리젠팅되게 할 수 있다. 프로세스(240)는 원(718)으로 표시된 썸네일(716)을 선택하는 탭 입력을 검출할 수 있고, 응답하여 비디오가 썸네일(716)에 대응하는 시간으로부터 프리젠팅되게 할 수 있다.
도 8a 내지 도 8c는 개시된 주제의 일부 실시예에 따른 비디오의 네비게이션 동안 플레이어 윈도우 내에서 프리젠팅될 수 있는 사용자 인터페이스의 예를 도시한다. 도 8a 내지 도 8c에 도시된 바와 같이, 일부 실시예에서, 접촉이 검출된 플레이어 윈도우 내의 현재 위치를 나타내기 위해 원으로 표시된 마커(802)가 사용자 인터페이스에 프리젠팅될 수 있다. 일부 실시예에서, 마커(802)는, 임의의 적절한 기술 또는 기술들의 조합을 이용하여 프리젠팅될 수 있고, 임의의 적절한 형상, 심볼 등을 이용하여 전달될 수 있다는 점에 유의한다. 일부 실시예에서, 마커(802)는 생략될 수 있다.
일부 실시예에서, 접촉이 검출되는 지점 주변에 영역(804)이 도시될 수 있고, 음영 또는 반투명 영역으로서 프리젠팅될 수 있어서, 접촉이 이루어진 지점에 대응하는 영역(804)의 중심을 추론함으로써 접촉이 이루어지는 위치를 결정하는데 있어서 사용자를 보조할 수 있다.
일부 실시예에서, 썸네일(806)은 사용자 인터페이스에 의해 현재 프리젠팅 중인 이미지 데이터 및/또는 비디오 데이터에 대응하는 시점에서 진행 막대(306)에 인접하여 프리젠팅될 수 있다. 일부 실시예에서, 현재 프리젠팅된 이미지 데이터 및/또는 비디오 데이터와 연관된 시간은 진행 막대(306) 및/또는 썸네일(806)과 연관하여 프리젠팅될 수 있다. 예를 들어, 도 8a에서의 시간은 1분 14초이고, 도 8b에서의 시간은 44초이며, 도 8c에서의 시간은 40초이다. 일부 실시예에서, 전체 시간(808)이 사용자 인터페이스에서 프리젠팅될 수 있다. 예를 들어, 도 8a 내지 도 8c에서, 총 시간(808)은 1분 22초이다.
도 9는 개시된 주제의 일부 실시예에 따른 컴퓨팅 디바이스(902)를 구현하는데 이용될 수 있는 하드웨어의 예(900)를 도시한다. 일부 실시예에서, 컴퓨팅 디바이스(902)는, 스마트폰, 태블릿 컴퓨터, 착용형 컴퓨터, 퍼스널 컴퓨터, 랩톱 컴퓨터, 게임 콘솔, 디지털 미디어 수신기, 셋톱박스, 스마트 텔레비전, 서버 등의 임의의 적절한 컴퓨팅 디바이스를 포함할 수 있다. 예를 들어, 컴퓨팅 디바이스(902)는 컴퓨팅 디바이스(302)일 수 있다. 도 9를 참조하면, 컴퓨팅 디바이스(902)는, 상호접속될 수 있는 하드웨어 프로세서(912), 디스플레이/입력 디바이스(914), 메모리(916) 및 전송기/수신기(918)를 포함할 수 있다. 일부 실시예에서, 메모리(916)는, 하드웨어 프로세서(912)를 제어하기 위한 컴퓨터 프로그램을 저장하기 위한 저장 디바이스(예를 들어, 컴퓨터-판독가능한 매체)를 포함할 수 있다.
하드웨어 프로세서(912)는, 사용자가, 특히, 하드웨어 프로세서(912)에 의한 비디오의 프리젠테이션을 제어하는 것을 허용하는 플레이어 윈도우 및/또는 사용자 인터페이스를 디스플레이/입력 디바이스(914) 상에 프리젠팅하거나, 및/또는 프로세스들(100, 200, 220 및 240) 중 하나 이상의 적어도 일부를 수행하는 컴퓨터 프로그램을 이용할 수 있다. 일부 실시예에서, 하드웨어 프로세서(912)는, 예를 들어, 전송기, 수신기, 전송기/수신기, 트랜시버, 또는 임의의 다른 적절한 통신 네트워크를 통해 데이터를 전송 및 수신하는 전송기/수신기(918) 등의 임의의 다른 적절한 디바이스를 이용하여 임의의 적절한 통신 링크를 통해 데이터를 전송 및 수신할 수 있다. 이러한 통신 네트워크는, 인터넷, 인트라넷, 광역 네트워크(WAN), 근거리 통신망(LAN), 무선 네트워크, 디지털 가입자 회선(DSL) 네트워크, 프레임 중계 네트워크, 비동기 전송 모드(ATM) 네트워크, 가상 사설 네트워크(VPN) 등을 포함한, 임의의 적절한 컴퓨터 네트워크 또는 이러한 네트워크들의 조합일 수 있다. 통신 링크는, 네트워크 링크, 다이얼업 링크, 무선 링크, 하드-와이어드 링크, 임의의 다른 적절한 통신 링크, 또는 이러한 링크들의 임의의 적절한 조합 등의, 컴퓨팅 디바이스(902) 및/또는 임의의 다른 적절한 디바이스들 사이에서 데이터를 전달하기에 적절한 임의의 통신 링크일 수 있다.
디스플레이/입력 디바이스(914)는, 터치스크린, 평판 디스플레이, 음극선관 디스플레이, 프로젝터, 스피커 및/또는 임의의 다른 적절한 디스플레이 및/또는 프리젠테이션 디바이스를 포함할 수 있고, 터치스크린, 터치 패드, 트랙볼, 조이스틱, 아날로그 스틱, 컴퓨터 키보드, 컴퓨터 마우스, 마이크로폰, 음성 인식 회로, 및/또는 임의의 다른 적절한 입력 디바이스의 터치 인터페이스를 더 포함할 수 있다. 전송기/수신기(918)는 특히 비디오 콘텐츠를 전송 및/또는 수신하기 위한 임의의 적절한 전송기 및/또는 수신기를 포함할 수 있다.
일부 실시예에서, 여기서 설명된 메커니즘은, 소프트웨어, 펌웨어, 하드웨어, 또는 이들의 임의의 적절한 조합을 포함할 수 있다. 예를 들어, 여기서 설명된 메커니즘은, 하드웨어 프로세서(912)에 의해 인식가능한 프로그래밍 언어로 작성된 컴퓨터 프로그램(예를 들어, Java, C, Objective-C, C++, C#, Javascript, Visual Basic 또는 임의의 다른 적절한 접근법 등의 프로그래밍 언어로 작성된 프로그램)을 포괄할 수 있다. 또 다른 예로서, 여기서 설명된 메커니즘은, (예를 들어, HTML(Hyper Text Markup Language), DHTML(Dynamic Hyper Text Markup Language), XML(Extensible Markup Language), JSP(JavaServer Pages), ASP(Active Server Pages), Cold Fusion, 또는 임의의 다른 적절한 접근법 등의 임의의 적절한 인코딩을 통해) 하나 이상의 웹 페이지 또는 웹 페이지 부분에 대응하는 코드를 포함할 수 있다.
일부 실시예에서, 여기서 설명된 기능 및/또는 프로세스를 수행하기 위한 명령어들을 저장하기 위해 임의의 적절한 컴퓨터 판독가능한 매체가 사용될 수 있다. 예를 들어, 일부 실시예에서, 컴퓨터 판독가능한 매체는 일시적 또는 비일시적일 수 있다. 예를 들어, 비일시적 컴퓨터 판독가능한 매체는, (하드 디스크, 플로피 디스크 등의) 자기 매체, (컴팩트 디스크, 디지털 비디오 디스크, Blu-ray 디스크 등의) 광학 매체, (플래시 메모리, 전기적으로 프로그램가능한 판독 전용 메모리(EPROM), 전기적으로 소거가능한 프로그램가능한 판독 전용 메모리(EEPROM) 등의) 반도체 매체와 같은 매체, 전송 동안에 외관상의 영구성(any semblance of permanence)이 순간적이지 않거나 전혀 없지 않은 임의의 적절한 매체, 및/또는 임의의 적절한 유형의 매체를 포함할 수 있다. 다른 예로서, 일시적인 컴퓨터 판독가능한 매체는, 네트워크, 와이어, 도전체, 광섬유, 회로에서의 신호, 전송 동안에 외관상의 영구성이 순간적이거나 전혀 없는 임의의 적절한 매체, 및/또는 임의의 적절한 무형의 매체를 포함할 수 있다.
도 1 및 도 2a 내지 도 2c의 프로세스들의 전술된 단계들은 도면에 도시되고 설명된 순서 및 시퀀스로 제한되지 않는 임의의 순서 또는 시퀀스로 실행되거나 수행될 수 있다는 것을 이해해야 한다. 또한, 도 1 및 도 2a 내지 도 2c의 프로세스들의 상기 단계들 중 일부는 레이턴시 및 처리 시간을 감소시키기 위해 적절한 경우 실질적으로 동시에 또는 병렬로 실행되거나 수행될 수 있다.
여기서 사용될 때, 메커니즘이라는 용어는, 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 적절한 조합을 포함할 수 있다는 점에도 역시 유의해야 한다.
따라서, 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체가 제공된다.
본 발명이 전술된 예시적인 실시예들에서 설명되고 도시되었지만, 본 개시내용은 단지 예로서 이루어진 것이고, 이하의 청구항들에 의해서만 제한되는 본 발명의 사상과 범위로부터 벗어나지 않고 본 발명의 실시예의 세부사항들에서 많은 변경이 이루어질 수 있다는 것을 이해해야 한다. 개시된 실시예들의 피쳐들은 다양한 방식으로 결합되고 재배열될 수 있다.

Claims (21)

  1. 모바일 디바이스 상에 프리젠팅되는(presented) 비디오의 프리젠테이션(presentation)을 제어하기 위한 방법으로서,
    비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우에 프리젠팅되게 하는 단계 ― 상기 플레이어 윈도우는 길이와 폭을 가지고, 상기 플레이어 윈도우는 상기 비디오 콘텐츠의 재생(playback) 위치를 나타내는 제1 크기의 진행 막대(progress bar)를 포함함 ―;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제1 탭 제스처(tap gesture)를 검출하는 단계;
    상기 제1 탭 제스처의 수신에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 일시정지시키고 상기 진행 막대의 크기를 상기 제1 크기에서 제2 크기로 증가시키는 단계;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제2 탭 제스처를 검출하는 단계;
    상기 제2 탭 제스처의 검출에 응답하여 상기 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하는 단계;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처(swipe gesture)를 상기 터치스크린을 통해 검출하는 단계 ―상기 제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임 ―;
    상기 제1 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이후의 시간으로 전방 스킵(skip forward)하게 하는 단계 ― 상기 비디오 콘텐츠는 미리 정해진 시간 기간만큼 전방 스킵됨 ―;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처를 상기 터치스크린을 통해 검출하는 단계 ― 상기 제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임 ―; 및
    상기 제2 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이전의 시간으로 후방 스킵(skip backward)하게 하는 단계 ― 상기 비디오 콘텐츠는 상기 미리 정해진 시간 기간만큼 후방 스킵됨 ―
    를 포함하고,
    상기 방법은:
    상기 터치스크린을 통해 길게 누르기 제스처(press and hold gesture)를 검출하는 단계;
    상기 길게 누르기 제스처의 검출과 연계하여 상기 터치스크린을 통해 후속 입력을 수신하는 단계;
    상기 길게 누르기 제스처의 검출 및 상기 후속 입력에 기초하여 상기 비디오 콘텐츠의 특정 시간이 프리젠팅되게 하는 단계 ― 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 제1 지점에서 검출되고, 상기 후속 입력은 상기 플레이어 윈도우의 폭을 따르는 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 적어도 포함함 ―;
    상기 비디오 콘텐츠 내의 시간들을 상기 플레이어 윈도우의 폭에 맵핑하는 단계 ― 상기 길게 누르기 제스처가 검출된 때 이전의 및 이후의 시간들은 상이한 스케일들로 맵핑됨 ―;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로 이동했다고 결정하는 단계;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 플레이어 윈도우의 폭으로의 상기 비디오 콘텐츠의 맵핑에 기초해 상기 제2 지점에 대응하는 상기 비디오 콘텐츠의 특정한 시간이 프리젠팅되게 하는 단계;
    상기 길게 누르기 제스처가 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점에서 해제되었다고 결정하는 단계; 및
    상기 길게 누르기 제스처가 상기 제2 지점에서 해제되었다는 결정에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 특정한 시간으로부터 계속하게 하는 단계
    를 더 포함하는 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점에서 검출되고, 상기 후속 입력은 적어도 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 포함하고, 상기 방법은,
    상기 제1 지점에 기초하여 네비게이션 속도들(navigation speeds)을 상기 플레이어 윈도우의 상이한 부분들에 맵핑하는 단계 ―상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 우측의 지점들은 제1 복수의 속도에서의 상기 비디오의 전방 네비게이션(navigation forward)에 대응하고 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 좌측의 지점들은 제2 복수의 속도에서의 상기 비디오의 후방 네비게이션(navigation backward)에 대응함― ;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로 이동했다고 결정하는 단계;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 네비게이션 속도들의 상기 플레이어 윈도우의 폭으로의 맵핑과 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점의 위치에 기초하여 네비게이션 동작이 특정한 속도로 상기 비디오 콘텐츠를 통한 특정한 방향으로 수행되게 하는 단계;
    상기 길게 누르기 제스처가 해제되었다고 결정하는 단계; 및
    상기 길게 누르기 제스처가 해제되었다는 결정에 응답하여, 수행 중인 상기 네비게이션 동작에 적어도 부분적으로 기초하여 네비게이트한 상기 비디오의 제3 부분으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게 하는 단계
    를 더 포함하는 방법.
  5. 제1항에 있어서, 상기 길게 누르기 제스처는 상기 비디오의 프리젠테이션 동안에 상기 플레이어 윈도우 내에서 검출되고, 상기 후속 입력은 적어도 제3 탭 제스처를 포함하며, 상기 방법은,
    상기 길게 누르기 제스처의 검출에 응답하여, 복수의 썸네일(thumbnail)들이 프리젠팅되게 하는 단계 ― 상기 복수의 썸네일들 각각은 상기 비디오 내의 하나의 시간에서의(at a time) 비디오 데이터를 나타냄 ― ;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제3 탭 제스처를 검출하는 단계 ― 상기 제3 탭 제스처는 상기 복수의 썸네일들 중 하나의 썸네일에 대응함 ―; 및
    상기 복수의 썸네일들 중 상기 하나의 썸네일에 대응하는 상기 제3 탭 제스처의 검출에 응답하여 상기 복수의 썸네일들 중 상기 하나의 썸네일에 의해 표현되는 상기 비디오의 특정 시간에 대응하는 상기 비디오의 시간으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게 하는 단계
    를 더 포함하는 방법.
  6. 제5항에 있어서,
    상기 복수의 썸네일의 프리젠테이션 동안에 적어도 상기 플레이어 윈도우 내에서 시작하는 제3 스와이프 제스처를 상기 터치스크린을 통해 검출하는 단계;
    상기 제3 스와이프 제스처의 검출에 응답하여 제2 복수의 썸네일들이 프리젠팅되게 하는 단계 ― 상기 제2 복수의 썸네일들 각각은 상기 비디오의 하나의 시간에서의 비디오 데이터를 나타내고, 상기 제2 복수의 썸네일들 중 적어도 하나는 상기 복수의 썸네일들 중 어떠한 것에 의해서도 표현되지 않는 상기 비디오 데이터의 시간을 나타냄 ―; 및
    상기 제2 복수의 썸네일들의 프리젠테이션 동안에 상기 플레이어 윈도우 내의 상기 터치스크린을 통해 상기 제3 탭 제스처를 검출하는 단계 ― 상기 제3 탭 제스처는 상기 제2 복수의 썸네일들 중 하나에 대응함 ―
    를 더 포함하는 방법.
  7. 제1항에 있어서, 상기 플레이어 윈도우는 상기 터치스크린의 전체 스크린을 점유하는, 방법.
  8. 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 시스템으로서,
    하드웨어 프로세서
    를 포함하고, 상기 하드웨어 프로세서는:
    비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우에 프리젠팅되게 하고 ― 상기 플레이어 윈도우는 길이와 폭을 가지고, 상기 플레이어 윈도우는 상기 비디오 콘텐츠의 재생 위치를 나타내는 제1 크기의 진행 막대를 포함함 ―;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제1 탭 제스처를 검출하며;
    상기 제1 탭 제스처의 수신에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 일시정지시키고 상기 진행 막대의 크기를 상기 제1 크기에서 제2 크기로 증가시키고;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제2 탭 제스처를 검출하며;
    상기 제2 탭 제스처의 검출에 응답하여 상기 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하고;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처를 상기 터치스크린을 통해 검출하며 ― 상기 제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임 ―;
    상기 제1 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하고 ― 상기 비디오 콘텐츠는 미리 정해진 시간 기간만큼 전방 스킵됨 ―;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처를 상기 터치스크린을 통해 검출하며 ― 상기 제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임 ―;
    상기 제2 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하도록 ― 상기 비디오 콘텐츠는 상기 미리 정해진 시간 기간만큼 후방 스킵됨 ―
    프로그램되고,
    상기 하드웨어 프로세서는:
    상기 터치스크린을 통해 길게 누르기 제스처를 검출하고;
    상기 길게 누르기 제스처의 검출과 연계하여 상기 터치스크린을 통해 후속 입력을 수신하며;
    상기 후속 입력 및 상기 길게 누르기 제스처의 검출에 기초하여 상기 비디오 콘텐츠의 특정 시간이 프리젠팅되게 하고 ― 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 제1 지점에서 검출되고, 상기 후속 입력은 적어도 상기 플레이어 윈도우의 폭을 따르는 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 포함함 ―;
    상기 비디오 콘텐츠 내의 시간들을 상기 플레이어 윈도우의 폭에 맵핑하고 ― 상기 길게 누르기 제스처가 검출된 때 이전의 및 이후의 시간들은 상이한 스케일들로 맵핑됨 ―;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 제2 지점으로 이동했다고 결정하며;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 비디오 콘텐츠의 상기 플레이어 윈도우의 폭으로의 맵핑에 기초해 상기 제2 지점에 대응하는 상기 비디오 콘텐츠의 특정한 시간이 프리젠팅되게 하고;
    상기 길게 누르기 제스처가 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점에서 해제되었다고 결정하며;
    상기 길게 누르기 제스처가 상기 제2 지점에서 해제되었다는 결정에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 특정한 시간으로부터 계속하게 하도록
    추가로 프로그램된, 시스템.
  9. 삭제
  10. 삭제
  11. 제8항에 있어서, 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점에서 검출되고, 상기 후속 입력은 적어도 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 포함하며, 상기 하드웨어 프로세서는:
    상기 제1 지점에 기초하여 네비게이션 속도들을 상기 플레이어 윈도우의 상이한 부분들에 맵핑하고 ―상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 우측의 지점들은 제1 복수의 속도에서의 상기 비디오의 전방 네비게이션에 대응하고 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 좌측의 지점들은 제2 복수의 속도에서의 상기 비디오의 후방 네비게이션에 대응함― ;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로 이동했다고 결정하며;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 네비게이션 속도들의 상기 플레이어 윈도우의 폭으로의 맵핑과 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점의 위치에 기초하여 네비게이션 동작이 특정한 속도로 상기 비디오 콘텐츠를 통한 특정한 방향으로 수행되게 하고;
    상기 길게 누르기 제스처가 해제되었다고 결정하며;
    상기 길게 누르기 제스처가 해제되었다는 결정에 응답하여, 수행 중인 상기 네비게이션 동작에 적어도 부분적으로 기초하여 네비게이트한 상기 비디오의 제3 부분으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게
    하도록 추가로 프로그램된, 시스템.
  12. 제8항에 있어서, 상기 길게 누르기 제스처는 상기 비디오의 프리젠테이션 동안에 상기 플레이어 윈도우 내에서 검출되고, 상기 후속 입력은 적어도 제3 탭 제스처를 포함하며, 상기 하드웨어 프로세서는:
    상기 길게 누르기 제스처의 검출에 응답하여, 복수의 썸네일들이 프리젠팅되게 하고 ― 상기 복수의 썸네일들 각각은 상기 비디오 내의 하나의 시간에서의 비디오 데이터를 나타냄 ―;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제3 탭 제스처를 검출하며 ― 상기 제3 탭 제스처는 상기 복수의 썸네일들 중 하나의 썸네일에 대응함 ―;
    상기 복수의 썸네일들 중 상기 하나의 썸네일에 대응하는 상기 제3 탭 제스처의 검출에 응답하여 상기 복수의 썸네일들 중 상기 하나의 썸네일에 의해 표현되는 상기 비디오의 특정 시간에 대응하는 상기 비디오의 시간으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게
    하도록 추가로 프로그램된, 시스템.
  13. 제12항에 있어서, 상기 하드웨어 프로세서는:
    상기 복수의 썸네일의 프리젠테이션 동안에 적어도 상기 플레이어 윈도우 내에서 시작하는 제3 스와이프 제스처를 상기 터치스크린을 통해 검출하고;
    상기 제3 스와이프 제스처의 검출에 응답하여 제2 복수의 썸네일들이 프리젠팅되게 하며 ― 상기 제2 복수의 썸네일들 각각은 상기 비디오의 하나의 시간에서의 비디오 데이터를 나타내고, 상기 제2 복수의 썸네일들 중 적어도 하나는 상기 복수의 썸네일들 중 어떠한 것에 의해서도 표현되지 않는 상기 비디오 데이터의 시간을 나타냄 ―;
    상기 제2 복수의 썸네일들의 프리젠테이션 동안에 상기 플레이어 윈도우 내의 상기 터치스크린을 통해 상기 제3 탭 제스처를 검출 ― 상기 제3 탭 제스처는 상기 제2 복수의 썸네일들 중 하나에 대응함 ―
    하도록 추가로 프로그램된, 시스템.
  14. 제8항에 있어서, 상기 플레이어 윈도우는 상기 터치스크린의 전체 스크린을 점유하는, 시스템.
  15. 프로세서에 의해 실행될 때, 상기 프로세서로 하여금, 모바일 디바이스 상에 프리젠팅되는 비디오의 프리젠테이션을 제어하기 위한 방법을 수행하게 하는 컴퓨터 실행가능한 명령어들을 포함하는 비일시적 컴퓨터 판독가능한 매체로서, 상기 방법은,
    비디오 콘텐츠가 터치스크린의 스크린의 플레이어 윈도우에 프리젠팅되게 하는 단계 ― 상기 플레이어 윈도우는 길이와 폭을 가지고, 상기 플레이어 윈도우는 상기 비디오 콘텐츠의 재생 위치를 나타내는 제1 크기의 진행 막대를 포함함 ―;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제1 탭 제스처를 검출하는 단계;
    상기 제1 탭 제스처의 수신에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 일시정지시키고 상기 진행 막대의 크기를 상기 제1 크기에서 제2 크기로 증가시키는 단계;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제2 탭 제스처를 검출하는 단계;
    상기 제2 탭 제스처의 검출에 응답하여 상기 비디오 콘텐츠의 프리젠테이션을 일시정지된 상태로부터 계속하게 하는 단계;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제1 스와이프 제스처를 상기 터치스크린을 통해 검출하는 단계 ― 상기 제1 스와이프 제스처는 좌측에서 우측으로의 스와이프임 ―;
    상기 제1 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이후의 시간으로 전방 스킵하게 하는 단계 ― 상기 비디오 콘텐츠는 미리 정해진 시간 기간만큼 전방 스킵됨 ―;
    적어도 상기 플레이어 윈도우 내에서 시작하는 제2 스와이프 제스처를 상기 터치스크린을 통해 검출하는 단계 ― 상기 제2 스와이프 제스처는 우측에서 좌측으로의 스와이프임 ―; 및
    상기 제2 스와이프 제스처의 검출에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 비디오 콘텐츠의 이전의 시간으로 후방 스킵하게 하는 단계 ― 상기 비디오 콘텐츠는 상기 미리 정해진 시간 기간만큼 후방 스킵됨 ―
    를 포함하고, 상기 방법은:
    상기 터치스크린을 통해 길게 누르기 제스처를 검출하는 단계;
    상기 길게 누르기 제스처의 검출과 연계하여 상기 터치스크린을 통해 후속 입력을 수신하는 단계;
    상기 길게 누르기 제스처의 검출 및 상기 후속 입력에 기초하여 상기 비디오 콘텐츠의 특정 시간이 프리젠팅되게 하는 단계 ― 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 제1 지점에서 검출되고, 상기 후속 입력은 상기 플레이어 윈도우의 폭을 따르는 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 적어도 포함함 ―;
    상기 비디오 콘텐츠 내의 시간들을 상기 플레이어 윈도우의 폭에 맵핑하는 단계 ― 상기 길게 누르기 제스처가 검출된 때 이전의 및 이후의 시간들은 상이한 스케일들로 맵핑됨 ―;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로 이동했다고 결정하는 단계;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 플레이어 윈도우의 폭으로의 상기 비디오 콘텐츠의 맵핑에 기초해 상기 제2 지점에 대응하는 상기 비디오 콘텐츠의 특정한 시간이 프리젠팅되게 하는 단계;
    상기 길게 누르기 제스처가 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점에서 해제되었다고 결정하는 단계; 및
    상기 길게 누르기 제스처가 상기 제2 지점에서 해제되었다는 결정에 응답하여, 상기 비디오 콘텐츠의 프리젠테이션을 상기 특정한 시간으로부터 계속하게 하는 단계
    를 더 포함하는, 비일시적 컴퓨터 판독가능한 매체.
  16. 삭제
  17. 삭제
  18. 제15항에 있어서, 상기 길게 누르기 제스처는 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점에서 검출되고, 상기 후속 입력은 적어도 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로의 상기 길게 누르기 제스처의 해제 없는 이동을 포함하고, 상기 방법은,
    상기 제1 지점에 기초하여 네비게이션 속도들을 상기 플레이어 윈도우의 상이한 부분들에 맵핑하는 단계 ―상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 우측의 지점들은 제1 복수의 속도에서의 상기 비디오의 전방 네비게이션에 대응하고 상기 플레이어 윈도우의 폭을 따르는 상기 제1 지점의 좌측의 지점들은 제2 복수의 속도에서의 상기 비디오의 후방 네비게이션에 대응함― ;
    상기 길게 누르기 제스처가 해제 없이 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점으로 이동했다고 결정하는 단계;
    상기 길게 누르기 제스처가 상기 제2 지점으로 이동했다는 결정에 응답하여, 상기 네비게이션 속도들의 상기 플레이어 윈도우의 폭으로의 맵핑과 상기 플레이어 윈도우의 폭을 따르는 상기 제2 지점의 위치에 기초하여 네비게이션 동작이 특정한 속도로 상기 비디오 콘텐츠를 통한 특정한 방향으로 수행되게 하는 단계;
    상기 길게 누르기 제스처가 해제되었다고 결정하는 단계; 및
    상기 길게 누르기 제스처가 해제되었다는 결정에 응답하여, 수행 중인 상기 네비게이션 동작에 적어도 부분적으로 기초하여 네비게이트한 상기 비디오의 제3 부분으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게 하는 단계
    를 더 포함하는, 비일시적 컴퓨터 판독가능한 매체.
  19. 제15항에 있어서, 상기 길게 누르기 제스처는 상기 비디오의 프리젠테이션 동안에 상기 플레이어 윈도우 내에서 검출되고, 상기 후속 입력은 적어도 제3 탭 제스처를 포함하며, 상기 방법은,
    상기 길게 누르기 제스처의 검출에 응답하여, 복수의 썸네일들이 프리젠팅되게 하는 단계 ― 상기 복수의 썸네일들 각각은 상기 비디오 내의 하나의 시간에서의 비디오 데이터를 나타냄 ―;
    상기 플레이어 윈도우 내의 상기 터치스크린을 통해 제3 탭 제스처를 검출하는 단계 ― 상기 제3 탭 제스처는 상기 복수의 썸네일들 중 하나의 썸네일에 대응함 ―; 및
    상기 복수의 썸네일들 중 상기 하나의 썸네일에 대응하는 상기 제3 탭 제스처의 검출에 응답하여 상기 복수의 썸네일들 중 상기 하나의 썸네일에 의해 표현되는 상기 비디오의 특정 시간에 대응하는 상기 비디오의 시간으로부터 상기 비디오 콘텐츠의 프리젠테이션을 계속하게 하는 단계
    를 더 포함하는, 비일시적 컴퓨터 판독가능한 매체.
  20. 제19항에 있어서, 상기 방법은,
    상기 복수의 썸네일들의 프리젠테이션 동안에 적어도 상기 플레이어 윈도우 내에서 시작하는 제3 스와이프 제스처를 상기 터치스크린을 통해 검출하는 단계;
    상기 제3 스와이프 제스처의 검출에 응답하여 제2 복수의 썸네일들이 프리젠팅되게 하는 단계 ― 상기 제2 복수의 썸네일들 각각은 상기 비디오의 하나의 시간에서의 비디오 데이터를 나타내고, 상기 제2 복수의 썸네일들 중 적어도 하나는 상기 복수의 썸네일들 중 어떠한 것에 의해서도 표현되지 않는 상기 비디오 데이터의 시간을 나타냄 ―; 및
    상기 제2 복수의 썸네일들의 프리젠테이션 동안에 상기 플레이어 윈도우 내의 상기 터치스크린을 통해 상기 제3 탭 제스처를 검출하는 단계 ― 상기 제3 탭 제스처는 상기 제2 복수의 썸네일들 중 하나에 대응함 ―
    를 더 포함하는, 비일시적 컴퓨터 판독가능한 매체.
  21. 삭제
KR1020167036773A 2014-06-18 2015-06-18 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체 KR102031408B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462014089P 2014-06-18 2014-06-18
US62/014,089 2014-06-18
PCT/US2015/036516 WO2015195973A1 (en) 2014-06-18 2015-06-18 Methods, systems and media for controlling playback of video using a touchscreen

Publications (2)

Publication Number Publication Date
KR20170010015A KR20170010015A (ko) 2017-01-25
KR102031408B1 true KR102031408B1 (ko) 2019-10-11

Family

ID=53539923

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167036773A KR102031408B1 (ko) 2014-06-18 2015-06-18 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체

Country Status (7)

Country Link
US (1) US10990214B2 (ko)
EP (1) EP3158426B1 (ko)
KR (1) KR102031408B1 (ko)
CN (1) CN106664452B (ko)
AU (1) AU2015276995B2 (ko)
GB (1) GB2544208A (ko)
WO (1) WO2015195973A1 (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760275B2 (en) * 2014-04-11 2017-09-12 Intel Corporation Technologies for skipping through media content
KR102319456B1 (ko) * 2014-12-15 2021-10-28 조은형 콘텐츠 재생 방법 및 이를 수행하는 전자 기기
US10440076B2 (en) * 2015-03-10 2019-10-08 Mobitv, Inc. Media seek mechanisms
US10397632B2 (en) * 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
US10254900B2 (en) * 2016-02-18 2019-04-09 Tufts University Drifting keyboard
KR102248250B1 (ko) 2016-03-15 2021-05-03 후아웨이 테크놀러지 컴퍼니 리미티드 사람-기계 상호작용 방법, 장치 및 그래픽 사용자 인터페이스
US9922679B2 (en) * 2016-06-01 2018-03-20 James Tallantyre Slow motion video playback method for computing devices with touch interfaces
KR102462813B1 (ko) * 2016-07-21 2022-11-02 한화테크윈 주식회사 파라미터 설정 방법 및 장치
CN107179865B (zh) * 2017-05-19 2020-01-14 维沃移动通信有限公司 一种页面切换方法和终端
US10691329B2 (en) * 2017-06-19 2020-06-23 Simple Design Ltd. User interface of media player application for controlling media content display
US11323398B1 (en) * 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
CN107589903A (zh) * 2017-10-19 2018-01-16 广东欧珀移动通信有限公司 显示多页码展示信息的方法和装置
US10459622B1 (en) * 2017-11-02 2019-10-29 Gopro, Inc. Systems and methods for interacting with video content
US11206235B1 (en) * 2018-04-26 2021-12-21 Facebook, Inc. Systems and methods for surfacing content
FR3084185B1 (fr) * 2018-07-19 2021-05-14 Wiko Dispositif electronique et procede pour generer une interface utilisateur graphique avec un arriere-plan dynamique
EP3881555A1 (en) * 2018-11-14 2021-09-22 Oktein Technology Limited Multi-file streaming media delivery system and method
CN109587572B (zh) * 2018-12-12 2021-03-23 金瓜子科技发展(北京)有限公司 一种展示产品的方法、装置、存储介质及电子设备
KR20200079581A (ko) * 2018-12-26 2020-07-06 오드컨셉 주식회사 사용자에게 스와이프 제스처를 이용한 패션 아이템 추천 서비스를 제공하는 방법
US10965888B1 (en) * 2019-07-08 2021-03-30 Snap Inc. Subtitle presentation based on volume control
CN110996155B (zh) * 2019-12-12 2021-05-25 北京字节跳动网络技术有限公司 视频播放页面显示方法、装置、电子设备和计算机可读介质
US11375285B2 (en) * 2020-02-28 2022-06-28 Rovi Guides, Inc. Customized content skip for media players
CN112526983B (zh) * 2020-09-11 2022-10-28 深圳银星智能集团股份有限公司 一种机器人的路径规划方法、主控芯片及机器人
CN112104915B (zh) * 2020-09-14 2022-08-26 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US20120179967A1 (en) * 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US20130298021A1 (en) * 2012-05-02 2013-11-07 Samsung Electronics Co., Ltd. Method of expansively searching multimedia and multimedia executing apparatus therefor
US20140109012A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Thumbnail and document map based navigation in a document

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6415326B1 (en) 1998-09-15 2002-07-02 Microsoft Corporation Timeline correlation between multiple timeline-altered media streams
EP1672471A1 (en) * 2004-12-14 2006-06-21 Thomson Multimedia Broadband Belgium Content playback device with touch screen
CN100464279C (zh) 2005-11-17 2009-02-25 富准精密工业(深圳)有限公司 散热装置
KR100775187B1 (ko) * 2006-03-16 2007-11-12 엘지전자 주식회사 썸네일 재생 방법 및 이를 이용한 단말기
CN1976440B (zh) * 2006-12-11 2011-03-30 中山大学 一种在iptv中精确定位播放进度的方法及系统
US20080165148A1 (en) * 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
KR101503714B1 (ko) * 2008-02-05 2015-03-20 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
US20110010626A1 (en) * 2009-07-09 2011-01-13 Jorge Fino Device and Method for Adjusting a Playback Control with a Finger Gesture
US20130201155A1 (en) 2010-08-12 2013-08-08 Genqing Wu Finger identification on a touchscreen
KR20120031399A (ko) * 2010-09-24 2012-04-03 엘지전자 주식회사 이동 단말기 및 그의 재생속도 제어 방법
JP2012093887A (ja) 2010-10-26 2012-05-17 Aisin Aw Co Ltd 表示装置、表示方法、及び表示プログラム
US9363579B2 (en) * 2010-12-22 2016-06-07 Google Inc. Video player with assisted seek
WO2012094479A1 (en) 2011-01-06 2012-07-12 Tivo Inc. Method and apparatus for gesture based controls
US9047005B2 (en) * 2011-02-03 2015-06-02 Sony Corporation Substituting touch gestures for GUI or hardware keys to control audio video play
CN102609143A (zh) * 2012-02-15 2012-07-25 张群 一种手持电子设备及其视频播放控制方法
WO2013164351A1 (en) 2012-04-30 2013-11-07 Research In Motion Limited Device and method for processing user input
US9454303B2 (en) * 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
US20140178047A1 (en) * 2012-12-21 2014-06-26 The Center for Digital Content, LLC Gesture drive playback control for chromeless media players
CN103064596A (zh) * 2012-12-25 2013-04-24 广东欧珀移动通信有限公司 一种控制视频播放的方法及装置
CN103076985B (zh) 2013-01-31 2016-03-02 北京魔力时间科技有限公司 基于触屏精确操控和显示视频播放进度装置及使用方法
CN103116467B (zh) * 2013-03-07 2017-03-01 东蓝数码有限公司 基于多点触控的视频进度和音量的控制方法
CN103294347B (zh) * 2013-06-24 2016-09-07 贝壳网际(北京)安全技术有限公司 移动终端浏览器视频播放的操作控制方法、装置及浏览器
KR20150072764A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 전자기기에서 해상도 레벨을 제어하기 위한 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US20120179967A1 (en) * 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US20130298021A1 (en) * 2012-05-02 2013-11-07 Samsung Electronics Co., Ltd. Method of expansively searching multimedia and multimedia executing apparatus therefor
US20140109012A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Thumbnail and document map based navigation in a document

Also Published As

Publication number Publication date
CN106664452A (zh) 2017-05-10
AU2015276995B2 (en) 2020-08-27
GB201622088D0 (en) 2017-02-08
EP3158426A1 (en) 2017-04-26
AU2015276995A1 (en) 2016-12-15
WO2015195973A1 (en) 2015-12-23
US20150370402A1 (en) 2015-12-24
KR20170010015A (ko) 2017-01-25
US10990214B2 (en) 2021-04-27
CN106664452B (zh) 2020-06-02
GB2544208A (en) 2017-05-10
EP3158426B1 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
KR102031408B1 (ko) 터치스크린을 이용하여 비디오의 재생을 제어하기 위한 방법, 시스템 및 매체
US10042537B2 (en) Video frame loupe
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
US9575632B2 (en) Content scrubbing
US8217905B2 (en) Method and apparatus for touchscreen based user interface interaction
US8365091B2 (en) Non-uniform scrolling
US20130067332A1 (en) Media seek bar
KR20100130671A (ko) 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법
US20120054612A1 (en) Method and apparatus for playing contents
EP2827332B1 (en) Navigating within a media item
KR20120135232A (ko) 유연한 평행 움직임을 가진 멀티-레이어 사용자 인터페이스
KR20120125296A (ko) 유연한 평행 및 직교 움직임을 가진 멀티-레이어 사용자 인터페이스
JP2014519095A (ja) 文書の一瞥及びナビゲーション
JP5871937B2 (ja) 情報処理装置、表示制御方法、プログラム及び情報記憶媒体
CN107678652B (zh) 对目标物体的操作控制方法和装置
US20070143688A1 (en) System and method for mark and navigation to facilitate content view
JP6005551B2 (ja) データ処理装置、データ処理方法およびプログラム
US20150163444A1 (en) Display apparatus, display system including display apparatus, and methods of controlling display apparatus and display system
US9836200B2 (en) Interacting with electronic devices using a single-point gesture
JP6334125B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
KR102134443B1 (ko) 전자 기기 및 제어 동작에 기초한 전자 기기의 화면 조작 방법
CN108475166B (zh) 信息处理装置及其控制方法和程序
US20140258898A1 (en) User Interface for Drawing with Electronic Devices
KR101553182B1 (ko) 테이블 내의 영역에서 이동 동작을 실행하기 위한 수행방법 및 장치
KR20150017832A (ko) 3d 객체 제어 방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right