JP2014506369A - Gesture-based control method and apparatus - Google Patents

Gesture-based control method and apparatus Download PDF

Info

Publication number
JP2014506369A
JP2014506369A JP2013548535A JP2013548535A JP2014506369A JP 2014506369 A JP2014506369 A JP 2014506369A JP 2013548535 A JP2013548535 A JP 2013548535A JP 2013548535 A JP2013548535 A JP 2013548535A JP 2014506369 A JP2014506369 A JP 2014506369A
Authority
JP
Japan
Prior art keywords
video
playback
gesture
gestures
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013548535A
Other languages
Japanese (ja)
Other versions
JP6115728B2 (en
Inventor
ヘイズ、ロビン
Original Assignee
ティヴォ インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US12/986,054 external-priority patent/US20120179967A1/en
Priority claimed from US12/986,060 external-priority patent/US9430128B2/en
Application filed by ティヴォ インク filed Critical ティヴォ インク
Publication of JP2014506369A publication Critical patent/JP2014506369A/en
Application granted granted Critical
Publication of JP6115728B2 publication Critical patent/JP6115728B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data

Abstract

一実施態様では、デバイスのタッチスクリーン・インタフェースの特定領域内の平行ジェスチャの数が検出される。少なくとも、平行ジェスチャに基づいて、コマンドが識別され、かつこのコマンドに関連するアクションが実行される。
【選択図】図1
In one implementation, the number of parallel gestures within a particular area of the device's touch screen interface is detected. At least based on the parallel gesture, a command is identified and an action associated with the command is performed.
[Selection] Figure 1

Description

本発明はジェスチャの使用に関する。具体的には、本発明は、マルチメディア・コンテンツのジェスチャに基づく制御に関する。   The present invention relates to the use of gestures. Specifically, the present invention relates to control based on multimedia content gestures.

このセクションにおいて記載されるアプローチは、追求する可能性があったものではあるが、必ずしも、以前に実際に考えられまたは追求されたものではない。従って、特に明記されない限り、このセクションに記載される如何なるアプローチも、このセクションにそれらが単に含まれているという理由のみで、従来技術とみなすべきではない。   The approaches described in this section may have been pursued, but are not necessarily those that have actually been considered or pursued before. Accordingly, unless otherwise specified, any approach described in this section should not be considered prior art simply because they are included in this section.

ウェブページ、画像、ビデオ、スライド、テキスト、グラフィクス、サウンド・ファイル、オーディオ/ビデオ・ファイル等のようなマルチメディア・コンテンツは、デバイスに表示させるまたはデバイスで再生させることができる。ユーザは、コンテンツをデバイスで再生させるまたはデバイスに表示させるコマンドを、デバイス自体にまたは遠隔制御として機能する別のデバイスに与えることができる。   Multimedia content such as web pages, images, videos, slides, text, graphics, sound files, audio / video files, etc. can be displayed on the device or played on the device. The user can give commands to play the content on the device or display it on the device itself or another device that functions as a remote control.

例えば、ユーザは、遠隔制御のボタンを選択して、テレビジョンに表示されているビデオを、再生、一時停止、停止、巻戻し、または早送りすることができる。   For example, a user can select a remote control button to play, pause, stop, rewind, or fast forward the video displayed on the television.

1個以上の実施態様に従う具体例のシステムを示すブロック図である。FIG. 2 is a block diagram illustrating an example system in accordance with one or more implementations. 1個以上の実施態様に従ってジェスチャを検出するフローチャートを示す。FIG. 6 illustrates a flowchart for detecting a gesture in accordance with one or more embodiments. FIG. 1個以上の実施態様に従う具体例のインタフェースを示す。Fig. 4 illustrates an example interface in accordance with one or more implementations. 本発明の実施態様を実施することができるシステムを示すブロック図を示す。1 shows a block diagram illustrating a system in which embodiments of the present invention may be implemented.

本発明は、限定するための例ではなく具体例として、添付の図面に図示されている。これらの図面においては、同様な参照数字は、同様の素子を意味する。   The present invention is illustrated by way of example, and not by way of limitation, in the accompanying drawings. In these drawings, like reference numerals refer to like elements.

以下の記述では、説明のために、多くの特定の詳細事項が、本発明の十分な理解を提供するために記載される。しかしながら、本発明が、これらの特定の詳細事項なしに実行することができることは、明らかであろう。他の具体例においては、本発明を不必要に不明瞭にするのを避けるために、周知の構造及び装置は、ブロック図で示されている。   In the following description, for the purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent that the invention may be practiced without these specific details. In other embodiments, well-known structures and devices are shown in block diagram form in order to avoid unnecessarily obscuring the present invention.

以下においては、いくつかの特徴は、それぞれが、独立にまたは他の特徴と組合せて使用することが出来るように記載されている。しかしながら、如何なる個々の特徴も、上述したいずれの課題にも対処していないか、または上述した課題の1個にしか対処していないかもしれない。上述した課題のいくつかは、本明細書(以下においては、「本明細書」は、図面、特許請求の範囲、要約書も含む)に記載される特徴のいずれによっても、完全には対処されていないかもしれない。見出しが設けられているが、特定の見出しに関する情報であるが、この見出しのセクションに見出せない情報は、明細書の他の何れかの場所に見出すことが出来る。   In the following, some features are described so that each can be used independently or in combination with other features. However, any individual feature may not address any of the issues described above, or may only address one of the issues described above. Some of the issues discussed above are fully addressed by any of the features described in this specification (hereinafter "the specification" including the drawings, the claims, and the abstract). Maybe not. A heading is provided, but information about a particular heading but not found in this heading section can be found elsewhere in the specification.

具体例の特徴は、以下の概略に従って記載される。
1.0 概要
2.0 システム・アーキテクチャ
3.0 ジェスチャ
4.0 ジェスチャ領域
5.0 コマンド
6.0 ジェスチャ領域内でのジェスチャの検出
7.0 ジェスチャおよびコマンドの具体例
8.0 遠隔制御の使用例
9.0 実施態様の具体例
10.0 ハードウェアの概要
11.0 拡張および変形例
Specific features are described according to the following outline.
1.0 Overview 2.0 System Architecture 3.0 Gesture 4.0 Gesture Area 5.0 Command 6.0 Gesture Detection within Gesture Area 7.0 Examples of Gestures and Commands 8.0 Remote Control Usage Example 9.0 Implementation Example 10.0 Hardware Overview 11.0 Extensions and Variations

1.0 概要
一実施例では、ジェスチャは、デバイス上のタッチスクリーン・インタフェースの特定領域で検出される。このジェスチャは、必ずしも、特定領域の内のいかなる視覚オブジェクトをも選択するまたは移動させることができるわけではない。例えば、ジェスチャは、空白のボックス内で、ビデオの上部で、ジェスチャを実行するための命令情報の上部等で、検出することができる。このジェスチャに関連するビデオ再生コマンドは、識別することができ、そしてこのビデオ再生コマンドに対応させてアクションを決定することができる。次いで、このアクションは、ジェスチャを検出した同じデバイスで実行することができる。このアクションは、ジェスチャを検出したデバイスと通信で結合されている異なるデバイスで実行することもできる。
1.0 Overview In one embodiment, a gesture is detected at a specific area of the touch screen interface on the device. This gesture does not necessarily allow any visual object within a particular area to be selected or moved. For example, a gesture can be detected in a blank box, at the top of the video, at the top of the instruction information for performing the gesture, or the like. The video playback command associated with the gesture can be identified and an action can be determined in response to the video playback command. This action can then be performed on the same device that detected the gesture. This action may also be performed on a different device that is communicatively coupled to the device that detected the gesture.

一実施態様では、複数の入力手段(例えば、複数の指)を同時に用いて、タッチスクリーン・インタフェース上で平行のまたは同一のジェスチャを実行することができる。アクションは、検出されたジェスチャの数に基づいて、選択することができる。例えば、ジェスチャの数を用いて、メニューから特定のアイテムを選択したり、コマンドを識別することもできる。   In one embodiment, multiple input means (eg, multiple fingers) can be used simultaneously to perform parallel or identical gestures on the touch screen interface. The action can be selected based on the number of detected gestures. For example, the number of gestures can be used to select a specific item from a menu or identify a command.

本願明細書では、特定のコンポーネントが、方法ステップを実行するものとして詳述されているが、他の実施態様の場合、特定のコンポーネントに対して機能するエージェントまたはメカニズムが、この方法ステップを実行することができる。更に、あるシステムのコンポーネントに関して、本発明のいくつかの態様が、議論されているが、本発明は、多数のシステムに分散されているコンポーネントによって実行させることもできる。本発明の実施態様は、本明細書に記載される方法ステップを実行するための手段を含む如何なるシステムも含む。本発明の実施態様は、それを実施させると、本明細書に記載される方法ステップを実行させる命令を有する計算機可読の媒体も含む。     Although a particular component is described in detail herein as performing a method step, in other embodiments, an agent or mechanism that acts on a particular component performs this method step. be able to. Furthermore, although some aspects of the invention have been discussed with respect to components of a system, the invention can also be implemented by components distributed across multiple systems. Embodiments of the present invention include any system that includes means for performing the method steps described herein. Embodiments of the present invention also include computer-readable media having instructions that, when implemented, cause the method steps described herein to be performed.

2.0 システム・アーキテクチャ
本明細書では、特定のコンピュータのアーキテクチャが記載されているが、本発明の他の実施態様は、本明細書に記載される機能を実行するために使用することが出来る如何なるアーキテクチャにも適用できる。
2.0 System Architecture Although specific computer architectures are described herein, other embodiments of the present invention can be used to perform the functions described herein. It can be applied to any architecture.

図1は、1個以上の実施態様に従う具体例のシステム(100)を示すブロック図である。この具体例のシステム(100)は、コンテンツ・ソースとして機能する1個以上のコンポーネント、タッチスクリーン・インタフェース・デバイス、マルチメディア・デバイス(例えば、オーディオおよび/またはビデオ・コンテンツを再生するデバイス)および/またはコンテンツ管理デバイスを含む。特定のコンポーネントが、本願明細書において記述される機能性を明確にするために提示されるが、これらは、1個以上の実施態様を実施するためには必ずしも必要ではない。これらのコンポーネントの各々は、本願明細書において記述される機能性を明確にするために提示されているが、1個以上の実施態様を実施するためには必ずしも必要ではない。   FIG. 1 is a block diagram illustrating an example system (100) in accordance with one or more embodiments. The exemplary system (100) includes one or more components that function as content sources, touch screen interface devices, multimedia devices (eg, devices that play audio and / or video content) and / or Or a content management device. Although specific components are presented to clarify the functionality described herein, they are not necessarily required to implement one or more embodiments. Each of these components is presented to clarify the functionality described herein, but is not necessarily required to implement one or more embodiments.

図1に示されていないコンポーネントを、本願明細書において記述される機能性を実行するために、用いることもできる。1個のコンポーネントによって実行されると記載されている機能性は、それに代えて他のコンポーネントによって実行させることもできる。   Components not shown in FIG. 1 can also be used to perform the functionality described herein. Functionality described as being performed by one component may alternatively be performed by another component.

具体例のシステム(100)は、入力デバイス(110)、マルチメディア・デバイス(140)およびデータ・レポジトリ(150)の、1個以上を含むことができる。本願明細書において示される1個以上のデバイスは、単一デバイスに結合させることもできるし、複数のデバイスに分けることもできる。例えば、入力デバイス(110)およびマルチメディア・デバイス(140)は、単一デバイスで実行させることができる。マルチメディア・デバイス(140)は、オーディオおよび/またはビデオ・コンテンツを再生するように構成することができる。マルチメディア・デバイス(140)は、1個以上の静止画像を表示するように構成することができる。他の例では、入力デバイス(110)を、別のマルチメディア・デバイス(140)に表示されているコンテンツに関連したジェスチャに基づいて、コマンドを検出する遠隔制御として、使うことができる。入力デバイス(110)は、マルチメディア・デバイス(140)と直接通信することもできるし、中間のデバイス(図示せず)と通信することもできる。この中間のデバイスは、例えば、マルチメディア・デバイス(140)または媒体管理デバイスに対するコンテンツ・ソースとして機能することができる。システム(100)内の全てのコンポーネントを接続するネットワーク・バス(102)は、明確にするために図示されている。ネットワーク・バス(102)は、任意のローカル・ネットワーク、イントラネット、インターネット等を表すことができる。ネットワーク・バス(102)は、有線および/または無線セグメントを含むことができる。(通信で結合するように図示されている)全てのコンポーネントは、必ずしも、システム(100)内の全ての他のコンポーネントと通信で結合させる必要は無い。   The example system (100) can include one or more of an input device (110), a multimedia device (140), and a data repository (150). One or more devices shown herein can be combined into a single device or divided into multiple devices. For example, the input device (110) and the multimedia device (140) can be executed on a single device. The multimedia device (140) can be configured to play audio and / or video content. The multimedia device (140) can be configured to display one or more still images. In another example, the input device (110) can be used as a remote control to detect commands based on gestures associated with content displayed on another multimedia device (140). The input device (110) can communicate directly with the multimedia device (140) or with an intermediate device (not shown). This intermediate device can serve as a content source for, for example, a multimedia device (140) or media management device. The network bus (102) connecting all components in the system (100) is shown for clarity. The network bus (102) can represent any local network, intranet, Internet, etc. The network bus (102) may include wired and / or wireless segments. All components (shown to be coupled in communication) do not necessarily have to be coupled in communication with all other components in the system (100).

一実施態様では、入力デバイス(110)は、(本願明細書において記述される)1個以上のジェスチャを検出するように構成されているタッチスクリーン・インタフェース(115)を含むことができる。入力デバイス(110)は、ジェスチャ、ジェスチャのパス、ジェスチャの速度、ジェスチャの加速、ジェスチャの方向等を検出するように構成することができる。   In one implementation, the input device (110) may include a touch screen interface (115) configured to detect one or more gestures (described herein). The input device (110) may be configured to detect gestures, gesture paths, gesture speeds, gesture accelerations, gesture directions, and the like.

一具体例では、入力デバイス(110)は、タッチスクリーン・インタフェース(115)上のタッチされる点/領域で接触する2枚の層の中を、電流が流れる抵抗性システムを含むことができる。接触点または接触スポットの座標は、タッチスクリーン・インタフェース(115)上でユーザによって実行されるジェスチャを識別するために、データ・レポジトリ(150)に格納されているジェスチャ情報と比較することができる。他の例では、入力デバイス(110)は、電荷(この電荷の一部は、ユーザがタッチスクリーン・インタフェース(115)にタッチする場所でユーザに転送される)を格納する層を有する容量性システムを含むことができる。他の具体例では、入力デバイス(110)は、電気信号が1個のトランスデューサから他のトランスデューサに送られる2個のトランスデューサを有する表面弾性波システムを含むことができる。(例えば、ユーザのタッチによる)電気信号のいかなる遮断も、タッチスクリーン・インタフェース(115)上の接触点を検出するために用いることができる。例えば、入力デバイス(110)は、タッチスクリーン・インタフェース上に表示されたデータの、視覚表現上の当初のユーザ・タッチを先ず検出するように構成することができる。   In one implementation, the input device (110) may include a resistive system in which current flows in two layers that touch at a point / area to be touched on the touch screen interface (115). The coordinates of the contact point or contact spot can be compared to gesture information stored in the data repository (150) to identify gestures performed by the user on the touch screen interface (115). In another example, the input device (110) is a capacitive system having a layer that stores charge (a portion of this charge is transferred to the user where the user touches the touch screen interface (115)). Can be included. In other implementations, the input device (110) may include a surface acoustic wave system having two transducers where electrical signals are sent from one transducer to another. Any interruption of electrical signals (eg, due to a user touch) can be used to detect touch points on the touch screen interface (115). For example, the input device (110) may be configured to first detect an initial user touch on the visual representation of the data displayed on the touch screen interface.

一実施態様では、入力デバイス(110)は、データを受信する、データを送信する、またはシステム(100)の他のデバイスと通信するように構成されているハードウェアを含むことができる。例えば、入力デバイス(110)は、ユーザによって実行されたジェスチャを検出して、このジェスチャに関連するビデオ再生アクションを実行するように構成することができる。他の例では、入力デバイス(110)は、ジェスチャに関連する情報(本明細書では「メタデータ」とも呼ばれ、かつ「メタデータ」と置換して使用することができる情報)を送信する機能性を含むことができる。例えば、入力デバイス(110)は、タッチスクリーン・インタフェース(115)上で検出された接触ポイントの経時的シーケンスを備える情報を送信するように構成することができる。   In one implementation, the input device (110) may include hardware configured to receive data, transmit data, or communicate with other devices in the system (100). For example, the input device (110) can be configured to detect a gesture performed by a user and perform a video playback action associated with the gesture. In another example, the input device (110) is capable of transmitting information related to a gesture (information also referred to herein as “metadata” and can be used in place of “metadata”). Can include sex. For example, the input device (110) can be configured to transmit information comprising a temporal sequence of touch points detected on the touch screen interface (115).

一実施態様の場合、入力デバイス(110)は、以下の1個以上を含むことができる:読出し専用メモリ(ROM)(206)、中央処理装置(CPU)、ランダム・アクセス・メモリ(RAM)、赤外線制御ユニット(ICU)、キー・パッド走査、キー・パッド、不揮発性メモリ(NVM)、1個以上のマイクロフォン、汎用入力/出力(GPIO)インタフェース、スピーカ/ツィータ、キー送信器/インディケータ、マイクロフォン、無線、赤外線(IR)ブラスタ、ネットワーク・カード、表示画面、無線周波数(RF)アンテナ、QWERTYキーボード、ネットワーク・カード、ネットワーク・アダプタ、ネットワーク・インタフェース・コントローラ(NIC)、ネットワーク・インタフェース・カード、ローカル・エリア・ネットワーク・アダプタ、イーサネット・ネットワーク・カードおよび/またはネットワークの上の情報を受信することができる他の任意のコンポーネント。一実施態様の場合、入力デバイス(110)は、有線および/または無線セグメントにより1個以上のデバイスと通信するように構成することができる。例えば、入力デバイス(110)は、電波(例えば、Wi-Fi信号、ブルートゥース信号)、赤外線波、他の任意の適切な周波数の電磁スペクトル、ネットワーク接続(例えば、イントラネット、インターネット、ワールドワイド・ウェブ等)、または他の任意の適切な方法、の1個以上により無線で通信することができる。   In one embodiment, the input device (110) may include one or more of the following: read only memory (ROM) (206), central processing unit (CPU), random access memory (RAM), Infrared control unit (ICU), keypad scanning, keypad, non-volatile memory (NVM), one or more microphones, general purpose input / output (GPIO) interface, speaker / tweeter, key transmitter / indicator, microphone, Wireless, infrared (IR) blaster, network card, display screen, radio frequency (RF) antenna, QWERTY keyboard, network card, network adapter, network interface controller (NIC), network interface card, local Area network adapter, Ethernet network card and / or network Other optional components that information can be received over the workpiece. In one embodiment, the input device (110) can be configured to communicate with one or more devices over a wired and / or wireless segment. For example, the input device (110) may be a radio wave (eg, Wi-Fi signal, Bluetooth signal), infrared wave, electromagnetic spectrum of any other suitable frequency, network connection (eg, intranet, internet, world wide web, etc.) ), Or any other suitable method, can be communicated wirelessly.

一実施態様では、入力デバイス(110)は、一般に、ユーザ入力としてジェスチャを検出するように構成することができるいかなるデバイスも表す。(入力デバイス(110)のいかなるオペレータも含む)ユーザは、入力デバイス(110)上のタッチスクリーン・インタフェース(115)にタッチすることによって、ジェスチャを実行することができる。例えば、ユーザは、タッチスクリーン・インタフェース(115)を指でタップする、またはタッチスクリーン・インタフェース(115)上で指をスライドさせることによって、ジェスチャを実行することができる。   In one implementation, input device (110) generally represents any device that can be configured to detect a gesture as a user input. A user (including any operator of the input device (110)) can perform a gesture by touching the touch screen interface (115) on the input device (110). For example, the user can perform a gesture by tapping the touch screen interface (115) with a finger or sliding the finger on the touch screen interface (115).

明確にするため、本願明細書において記述される具体例は、ジェスチャを実行する特定の入力手段(例えば、ユーザの指)に言及する。しかしながら、1個以上の実施態様に従ってジェスチャを実行するためには、スタイラス、ユーザの指、ペン、指ぬき等を含むが、これらに限定されないいかなる入力手段も、用いることができる。   For clarity, the examples described herein refer to specific input means (eg, a user's finger) that perform a gesture. However, any input means can be used to perform a gesture in accordance with one or more embodiments, including but not limited to a stylus, a user's finger, a pen, a thimble, and the like.

本願明細書において言及されるタッチスクリーン・インタフェース(115)にタッチするまたは接触することに関係するジェスチャは、タッチスクリーン・インタフェース(115)が、(例えば、タッチスクリーン・インタフェース(115)上のある位置での電荷の転送により)指を検出するように、タッチスクリーン・インタフェース(115)に必ずしもタッチすることなく、指(または他の入力手段)によりタッチスクリーン・インタフェース(115)上をホバリングすることを含む。   Gestures related to touching or touching the touch screen interface (115) referred to herein may be performed by the touch screen interface (115) at a location on the touch screen interface (115), for example. To hover over the touch screen interface (115) with the finger (or other input means) without necessarily touching the touch screen interface (115), such as detecting the finger (by charge transfer in the Including.

3.0 ジェスチャ
一実施態様では、タップ・ジェスチャは、タッチスクリーン・インタフェース(115)上の特定の位置にタッチし、そして、次いで、タッチスクリーン・インタフェース(115)との接触をリリースすることによって実行することができる。タップ・ジェスチャは、タッチスクリーン・インタフェース(115)の特定の位置での接触を検出し、その後このタッチスクリーン・インタフェース(115)との接触がリリースされたことを検出することによって、検出することができる。
3.0 Gesture In one embodiment, a tap gesture is performed by touching a specific location on the touch screen interface (115) and then releasing contact with the touch screen interface (115). can do. The tap gesture can be detected by detecting a contact at a specific position of the touch screen interface (115) and then detecting that the contact with the touch screen interface (115) has been released. it can.

タップ・ジェスチャとは、1本以上の指を使用して実行されるジェスチャを意味する。例えば、2本の指によるタップは、2本の指を用いて、タッチスクリーン・インタフェース(115)上の二か所に同時にタッチし、その後に、タッチスクリーン・インタフェース(115)との接触をリリースすることにより、実行することができる。2本の指によるタップは、タッチスクリーン・インタフェース(115)上の二か所での同時接触とその後のこの接触のリリースとを検出することによって、検出することができる。   A tap gesture refers to a gesture that is performed using one or more fingers. For example, a two-finger tap uses two fingers to touch two locations on the touch screen interface (115) simultaneously, and then releases contact with the touch screen interface (115) By doing so, it can be executed. A two finger tap can be detected by detecting simultaneous contact at two locations on the touch screen interface (115) and subsequent release of this contact.

一実施態様では、スライド・ジェスチャは、ユーザが、1本以上の指をタッチスクリーン・インタフェース(115)の表面上をスライドさせる、いかなる動きをも含むことができる。スライド・ジェスチャの具体例は、フリック・ジェスチャ、スワイプ・ジェスチャ、またはタッチスクリーン・インタフェース(115)上の任意のパスに沿って指を動かすことに関するジェスチャ、を含む。パスは、始点と終点が同じである円または正方形のような閉形状、または始点と終点が異なる直角のような開放された形状とすることができる。パスの具体例には、直線、曲線、円、正方形、三角形、角度等が含まれるが、これらに限定されるものではない。   In one implementation, the slide gesture can include any movement that allows the user to slide one or more fingers over the surface of the touch screen interface (115). Examples of slide gestures include flick gestures, swipe gestures, or gestures related to moving a finger along any path on the touch screen interface (115). The path can be a closed shape such as a circle or a square with the same start and end points, or an open shape such as a right angle with different start and end points. Specific examples of the path include, but are not limited to, a straight line, a curve, a circle, a square, a triangle, an angle, and the like.

一実施態様では、フリック・ジェスチャは、以下のようにして実行される。つまり、入力デバイス(110)のタッチスクリーン・インタフェース(115)上の特定の位置に指(または他の任意のアイテム(例えば、スタイラス))によりタッチし、そしてユーザによって実行されるスライド・アクションの一部に対してタッチスクリーン・インタフェース(115)との接触を維持しつつ、特定の位置から指をスライドさせ、そしてタッチスクリーン・インタフェース(115)との接触が終了した後でもスライド・アクションを続けることにより、実行される。一実施態様では、タッチスクリーン・インタフェース(115)は、タッチスクリーン・インタフェース(115)との物理的な接触が終わった後に、指の近接度を検出するように構成することができる。   In one embodiment, the flick gesture is performed as follows. That is, one of the sliding actions performed by the user touching a specific position on the touch screen interface (115) of the input device (110) with a finger (or any other item (eg, stylus)) and performed by the user. Keep the touch screen interface (115) in contact with the part, slide your finger from a specific position, and continue the slide action after contact with the touch screen interface (115) ends Is executed. In one implementation, the touch screen interface (115) may be configured to detect finger proximity after physical contact with the touch screen interface (115) is over.

例えば、タッチスクリーン・インタフェース(115)のスライド・アクションの方向に付加される表面領域が、接触を維持しつつ、スライドするアクションを続けるために使用することができるにもかかわらず、ユーザは、スライドするアクションの方向に指を移動させつつ、タッチスクリーン・インタフェース(115)との接触をリリースすることができる。   For example, even though the surface area added in the direction of the sliding action of the touchscreen interface (115) can be used to continue the sliding action while maintaining contact, the user can The touch with the touch screen interface (115) can be released while moving the finger in the direction of the action to be performed.

別の具体例のフリック・ジェスチャでは、ユーザが、入力デバイス(110)のタッチスクリーン・インタフェース(115)上の特定の位置をタッチし、次いで、タッチスクリーン・インタフェース(115)との接触を維持しつつ、タッチスクリーン・インタフェース(115)の端を越えて指をスライドする。したがって、ユーザは、指がタッチスクリーン・インタフェース(115)の端に到達するまで、(例えば、指による)タッチスクリーン・インタフェース(115)との接触を維持することができ、かつタッチスクリーン・インタフェース(115)の端を越えて同じ方向に運動を続けることができる。   In another example flick gesture, the user touches a particular location on the touch screen interface (115) of the input device (110) and then maintains contact with the touch screen interface (115). While sliding the finger across the edge of the touch screen interface (115). Thus, the user can maintain contact (eg, with a finger) with the touch screen interface (115) until the finger reaches the end of the touch screen interface (115), and the touch screen interface ( 115) can continue to move in the same direction across the edge.

フリック・ジェスチャを実行するユーザは、タッチスクリーン・インタフェース(115)との接触をリリースした後、そのスライド・アクションを続行することができる。入力デバイス(110)は、最後の接触ポイントでのタッチスクリーン・インタフェースと接触していた継続時間に基づいて、この指がまだ移動している間に、指とタッチスクリーン・インタフェース(115)との間の接触が、リリースされたことを検出することができる。指が移動している間に検出されたリリースは、フリック・ジェスチャであると決定することができる。   The user performing the flick gesture can continue its slide action after releasing contact with the touch screen interface (115). Based on the duration that the input device (110) was in contact with the touch screen interface at the last contact point, the finger and the touch screen interface (115) It can be detected that the contact between has been released. The release detected while the finger is moving can be determined to be a flick gesture.

一実施態様では、スワイプ・ジェスチャは、入力デバイス(110)のタッチスクリーン・インタフェース(115)上の特定の位置を指によりタッチし、かつスライド・アクションの間にタッチスクリーン・インタフェース(115)との接触を維持しつつ、特定の位置から指をスライドすることにより、実行することができる。   In one embodiment, the swipe gesture touches a specific position on the touch screen interface (115) of the input device (110) with a finger and is in contact with the touch screen interface (115) during the sliding action. This can be done by sliding the finger from a specific position while maintaining contact.

別の具体例では、ユーザは、第一の位置から第二の位置までタッチスクリーン・インタフェース(115)に沿って指をスライドし、かつ、その後、閾値の時間(例えば、1秒)第二の位置との接触を維持することによって、停止することができる。第二の位置との継続した接触の検出を用いて、ユーザは、スワイプ・ジェスチャを既に完了したと決定することができる。   In another embodiment, the user slides a finger along the touch screen interface (115) from a first position to a second position, and then a second time for a threshold time (eg, 1 second). It can be stopped by maintaining contact with the position. With continued contact detection with the second position, the user can determine that the swipe gesture has already been completed.

一実施態様では、スライドするアクションが完了する前に、スライドするアクション(例えば、スワイプまたはフリック)を検出することができる。例えば、右方向にスライドするジェスチャは、第一の位置での接触と、(第一の位置の右にある(または右方向の特定の角度内にある)第二の位置でのその後の接触とを検出することにより、検出することができる。ユーザは、第二の位置の右にある第三の位置まで、スライドするジェスチャを続けることもできるが、スライドするジェスチャの方向は、第一の位置と第二の位置を使用して、すでに、検出されている。   In one implementation, a sliding action (eg, swipe or flick) can be detected before the sliding action is complete. For example, a gesture that slides to the right may be a contact at a first position and a subsequent contact at a second position (or within a specific angle to the right of the first position). The user can also continue the sliding gesture to the third position to the right of the second position, but the direction of the sliding gesture is the first position. And using the second position has already been detected.

一実施態様では、(例えば、同じ方向の)フリック・ジェスチャとスライドするジェスチャは、同じビデオ再生コマンドにマップさせることができる。したがって、デバイスは、スライド・ジェスチャまたはフリック・ジェスチャの何れも検出し、かつ検出されたフリック・ジェスチャまたはスライド・ジェスチャに応答して、同じビデオ再生コマンドを識別するように構成することができる。   In one implementation, flick gestures (eg, in the same direction) and sliding gestures can be mapped to the same video playback command. Thus, the device can be configured to detect either a slide gesture or a flick gesture and identify the same video playback command in response to the detected flick gesture or slide gesture.

一実施態様では、(おそらく同じ方向の)フリック・ジェスチャとスライド・ジェスチャを、異なるコマンドにマップさせることができる。例えば、左方向のフリック・ジェスチャを、20秒の巻戻しコマンドに対応させ、かつ左方向のスワイプ・ジェスチャを、ビデオ内の以前のブックマークされた場面を選択するコマンドに対応させることができる。例えば、場面は、ユーザが、ブックマークすることもできるし、またはデジタル・ビデオディスク(DVD)に記録されている映画から場面が選択可能となるようにメディアの記録内にコードを挿入しておくこともできる。   In one implementation, flick gestures and slide gestures (possibly in the same direction) can be mapped to different commands. For example, a left flick gesture can correspond to a 20 second rewind command and a left swipe gesture can correspond to a command to select a previous bookmarked scene in the video. For example, scenes can be bookmarked by the user, or a code can be inserted in the media recording so that the scene can be selected from a movie recorded on a digital video disc (DVD). You can also.

一実施態様では、スライド・ジェスチャは、多数の入力手段を同時に使用することにより実行させることができる。例えば、ユーザは、タッチスクリーン・インタフェースのどこにおいても2本の指を同時にスライドさせることができる。更に、ユーザは、同時に2本の指を平行にスライドさせる(例えば、左から右の同じ方向に2本の指をスライドさせる)ことができる。   In one embodiment, the slide gesture can be performed by using multiple input means simultaneously. For example, the user can simultaneously slide two fingers anywhere on the touch screen interface. Further, the user can simultaneously slide two fingers in parallel (eg, slide two fingers in the same direction from left to right).

用語「同時に」は、本願明細書では、「ほぼ同時」も含む。例えば、平行ジェスチャを同時に実行する2本の指は、わずかに異なる時間で同じジェスチャを実行する長さが異なる2本の指をも意味する。例えば、一方の指は、他方の指がジェスチャを開始および/または終えた後に、遅れて動いても良い。したがって、2本の指は、異なる開始および/または終了時刻にジェスチャを始めかつ終えることができる。   The term “simultaneously” as used herein also includes “substantially simultaneously”. For example, two fingers performing a parallel gesture at the same time also mean two fingers having different lengths performing the same gesture at slightly different times. For example, one finger may move late after the other finger starts and / or finishes a gesture. Thus, the two fingers can start and end gestures at different start and / or end times.

本願明細書において使用される用語「平行(の)」は、ほぼ同じ方向にあるパスを含む。本願明細書において使用される、平行の運動を実行する2本の指は、ユーザが、タッチスクリーン・インタフェースのどこにおいても同じ方向に2本の指をドラッグすることを含む。同じ方向で平行の運動を実行する2本以上の指の方向は、指の長さが相違するためまたは手の角度が相違するため、数度異なっていても良い。一実施態様では、2個の平行ジェスチャを実行するパスは、重なっていても良い。本願明細書において使用される用語「平行(の)」は、同じ方向で実行される2個以上のジェスチャの内の何れの組をも意味する。   As used herein, the term “parallel” includes paths that are in approximately the same direction. As used herein, two fingers performing a parallel motion involves the user dragging two fingers in the same direction anywhere on the touch screen interface. The directions of two or more fingers performing parallel motion in the same direction may differ by several degrees because the finger lengths are different or hand angles are different. In one embodiment, the paths that perform two parallel gestures may overlap. The term “parallel” as used herein means any set of two or more gestures performed in the same direction.

4.0 ジェスチャ領域
一実施態様では、タッチスクリーン・インタフェース(115)は、ジェスチャ領域を含む。ジェスチャ領域は、少なくとも、ユーザが実行したジェスチャを検出するように構成されているタッチスクリーン・インタフェース(115)の一部である。ジェスチャ領域は、タッチスクリーン・インタフェース(115)全体またはタッチスクリーン・インタフェース(115)の一部を含むことができる。ジェスチャ領域は、空白のボックスまたは1個以上のアイテムを表示することができる。例えば、ジェスチャ領域は、ビデオを表示することができる。別の具体例では、ジェスチャ領域は、どのようにジェスチャを実行すべきかという情報を表示することができる。
4.0 Gesture Area In one embodiment, the touch screen interface (115) includes a gesture area. The gesture region is at least a part of the touch screen interface (115) that is configured to detect gestures performed by the user. The gesture region can include the entire touch screen interface (115) or a portion of the touch screen interface (115). The gesture area can display a blank box or one or more items. For example, the gesture area can display a video. In another implementation, the gesture region can display information on how to perform the gesture.

一実施態様では、ジェスチャは、ユーザが、ジェスチャ領域内で表示することができる如何なる視覚オブジェクトとも対話することなく、ジェスチャ領域内で検出することができる。例えば、携帯電話タッチスクリーン・インタフェース(115)のどこにおいても、スワイプ・ジェスチャは、タッチスクリーン・インタフェース上の空白のボックスであるジェスチャ領域内で、検出することができる。別の具体例では、巻戻しコマンドに関連する検出されたスワイプ・ジェスチャは、ジェスチャ領域内に表示される進行インディケータには触れない。   In one implementation, a gesture can be detected in the gesture area without the user interacting with any visual object that can be displayed in the gesture area. For example, anywhere in the mobile phone touchscreen interface (115), a swipe gesture can be detected in a gesture area, which is a blank box on the touchscreen interface. In another implementation, the detected swipe gesture associated with the rewind command does not touch the progress indicator displayed in the gesture area.

一実施態様では、ジェスチャ領域内で表示されるいかなる視覚オブジェクトも、ジェスチャを検出するため、またはジェスチャに関連したコマンドを決定するためには、必要ではない。一実施態様では、ジェスチャ領域内で表示されるいかなる視覚オブジェクトも、ジェスチャを実行する指によって、選択されずまたはドラッグされない。   In one implementation, no visual object displayed within the gesture area is necessary to detect a gesture or to determine a command associated with the gesture. In one embodiment, any visual object displayed within the gesture area is not selected or dragged by the finger performing the gesture.

一実施態様では、タッチスクリーン・インタフェース(115)は、多数のジェスチャ領域を含むことができる。1個のジェスチャ領域内で検出されるジェスチャは、異なるジェスチャ領域において実行される同じジェスチャとは異なるコマンドに、マップすることができる。デバイスは、ジェスチャが実行される領域を識別し、かつジェスチャとアクションが実行されたジェスチャ領域とに基づいてアクションを決定するように、構成することができる。   In one implementation, the touch screen interface (115) may include multiple gesture areas. Gestures detected in one gesture area can be mapped to different commands than the same gesture performed in different gesture areas. The device can be configured to identify an area where the gesture is performed and determine an action based on the gesture and the gesture area where the action was performed.

一実施態様では、多数のジェスチャ領域の何れかでジェスチャが検出されると、デバイスは、多数のジェスチャ領域の内からジェスチャ領域を選択することができる。開始されたジェスチャ領域を、選択されたジェスチャ領域と特定することができる。例えば、ユーザは、第一のジェスチャ領域でスワイプ・ジェスチャを始め、かつ第二のジェスチャ領域でスワイプ・ジェスチャを終えることができる。スワイプ・ジェスチャが、第一のジェスチャ領域において開始されたことの検出に応答して、このジェスチャにマップされたコマンドと第一のジェスチャ領域を、選択することができる。別の具体例では、スライドするアクションの終了が検出されたジェスチャ領域を、意図されたジェスチャ領域と特定することができる。選択された、つまり意図されたジェスチャ領域は、次で、コマンドを識別するために使用することができる。   In one implementation, if a gesture is detected in any of a number of gesture regions, the device can select a gesture region from among the number of gesture regions. The initiated gesture region can be identified as the selected gesture region. For example, the user can initiate a swipe gesture in a first gesture area and finish a swipe gesture in a second gesture area. In response to detecting that a swipe gesture has been initiated in the first gesture region, a command mapped to the gesture and the first gesture region may be selected. In another implementation, a gesture region in which the end of a sliding action is detected can be identified as the intended gesture region. The selected or intended gesture region can then be used to identify the command.

5.0 コマンド
一実施態様では、ジェスチャは、コマンドにマップさせる(または関連させる)ことができる。例えば、ジェスチャにマップされるコマンドは、ビデオの再生に関するビデオ再生コマンドとすることができる。コマンドは、このコマンドを受信したデバイスでのまたは別のデバイスでのビデオの再生に関係付けることができる。
5.0 Commands In one implementation, gestures can be mapped (or associated) to commands. For example, the command mapped to the gesture may be a video playback command related to video playback. The command can relate to the playback of the video at the device that received the command or at another device.

一実施態様では、コマンドは、ビデオの再生速度と再生方向を指定することができる。例えば、コマンドは、特定の早送り速度で早送りすること、または特定の巻戻し速度で巻戻しすることを、選択することができる。他のビデオ再生コマンドの具体例は、以下を含むが、これらに限定されるものではない:ビデオの再生を中断すること、ビデオの再生を再開すること、ビデオの再生された一部をリプレイすること、ビデオの再生を停止すること、ビデオの再生を停止しかつ特定の再生位置でビデオの再生を再開すること、スローモーションでビデオを再生すること、ビデオをコマ送り再生すること、最初からビデオを再生すること、次のプレイリストから1個以上のビデオを再生すること、ビデオを特定の場面から前に再生すること、ビデオの再生位置をブックマークすること、再生を停止しかつブックマークされた位置で再生を再開すること、またはビデオを評価付けすること。   In one embodiment, the command can specify the playback speed and direction of the video. For example, the command may select to fast forward at a specific fast forward speed or rewind at a specific rewind speed. Examples of other video playback commands include, but are not limited to: interrupting video playback, resuming video playback, replaying a portion of the video that has been played Stop video playback, stop video playback and resume video playback at a specific playback position, play video in slow motion, play video frame by frame, video from scratch Play one or more videos from the next playlist, play a video forward from a specific scene, bookmark the video playback position, stop playback and bookmarked position To resume playback or rate the video.

一実施態様では、コマンドは、オプションのリストから、特定のオプションを選択することができる。例えば、利用できるメディア・コンテンツのリストをスクリーンに表示することができ、かつコマンドは、利用できるメディア・コンテンツの内の特定のメディア・コンテンツを選択することができる。別の具体例では、コンフィギュレーション設定のリストを表示することができ、かつコマンドは、修正するための特定の設定を選択することができる。   In one implementation, the command can select a particular option from a list of options. For example, a list of available media content can be displayed on the screen, and the command can select specific media content among the available media content. In another implementation, a list of configuration settings can be displayed, and the command can select specific settings to modify.

6.0 ジェスチャ領域内でのジェスチャの検出
図2は、ジェスチャ領域の内でジェスチャを検出するためのフロー・ダイアグラムを示す。以下に記述される1個以上のステップは、省略し、繰り返し、および/または異なる順序で実行することができる。したがって、図2に示されるステップの特定の配置が、本発明の範囲を限定するものと解釈すべきではない。
6.0 Detection of Gestures within Gesture Area FIG. 2 shows a flow diagram for detecting gestures within a gesture area. One or more steps described below may be omitted, repeated, and / or performed in a different order. Accordingly, the specific arrangement of steps shown in FIG. 2 should not be construed as limiting the scope of the invention.

1個以上の実施態様の場合、ジェスチャを検出することは、タッチスクリーン・インタフェース上の当初の位置でのインタフェース接触を検出すること(ステップ202)を含む。タッチスクリーン・インタフェース上の当初の接触は、ユーザの指、スタイラスまたはタッチスクリーン・インタフェースでジェスチャを実行するために使用することができる他の任意のアイテム、によって行うことができる。タッチスクリーン・インタフェースとの当初の接触は、当初の位置での素早いタッチ(例えば、タップ・ジェスチャ)、または任意の時間(例えば、1ミリ秒、1秒、2秒等)当初の位置に維持されるタッチとすることができる。タッチスクリーン・インタフェースとの当初の接触は、それがすでにある方向に移動しつつある指(例えば、接触せずに空中を移動し、かつその後、移動する間にあるポイントで、タッチスクリーン・インタフェースの一部と当初の接触をなす指)によってなされるので、短くすることができる。   For one or more embodiments, detecting a gesture includes detecting an interface touch at an initial position on the touch screen interface (step 202). The initial contact on the touch screen interface can be made by the user's finger, stylus or any other item that can be used to perform gestures on the touch screen interface. The initial contact with the touch screen interface is maintained at the original position for a quick touch (eg, tap gesture) at the original location, or any time (eg, 1 millisecond, 1 second, 2 seconds, etc.) Touch. The initial contact with the touch screen interface is a finger that is already moving in a certain direction (eg, moving through the air without touching and then at some point during the movement of the touch screen interface). It can be shortened because it is made by a finger that makes initial contact with a part).

一実施態様では、本明細書において述べられる「当初の接触」は、タッチスクリーン・インタフェースが指を検出する出来る程度に、タッチスクリーン・インタフェースに十分近い指(または他のアイテム)を含むことができる。例えば、電荷を格納する層を有する容量システムを含むデバイスを使用する際には、電荷の一部は、ユーザに転送させることができる。この場合、ユーザは、タッチスクリーン・インタフェースにタッチする、またはタッチスクリーン・インタフェースの近くでタッチせずにホバリングさせれば良い。したがって、本明細書において述べられる「当初の接触」または「維持される接触」は、ユーザが、タッチスクリーン・インタフェース上に指または他のアイテムをホバリングさせることも、含む。   In one embodiment, the “initial contact” described herein can include a finger (or other item) that is close enough to the touch screen interface that the touch screen interface can detect the finger. . For example, when using a device that includes a capacitive system having a charge storage layer, a portion of the charge can be transferred to the user. In this case, the user may touch the touch screen interface or hover without touching near the touch screen interface. Thus, “initial contact” or “maintained contact” as described herein also includes having the user hover a finger or other item on the touch screen interface.

一実施態様では、タッチスクリーン・インタフェース上の当初の接触は、タッチスクリーン・インタフェースに表示されるいかなる視覚オブジェクトも選択しない。何の可視オブジェクトも表示されない場合に、当初の接触をなすことができる。視覚オブジェクトを選択せずに、視覚オブジェクトの表示の上部に、当初の接触をなすことができる。例えば、ユーザ選択された携帯電話の背景画像を表示しているタッチスクリーン・インタフェースに、当初の接触をなすことができる。別の具体例では、空白のスクリーンに当初の接触をなすことができる。タブレットで再生されつつあるテレビ番組の上部で、当初の接触を検出することができる。   In one embodiment, the initial touch on the touch screen interface does not select any visual object displayed on the touch screen interface. If no visible object is displayed, the initial contact can be made. The initial contact can be made to the top of the visual object display without selecting the visual object. For example, an initial contact can be made to a touchscreen interface displaying a background image of a user-selected mobile phone. In another embodiment, an initial contact can be made to a blank screen. Initial contact can be detected at the top of the television program being played on the tablet.

1個以上の実施態様では、ジェスチャを検出することが、更に、タッチスクリーン・インタフェースの付加的な位置でインタフェース接触を検出することを、含むことができる(ステップ204)。例えば、フリック・ジェスチャまたはスワイプ・ジェスチャを検出することにより、当初の接触位置からパスに沿う付加的な位置での、継時的なシーケンスのインタフェース接触を、検出することができる。例えば、タッチスクリーン・インタフェース上で当初の接触位置から左方向に離れるパス内で、インタフェース接触を、連続的に検出することができる。   In one or more implementations, detecting the gesture can further include detecting interface contact at an additional location of the touch screen interface (step 204). For example, by detecting a flick gesture or swipe gesture, a sequential sequence of interface contacts at additional locations along the path from the original contact location can be detected. For example, interface contact can be detected continuously in a path leftward from the original contact location on the touch screen interface.

本明細書においては、当初の接触ポイントの位置から離れるパスに沿った接触は、スライドするジェスチャと呼ぶことにする。1個以上の実施態様では、スライドするジェスチャの速度またはスライドするジェスチャの方向を、決定することができる。例えば、(スライドするジェスチャのパスに沿った、当初の接触ポイントと第二のポイントのような)インタフェース上の二個以上の位置での接触は、スライドするジェスチャの方向および/または速度を決定するために使用することができる。多数のポイントでの接触は、スライドするジェスチャの加速を計算するために使用することができる。   In this specification, a contact along a path away from the position of the original contact point will be referred to as a sliding gesture. In one or more implementations, the speed of the sliding gesture or the direction of the sliding gesture can be determined. For example, contact at two or more locations on the interface (such as an initial contact point and a second point along the slide gesture path) determines the direction and / or speed of the slide gesture. Can be used for. Contact at multiple points can be used to calculate the acceleration of a sliding gesture.

1個以上の実施態様では、ジェスチャは、タッチスクリーン・インタフェース上の1個以上の位置で検出される接触に基づいて、識別することができる(ステップ206)。例えば、遠隔制御インタフェース上の3か所で同時の接触を検出し、その後全ての3か所で接触がリリースされたことを検出することにより、3本の指によるタップ・ジェスチャを識別することができる。一実施態様では、ジェスチャを検出することは、タッチスクリーン・インタフェースで接触が検出されたパスを識別することを含む。例えば、タッチスクリーン・インタフェース上の円形のパスに沿った接触が検出されたことに応答して、円のジェスチャが、識別される。タッチスクリーン・インタフェース上の経時的なシーケンスの接触ポイントに基づいて、フリック・ジェスチャまたはスワイプ・ジェスチャを、特定することができる。   In one or more implementations, gestures can be identified based on touch detected at one or more locations on the touch screen interface (step 206). For example, identifying a three-finger tap gesture by detecting simultaneous contact at three locations on the remote control interface and then detecting that contact has been released at all three locations. it can. In one embodiment, detecting the gesture includes identifying a path where contact was detected on the touch screen interface. For example, in response to detecting contact along a circular path on the touch screen interface, a circle gesture is identified. A flick or swipe gesture can be identified based on a sequence of contact points over time on the touch screen interface.

1個以上の実施態様では、ジェスチャを識別することは、同時平行ジェスチャの数を決定することを含むことができる(ステップ208)。例えば、当初の接触は、タッチスクリーン・インタフェース上の多数の位置で同時に検出することができる。各当初の位置での当初の接触に続いて、これらの当初の位置から始まるパスに沿って、接触を検出することができる。もし、これらのパスが平行であると決定されると、パスの数を特定して、同時平行ジェスチャの数を決定することができる。   In one or more implementations, identifying the gesture can include determining the number of simultaneous parallel gestures (step 208). For example, initial contact can be detected simultaneously at multiple locations on the touch screen interface. Following the initial contact at each initial position, the contact can be detected along a path starting from these initial positions. If these paths are determined to be parallel, the number of paths can be identified to determine the number of simultaneous parallel gestures.

一実施態様では、同時平行ジェスチャの数は、既知のコンフィギュレーションにマッチするパスの数に基づいて、決定することができる。例えば、パスが、少なくとも、第一の接触ポイントと、第一の接触ポイントから右に向かう水平ラインに対し10度程度の範囲内にある第二の接触ポイントとを有する場合、このパスは、右にスライドするジェスチャに対応すると決定することができる。特定の時間周期内で同じ基準にマッチするパスに対応する検出されたジェスチャの数を計数することにより、同時平行ジェスチャの数を決定することができる。一実施態様では、ここでは記載されていない他の方法を、同時平行ジェスチャの数を決定するために使用することができる。   In one implementation, the number of simultaneous parallel gestures can be determined based on the number of paths that match a known configuration. For example, if the path has at least a first contact point and a second contact point that is within a range of about 10 degrees with respect to a horizontal line that goes to the right from the first contact point, It can be determined that it corresponds to a gesture that slides on the screen. By counting the number of detected gestures corresponding to paths that match the same criteria within a particular time period, the number of simultaneous parallel gestures can be determined. In one implementation, other methods not described herein can be used to determine the number of simultaneous parallel gestures.

一実施態様では、コマンドは、特定されたジェスチャに基づいて決定される(ステップ210)。コマンドは、ジェスチャがまだ実行されつつある間、または、ジェスチャが完了された後に、決定することができる。   In one implementation, the command is determined based on the identified gesture (step 210). The command can be determined while the gesture is still being performed, or after the gesture is completed.

一実施態様では、コマンドを決定することは、検出された特定のジェスチャが、データベースのコマンドにマップされると決定することを含むことができる。例えば、2本の指によるスワイプに関連するコマンドを識別するために、2本の指による右方向へのスワイプを、コマンド・データベースに問い合わせることができる。別の具体例では、ジェスチャ領域の下部への2本指によるフリックは、メニュー内に現在表示されているアイテムから第二のメニュー・アイテムを選択するコマンドに、関連付けることができる。   In one implementation, determining the command can include determining that the particular gesture detected is mapped to a command in the database. For example, to identify a command associated with a two finger swipe, the command database can be queried for a two finger right swipe. In another implementation, a two-finger flick to the bottom of the gesture area can be associated with a command that selects a second menu item from the items currently displayed in the menu.

一実施態様では、コマンド内の平行の指の数は、マルチ・メディアのコンテンツを再生する再生速度を決定するために用いることができる。例えば、2個の平行ジェスチャの検出は、通常の再生速度の2倍の再生速度とするコマンドに、マップすることができる。   In one implementation, the number of parallel fingers in the command can be used to determine the playback speed at which to play the multimedia content. For example, detection of two parallel gestures can be mapped to a command that results in a playback speed that is twice the normal playback speed.

一実施態様では、ジェスチャ・コマンドの方向を、ジェスチャ・コマンドの平行の指の数に組み合わせて、再生コマンドを決定することができる。例えば、スクリーンの右側からスクリーンの左側まで同時にスワイプされる2本の指は、通常の速度の2倍の巻戻しにマップすることができる。別の具体例では、スクリーンの左側からスクリーンの右側まで同時にスワイプされる2本の指は、(早送りしない)通常の再生速度の2倍の速度の早送りにマップすることができる。   In one embodiment, the direction of the gesture command can be combined with the number of parallel fingers of the gesture command to determine the playback command. For example, two fingers swiping simultaneously from the right side of the screen to the left side of the screen can be mapped to a rewind twice the normal speed. In another embodiment, two fingers swiping simultaneously from the left side of the screen to the right side of the screen can be mapped to fast forward twice the normal playback speed (not fast forward).

一実施態様では、コマンドは、特定のブックマーク(例えば、ユーザが指定したブックマークまたは製造業者が指定したブックマーク)でのビデオの再生を再開することを含むことができる。同時平行ジェスチャを実行するために使用される指の数は、ブックマークを選択するために用いることができる。例えば、2本指による下方へのフリックを検出することに応答して、ビデオの再生を、現在の再生位置から第二のブックマークで再開することができる。   In one implementation, the command may include resuming playback of the video at a particular bookmark (eg, a user specified bookmark or a manufacturer specified bookmark). The number of fingers used to perform simultaneous parallel gestures can be used to select a bookmark. For example, in response to detecting a downward flick with two fingers, video playback may resume at the second bookmark from the current playback position.

一実施態様では、コマンドを決定することは、コマンドに対応するデバイスを特定することを含むことができる。例えば、コマンドに関するデバイスは、ジェスチャおよび/またはジェスチャが検出されたジェスチャ領域に基づいて、特定することができる。   In one implementation, determining the command can include identifying a device corresponding to the command. For example, the device associated with the command can be identified based on the gesture and / or the gesture region in which the gesture was detected.

一実施態様では、コマンドに対応するアクションが、実行される(ステップ212)。コマンドを検出したデバイスは、このアクションを実行することができる。例えば、もし、早送りコマンドのジェスチャが、ビデオを再生しているハンドヘルド・タッチスクリーン・フォン(電話)で検出されると、このハンドヘルド・タッチスクリーン・フォン(電話)は、早送りモードでビデオを再生する。   In one implementation, the action corresponding to the command is performed (step 212). The device that detected the command can perform this action. For example, if a fast-forward command gesture is detected on a handheld touchscreen phone (telephone) that is playing video, the handheld touchscreen phone (telephone) will play the video in fast-forward mode. .

一実施態様では、コマンドに対応するアクションは、別のデバイスへのコマンドに関連する情報を送信することを含むことができる。例えば、ジェスチャは、タッチスクリーン遠隔制御で検出することができる。ジェスチャに関連した情報(例えば、ジェスチャを識別する情報またはジェスチャに関連するコマンドを識別する情報)は、次いで、デジタル・ビデオディスク・プレーヤに送信することができる。デジタル・ビデオディスク・プレーヤは、次いで、対応するアクションを実行することができる。もし、コマンドが、ビデオの再生を中断するものであったならば、デジタル・ビデオディスク・プレーヤは表示スクリーンのビデオの再生を中断することができる。   In one implementation, the action corresponding to the command may include sending information related to the command to another device. For example, gestures can be detected with a touch screen remote control. Information associated with the gesture (eg, information identifying the gesture or information identifying the command associated with the gesture) may then be transmitted to the digital video disc player. The digital video disc player can then perform the corresponding action. If the command is to interrupt video playback, the digital video disc player can interrupt video playback on the display screen.

7.0 ジェスチャおよびコマンドの具体例
図3は、ジェスチャを検出するように構成されている入力デバイスに対する具体例のスクリーン・ショットを示す。ジェスチャ、コマンド、ジェスチャとコマンド間のマッピング、ジェスチャ領域、視覚オブジェクト、および図3に関して論じられる他のいかなるアイテムも、アイテムの具体例であるが、これらを、権利範囲を限定するものとして解釈すべきではない。図3に関して記述される1個以上のアイテムは、必ずしも全て実行される訳ではないが、記述される他のアイテムを、1個以上の実施態様に従って実行することもできる。
7.0 Examples of Gestures and Commands FIG. 3 shows an example screen shot for an input device that is configured to detect gestures. Gestures, commands, mapping between gestures, commands, gesture regions, visual objects, and any other items discussed with respect to FIG. 3 are examples of items, but should be interpreted as limiting the scope of rights is not. One or more items described with respect to FIG. 3 are not necessarily all executed, but other items described can also be executed in accordance with one or more embodiments.

図3は、円形のジェスチャ領域(305)及び長方形のジェスチャ領域(310)を有する具体例のインタフェース(300)を示す。円形のジェスチャ領域(305)内で検出された如何なるジェスチャも、ナビゲーション・コマンドにマップされる。例えば、円形のジェスチャ領域(305)において検出された2本の指によるタップは、現在表示されている任意のメニュー内の第二のアイテムを選択するコマンドに、関連付けることができる。もし、第二のアイテムがフォルダであるならば、フォルダ内のアイテムは、2本指によるタップの検出に応答して表示させることができる。   FIG. 3 shows an exemplary interface (300) having a circular gesture region (305) and a rectangular gesture region (310). Any gesture detected within the circular gesture area (305) is mapped to a navigation command. For example, a two-finger tap detected in a circular gesture area (305) can be associated with a command that selects a second item in any currently displayed menu. If the second item is a folder, the items in the folder can be displayed in response to detecting a tap with two fingers.

一実施態様では、長方形のジェスチャ領域(310)は、長方形のジェスチャ領域(310)内で検出された1個以上のジェスチャに関連するコマンドを識別することができる。例えば、長方形のジェスチャ領域(310)は、1本指の左方向のスワイプ・ジェスチャが、巻戻しコマンドに対応することを示し、1本指のタップ・ジェスチャが、休止コマンドに対応し、1本指の右方向のスワイプ・ジェスチャは、早送りコマンドに対応し、2本指による左方向のスワイプ・ジェスチャは、10秒の巻戻しに対応し、2本指によるタップ・ジェスチャは、スローモーションの再生コマンドに対応し、かつ、2本指による右方向のスワイプは、次のブックマーク・コマンドへのスキップに対応する、グラフィクスを含むことができる。   In one implementation, the rectangular gesture region (310) may identify commands associated with one or more gestures detected within the rectangular gesture region (310). For example, a rectangular gesture region (310) indicates that a left swipe gesture of one finger corresponds to a rewind command, and a one finger tap gesture corresponds to a pause command. A finger swipe gesture to the right corresponds to a fast forward command, a two finger left swipe gesture to rewind 10 seconds, and a two finger tap gesture to play slow motion. A swipe right with two fingers corresponding to a command can include graphics corresponding to a skip to the next bookmark command.

一実施態様では、具体例のインタフェース(300)は、円形のジェスチャ領域(305)と長方形のジェスチャ領域(310)とでは別である進行インディケータ(315)を含むことができる。進行インディケータ(315)は、ビデオの現在の再生位置、ブックマーク、現在の再生速度等を含むことができる。例えば、進行インディケータ(315)は、現在の再生速度(例えば、再生、1倍速の順方向早送り、休止、2倍速の巻戻し等)を表すシンボルを含むことができる。   In one implementation, the example interface (300) may include a progress indicator (315) that is separate from a circular gesture region (305) and a rectangular gesture region (310). The progress indicator (315) may include the current playback position of the video, a bookmark, the current playback speed, and the like. For example, the progress indicator (315) may include a symbol representing the current playback speed (eg, playback, 1x forward forward fast, pause, 2x rewind, etc.).

一実施態様では、コマンドに応答してシンボルを表示することができる。例えば、3倍速でマルチメディア・コンテンツを巻戻すことが、通常の再生速度の3倍で逆方向にフレームを表示することによって実行されている間に、3倍速の巻戻しコマンドに応答して、3倍速の巻戻しを示すシンボルを、表示することができる。しかしながら、ビデオ再生コマンドに関連するいかなるジェスチャも、必ず、進行インディケータ(315)を選択することができるというわけではない。一実施態様では、ユーザが、具体例のインタフェース(300)内のジェスチャを実行している時に、具体例のインタフェース(300)内の視覚オブジェクトが、必ずしも、選択されるわけではない。   In one implementation, symbols can be displayed in response to commands. For example, in response to a 3x rewind command while rewinding multimedia content at 3x speed is being performed by displaying the frame in the reverse direction at 3x normal playback speed, A symbol indicating triple speed rewind can be displayed. However, any gesture associated with the video playback command cannot necessarily select the progress indicator (315). In one implementation, the visual object in the example interface (300) is not necessarily selected when the user is performing a gesture in the example interface (300).

一実施態様では、具体例のインタフェース(300)は、検出されたジェスチャによって制御されるべき特定のメディア・デバイスを選択するためのツール(例えば、ドロップダウン・ボックス)を含むこともできる。一実施態様では、具体例のインタフェース(300)は、入力メカニズム(例えば、ジェスチャに基づく入力、ボタン、テキスト・ボックス、無線ボックス等)間をスイッチするオプションを含むことができる。   In one implementation, the example interface (300) may also include a tool (eg, a drop-down box) for selecting a particular media device to be controlled by the detected gesture. In one implementation, the example interface (300) may include an option to switch between input mechanisms (eg, gesture-based input, buttons, text boxes, wireless boxes, etc.).

8.0 遠隔制御の使用例
一実施態様では、遠隔制御デバイスは、メディア・デバイス(例えば、デジタル・ビデオ・レコーダ、デジタル・ビデオディスク・プレーヤ、メディア管理デバイス、ビデオ・レコーダ、ブルーレイ・プレーヤ等)と通信する。遠隔制御デバイスは、有線および/または無線通信セグメントによりメディア・デバイスと通信することができる。例えば、遠隔制御デバイスは、ネットワーク(例えば、インターネット、イントラネット等)により、無線通信により、ブルートゥースにより、赤外線等により通信することができる。
8.0 Remote Control Use Case In one embodiment, the remote control device is a media device (eg, a digital video recorder, a digital video disc player, a media management device, a video recorder, a Blu-ray player, etc.). Communicate with. The remote control device can communicate with the media device via a wired and / or wireless communication segment. For example, the remote control device can communicate with a network (for example, the Internet, an intranet, etc.) by wireless communication, by Bluetooth, by infrared rays or the like.

一実施態様では、図3のスクリーン・ショット(300)に示されるように、遠隔制御は、進行インディケータ(315)を表示する。進行インディケータ(315)は、別のマルチメディアのデバイスに現在表示されているマルチメディア・コンテンツの再生位置を示すことができる。進行インディケータ(315)は、正確な再生位置またはおおよその再生位置を表示することができる。例えば、進行インディケータ(315)は、トリック再生バー(330)に沿って表示される、再生位置を示すスライダ(320)を含むことができる。一実施態様では、特定の再生位置は、時刻(例えば、8:09)によって示すことができる。この時刻は、例えば、現在再生されているコンテンツの実際のストリーミング時間、またはコンテンツの開始ポイントからのオフセットを示すことができる。   In one embodiment, the remote control displays a progress indicator (315), as shown in the screen shot (300) of FIG. The progress indicator (315) can indicate the playback position of the multimedia content currently displayed on another multimedia device. The progress indicator (315) can display an accurate playback position or an approximate playback position. For example, the progress indicator (315) can include a slider (320) that indicates the playback position displayed along the trick playback bar (330). In one embodiment, a particular playback position can be indicated by a time (eg, 8:09). This time can indicate, for example, the actual streaming time of the currently played content, or an offset from the start point of the content.

一実施態様では、マルチメディア・コンテンツの再生位置に関する情報は、メディア・デバイス(例えば、デジタル・ビデオ・レコーダ、ケーブル・ボックス、コンピュータ、メディア管理デバイス、デジタル・ビデオディスク・プレーヤ、マルチメディア・プレイヤ、オーディオ・プレーヤ等)から取得することができる。例えば、メディア・デバイスに通信で結合されている遠隔制御デバイスは、メディア・デバイスによって表示され(再生され)つつある特定のフレームに関連するフレーム情報を受信するように構成することができる。一実施態様では、メディア・デバイスは、遠隔制御デバイスにフレーム情報を周期的に送信することができる。これに代えて、遠隔制御デバイスは、メディア・デバイスにフレーム情報を周期的にリクエストすることができる。遠隔デバイスは、この情報を使用して、トリック再生バー(330)に沿ったスライダ(320)の位置を定める。遠隔制御デバイスは、メディア・デバイスによって格納されているまたは録画されているマルチメディア・コンテンツの量を示す、キャッシュ・バー(325)の占有範囲を示すメディア・デバイスからの情報を受信することも可能である。もし、メディア・デバイスが、マルチメディア・コンテンツを録画するまたはキャッシュに入れるプロセスにあるならば、キャッシュ・バー(325)は、メディア・デバイスがより多くのコンテンツを録画またはキャッシュに入れるので、増大するであろう。もし、メディア・デバイスが、録画されたマルチメディア・コンテンツを再生しつつあるならば、キャッシュ・バー(325)は、トリック再生バー(330)の長さを伸ばすであろう。   In one embodiment, the information regarding the playback position of the multimedia content is a media device (eg, digital video recorder, cable box, computer, media management device, digital video disc player, multimedia player, Audio player, etc.). For example, a remote control device that is communicatively coupled to a media device can be configured to receive frame information associated with a particular frame that is being displayed (played) by the media device. In one implementation, the media device can periodically send frame information to the remote control device. Alternatively, the remote control device can periodically request frame information from the media device. The remote device uses this information to locate the slider (320) along the trick play bar (330). The remote control device can also receive information from the media device that indicates the coverage of the cache bar (325) that indicates the amount of multimedia content that is stored or recorded by the media device It is. If the media device is in the process of recording or caching multimedia content, the cache bar (325) will increase as the media device records or caches more content Will. If the media device is playing recorded multimedia content, the cache bar (325) will extend the length of the trick play bar (330).

別の具体例は、表示されつつあるフレームに最も近いタイム・スタンプを受信するように構成されている遠隔制御デバイスに関する。もし、フレームがタイム・スタンプに完全に一致しないならば、遠隔制御デバイスは、ステップ関数(例えば、タイム・スタンプの次のフレームまたは前のフレーム)を使用するように構成することもできる。別の具体例は、進行インディケータのメディア・デバイスから遠隔制御デバイス上の表示まで連続的に画像(例えば、ビットマップ、表示命令等)を受信する遠隔制御デバイスを含むことができる。一実施態様では、遠隔制御デバイスは、マルチメディア・コンテンツの再生位置を決定するために、遠隔制御デバイスが使用する、特定の開始位置と表示率を含むことができる。例えば、デジタル・ビデオ・レコーダは、マルチメディア・コンテンツの再生における当初の再生位置を、進行率(例えば、単位時間当たりのスライダ(320)の変化、フレーム率等)と共に、遠隔制御デバイスに送信することができる。遠隔制御デバイスは、この情報を使用して、当初の再生位置に基づいて先ず進行インディケータを表示し、次いで、時間の関数として、その後の位置を計算することができる。   Another example relates to a remote control device that is configured to receive a time stamp that is closest to the frame being displayed. If the frame does not exactly match the time stamp, the remote control device can also be configured to use a step function (eg, the next frame or the previous frame of the time stamp). Another embodiment may include a remote control device that continuously receives images (eg, bitmaps, display instructions, etc.) from the media device of the progress indicator to a display on the remote control device. In one implementation, the remote control device can include a specific starting position and display rate that the remote control device uses to determine the playback position of the multimedia content. For example, the digital video recorder transmits the initial playback position in the playback of multimedia content to the remote control device along with the progress rate (eg, slider (320) change per unit time, frame rate, etc.). be able to. The remote control device can use this information to first display the progress indicator based on the original playback position, and then calculate the subsequent position as a function of time.

一実施態様では、トリック再生機能が実行される時(例えば、10秒の巻戻しが実行される時)、スライダ(320)は、表示されたビデオとの同期が取れなくなる。トリック再生機能に応答して、新規な再生位置に関する更新された情報を、遠隔制御デバイスに提供することができる。   In one embodiment, when a trick play function is performed (eg, when a 10 second rewind is performed), the slider (320) becomes out of sync with the displayed video. In response to the trick play function, updated information regarding the new play position can be provided to the remote control device.

一実施態様では、遠隔制御デバイスは、更に、特定の再生位置を選択するまたは進行率の変更を示す更新情報を受信することができる。例えば、ユーザは、現在の再生位置でマルチメディア・コンテンツの再生を中断するために1個以上のコマンドを発し、次で、現在の再生位置の10秒前にまでスキップし、かつ再生を再開することができる。この場合、メディア・デバイスは、スライダ(320)を中断し、スライダ(320)を移動させることによって、現在の再生位置の10秒前に対応する新規な再生位置を表示し、次で、スライダ(320)を周期的に更新することを再開する、情報を、遠隔制御デバイスに提供することができる。   In one embodiment, the remote control device may further receive updated information indicating a particular playback position or indicating a change in progress rate. For example, the user may issue one or more commands to interrupt the playback of multimedia content at the current playback position, then skip to 10 seconds before the current playback position and resume playback be able to. In this case, the media device displays the new playback position corresponding to 10 seconds before the current playback position by suspending the slider (320) and moving the slider (320). 320) can be provided to the remote control device to resume periodically updating.

一実施態様では、遠隔制御デバイスを起動するときに、スライダ(320)を更新することができる。例えば、ユーザが、遠隔制御デバイスを取り上げる時または遠隔制御デバイスにタッチする時、遠隔制御デバイスは、メディア・デバイスに再生位置の情報をリクエストすることができる。例えば、遠隔制御デバイスは、運動を検出するように構成されているアクセロメータおよび/またはタッチを検出するように構成されているタッチスクリーン・インタフェースを含むことができる。応答により、メディア・デバイスは、遠隔制御デバイスに再生位置情報を提供することができる。遠隔制御デバイスは、次で、メディア・デバイスから受信された位置情報上の再生に基づいて、スライダ(320)にマルチメディア・コンテンツの現在の再生位置を表示させることができる。   In one implementation, the slider (320) can be updated when the remote control device is activated. For example, when the user picks up or touches the remote control device, the remote control device can request playback location information from the media device. For example, the remote control device can include an accelerometer configured to detect movement and / or a touch screen interface configured to detect touch. In response, the media device can provide playback position information to the remote control device. The remote control device can then cause the slider (320) to display the current playback position of the multimedia content based on the playback on the position information received from the media device.

一実施態様では、遠隔制御デバイスが常にスライダ(320)を更新するために、遠隔制御デバイスは、マルチメディア・コンテンツの再生位置に関する情報を、連続的に、受信することができる。別の実施態様では、マルチメディア・コンテンツの再生位置に関する情報は、周期的に受信することができ、かつ遠隔制御デバイスは、この情報が受信されるたびに、スライダを更新することができる。   In one embodiment, because the remote control device constantly updates the slider (320), the remote control device can continuously receive information regarding the playback position of the multimedia content. In another embodiment, information regarding the playback position of the multimedia content can be received periodically, and the remote control device can update the slider each time this information is received.

一実施態様では、遠隔制御デバイスは、マルチメディア・デバイスによる表示のために、マルチメディア・コンテンツをマルチメディアのデバイスに送信することができる。例えば、遠隔制御デバイスは、インターネットによりビデオ・ストリームを取得することができ、かつマルチメディア・デバイスでの表示のために、ビデオ・ストリームをマルチメディア・デバイスに送信することができる。この具体例では、遠隔制御デバイスは、遠隔制御デバイスそのものによって決定される再生位置の情報に基づいて、スライダ(320)の表示位置を決定することができる。例えば、遠隔制御デバイスは、遠隔制御デバイスからマルチメディア・デバイスに送信されつつあるフレームに基づいて、再生位置の情報を計算することができる。   In one implementation, the remote control device can send multimedia content to the multimedia device for display by the multimedia device. For example, a remote control device can obtain a video stream over the Internet and can send the video stream to the multimedia device for display on the multimedia device. In this specific example, the remote control device can determine the display position of the slider (320) based on the reproduction position information determined by the remote control device itself. For example, the remote control device can calculate playback position information based on frames being transmitted from the remote control device to the multimedia device.

9.0 実施態様の具体例
一実施態様の方法は、デバイスのタッチスクリーン・インタフェース上の特定領域における、特定領域の第一の位置から特定領域の第二の位置までのスライド・ジェスチャを検出するステップと、少なくともスライド・ジェスチャに基づいて、ビデオ再生コマンドを特定するステップと、ビデオ再生コマンドに関連するアクションを実行するステップとを備え、この方法は、少なくとも1個のデバイスによって実行される。
9.0 Embodiment Specifics The method of an embodiment detects a slide gesture from a first position of a specific area to a second position of the specific area in a specific area on the touchscreen interface of the device. The method comprising: identifying a video playback command based on at least a slide gesture; and performing an action associated with the video playback command, the method being performed by at least one device.

一実施態様では、このスライドするジェスチャは、特定領域内で表示されるいかなるビデオ進行インディケータの選択も検出せずに、検出される。特定領域の少なくともビデオの一部を表示する間に、特定領域において、スライド・ジェスチャを検出することができる。特定領域の1個以上のジェスチャをどのように実行すべきかという情報を表示する間、特定領域内でスライド・ジェスチャを検出することができる。   In one embodiment, this sliding gesture is detected without detecting the selection of any video progress indicator displayed within the particular area. A slide gesture can be detected in the specific area while displaying at least a portion of the video in the specific area. While displaying information on how to perform one or more gestures in a specific area, a slide gesture can be detected in the specific area.

一実施態様では、ビデオ再生コマンドを特定するステップは、更に、タッチスクリーン・インタフェース上の複数の領域の内、スライド・ジェスチャが検出された特定領域に基づく。   In one embodiment, the step of identifying the video playback command is further based on a specific region in which a slide gesture is detected among a plurality of regions on the touch screen interface.

一実施態様では、アクションを実行するステップは、第一のデバイスが、ビデオ再生コマンドに基づく情報を、第二のデバイスに送信するステップを、備える。ビデオに関連するアクションを実行するステップは、スライド・ジェスチャを検出するデバイスと同じデバイス上のアクションを実行するステップを、備えることができる。ビデオ再生コマンドは、再生速度と方向を選択することができる。   In one embodiment, performing the action comprises the first device transmitting information based on the video playback command to the second device. Performing the action associated with the video may comprise performing an action on the same device as the device that detects the slide gesture. The video playback command can select the playback speed and direction.

一実施態様では、スライド・ジェスチャは、第一の位置から第二の位置へのスワイプ・ジェスチャを備える。スライド・ジェスチャは、第一の位置で開始するフリック・ジェスチャを備えることができる。   In one embodiment, the slide gesture comprises a swipe gesture from a first position to a second position. The slide gesture can comprise a flick gesture starting at the first position.

一実施態様では、ビデオ再生コマンドは、ビデオの再生を中断すること、ビデオの再生を再開すること、ビデオの再生された部分をリプレイすること、ビデオの再生を停止すること、ビデオの再生を停止しかつ特定の再生位置でビデオの再生を再開すること、スローモーションでビデオを再生すること、ビデオをコマ送りすること、最初からビデオを再生すること、次のプレイリストから1個以上のビデオを再生すること、特定の場面からビデオを再生すること、ビデオ内に再生位置をブックマークすること、再生を停止し、ブックマークされた位置で再生を再開すること、またはビデオを評価付けすること、の内の1個以上である。   In one embodiment, the video playback command can suspend video playback, resume video playback, replay the played portion of video, stop video playback, stop video playback. And restart the video at a specific playback position, play the video in slow motion, step through the video, play the video from the beginning, play one or more videos from the next playlist Playing, playing a video from a specific scene, bookmarking the playback position in the video, stopping playback, restarting playback at the bookmarked position, or rating the video One or more of.

一実施態様の方法は、デバイスのタッチスクリーン・インタフェース上の複数の平行ジェスチャを同時に検出するステップと、複数の平行ジェスチャの数を決定するステップと、複数の平行ジェスチャの数に基づいて複数のコマンドからコマンドを選択するステップと、コマンドに関連するアクションを実行するステップとを備える。   The method of an embodiment includes the steps of simultaneously detecting a plurality of parallel gestures on the touch screen interface of the device, determining a number of the plurality of parallel gestures, and a plurality of commands based on the number of the plurality of parallel gestures. Selecting a command from and executing an action associated with the command.

一実施態様では、コマンドを選択するステップは、複数の平行ジェスチャの数に基づいて、メニューオプションを選択するステップを備える。複数の平行ジェスチャは、同じ方向で実行される複数の平行のスライドするジェスチャを備えることができる。   In one embodiment, selecting the command comprises selecting a menu option based on the number of parallel gestures. The plurality of parallel gestures can comprise a plurality of parallel sliding gestures performed in the same direction.

一実施態様では、複数の平行ジェスチャの数を決定するステップは、タッチスクリーン・インタフェースで同時に実行されたタップ・ジェスチャの数を決定するステップを備える。   In one embodiment, determining the number of multiple parallel gestures comprises determining the number of tap gestures performed simultaneously on the touch screen interface.

本明細書においては、これらの方法のステップを実行するものとして、特定のコンポーネントが詳述されているが、他の実施態様においては、指定されたコンポーネントのために作動するエージェントまたはメカニズムが、これらの方法のステップを実行することができる。更に、いくつかの本発明の態様が、システム上のコンポーネントについて論じられているが、本発明は、多数のシステムに分布するコンポーネントによって実行させることもできる。本発明の実施態様は、本明細書に記述されるこれらの方法ステップを実行する手段を含む如何なるシステムも含む。本発明の実施態様には、それが実行されると、本明細書に記述されるこれらの方法のステップを実行させる命令を有するコンピュータ可読の媒体も含まれる。   Although specific components are described in detail herein as performing these method steps, in other embodiments, agents or mechanisms that operate for specified components may be The method steps can be performed. Furthermore, although some aspects of the invention have been discussed with respect to components on the system, the invention can also be implemented with components distributed across multiple systems. Embodiments of the present invention include any system that includes means for performing these method steps as described herein. Embodiments of the present invention also include computer-readable media having instructions that, when executed, cause the steps of these methods described herein to be performed.

10.0 ハードウェアの概要
一実施態様によれば、本明細書に記述される技術は、1個以上の特別目的計算デバイスによって実行される。この特別目的計算デバイスは、これらの技術を実行するためにハードワイヤードにより構成されても良く、または1個以上の特定用途向け集積回路(ASIC)またはこれらの技術を実行するように持続的にプログラムされるフィールド・プログラマブル・ゲートアレイ(FPGA)のようなデジタル電子デバイスを含むことができ、またはファームウェア、メモリ、他の格納装置またはこれらの組合せ内のプログラム命令に従ってこれらの技術を実行するようにプログラムされている1個以上の汎用ハードウェア・プロセッサを含むことができる。このような特別目的計算デバイスは、これらの技術を達成するために、カスタム・ハードワイヤード・ロジック、ASICまたはFPGAをカスタムメイドのプログラミングに結合させることもできる。この特別目的計算デバイスは、デスクトップ計算機システム、携帯コンピュータ・システム、ハンドヘルド・デバイス、ネットワーキング・デバイス、またはこれらの技術を実行するハードワイヤード・ロジックおよび/またはプログラム・ロジックが組み込まれた他の任意のデバイスとすることができる。
10.0 Hardware Overview According to one embodiment, the techniques described herein are performed by one or more special purpose computing devices. This special purpose computing device may be hardwired to perform these techniques, or it may be continuously programmed to perform one or more application specific integrated circuits (ASICs) or these techniques. A digital electronic device such as a field programmable gate array (FPGA) or programmed to perform these techniques according to program instructions in firmware, memory, other storage devices, or combinations thereof Can include one or more general purpose hardware processors. Such special purpose computing devices can also combine custom hardwired logic, ASICs or FPGAs with custom-made programming to accomplish these techniques. This special purpose computing device can be a desktop computer system, a portable computer system, a handheld device, a networking device, or any other device incorporating hardwired logic and / or program logic that implements these technologies. It can be.

例えば、図4は、本発明の実施態様を実行することができるコンピュータ・システム400を示すブロック・ダイヤグラムである。コンピュータ・システム400は、情報を通信するためのバス402または他の通信メカニズム、およびバス402に結合させた情報を処理するためのハードウェア・プロセッサ404を含む。ハードウェア・プロセッサ404は、例えば、汎用マイクロ・プロセッサとすることができる。   For example, FIG. 4 is a block diagram illustrating a computer system 400 that can implement embodiments of the present invention. Computer system 400 includes a bus 402 or other communication mechanism for communicating information, and a hardware processor 404 for processing information coupled to bus 402. The hardware processor 404 can be, for example, a general purpose microprocessor.

コンピュータ・システム400は、プロセッサ404によって実行される情報および命令を格納するための、バス402に結合されている(ランダム・アクセス・メモリ(RAM)または他の動的格納デバイスのような)メイン・メモリ406を含む。メイン・メモリ406は、プロセッサ404によって実行される命令の実行中の一時的変数または他の中間情報を格納するためにも使用することができる。プロセッサ404にアクセス可能な固定格納媒体に格納されると、このような命令は、コンピュータ・システム400を、これらの命令で指定されているオペレーションを実行するようにカスタマイズされている特別目的マシンに、変える。   Computer system 400 is coupled to a bus 402 for storing information and instructions executed by processor 404 (such as random access memory (RAM) or other dynamic storage device). A memory 406 is included. Main memory 406 can also be used to store temporary variables or other intermediate information during execution of instructions executed by processor 404. When stored on a fixed storage medium accessible to processor 404, such instructions cause computer system 400 to turn into a special purpose machine that is customized to perform the operations specified in these instructions. Change.

コンピュータ・システム400は、更に、プロセッサ404のための静的情報および命令を格納するためのバス402に結合されている読出し専用メモリ(ROM)408または他の静的格納デバイスも含む。磁気ディスクまたは光学のディスクのような格納デバイス410が、情報および命令を格納するために設けられ、かつバス402に結合される。   Computer system 400 further includes a read only memory (ROM) 408 or other static storage device coupled to bus 402 for storing static information and instructions for processor 404. A storage device 410, such as a magnetic disk or an optical disk, is provided and coupled to the bus 402 for storing information and instructions.

コンピュータ・システム400は、コンピュータ・ユーザに情報を表示するために、陰極線管(CRT)のような、ディスプレイ412に、バス402を介して結合させることができる。英数字キーおよび他のキーを含む入力デバイス414は、情報およびコマンドの選択をプロセッサ404に通信させるためにバス402に結合される。ユーザ入力デバイスの別のタイプは、マウスのようなカーソル制御416、トラックボール、または方向情報及びコマンド選択をプロセッサ404に通信しかつ表示412上のカーソル移動を制御するためのカーソル方向キーである。この入力デバイスは、典型的には、2本の軸(デバイスが面内の位置を特定することを可能にする第一の軸(例えば、x)および第二の軸(例えば、y)内に2個の自由度を有する。   Computer system 400 may be coupled via bus 402 to a display 412, such as a cathode ray tube (CRT), for displaying information to a computer user. An input device 414 that includes alphanumeric keys and other keys is coupled to the bus 402 for communicating information and command selections to the processor 404. Another type of user input device is a cursor control 416, such as a mouse, a trackball, or cursor direction keys for communicating direction information and command selection to the processor 404 and controlling cursor movement on the display 412. The input device typically has two axes (in a first axis (eg, x) and a second axis (eg, y) that allow the device to identify a position in the plane). Has two degrees of freedom.

コンピュータ・システム400は、カスタマイズされたハードワイヤード・ロジック、1個以上のASICまたはFPGA、ファームウェア、および/またはコンピュータ・システムと協働してコンピュータ・システム400を特別目的マシンに変えるコンピュータ・ロジック、を使用して本明細書に記述される技術を実行することができる。一実施態様によれば、本明細書における技術は、プロセッサ404が、メイン・メモリ406に含まれる1個以上の命令の1個以上のシーケンスを実行することに応じて、コンピュータ・システム400によって実行される。このような命令は、格納デバイス410のような別の格納媒体からメイン・メモリ406に読み込ませることができる。メイン・メモリ406に含まれる命令のシーケンスの実行により、プロセッサ404が、本明細書に記述されるプロセス工程を実行する。別の実施態様の場合、ハードワイヤード回路を、ソフトウェア命令の代わりにまたはそれと共に使用することができる。   The computer system 400 includes customized hardwired logic, one or more ASICs or FPGAs, firmware, and / or computer logic that works with the computer system to turn the computer system 400 into a special purpose machine. Can be used to perform the techniques described herein. According to one embodiment, the techniques herein are performed by computer system 400 in response to processor 404 executing one or more sequences of one or more instructions contained in main memory 406. Is done. Such instructions can be read into main memory 406 from another storage medium, such as storage device 410. Execution of the sequence of instructions contained in main memory 406 causes processor 404 to perform the process steps described herein. In another embodiment, hardwired circuitry can be used instead of or in conjunction with software instructions.

「格納媒体」という本明細書において使用される用語は、特定の方法でマシンを作動させるデータおよび/または命令を格納する如何なる固定媒体をも意味する。このような格納媒体は、不揮発性媒体および/または揮発性媒体を備えることができる。不揮発性媒体は、例えば、格納デバイス410のような光学または磁気ディスクを含む。揮発性媒体は、メイン・メモリ406のような動的メモリを含む。格納媒体の一般的な形態は、例えば、フロッピ・ディスク、フレキシブル・ディスク、ハード・ディスク、SSD(ソリッド・ステート・ドライブ)、磁気テープ、または他の任意の磁気データ格納媒体、CD-ROM、他の任意の光学データ格納媒体、穴のパターンを有する任意の物理媒体、RAM、PROMおよびEPROM、フラッシュEPROM、NVRAM、他の任意のメモリチップまたはカートリッジを含む。   The term “storage medium” as used herein refers to any fixed medium that stores data and / or instructions that cause a machine to operate in a specific fashion. Such storage media can comprise non-volatile media and / or volatile media. Non-volatile media includes, for example, optical or magnetic disks, such as storage device 410. Volatile media includes dynamic memory, such as main memory 406. Common forms of storage media are, for example, floppy disk, flexible disk, hard disk, SSD (solid state drive), magnetic tape, or any other magnetic data storage medium, CD-ROM, etc. Including any optical data storage medium, any physical medium having a hole pattern, RAM, PROM and EPROM, flash EPROM, NVRAM, and any other memory chip or cartridge.

格納媒体は、知覚できるものであるが、転送媒体と共に使用することもできる。転送媒体とは、格納媒体の間に情報を転送するものである。例えば、転送媒体は、バス402を備えるワイヤを含む同軸ケーブル、銅線および光ファイバを含む。転送媒体は、電波通信および赤外データ通信が行われている間に生成されるもののような、音響波または光波の形態をとることもできる。   The storage medium is perceptible but can also be used with a transfer medium. A transfer medium is a medium that transfers information between storage media. For example, the transfer medium includes coaxial cable, including wire with bus 402, copper wire and optical fiber. The transfer medium can also take the form of acoustic waves or light waves, such as those generated during radio wave and infrared data communications.

媒体のさまざまな形態は、プロセッサ404に実行させる1個以上の命令の1個以上のシーケンスを担持することに関係する。例えば、命令は、最初、リモート・コンピュータの磁気ディスクまたはSSDに担持させることができる。リモート・コンピュータは、命令をその動的メモリにロードしかつモデムを使用して電話回線により命令を送信することができる。コンピュータ・システム400にローカルに備えられたモデムは、電話回線上のデータを受信し、かつ赤外送信器を使用してデータを赤外信号に変換することができる。赤外検出器は、赤外信号により担持されるデータを受信することができ、かつ適切な回路は、データをバス402に配置することができる。バス402は、データをメイン・メモリ406に運び、プロセッサ404は、そこから、命令を読み出しかつ実行する。メイン・メモリ406によって受信された命令は、オプションとして、プロセッサ404による実行の前または後の何れかに格納デバイス410に格納することができる。   Various forms of media pertain to carrying one or more sequences of one or more instructions that cause processor 404 to execute. For example, the instructions can initially be carried on a remote computer magnetic disk or SSD. The remote computer can load the instructions into its dynamic memory and send the instructions over a telephone line using a modem. A modem local to computer system 400 can receive the data on the telephone line and use an infra-red transmitter to convert the data to an infra-red signal. An infrared detector can receive data carried by the infrared signal, and appropriate circuitry can place the data on bus 402. Bus 402 carries data to main memory 406, from which processor 404 reads and executes instructions. The instructions received by main memory 406 may optionally be stored on storage device 410 either before or after execution by processor 404.

コンピュータ・システム400は、バス402に結合されている通信インタフェース418も含む。通信インタフェース418は、ローカル・ネットワーク422に接続されているネットワーク・リンク420に、双方向データ通信カップリングを提供する。例えば、通信インタフェース418は、総合サービス・デジタル・ネットワーク(ISDN)カード、ケーブル・モデム、衛星モデム、またはデータ通信接続を電話回線が対応するタイプに提供するモデム、とすることができる。別の具体例として、通信インタフェース418を、データ通信接続を互換のLANに提供するローカル・エリア・ネットワーク(LAN)カードとすることもできる。無線リンクを、実行することもできる。このような実施の何れにおいても、通信インタフェース418は、様々なタイプの情報を表すデジタル・データ・ストリームを担持する電気、電磁または光学信号を送信しかつ受信する。   Computer system 400 also includes a communication interface 418 coupled to bus 402. Communication interface 418 provides a bidirectional data communication coupling to network link 420 that is connected to local network 422. For example, the communication interface 418 may be an integrated services digital network (ISDN) card, cable modem, satellite modem, or modem that provides a data communication connection to the type that the telephone line supports. As another example, the communication interface 418 may be a local area network (LAN) card that provides a data communication connection to a compatible LAN. A wireless link can also be implemented. In any such implementation, communication interface 418 sends and receives electrical, electromagnetic or optical signals that carry digital data streams representing various types of information.

ネットワーク・リンク420は、典型的には、1個以上のネットワークを介してデータ通信を他のデータ・デバイスに提供する。例えば、ネットワーク・リンク420は、ローカル・ネットワーク422により、ホスト・コンピュータ424にまたはインターネット・サービス・プロバイダ(ISP)426が作動させるデータ機器に、接続を提供することができる。他方、ISP426は、現在一般に「インターネット」428と呼ばれる世界規模のパケット・データ通信ネットワークにより、データ通信サービスを提供する。ローカル・ネットワーク422およびインターネット428は、両者とも、デジタル・データ・ストリームを担持する電気、電磁または光学信号を使用する。さまざまなネットワークを介した信号およびネットワーク・リンク420上の信号および(コンピュータ・システム400へ/からデジタルデータを担持する)通信インタフェース418を介した信号による信号は、転送媒体の具体例の形態である。   Network link 420 typically provides data communication to other data devices via one or more networks. For example, the network link 420 may provide a connection over the local network 422 to a host computer 424 or to data equipment operated by an Internet service provider (ISP) 426. On the other hand, ISP 426 provides data communication services through a global packet data communication network now commonly referred to as the “Internet” 428. Local network 422 and Internet 428 both use electrical, electromagnetic or optical signals that carry digital data streams. Signals via various networks and signals via network link 420 and signals via communication interface 418 (which carries digital data to / from computer system 400) are examples of forms of transfer media. .

コンピュータ・システム400は、ネットワーク、ネットワーク・リンク420および通信インタフェース418を介して、メッセージを送信し、かつプログラム・コードを含むデータを受信する。インターネットの具体例の場合、サーバ430は、インターネット428、ISP426、ローカル・ネットワーク422および通信インタフェース418を介して、アプリケーション・プログラムに対してリクエストされたコードを送信するかもしれない。   The computer system 400 sends messages and receives data including program code via the network, network link 420 and communication interface 418. For the Internet example, the server 430 may send the requested code to the application program over the Internet 428, ISP 426, local network 422, and communication interface 418.

プロセッサ404は、受信されたコードを、それが受信されると同時に実行し、および/またはストレージ・デバイス410に格納し、または後の実行のために他の持久記憶装置に格納することができる。   The processor 404 may execute the received code as it is received and / or store it in the storage device 410, or store it in other persistent storage for later execution.

一実施態様の場合、装置は、1個以上のハードウェアおよび/または本明細書に記述されるソフトウェア・コンポーネントの組合せである。一実施態様の場合、ステップを実行するためのサブシステムは、1個以上のハードウェアおよび/またはステップを実行するように構成することができるソフトウェア・コンポーネントの組合せである。   In one embodiment, the device is a combination of one or more hardware and / or software components described herein. In one embodiment, the subsystem for performing the steps is a combination of one or more hardware and / or software components that can be configured to perform the steps.

11.0 拡張および変形例
前述の明細書において、本発明の実施態様が、実施ごとに異なる多数の特定の詳細を参照して記述された。従って、何が発明であるか、かつ何が本出願人が意図する発明であるかを示す唯一かつ排他的な指標は、以降の如何なる補正も含めて、このような請求項が生じる特定の形態で、本出願から生じる請求項の組である。このような請求項に含まれる用語に対する本明細書で明白に述べられた何れの定義も、請求項において用いられているこのような用語の意味を決める。それ故、請求項において明白に記載されていない限定、素子、属性、特長、利点または属性は、如何なる形であれこのような請求項の範囲を制限するものではない。従って、明細書および図面は、限定するものではなく、例示するものであると考えるべきである。
11.0 Extensions and Variations In the foregoing specification, embodiments of the invention have been described with reference to numerous specific details that vary from implementation to implementation. Accordingly, the only and exclusive indication of what is an invention and what the applicant intends is the specific form in which such claims arise, including any subsequent amendments. And a set of claims arising from this application. Any definitions expressly set forth herein for terms contained in such claims shall govern the meaning of such terms as used in the claims. Hence, no limitation, element, attribute, feature, advantage or attribute that is not expressly recited in a claim should limit the scope of such claim in any way. Accordingly, the specification and drawings are to be regarded as illustrative rather than limiting.

Claims (24)

デバイスのタッチスクリーン・インタフェース上の、特定領域内の第一の位置から第二の位置へのスライド・ジェスチャを検出するステップと、
少なくとも前記スライド・ジェスチャに基づいてビデオに対するビデオ再生コマンドを認識するステップと、
前記ビデオ再生コマンドに関連するアクションを実行するステップと、
を備える方法。
Detecting a slide gesture from a first position to a second position in a specific area on the touch screen interface of the device;
Recognizing a video playback command for video based at least on the slide gesture;
Performing an action associated with the video playback command;
A method comprising:
前記スライドするジェスチャが、前記特定領域の範囲内に表示されるいかなるビデオ進行インディケータも選択することを検出せずに、検出される、請求項1に記載の方法。   The method of claim 1, wherein the sliding gesture is detected without detecting selecting any video progress indicator displayed within the particular region. 前記スライド・ジェスチャが、前記特定領域内の前記ビデオの少なくとも一部の表示と同時に、検出される、請求項1に記載の方法。   The method of claim 1, wherein the slide gesture is detected simultaneously with the display of at least a portion of the video in the specific area. 1個以上のジェスチャをどのように実行するかと言う情報を前記特定領域内に表示する間に、前記スライド・ジェスチャが、前記特定領域内で検出される、請求項1に記載の方法。   The method of claim 1, wherein the slide gesture is detected in the specific area while displaying information in the specific area on how to perform one or more gestures. 前記ビデオ再生コマンドが、
前記タッチスクリーン・インタフェース上の複数の領域から前記スライド・ジェスチャが検出された前記特定領域を識別するステップを備え、
前記ビデオ再生コマンドを識別するステップが、前記特定領域に関連する複数のビデオ再生コマンドから前記ビデオ再生コマンドを選択するステップを備える、請求項1に記載の方法。
The video playback command is
Identifying the specific area where the slide gesture is detected from a plurality of areas on the touch screen interface;
The method of claim 1, wherein identifying the video playback command comprises selecting the video playback command from a plurality of video playback commands associated with the particular region.
前記アクションを実行するステップが、第一のデバイスが、前記ビデオ再生コマンドに基づく情報を第二のデバイスに送信するステップを備える、請求項1に記載の方法。   The method of claim 1, wherein performing the action comprises the first device transmitting information based on the video playback command to a second device. 前記ビデオに関連する前記アクションを実行するステップが、前記デバイスが前記スライド・ジェスチャを検出する際に前記アクションを同じデバイスに実行するステップを備える、請求項1に記載の方法。   The method of claim 1, wherein performing the action associated with the video comprises performing the action on the same device when the device detects the slide gesture. 前記ビデオ再生コマンドが、再生速度と再生方向を選択する、請求項1に記載の方法。   The method of claim 1, wherein the video playback command selects a playback speed and a playback direction. 前記スライド・ジェスチャが、前記第一の位置から第二の位置へのスワイプ・ジェスチャを備える、請求項1に記載の方法。   The method of claim 1, wherein the slide gesture comprises a swipe gesture from the first position to a second position. 前記スライド・ジェスチャが、前記第一の位置で開始されるフリック・ジェスチャを備える、請求項1に記載の方法。   The method of claim 1, wherein the slide gesture comprises a flick gesture that begins at the first position. 前記ビデオ再生コマンドが、
前記ビデオの再生を中断すること、
前記ビデオの再生を再開すること、
前記ビデオの再生された部分をリプレイすること、
前記ビデオの再生を停止すること、
前記ビデオの再生を停止しかつ特定の再生位置で前記ビデオの再生を再開すること、
スローモーションで前記ビデオを再生すること、
ビデオをコマ送りすること、
最初から前記ビデオを再生すること、
次のプレイリストから1個以上の前記ビデオを再生すること、
特定の場面から前記ビデオを再生すること、
前記ビデオ内に再生位置をブックマークすること、
再生を停止し、ブックマークされた位置で再生を再開すること、または
前記ビデオを評価付けすること、
の内の1個以上である、請求項1に記載の方法。
The video playback command is
Interrupting the playback of the video;
Resuming playback of the video;
Replaying the played portion of the video;
Stopping playback of the video,
Stopping playback of the video and restarting playback of the video at a specific playback position;
Playing the video in slow motion;
Frame by frame,
Playing the video from the beginning,
Playing one or more of the videos from the next playlist,
Playing the video from a specific scene,
Bookmarking the playback position in the video;
Stop playback and resume playback at the bookmarked position, or rate the video,
The method of claim 1, wherein one or more of the above.
デバイスのタッチスクリーン・インタフェース上の複数の平行ジェスチャを、同時に、検出するステップと、
前記複数の平行ジェスチャの数を決定するステップと、
前記複数の平行ジェスチャの前記数に基づいて複数のコマンドからコマンドを選択するステップと、
前記コマンドに関連するアクションを実行するステップと、
を備える方法。
Simultaneously detecting a plurality of parallel gestures on the touch screen interface of the device;
Determining the number of the plurality of parallel gestures;
Selecting a command from a plurality of commands based on the number of the plurality of parallel gestures;
Performing an action associated with the command;
A method comprising:
前記コマンドを選択するステップが、前記複数の平行ジェスチャの前記数に基づいてメニュ・オプションを選択するステップを備える、請求項12に記載の方法。   The method of claim 12, wherein selecting the command comprises selecting a menu option based on the number of the plurality of parallel gestures. 前記複数の平行ジェスチャが、同じ方向に実行される複数のスライドするジェスチャを備える、請求項12に記載の方法。   The method of claim 12, wherein the plurality of parallel gestures comprises a plurality of sliding gestures performed in the same direction. 前記複数の平行ジェスチャの数を決定するステップが、タッチスクリーン・インタフェースで同時に実行されたタップ・ジェスチャの数を決定するステップを備える、請求項12に記載の方法。   The method of claim 12, wherein determining the number of the plurality of parallel gestures comprises determining the number of tap gestures performed simultaneously on the touch screen interface. 前記複数のジェスチャの前記数に基づいて、マルチメディア・コンテンツを再生する再生速度を決定するステップを、更に、備える、請求項12に記載の方法。   The method of claim 12, further comprising determining a playback speed for playing multimedia content based on the number of the plurality of gestures. 遠隔制御デバイスのタッチスクリーン・インタフェース上の、左から右方向の複数の平行ジェスチャを同時に検出するステップと、
前記複数の平行ジェスチャの数を決定するステップと、
前記複数の平行ジェスチャの前記数に基づいて、複数の再生速度から再生速度を選択するステップと、
前記選択された再生速度に基づいて、マルチメディア・デバイスにマルチメディア・コンテンツを再生させるステップと、
を備える方法。
Simultaneously detecting a plurality of parallel gestures from left to right on a touch screen interface of a remote control device;
Determining the number of the plurality of parallel gestures;
Selecting a playback speed from a plurality of playback speeds based on the number of the plurality of parallel gestures;
Causing the multimedia device to play multimedia content based on the selected playback speed;
A method comprising:
前記複数の再生速度が、2個以上の順方向早送り速度を備える、請求項17に記載の方法。   The method of claim 17, wherein the plurality of playback speeds comprises two or more forward fast forward speeds. 前記マルチメディア・デバイスが、オーディオ・デバイスを備える、請求項17に記載の方法。   The method of claim 17, wherein the multimedia device comprises an audio device. 前記マルチメディア・デバイスが、ビデオ・デバイスを備える、請求項17に記載の方法。   The method of claim 17, wherein the multimedia device comprises a video device. 遠隔制御デバイスのタッチスクリーン・インタフェース上の、右から左方向の複数の平行ジェスチャを同時に検出するステップと、
前記複数の平行ジェスチャの数を決定するステップと、
前記複数の平行ジェスチャの前記数に基づいて、複数の巻戻し速度から巻戻し速度を選択するステップと、
前記選択された巻戻し速度に基づいて、マルチメディア・デバイスにマルチメディア・コンテンツを巻戻しモードで再生させるステップと、
を備える方法。
Simultaneously detecting a plurality of right-to-left parallel gestures on the touch screen interface of the remote control device;
Determining the number of the plurality of parallel gestures;
Selecting a rewind speed from a plurality of rewind speeds based on the number of the plurality of parallel gestures;
Causing the multimedia device to play multimedia content in a rewind mode based on the selected rewind speed;
A method comprising:
前記複数の巻戻し速度が、2個以上の巻戻し速度を備える、請求項21に記載の方法。   The method of claim 21, wherein the plurality of rewind speeds comprises two or more rewind speeds. 1個以上のプロセッサにより実行させると、請求項1〜22の何れか1項に記載のステップを実行させる命令のシークエンスを備えるコンピュータ可読の記憶媒体。   A computer readable storage medium comprising a sequence of instructions that, when executed by one or more processors, causes the steps of any one of claims 1 to 22 to be performed. 1個以上のプロセッサを備え、請求項1〜22の何れか1項に記載のステップを実行するように構成されているデバイス。   23. A device comprising one or more processors and configured to perform the steps of any one of claims 1-22.
JP2013548535A 2011-01-06 2012-01-05 Gesture-based control method and apparatus Active JP6115728B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US12/986,054 US20120179967A1 (en) 2011-01-06 2011-01-06 Method and Apparatus for Gesture-Based Controls
US12/986,060 US9430128B2 (en) 2011-01-06 2011-01-06 Method and apparatus for controls based on concurrent gestures
US12/986,054 2011-01-06
US12/986,060 2011-01-06
PCT/US2012/020306 WO2012094479A1 (en) 2011-01-06 2012-01-05 Method and apparatus for gesture based controls

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016228326A Division JP6220953B2 (en) 2011-01-06 2016-11-24 Gesture-based control method and apparatus

Publications (2)

Publication Number Publication Date
JP2014506369A true JP2014506369A (en) 2014-03-13
JP6115728B2 JP6115728B2 (en) 2017-04-19

Family

ID=46457709

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013548535A Active JP6115728B2 (en) 2011-01-06 2012-01-05 Gesture-based control method and apparatus
JP2016228326A Active JP6220953B2 (en) 2011-01-06 2016-11-24 Gesture-based control method and apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2016228326A Active JP6220953B2 (en) 2011-01-06 2016-11-24 Gesture-based control method and apparatus

Country Status (5)

Country Link
EP (1) EP2661669A4 (en)
JP (2) JP6115728B2 (en)
CN (1) CN103329075B (en)
CA (1) CA2823388A1 (en)
WO (1) WO2012094479A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530446A (en) * 2014-09-25 2017-10-12 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Information retrieval
KR20210119838A (en) * 2020-03-25 2021-10-06 주식회사 트윙클소프트 Method for providing contents sharing service using intuitive user interface and user experience design
JP7425245B2 (en) 2019-04-09 2024-01-30 マクセル株式会社 Head-mounted information processing device and method for controlling the head-mounted information processing device

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186577A (en) * 2013-03-25 2014-10-02 Konica Minolta Inc Viewer device and image forming apparatus
TW201543268A (en) * 2014-01-07 2015-11-16 Thomson Licensing System and method for controlling playback of media using gestures
EP3158426B1 (en) * 2014-06-18 2019-09-11 Google LLC Methods, systems and media for controlling playback of video using a touchscreen
KR20160018268A (en) * 2014-08-08 2016-02-17 삼성전자주식회사 Apparatus and method for controlling content by using line interaction
CN107341259B (en) * 2014-11-25 2020-11-20 北京智谷睿拓技术服务有限公司 Searching method and device
CN105744322B (en) * 2014-12-10 2019-08-02 Tcl集团股份有限公司 A kind of control method and device of screen focus
CN104657059A (en) * 2015-03-16 2015-05-27 联想(北京)有限公司 Data processing method and electronic device
WO2017044326A2 (en) * 2015-09-09 2017-03-16 Cpg Technologies, Llc Device location and antitheft system
CN105389118B (en) * 2015-12-10 2018-12-11 广东欧珀移动通信有限公司 A kind of switching method and user terminal of audio file
US10397632B2 (en) 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
CN105867775A (en) * 2016-03-28 2016-08-17 乐视控股(北京)有限公司 Method for adjusting video playing progress and mobile terminal
DE202016105915U1 (en) * 2016-10-21 2016-11-16 Ma Lighting Technology Gmbh Lighting console with rotary control
US10699746B2 (en) 2017-05-02 2020-06-30 Microsoft Technology Licensing, Llc Control video playback speed based on user interaction
JP6483306B1 (en) * 2018-03-30 2019-03-13 ピーシーフェーズ株式会社 Video playback control system
CN109753148A (en) * 2018-11-15 2019-05-14 北京奇艺世纪科技有限公司 A kind of control method, device and the controlling terminal of VR equipment
CN112104915B (en) * 2020-09-14 2022-08-26 腾讯科技(深圳)有限公司 Video data processing method and device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325071A (en) * 2000-05-17 2001-11-22 Tokai Rika Co Ltd Touch operation input device
US20090156251A1 (en) * 2007-12-12 2009-06-18 Alan Cannistraro Remote control protocol for media systems controlled by portable devices
JP2010108011A (en) * 2008-10-28 2010-05-13 Sony Corp Information processing apparatus, information processing method, and program
JP2010182046A (en) * 2009-02-04 2010-08-19 Sony Corp Information processor, and method and program for processing information
JP2010532143A (en) * 2007-06-28 2010-09-30 パナソニック株式会社 Touchpad-compatible remote controller and user interaction method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
EP2000894B1 (en) * 2004-07-30 2016-10-19 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
EP1662358B1 (en) * 2004-11-24 2009-10-21 Research In Motion Limited System and Method for Selectively Activating a Communication Device
EP1672471A1 (en) * 2004-12-14 2006-06-21 Thomson Multimedia Broadband Belgium Content playback device with touch screen
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
DE202007014957U1 (en) * 2007-01-05 2007-12-27 Apple Inc., Cupertino Multimedia touch screen communication device responsive to gestures for controlling, manipulating and editing media files
KR20090077480A (en) * 2008-01-11 2009-07-15 삼성전자주식회사 Method for providing ui to display operation guide and multimedia apparatus thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325071A (en) * 2000-05-17 2001-11-22 Tokai Rika Co Ltd Touch operation input device
JP2010532143A (en) * 2007-06-28 2010-09-30 パナソニック株式会社 Touchpad-compatible remote controller and user interaction method
US20090156251A1 (en) * 2007-12-12 2009-06-18 Alan Cannistraro Remote control protocol for media systems controlled by portable devices
JP2010108011A (en) * 2008-10-28 2010-05-13 Sony Corp Information processing apparatus, information processing method, and program
JP2010182046A (en) * 2009-02-04 2010-08-19 Sony Corp Information processor, and method and program for processing information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015003450; 'アップルがアプリ『Remote』をアップデート、iPadとRetinaディスプレイに対応' トブiPhone , 20100929 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017530446A (en) * 2014-09-25 2017-10-12 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Information retrieval
JP7425245B2 (en) 2019-04-09 2024-01-30 マクセル株式会社 Head-mounted information processing device and method for controlling the head-mounted information processing device
KR20210119838A (en) * 2020-03-25 2021-10-06 주식회사 트윙클소프트 Method for providing contents sharing service using intuitive user interface and user experience design
KR102349629B1 (en) * 2020-03-25 2022-01-12 주식회사 트윙클소프트 Method for providing contents sharing service using intuitive user interface and user experience design

Also Published As

Publication number Publication date
JP6220953B2 (en) 2017-10-25
EP2661669A4 (en) 2017-07-05
CN103329075B (en) 2017-12-26
JP6115728B2 (en) 2017-04-19
WO2012094479A1 (en) 2012-07-12
EP2661669A1 (en) 2013-11-13
CN103329075A (en) 2013-09-25
JP2017054538A (en) 2017-03-16
CA2823388A1 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
JP6220953B2 (en) Gesture-based control method and apparatus
US9430128B2 (en) Method and apparatus for controls based on concurrent gestures
US20120179967A1 (en) Method and Apparatus for Gesture-Based Controls
US10921980B2 (en) Flick to send or display content
JP7261294B2 (en) Multimedia file playback control method and terminal device
EP2417517B1 (en) Directional touch remote
RU2533634C2 (en) Information processing device, information processing method and programme
US20120308204A1 (en) Method and apparatus for controlling a display of multimedia content using a timeline-based interface
EP3385824A1 (en) Mobile device and operation method control available for using touch and drag
US20160253087A1 (en) Apparatus and method for controlling content by using line interaction
WO2015052961A1 (en) Information processing device
JP5725767B2 (en) Information processing apparatus and control method thereof
JP6287320B2 (en) Image processing apparatus and image processing program
JP2018085150A (en) Electronic device and program
JP6481310B2 (en) Electronic device and electronic device control program
KR20100125784A (en) Touch input type electronic machine and method for controlling thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140624

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140922

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140930

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141023

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141030

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150528

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151113

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160824

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160923

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170307

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170307

R150 Certificate of patent or registration of utility model

Ref document number: 6115728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250