JP2018535461A - メディアを提供するためのタッチ・スクリーン・ユーザ・インタフェース - Google Patents

メディアを提供するためのタッチ・スクリーン・ユーザ・インタフェース Download PDF

Info

Publication number
JP2018535461A
JP2018535461A JP2018504975A JP2018504975A JP2018535461A JP 2018535461 A JP2018535461 A JP 2018535461A JP 2018504975 A JP2018504975 A JP 2018504975A JP 2018504975 A JP2018504975 A JP 2018504975A JP 2018535461 A JP2018535461 A JP 2018535461A
Authority
JP
Japan
Prior art keywords
video
touch screen
user interface
state
screen user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018504975A
Other languages
English (en)
Other versions
JP6530133B2 (ja
Inventor
マシュー・トーマス・ダービー
テホ・コ
ショーン・パトリック・ステーリー
ヨニ・アフェク
ニコラス・マイケル・クルージュ
カーウェル・リャオ
クリフフォード・カレー
ブライス・ギブソン・リード
チャド・アンソニー・セイジャー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2018535461A publication Critical patent/JP2018535461A/ja
Application granted granted Critical
Publication of JP6530133B2 publication Critical patent/JP6530133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本明細書の主題をとりわけ、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースの中間状態、フルスクリーン状態、およびミニプレイヤ状態を提供するステップを含む方法で実装することができる。前記中間状態は、ビデオの待ち行列からの第1のビデオおよび前記ビデオの前記待ち行列からの以前のビデオまたは次のビデオの部分を表す。前記フルスクリーン状態は、前記以前のビデオまたは前記次のビデオの前記部分を表示することなく、前記タッチ・スクリーン・ユーザ・インタフェースに適合するように前記第1のビデオを拡大する。前記ミニプレイヤ状態は、前記タッチ・スクリーン・ユーザ・インタフェース内のユーザ・アカウントに対するビデオのリストに適合するように前記第1のビデオを縮小させる。

Description

本願は、メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースに関する。
タッチ・スクリーンは、コンピューティング・デバイスの視覚的ディスプレイの上に重ねられる入力デバイスである。ユーザは、特殊なスタイラス/ペンまたは1つまたは複数の指で当該タッチ・スクリーンに接することで単一タッチまたはマルチ・タッチのジェスチャを用いて、入力を生成するか、または、当該コンピューティング・デバイスを制御することができる。一般に、当該ユーザは、当該タッチ・スクリーンを使用して、表示されているものに反応し、例えば、表示されているものの周囲をパンするかまたはそれにズームインすることで、それがどのように表示されるかを制御することができる。
1態様では、方法は、処理デバイスにより、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースの中間状態を提供するステップを含む。中間状態は、ビデオの待ち行列からの第1のビデオおよび当該ビデオの待ち行列からの以前のビデオまたは次のビデオの部分を提供する。中間状態の提示の間に第1の方向への第1のジェスチャ入力を受信したことは当該次のビデオを中間状態で提示させる。中間状態の提示の間に第1の方向と反対の第2の方向への第2のジェスチャ入力を受信したことは以前のビデオを中間状態で提示させる。当該方法はさらに中間状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのフルスクリーン状態を提供するステップを含む。第3のジェスチャ入力は第1の方向および第2の方向と異なる方向であるかまたは第3のジェスチャ入力は第1のジェスチャ入力および第2のジェスチャ入力と異なるタイプである。フルスクリーン状態は、以前のビデオまたは次のビデオの部分を表示することなく、タッチ・スクリーン・ユーザ・インタフェースに適合するように第1のビデオを拡大する。フルスクリーン状態の提示の間に第4のジェスチャ入力を受信したことは中間状態を再度提示させる。第4のジェスチャ入力は第3のジェスチャ入力と反対の特徴を有する。フルスクリーン状態の提示の間に第1のジェスチャ入力を受信したことは当該次のビデオをフルスクリーン状態で提示させる。フルスクリーン状態の提示の間に第2のジェスチャ入力を受信したことは以前のビデオをフルスクリーン状態で提示させる。当該方法はさらにフルスクリーン状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのミニプレイヤ状態を提供するステップを含む。ミニプレイヤ状態は、タッチ・スクリーン・ユーザ・インタフェース内のユーザ・アカウントに対するビデオのリストに適合するように第1のビデオを縮小させる。ミニプレイヤ状態の提示の間に第4のジェスチャ入力を受信したことはフルスクリーン状態を再度提示させる。
実装は、以下の特徴の全てまたは何れかを含むことができ、または、何れを含まなくてもよい。中間状態はさらに第1のビデオに対する提案されたビデオのリストを提示する。当該方法はさらに、第1のビデオに対する提案されたビデオのリストから第2のビデオのユーザ選択を受信するステップを含むことができる。当該方法はさらに、当該ユーザ選択を受信したことに応答して第2のビデオを当該待ち行列に追加するステップを含むことができる。当該方法は、当該ユーザ選択を受信したことに応答して、第1のビデオを中間状態における第2のビデオで置換するステップを含むことができる。当該方法はさらに、当該ユーザ選択を受信したことに応答して、以前のビデオの部分を中間状態における第1のビデオの部分で置換するステップを含むことができる。中間状態は第1のビデオに対するメタデータをさらに提示する。当該方法はさらに、中間状態がフルスクリーン状態に遷移する際に当該メタデータのサイズを変更することなく、当該メタデータをタッチ・スクリーン・ユーザ・インタフェースの下方に垂直にスライドするステップを含むことができる。当該方法は当該待ち行列内のビデオを自動的に再生するステップを含むことができる。当該方法は少なくとも1つの提案されたビデオを当該待ち行列に、当該待ち行列内の最後のビデオの後に自動的に追加するステップを含むことができる。当該方法は待ち行列コントロールのユーザ選択を受信するステップを含むことができる。当該方法はさらに、当該ユーザ選択を受信したことに応答して、中間状態における以前のビデオおよび次のビデオの部分を当該待ち行列内のビデオのリストで置換するステップを含むことができる。
1態様では、処理デバイスにより実行されたとき、当該処理デバイスに、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースの中間状態を当該処理デバイスにより提供させる命令を格納した非一時的コンピュータ可読媒体を提供する。中間状態は、ビデオの待ち行列からの第1のビデオおよび当該ビデオの待ち行列からの以前のビデオまたは次のビデオの部分を提供する。中間状態の提示の間に第1の方向への第1のジェスチャ入力を受信したことは当該次のビデオを中間状態で提示させる。中間状態の提示の間に第1の方向と反対の第2の方向への第2のジェスチャ入力を受信したことは以前のビデオを中間状態で提示させる。当該命令はさらに当該処理デバイスに、中間状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのフルスクリーン状態を提供させる。第3のジェスチャ入力は第1の方向および第2の方向と異なる方向であるかまたは第3のジェスチャ入力は第1のジェスチャ入力および第2のジェスチャ入力と異なるタイプである。フルスクリーン状態は、以前のビデオまたは次のビデオの部分を表示することなく、タッチ・スクリーン・ユーザ・インタフェースに適合するように第1のビデオを拡大する。フルスクリーン状態の提示の間に第4のジェスチャ入力を受信したことは中間状態を再度提示させる。第4のジェスチャ入力は第3のジェスチャ入力と反対の特徴を有する。フルスクリーン状態の提示の間に第1のジェスチャ入力を受信したことは当該次のビデオをフルスクリーン状態で提示させる。フルスクリーン状態の提示の間に第2のジェスチャ入力を受信したことは以前のビデオをフルスクリーン状態で提示させる。当該命令はさらに当該処理デバイスに、フルスクリーン状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのミニプレイヤ状態を提供させる。ミニプレイヤ状態は、タッチ・スクリーン・ユーザ・インタフェース内のユーザ・アカウントに対するビデオのリストに適合するように第1のビデオを縮小させる。ミニプレイヤ状態の提示の間に第4のジェスチャ入力を受信したことはフルスクリーン状態を再度提示させる。
実装は、以下の特徴の全てまたは何れかを含むことができ、または、何れを含まなくてもよい。中間状態はさらに第1のビデオに対する提案されたビデオのリストを提示する。当該命令はさらに、当該処理デバイスに第1のビデオに対する提案されたビデオのリストから第2のビデオのユーザ選択を受信させることができる。当該命令はさらに、当該処理デバイスに当該ユーザ選択を受信したことに応答して第2のビデオを当該待ち行列に追加させることができる。当該命令はさらに、当該処理デバイスに、当該ユーザ選択を受信したことに応答して、第1のビデオを中間状態における第2のビデオで置換させることができる。当該命令はさらに、当該処理デバイスに、当該ユーザ選択を受信したことに応答して、以前のビデオの部分を中間状態における第1のビデオの部分で置換させることができる。中間状態は第1のビデオに対するメタデータをさらに提示する。当該命令はさらに、当該処理デバイスに、中間状態がフルスクリーン状態に遷移する際に当該メタデータのサイズを変更することなく、当該メタデータをタッチ・スクリーン・ユーザ・インタフェースの下方に垂直にスライドさせることができる。当該命令はさらに、当該処理デバイスに当該待ち行列内のビデオを自動的に再生させることができる。当該命令はさらに、当該処理デバイスに、少なくとも1つの提案されたビデオを当該待ち行列に、当該待ち行列内の最後のビデオの後に自動的に追加させることができる。当該命令はさらに、当該処理デバイスに待ち行列コントロールのユーザ選択を受信させることができる。当該命令はさらに、当該処理デバイスに当該ユーザ選択を受信したことに応答して、中間状態における以前のビデオおよび次のビデオの部分を当該待ち行列内のビデオのリストで置換させることができる。
1態様では、システムはタッチ・スクリーン・ユーザ・インタフェースのための命令を格納するためのメモリを含む。当該システムはさらに、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースの中間状態を提供するための命令を実行するための処理デバイスを含む。中間状態は、ビデオの待ち行列からの第1のビデオおよび当該ビデオの待ち行列からの以前のビデオまたは次のビデオの部分を提供する。中間状態の提示の間に第1の方向への第1のジェスチャ入力を受信したことは当該次のビデオを中間状態で提示させる。中間状態の提示の間に第1の方向と反対の第2の方向への第2のジェスチャ入力を受信したことは以前のビデオを中間状態で提示させる。当該命令はさらに当該処理デバイスに、中間状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのフルスクリーン状態を提供させる。第3のジェスチャ入力は第1の方向および第2の方向と異なる方向であるかまたは第3のジェスチャ入力は第1のジェスチャ入力および第2のジェスチャ入力と異なるタイプである。フルスクリーン状態は、以前のビデオまたは次のビデオの部分を表示することなく、タッチ・スクリーン・ユーザ・インタフェースに適合するように第1のビデオを拡大する。フルスクリーン状態の提示の間に第4のジェスチャ入力を受信したことは中間状態を再度提示させる。第4のジェスチャ入力は第3のジェスチャ入力と反対の特徴を有する。フルスクリーン状態の提示の間に第1のジェスチャ入力を受信したことは当該次のビデオをフルスクリーン状態で提示させる。フルスクリーン状態の提示の間に第2のジェスチャ入力を受信したことは以前のビデオをフルスクリーン状態で提示させる。当該命令はさらに当該処理デバイスに、フルスクリーン状態の提示の間に第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・デバイスに提示するためのタッチ・スクリーン・ユーザ・インタフェースのミニプレイヤ状態を提供させる。ミニプレイヤ状態は、タッチ・スクリーン・ユーザ・インタフェース内のユーザ・アカウントに対するビデオのリストに適合するように第1のビデオを縮小させる。ミニプレイヤ状態の提示の間に第4のジェスチャ入力を受信したことはフルスクリーン状態を再度提示させる。
実装は、以下の特徴の全てまたは何れかを含むことができ、または、何れを含まなくてもよい。中間状態はさらに第1のビデオに対する提案されたビデオのリストを提示する。当該命令はさらに、当該処理デバイスに第1のビデオに対する提案されたビデオのリストから第2のビデオのユーザ選択を受信させることができる。当該命令はさらに、当該処理デバイスに当該ユーザ選択を受信したことに応答して第2のビデオを当該待ち行列に追加させることができる。当該命令はさらに、当該処理デバイスに、当該ユーザ選択を受信したことに応答して、第1のビデオを中間状態における第2のビデオで置換させることができる。当該命令はさらに、当該処理デバイスに、当該ユーザ選択を受信したことに応答して、以前のビデオの部分を中間状態における第1のビデオの部分で置換させることができる。中間状態は第1のビデオに対するメタデータをさらに提示する。当該命令はさらに、当該処理デバイスに、中間状態がフルスクリーン状態に遷移する際に当該メタデータのサイズを変更することなく、当該メタデータをタッチ・スクリーン・ユーザ・インタフェースの下方に垂直にスライドさせることができる。当該命令はさらに、当該処理デバイスに、少なくとも1つの提案されたビデオを当該待ち行列に、当該待ち行列内の最後のビデオの後に自動的に追加させることができる。当該命令はさらに、当該処理デバイスに待ち行列コントロールのユーザ選択を受信させることができる。当該命令はさらに、当該処理デバイスに、当該ユーザ選択を受信したことに応答して、中間状態における以前のビデオおよび次のビデオの部分を当該待ち行列内のビデオのリストで置換させることができる。
1つまたは複数の実装の詳細を添付図面および詳細な説明で以下で説明する。他の特徴および利点は当該説明および図面、および諸請求項から明らかになろう。
タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのシステムの例を示す略図である。 タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのコンテンツ共有プラットフォームを含むシステムの例を示すブロック図である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの例である。 タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのプロセスの例を示す流れ図である。 コンピュータシステムの例を示す略図である。
本明細書では、タッチ・スクリーン・ユーザ・インタフェースを用いてビデオ、画像、またはオーディオのようなメディアを提示するためのシステムおよび技術を説明する。ユーザは、代替的な視聴状態の間で当該インタフェースを切り替えるための上下の垂直スワイプ、左右の水平スワイプ、単一のタップおよびダブルタップ、つまみおよび拡大、短い押下および長い押下、または軽い押下および強い押下のような、第1のタイプのジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース内で行ってもよい。ユーザは、垂直スワイプではなく水平スワイプまたはつまみ、タップ、または押下ではなくスワイプのような、第1のタイプと異なる方向のまたは異なる特性を有する第2のタイプのジェスチャ入力を行って、メディアの待ち行列または集合内でナビゲートしてもよい。当該状態は、以前のメディアまたは次のメディアの部分とともに第1のメディアを提供する当該ユーザ・インタフェースに対する中間状態を含む。当該状態はまた、タッチ・スクリーン・ユーザ・インタフェース内で利用可能である当該空間に適合するように第1のメディアを拡張する、当該ユーザ・インタフェースのフルスクリーン状態を含む。さらに、当該状態は、追加のメディアを検索または閲覧するための空間を提供するように当該メディアをピクチャ・イン・ピクチャスタイル視聴状態に縮小する、当該ユーザ・インタフェースのミニプレイヤ状態を含む。
本明細書で説明するシステムおよび技術が以下の利点の1つまたは複数を提供してもよい。第1に、当該システムおよび技術は、当該待ち行列の部分をユーザが見れるようにすることで、メディアの待ち行列をより迅速にナビゲートするのを提供することができる。第2に、当該システムおよび技術は、ユーザがスワイプして集合内の次のおよび以前のビデオに進みレビューできるようにすることで、メディアの待ち行列をより迅速にナビゲートするのを提供することができる。第3に、当該システムおよび技術は、当該3つの状態を有さないシステムよりも、タッチ・スクリーンで利用可能な空間を効率的に利用することができる。これを、1組のメディアを探索し、メディアを検討するか、または当該メディアに対するメタデータを探索するための中間状態、拡大された視聴のためのフルスクリーン状態、および追加のコンテンツを発見するのに適したミニプレイヤ状態の間で切り替えるために必要なユーザ入力の数および/またはタイプを削減することで、実現してもよい。当該システムおよび技術はしたがって、メディアをより効率的に検索し抽出するタスクをユーザが管理できるようにするインタフェースを提供する。
図1Aは、タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのシステム100の例を示す略図である。システム100は、サーバ・システム104とネットワーク106上で通信するタッチ・スクリーン・デバイス102を含む。ネットワーク106が、インターネットを構成する当該コンピュータ・デバイスのうち1つまたは複数のような1つまたは複数のコンピュータ・デバイスを含んでもよい。
タッチ・スクリーン・デバイス102が、例えば、タブレット・コンピュータ・デバイスであってもよい。あるいは、タッチ・スクリーン・デバイス102が携帯電話、ファブレット、またはデスクトップタッチ・スクリーン・デバイスであってもよい。タッチ・スクリーン・デバイス102は、タッチベースの入力をそこから通じてユーザから受信するタッチ・スクリーン・ユーザ・インタフェース108aを表示するためのタッチ・スクリーンを含む。
サーバ・システム104は、タッチ・スクリーン・ユーザ・インタフェース108aをタッチ・スクリーン・デバイス102にネットワーク106上で提供する。幾つかの実装では、タッチ・スクリーン・デバイス102が、タッチ・スクリーン・ユーザ・インタフェース108aに対するデータをサーバ・システム104から受信するモバイルアプリまたはアプリケーションを有してもよい。あるいは、サーバ・システム104がタッチ・スクリーン・ユーザ・インタフェース108aをタッチ・スクリーン・デバイス102に、タッチ・スクリーン・デバイス102のインターネット・ブラウザ・アプリケーション内のウェブ・ページのようなウェブ・アプリケーションとして提供してもよい。
サーバ・システム104はまた、ビデオ108bのリストのようなメディアをタッチ・スクリーン・デバイス102に提供する。ここで使用するメディアの例はビデオを含むが、画像および/またはオーディオのような他のメディアがタッチ・スクリーン・ユーザ・インタフェース108aにより提供されてもよい。サーバ・システム104が、ビデオ108bのリストを、タッチ・スクリーン・ユーザ・インタフェース108aでまたは別々の通信においてタッチ・スクリーン・デバイス102に提供してもよい。例えば、サーバ・システム104が、1つまたは複数の検索語に関連するビデオに対する検索要求をタッチ・スクリーン・デバイス102から受信したことに応答して、ビデオ108bのリストをタッチ・スクリーン・デバイス102に提供してもよい。サーバ・システム104が、ビデオのインデックスおよび対応するビデオ情報へのアクセスを含むかまたはそれを有してもよい。サーバ・システム104が、当該インデックスの検索に基づいて当該検索要求に応答するビデオ108bのリストに含めるための1つまたは複数のビデオを識別してもよい。
あるいは、ビデオ108bのリストがサーバ・システム104により提供されるビデオの再生リストまたはフィードであってもよく、またはサーバ・システム104が自動的にビデオ108bのリスト内のビデオを提案してもよい。幾つかの実装では、サーバ・システム104は、例えばビデオに対する検索、ビデオを再生リストから取り出し、ビデオをチャネルに対するフィードから取り出し、またはビデオに対する提案を生成することで、ビデオのリストがタッチ・スクリーン・デバイス102に提供されることを保証する。例えば、タッチ・スクリーン・デバイス102のユーザが、ビデオに対する検索を入力し、ビデオの再生リストを選択し、またはビデオに対するチャネルを選択してもよい。サーバ・システム104はついで、ビデオ108bのリストをタッチ・スクリーン・デバイス102に、当該検索入力、当該再生リスト/チャネル選択に応答して、または自動的に、提案として提供する。
タッチ・スクリーン・デバイス102はビデオ108bのリストを受信し、ビデオ108bのリストをタッチ・スクリーン・ユーザ・インタフェース108a内でユーザに提供する。タッチ・スクリーン・デバイス102が、ビデオ108dを選択するタッチ・スクリーン・ユーザ・インタフェース108a内でユーザ入力を受信してもよい。応答して、タッチ・スクリーン・デバイス102はついで、当該ビデオがサーバ・システム104とは別のシステムによりホストされる場合に、ビデオ108dに対する要求108cをサーバ・システム104または別のシステムに送信する。サーバ・システム104、または当該別のビデオ・ホスティング・システムはついでビデオ108dをタッチ・スクリーン・デバイス102に提供する。
タッチ・スクリーン・デバイス102はついで、ビデオ108dを、タッチ・スクリーン・ユーザ・インタフェース108aの中間状態110aにおいてユーザに提供する。タッチ・スクリーン・ユーザ・インタフェース108aは自動的に、タッチ・スクリーン・ユーザ・インタフェース108a内で当該ユーザに提供されるべきビデオの待ち行列を生成する。中間状態110aは、ビデオ108dをビデオ・プレイヤ内に、例えば、タッチ・スクリーン・ユーザ・インタフェース108aの中心内に提供する。中間状態110aはまた、当該待ち行列内の以前のビデオの部分112aを、例えば、ビデオ108dおよび当該待ち行列内の次のビデオの部分112bの左に、例えば、ビデオ108dの右に提供する。
タッチ・スクリーン・ユーザ・インタフェース108aが、タッチ・スクリーン・ユーザ・インタフェース108a内でユーザから左へのスワイプ入力のような第1のジェスチャ入力を受信したことに応答して、当該待ち行列内の次のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついでタッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から、当該次のビデオを提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を、以前のビデオの部分112aの部分の左にスライドすることで、ビデオ108dから当該次のビデオへの遷移をアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース108aが、右へのスワイプ入力のような、第1のジェスチャ入力と反対方向または反対の特性を有する第2のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、当該待ち行列内の以前のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついで以前のビデオをタッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を次のビデオの部分112bの部分の右へスライドすることで、ビデオ108dから以前のビデオへの遷移をアニメーションしてもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース108aが、上方向の垂直スワイプ入力のような第4のジェスチャ入力を、タッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース108aが中間状態110aにある間に、中間状態110aを出てもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース108aがビデオ108bのリストの表示に戻ってもよい。第4のジェスチャ入力は第1のおよび第2のジェスチャ入力と異なる方向にあるかまたは異なるタイプである。例えば、第4のジェスチャ入力が垂直方向にあり、第1のおよび第2のジェスチャ入力が水平方向にあってもよく、逆も成り立つ。別の例では、第4のジェスチャ入力がつまみ、タップ、または押下タイプのジェスチャ入力であってもよく、第1のおよび第2のジェスチャ入力がスワイプであってもよい。
タッチ・スクリーン・ユーザ・インタフェース108aが、タッチ・スクリーン・ユーザ・インタフェース108a内のユーザからの下へのスワイプ入力のような第3のジェスチャ入力を受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース108aが中間状態110aにある間に、中間状態110aからフルスクリーン状態110bにスイッチしてもよい。第3のジェスチャ入力は第4のジェスチャ入力と反対方向にあるかまたは反対の特性を有する。例えば、第3のジェスチャ入力が、下へのスワイプ、つまみ、単一のタップ、短い押下、または柔らかい押下であってもよく、第4のジェスチャ入力が上へのスワイプ、拡大、ダブルタップ、長い押下、または強い押下であってもよく、または逆も成り立つ。フルスクリーン状態110bにスイッチする際に、タッチ・スクリーン・ユーザ・インタフェース108aはビデオ108dおよびビデオ・プレイヤをフルスクリーンサイズに拡大するか、または、タッチ・スクリーン・ユーザ・インタフェース108a内の利用可能な空間に適合させる。タッチ・スクリーン・ユーザ・インタフェース108aがビデオ108dの拡張をアニメーションしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはもはや以前のビデオの部分112aまたは次のビデオの部分112bを提供しない。
タッチ・スクリーン・ユーザ・インタフェース108aが、フルスクリーン状態110bにある間に第1のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、当該待ち行列内の次のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついでタッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から、当該次のビデオを提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を、以前のビデオの部分112aの部分の左にスライドすることで、ビデオ108dから当該次のビデオへの遷移をアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース108aが、フルスクリーン状態110bにある間に第2のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、当該待ち行列内の以前のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついで、タッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から以前のビデオを提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を次のビデオの部分112bの部分の右へスライドすることで、ビデオ108dから以前のビデオへの遷移をアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース108aが、第4のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答してタッチ・スクリーン・ユーザ・インタフェース108aがフルスクリーン状態110bにある間に、フルスクリーン状態110bから中間状態110aに戻ってもよい。中間状態110aに戻る際に、タッチ・スクリーン・ユーザ・インタフェース108aはビデオ108dおよびビデオ・プレイヤを縮めて、以前のビデオの部分112aおよび次のビデオの部分112bを再度提示可能とする。
タッチ・スクリーン・ユーザ・インタフェース108aが、第3のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース108aがフルスクリーン状態110bにある間に、フルスクリーン状態110bからミニプレイヤ状態110cにスイッチしてもよい。ミニプレイヤ状態110cにスイッチする際、タッチ・スクリーン・ユーザ・インタフェース108aは、ビデオ108dおよびビデオ・プレイヤを中間状態110aにおけるビデオ108dおよびビデオ・プレイヤのサイズよりも小さいサイズに縮めて、ビデオ108dおよびビデオ・プレイヤとともにビデオ108bのリストの一部を提示できるようにする。タッチ・スクリーン・ユーザ・インタフェース108aが、フルスクリーン状態110bからミニプレイヤ状態110cへのビデオ108dの収縮をアニメーションしてもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース108aが、ミニプレイヤ状態110cにある間に第1のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、当該待ち行列内の次のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついでタッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から、当該次のビデオを提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を、以前のビデオの部分112aの部分の左にスライドすることで、ビデオ108dから当該次のビデオへの遷移をアニメーションしてもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース108aが、ミニプレイヤ状態110cにある間に第2のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、当該待ち行列内の以前のビデオにナビゲートしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついで、タッチ・スクリーン・ユーザ・インタフェース108aの中心にあるビデオ・プレイヤ内の待ち行列から以前のビデオを提供する。タッチ・スクリーン・ユーザ・インタフェース108aが、ビデオ108d、またはビデオ108dからのサムネイル画像を次のビデオの部分112bの部分の右へスライドすることで、ビデオ108dから以前のビデオへの遷移をアニメーションしてもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース108aが、第3のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース108aがミニプレイヤ状態110cにある間に、ミニプレイヤ状態110cを出てもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース108aがビデオ108dをビデオ・プレイヤ内に表示することなくビデオ108bのリストの表示に戻ってもよい。
タッチ・スクリーン・ユーザ・インタフェース108aが、第4のジェスチャ入力をタッチ・スクリーン・ユーザ・インタフェース108a内のユーザから受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース108aがミニプレイヤ状態110cにある間に、ミニプレイヤ状態110cからフルスクリーン状態110bに戻ってもよい。フルスクリーン状態110bにスイッチする際に、タッチ・スクリーン・ユーザ・インタフェース108aは、ビデオ108dおよびビデオ・プレイヤをフルスクリーンサイズに拡大するか、または、タッチ・スクリーン・ユーザ・インタフェース108a内の利用可能な空間に適合させる。タッチ・スクリーン・ユーザ・インタフェース108aがビデオ108dの拡張をアニメーションしてもよい。タッチ・スクリーン・ユーザ・インタフェース108aはついでもはやビデオ108bのリストを提供しない。
図1Bは、タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのコンテンツ共有プラットフォーム126を含むシステム120の例を示すブロック図である。コンテンツ共有プラットフォーム126は、複数のクライアント・デバイス122a乃至z、データ・ストア124、およびサーバ128とネットワーク130上で通信する。1実装では、ネットワーク130が、パブリックネットワーク(例えば、インターネット)、プライベートネットワーク(例えば、ローカル・エリア・ネットワーク(LAN)または広域ネットワーク(WAN))、有線ネットワーク(例えば、Ethernetネットワーク)、無線ネットワーク(例えば、802.11ネットワークまたはWi−Fiネットワーク)、セルラネットワーク(例えば、LongTerm Evolution(LTE)ネットワーク)、ルータ、ハブ、スイッチ、サーバコンピュータ、および/またはその組合せを含んでもよい。1実装では、データ・ストア124が、メモリ(例えば、ランダム・アクセスメモリ)、キャッシュ、ドライブ(例えば、ハードドライブ)、フラッシュ・ドライブ、データベースシステム、またはデータを格納できる別のタイプのコンポーネントまたはデバイスであってもよい。データ・ストア124がまた、複数のコンピューティング・デバイス(例えば、複数のサーバコンピュータ)にまたがりうる複数の記憶コンポーネント(例えば、複数のドライブまたは複数のデータベース)を含んでもよい。
クライアント・デバイス122a乃至zはそれぞれ、パーソナルコンピュータ(PC)、ラップトップ、携帯電話、スマートフォン、タブレット・コンピュータ、ネットワーク接続されたテレビ、ノートブックコンピュータ等のようなコンピューティング・デバイスを含んでもよい。幾つかの実装では、クライアント・デバイス122a乃至zをまた、「ユーザデバイス」と称してもよい。クライアント・デバイス122a乃至zの各々はメディア・ビューワ132またはプレイヤを含む。1実装では、メディア・ビューワ132が、画像、ビデオ(例えば、有料ビデオコンテンツ)、ウェブ・ページ、ドキュメント等のようなコンテンツをユーザが視聴できるようにするアプリケーションであってもよい。例えば、メディア・ビューワ132が、ウェブサーバにより提供されるハイパー・テキスト・マークアップ言語(HTML)ページ、デジタルメディア・アイテムまたはコンテンツアイテム等)のようなコンテンツ(例えば、ウェブ・ページにアクセス、抽出、提供、および/またはナビゲートできるウェブ・ブラウザであってもよい。メディア・ビューワ132が当該コンテンツ(例えば、ウェブ・ページ、メディア・ビューワ)をユーザに描画、表示、および/または提供してもよい。メディア・ビューワ132がまた、ウェブ・ページ(例えば、オンラインマーチャントにより販売される製品に関する情報を提供しうるウェブ・ページ)に組み込まれた組込みのメディア・プレイヤ(例えば、Flash(登録商標)プレイヤまたはHTML5プレイヤ)を表示してもよい。別の例では、メディア・ビューワ132が、ユーザがデジタルメディア・アイテム(例えば、デジタルビデオ、デジタル画像、電子書籍等)を視聴できるようにするスタンドアロン・アプリケーションであってもよい。
メディア・ビューワ132がサーバ128および/またはコンテンツ共有プラットフォーム126によりクライアント・デバイス122a乃至zに提供されてもよい。例えば、メディア・ビューワ132が、コンテンツ共有プラットフォーム126により提供されるウェブ・ページに組み込まれた組込みのメディア・プレイヤであってもよい。別の例では、メディア・ビューワ132がサーバ128と通信するアプリケーションであってもよい。
一般に、コンテンツ共有プラットフォーム126により実施されるとして1実装で説明する機能をまた、適切な場合には他の実装においてクライアント・デバイス122a乃至zで実施することができる。さらに、特定のコンポーネントに属する機能を、一緒に動作する様々なまたは複数のコンポーネントにより実施されることができる。コンテンツ共有プラットフォーム126がまた、適切なアプリケーション・プログラミング・インタフェースを介して他のシステムまたはデバイスに提供されるサービスとしてアクセスしてもよく、したがって、ウェブサイトにおける利用には制限されない。
1実装では、コンテンツ共有プラットフォーム126が、(ラックマウントサーバ、ルータコンピュータ、サーバコンピュータ、パーソナルコンピュータ、メインフレームコンピュータ、ラップトップコンピュータ、タブレット・コンピュータ、ネットワーク接続されたテレビ、デスクトップコンピュータ等のような)1つまたは複数のコンピューティング・デバイス、データ・ストア(例えば、ハードディスク、メモリ、データベース)、ネットワーク、ソフトウェアコンポーネント、および/またはユーザにメディア・アイテム(コンテンツアイテムとも称される)へのアクセスを提供しかつ/または当該メディア・アイテムをユーザに提供ために使用されうるハードウェアコンポーネントであってもよい。例えば、コンテンツ共有プラットフォーム126によりユーザが、メディア・アイテムを消費し、アップロードし、検索し、それらの「いいね」、嫌い、および/またはコメントを消費できるようにしてもよい。コンテンツ共有プラットフォーム126がまた、ウェブサイト(例えば、ウェブ・ページ)を含んでもよく、または、ユーザに当該メディア・アイテムへのアクセスを提供するために使用されうるモバイル・アプリケーションのユーザ・インタフェース(UI)を提供してもよい。
本開示の実装では、「ユーザ」を単一の個人として表してもよい。しかし、本開示の他の実装は、1組のユーザおよび/または自動化されたソースにより制御されるエンティティである「ユーザ」を包含する。例えば、ソーシャル・ネットワーク内のコミュニティとして連合する1組の個別のユーザを「ユーザ」と考えてもよい。別の例では、自動化された消費者が、トピックチャネルのような、コンテンツ共有プラットフォーム126の自動化された摂取パイプラインであってもよい。
コンテンツ共有プラットフォーム126が複数のチャネル134a乃至zを含んでもよい。チャネルは、共通のトピック、テーマ、または材料を有する共通のソースまたはコンテンツから利用可能なコンテンツ(またはメディア・アイテム)を含むことができる。当該コンテンツはユーザにより選択されたデジタルコンテンツ、ユーザにより利用可能とされたデジタルコンテンツ、ユーザによりアップロードされたデジタルコンテンツ、コンテンツ・プロバイダにより選択されたデジタルコンテンツ、放送業者により選択されたデジタルコンテンツ等であることができる。チャネルを所有者に関連付けることができる。当該所有者は、アクションを当該チャネルに実施できるユーザである。異なる活動を、当該所有者がデジタルコンテンツを当該チャネルで利用可能とすること、当該所有者が別のチャネルに関連付けられたデジタルコンテンツを選択する(例えば、リンクする)こと、当該所有者が別のチャネルに関連付けられたデジタルコンテンツにコメントする等のような当該所有者のアクションに基づいて当該チャネルに関連付けることができる。当該チャネルに関連付けられた活動を当該チャネルに対する活動フィードに収集することができる。当該チャネルの当該所有者以外のユーザは、彼らが関心のある1つまたは複数のチャネルをサブスクライブすることができる。「サブスクライブ」の概念をまた、「リンク」、「フォロー」、「友達になる」等と称してもよい。
ユーザがチャネルをサブスクライブすると、ユーザに当該チャネルの活動フィードからの情報を提供することができる。ユーザが複数のチャネルをサブスクライブする場合、ユーザがサブスクライブする各チャネルに対する当該活動フィードを、同時配給された活動フィードに結合することができる。当該同時配給された活動フィードからの情報をユーザに提供することができる。チャネルがそれらの自身のフィードを有してもよい。例えば、コンテンツ共有プラットフォーム126上でチャネル134aのホームページにナビゲートするとき、チャネル134aにより生成されたフィードアイテムを当該チャネルのホームページに示してもよい。ユーザが同時配給されたフィードを有してもよい。当該同時配給されたフィードは、ユーザがサブスクライブするチャネルの全てからのコンテンツアイテムの少なくともサブセットから構成されるフィードである。同時配給されたフィードがまた、ユーザがサブスクライブするチャネルからのコンテンツアイテムを含んでもよい。例えば、コンテンツ共有プラットフォーム126または他のソーシャル・ネットワークが、推奨されたコンテンツアイテムをユーザの同時配給されたフィードに挿入してもよく、または、ユーザの関連する接続に関連付けられたコンテンツアイテムを当該同時配給されたフィードに挿入してもよい。
チャネル134a乃至zの各々は1つまたは複数のメディア・アイテム136a乃至zを含むことができる。メディア・アイテム136a乃至zの例は、デジタルビデオ、デジタル映画、デジタル写真、デジタル音楽、ウェブサイトコンテンツ、ソーシャル・メディア更新、電子書籍(ebooks)、電子マガジン、デジタル新聞、デジタルオーディオブック、電子ジャーナル、ウェブブログ、real simple syndication(RSS)フィード、電子漫画、ソフトウェアアプリケーション等を含むことができるがこれらに限られない。幾つかの実装では、メディア・アイテム136a乃至zはビデオ、ビデオコンテンツ、またはビデオコンテンツアイテムとも称される。
メディア・アイテム136a乃至zを、インターネットおよび/またはモバイルデバイスアプリケーションを介して消費してもよい。簡潔さおよび簡単さのため、オンラインビデオ(以降、ビデオとも称される)が本明細書にわたってメディア・アイテム136a乃至zの1例として使用される。本明細書で使用する際、「メディア」、メディア・アイテム」、「オンラインメディア・アイテム」、「デジタルメディア」、「デジタルメディア・アイテム」、「コンテンツ」、「コンテンツアイテム」、および「ビデオコンテンツアイテム」は、当該デジタルメディア・アイテムをエンティティに提供するように構成されたソフトウェア、ファームウェアまたはハードウェアを用いて実行またはロードできる電子ファイルを含むことができる。1実装では、コンテンツ共有プラットフォーム126がメディア・アイテム136a乃至zをデータ・ストア124に格納してもよい。
1実装では、サーバ128が1つまたは複数のコンピューティング・デバイス(例えば、ラックマウントサーバ、サーバコンピュータ等)であってもよい。サーバ128がコンテンツ共有プラットフォーム126に含まれてもよく、または、異なるシステムの一部であってもよい。サーバ128が、タッチ・スクリーン・ユーザ・インタフェース108aをホストするかまたはクライアント・デバイス122a乃至zに提供するサーバ104であってもよく、または、それを含んでもよい。クライアント・デバイス122a乃至zがタッチ・スクリーン・デバイスであってもよく、クライアント・デバイス122a乃至zのタッチ・スクリーン・ユーザ・インタフェース108aがメディア・ビューワ132を含んでもよい。タッチ・スクリーン・ユーザ・インタフェース108aに関するさらなる詳細を図2A乃至Fに関連して開示する。
本開示の実装が、コンテンツ共有プラットフォーム、および、当該コンテンツ共有プラットフォーム上のコンテンツアイテムのソーシャル・ネットワーク共有の促進の点で説明されるが、実装をまた、一般にユーザの間の接続を提供する任意のタイプのソーシャル・ネットワークに適用してもよい。本開示の実装は、チャネルサブスクリプションをユーザに提供するコンテンツ共有プラットフォームに制限されない。
ここで説明するシステムがユーザに関するパーソナル情報を収集するか、または、パーソナル情報を利用してもよい状況では、ユーザに、コンテンツ共有プラットフォーム126がユーザ情報(例えば、ユーザのソーシャル・ネットワーク、ソーシャルアクションまたは活動、職業、ユーザの嗜好、ユーザの購入取引履歴、またはユーザの現在の位置に関する情報)を収集するかどうかを制御する機会、または、ユーザにより関連しうるコンテンツを当該コンテンツサーバから受信するかどうかおよび/またはその方法を制御する機会を提供してもよい。さらに、特定のデータを、それが格納または使用される前に、個人的に識別可能な情報が除去されるように1つまたは複数の方法で処理してもよい。例えば、ユーザのアイデンティティを、個人的に識別可能な情報がユーザに対して決定できず、またはユーザの地理的位置を、ユーザの特定の 位置が決定できないように、位置 情報 が取得される場所で(例えば都市、ZIPコード、または州レベルに)汎用化できるように処置してもよい。したがって、ユーザは、どのように情報がユーザに関して収集されコンテンツ共有プラットフォーム126により使用されるかに対する制御を有してもよい。
図2A乃至Fはメディアを提示するための複数のタッチ・スクリーン・ユーザ・インタフェース200a乃至fの例である。図2Aは、検索領域202およびビデオのリスト領域204を提供するタッチ・スクリーン・ユーザ・インタフェース200aの例を示す。
タッチ・スクリーン・ユーザ・インタフェース200aが検索領域202内のフィールド内でユーザ入力を受信してもよい。ユーザ入力がビデオに対する1つまたは複数の検索語を含んでもよい。タッチ・スクリーン・ユーザ・インタフェース200aが、サーバ・システム104のような検索システムに当該検索語を送信して、ビデオに対する検索を実施してもよい。サーバ・システム104が、当該検索語にマッチするデータを有するビデオのインデックス内の1つまたは複数のビデオを識別してもよい。サーバ・システム104はついで、1つまたは複数のビデオ検索結果206a乃至kに対する情報をタッチ・スクリーン・ユーザ・インタフェース200aに提供する。あるいは、検索要求に応答してビデオ検索結果206a乃至kを提供するのではなく、サーバ・システム104が自動的に、例えば、ユーザの嗜好、ユーザにより以前に参照されたビデオ、またはユーザによりサブスクライブされるチャネルに基づいて、ビデオ検索結果206a乃至kを提供してもよい。
サーバ・システム104がまた、ビデオ検索結果206a乃至kに対応する複数のビデオ情報208a乃至kを送信してもよい。ビデオ情報208a乃至kが、例えば、ビデオ検索結果206a乃至kの各々のタイトル、ビデオ検索結果206a乃至kの各々が参照された回数、およびビデオ検索結果206a乃至kの各々をサーバ・システム104に投稿したチャネル名またはアカウント名を含んでもよい。
さらに、サーバ・システム104がまた、当該検索語または当該自動選択に応答して少なくとも1つのチャネル検索結果210を提供してもよい。例えば、当該チャネルまたはアカウントの名前が当該検索語にマッチする語を含んでもよく、当該チャネル/アカウントがユーザによりサブスクライブされていてもよく、ユーザが当該チャネル/アカウントからビデオを視聴していてもよく、または当該チャネル/アカウントがユーザの嗜好にマッチしてもよい。サーバ・システム104がまた、チャネル検索結果210に対応する幾つかのチャネル情報212をタッチ・スクリーン・ユーザ・インタフェース200aに送信してもよい。チャネル情報212が、例えば、当該チャネル/アカウントの名前、当該チャネル/アカウントに対する幾つかのサブスクライバ、または当該チャネル/アカウントによりサーバ・システム104に投稿された幾つかのビデオを含んでもよい。
タッチ・スクリーン・ユーザ・インタフェース200aはビデオ検索結果206a乃至kを提供する。ビデオ検索結果206a乃至kは、ビデオ領域204のリスト内にチャネル検索結果210を含んでもよい。特に、タッチ・スクリーン・ユーザ・インタフェース200aが、サムネイル画像を、ビデオ検索結果206a乃至kの各々およびビデオ検索結果206a乃至kの各々に対するビデオ情報208a乃至kから提供してもよい。
タッチ・スクリーン・ユーザ・インタフェース200aが、タッチ・スクリーン・ユーザ・インタフェース200a内のユーザによるビデオ検索結果206aのタップまたはタッチ入力のような入力214を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200aがついで、タッチ・スクリーン・ユーザ・インタフェース200bの中間状態においてビデオ検索結果206aを提供してもよい。
図2Bは、メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェース200bの中間状態の例を示す。タッチ・スクリーン・ユーザ・インタフェース200bはビデオ・プレイヤ領域216内に選択されたビデオを提供する。ビデオ・プレイヤ領域216が、現在の再生位置を制御するための再生、一時停止、音量、ミュート、およびスライダのような、ユーザが当該ビデオの再生を制御できるようにする1つまたは複数のコントロールを含んでもよい。タッチ・スクリーン・ユーザ・インタフェース200bが自動的に、タイムアウト期間の後に当該コントロールを隠し、タッチ・スクリーン・ユーザ・インタフェース200bがユーザ入力をビデオ・プレイヤ領域216内で受信したときに当該コントロールを再度表示してもよい。タッチ・スクリーン・ユーザ・インタフェース200bがビデオ・プレイヤ領域216内のビデオの再生を自動的に開始してもよい。あるいは、タッチ・スクリーン・ユーザ・インタフェース200bが、当該再生コントロールを選択するユーザ入力を受信したことに応答してビデオを再生してもよい。
タッチ・スクリーン・ユーザ・インタフェース200bはまた、ビデオの待ち行列内の以前のビデオの部分218および次のビデオの部分220を提供する。タッチ・スクリーン・ユーザ・インタフェース200bが、ビデオ検索結果206aの選択時に当該待ち行列を自動的に生成してもよい。生成の際、タッチ・スクリーン・ユーザ・インタフェース200bが、以前のビデオがこの利用セッションにおいてまだ存在していないかもしれないので、以前のビデオの一部を提供していないかもしれない。タッチ・スクリーン・ユーザ・インタフェース200bがビデオを当該待ち行列から提供し、ビデオが当該待ち行列に追加されるので、タッチ・スクリーン・ユーザ・インタフェース200bは以前のビデオの部分218を提供する。生成の際、タッチ・スクリーン・ユーザ・インタフェース200bが自動的に当該待ち行列に対する当該次のビデオを提案してもよい。
タッチ・スクリーン・ユーザ・インタフェース200bはまた、ビデオ情報領域222内のビデオ情報208aを提供する。ビデオ情報領域222がまた、ビデオの評価(例えば、当該ビデオに対する幾つかのいいねおよび/または嫌い)のような追加のビデオ情報および(例えば、当該ビデオをポストしたチャネルをサブスクライブする、当該ビデオを共有する、または当該ビデオの評価または好き/嫌いを入力するために)当該ビデオと対話するためのコントロールを提供してもよい。タッチ・スクリーン・ユーザ・インタフェース200bはまた、以前のビデオの部分218および次のビデオの部分220に対応するビデオ情報領域の複数の部分224a乃至bを提供する。
タッチ・スクリーン・ユーザ・インタフェース200bはまた、現在のビデオに対するビデオ提案領域226を提供する。ビデオ提案領域226は複数のビデオ提案228a乃至cおよびビデオ提案228a乃至cに対応する複数のビデオ情報230a乃至cを含む。タッチ・スクリーン・ユーザ・インタフェース200bはまた、ビデオ提案領域の複数の部分232a乃至b、ビデオ提案の複数の部分234a乃至b、および以前のビデオの部分218および次のビデオの部分220に対するビデオ情報236a乃至bの複数の部分を、それぞれを提供する。タッチ・スクリーン・ユーザ・インタフェース200bがビデオ提案228a乃至cおよびビデオ提案の部分232a乃至bをサーバ・システム104から受信してもよい。サーバ・システム104が、ビデオ提案228a乃至cのビデオ・プレイヤ領域216内の現在のビデオとの関連性に基づいて、ビデオ提案228a乃至cを選択してもよい。サーバ・システム104が、ビデオ提案の部分232a乃至bのそれぞれ以前のビデオおよび次のビデオとの関連性に基づいて、ビデオ提案の部分232a乃至bを選択してもよい。
タッチ・スクリーン・ユーザ・インタフェース200bが、ビデオ提案228a乃至cのうち1つのタップまたはタッチのようなユーザ入力238を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200bがビデオ提案228aを既存の待ち行列に追加する。タッチ・スクリーン・ユーザ・インタフェース200bが以前のビデオの部分218をビデオ・プレイヤ領域216からの既存のビデオの一部で置き換えてもよく、タッチ・スクリーン・ユーザ・インタフェース200bがビデオ・プレイヤ領域216内の既存のビデオをビデオ提案228aで置き換えてもよい。タッチ・スクリーン・ユーザ・インタフェース200bが、以前のビデオの部分218をタッチ・スクリーン・ユーザ・インタフェース200bから左に移動する間に、既存のビデオ、またはサムネイル画像を既存のビデオから以前のビデオの部分218の部分に移動させることで、以前のビデオの部分218のビデオ・プレイヤ領域216内の既存のビデオとの置換えをアニメーションしてもよい。タッチ・スクリーン・ユーザ・インタフェース200bが、例えばビデオ・プレイヤ領域216および次のビデオの部分220の間のギャップを拡大し、ビデオ・プレイヤ領域216に適合させるためにビデオ提案228aを拡大する間にビデオ提案228aを当該拡張された空間に移動することで、ビデオ提案228aの待ち行列への挿入をアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース200bが、ビデオ・プレイヤ領域216、ビデオ情報領域222、またはビデオ提案領域226のうち1つまたは複数内で中間状態の間に、左または右にドラッグまたはスワイプするタッチのような、第1のまたは第2のジェスチャ入力を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200bが、ビデオ・プレイヤ領域216において、現在のビデオを以前のビデオまたは次のビデオで、それぞれ置き換えてもよい。タッチ・スクリーン・ユーザ・インタフェース200bが、以前のビデオの部分218を左へ視界の外にスライドし、現在のビデオをビデオ・プレイヤ領域216から以前のビデオの部分218の部分にスライドし、当該次のビデオを次のビデオの部分220の部分からビデオ・プレイヤ領域216にスライドすることで、現在のビデオの当該次のビデオによる置換えをアニメーションしてもよい。タッチ・スクリーン・ユーザ・インタフェース200bが、次のビデオの部分220を右へと視界の外にスライドし、現在のビデオをビデオ・プレイヤ領域216から次のビデオの部分220の部分にスライドし、以前のビデオを以前のビデオの部分218の部分からビデオ・プレイヤ領域216にスライドすることで、現在のビデオの以前のビデオによる置換えをアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース200bが、タッチおよびドラッグまたは上方へのスワイプのようなユーザ入力240を、中間状態の間にビデオ提案領域226において受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200bがビデオ提案領域226を拡大してもよい。
図2Cは、ビデオ提案領域226を拡張した後のタッチ・スクリーン・ユーザ・インタフェース200cの例を示す。タッチ・スクリーン・ユーザ・インタフェース200cはこの時点で、ビデオ提案228a乃至cならびに複数の追加のビデオ提案228d乃至iおよび複数の追加のビデオ情報230d乃至fをビデオ提案領域226において含む。タッチ・スクリーン・ユーザ・インタフェース200cが追加のビデオ提案228d乃至iの追加をアニメーションしてもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース200bが上方へドラッグまたはスワイプするユーザ入力240を受信すると、図2Bのタッチ・スクリーン・ユーザ・インタフェース200bが図2Cのタッチ・スクリーン・ユーザ・インタフェース200cに遷移する。ビデオ情報領域222は、ユーザがユーザ入力240を上方にドラッグまたはスワイプし、ビデオ提案領域226が上方に拡大すると、徐々に垂直に縮んでもよい。ビデオ・プレイヤ領域216はまた、ユーザがユーザ入力240を上方にドラッグまたはスワイプしビデオ提案領域226が上方に拡大すると、縮んでもよい。
タッチ・スクリーン・ユーザ・インタフェース200cは、以前のビデオの部分218および次のビデオの部分220ではなくタッチ・スクリーン・ユーザ・インタフェース200c内に当該待ち行列を表示する第2のモードにタッチ・スクリーン・ユーザ・インタフェース200cの中間状態をスイッチする待ち行列コントロール242を含む。タッチ・スクリーン・ユーザ・インタフェース200cが、待ち行列コントロール242上のタップまたはタッチのようなユーザ入力244を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200cが、当該待ち行列を表示する中間状態の第2のモードにスイッチしてもよい。
図2Dは、第2のモードでのタッチ・スクリーン・ユーザ・インタフェース200dの中間状態の例を示す。タッチ・スクリーン・ユーザ・インタフェース200dはもはや以前のビデオの部分218または次のビデオの部分220を提供しない。タッチ・スクリーン・ユーザ・インタフェース200dはこの時点で待ち行列領域246を提供する。タッチ・スクリーン・ユーザ・インタフェース200dが中間状態の第1のモードおよび第2のモードの間の遷移をアニメーションしてもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース200dが、以前のビデオの部分218が左へ視界の外にスライドする際に、ビデオ・プレイヤ領域216および次のビデオの部分220を左に徐々にスライドしてもよい。これが発生すると、タッチ・スクリーン・ユーザ・インタフェース200dが、右から待ち行列領域246をスライドさせて、次のビデオの部分220を徐々に覆ってもよい。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200dは、ビデオ・プレイヤ領域216、ビデオ情報領域222、ビデオ提案領域226、ビデオ提案228a乃至c、またはビデオ情報230a乃至cのうち1つまたは複数の既存のサイズおよび/または垂直位置を維持する。
待ち行列領域246は、当該待ち行列内の幾つかのビデオまたは当該待ち行列内のビデオに対する再生時間の総期間のような当該待ち行列に関する情報を提供する待ち行列情報領域248を含む。さらに、待ち行列領域246は、以前のビデオ、現在のビデオ、および次のビデオのような当該待ち行列内の複数のビデオ250a乃至cのリストを提供する。当該リストが、ビデオ250a乃至cからのサムネイル画像またはフレームを用いてビデオ250a乃至cを提供してもよい。当該リストが、例えば、ビデオ250a乃至cのその他のもの以外の太線または色を用いて、現在のビデオをハイライトしてもよい。
待ち行列領域246はまた、1つまたは複数の自動的に提案されたビデオ252a乃至bのリストを提供する。タッチ・スクリーン・ユーザ・インタフェース200dが自動的に提案されたビデオ252a乃至bのリストをサーバ・システム104から受信してもよい。サーバ・システム104が、例えば、当該ユーザにより以前に参照されたビデオ、ユーザの嗜好、または当該ユーザによりサブスクライブされるチャネル/アカウントに基づいて、自動的に提案されたビデオ252a乃至bのリストを選択してもよい。
待ち行列領域246はさらに自動再生コントロール254を含む。タッチ・スクリーン・ユーザ・インタフェース200dが、当該待ち行列内のビデオ250a乃至cおよび自動的に提案されたビデオ252を、当該自動再生コントロールが有効とされたときに待ち行列領域246内で示された順序で自動的に再生してもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース200dが、自動再生コントロール254のオンおよびオフ状態をトグルするためのユーザ入力を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200dが、自動再生コントロール254のオン状態または有効状態にある間に現在のビデオが再生されていると、待ち行列領域246内の後続のビデオを自動的に(ユーザ入力なしに)再生してもよい。タッチ・スクリーン・ユーザ・インタフェース200dが、自動再生コントロール254が有効とされる間に待ち行列領域246内の後続のビデオがあることを保証するために、提案されたビデオをサーバ・システム104から連続的に受信してもよい。
あるいは、タッチ・スクリーン・ユーザ・インタフェース200dが、ビデオ250a乃至cまたは自動的に提案されたビデオ252a乃至bのうち1つを選択するユーザ入力を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200dは、ビデオ250a乃至cまたは自動的に提案されたビデオ252a乃至bから選択されたビデオでビデオ・プレイヤ領域216内の現在のビデオを置き換える。
タッチ・スクリーン・ユーザ・インタフェース200dが、左または右へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216、ビデオ情報領域222、またはビデオ提案領域226のうち1つまたは複数内のユーザ入力を中間状態の第2のモードで受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200dが、ビデオ・プレイヤ領域216内の現在のビデオをそれぞれ当該待ち行列からの以前のビデオまたは次のビデオで置き換えてもよい。あまりに多くのビデオが待ち行列領域246内に同時に表示される場合のように、当該待ち行列内のビデオ250a乃至c領域246を下方に自動的にスクロールすることで、タッチ・スクリーン・ユーザ・インタフェース200dが現在のビデオの次のビデオによる置換えをアニメーションしてもよい。あまりに多くのビデオを待ち行列領域246内で同時に表示すべき場合のように、当該待ち行列内のビデオ250a乃至c領域246を自動的に情報にスクロールすることで、タッチ・スクリーン・ユーザ・インタフェース200dが現在のビデオの以前のビデオによる置換えをアニメーションしてもよい。
幾つかの実装では、中間状態の間に、タッチ・スクリーン・ユーザ・インタフェース200dが、上方へのドラッグまたはスワイプのようなビデオ・プレイヤ領域216内の第4のジェスチャ入力256を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200dが中間状態を出てもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース200dが、図2Aに示すようにビデオ領域204のリストの提供に戻ってもよい。
あるいは、中間状態の間に、タッチ・スクリーン・ユーザ・インタフェース200dが、下方へのドラッグまたはスワイプのようなビデオ・プレイヤ領域216内の第3のジェスチャ入力258を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200dがフルスクリーン状態にスイッチしてもよい。例えば、タッチ・スクリーン・ユーザ・インタフェース200dが、タッチ・スクリーン・ユーザ・インタフェース200d内の利用可能な空間に適合するようにビデオ・プレイヤ領域216を拡大してもよい。タッチ・スクリーン・ユーザ・インタフェース200dは、中間状態の第2のモードにある場合に、待ち行列領域246をタッチ・スクリーン・ユーザ・インタフェース200dから移動する。中間状態の第1のモードにある場合に、タッチ・スクリーン・ユーザ・インタフェース200bは以前のビデオの部分218および次のビデオの部分220をタッチ・スクリーン・ユーザ・インタフェース200bから移動する。
タッチ・スクリーン・ユーザ・インタフェース200dがまた、次の状態コントロール260を提供してもよい。次の状態コントロール260が、「次の状態」のようなテキスト、またはフルスクリーンまたは拡大シンボルのような当該次の状態を表すシンボルを含んでもよい。タッチ・スクリーン・ユーザ・インタフェース200dが、最初にビデオ・プレイヤ領域216を中間状態で表示したときまたは入力をビデオ・プレイヤ領域216内で行った後に、一時的に次の状態コントロール260を表示してもよい。次の状態コントロール260のユーザ選択を受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース200dがフルスクリーン状態に遷移してもよい。
図2Eはメディアを提示するためのタッチ・スクリーン・ユーザ・インタフェース200eのフルスクリーン状態の例を示す。フルスクリーン状態では、タッチ・スクリーン・ユーザ・インタフェース200eは、垂直高および/または水平幅の実質的に全てのような、タッチ・スクリーン・ユーザ・インタフェース200e内で利用可能な空間に適合するようにビデオ・プレイヤ領域216を拡張している。例えば、タッチ・スクリーン・ユーザ・インタフェース200eが、待ち行列コントロール242を含む通知バーまたはメニューに対する相対的に少量の空間を依然として予約してもよい。
タッチ・スクリーン・ユーザ・インタフェース200eがまた、ビデオ情報領域222を提供してもよい。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200eは中間状態およびフルスクリーン状態の間で遷移するときにビデオ情報領域222のサイズおよび/または水平位置を維持するが、ビデオ・プレイヤ領域216を拡大しつつ、ビデオ情報領域222をタッチ・スクリーン・ユーザ・インタフェース200eの下方の縁にスライドする。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200eは一時的に、フルスクリーン状態への遷移が発生した後または入力がビデオ・プレイヤ領域216で行われた後に、ビデオ情報領域222を提供する。例えば、タッチ・スクリーン・ユーザ・インタフェース200eが、特定の時間量が経過した後に、ビデオ情報領域222を徐々にフェードアウトさせてもよい。
タッチ・スクリーン・ユーザ・インタフェース200eが、フルスクリーン状態にある間に、左または右へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216またはビデオ情報領域222のうち1つまたは複数内の第1のまたは第2のジェスチャ入力を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200eが、現在のビデオをそれぞれビデオ・プレイヤ領域216内の以前のビデオまたは次のビデオで置き換えてもよい。タッチ・スクリーン・ユーザ・インタフェース200eが、当該次のビデオをビデオ・プレイヤ領域216に右からスライドする間に、現在のビデオをビデオ・プレイヤ領域216から左にスライドすることで、現在のビデオの当該次のビデオによる置換えをアニメーションしてもよい。タッチ・スクリーン・ユーザ・インタフェース200eが、以前のビデオをビデオ・プレイヤ領域216に左からスライドする間に現在のビデオをビデオ・プレイヤ領域216から右にスライドすることで、現在のビデオの以前のビデオによる置換えをアニメーションしてもよい。
タッチ・スクリーン・ユーザ・インタフェース200eが、上方へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216内の第4のジェスチャ入力262を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200eが中間状態へ遷移してもよい。
タッチ・スクリーン・ユーザ・インタフェース200eがまた、過去状態コントロール266を提供してもよい。過去状態コントロール266が、「過去状態」のような当該コントロールの目的を示すテキスト、またはウィンドウスクリーンまたは削減シンボルのような当該過去状態を表すシンボルを含んでもよい。タッチ・スクリーン・ユーザ・インタフェース200eが、最初にビデオ・プレイヤ領域216をフルスクリーン状態で表示するとき、または、入力をビデオ・プレイヤ領域216内で行った後、過去状態コントロール266を一時的に提供してもよい。過去状態コントロール266のユーザ選択を受信したことに応答して、タッチ・スクリーン・ユーザ・インタフェース200dが中間状態に遷移してもよい。
タッチ・スクリーン・ユーザ・インタフェース200eがまた、下方へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216内の第3のジェスチャ入力264を受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200eがミニプレイヤ状態に遷移してもよい。
図2Fはメディアを提示するためのタッチ・スクリーン・ユーザ・インタフェース200fのミニプレイヤ状態の例を示す。ミニプレイヤ状態では、タッチ・スクリーン・ユーザ・インタフェース200fはビデオ・プレイヤ領域216のサイズを、例えば、タッチ・スクリーン・ユーザ・インタフェース200fの下方の縁で小領域に削減している。ミニプレイヤ状態におけるビデオ・プレイヤ領域216のサイズの削減により、ビデオ領域204のリストおよび/または検索領域202を、ビデオ・プレイヤ領域216に沿ってタッチ・スクリーン・ユーザ・インタフェース200f内で可視とすることができる。
タッチ・スクリーン・ユーザ・インタフェース200fがまた、ビデオ情報領域222をミニプレイヤ状態で提供してもよい。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200fは、フルスクリーン状態およびミニプレイヤ状態の間のビデオ情報領域のサイズ、垂直位置、および/または水平位置を維持する。あるいは、タッチ・スクリーン・ユーザ・インタフェース200fがまた、ビデオ情報領域222および/またはビデオ情報領域222の部分のサイズを削減してもよい。
タッチ・スクリーン・ユーザ・インタフェース200fがまた、ビデオコントロール領域268を提供してもよい。幾つかの実装では、ビデオ・プレイヤ領域216は、ユーザがもはや個別の再生コントロールをビデオ・プレイヤ領域216内で信頼度高く選択できないように、そのサイズを削減される。したがって、ビデオコントロール領域268は、ユーザがタッチ入力を用いてビデオ・プレイヤ領域216内のビデオの再生をコントロールできるようにするのに十分大きな入力コントロールを含む。例えば、当該コントロールが、再生、一時停止、次のビデオ、以前のビデオ、またはビデオ・プレイヤ領域216、ビデオ情報領域222、およびビデオコントロール領域268がもはや表示されないように、ミニプレイヤ状態を出るためのコントロールを含んでもよい。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200fが、ビデオ・プレイヤ領域216を表示しなくてもよく、または、ビデオ・プレイヤ領域216を、現在再生されているビデオから小さなサムネイル画像で置き換えてもよい。幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200fが、ビデオ・プレイヤ領域216が可視でなくても、または、ビデオ・プレイヤ領域216が現在のビデオからのサムネイル画像で置きかえられているかもしれなくても、オーディオを現在のビデオから出力し続けてもよい。
タッチ・スクリーン・ユーザ・インタフェース200fが、上方へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216、ビデオ情報領域222、またはビデオコントロール領域268のうち1つまたは複数内の第4のジェスチャ入力270をミニプレイヤ状態で受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200fがミニプレイヤ状態からフルスクリーン状態に遷移してもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200fが、下方へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216、ビデオ情報領域222、またはビデオコントロール領域268のうち1つまたは複数内の第3のジェスチャ入力をミニプレイヤ状態で受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200fが、ビデオ・プレイヤ領域216、ビデオ情報領域222、およびビデオコントロール領域268がもはや表示されないように、ミニプレイヤ状態を出てもよい。
幾つかの実装では、タッチ・スクリーン・ユーザ・インタフェース200fが、左または右へドラッグまたはスワイプするタッチのような、ビデオ・プレイヤ領域216、ビデオ情報領域222、またはビデオコントロール領域268のうち1つまたは複数内の第1のまたは第2の入力を、ミニプレイヤ状態にある間に受信してもよい。応答して、タッチ・スクリーン・ユーザ・インタフェース200fが現在のビデオを、それぞれビデオ・プレイヤ領域216内の以前のビデオまたは次のビデオで置き換えてもよい。
図3は、同一の開示の幾つかの態様に従う、タッチ・スクリーン・ユーザ・インタフェースを用いてメディアを提示するためのプロセスの例300を示す流れ図である。プロセス300を、例えば、システム100およびタッチ・スクリーン・ユーザ・インタフェース200a乃至fのようなシステムにより実施してもよい。説明の簡単さのため、以下の説明では、システム100およびタッチ・スクリーン・ユーザ・インタフェース200a乃至fを、プロセス300を説明するための1例として使用する。しかし、別のシステム、またはシステムの組合せがプロセス300を実施するために使用されてもよい。
プロセス300は、ボックス302で、メディアを提示するためのタッチ・スクリーン・ユーザ・インタフェースの初期状態を提示するステップで開始する。例えば、タッチ・スクリーン・ユーザ・インタフェース200bの中間状態が、以前のビデオの部分218(もしあれば)、ビデオ・プレイヤ領域216、および次のビデオの部分220を提供してもよい。
ボックス304で、第3のタイプのジェスチャ入力が受信された場合、プロセス300は、ステップ306で、タッチ・スクリーン・ユーザ・インタフェースの次の状態を提供するステップを含む。例えば、中間状態の第1のモードのタッチ・スクリーン・ユーザ・インタフェース200bまたは中間状態の第2のモードのタッチ・スクリーン・ユーザ・インタフェース200dは、下方へのスワイプを受信し、第2のモードのタッチ・スクリーン・ユーザ・インタフェース200eに遷移してもよい。別の例では、フルスクリーン状態のタッチ・スクリーン・ユーザ・インタフェース200eは、下方へのスワイプを受信し、ミニプレイヤ状態のタッチ・スクリーン・ユーザ・インタフェース200fに遷移してもよい。
ボックス308で、第4のタイプのジェスチャ入力が受信された場合、プロセス300は、ボックス310で、タッチ・スクリーン・ユーザ・インタフェースの過去状態を提供するステップを含む。例えば、フルスクリーン状態のタッチ・スクリーン・ユーザ・インタフェース200dは、上方へのスワイプを受信し、当該待ち行列がそれぞれ無効または有効であるかに応じて、中間状態の第1のモードのタッチ・スクリーン・ユーザ・インタフェース200bまたは中間状態の第2のモードのタッチ・スクリーン・ユーザ・インタフェース200dに遷移してもよい。別の例では、ミニプレイヤ状態のタッチ・スクリーン・ユーザ・インタフェース200fは上方へのスワイプを受信し、フルスクリーン状態タッチ・スクリーン・ユーザ・インタフェース200eに遷移してもよい。
ボックス312で、第1のタイプのジェスチャ入力が受信された場合、プロセス300は、ボックス314で、次のビデオを待ち行列から提示するステップを含む。例えば、中間状態の第1のモードのタッチ・スクリーン・ユーザ・インタフェース200b、中間状態の第2のモードのタッチ・スクリーン・ユーザ・インタフェース200d、フルスクリーン状態のタッチ・スクリーン・ユーザ・インタフェース200e、および/またはミニプレイヤ状態のタッチ・スクリーン・ユーザ・インタフェース200fが左へのスワイプを受信し、ビデオ・プレイヤ領域216内の現在のビデオを当該待ち行列からの次のビデオで置き換えてもよい。
ボックス316で、第2のタイプのジェスチャ入力が受信された場合、プロセス300は、ボックス318で、以前のビデオを待ち行列から提示するステップを含む。例えば、中間状態の第1のモードでのタッチ・スクリーン・ユーザ・インタフェース200b、中間状態の第2のモードでのタッチ・スクリーン・ユーザ・インタフェース200d、フルスクリーン状態でのタッチ・スクリーン・ユーザ・インタフェース200e、および/またはミニプレイヤ状態でのタッチ・スクリーン・ユーザ・インタフェース200fが右へのスワイプを受信し、ビデオ・プレイヤ領域216内の現在のビデオを当該待ち行列からの以前のビデオで置き換えてもよい。
説明の簡単さのため、本開示のプロセスが一連の動作として図示および説明されている。しかし、本開示に従う動作を、様々な順序でおよび/または並列に、かつ、提示してない他の動作および本明細書で説明した動作とともに行うことができる。さらに、全ての図示された動作が、開示した主題に従って当該プロセスを実装するのに必要でなくてもよい。さらに、当業者は、当該プロセスをあるいは状態図またはイベントを介して一連の相互関連する状態として表現しうることを理解し認識する。さらに、本明細書で開示したプロセスを、かかるプロセスをコンピューティング・デバイスに搬送し転送するのを促進するために製品に格納できることは理解されるべきである。「製品」という用語は、本明細書で使用する際、コンピュータ可読デバイスまたは記憶媒体からアクセス可能なコンピュータプログラムを包含することが意図されている。
図4は、コンピュータシステム400の形のマシンの例を示す略図である。コンピュータシステム400は、当該方法本明細書で開示した方法のうち1つまたは複数を当該マシンに実施させる1つまたは複数の組の命令426を実行する。当該マシンが、クライアント−サーバネットワーク環境内のサーバまたはクライアントマシンの容量で、またはピアツーピア(または分散)ネットワーク環境におけるピアマシンとして動作してもよい。当該マシンが、パーソナルコンピュータ(PC)、タブレットPC、セット・トップ・ボックス(STB)、携帯情報端末(PDA)、携帯電話、ウェブ機器、サーバ、ネットワークルータ、スイッチまたはブリッジ、または当該マシンにより行われるべき動作を指定する1組の命令(逐次的またはその他)を実行できる任意のマシンであってもよい。さらに、単一のマシンのみが図示されているが、「マシン」という用語は、当該本明細書で開示した方法のうち1つまたは複数を実施するための1組の命令426を個別にまたは一緒に実行するマシンの任意の集合を含むと捉えられるものとする。
コンピュータシステム400は、プロセッサ402、メイン・メモリ404(例えば、同期DRAM(SDRAM)またはランバスDRAM(RDRAM)等のような読取専用メモリ(ROM)、フラッシュ・メモリ、動的ランダム・アクセスメモリ(DRAM))、静的メモリ406(例えば、フラッシュ・メモリ、静的ランダム・アクセスメモリ(SRAM)等)、およびデータ記憶デバイス416を備え、これらはバス408を介して互いと通信する。
プロセッサ402は、マイクロプロセッサ、中央演算装置等のような1つまたは複数の汎用目的処理デバイスを表す。より具体的には、プロセッサ402が、複雑命令セット・コンピューティング(CISC)マイクロプロセッサ、縮小命令セット・コンピューティング(RISC)マイクロプロセッサ、超長命令語(VLIW)マイクロプロセッサ、または他の命令セットを実装するプロセッサまたは命令セットの組合せを実装するプロセッサであってもよい。プロセッサ402がまた、特殊用途向け集積回路(ASIC)、フィールド・プログラム可能アレイ(FPGA)、デジタル信号プロセッサ(DSP)、ネットワークプロセッサ等のような1つまたは複数の特殊目的処理デバイスであってもよい。プロセッサ402は、本明細書で議論した動作およびステップを実施するためのシステム100およびタッチ・スクリーン・ユーザ・インタフェース200a−fの命令を実行するように構成される。
コンピュータシステム400がさらに、ローカル・エリア・ネットワーク(LAN)、イントラネット、エクストラネット、またはインターネットのようなネットワーク418を介して他のマシンとの通信を提供するネットワークインタフェースデバイス422を含んでもよい。コンピュータシステム400がまた、ディスプレイデバイス410(例えば、液晶ディスプレイ(LCD)またはカソード・レイ・チューブ(CRT))、英数字入力デバイス412(例えば、キーボード)、カーソルコントロールデバイス414(例えば、マウス)、および信号生成デバイス420(例えば、スピーカ)を含んでもよい。
データ記憶デバイス416が、本明細書で説明した方法または関数のうち任意の1つまたは複数を具現化するためのシステム100、システム120、およびタッチ・スクリーン・ユーザ・インタフェース200a−fの1組の命令426を格納したコンピュータ可読記憶媒体424を含んでもよい。システム100、システム120、およびタッチ・スクリーン・ユーザ・インタフェース200a−fの1組の命令426がまた、完全にまたは少なくとも部分的に、前記メイン・メモリ404内におよび/または当該コンピュータシステム400によるその実行中にプロセッサ402内に常駐してもよく、前記メイン・メモリ404およびプロセッサ402はまたコンピュータ可読記憶媒体を構成する。1組の命令426をさらに、当該ネットワークインタフェースデバイス422を介してネットワーク418上で送信または受信されてもよい。
当該コンピュータ可読記憶媒体424の例が単一の媒体として示されているが、「コンピュータ可読記憶媒体」という当該用語は、1組の命令426を格納する単一の媒体または複数の媒体(例えば、中央または分散データベース、および/または関連するキャッシュおよびサーバ)を含むことができる。「コンピュータ可読記憶媒体」という当該用語は、当該マシンにより実行するための1組の命令を格納し、符号化し、または運搬でき本開示の方法のうち任意の1つまたは複数を当該マシンに実施させる任意の媒体を含むことができる。「コンピュータ可読記憶媒体」という当該用語は、固体メモリ、光媒体、および磁気媒体を含むことができるがこれらに限られない。
以上の説明では、多数の詳細を説明した。しかし、本開示の利点を得た当業者には、本開示をこれらの特定の詳細なしに実施してもよいことは明らかであろう。幾つかの事例では、本開示を不明瞭にするのを避けるため、公知な構造およびデバイスは詳細にではなくブロック図の形態で示されている。
詳細な説明の幾つかの部分を、コンピュータメモリ内のデータ・ビットに対する動作のアルゴリズムおよび記号表現の点から提示した。これらのアルゴリズム的説明および表現は、それらの作業の材料を他の当業者に最も効率的に伝達するための、当該データ処理の業界における当業者により使用される手段である。ここでは、アルゴリズムは一般に、所望の結果に繋がるステップの自己完結型のシーケンスと考えられる。当該ステップは、物理量の物理操作を要求するものである。通常、必ずしもそうではないが、これらの量は、格納、転送、結合、比較、および操作できる電気信号または磁気信号の形態をとる。しばしば、主に共通の利用の理由から、これらの信号をビット、値、要素、シンボル、記号、ターム、数字等と称するのが好都合であることが分かっている。
しかし、これらのおよび同様な用語の全てが当該適切な物理量に関連付けられるべきではなくこれらの量に適用される好都合なラベルにすぎないことに留意すべきである。特に断らない限り、本願の説明にわたって、「〜を識別する」、「〜を提供する」、「〜を可能とする」、「〜を発見する」、「〜を選択する」等のような用語を利用した議論は、当該コンピュータシステムメモリまたはレジスタ内の物理(例えば、電子)量として表されたデータを、当該コンピュータシステムメモリまたはレジスタまたは他のかかる情報記憶、送信またはディスプレイデバイス内の物理量として同様に表された他のデータに操作し変換するコンピュータシステム、または同様な電子コンピューティング・デバイスのアクションおよびプロセスを指すことは理解される。
本開示はまた、本明細書の動作を実施するための装置に関する。この装置が、必要とされた目的に対して特に構築されてもよく、または、当該コンピュータに格納されたコンピュータプログラムにより選択的に起動または再構成された汎用目的コンピュータを含んでもよい。かかるコンピュータプログラムが、フロッピーディスク、光ディスク、コンパクト・ディスク読取専用メモリ(CD−ROM)、光磁気ディスク、読取専用メモリ(ROM)、ランダム・アクセスメモリ(RAM)、消去可能プログラム可能読取専用メモリ(EPROM)、電気的消去可能プログラム可能読取専用メモリ(EEPROM)、磁気または光カード、または電子命令を格納するのに適した任意のタイプの媒体を含む任意のタイプのディスクのようなコンピュータ可読記憶媒体に格納してもよいが、これらに限られない。
「例」または「例示的な」という単語は、本明細書では、例、事例、または例示としての役割を果たすことを意味するために使用されている。「例」または「例示的」として本明細書で説明された任意の態様または設計は、必ずしも他の態様または設計に対して好適または有利であるとして解釈されない。寧ろ、「例」または「例示的な」という単語の利用は、概念を具体的な形式で提示することを意図している。本願で使用する際、「または」という用語は、排他的な「または」ではなく包括的な「または」を意味することを意図している。即ち、特に断らない限り、または、文脈から明らかでない限り、「XがAまたはBを含む」とは、自然な包括的順列の何れかを意味することを意図している。即ち、XがAを含み、XがBを含み、またはXがAおよびBの両方を含む場合、「XがAまたはBを含む」が以上の事例の何れかのもとで満たされる。さらに、冠詞「a」および「an」は、本願および添付の特許請求の範囲で使用する際、単一形を示すように特に断らない限り、または、文脈から明らかでない限り、「1つまたは複数」を意味するように解釈されるべきである。さらに、本明細書にわたる「実施形態」または「1実施形態」または「実装」または「1実装」という用語の利用は、そのように説明されない限り同一の実施形態または実装を意味しないと解釈される。「第1の」、「第2の」、「第3の」、「第4の」等の用語は、本明細書で使用する際、異なる要素を区別するためのラベルを意味し、必ずしもそれらの数字の指定に従う序数的意味を有さなくてもよい。
以上の説明は例示的であり限定的ではないことは理解される。他の実装は、以上の説明を読み理解すると当業者には明らかである。したがって、本開示の範囲は、添付の特許請求の範囲を参照して、かかる特許請求の範囲が権利を有する均等物の全範囲に沿って、決定されるべきである。
106 ネットワーク
108a ユーザ・インタフェース
108b ビデオのリスト
108c ビデオ要求
180d ビデオ
110a 中間状態
110b フルスクリーン状態
110c ミニプレイヤ状態
108a ユーザ・インタフェース
122a クライアント・デバイス
122z クライアント・デバイス
124 データ・ストア
126 コンテンツ共有プラットフォーム
128 サーバ
130 ネットワーク
132 メディア・ビューワ
134a チャネル
134z チャネル
136a メディア・アイテム
136z メディア・アイテム

Claims (9)

  1. タッチスクリーン・ユーザ・インタフェースを用いてビデオを提供するための方法であって、
    処理デバイスにより、タッチ・スクリーン・デバイスに提示するための前記タッチ・スクリーン・ユーザ・インタフェースの中間状態を提供するステップであって、前記中間状態は、ビデオ・プレイヤ内のビデオの待ち行列からの第1のビデオを提供し、前記ビデオの前記待ち行列からの以前のビデオの部分およびは次のビデオの部分を表示し、前記中間状態の提示の間に第1の方向への第1のジェスチャ入力を受信したことは前記次のビデオを前記中間状態で前記ビデオ・プレイヤ内に提示させ、前記中間状態の提示の間に前記第1の方向と反対の第2の方向への第2のジェスチャ入力を受信したことは前記以前のビデオを前記中間状態で前記ビデオ・プレイヤ内に提示させる、ステップと、
    前記中間状態の提示の間に第3のジェスチャ入力を受信したことに応答して、前記タッチ・スクリーン・デバイスに提示するための前記タッチ・スクリーン・ユーザ・インタフェースのフルスクリーン状態を提供するステップであって、前記第3のジェスチャ入力は前記第1の方向および前記第2の方向と異なる方向であるかまたは前記第3のジェスチャ入力は前記第1のジェスチャ入力および前記第2のジェスチャ入力と異なるタイプであり、前記フルスクリーン状態は、前記以前のビデオの前記部分および前記次のビデオの前記部分を表示することなく、前記タッチ・スクリーン・ユーザ・インタフェースに適合するように前記第1のビデオおよび前記ビデオ・プレイヤを拡大し、前記フルスクリーン状態の提示の間に第4のジェスチャ入力を受信したことは前記中間状態を再度提示させ、前記第4のジェスチャ入力は前記第3のジェスチャ入力と反対の特徴を有し、前記フルスクリーン状態の提示の間に前記第1のジェスチャ入力を受信したことは前記次のビデオを前記フルスクリーン状態で前記ビデオ・プレイヤ内に提示させ、前記フルスクリーン状態の提示の間に前記第2のジェスチャ入力を受信したことは前記以前のビデオを前記フルスクリーン状態で前記ビデオ・プレイヤ内に提示させる、ステップと、
    前記フルスクリーン状態の提示の間に前記第3のジェスチャ入力を受信したことに応答して、前記タッチ・スクリーン・デバイスに提示するための前記タッチ・スクリーン・ユーザ・インタフェースのミニプレイヤ状態を提供するステップであって、前記ミニプレイヤ状態は、前記タッチ・スクリーン・ユーザ・インタフェース内のユーザ・アカウントに対するビデオのリストに適合するように前記第1のビデオを縮小させ、前記ミニプレイヤ状態の提示の間に前記第4のジェスチャ入力を受信したことは前記フルスクリーン状態を再度提示させ、前記ミニプレイヤ状態での前記第1のビデオと前記ビデオ・プレイヤのサイズは、前記中間状態での前記第1のビデオと前記ビデオ・プレイヤのサイズより小さく、前記フルスクリーン状態での前記第1のビデオと前記ビデオ・プレイヤのサイズは、前記中間状態での前記第1のビデオと前記ビデオ・プレイヤのサイズより大きい、ステップと、
    を含む、方法。
  2. 前記中間状態はさらに前記第1のビデオに対する提案されたビデオのリストを提示し、前記方法はさらに、
    前記第1のビデオに対する提案されたビデオの前記リストから第2のビデオのユーザ選択を受信するステップと、
    前記ユーザ選択を受信したことに応答して前記第2のビデオを前記待ち行列に追加するステップと、
    を含む、請求項1に記載の方法。
  3. 前記ユーザ選択を受信したことに応答して、前記第1のビデオを前記中間状態における前記第2のビデオで置換するステップと、
    前記ユーザ選択を受信したことに応答して、前記以前のビデオの前記部分を前記中間状態における前記第1のビデオの部分で置換するステップと、
    をさらに含む、請求項2に記載の方法。
  4. 前記中間状態は前記第1のビデオに対するメタデータをさらに提示し、前記方法はさらに、前記中間状態が前記フルスクリーン状態に遷移する際に前記メタデータのサイズを変更することなく、前記メタデータを前記タッチ・スクリーン・ユーザ・インタフェースの下方に垂直にスライドするステップ
    を含む、請求項1乃至3の何れか1項に記載の方法。
  5. 前記待ち行列内の前記ビデオを自動的に再生するステップをさらに含む、請求項1乃至4の何れか1項に記載の方法。
  6. 少なくとも1つの提案されたビデオを前記待ち行列に前記待ち行列内の最後のビデオの後に自動的に追加するステップをさらに含む、請求項1乃至5の何れか1項に記載の方法。
  7. 待ち行列コントロールのユーザ選択を受信するステップと、
    前記ユーザ選択を受信したことに応答して、前記中間状態における前記以前のビデオの前記部分および前記次のビデオの前記部分を前記待ち行列内の前記ビデオのリストで置換するステップと、
    をさらに含む、請求項1乃至6の何れか1項に記載の方法。
  8. 処理デバイスにより実行されたとき、前記処理デバイスに請求項1乃至7の何れか1項に記載の方法を実行させる、タッチスクリーン・ユーザ・インタフェースを用いてビデオを提示するための命令を格納した非一時的コンピュータ可読媒体。
  9. タッチスクリーン・ユーザ・インタフェースを用いてビデオを提示するためのシステムであって、
    前記タッチ・スクリーン・ユーザ・インタフェースのための命令を格納するためのメモリと、
    請求項1乃至7の何れか1項に記載の方法を実施するための命令を実行するための処理デバイスと、
    を備えたシステム。
JP2018504975A 2015-10-16 2016-10-14 メディアを提供するためのタッチ・スクリーン・ユーザ・インタフェース Active JP6530133B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/885,806 US9880730B2 (en) 2015-10-16 2015-10-16 Touchscreen user interface for presenting media
US14/885,806 2015-10-16
PCT/US2016/057116 WO2017066623A1 (en) 2015-10-16 2016-10-14 Touchscreen user interface for presenting media

Publications (2)

Publication Number Publication Date
JP2018535461A true JP2018535461A (ja) 2018-11-29
JP6530133B2 JP6530133B2 (ja) 2019-06-12

Family

ID=57223776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018504975A Active JP6530133B2 (ja) 2015-10-16 2016-10-14 メディアを提供するためのタッチ・スクリーン・ユーザ・インタフェース

Country Status (8)

Country Link
US (1) US9880730B2 (ja)
EP (1) EP3317757B1 (ja)
JP (1) JP6530133B2 (ja)
KR (1) KR101850264B1 (ja)
CN (1) CN108027701B (ja)
DE (1) DE112016004721T5 (ja)
GB (1) GB2556565A (ja)
WO (1) WO2017066623A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490146B2 (ja) 2020-12-18 2024-05-24 北京字跳▲網▼絡技▲術▼有限公司 呈示方法、装置及び電子機器

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11089373B2 (en) * 2016-12-29 2021-08-10 Sling Media Pvt Ltd Seek with thumbnail generation and display during placeshifting session
US10503979B2 (en) 2017-12-27 2019-12-10 Power P. Bornfreedom Video-related system, method and device
CN109032738B (zh) * 2018-07-17 2022-02-11 腾讯科技(深圳)有限公司 多媒体播放控制方法、装置、终端及存储介质
CN109343916A (zh) * 2018-08-10 2019-02-15 北京微播视界科技有限公司 显示界面切换方法、装置及电子设备
CN109104631B (zh) * 2018-09-06 2021-09-28 网易传媒科技(北京)有限公司 视频显示方法和装置
CN109120981B (zh) * 2018-09-20 2021-12-07 北京达佳互联信息技术有限公司 信息列表展示方法、装置及存储介质
CN109600656B (zh) * 2018-12-05 2023-05-30 北京字节跳动网络技术有限公司 一种视频榜单显示方法、装置,终端设备及存储介质
US10817142B1 (en) * 2019-05-20 2020-10-27 Facebook, Inc. Macro-navigation within a digital story framework
US10757054B1 (en) 2019-05-29 2020-08-25 Facebook, Inc. Systems and methods for digital privacy controls
US11388132B1 (en) 2019-05-29 2022-07-12 Meta Platforms, Inc. Automated social media replies
CN110446077A (zh) * 2019-07-31 2019-11-12 安徽抖范视频科技有限公司 一种基于视频类型进行兴趣点标识的方法及系统
CN112153454B9 (zh) * 2020-09-25 2023-05-30 北京字跳网络技术有限公司 提供多媒体内容的方法、装置和设备
CN112423122B (zh) * 2020-11-11 2022-06-24 北京字跳网络技术有限公司 热点榜单的显示方法、装置、电子设备和存储介质
US11704002B2 (en) * 2021-02-08 2023-07-18 Lemon Inc. Music-focused presentation method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080084400A1 (en) 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US9933937B2 (en) * 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8990689B2 (en) 2011-02-03 2015-03-24 Sony Corporation Training for substituting touch gestures for GUI or hardware keys to control audio video play
CN102223489B (zh) * 2011-06-09 2012-11-21 福州瑞芯微电子有限公司 一种基于触控技术的视频切换方法
US10389778B2 (en) * 2012-01-23 2019-08-20 Time Warner Cable Enterprises Llc Transitioning video between devices using touch gestures
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
KR101527038B1 (ko) * 2012-02-24 2015-06-08 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
US20130263001A1 (en) * 2012-04-03 2013-10-03 Google Inc. Restricting operation of a client device to parent approved content
CN104038620A (zh) * 2013-03-06 2014-09-10 风网科技(北京)有限公司 一种手机视频播放控制系统及其方法
US20140368737A1 (en) * 2013-06-17 2014-12-18 Spotify Ab System and method for playing media during navigation between media streams
CN103294347B (zh) * 2013-06-24 2016-09-07 贝壳网际(北京)安全技术有限公司 移动终端浏览器视频播放的操作控制方法、装置及浏览器
US10444846B2 (en) * 2013-07-31 2019-10-15 Google Llc Adjustable video player
US9207857B2 (en) * 2014-02-14 2015-12-08 EyeGroove, Inc. Methods and devices for presenting interactive media items

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490146B2 (ja) 2020-12-18 2024-05-24 北京字跳▲網▼絡技▲術▼有限公司 呈示方法、装置及び電子機器

Also Published As

Publication number Publication date
CN108027701A (zh) 2018-05-11
GB2556565A (en) 2018-05-30
DE112016004721T5 (de) 2018-07-19
BR112018002035A2 (pt) 2018-11-06
KR20180019235A (ko) 2018-02-23
US20170109008A1 (en) 2017-04-20
US9880730B2 (en) 2018-01-30
WO2017066623A1 (en) 2017-04-20
CN108027701B (zh) 2021-03-12
JP6530133B2 (ja) 2019-06-12
EP3317757A1 (en) 2018-05-09
KR101850264B1 (ko) 2018-04-18
GB201801586D0 (en) 2018-03-14
EP3317757B1 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP6530133B2 (ja) メディアを提供するためのタッチ・スクリーン・ユーザ・インタフェース
US11882330B2 (en) Persistent media player
US11627362B2 (en) Touch gesture control of video playback
US9733809B1 (en) Dynamic instream autoplay based on presence of watch while mini player
US20240004927A1 (en) Providing a video preview of search results
US10372317B1 (en) Method for highly accurate selection of items on an axis with a quadrilateral control surface
US11995306B1 (en) Method for highly accurate selection of items on an axis with a quadrilateral control surface
BR112018002035B1 (pt) Interface do usuário de tela de toque para a apresentação de mídia

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190515

R150 Certificate of patent or registration of utility model

Ref document number: 6530133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250