JP6378357B2 - 単一のインタフェース要素を用いて視覚媒体を選択的に捕捉する方法 - Google Patents

単一のインタフェース要素を用いて視覚媒体を選択的に捕捉する方法 Download PDF

Info

Publication number
JP6378357B2
JP6378357B2 JP2016560468A JP2016560468A JP6378357B2 JP 6378357 B2 JP6378357 B2 JP 6378357B2 JP 2016560468 A JP2016560468 A JP 2016560468A JP 2016560468 A JP2016560468 A JP 2016560468A JP 6378357 B2 JP6378357 B2 JP 6378357B2
Authority
JP
Japan
Prior art keywords
capture
timer
video
visual media
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016560468A
Other languages
English (en)
Other versions
JP2017511543A (ja
Inventor
ルーベン、ウィリアム
ザ セカンド、ダニエル スミス
ザ セカンド、ダニエル スミス
パテル、ニーレシュ
ルツェンコ、ミキタ
フリン、ウィリアム
ゲオルゲ、アンドレイ
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2017511543A publication Critical patent/JP2017511543A/ja
Application granted granted Critical
Publication of JP6378357B2 publication Critical patent/JP6378357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00352Input means
    • H04N1/00392Other manual input means, e.g. digitisers or writing tablets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/00411Display of information to the user, e.g. menus the display also being used for user input, e.g. touch screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Description

本技術は、単一のインタフェース要素を用いて視覚媒体を選択的に捕捉するための技術に関する。
デバイスは、デジタル写真またはデジタルビデオを捕捉するためのメディア・アプリケーションを含むことができる。多くの場合、アプリケーションは、写真固有モードまたはビデオ固有モードで構成される必要がある。
モードの切り替えが、対象のシーンの捕捉に遅延を生じさせる場合がある。また、複数の入力が必要とされる場合もあり、それによって、更なる遅延が生じる。したがって、メディア・アプリケーションにおける改善が必要とされている。
以下、本明細書に記載されるいくつかの新規の実施形態の基本的な理解を提供するために簡単な概要を提示する。この概要は、包括的な概観ではなく、本発明の主要/重要要素を特定することも、本発明の範囲を画定することも意図していない。この概要の唯一の目的は、後に提示されるより詳細な説明への前置きとして、いくつかの概念を簡単な形態で提示することである。
様々な実施形態は、包括的には、単一のインタフェース要素を用いて視覚媒体を選択的に捕捉するための技術を対象とする。タッチ・コントローラは、ユーザがタッチ・スクリーン上のインタフェース要素を選択したことを示す触覚的係合状態信号(haptic engagement signal)を受信することができる。視覚媒体捕捉コンポーネントは、タッチ・スクリーンとのユーザの係合状態の持続時間に基づいて構成され得る。視覚媒体捕捉コンポーネントは、短い持続時間の係合状態に基づいて写真固有モードで構成され、設定閾値より長い係合状態に基づいてビデオ固有モードで構成され得る。次に、視覚媒体捕捉コンポーネントは、構成された捕捉モードで視覚媒体を捕捉し得る。次に、この視覚媒体をユーザに表示し、任意で、インターネットベースのサービスに送信することができる。単一のタッチ・スクリーン・インタフェース要素を用いて写真および/またはビデオの捕捉を選択的に制御することによって、視覚媒体アプリケーションのユーザは、それらの所望のタイプの捕捉媒体をより迅速にかつ好都合に捕捉することができる。他の実施形態については以下で説明される。
上記のおよび関係する目的の達成に向けて、本明細書において、以下の説明および添付の図面に関連していくつかの例示的な態様が説明される。これらの態様は、本明細書において開示される原理を実施することができる様々な方法を示し、全ての態様およびそれらの等価物は、特許請求の範囲内にあることが意図される。他の利点および新規の特徴は、図面と併せて検討されるとき、以下の詳細な説明から明らかとなる。
視覚媒体捕捉システムの実施形態を示す図。 図1の視覚媒体捕捉システムのための第1の論理フローの実施形態を示す図。 タップを受信する視覚媒体捕捉システムのためのインタラクション図。 短押しを受信する視覚媒体捕捉システムのためのインタラクション図。 最大ビデオ持続時間よりも長い押下を受信する視覚媒体捕捉システムのためのインタラクション図。 図1の視覚媒体捕捉システムのための第2の論理フローの実施形態を示す図。 図1の視覚媒体捕捉システムのための第3の論理フローの実施形態を示す図。 最小ビデオ持続時間を満たすのに十分な長さの押下を受信する視覚媒体捕捉システムのためのインタラクション図。 最小ビデオ持続時間を満たすのに不十分な長さの押下を受信する視覚媒体捕捉システムのための第1のインタラクション図。 最小ビデオ持続時間を満たすのに不十分な長さの押下を受信する視覚媒体捕捉システムのための第2のインタラクション図。 図1の視覚媒体捕捉システムのための第4の論理フローの実施形態を示す図。 写真およびビデオの双方を捕捉するのに不十分な長さの押下を受信する視覚媒体捕捉システムのためのインタラクション図。 写真およびビデオの双方を捕捉するのに十分な長さの押下を受信する視覚媒体捕捉システムのためのインタラクション図。 図1の視覚媒体捕捉システムのためのユーザ・インタフェースを示す図。 図1のシステムのための集中型システムの実施形態を示す図。 図1のシステムのための分散システムの実施形態を示す図。 コンピューティング・アーキテクチャの実施形態を示す図。 通信アーキテクチャの実施形態を示す図。
様々な実施形態が、単一のインタフェース要素を用いて視覚媒体を選択的に捕捉するための方法を対象とする。スマートフォン・デバイス上にインストールするかまたは事前構成することができるような視覚媒体アプリケーションを用いて、デジタル写真およびデジタルビデオのうちの一方または双方を捕捉することができる。多くの場合、スマートフォン・デバイスは、写真固有モードまたはビデオ固有モードとなるように構成することができる。ビデオ固有モードを用いて、捕捉ビデオのフレームを抽出すること等によって静止画像を捕捉することができるが、写真固有モードは、より少ない圧縮および写真固有のフラッシュの補助による、より高い分解能等の、より高品質な捕捉を可能にすることができる。
視覚媒体アプリケーションは、起動時に、ライブ・ビデオ・プレビューにおけるカメラ要素を通じて可視のシーンのプレビューを表示することができる。ビデオ捕捉のためのデバイスを構成することは、デバイスを、このライブ・ビデオ・プレビューのためのモードに保持することを含むことができ、フラッシュによって提供されるほぼ瞬時の照明と対照的に、カメラ要素の近くに位置決めされた発光ダイオード(LED)等の安定した照明による補助をアクティベートすることを含むこともできる。同じ照明要素が、写真捕捉モードおよびビデオ捕捉モードの双方において用いられ得るが、ほぼ瞬時の照明または持続的照明を提供するために異なる形で構成される場合があることが理解され得る。代替的に、いくつかの実施形態では、異なる照明要素が写真捕捉およびビデオ捕捉のために用いられてもよい。
視覚媒体アプリケーションは、タッチ・スクリーンディスプレイ上に、写真捕捉およびビデオ捕捉間での選択、および選択されたモードにおける捕捉の開始の双方に用いることができるアイコン等の単一のユーザ・インタフェース要素を提供することができる。タップ(ユーザ・インタフェース要素との短い持続時間の触覚的係合状態)時に、写真を撮ることができ、すなわち、タップの終了を示す係合状態解除が検出されると、写真モードが構成されて、写真が撮られる。押下(少なくとも最小閾値を満たす持続時間のユーザ・インタフェース要素との触覚的係合状態)時に、ビデオを撮ることができ、すなわち、触覚的係合状態が少なくとも最小閾値にわたって持続するとき、ビデオモードが構成されて、ビデオ記録が開始され、触覚的接触が終了する(触覚的係合状態解除)まで、または任意で、最大ビデオ持続時間に達するまで、ビデオ記録が継続する。次に、捕捉された視覚媒体(ビデオは、マイクを用いて捕捉されたオーディオ要素も含むことができることが理解され得る)を、スマートフォンのユーザに表示することができ、ユーザは、タグ、注記、または他のテキスト要素を加えることができ、この視覚媒体を別のユーザに送信するか、または、この捕捉された視覚媒体をネットワーク・サーバにアップロードすること等によって、この視覚媒体をインターネットベースのサービスにアップロードすることができる。結果として、実施形態は、スマートフォンベースの視覚媒体アプリケーションの使用の容易さおよび速度を改善することができる。
次に、図面を参照して説明する。図面において、同様の参照符号は全体を通じて類似の要素を指すのに用いられる。以下の説明において、説明の目的で、本発明の完全な理解を与えるために多数の特定の詳細が記載される。しかしながら、新規の実施形態は、これらの特定の詳細なしで実施することができることは明らかである。他の事例では、既知の構造およびデバイスは、それらの説明を容易にするためにブロック図形式で示される。特許請求の範囲に記載された主題に一致する全ての変更形態、等価物および代替形態をカバーすることが意図されている。
図1は、視覚媒体捕捉システム100のブロック図を示す。1つの実施形態では、視覚媒体捕捉システム100は、1つまたは複数のコンポーネントを含むソフトウェアベースの視覚媒体アプリケーション120を有するコンピュータにより実施されたシステムを備えることができる。図1に示す視覚媒体捕捉システム100は、一定のトポロジーの限られた数の要素を有するが、視覚媒体捕捉システム100は、所与の実施態様について望ましい代替のトポロジーにおいて、より多くのまたはより少ない要素を含んでもよいことが理解され得る。
視覚媒体捕捉システム100は、視覚媒体アプリケーション120を含むことができる。視覚媒体アプリケーション120は、概して、タッチ・スクリーン110から触覚信号115を受信し、触覚信号115に基づいてカメラ170を構成し、カメラ170を用いて視覚媒体175を捕捉し、視覚媒体175を記憶し、タッチ・スクリーン110を用いて視覚媒体175を表示するように構成することができる。いくつかの実施形態では、視覚媒体175は、記憶される前に、ユーザ承認のためにタッチ・スクリーン110を用いて表示されてもよい。
視覚媒体アプリケーション120は、タッチ・コントローラ130を備えることができる。タッチ・コントローラ130は通常、触覚信号115を受信するように構成することができる。触覚信号115は、触覚的係合状態信号および/または触覚的係合状態解除信号を含むことができる。触覚的係合状態は、タッチ・スクリーン110の任意の場所から読み取られてもよく、または視覚媒体捕捉アイコン等のタッチ・スクリーン110の特定のエリアに限定されてもよい。いくつかの実施形態では、触覚的係合状態は、視覚媒体捕捉アイコンに対応するスクリーンのエリアとの係合状態である場合にのみ、視覚媒体捕捉を開始することができる。
いくつかの実施形態では、一旦触覚的係合状態が検知されると、写真またはビデオの捕捉中にデバイスのユーザ操作中に生じ得るように、タッチ・スクリーンとのユーザの係合状態が、視覚媒体捕捉アイコンに対応するスクリーンのエリア外にそれた場合であっても、係合状態が持続しているとみなすことができる。視覚媒体捕捉アイコンからの逸脱の許容される量は、40ピクセル等の、点または画素の数によって制限することができる。タッチ・コントローラ130は、視覚媒体コンポーネント140がどのように動作するべきかを示すために、捕捉制御135を視覚媒体捕捉コンポーネント140に送信することができる。ユーザ係合状態がこの増大された許容可能エリアの更に外側にそれる場合、これは、視覚媒体捕捉に関する限り、触覚的係合状態解除であるとみなすことができる。いくつかの実施形態では、タッチ・スクリーンの任意の部分との触覚的接触が維持されている限り、触覚的係合状態は持続されているとみなすことができる。
タッチ・コントローラは、第1のタイマの満了前に触覚的係合状態解除信号を受信することができ、これに応答して、捕捉制御135を用いて、視覚媒体捕捉コンポーネント140に写真を捕捉するように命令することができる。タッチ・コントローラは、第1のタイマの満了前に触覚的係合状態解除信号を受信しない場合があり、第1のタイマの満了に応答して、捕捉制御135を用いて、視覚媒体捕捉コンポーネント140にビデオの捕捉を開始するように命令する。ビデオの捕捉は、触覚的係合状態解除信号の受信に基づいて、またはビデオとしての視覚媒体175の捕捉開始時に始動された第2のタイマの満了に基づいて終了することができ、第2のタイマは、予め設定された第2の持続時間の後に満了するように構成される。この予め設定された第2の持続時間は、視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスによってサポートされる最大ビデオ持続時間等の最大ビデオ持続時間に対応することができる。
視覚媒体アプリケーション120は、視覚媒体捕捉コンポーネント140を備えることができる。視覚媒体捕捉コンポーネント140は、通常、第1のタイマの満了前にタッチ・コントローラ130によって触覚的係合状態解除信号が受信されているか否かに基づいて、捕捉モードにおいて構成されるように準備することができる。この第1のタイマは、触覚的係合状態信号の受信に応答して始動することができ、予め設定された第1の持続時間の後に満了するように構成することができる。この予め設定された第1の持続時間は、タッチ・スクリーンとの触覚的係合状態が、タップではなく押下であるとみなすのに十分長いか否かを区別する閾値持続時間とすることができる。この予め設定された第1の持続時間は、デフォルトで、例えば400ミリ秒として構成することができる。デフォルトで予め設定された第1の持続時間は、視覚媒体アプリケーション120の、または視覚媒体アプリケーション120によって用いられる、捕捉デバイスまたは捕捉デバイスのオペレーティング・システム等のプラットフォームのデフォルトとすることができる。予め設定された第1の持続時間は、ユーザにより構成可能であり得る。視覚媒体捕捉コンポーネント140は、写真モードおよびビデオ捕捉モードのうちの一方において構成することができる。視覚媒体捕捉コンポーネント140を写真捕捉モードまたはビデオ捕捉モードで構成した結果として、視覚媒体捕捉コンポーネント140が、構成145を用いてカメラ170のための設定を調整する。構成145は、捕捉分解能、カメラのフォーカス、圧縮レベル、フラッシュまたは照明の起動のための設定、および任意の他の既知のカメラ設定を含むことができる。
視覚媒体捕捉コンポーネント140は、(媒介としてオペレーティング・システムを用いること等によって)ビデオ捕捉を開始するか写真を撮ることの命令をカメラ170に送信することに応答してカメラ170によって捕捉される視覚媒体175を受信することができる。視覚媒体捕捉コンポーネント140は、視覚媒体175を、記憶するためにストレージ・コンポーネント150に送信し、ユーザに表示するために表示コンポーネント160に送信することができる。いくつかの実施形態では、表示コンポーネント160は、タッチ・スクリーン110を用いるユーザに視覚媒体175を表示し、ユーザが捕捉された視覚媒体175を記憶するか否かを判断することを可能にすることができ、視覚媒体175は、ユーザがこれを保持することを選択した場合にのみ記憶される。ユーザが捕捉された視覚媒体175を記憶することを選択する場合、それらは視覚媒体175のための受信者を選択し、タグまたは注記を追加する機会も提供され得る。
視覚媒体175をタグ付けすることは、テキストキャプションを追加すること、音声注記を追加すること、コメントを追加すること、テキスト記述を追加すること、音声記述を追加すること、または捕捉された視覚媒体175を拡張するためのテキストおよびオーディオの個々の使用もしくは組み合わせの使用からなることができる。捕捉された視覚媒体175を拡張するためにオーディオが用いられる場合、このオーディオは、ユーザが捕捉された視覚媒体175を検査して、タグ付け、記憶および/または共有するか否かを決定する期間中等に、最初の視覚媒体捕捉と別個に捕捉することができる。視覚媒体175へのタグ付けは、特定の対象物に対応する視覚媒体175内のエリアを選択すること等によって、視覚媒体175の1つまたは複数の対象物を特定することを含むことができる。特定の対象物が選択される場合、視覚媒体175のそのエリアを、捕捉デバイスに記憶されたユーザコンタクト等、またはソーシャル・ネットワーキング・サービスにおける既知の友人または他の知人等の既知のコンタクトと関連付けることをユーザにプロンプトし、権利を与えることができる。
視覚媒体175をタグ付けすることは、視覚媒体175をコンテキストメタデータに関連付けることを含むことができる。限定ではないが、プロパティ、視覚媒体175を捕捉したコンピューティングデバイスのための識別子、視覚媒体175が捕捉されたときに捕捉コンピューティングデバイスが動いていたかまたは動かされていた速度、視覚媒体175が捕捉されたときに捕捉コンピューティングデバイスが動いていたかまたは動かされていた方向、視覚媒体175が捕捉されたときに捕捉コンピューティングデバイスが受けた線方向および/または回転方向の加速、視覚媒体175が捕捉されたときの捕捉コンピューティングデバイスの向き、視覚媒体175が捕捉されたときに捕捉コンピューティングデバイスが位置していた地理的ロケーション、視覚媒体175が捕捉された時点、視覚媒体175が捕捉されたときの捕捉コンピューティングデバイスのカメラ170のための設定(例えば、構成145を含む)、視覚媒体175が捕捉されたときの捕捉コンピューティングデバイスの周囲の天候条件、ならびに視覚媒体175が捕捉されたときに捕捉コンピューティングデバイスによってアクセスされていた媒体(例えば、再生されていた楽曲)のタイトルおよび他のメタデータの任意の組み合わせを含むコンテキスト情報を用いて視覚媒体175にタグ付けすることができる。
視覚媒体アプリケーション120は、ストレージ・コンポーネント150を含むことができる。ストレージ・コンポーネント140は通常、視覚媒体捕捉コンポーネント140から視覚媒体175を受信し、視覚媒体175を記憶するように準備することができる。視覚媒体175を記憶することは、視覚媒体175をデバイス上にローカルで記憶すること、または視覚媒体共有サービスもしくはソーシャル・ネットワーキング・サービスによって運用されるネットワーク・サーバ等のネットワーク・サーバに視覚媒体175をアップロードすることによって記憶することのいずれかまたは双方に対応することができる。
視覚媒体アプリケーション120は、特定のプライバシ設定に対しユーザを許可することができる。視覚媒体アプリケーション120は、ユーザが、視覚媒体175等の任意の視覚媒体を共有する前にプライバシ合意にオプトインすることを必要とすることができる。例えば、インストール中、初期構成中、初期アカウントセットアップ中、既存のアカウントへのリンク中、または視覚媒体175の共有の前の任意の他の時点において、視覚媒体アプリケーション120は、まずユーザが、共有される任意の視覚媒体174が他者によってアクセスされ得ることを認識することを必要とすることができる。ユーザオプトインは、所有権、アクセス権、販売権、および視覚媒体175の生成および販売に関する他の検討事項の確立等の、知的財産の規定を含むことができる。
視覚媒体アプリケーション120は表示コンポーネント160を含むことができる。表示コンポーネント160は、通常、タッチ・スクリーン110を用いて視覚媒体175を表示するように準備することができる。
いくつかの実施形態では、スマートフォン、スマートフォン・オペレーティング・システム、またはスマートフォン視覚捕捉ライブラリによって最小ビデオ持続時間が課される場合がある。例えば、スマートフォンは、持続時間が2秒または3秒未満のビデオを捕捉することができない場合がある。したがって、ビデオとしての視覚媒体175の捕捉の開始時に第3のタイマを始動することができ、第3のタイマは、予め設定された第3の持続時間後に満了するように構成され、予め設定された第3の持続時間は、スマートフォン、スマートフォン・オペレーティング・システム、スマートフォン視覚捕捉ライブラリ、またはスマートフォン・ソフトウェアもしくはハードウェア・システムの他の要素によって課される最小ビデオ長に対する制限に対応する。代替的にまたは更に、予め設定された第3の持続時間は、不十分な長さのビデオを受信することによる不良なユーザ体験を回避するために課され得るような、視覚媒体アプリケーション120または捕捉された視覚媒体175を共有するためのサービスによって課される最小ビデオ長に対応することができる。タッチ・コントローラ130がビデオ捕捉中(例えば、第1のタイマの満了後に開始することができる)かつ第3のタイマの満了前に触覚的係合状態解除信号を受信する場合、視覚媒体捕捉コンポーネント140は、これに応答して視覚媒体175の捕捉を取り消すことができる。いくつかの場合、次に、視覚媒体捕捉コンポーネント140は、ビデオ捕捉が取り消されたことに応答して写真を捕捉することに進むことができる。
いくつかの実施形態では、ピクチャおよびビデオの双方を捕捉することができる。タッチ・コントローラ130は、触覚的係合状態信号を受信し、これに応答して、視覚媒体捕捉コンポーネント140に捕捉制御135を送信するように動作可能であり得る。視覚媒体捕捉コンポーネント140は、触覚的係合状態信号の受信に応答して写真捕捉モードで構成され、写真捕捉モードを用いて写真を捕捉し、写真を捕捉した後、ビデオ捕捉モードで構成され、ビデオ捕捉モードを用いてビデオを捕捉するように動作可能であり得る。
図2は、図1の視覚媒体捕捉システム100のための論理フロー200の実施形態を示す。論理フロー200は、本明細書において説明される1つまたは複数の実施形態によって実行される動作のうちのいくつかまたは全てを表すことができる。
図2に示す例示される実施形態において、論理フロー200は、ブロック202において、捕捉アイコン上のユーザタッチを受信することができる。例えば、ユーザタッチは、触覚的係合状態信号において受信することができる。これに応答して、論理フロー200は、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動することができる。
論理フロー200は、ブロック204において、ユーザが押下閾値の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚係合状態解除信号を受信することに対応することができる。押下閾値は、予め設定された第1の持続時間に対応することができ、それによって、ユーザは、第1の時間がまだ満了していない場合に、押下閾値の前にタッチを解放していることになる。ユーザが押下閾値の前に解放した場合、これは、写真を撮ることの要求として解釈することができ、論理フロー200はブロック206に続くことができる。そうでない場合、論理フロー200はブロック210に進むことができる。
論理フロー200は、ブロック206において写真を捕捉することができる。写真を捕捉することは、カメラ170を写真捕捉モードに入るように構成し、次にカメラ170に写真を撮るように命令することを含むことができる。
論理フロー200は、ブロック208において写真を表示することができる。写真は、タグの追加、写真の記憶および/または写真の共有のための付随する制御と共に表示することができる。
論理フロー200は、ブロック210において、押下閾値の満了時にビデオ捕捉を開始することができる。ビデオ捕捉を開始することは、カメラ170をビデオモードに入るように構成することを含むことができるが、いくつかの実施形態では、カメラ170は、ライブ・ビデオ・プレビューを提供するために、既にビデオ捕捉モードにある場合がある。論理フロー200は、第1のタイマが満了したと判断し、第1のタイマが満了したと判断することに応じてビデオ捕捉モードで視覚媒体捕捉コンポーネント140を構成することができる。
論理フロー200は、ブロック212において、ユーザが最大ビデオ持続時間の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最大ビデオ持続時間は、例えば、インターネットベースの視覚媒体共有サービスによってサポートされる最大ビデオ持続時間に対応することができる。最大ビデオ持続時間は、ソーシャル・ネットワーキング・サービスを通じて共有するための短い個人間のビデオの記録に適した8秒、10秒または他の持続時間とすることができる。ユーザが最大ビデオ持続時間前に解除した場合、論理フロー200はブロック214に続くことができる。そうでない場合、論理フロー200はブロック218に進むことができる。
最大ビデオ持続時間に達したか否かは、ビデオとしての視覚媒体175の捕捉の開始時に第2のタイマを始動することによって判断することができる。第2のタイマは、予め設定された第2の持続時間後に満了するように構成される。したがって、最大ビデオ持続時間に達したという判断は、第2のタイマが満了したという判断によって実行することができる。したがって、論理フロー200は、第2のタイマが満了したという判断に応答して、視覚媒体175の捕捉を完了することができる。
論理フロー200は、ブロック214において、解放時にビデオ捕捉を終了し、次にブロック216に進むことができる。ビデオ捕捉を終了することは、短期メモリへの視覚媒体情報の転送を終了することと、次に、短期メモリに捕捉された視覚媒体情報を永続性ストレージに転送することとを含むことができる。代替的に、視覚媒体情報は、ユーザが、写真が記憶されるべきであることを特に示すときにのみ永続性ストレージに転送されてもよい。
論理フロー200は、ブロック216において捕捉されたビデオを表示することができる。ビデオは、タグの追加、ビデオの記憶、および/またはビデオの共有のための付随する制御と共に表示することができる。
論理フロー200は、ブロック218において最大ビデオ持続時間でビデオ捕捉を終了し、次にブロック216に進んで捕捉されたビデオを表示することができる。
図3は、タップを受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図3に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが解放されたことを受信し、これはOSによって処理され、OSはこれが押下閾値に達する前に生じたと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappにタップを報告する。したがって、appは、写真を捕捉するようにOSに指示する。OSは、これに応答して、写真を返す。次に、appは、ユーザ・インタフェース上で写真を表示し、ここでOSは媒介としての役割を果たす。
いくつかの実施形態では、appは、OSがタップまたは押下が行われたと判断する前に、捕捉アイコンが係合状態にあることのインジケーションを迅速に受信することができる。これらの実施形態において、appは、触覚的係合状態がタップに対応するかまたは押下に対応するかを判断する際に、OSの説明された機能を実行することができる。
図4は、短押しを受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図4に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これは、オペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが押下閾値よりも長い間係合状態にあったと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappに押下が実行されていることを報告する。したがって、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理される。OSは、押下の解放をappに報告する。したがって、appは、ビデオの捕捉を終了するようにOSに指示する。OSはビデオをappに返す。いくつかの実施形態では、ビデオは、捕捉が完了した後に単一のユニットとして受信されるのではなく、ビデオ捕捉中にappによって連続してまたは反復して受信することができることが理解され得る。次に、appは、ユーザ・インタフェース上にビデオを表示し、ここでOSは媒介としての役割を果たす。返されたビデオは、appに返されたときに永続性ストレージに記憶することができ、または代替的に、永続性ストレージへの転送は、ユーザが、ビデオが記憶されるべきであることを示すまで遅延されてもよい。
図5は、最大ビデオ持続時間よりも長い押下を受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図5に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが、押下閾値よりも長い間係合状態にあったと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappに押下が実行されていることを報告する。したがって、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースが、捕捉アイコンが解放されていることを受信する前に、appは、最大ビデオ持続時間に達したと判断する。したがって、appは、ビデオの捕捉を終了するようにOSに指示する。OSはappにビデオを返す。いくつかの実施形態では、ビデオは、捕捉が完了した後に単一のユニットとして受信されるのではなく、ビデオ捕捉中にappによって連続してまたは反復して受信することができることが理解され得る。次に、appは、ユーザ・インタフェース上にビデオを表示し、ここでOSは媒介としての役割を果たす。返されたビデオは、appに返されたときに永続性ストレージに記憶することができ、または代替的に、永続性ストレージへの転送は、ユーザが、ビデオが記憶されるべきであることを示すまで遅延されてもよい。
図6Aは、図1の視覚媒体捕捉システム100のための第2の論理フロー600の実施形態を示す。論理フロー600は、本明細書において説明される1つまたは複数の実施形態によって実行される動作のうちのいくつかまたは全てを表すことができる。
図6に示される例示的な実施形態において、論理フロー600は、ブロック602において捕捉アイコン上のユーザタッチを受信することができる。例えば、ユーザタッチは、触覚的係合状態信号において受信することができる。これに応答して、論理フロー600は、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動することができる。
論理フロー600は、ブロック604において、ユーザが押下閾値の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から、触覚的係合状態解除信号を受信することに対応することができる。押下閾値は、予め設定された第1の持続時間に対応することができ、この第1の時間がまだ満了していない場合、ユーザが押下閾値の前にタッチを解放したことになる。ユーザが押下閾値の前に解放した場合、これは、写真を撮る要求であると解釈され、論理フロー600はブロック606に続くことができる。そうでない場合、論理フロー600はブロック610に進むことができる。
論理フロー600は、ブロック606において写真を捕捉することができる。写真を捕捉することは、カメラ170を写真捕捉モードに入れるように構成し、次に、カメラ170に写真を撮るように命令することを含むことができる。
論理フロー600は、ブロック608において写真を表示することができる。
論理フロー600は、ブロック610において、押下閾値の満了時にビデオ捕捉を開始することができる。ビデオ捕捉を開始することは、カメラ170をビデオモードに入るように構成することを含むことができるが、いくつかの実施形態では、カメラ170はライブ・ビデオ・プレビューを提供するために、既にビデオ捕捉モードに入っている場合がある。論理フロー600は、第1のタイマが満了したと判断し、第1のタイマが満了したことの判断に応答して、視覚媒体捕捉コンポーネント140をビデオ捕捉モードで構成することができる。
論理フロー600は、ブロック612において、最小ビデオ持続時間の前にユーザがタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最小ビデオ持続時間は、例えば、カメラ170またはスマートフォン・デバイスによってサポートされる最小ビデオ持続時間に対応することができる。最小ビデオ持続時間は、2秒、3秒、または特定のデバイスに固有の他の時間とすることができる。ユーザが最小ビデオ持続時間の前に解放した場合、論理フロー600はブロック614に続くことができる。そうでない場合、論理フロー600はブロック616に進むことができる。
論理フローは、ブロック614において写真を捕捉することができる。写真を捕捉することは、カメラ170を写真捕捉モードで構成し、次に、カメラ170に写真を撮るように命令することを含むことができる。ユーザが最小ビデオ持続時間に達することに失敗した場合、デバイスハードウェアがビデオの記録に成功することが不可能である場合がある。したがって、論理フロー600は、対象シーンの何らかの記録が保持されるように、ユーザのために写真を撮ることによって適応することができる。
論理フロー600は、ブロック616において最大ビデオ持続時間の前にユーザがタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最大ビデオ持続時間は、例えば、インターネットベースの視覚媒体共有サービスによってサポートされる最大ビデオ持続時間に対応することができる。最大ビデオ持続時間は、8秒、10秒、またはソーシャル・ネットワーキング・サービスを通じて共有するための短い個人間のビデオの記録に適した他の持続時間とすることができる。ユーザが最大ビデオ持続時間の前に解放した場合、論理フロー600はブロック618に続くことができる。そうでない場合、論理フロー600はブロック622に進むことができる。
最大ビデオ持続時間に達したか否かは、ビデオとしての視覚媒体175の捕捉の開始時に第2のタイマを始動させることによって判断することができ、第2のタイマは、予め設定された第2の持続時間の後に満了するように構成される。したがって、最大ビデオ持続時間に達したと判断することは、第2のタイマが満了したと判断することによって行うことができる。したがって、論理フロー600は、第2のタイマが満了したという判断に応答して、視覚媒体175の捕捉を完了することができる。
論理フロー600は、ブロック618において、解放時にビデオ捕捉を終了し、次にブロック620に進むことができる。
論理フロー600は、ブロック620において、捕捉されたビデオを表示することができる。
論理フロー600は、ブロック622において、最大ビデオ持続時間でビデオ捕捉を終了し、次にブロック620に進み、捕捉されたビデオを表示することができる。
図6Bは、図1の視覚媒体捕捉システム100のための第3の論理フロー650の実施形態を示す。論理フロー650は、本明細書において記載される1つまたは複数の実施形態によって実行される動作のうちのいくつかまたは全てを表すことができる。
図6に示す例示される実施形態において、論理フロー650は、ブロック652において、捕捉アイコン上のユーザタッチを受信することができる。例えば、ユーザタッチは、触覚的係合状態信号において受信することができる。これに応答して、論理フロー650は、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動することができる。
論理フロー650は、ブロック654において、ユーザが押下閾値の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚係合状態解除信号を受信することに対応する。押下閾値は、予め設定された第1の持続時間に対応することができ、それによって、ユーザは、第1の時間がまだ満了していない場合に、押下閾値の前にタッチを解放していることになる。ユーザが押下閾値の前に解放した場合、これは、写真を撮ることの要求として解釈することができ、論理フロー650はブロック656に続くことができる。そうでない場合、論理フロー650はブロック660に進むことができる。
論理フロー650は、ブロック656において写真を捕捉することができる。写真を捕捉することは、カメラ170を写真捕捉モードで構成し、次にカメラ170に写真を撮るように命令することを含むことができる。
論理フロー650は、ブロック658において写真を表示することができる。
論理フロー650は、ブロック660において、押下閾値の満了時にビデオ捕捉を開始することができる。ビデオ捕捉を開始することは、カメラ170をビデオモードに入るように構成することを含むことができるが、いくつかの実施形態では、カメラ170は、ライブ・ビデオ・プレビューを提供するために、既にビデオ捕捉モードにある場合がある。論理フロー650は、第1のタイマが満了したと判断し、第1のタイマが満了したと判断することに応じてビデオ捕捉モードで視覚媒体捕捉コンポーネント140を構成することができる。
論理フロー650は、ブロック662において、ユーザが最小ビデオ持続時間の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最小ビデオ持続時間は、例えば、カメラ170またはスマートフォン・デバイスによってサポートされる最小ビデオ持続時間に対応することができる。最小ビデオ持続時間は、2秒、3秒、または特定のデバイスに固有の他の時間とすることができる。ユーザが最小ビデオ持続時間の前に解放した場合、論理フロー650はブロック664に続くことができる。そうでない場合、論理フロー650はブロック666に進むことができる。
論理フローは、ブロック664において、ライブ・ビデオ・プレビューに戻ることができる。ユーザが最小ビデオ持続時間に達することに失敗した場合、デバイスハードウェアがビデオの記録に成功することは不可能な場合がある。ライブ・ビデオ・プレビューに戻ることは、カメラ170をライブ・ビデオ・プレビューモードに入るように構成することを含むことができる。ユーザコマンドに基づいて、カメラ170が、ライブ・ビデオ・プレビューモードから、写真捕捉またはビデオ捕捉のいずれかに遷移することができ、ライブ・ビデオ・プレビューが、ビデオ捕捉および写真捕捉の双方のためのプレビューを提供することが理解され得る。次に、論理フロー650はブロック665に進むことができる。
論理フロー650は、ブロック665において、更なるユーザタッチを待機することができる。カメラ170およびタッチ・スクリーン110がライブ・ビデオ・プレビューのために用いられている場合、視覚媒体アプリケーション120は、ユーザに、捕捉のために利用可能なシーンを示し続け、ユーザが捕捉アイコンとの触覚的接触を通じて捕捉を開始するのを待機することができる。論理フロー650は、ユーザタッチが受信されると、ブロック652に戻るように遷移することができる。視覚媒体アプリケーション120は、例えば、視覚媒体アプリケーション120の他のユーザ・インタフェース要素が選択されているか、または視覚媒体アプリケーション120が閉じていることに起因して、ブロック652以外の状態に遷移することもできることが理解され得る。
論理フロー650は、ブロック666において、最大ビデオ持続時間の前にユーザがタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最大ビデオ持続時間は、例えば、インターネットベースの視覚媒体共有サービスによってサポートされる最大ビデオ持続時間に対応することができる。最大ビデオ持続時間は、ソーシャル・ネットワーキング・サービスを通じて共有するための短い個人間のビデオの記録に適した8秒、10秒または他の持続時間とすることができる。ユーザが最大ビデオ持続時間前に解除した場合、論理フロー650はブロック668に続くことができる。そうでない場合、論理フロー650はブロック672に進むことができる。
最大ビデオ持続時間に達したか否かは、ビデオとしての視覚媒体175の捕捉の開始時に第2のタイマを始動することによって判断することができる。第2のタイマは、予め設定された第2の持続時間後に満了するように構成される。したがって、最大ビデオ持続時間に達したという判断は、第2のタイマが満了したという判断によって実行することができる。したがって、論理フロー650は、第2のタイマが満了したという判断に応答して、視覚媒体175の捕捉を完了することができる。
論理フロー650は、ブロック668において、解放時にビデオ捕捉を終了し、次にブロック670に進むことができる。
論理フロー650は、ブロック670において捕捉されたビデオを表示することができる。
論理フロー650は、ブロック672において最大ビデオ持続時間でビデオ捕捉を終了し、次にブロック670に進んで捕捉されたビデオを表示することができる。
図7は、最小ビデオ持続時間を満たすのに十分に長い押下を受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図7に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが、押下閾値よりも長い間係合状態にあったと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappに、押下が実行されていることを報告する。したがって、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理される。OSは、その押下の解放をappに報告する。したがって、appは、ビデオの捕捉を終了するようにOSに指示する。最小ビデオ持続時間が満たされているので、OSはビデオをappに返す。いくつかの実施形態では、ビデオは、捕捉が完了した後に単一のユニットとして受信されるのではなく、ビデオ捕捉中にappによって連続してまたは反復して受信することができることが理解され得る。次に、appは、ユーザ・インタフェース上にビデオを表示し、ここでOSは媒介としての役割を果たす。返されたビデオは、捕捉の完了に永続性ストレージに記憶することができ、または代替的に、永続性ストレージへの転送は、ユーザが、ビデオが記憶されるべきであることを示すまで遅延されてもよい。
図8Aは、最小ビデオ持続時間を満たすのに不十分な長さの押下を受信する視覚媒体捕捉システム100のための第1のインタラクション図を示す。
図8に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが押下閾値よりも長い間係合状態にあったと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappに押下が実行されていることを報告する。したがって、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理される。OSは、押下の解放をappに報告する。したがって、appは、ビデオの捕捉を終了するようにOSに指示する。最小ビデオ持続時間が満たされていないので、OSはビデオをappに返すことができない。ビデオを記憶することができないので、appは写真を捕捉するようにOSに指示する。OSは、これに応答して、写真を返す。次に、appは、ユーザ・インタフェース上で写真を表示し、ここでOSは媒介としての役割を果たす。
図8Bは、最小ビデオ持続時間を満たすのに不十分な長さの押下を受信する視覚媒体捕捉システム100のための第2のインタラクション図を示す。
図8に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理される。OSは、タップと押下とを区別するための設定された長さを有する押下閾値を用いてタイマを作動させる。ユーザ・インタフェースは、捕捉アイコンが押下閾値よりも長い間係合状態にあったと判断する。結果として、OSは、視覚媒体アプリケーション120に対応し得るappに押下が実行されていることを報告する。したがって、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理される。OSは、押下の解放をappに報告する。したがって、appは、ビデオの捕捉を終了するようにOSに指示する。最小ビデオ持続時間が満たされていないので、OSはビデオをappに返すことができない。ビデオを記憶することができないので、appはライブ・ビデオ・プレビューを返すようにOSに指示する。
図9は、図1の視覚媒体捕捉システム100のための第4の論理フロー900の実施形態を示す。論理フロー900は、本明細書において説明される1つまたは複数の実施形態によって実行される動作のうちのいくつかまたは全てを表すことができる。
図9に示す例示される実施形態において、論理フロー900は、ブロック902において、捕捉アイコン上のユーザタッチを受信することができる。例えば、ユーザタッチは、触覚的係合状態信号において受信することができる。これに応答して、論理フロー900は、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動することができる。
論理フロー900は、ブロック904において写真を捕捉することができる。写真を捕捉することは、カメラ170を写真捕捉モードに入るように構成し、次にカメラ170に写真を撮るように命令することを含むことができる。写真は、未来の使用のために記憶することができる。
論理フロー900は、ブロック906においてビデオ捕捉を開始することができる。写真が捕捉され記憶されると、ユーザは、最初の触覚的係合状態の時点におけるカメラの前のシーンの記録を有し、ここで、ユーザがビデオ捕捉を示し可能にするために十分な持続時間にわたって触覚的係合状態を継続する可能性に対応するように、ビデオが捕捉されてもよい。ビデオ捕捉を開始することは、カメラ170を写真捕捉モードに入れるように構成することを含むことができる。カメラ170は、写真が撮られる前はビデオ捕捉モードにあった場合があるが、ライブプレビューを提供するために、写真を撮るための写真捕捉モードに切り替えられている場合がある。したがって、カメラ170は、ビデオを捕捉するためのビデオ捕捉モードに戻るように切り替えられなくてはならない場合がある。
論理フロー900は、ビデオ閾値に達する前に、ユーザがタッチを解放した(触覚的係合状態を終了した)か否かを判断することができる。いくつかの実施形態では、ビデオ閾値は、タップと押下とを区別する予め設定された第1の持続時間に対応してもよく、最小ビデオ長に達したか否かを追跡する予め設定された第3の持続時間に対応してもよく、これらのユーザ・インタフェース概念の組み合わせに対応してもよく、または完全に別個の時間閾値であってもよい。ビデオ閾値に達したか否かは、ビデオ記録の開始時(特に、ビデオ閾値が最小ビデオ持続時間に対応する場合)、または触覚的係合状態の検出時(特に、ビデオ閾値が押下閾値に対応する場合)に始動される第4のタイマに従って判断することができ、第4のタイマは、ビデオ閾値に対応する予め設定された第4の持続時間後に満了するように構成される。したがって、ビデオ閾値に達したと判断することは、第4のタイマが満了したと判断することによって行うことができる。ユーザが、ビデオ閾値に達する前にタッチを解放した場合、論理フロー900はブロック910に進むことができる。そうでない場合、論理フロー900はブロック914に進むことができる。
論理フロー900は、ブロック910においてビデオ捕捉を終了することができる。この事例では、ビデオ捕捉を終了することは、オペレーティング・システムまたはビデオ捕捉ライブラリに、ビデオが記憶されるべきでないことを示すことに対応することができる。ビデオ閾値が最小ビデオ持続時間に対応するか、または最小ビデオ持続時間よりも短い場合、視覚媒体アプリケーション120は、いかなる記録されたビデオを受信するオプションも有しない場合がある。
論理フロー900は、ブロック912において、写真を表示することができる。
論理フロー900は、ブロック914において、ユーザが最大ビデオ持続時間の前にタッチを解放したか否かを判断することができる。ユーザがタッチを解放したと判断することは、タッチ・スクリーン110から触覚的係合状態解除信号を受信することに対応することができる。最大ビデオ持続時間は、例えば、インターネットベースの視覚媒体共有サービスによってサポートされる最大ビデオ持続時間に対応することができる。最大ビデオ持続時間は、ソーシャル・ネットワーキング・サービスを通じて共有するための短い個人間のビデオの記録に適した8秒、10秒または他の持続時間とすることができる。ユーザが最大ビデオ持続時間前に解除した場合、論理フロー900はブロック916に続くことができる。そうでない場合、論理フロー900はブロック920に進むことができる。
最大ビデオ持続時間に達したか否かは、ビデオとしての視覚媒体175の捕捉の開始時に第2のタイマを始動することによって判断することができる。第2のタイマは、予め設定された第2の持続時間後に満了するように構成される。したがって、最大ビデオ持続時間に達したという判断は、第2のタイマが満了したという判断によって実行することができる。したがって、論理フロー900は、第2のタイマが満了したという判断に応答して、視覚媒体175の捕捉を完了することができる。
論理フロー900は、ブロック916において、解放時にビデオ捕捉を終了し、次にブロック918に進むことができる。
論理フロー900は、ブロック918において捕捉されたビデオを表示することができる。いくつかの実施形態では、論理フロー900は、写真およびビデオの双方を表示することができるか、表示に供することができる。したがって、ユーザは、写真とビデオのうちの一方または双方を記憶し、他のユーザに送信し、かつ/または視覚媒体共有サービスもしくはソーシャル・ネットワーキング・サービスのためのネットワーク・サーバにアップロードすることを選択することができる。
論理フロー900は、ブロック920において、最大ビデオ持続時間でビデオ捕捉を終了し、次にブロック918に進んで捕捉されたビデオを表示することができる。
図10は、写真およびビデオの双方を捕捉するのに不十分な長さの押下を受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図10に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理され、appに報告される。したがって、appは、写真を捕捉するようにOSに指示する。OSは、これに応答して、写真を返す。写真がappによって受信されると、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理され、appに報告される。ビデオ閾値にまだ達していないので、したがって、appは、ビデオをappに返すことなくビデオ捕捉を終了するようにOSに指示する。次に、appはユーザ・インタフェース上に写真を表示し、ここでOSは媒介としての役割を果たす。
いくつかの実施形態では、ビデオは、例えば、ビデオを捕捉しながらライブ表示するために、捕捉中にappに転送することができる。いくつかの実施形態では、ビデオを捕捉しながらライブ表示することは、appによって指定される画面のエリア等において、OSによって提供することができる。任意の実施形態において、ビデオは、最初に短期メモリ、例えば、ダイナミックランダムアクセスメモリ(DRAM)等の揮発性の形態のメモリに捕捉することができる。ビデオは、捕捉の終了時に、ハードディスクまたはフラッシュ・メモリ等の永久、永続、または他の形態の拡張された持続時間のストレージにのみ転送することができる。短期メモリに捕捉されているビデオと、長期ストレージに記憶されているビデオとを区別することができる。したがって、ビデオ閾値に達することなく捕捉アイコンが解放される場合、ビデオを捕捉することはできるが記憶することができない。
図11は、写真およびビデオの双方を捕捉するのに十分な長さの押下を受信する視覚媒体捕捉システム100のためのインタラクション図を示す。
図11に示すように、ユーザ・インタフェースは、捕捉アイコンが係合状態にあることを受信し、これはオペレーティング・システム(OS)によって処理され、appに報告される。したがって、appは、写真を捕捉するようにOSに指示する。OSは、これに応答して、写真を返す。写真がappによって受信されると、appは、ビデオの捕捉を開始するようにOSに指示する。
ユーザ・インタフェースは、捕捉アイコンが解放されていることを受信し、これはOSによって処理され、appに報告される。ビデオ閾値に達しているので、appは、ビデオ捕捉を終了し、appにビデオを返すようにOSに指示する。次に、appは、ユーザ・インタフェース上でビデオを表示し、ここでOSは媒介としての役割を果たす。
示すように、図11の例示では、最大ビデオ持続時間に達していない。最大ビデオ持続時間に達している場合、ビデオ記録は終了し、ビデオが表示されることが理解され得る。逆に、図11の例示では最小ビデオ持続時間が示されていないが、最小ビデオ持続時間に関係する説明された技法を、即時に写真捕捉を行い、その後ビデオ捕捉を行うための技法と組み合わせることができる。例えば、いくつかの実施形態では、ビデオ閾値は、最小ビデオ持続時間と長さを等しくすることができる。
上記で検討したように、短期メモリに捕捉されているビデオと、フラッシュ・メモリ等の長期ストレージに記憶されているビデオとを区別することができる。したがって、ビデオ閾値に達した後に捕捉アイコンが解放される場合、ビデオの捕捉を完結することができ、次に、ビデオを短期メモリから長期ストレージに転送することによって、完全なビデオを記憶することができる。特に、ビデオは、第1の触覚的接触信号(触覚的接触係合状態信号等)の後の指定された期間後に生じる第2の触覚的接触信号(触覚的接触解放信号等)に基づいて記憶することができる。
論考されるように、写真およびビデオの双方を捕捉するのに十分に長い押下を受信する視覚媒体捕捉システム100の変形形態も同様に実施することができる。
1つの実施形態では、例えば、非一時的コンピュータ可読記憶媒体は、ディスプレイから触覚的接触信号を処理し、第1の触覚的接触信号に基づいて写真を記録し、第2の触覚的接触信号に基づいてビデオを記憶するための実行可能な命令を含むことができ、第2の触覚的接触信号は、第1の触覚的接触信号の後の指定された期間後に生じる触覚的接触解放信号である。ビデオを記憶することは、ビデオを短期メモリから長期メモリに転送することに対応することができる。
1つの実施形態において、例えば、非一時的コンピュータ可読記憶媒体は、ディスプレイからの触覚的接触信号を処理するための実行可能な命令を含むことができる。実行可能な命令は、第1の触覚的接触信号に基づいて、写真モードにおいて写真を記録することができる。実行可能な命令は、第2の触覚的接触信号に基づいてビデオを記憶することができる。第2の触覚的接触信号は、第1の触覚的接触信号の後の指定された期間後に生じる触覚的接触解放信号である。
第1の触覚的接触信号は、ディスプレイ上に表示される捕捉アイコンに対応するディスプレイの部分において受信することができる。触覚的接触解放信号である第2の触覚的接触信号は、第1の触覚的接触信号と第2の触覚的接触信号との間で触覚的接触が維持されることを示すことができる。この触覚的接触は、表示された捕捉アイコンに対応するディスプレイの部分において維持することができる。いくつかの実施形態では、ユーザは、捕捉中、捕捉アイコンに対応するよりも広いエリアに触覚的接触をそらすことを許容され得る。これは、例えば、ターゲットを捕捉フレーム内に保持するためにユーザが捕捉デバイスを動かすときに生じる場合があるような、捕捉デバイス(例えば、スマートフォン)またはユーザの手を捕捉中にシフトすることに起因した、ビデオ記録の不慮の終了を回避する役割を果たすことができる。このより広いエリアは、捕捉アイコンの周りのディスプレイの指定されたエリアであり得る。いくつかの実施形態では、捕捉アイコンにおける触覚的接触の中断は、触覚的接触解放信号とみなされる場合があり、結果として、触覚的接触が捕捉アイコンのエリア外で潜在的に継続しているにもかかわらず、記録が終了する。いくつかの実施形態では、捕捉アイコンまたはより広いエリアのいずれかにおける触覚的接触の中断も触覚的接触解放信号とみなされる場合があり、結果として、触覚的接触が捕捉アイコンのエリア外およびより広いエリア外で潜在的に継続しているにも関わらず、記録が終了する。したがって、触覚的接触の解放または触覚的係合状態解除は、タッチセンサ式スクリーンの表面全体に関してではなく、スクリーンの特定のエリアに従って特に判断され得る。
1つの実施形態では、例えば、電子デバイスは、写真モードおよびビデオモードにおいて視覚媒体を捕捉するための1つまたは複数のデジタル画像センサを含むことができる。電子デバイスは、デジタル画像センサからの視覚媒体を表すためのディスプレイを更に備えることができる。電子デバイスは、ディスプレイ上の触覚的接触係合状態、触覚的接触の持続性、および触覚的接触解放を特定するためのタッチ・コントローラを更に備えることができる。電子デバイスは、触覚的接触係合状態と触覚的接触解放との間の時間間隔の評価に基づいて、写真またはビデオとして視覚媒体を交互に記憶するための視覚媒体捕捉コントローラを更に備えることができる。
いくつかの実施形態では、電子デバイスは、照明要素を備えることができる。照明要素は、写真またはビデオの対象物の増大された可視性をもたらすために、光が少ない状況において選択的に利用することができる。照明要素は、写真固有モードおよびビデオ固有モードの双方で動作することができる場合がある。写真固有モードでは、照明要素は、ほぼ瞬時のフラッシュとして動作することができる。ビデオ固有モードでは、照明要素は、ビデオの全持続時間にわたって照明を提供する維持された光源として動作することができる。代替的に、いくつかの実施形態では、写真捕捉およびビデオ捕捉のために別個の照明要素を用いることができる。したがって、写真固有モードにおいて照明要素を作動させることは、写真固有の照明要素を作動させることを含むことができる。同様に、ビデオ固有モードにおいて照明要素を作動させることは、ビデオ固有の照明要素を作動させることを含むことができる。視覚媒体捕捉コンポーネント140は、写真を記録する間、写真固有モードにおいて照明要素を作動させるように動作可能であり得る。視覚媒体捕捉コンポーネント140は、ビデオを記録する間、ビデオ固有モードにおいて照明要素を作動させるように動作可能であり得る。照明要素を用いるか否かの判定は、捕捉要素によって知覚されるような照明レベルに基づいて、およびユーザ選択に従って決定することができることが理解され得る。
ディスプレイは、捕捉された写真またはビデオをユーザに表示することができる。いくつかの実施形態では、ディスプレイは、写真およびビデオの双方を閲覧に利用可能にし、ユーザが記憶および/または共有のために一方または双方を選択することを可能にすることができる。例えば、写真およびビデオは、表示を共有する分割画面ビューで表示することができ、ユーザは、この分割画面ビューにおいて、タグ付け、記憶および共有のために、一方または双方を選択することができる。代替的に、写真のみが記憶される場合、ビデオは決して捕捉も破棄もされず、写真のみを表示することができる。写真およびビデオの双方が捕捉される場合、ビデオを優先的に表示することができるが、ユーザは、ビデオの表示上に重ね合わされた写真アイコンを選択すること等によって、閲覧のための写真を選択することができる。
これらは、写真およびビデオの双方を捕捉するのに十分な長さの押下を受信する視覚媒体捕捉システム100のいくつかの例示的な変形形態にすぎず、他のものも同様に実施され得る。実施形態はこの文脈に限定されない。
図12は、図1の視覚媒体捕捉システム100のためのユーザ・インタフェースを表示するスマートフォン・デバイス1200の実施形態を示す。
図12に示すように、スマートフォン・デバイス1200は、カメラ170によって受信されている、シーンのライブ・ビデオ・プレビュー、すなわち進行中の稲妻を伴った嵐を表示している。シーンは、スマートフォン・デバイスのタッチ・スクリーン110上に表示されている。ユーザ・インタフェースは、円形の視覚媒体捕捉アイコンとして表示される、ユーザ・インタフェース要素1210を含む。ライブ・ビデオ・プレビューは、視覚媒体アプリケーション120が開かれるときの標準初期表示、および写真またはビデオが捕捉され、ユーザがこれを吟味し、タグ付けし、かつ/または送信し終えたときに視覚媒体アプリケーション120が戻るデフォルト表示の双方とすることができる。
ユーザ・インタフェース要素1210がユーザによってタッチされる場合、これはタッチ・スクリーン110によって登録され、触覚信号115として視覚媒体アプリケーション120に報告される。ユーザ・インタフェース要素1210とのユーザの接触の持続時間に応じて、写真を捕捉および記憶することができるか、ビデオを捕捉および記憶することができるか、または写真およびビデオの双方を捕捉および記憶することができる。
ユーザ・インタフェース要素1210は、写真および/またはビデオの捕捉中にユーザにフィードバックを提供するように変更することができる。例えば、ユーザ・インタフェース要素1210は、第1のタイマ、第2のタイマ、第3のタイマおよびビデオ閾値のうちの任意のもの、いくつか、または全ての進行状況または残り時間を示すことができる。ユーザ・インタフェース要素1210は、ビデオ捕捉が進行中であることを示すように変更することができる。代替的にまたは更に、他のユーザ・インタフェース要素を導入して、捕捉モード、およびタイマのうちの任意のものの進行状況またはビデオ閾値に向けた進行状況を示すことができる。
いくつかの実施形態では、ユーザは、接触するタッチ・スクリーン110のエリアの少なくとも一部分に、ユーザ・インタフェース要素1210によってカバーされている画面のエリアを含めるように要求される場合がある。一方、タッチ・スクリーン110とのユーザの接触は、捕捉中にユーザ・インタフェース要素1210からそれることを許容される場合がある。この許容は、例えば、ユーザの接触が初期接触エリアの周りのエリア内の任意の場所にそれることを許容することによって、ユーザ・インタフェース要素1210とのユーザの初期接触エリアに対して定義されてもよい。この許容は、例えば、ユーザの接触がユーザ・インタフェース要素1210の周りの拡張された領域内に任意の場所にそれることを許容することによって、ユーザ・インタフェース要素1210のみに対し相対的に定義されてもよい。
タッチ・スクリーン110上に追加のユーザ・インタフェース要素を表示することができることが理解され得る。例えば、照明モードの選択を可能にするためのアイコンを表示することができ、この選択は、捕捉中に追加の照明が常に用いられるという選択、捕捉中に追加の照明が決して用いられないという選択、または追加の照明が、捕捉デバイスが有利であると判断する場合にのみ用いられるという選択である。捕捉デバイスは、フラッシュまたは他の照明要素の自動構成のための既知の技法のうちの任意のものを用いて、追加の照明が有利であるか否かを判断することができる。
図13は、集中型システム1300のブロック図を示す。集中型システム1300は、完全に単一のデバイス1320内にあるような単一のコンピューティング・エンティティにおいて、視覚媒体捕捉システム100のための構造および/または動作のうちのいくつかまたは全てを実施することができる。
デバイス1320は、視覚媒体捕捉システム100のための情報を受信、処理および送信することが可能な任意の電子デバイスを含むことができる。電子デバイスの例は、限定ではないが、ウルトラ・モバイル・デバイス、モバイル・デバイス、携帯情報端末(PDA)、モバイル・コンピューティング・デバイス、スマートフォン、電話、デジタル電話、携帯電話、電子書籍リーダ、ハンドセット、ワンウエイ・ページャ、ツーウエイ・ページャ、メッセージング・デバイス、コンピュータ、パーソナル・コンピュータ(PC)、デスクトップ・コンピュータ、ラップトップ・コンピュータ、ノートブック・コンピュータ、ネットブック・コンピュータ、ハンドヘルド・コンピュータ、タブレット・コンピュータ、サーバ、サーバ・アレイもしくはサーバ・ファーム、ウェブ・サーバ、ネットワーク・サーバ、インターネット・サーバ、ワークステーション、ミニコンピュータ、メインフレーム・コンピュータ、スーパーコンピュータ、ネットワーク機器、ウェブ機器、分散コンピューティング・システム、マルチプロセッサ・システム、プロセッサベースのシステム、家庭用電子機器、プログラム可能な家庭用電子機器、ゲーム・デバイス、テレビ、デジタル・テレビ、セット・トップ・ボックス、無線アクセス・ポイント、基地局、加入者局、モバイル加入者センター、無線ネットワーク・コントローラ、ルータ、ハブ、ゲートウェイ、ブリッジ、スイッチ、マシン、またはそれらの組み合わせを含むことができる。実施形態はこの文脈に限定されない。
デバイス1320は、処理コンポーネント1330を用いて視覚媒体捕捉システム100のための処理動作またはロジックを実行することができる。処理コンポーネント1330は、様々なハードウェア要素、ソフトウェア要素、または双方の組み合わせを含むことができる。ハードウェア要素の例は、デバイス、論理デバイス、コンポーネント、プロセッサ、マイクロプロセッサ、回路、プロセッサ回路、回路素子(例えば、トランジスタ、レジスタ、キャパシタ、インダクタ等)、集積回路、特定用途向け集積回路(ASIC)、プログラマブル・ロジック・デバイス(PLD)、デジタル・シグナル・プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、メモリ・ユニット、論理ゲート、レジスタ、半導体デバイス、チップ、マイクロチップ、チップ・セット等を含むことができる。ソフトウェア要素の例は、ソフトウェア・コンポーネント、プログラム、アプリケーション、コンピュータ・プログラム、アプリケーション・プログラム、システム・プログラム、ソフトウェア開発プログラム、マシン・プログラム、オペレーティング・システム・ソフトウェア、ミドルウェア、ファームウェア、ソフトウェア・モジュール、ルーチン、サブルーチン、機能、方法、プロシージャ、ソフトウェア・インタフェース、アプリケーション・プログラム・インタフェース(API)、命令セット、コンピューティング・コード、コンピュータ・コード、コード・セグメント、コンピュータ・コード・セグメント、単語、値、シンボル、またはそれらの任意の組み合わせを含むことができる。実施形態がハードウェア要素を用いて実施されるか、かつ/またはソフトウェア要素を用いて実施されるかを判断することは、所望の計算速度、パワー・レベル、耐熱性、処理サイクル・バジェット、入力データ・レート、出力データ・レート、メモリ・リソース、データ・バス速度および他の設計または性能の制約等の任意の数の要因に従って、所与の実施態様にとって望ましいとおりに変動することができる。
デバイス1320は、通信コンポーネント1340を用いて視覚媒体捕捉システム100の通信動作またはロジックを実行することができる。通信コンポーネント1340は、パケット交換ネットワーク(例えば、インターネット等の公衆ネットワーク、社内イントラネット等のプライベート・ネットワーク等)、回路交換網(例えば、公衆交換電話網)、またはパケット交換ネットワークおよび回路交換網の(適切なゲートウェイおよびトランスレータを用いた)組み合わせ等と共に用いるのに適した技法等の、任意のよく知られた通信技法およびプロトコルを実施することができる。通信コンポーネント1340は、1つまたは複数の通信インタフェース、ネットワーク・インタフェース、ネットワーク・インターフェース・カード(NIC)、無線通信装置、ワイヤレストランスミッタ/ワイヤレスレシーバ(トランシーバ)、有線および/または無線通信媒体、物理的コネクタ等の様々なタイプの標準的な通信要素を含むことができる。限定ではないが、例として、通信媒体1312、1342は、有線通信媒体および無線通信媒体を含む。有線通信媒体の例は、有線、ケーブル、金属導線、プリント回路基盤(PCB)、バックプレーン、スイッチ・ファブリック、半導体材料、ツイスト・ペア線、同軸ケーブル、光ファイバ、伝搬信号等を含むことができる。無線通信媒体の例は、音響、無線周波数(RF)スペクトル、赤外線および他の無線媒体を含むことができる。
デバイス1320は、それぞれ通信信号1314、1344を用いて、通信コンポーネント1340を介して、それぞれ通信媒体1312、1342により他のデバイス1310、1350と通信することができる。デバイス1310、1350は、所与の実施態様にとって望ましいとおりに、デバイス1320の内部または外部とすることができる。例えば、デバイス1310は、視覚媒体アプリケーション120の第2のユーザによって用いられる、第2のスマートフォン等の第2のユーザデバイスに対応することができる。媒体1312を介して送信される信号1314は、デバイス1320からデバイス1310のユーザへの視覚媒体175の送信に対応することができる。別の例では、デバイス1350は、視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスによって運用することができるようなネットワーク・サーバ・デバイスに対応することができる。媒体1342を介して送信される信号1344は、視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスの別のユーザによる記憶および場合によっては取出しのための、デバイス1320からデバイス1350への視覚媒体175の送信に対応することができる。
図14は、分散システム1400のブロック図を示す。分散システム1400は、複数のコンピューティング・エンティティにわたって視覚媒体捕捉システム100の構造および/または動作の部分を分散させることができる。分散システム1400の例は、限定ではないが、クライアント−サーバアーキテクチャ、3層アーキテクチャ、N層アーキテクチャ、密結合またはクラスタ化アーキテクチャ、ピア・ツー・ピアアーキテクチャ、マスタ−スレーブアーキテクチャ、共有データベースアーキテクチャ、および他のタイプの分散システムを含むことができる。実施形態はこの文脈に限定されない。
分散システム1400は、クライアント・デバイス1410と、サーバ・デバイス1450とを備えることができる。通常、クライアント・デバイス1410およびサーバ・デバイス1450は、図13を参照して説明されたようなクライアント・デバイス820と同じであるかまたは同様であり得る。例えば、クライアント・デバイス1410およびサーバシステム1450はそれぞれ、処理コンポーネント1430および通信コンポーネント1440を備えることができる。これらはそれぞれ、図13を参照して説明されたような処理コンポーネント1330および通信コンポーネント1340と同じであるかまたは同様である。別の例では、デバイス1410、1450は、通信コンポーネント1440を介して通信信号1414を用いて通信媒体1412により通信することができる。
クライアント・デバイス1410は、記載の実施形態に従って様々な方法を実行するように動作する1つまたは複数のクライアント・プログラムを含むかまたは用いることができる。1つの実施形態では、例えば、クライアント・デバイス1410は視覚媒体アプリケーション120を実施することができる。
サーバ・デバイス1450は、記載の実施形態に従って様々な方法を実行するように動作する1つまたは複数のサーバ・プログラムを含むかまたは用いることができる。1つの実施形態では、例えば、サーバ・デバイス1450は視覚媒体サーバ1460を実装することができる。
視覚媒体サーバ1460は、視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスのオペレータによって提供されるネットワーク・サーバに対応することができる。媒体1412を介して送信される信号1414は、クライアント・デバイス1410からサーバ・デバイス1450への視覚媒体175の送信に対応することができる。視覚媒体サーバ1460は、視覚媒体175を受信し、クライアント・デバイス1410のユーザのためのユーザアカウントに関連付けて視覚媒体175を記憶するように動作することができる。サーバ・デバイス1450上に記憶された視覚媒体175は、クライアント・デバイス1410のユーザによって決定されるような視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスの他のユーザにアクセス可能とすることができる。例えば、信号1414は、視覚媒体を取り出す権限を有する他のユーザのリストを含むことができる。信号141は、視覚媒体共有サービスまたはソーシャル・ネットワーキング・サービスによって、視覚媒体175が利用可能であることが通知される他のユーザのリストを含むことができる。視覚媒体サーバ1460は、通常、クライアント・デバイス1410およびその一般的なサービスのユーザの代わりに、視覚媒体175を受信、記憶、送信および他の形で管理するように動作可能であり得る。
開示されるアーキテクチャの新規の態様を実行するための例示的な方法を表す1組のフローチャートが本明細書に含まれる。説明を簡単にするために、例えば、フローチャートまたはフロー図の形態で本明細書に示されている1つまたは複数の方法が、一連の動作として示され、説明されているが、いくつかの動作は、それらの動作に応じて、本明細書に示され説明されるものと異なる順序でおよび/または他の動作と同時に行われる場合があるので、本方法は動作の順序によって限定されないことが理解および認識され得る。例えば、当業者であれば、方法は、代替的に、状態図等において一連の相関する状態またはイベントとして表され得ることが理解および認識され得る。更に、方法において例示される全ての動作が新規の実施態様に必要であるわけではない場合がある。
図15は、上記で記載したような様々な実施形態を実施するのに適した例示的なコンピューティング・アーキテクチャ1500の実施形態を示す。1つの実施形態において、コンピューティング・アーキテクチャ1500は、電子デバイスからなるか、または電子デバイスの一部として実装することができる。電子デバイスの例は、中でも、図8を参照して説明したものを含むことができる。実施形態はこの文脈に限定されない。
本出願において用いられるとき、「システム」および「コンポーネント」という語は、ハードウェア、ハードウェアおよびソフトウェアの組み合わせ、ソフトウェア、または実行中のソフトウェアのいずれかである、コンピュータに関係したエンティティを指すことを意図され、それらの例が、例示的なコンピューティング・アーキテクチャ1500によって提供される。例えば、コンポーネントは、限定ではないが、プロセッサにおいて実行されるプロセス、プロセッサ、ハードディスク・ドライブ、(光学および/または磁気ストレージ媒体の)マルチストレージ・ドライブ、オブジェクト、実行ファイル、実行スレッド、プログラムおよび/またはコンピュータであり得る。例示のために、サーバ上で実行されるアプリケーションおよびサーバの双方がコンポーネントであり得る。1つまたは複数のコンポーネントがプロセスおよび/または実行スレッド内に常駐することができ、コンポーネントは、1つのコンピュータ上に局在することができ、および/または2つ以上のコンピュータ間で分散され得る。更に、コンポーネントは、動作を協調させるように、様々なタイプの通信媒体によって互いに通信可能に結合され得る。協調は、情報の一方向または双方向の交換を含むことができる。例えば、コンポーネントは、通信媒体により通信される信号の形態で情報を通信することができる。情報は、様々な信号線に割り当てられる信号として実施され得る。そのような割り当てにおいて、各メッセージは信号である。一方、更なる実施形態は、代替的にデータ・メッセージを用いることができる。そのようなデータ・メッセージは、様々な接続にわたって送信され得る。例示的な接続は、パラレル・インタフェース、シリアル・インタフェースおよびバス・インタフェースを含む。
コンピューティング・アーキテクチャ1500は、1つまたは複数のプロセッサ、マルチコア・プロセッサ、コプロセッサ、メモリ・ユニット、チップ・セット、コントローラ、周辺機器、インタフェース、オシレータ、タイミング・デバイス、ビデオ・カード、オーディオ・カード、マルチメディア入出力(I/O)コンポーネント、電源等の様々な一般的なコンピューティング要素を含む。しかしながら、実施形態は、コンピューティング・アーキテクチャ1500による実施に限定されない。
図15に示すように、コンピューティング・アーキテクチャ1500は、処理ユニット1504、システム・メモリ1506およびシステム・バス1508を備える。処理ユニット1504は、限定ではないが、AMD(登録商標)プロセッサ、Athlon(登録商標)プロセッサ、Duron(登録商標)プロセッサおよびOpteron(登録商標)プロセッサ;ARM(登録商標)のアプリケーションプロセッサ、組込み型プロセッサおよびセキュアプロセッサ;IBM(登録商標)およびMotorola(登録商標)のDragonBall(登録商標)プロセッサおよびPowerPC(登録商標)プロセッサ;IBMおよびSony(登録商標)のセル・プロセッサ;Intel(登録商標)のCeleron(登録商標)プロセッサ、Core(2)Duo(登録商標)プロセッサ、Itanium(登録商標)プロセッサ、Pentium(登録商標)プロセッサ、Xeon(登録商標)プロセッサおよびXScale(登録商標)プロセッサ;ならびに同様なプロセッサを含む様々な市販のプロセッサのうちの任意のものであり得る。デュアル・マイクロプロセッサ、マルチコア・プロセッサおよび他のマルチプロセッサアーキテクチャも処理ユニット1504として用いられることが可能である。
システム・バス1508は、限定ではないがシステム・メモリ1506を含むシステム・コンポーネントのためのインタフェースを処理ユニット1504に提供する。システム・バス1508は、多岐にわたる市販のバス・アーキテクチャのうちの任意のものを用いてメモリ・バス(メモリ・コントローラを有するかまたは有しない)、周辺バスおよびローカルバスに更に相互接続することができるいくつかのタイプのバス構造のうちの任意のものとすることができる。インタフェース・アダプタは、スロット・アーキテクチャを介してシステム・バス1508に接続することができる。例示的なスロット・アーキテクチャは、限定ではないが、アクセラレーテッド・グラフィックス・ポート(AGP)、カード・バス、(拡張)業界標準アーキテクチャ((E)ISA)、マイクロ・チャネル・アーキテクチャ(MCA)、NuBUS、周辺コンポーネント相互接続(拡張)(PCI(X))、PCIエクスプレス、パーソナル・コンピュータ・メモリ・カード国際組織(PCMCIA)等を含むことができる。
コンピューティング・アーキテクチャ1500は、様々な製造品を含むかまたは実装することができる。製造品は、ロジックを記憶するためのコンピュータ可読ストレージ媒体を含むことができる。コンピュータ可読ストレージ媒体の例は、揮発性メモリまたは不揮発性メモリ、取外し可能または非取外し可能メモリ、消去可能または非消去可能メモリ、書き込み可能または書き換え可能メモリ等を含む、電子データを記憶することが可能な任意の有形媒体を含むことができる。ロジックの例は、ソース・コード、コンパイルされたコード、解釈実行されたコード、実行可能コード、スタティック・コード、ダイナミック・コード、オブジェクト指向コード、視覚コード等の任意の適切なタイプのコードを用いて実施される実行可能なコンピュータ・プログラム命令を含むことができる。実施形態はまた、1つまたは複数のプロセッサによって読出しおよび実行されて、本明細書に記載の動作の実行を可能にすることができる、非一時的コンピュータ可読媒体に含まれるかまたは非一時的コンピュータ可読媒体上にある命令として少なくとも部分的に実施されることが可能である。
システム・メモリ1506は、読出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、ダブル・データ・レートDRAM(DDRAM)、同期DRAM(SDRAM)、スタティックRAM(SRAM)、プログラマブルROM(PROM)、消去可能なプログラマブルROM(EPROM)、電気的に消去可能なプログラマブルROM(EEPROM)、フラッシュ・メモリ、強誘電性ポリマ・メモリ等のポリマ・メモリ、オーボニック(ovonic)・メモリ、相変化または強誘電性メモリ、シリコン−酸化物−窒化物−酸化物−シリコン(SONOS)メモリ、磁気カードまたは光カード、独立ディスクの冗長アレイ(RAID)ドライブ等のデバイスのアレイ、ソリッド・ステート・メモリ・デバイス(例えば、USBメモリ、ソリッド・ステート・ドライブ(SSD)および情報を記憶するのに適した任意の他のタイプのストレージ媒体等の1つまたは複数の高速メモリ・ユニットの形態の様々なタイプのコンピュータ可読ストレージ媒体を含むことができる。図15に示す例示される実施形態では、システム・メモリ1506は、不揮発性メモリ1510および/または揮発性メモリ1512を含むことができる。基本入出力システム(BIOS)を不揮発性メモリ1510に記憶することができる。
コンピュータ1502は、内部(または外部)ハードディスク・ドライブ(HDD)1514、取外し可能な磁気ディスク1518に対し読出しまたは書込みを行うための磁気フロッピー(登録商標)・ディスク・ドライブ(FDD)1516、および取外し可能な光ディスク1522(例えば、CD−ROMまたはDVD)に対し読出しまたは書込みを行うための光ディスク・ドライブ1520を含む1つまたは複数の低速メモリの形態で様々なタイプのコンピュータ可読ストレージ媒体を備えることができる。HDD1514、FDD1516および光ディスク・ドライブ1520は、それぞれHDDインタフェース1524、FDDインタフェース1526、および光ドライブ・インタフェース1528によってシステム・バス1508に接続されることが可能である。外部ドライブ実装のためのHDDインタフェース1524は、ユニバーサル・シリアル・バス(USB)およびIEEE1394インタフェース技術のうちの少なくとも一方を含むことができる。
ドライブおよび関連するコンピュータ可読媒体は、データ、データ構造、コンピュータ実行可能命令等の揮発性ストレージおよび/または不揮発性ストレージを提供する。例えば、オペレーティング・システム1530、1つまたは複数のアプリケーション・プログラム1532、他のプログラム・モジュール1534およびプログラム・データ1536を含む複数のプログラム・モジュールがドライブおよびメモリ・ユニット1510、1512に記憶され得る。1つの実施形態では、1つまたは複数のアプリケーション・プログラム1532、他のプログラム・モジュール1534およびプログラム・データ1536は、例えば、視覚媒体捕捉システム100の様々なアプリケーションおよび/またはコンポーネントを含むことができる。
ユーザは、1つまたは複数の有線/無線入力デバイス、例えば、キーボード1538、およびマウス1540等のポインティング・デバイスを通じてコンピュータ1502にコマンドおよび情報を入力することができる。他の入力デバイスは、マイクロフォン、赤外線(IR)リモート・コントロール、無線周波数(RF)リモート・コントロール、ゲーム・パッド、スタイラス・ペン、カード・リーダ、ドングル、指紋リーダ、グローブ、グラフィック・タブレット、ジョイスティック、キーボード、網膜リーダ、タッチ・スクリーン(例えば、容量型、抵抗型等)、トラックボール、トラックパッド、センサ、スタイラス等を含むことができる。これらのおよび他の入力デバイスは、多くの場合に、システム・バス1508に結合された入力デバイス・インタフェース1542を通じて処理ユニット1504に接続されるが、パラレル・ポート、IEEE1394シリアル・ポート、ゲーム・ポート、USBポート、IRインタフェース等の他のインタフェースによって接続されてもよい。
モニタ1544または他のタイプの表示デバイスも、ビデオ・アダプタ1546等のインタフェースを介してシステム・バス1508に接続される。モニタ1544は、コンピュータ1502に対し内部または外部にあり得る。モニタ1544に加えて、コンピュータは通常、スピーカ、プリンタ等の他の周辺出力デバイスを備える。
コンピュータ1502は、リモート・コンピュータ1548等の1つまたは複数のリモート・コンピュータへの有線および/または無線通信を介して論理接続を用いてネットワーク化された環境において動作することができる。リモート・コンピュータ1548は、ワークステーション、サーバ・コンピュータ、ルータ、パーソナル・コンピュータ、ポータブル・コンピュータ、マイクロプロセッサに基づく娯楽機器、ピア・デバイス、または他の共通ネットワーク・ノードであり得、通常、コンピュータ1502について記載した要素のうちの多くまたは全てを備えるが、簡潔にするために、メモリ/ストレージ・デバイス1550のみが示されている。描かれる論理接続は、ローカル・エリア・ネットワーク(LAN)1552および/またはより大きなネットワーク、例えば広域ネットワーク(WAN)1554への有線/無線接続を含む。そのようなLANおよびWANネットワーキング環境は、事務所および会社において一般的であり、イントラネット等の、企業規模のコンピュータ・ネットワークを容易にする。これらは全て、グローバル通信ネットワーク、例えばインターネットに接続することができる。
LANネットワーキング環境において用いられるとき、コンピュータ1502は、有線および/または無線通信ネットワーク・インタフェースまたはアダプタ1556を通じてLAN1552に接続される。アダプタ1556は、LAN1552への有線および/または無線通信を容易にすることができる。LAN1552も、アダプタ1556の無線機能と通信するために配置された無線アクセス・ポイントを含むことができる。
WANネットワーキング環境において用いられるとき、コンピュータ1502は、モデム1558を含むことができるか、またはWAN1554の通信サーバに接続されるか、またはインターネット等によってWAN1554を介して、通信を確立する他の手段を有する。内部または外部の、有線および/または無線デバイスであり得るモデム1558は、入力デバイス・インタフェース1542を介してシステム・バス1508に接続する。ネットワーク化された環境では、コンピュータ1502について述べられたプログラム・モジュールまたはその一部分をリモート・メモリ/ストレージ・デバイス1550に記憶することができる。示されるネットワーク接続は例示であり、コンピュータ間で通信リンクを確立する他の手段が用いられてもよいことが理解され得る。
コンピュータ1502は、IEEE802系規格を用いて、無線通信(例えば、IEEE802.15オーバ・ザ・エアー変調技法)において動作可能に配置される無線デバイス等の、有線および無線デバイスまたはエンティティと通信するように動作可能である。これは、少なくとも、中でも、Wi−Fi(登録商標)(または無線フィデリティ)、WiMax(登録商標)およびBluetooth(登録商標)の無線通信技術を含む。このため、この通信は従来のネットワークと同じように予め定義された通信構造であり得るか、または、単に少なくとも2つの装置の間におけるアドホック通信であり得る。Wi−Fiネットワークは、安全で信頼性が高く高速なワイヤレス接続を提供するIEEE802.15x(a、b、g、n等)と称される無線技術を用いる。Wi−Fiネットワークはコンピュータを互いに、インターネットに、および有線ネットワーク(IEEE802.3関連の媒体および機能を用いる)に接続するのに用いられ得る。
図16は上記の様々な実施形態を実施するのに適した例示的な通信アーキテクチャ1600のブロック図を示す。この通信アーキテクチャ1600は、トランスミッタ、レシーバ、トランシーバ、無線通信装置、ネットワーク・インタフェース、ベースバンド・プロセッサ、アンテナ、増幅器、フィルタ、電源等の様々な一般的な通信要素を含む。しかしながら、本発明の実施形態は通信アーキテクチャ1600による実施に限定されない。
図16に示されるように、通信アーキテクチャ1600は1つまたは複数のクライアント1602およびサーバ1604を含む。クライアント1602はクライアント・デバイス910を実装することができる。サーバ1604はサーバ・デバイス950を実装することができる。クライアント1602およびサーバ1604は、1つまたは複数のそれぞれのクライアント・データ・ストア1608およびサーバ・データ・ストア1610に動作可能に接続されている。これらは、クッキーおよび/または関連付けられた文脈情報等のそれぞれのクライアント1602およびサーバ1604にローカルな情報を記憶するために利用されることが可能である。
クライアント1602およびサーバ1604は通信フレームワーク1606を用いて互いの間で情報を通信することができる。通信フレームワーク1606は任意の既知の通信技法およびプロトコルを実装することができる。通信フレームワーク1606は、パケット交換網(例えば、インターネット等の公衆ネットワーク、社内イントラネット等のプライベート・ネットワーク等)、回線交換網(例えば、公衆交換電話網)、またはパケット交換網と回線交換網との組み合わせ(適切なゲートウェイおよびトランスレータを備える)として実装されることが可能である。
通信フレームワーク1606は、通信ネットワークを受け入れ、通信ネットワークと通信し、通信ネットワークに接続するように構成される様々なネットワーク・インタフェースを実施することができる。ネットワーク・インタフェースは、特殊な形態の入出力インタフェースと見なされ得る。ネットワーク・インタフェースは、限定ではないが、直接接続、イーサネット(登録商標)(例えば、シック、シン、ツイスト・ペア10/100/1000BaseT等)、トークン・リング、無線ネットワーク・インタフェース、セルラ・ネットワーク・インタフェース、IEEE802.11a−xネットワーク・インタフェース、IEEE802.16ネットワーク・インタフェース、IEEE802.20ネットワーク・インタフェース等を含む接続プロトコルを用いることができる。更に、様々な通信ネットワークタイプと関わるために複数のネットワーク・インタフェースが用いられ得る。例えば、ブロードキャスト、マルチキャストおよびユニキャスト・ネットワークによる通信を可能にするために、複数のネットワーク・インタフェースが用いられることが可能である。処理要件がより高い速度およびより多くの容量を指示する場合、クライアント1602およびサーバ1604によって必要とされる通信帯域幅をプールし、負荷分散し、他の形で増大させるために、分散ネットワーク・コントローラ・アーキテクチャが同様に利用されることが可能である。通信ネットワークは、限定ではないが、直接相互接続、セキュア化されたカスタム接続、プライベート・ネットワーク(例えば、社内イントラネット)、公衆ネットワーク(例えば、インターネット)、パーソナル・エリア・ネットワーク(PAN)、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、インターネット上のノードとして動作しているミッション(OMNI:Operating Missions as Nodes on the Internet)、広域ネットワーク(WAN)、無線ネットワーク、セルラ・ネットワークおよび他の通信ネットワークを含む有線および/または無線ネットワークのうちの任意の1つおよびそれらの組み合わせであり得る。
いくつかの実施形態は、「1つの実施形態」または「実施形態」という表現と、それらの派生語とを用いて説明され得る。これらの用語は、実施形態に関して説明される特定の特徴、構造または特性が少なくとも1つの実施形態に含まれることを意味している。本明細書の様々な箇所に現れる「1つの実施形態において」というフレーズは、必ずしも全てが同じ実施形態を指しているわけではない。更に、いくつかの実施形態は、「結合された」および「接続された」という表現と、それらの派生語とを用いて説明され得る。これらの表現は必ずしも互いの同義語として意図されているわけではない。例えば、いくつかの実施形態は、「接続された」および/または「結合された」という表現を用いることにより、2つ以上の要素が直接物理的にまたは電気的に相互接触していることを示すように説明され得る。一方、「結合された」という用語は、2つ以上の要素が互いに直接接触していないが、それでも互いに協働または関係していることを意味する場合もある。
本明細書において用いられる表記および専門用語を全体的に参照すると、本明細書における詳細な説明は、コンピュータまたはコンピュータのネットワーク上で実行されるプログラム・プロシージャの観点で表され得る。これらの手続きに関する記載および表現は、当業者によって、当該技術分野における他の当業者に自身の研究の本質を最も効果的に伝えるために用いられている。
プロシージャとは、ここでは、また一般的に、所望の結果をもたらすオペレーションの首尾一貫したシーケンスであると考えられる。これらのオペレーションは、物理的量の物理的操作を必要とするものである。必須ではないが通例、これらの量は、記憶、転送、組合せ、比較および他の形で操作されることが可能な電気信号、磁気信号または光信号の形態をとる。場合によっては、主に一般的用法の理由から、これらの信号を、ビット、値、要素、シンボル、文字、語、数等と呼ぶことが好都合であることがわかっている。しかしながら、これらの用語および同様の用語は全て適切な物理的量に関連付けられ、これらの量に適用される好都合な指標にすぎないことに留意されたい。
更に、実行される操作は、多くの場合、人間のオペレータによって実行される知的オペレーションに一般的に関連付けられる、追加または比較等の用語で参照される。1つまたは複数の実施形態の一部を形成する、本明細書に説明されるオペレーションのいずれにおいても、人間のオペレータのそのような能力は必要でないか、ほとんどの場合に望ましくない。むしろ、オペレーションは機械オペレーションである。様々な実施形態のオペレーションを実行するための有用な機械は、汎用デジタル・コンピュータまたは同様のデバイスを含む。
様々な実施形態は、これらのオペレーションを実行するための装置またはシステムにも関する。この装置は、必要とされる目的のために特に構築されることが可能であるか、またはコンピュータに記憶されるコンピュータ・プログラムによって選択的にアクティベートまたは再構成される汎用コンピュータを含むことができる。本明細書において提示されるプロシージャは、特定のコンピュータまたは他の装置に本質的に関係しない。様々な汎用機械は、本明細書における教示に関連して書かれたプログラムと共に用いられ得るか、または、必要とされる方法ステップを実行する、より特殊な装置を構築することが好都合であるとわかる場合がある。様々なこれらの機械のために必要とされる構造は、与えられる説明から明らかとなり得る。
本開示の要約書は、読み手が技術的開示の本質を迅速に理解できるようにするために提供されていることを強調しておく。要約書は、特許請求の範囲の適用範囲または意味を解釈または限定することに用いられないという理解のもとに提出されている。更に、上記した「発明を実施するための形態」においては、開示を効率化するために様々な特徴がまとめて単一の実施形態にされていることがわかる。このような開示方法は、特許請求される実施形態が各請求項に明示的に記された特徴以外のものを必要とする意図を表していると解釈されるべきではない。むしろ、以下の特許請求の範囲が表しているように、本発明の主題は、開示されている単一の実施形態の全特徴よりも少ない特徴にある。このため、以下の特許請求の範囲は本明細書において「発明を実施するための形態」に組み込まれ、各請求項は独立した1つの実施形態に基づく。添付の特許請求の範囲において、「第1の」、「第2の」、「第3の」等の用語は単に指標として用いられており、それらの対象物に数的限定を課すことを意図したものではない。
上記で説明したものは、開示されているアーキテクチャの例を含む。当然ながら、コンポーネントおよび/または方法の全ての考え得る組み合わせを記載することは不可能であるが、当業者であれば、多くの更なる組み合わせおよび置き換えが可能であることを認識することができる。したがって、新規のアーキテクチャは、添付の特許請求の範囲の趣旨および適用範囲内にある全てのそのような変化、変更および変形を包含することが意図される。

Claims (18)

  1. コンピュータにより実行される方法であって、
    触覚的係合状態信号を受信すること、
    前記触覚的係合状態信号を受信することに応答して、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動すること、
    前記第1のタイマの満了前に触覚的係合状態解除信号が受信されるか否かに基づいて、写真捕捉モードおよびビデオ捕捉モードのうちの一方を捕捉モードとして選択すること、
    前記選択された捕捉モードを用いて視覚媒体を捕捉すること、
    予め設定された第3の持続時間後に満了するように構成された第3のタイマを、前記視覚媒体をビデオとして捕捉することの開始時に始動すること
    前記第1のタイマの満了後かつ前記第3のタイマの満了前に前記触覚的係合状態解除信号が受信された場合、前記第1のタイマの満了後かつ前記第3のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して、前記視覚媒体の捕捉を取り消すこと、
    を備える方法。
  2. 前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信すること、
    前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して、視覚媒体捕捉コンポーネントを前記写真捕捉モードで構成すること、
    前記視覚媒体を写真として捕捉すること、
    を備える請求項1に記載の方法。
  3. 前記第1のタイマが満了したと判断すること、
    前記第1のタイマが満了したと判断することに応答して、視覚媒体捕捉コンポーネントを前記ビデオ捕捉モードで構成すること、
    前記視覚媒体をビデオとして捕捉すること、
    を備える請求項1に記載の方法。
  4. 前記第1のタイマの満了後に前記触覚的係合状態解除信号を受信すること、
    前記触覚的係合状態解除信号を受信することに応答して前記視覚媒体の捕捉を完了すること、を備える請求項3に記載の方法。
  5. 予め設定された第2の持続時間後に満了するように構成された第2のタイマを、前記視覚媒体をビデオとして捕捉することの開始時に始動すること、
    前記第2のタイマが満了したと判断すること、
    前記第2のタイマが満了したと判断することに応答して、前記視覚媒体の捕捉を完了すること、を備える請求項3に記載の方法。
  6. 前記捕捉された視覚媒体を表示すること、
    前記捕捉された視覚媒体を送信するユーザコマンドを受信すること、
    前記受信したユーザコマンドに応答して、前記捕捉された視覚媒体をネットワーク・サーバにアップロードすること、を備える請求項1に記載の方法。
  7. デバイス上のプロセッサ回路と、
    触覚的係合状態信号を受信するように動作可能なタッチ・コントローラと、
    前記タッチ・コントローラによって第1のタイマの満了前に触覚的係合状態解除信号が受信されるか否かに基づいて写真捕捉モードおよびビデオ捕捉モードのうちの一方の捕捉モードで構成されるように動作可能な視覚媒体捕捉コンポーネントであって、前記第1のタイマは、前記触覚的係合状態信号を受信することに応答して始動し、予め設定された第1の持続時間後に満了するように構成されている、前記視覚媒体捕捉コンポーネントと、
    前記構成された捕捉モードにおいて前記視覚媒体捕捉コンポーネントによって捕捉された視覚媒体を記憶するように動作可能なストレージ・コンポーネントと、
    を備え
    前記タッチ・コントローラは、前記第1のタイマの満了後かつ第3のタイマの満了前に前記触覚的係合状態解除信号を受信するように更に動作可能であり、前記第3のタイマは、前記視覚媒体をビデオとして捕捉することの開始時に始動し、予め設定された第3の持続時間の後に満了するように構成されており、
    前記視覚媒体捕捉コンポーネントは、前記タッチ・コントローラが前記第3のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して、前記視覚媒体の捕捉を取り消すように更に動作可能である、装置。
  8. 前記タッチ・コントローラは、前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信するように更に動作可能であり、
    前記視覚媒体捕捉コンポーネントは、前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して前記写真捕捉モードで構成され、前記視覚媒体を写真として捕捉するように更に動作可能である、請求項に記載の装置。
  9. 前記視覚媒体捕捉コンポーネントは、前記第1のタイマが満了したと判断することに応答して前記ビデオ捕捉モードで構成され、前記視覚媒体をビデオとして捕捉するように更に動作可能である、請求項に記載の装置。
  10. 前記タッチ・コントローラは、前記第1のタイマの満了後に前記触覚的係合状態解除信号を受信するように更に動作可能であり、
    前記視覚媒体捕捉コンポーネントは、前記タッチ・コントローラが前記触覚的係合状態解除信号を受信することに応答して、前記視覚媒体の捕捉を完了するように更に動作可能である、請求項に記載の装置。
  11. 前記視覚媒体捕捉コンポーネントは、第2のタイマが満了したと判断することに応答して前記視覚媒体の捕捉を完了するように更に動作可能であり、前記第2のタイマは、前記視覚媒体をビデオとして捕捉することの開始時に始動し、予め設定された第2の持続時間後に満了するように構成されている、請求項に記載の装置。
  12. 前記捕捉された視覚媒体を表示するように動作可能な表示コンポーネントを更に備え、
    前記タッチ・コントローラは、前記捕捉された視覚媒体を送信するためのユーザコマンドを受信するように更に動作可能であり、
    前記ストレージ・コンポーネントは、前記受信したユーザコマンドに応答して、前記捕捉された視覚媒体をネットワーク・サーバにアップロードするように更に動作可能である、請求項に記載の装置。
  13. 実行されることによりシステムを動作させる命令を含む少なくとも1つのコンピュータ可読記憶媒体であって、
    触覚的係合状態信号を受信し、
    前記触覚的係合状態信号を受信することに応答して、予め設定された第1の持続時間後に満了するように構成された第1のタイマを始動させ、
    前記第1のタイマの満了前に触覚的係合状態解除信号が受信されるか否かに基づいて、写真捕捉モードおよびビデオ捕捉モードのうちの一方を捕捉モードとして選択し、
    前記選択された捕捉モードを用いて視覚媒体を捕捉し、
    予め設定された第3の持続時間後に満了するように構成された第3のタイマを、前記視覚媒体をビデオとして捕捉することの開始時に始動させ、
    前記第1のタイマの満了後かつ前記第3のタイマの満了前に前記触覚的係合状態解除信号を受信した場合、前記第1のタイマの満了後かつ前記第3のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して、前記視覚媒体の捕捉を取り消す
    ように前記システムを動作させる命令を含むコンピュータ可読記憶媒体。
  14. 前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信し、
    前記第1のタイマの満了前に前記触覚的係合状態解除信号を受信することに応答して、視覚媒体捕捉コンポーネントを前記写真捕捉モードで構成し、
    前記視覚媒体を写真として捕捉する
    ように前記システムを動作させる命令を更に含む請求項13に記載のコンピュータ可読記憶媒体。
  15. 前記第1のタイマが満了したと判断し、
    前記第1のタイマが満了したと判断することに応答して、視覚媒体捕捉コンポーネントを前記ビデオ捕捉モードで構成し、
    前記視覚媒体をビデオとして捕捉する
    ように前記システムを動作させる命令を更に含む請求項13に記載のコンピュータ可読記憶媒体。
  16. 前記第1のタイマの満了後に前記触覚的係合状態解除信号を受信し、
    前記触覚的係合状態解除信号を受信することに応答して前記視覚媒体の捕捉を完了するように前記システムを動作させる命令を更に含む請求項15に記載のコンピュータ可読記憶媒体。
  17. 予め設定された第2の持続時間後に満了するように構成された第2のタイマを、前記視覚媒体をビデオとして捕捉することの開始時に始動させ、
    前記第2のタイマが満了したと判断し、
    前記第2のタイマが満了したと判断することに応答して、前記視覚媒体の捕捉を完了するように前記システムを動作させる命令を更に含む請求項15に記載のコンピュータ可読記憶媒体。
  18. 前記捕捉された視覚媒体を表示し、
    前記捕捉された視覚媒体を送信するためのユーザコマンドを受信し、
    前記受信したユーザコマンドに応答して、前記捕捉された視覚媒体をネットワーク・サーバにアップロードするように前記システムを動作させる命令を更に含む請求項15に記載のコンピュータ可読記憶媒体。
JP2016560468A 2014-03-31 2014-05-28 単一のインタフェース要素を用いて視覚媒体を選択的に捕捉する方法 Active JP6378357B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461973197P 2014-03-31 2014-03-31
US61/973,197 2014-03-31
US14/287,521 2014-05-27
US14/287,521 US9258480B2 (en) 2014-03-31 2014-05-27 Techniques to selectively capture visual media using a single interface element
PCT/US2014/039775 WO2015152953A1 (en) 2014-03-31 2014-05-28 Techniques to selectively capture visual media using a single interface element

Publications (2)

Publication Number Publication Date
JP2017511543A JP2017511543A (ja) 2017-04-20
JP6378357B2 true JP6378357B2 (ja) 2018-08-22

Family

ID=54192177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560468A Active JP6378357B2 (ja) 2014-03-31 2014-05-28 単一のインタフェース要素を用いて視覚媒体を選択的に捕捉する方法

Country Status (10)

Country Link
US (10) US9258480B2 (ja)
EP (5) EP3063607B1 (ja)
JP (1) JP6378357B2 (ja)
KR (2) KR102166561B1 (ja)
CN (2) CN110784615B (ja)
AU (1) AU2014389509B2 (ja)
CA (1) CA2944595A1 (ja)
IL (1) IL248163A0 (ja)
MX (1) MX360401B (ja)
WO (1) WO2015152953A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9258480B2 (en) * 2014-03-31 2016-02-09 Facebook, Inc. Techniques to selectively capture visual media using a single interface element
US10725615B2 (en) 2015-02-20 2020-07-28 Grideo Technologies Inc. Social contact information organized in a grid like visual object
US10070063B2 (en) * 2015-02-20 2018-09-04 Grideo Technologies Inc. Integrated video capturing and sharing application on handheld device
US20170013228A1 (en) * 2015-07-02 2017-01-12 Signalscape, Inc. Field Interviewer
US11099650B1 (en) * 2015-09-07 2021-08-24 Oliver Markus Haynold Camera with improved shutter button
CN106879263B (zh) * 2015-10-13 2020-04-21 华为技术有限公司 一种拍摄方法和移动设备
US9871962B2 (en) 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US10079994B2 (en) 2016-11-18 2018-09-18 Facebook, Inc. Methods and systems for displaying relevant participants in a video communication
US10116898B2 (en) * 2016-11-18 2018-10-30 Facebook, Inc. Interface for a video call
US11470244B1 (en) * 2017-07-31 2022-10-11 Snap Inc. Photo capture indication in eyewear devices
CN107396168B (zh) * 2017-08-24 2021-01-26 四川长虹电器股份有限公司 一种可配置launcher的电视直播系统
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN110737386A (zh) * 2019-09-06 2020-01-31 华为技术有限公司 一种屏幕截取方法及相关设备
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
CN115474002A (zh) * 2021-04-30 2022-12-13 苹果公司 用于更改视觉媒体的用户界面
US11949923B1 (en) * 2022-12-19 2024-04-02 Adobe Inc. Trigger based digital content caching

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3320196B2 (ja) * 1994-04-27 2002-09-03 キヤノン株式会社 動画静止画記録装置
TW444162B (en) * 1998-06-30 2001-07-01 Sony Corp Information processing apparatus, information processing method, and recording medium
US20020112005A1 (en) * 1998-08-25 2002-08-15 Charles Namias Video e-mail kiosk
JP2001036801A (ja) * 1999-07-23 2001-02-09 Sharp Corp 撮像装置
JP3900812B2 (ja) * 2000-09-26 2007-04-04 カシオ計算機株式会社 画像記録装置
US20030117505A1 (en) 2001-12-20 2003-06-26 Sasaki Gary David Intermediate memory for a digital camera
JP2004040725A (ja) * 2002-07-08 2004-02-05 Fuji Photo Film Co Ltd デジタルビデオカメラ
US20040061788A1 (en) * 2002-09-26 2004-04-01 Logitech Europe S.A. Multiple mode capture button for a digital camera
JP2004260433A (ja) * 2003-02-25 2004-09-16 Hitachi Ltd ビデオカメラ付き携帯電話機
US20050093988A1 (en) * 2003-11-03 2005-05-05 Haas William R. Digital camera with automatic mode detection
US20090132969A1 (en) * 2005-06-16 2009-05-21 Ken Mayer Method and system for automated initiation of search queries from computer displayed content
US8091045B2 (en) * 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US8127254B2 (en) * 2007-06-29 2012-02-28 Nokia Corporation Unlocking a touch screen device
KR20090012473A (ko) 2007-07-30 2009-02-04 삼성전자주식회사 휴대용 단말기에서 이동통신 시스템 선택을 위한 장치 및방법
JP5207943B2 (ja) * 2008-12-10 2013-06-12 キヤノン株式会社 撮像装置
KR20100071754A (ko) * 2008-12-19 2010-06-29 삼성전자주식회사 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치
US8111247B2 (en) 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
KR101609140B1 (ko) * 2009-09-07 2016-04-05 엘지전자 주식회사 휴대 단말기 및 휴대 단말기 동작방법
JP5431083B2 (ja) * 2009-09-16 2014-03-05 オリンパスイメージング株式会社 撮影装置および撮影装置の制御方法
JP5120356B2 (ja) * 2009-10-13 2013-01-16 株式会社ニコン 撮像装置
US7921150B1 (en) * 2009-10-23 2011-04-05 Eastman Kodak Company Method for viewing videos on distributed networks
CN107102721A (zh) 2010-04-23 2017-08-29 意美森公司 用于提供触觉效果的系统和方法
US10120446B2 (en) 2010-11-19 2018-11-06 Apple Inc. Haptic input device
JP5754936B2 (ja) * 2010-12-28 2015-07-29 キヤノン株式会社 撮影装置、その制御方法、プログラム
JP2012218314A (ja) 2011-04-11 2012-11-12 Seiko Epson Corp 液体噴射ヘッドの製造方法、および液体噴射装置の製造方法
CN102799292B (zh) * 2011-05-24 2016-03-30 联想(北京)有限公司 一种触摸控制方法、装置及电子设备
US9596398B2 (en) 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
JP2013070303A (ja) * 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US9046958B2 (en) * 2012-03-15 2015-06-02 Nokia Technologies Oy Method, apparatus and computer program product for user input interpretation and input error mitigation
US8682809B2 (en) * 2012-04-18 2014-03-25 Scorpcast, Llc System and methods for providing user generated video reviews
US20130332379A1 (en) * 2012-06-12 2013-12-12 Flikkety Flik Inc. Method and Apparatus for Mobile Video Sharing
US20160050289A1 (en) 2012-06-26 2016-02-18 Google Inc. Automatic sharing of digital content
US8428453B1 (en) 2012-08-08 2013-04-23 Snapchat, Inc. Single mode visual media capture
US20140055633A1 (en) 2012-08-27 2014-02-27 Richard E. MARLIN Device and method for photo and video capture
CA2912836A1 (en) * 2013-06-05 2014-12-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
US9578239B2 (en) * 2014-01-17 2017-02-21 Htc Corporation Controlling method for electronic apparatus with one switch button
US9258480B2 (en) * 2014-03-31 2016-02-09 Facebook, Inc. Techniques to selectively capture visual media using a single interface element

Also Published As

Publication number Publication date
WO2015152953A1 (en) 2015-10-08
IL248163A0 (en) 2016-11-30
US9832380B2 (en) 2017-11-28
CN106575147A (zh) 2017-04-19
CN110784615A (zh) 2020-02-11
EP3483717A1 (en) 2019-05-15
US10110815B2 (en) 2018-10-23
CN106575147B (zh) 2019-11-12
EP3483718A1 (en) 2019-05-15
US9800784B2 (en) 2017-10-24
US9258480B2 (en) 2016-02-09
US20150281563A1 (en) 2015-10-01
MX360401B (es) 2018-10-31
US10701265B1 (en) 2020-06-30
KR20190120393A (ko) 2019-10-23
US20150281577A1 (en) 2015-10-01
US20160065851A1 (en) 2016-03-03
EP3063607A4 (en) 2017-05-10
KR102166561B1 (ko) 2020-10-16
MX2016012930A (es) 2017-01-13
KR102033946B1 (ko) 2019-10-21
EP3063607A1 (en) 2016-09-07
AU2014389509B2 (en) 2019-04-18
US11758268B1 (en) 2023-09-12
US11297233B1 (en) 2022-04-05
AU2014389509A1 (en) 2016-10-20
US20150281562A1 (en) 2015-10-01
US20170024068A1 (en) 2017-01-26
CN110784615B (zh) 2021-07-27
EP3063607B1 (en) 2019-01-09
JP2017511543A (ja) 2017-04-20
US10367999B1 (en) 2019-07-30
US10051181B2 (en) 2018-08-14
CA2944595A1 (en) 2015-10-08
US20180013956A1 (en) 2018-01-11
EP2927793B1 (en) 2018-12-26
EP3483717B1 (en) 2022-04-06
US9591218B2 (en) 2017-03-07
EP2927793A1 (en) 2015-10-07
KR20160138269A (ko) 2016-12-02
EP4009146A1 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
JP6378357B2 (ja) 単一のインタフェース要素を用いて視覚媒体を選択的に捕捉する方法
KR102377277B1 (ko) 전자 장치에서 커뮤니케이션 지원 방법 및 장치
US10499004B2 (en) Method and terminal for reproducing content
EP3402186A1 (en) Method and apparatus for providing image service
EP3022890B1 (en) Techniques to manage state information for a web service
KR20150032152A (ko) 전자 장치 간의 편집 동작을 실행하는 방법 및 장치
JP6803329B2 (ja) 二次元コードを生成し、メッセージ内で送信する方法及び装置
US9258435B2 (en) Method and apparatus for a sharing capture mode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180726

R150 Certificate of patent or registration of utility model

Ref document number: 6378357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250