JP2016517649A - 撮影効果のためにジェスチャを使用するための方法および装置 - Google Patents

撮影効果のためにジェスチャを使用するための方法および装置 Download PDF

Info

Publication number
JP2016517649A
JP2016517649A JP2015561336A JP2015561336A JP2016517649A JP 2016517649 A JP2016517649 A JP 2016517649A JP 2015561336 A JP2015561336 A JP 2015561336A JP 2015561336 A JP2015561336 A JP 2015561336A JP 2016517649 A JP2016517649 A JP 2016517649A
Authority
JP
Japan
Prior art keywords
user
image
gesture
control signal
initiated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015561336A
Other languages
English (en)
Other versions
JP2016517649A5 (ja
Inventor
ディー.フォス ネイル
ディー.フォス ネイル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2016517649A publication Critical patent/JP2016517649A/ja
Publication of JP2016517649A5 publication Critical patent/JP2016517649A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • H04N21/44224Monitoring of user activity on external systems, e.g. Internet browsing
    • H04N21/44226Monitoring of user activity on external systems, e.g. Internet browsing on social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)

Abstract

モバイルデバイス上でビデオを編集し、ビデオを変更する方法および装置。システムは、ユーザに対し、ジェスチャの使用を介してモバイルデバイス上でビデオ効果の変更を可能にするように作動する。これらのジェスチャは、オンスクリーン視覚的指示の援助なしに実行される。ユーザがジェスチャを介してビデオ効果を変更するにつれて、変更はユーザに対するフィードバックを提供するビデオに同時に適用される。

Description

本出願は、2013年3月8日に出願された米国仮出願第61/775,346号の優先権を主張する。
携帯型電子デバイスは、よりユビキタスになりつつある。モバイル電話、音楽プレーヤ、カメラ、タブレット等などのこれらのデバイスは、デバイスの組み合わせを含み、したがって、複数の物を携行することを冗長にする。例えば、AppleのiPhoneまたはSamsungのGalaxy android電話などの現在のタッチスクリーンモバイル電話は、ビデオおよびスチルカメラ、全地球測位ナビゲーションシステム、インターネットブラウザ、テキストおよび電話、ビデオおよび音楽プレーヤその他を含む。これらのデバイスは、データを送信および受信するために、WiFi、有線、および3Gなどのセルラなどの複数のネットワーク上で、しばしばイネーブルされる。
携帯型電子機器における二次的機能の品質は、常に改善してきている。例えば、初期の「カメラ電話」は、固定焦点レンズを有する低解像度のセンサから成り、フラッシュを有しなかった。今日では、多くのモバイル電話が、フル高解像度ビデオ能力、編集ツールおよびフィルタリングツール、および高解像度ディスプレイを含む。この改善された能力により、多くのユーザが、これらのデバイスを彼らの主な写真撮影デバイスとして使用している。そのため、さらにいっそう改善された性能とプロフェッショナルグレードの埋め込み式写真撮影ツールとへの需要がある。また、ユーザは、彼らのコンテンツを、印刷された写真だけよりも多くの手法で他者と共有し、それを簡単に行うことを望む。ユーザは、YouTube(登録商標)などのビデオストレージサイトまたはソーシャルメディアサイトにコンテンツをアップロードし得る。しかしながら、ユーザは、これらの写真またはビデオを共有する前に編集することを望むことがあり、この編集は、理想的には、モバイルデバイス上で行われ得る。ユーザは、ビデオの長さを編集し、カラーフィルタ、輝度または他のビデオ効果を変更したいと望み得る。これらの機能は、モバイルデバイス上では一般的に利用可能ではないため、ユーザは、まず、コンテンツをコンピュータにダウンロードして、編集を実行しなければならない。これは、ユーザのスキルレベルを超えるか、実用的になるまでにあまりに多くの時間と努力を必要とすることが多いため、ユーザは、ビデオコンテンツを共有することを思いとどまらせられることが多い。これらの共有する方法は、電子メール、テキスト、またはFacebook、twitter、YouTube等などのソーシャルメディアウェブサイトを含み得る。ユーザがモバイルデバイス上でビデオを簡単に編集し、そのメディアを共有することができることが望ましい。
画像またはビデオを編集し、画像またはビデオの属性を変更し、画像またはビデオに効果を追加するための方法および装置。
本発明の一態様によれば、装置は、ユーザ起動のジェスチャを受け取るためのタッチセンサ式制御デバイスと、前記ユーザ起動のジェスチャに応答して、複数の制御信号を生成するためのコントローラと、第1のユーザ起動のジェスチャに対応する第1の制御信号を受け取り、前記第1の制御信号に応答して、第1の効果制御モードを起動し、第2のユーザ起動のジェスチャに対応する第2の制御信号を受け取り、前記第2の制御信号に応答して画像の変更されたバージョンを表すデータを生成するためのプロセッサであって、前記画像は、前記第2の制御信号における変化と同時に徐々に変更される、プロセッサと、前記画像を表示するように動作するディスプレイであって、前記画像の前記変更されたバージョンを表示するようにさらに動作する、ディスプレイと、を備える。
本発明の別の態様によれば、画像を変更するための方法は、画像を表示するステップと、第1のユーザ起動のジェスチャに対応する第1の制御信号を受け取るステップと、前記第1の制御信号に応答して、第1の効果制御モードを起動するステップと、第2のユーザ起動のジェスチャに対応する第2の制御信号を受け取るステップと、前記第2の制御信号に応答して、前記画像の変更されたバージョンを表示するステップであって、前記画像は、前記第2の制御信号における変化と同時に徐々に変更される、ステップと、を備える。
本発明のまた別の態様によれば、方法は、第3のユーザ起動のジェスチャに対応する第3の制御信号を受け取るステップと、前記第3のユーザ起動のジェスチャに応答して、第2の効果制御モードを起動するステップと、を備える。
本開示のこれらのおよび他の態様、機能および利点は、添付の図面と共に読まれるべきである、好適な実施形態の下記の詳細な説明から説明され、または明らかとなるであろう。
同様の参照符号は、図の全体にわたって同様の要素を示す図面において:
モバイル電子デバイスの例示的実施形態のブロック図である。 本発明による、アクティブなディスプレイを有する例示的なモバイルデバイスディスプレイを示す図である。 本開示による、画像安定化およびリフレーミングのための例示的なプロセスを示す図である。 本発明による、キャプチャ初期化を有する例示的なモバイルデバイスディスプレイを示す図である。 本発明に従って画像またはビデオキャプチャを起動するための例示的なプロセスを示す図である。 本発明の一態様に従った自動ビデオセグメント化の例示的実施形態を示す図である。 本発明の一態様に従ってビデオをセグメント化する方法を示す図である。 本発明の1つの態様に従ったライトボックスアプリケーションを示す図である。 ライトボックスアプリケーション内で実行され得る様々な例示的な動作を示す図である。 本発明の態様による例示的な効果制御アプリケーションを示す図である。
本明細書において述べられる例示は、本発明の好適な実施形態を解説するものであり、そのような例示は、いかなる方法においても本発明の範囲を制限するものとして解釈されるべきではない。
図1を参照すると、モバイル電子デバイスの例示的実施形態のブロック図が示されている。描かれたモバイル電子デバイスは、モバイル電話100であるが、本発明は、音楽プレーヤ、カメラ、タブレット、全地球測位ナビゲーションシステム等などの、いかなる数のデバイス上でも等価に実装され得る。モバイル電話は、典型的には、電話呼およびテキストメッセージを送信および受信し、セルラネットワークまたはローカル無線ネットワークのいずれかを通じてインターネットとインターフェースをとり、写真およびビデオを撮影し、オーディオおよびビデオコンテンツを再生し、文書処理、プログラム、またはビデオゲームなどのアプリケーションを実行する機能を含む。多くのモバイル電話は、GPSを含み、ユーザインターフェースの一部としてタッチスクリーンパネルも含む。
モバイル電話は、その他の主な構成要素の各々に結合されるメインプロセッサ150を含む。メインプロセッサ、またはプロセッサは、ネットワークインターフェース、カメラ140、タッチスクリーン170、および他の入力/出力I/Oインターフェース180などの様々な構成要素間で情報を送る。メインプロセッサ150はまた、直接デバイス上での、またはオーディオ/ビデオインターフェースを通じて外部デバイス上での再生のために、オーディオコンテンツおよびビデオコンテンツを処理する。メインプロセッサ150は、カメラ140、タッチスクリーン170、およびUSBインターフェース130などの様々なサブデバイスを制御するように動作する。メインプロセッサ150は、コンピュータと同様に、データを操作するために使用されるモバイル電話内のサブルーチンを実行するようにさらに動作する。例えば、メインプロセッサは、カメラ機能140によって写真が撮影された後に、画像ファイルを操作するために使用され得る。これらの操作は、トリミング、圧縮、色および輝度調整等を含み得る。
セルネットワークインターフェース110は、メインプロセッサ150によって制御され、セルラ無線ネットワーク上で情報を受信および送信するために使用される。この情報は、時分割多重アクセス(TDMA:time division multiple access)、符号分割多重アクセス(CDMA:code division multiple access)または直交周波数分割多重(OFDM:Orthogonal frequency-division multiplexing)などの様々なフォーマットで符号化され得る。情報は、デバイスからセルネットワークインターフェース110を通じて送信および受信される。インターフェースは、情報を送信のための適当なフォーマットに符号化および復号化するために使用される複数のアンテナ符号化器、復調器等から成り得る。セルネットワークインターフェース110は、音声送信もしくはテキスト送信を容易にするために、またはインターネットから情報を送信および受信するために使用され得る。この情報は、ビデオ、オーディオ、およびまたは画像を含み得る。
無線ネットワークインターフェース120、またはwifiネットワークインターフェースは、wifiネットワーク上で情報を送信および受信するために使用される。この情報は、802.11g、802.11b、802.11ac等などの、異なるwifi標準による様々なフォーマットで符号化され得る。インターフェースは、情報を送信のための適当なフォーマットに符号化および復号化し、情報を復調のために復号化するために使用される複数のアンテナ符号化器、復調器等から成り得る。wifiネットワークインターフェース120は、音声送信もしくはテキスト送信を容易にするために、またはインターネットから情報を送信および受信するために使用され得る。この情報は、ビデオ、オーディオ、およびまたは画像を含み得る。
ユニバーサルシリアルバス(USB)インターフェース130は、典型的には、コンピュータまたは他のUSB使用可能なデバイスへ、有線リンク上で情報を送信および受信するために使用される。USBインターフェース120は、情報を送信および受信し、インターネットに接続し、音声通話およびテキスト通話を送信および受信するために使用され得る。また、この有線リンクは、モバイルデバイスのセルネットワークインターフェース110またはwifiネットワークインターフェース120を使用して、USB使用可能なデバイスを別のネットワークへ接続するために使用され得る。USBインターフェース120は、設定情報をコンピュータへ送信および受信するために、メインプロセッサ150によって使用され得る。
メモリ160、またはストレージデバイスは、メインプロセッサ150に結合され得る。メモリ160は、モバイルデバイスの動作に関連し、メインプロセッサ150によって必要とされる特定の情報を記憶するために使用され得る。メモリ160は、ユーザによって記憶および取得されたオーディオ、ビデオ、写真、または他のデータを記憶するために使用され得る。
入力/出力(I/O)インターフェース180は、電話呼、オーディオ記録および再生、または音声作動制御に使用するためのボタン、スピーカ/マイクロフォンを含む。モバイルデバイスは、タッチスクリーンコントローラを通じてメインプロセッサ150に結合されるタッチスクリーン170を含み得る。タッチスクリーン170は、容量性タッチセンサおよび抵抗式タッチセンサのうちの1または複数を使用する、シングルタッチスクリーンまたはマルチタッチスクリーンのいずれかであり得る。スマートフォンは、オン/オフボタン、作動ボタン、音量制御、リンガー制御、およびマルチボタンキーパッドまたはマルチボタンキーボードなどの付加的なユーザ制御も含み得るが、これらに限定されない。
ここで図2を参照すると、本発明によるアクティブなディスプレイ200を有する例示的なモバイルデバイスディスプレイが示されている。例示的なモバイルデバイスアプリケーションは、ユーザが任意のフレーミングで記録し、撮影中にユーザのデバイスを自由に回転することを可能にし、撮影中にデバイスのファインダ(viewfinder)上でオーバーレイにおいて最終的な出力を視覚化し、最終的な出力におけるその配向を最終的に訂正するために動作する。
例示的実施形態によれば、ユーザが撮影を開始する場合、その現在の配向が考慮され、デバイスのセンサに基づく重力のベクトルが水平線を登録するために使用される。デバイスのスクリーンと関連する光学センサとが縦向きであるポートレート210、またはデバイスのスクリーンと関連する光学センサとが横向きであるランドスケープ250などの取り得る配向ごとに、最適なターゲットアスペクト比が選ばれる。はめ込まれた矩形225は、所与の(現在の)配向についての所望の最適なアスペクト比が与えられると、センサの最大境界線に最も良く適合するセンサ全体内で内接させられる。センサの境界線は、訂正のための「充分な空間(breathing room)」を提供するために、若干補充される。このはめ込まれた矩形225は、デバイスの一体化されたジャイロスコープからサンプリングされる、デバイス自体の回転の反対に本質的に回転することによって、回転220、230、240について補償するように変形される。変形された内側の矩形225は、センサ全体から補充を差し引いた利用可能な最大境界の内部に最適に内接させられる。デバイスの最新の配向に応じて、変形された内側の矩形225の寸法は、回転の量に対して、2つの最適なアスペクト比間を補間するように調整される。
例えば、ポートレート配向について選択される最適なアスペクト比が正方形(1:1)であり、ランドスケープ配向について選択される最適なアスペクト比がワイド(16:9)であった場合、内接された矩形は、それが1つの配向から別の配向へ回転されるにつれて、1:1と16:9との間を最適に補間するであろう。内接された矩形は、サンプリングされ、次いで、最適な出力寸法に適合するように変形される。例えば、最適な出力寸法が4:3であり、サンプリングされた矩形が1:1である場合、サンプリングされた矩形は、アスペクトフィルされる(aspect filled)(必要に応じてデータをトリミングし、1:1領域を光学的に完全に広げる)か、またはアスペクトフィットされる(aspect fit)(任意の未使用領域を「レターボクシング(letter boxing)」もしくは「ピラーボクシング(pillar boxing)」により黒く塗りつぶし、1:1領域の内部に光学的に完全に適合させられる)。結局、結果は、訂正中に動的に提供されるアスペクト比に基づいてコンテンツフレーミングが調整する固定されたアスペクトアセットである。そのため、例えば、1:1から16:9のコンテンツから成る16:9ビデオは、(16:9部分中に)光学的に広げられる260と(1:1部分中に)ピラーボクシングにより適合される250との間で変動するであろう。
全ての動作の総計が考慮され、最適な出力アスペクト比の選択において検討される付加的な微調整が実施される。例えば、ユーザが、少数のポートレートコンテンツを有する「大部分がランドスケープ(mostly landscape)」のビデオを記録する場合、出力フォーマットは、(ポートレートセグメントをピラーボクシングする)ランドスケープアスペクト比になる。ユーザが、大部分がポートレートであるビデオを記録する場合には、その反対が当てはまる(ビデオはポートレートとなり、出力矩形の境界に入らないどのようなランドスケープコンテンツもトリミングして、出力を光学的に広げる)。
ここで図3を参照すると、本開示による、画像安定化およびリフレーミングのための例示的なプロセス300が示されている。システムは、起動されているカメラのキャプチャモードに応答して初期化される。この初期化は、ハードウェアボタンもしくはソフトウェアボタンによって、またはユーザアクションに応答して生成される別の制御信号に応答して、起動され得る。いったんデバイスのキャプチャモードが起動されると、ユーザ選択に応答して、モバイルデバイスセンサ320が選ばれる。ユーザ選択は、タッチスクリーンデバイス上での設定を通じて、メニューシステムを通じて、または、どのようにボタンが作動されるかに応答して、行われ得る。例えば、一度押されるボタンは、写真センサを選択し得る一方で、継続的に押下されるボタンは、ビデオセンサを示し得る。また、3秒間など所定の時間の間ボタンを押さえることは、ビデオが選択されており、ボタンが二度目に作動されるまで、モバイルデバイス上でのビデオ記録が継続することを示し得る。
いったん適当なキャプチャセンサが選択されると、システムは、次いで、回転センサからの測定値を要求する320。回転センサは、ジャイロスコープ、加速度計、軸配向センサ、光センサ等であってもよく、これは、モバイルデバイスの位置の水平指標および/または垂直指標を判定するために使用される。測定センサは、定期的な測定値を制御プロセッサへ送信することができ、それによって、モバイルデバイスの垂直配向および/または水平配向を継続的に示す。したがって、デバイスが回転されるにつれて、制御プロセッサは、ディスプレイを継続的に更新し、ビデオまたは画像を継続して一貫性のある水平線を有するように保存することができる。
回転センサがモバイルデバイスの垂直配向および/または水平配向の指標を戻した後に、モバイルデバイスは、ビデオまたは画像のキャプチャされた配向を示す、ディスプレイ上のはめ込まれた矩形を描く340。モバイルデバイスが回転されるにつれて、システムプロセッサは、はめ込まれた矩形を、回転センサから受け取られる回転測定値に継続的に同期させる350。ユーザは、1:1、9:16、16:9、またはユーザによって決定される任意の比などの、好適な最終的なビデオ比または画像比を随意的に示し得る。システムは、モバイルデバイスの配向による異なる比についてのユーザ選択も記憶し得る。例えば、ユーザは、垂直配向において記憶されたビデオについては1:1比を示し、水平配向において記録されたビデオについては16:9比を示し得る。この場合において、システムは、モバイルデバイスが回転されるにつれて、ビデオを継続的にまたはインクリメンタルに拡大縮小し(rescale)得る360。したがって、ビデオは、1:1配向で開始し得るが、撮影中にユーザが垂直配向から水平配向へ回転させることに応答して、16:9配向において終了するように次第に拡大縮小され得る。随意的に、ユーザは、開始時配向または終了時配向がビデオの最終的な比を判定することを示してもよい。
ここで図4を参照すると、本発明による、キャプチャ初期化を有する例示的なモバイルデバイスディスプレイ400が示されている。画像またはビデオをキャプチャするためのタッチトーンディスプレイを描く例示的なモバイルデバイスが示されている。本発明の一態様によれば、例示的なデバイスのキャプチャモードは、多くのアクションに応答して起動され得る。モバイルデバイスのハードウェアボタン410のいずれかが、キャプチャシーケンスを起動するために押し下げられ得る。あるいは、ソフトウェアボタン420が、キャプチャシーケンスを起動するために、タッチスクリーンを通じて作動され得る。ソフトウェアボタン420は、タッチスクリーン上に表示される画像430にオーバーレイされ得る。画像430は、画像センサによってキャプチャされている現在の画像を示すファインダとして動作し得る。前述されたような内接された矩形440も、キャプチャされている画像またはビデオのアスペクト比を示すために、画像上にオーバーレイされ得る。
ここで図5を参照すると、本開示による、画像キャプチャまたはビデオキャプチャを起動するための例示的なプロセス500が示されている。いったんイメージングソフトウェアが起動されると、システムは、画像キャプチャを起動するための指標を待つ。いったん画像キャプチャ指標がメインプロセッサによって受け取られる510と、デバイスは、画像センサから送られたデータを保存し始める520。また、システムは、タイマを起動する。システムは、次いで、画像センサからのデータをビデオデータとしてキャプチャし続ける。キャプチャが終了されたこと530を示すキャプチャ指標からの第2の指標に応答して、システムは、画像センサからのデータを保存することを停止し、タイマを停止する。
システムは、次いで、タイマ値と所定の時間閾値とを比較する540。所定の時間閾値は、例えば、1秒間などの、ソフトウェアプロバイダによって判定されたデフォルト値であってもよく、または、それは、ユーザによって判定される設定可能な設定値であってもよい。タイマ値が所定の時間閾値未満である場合540、システムは、静止画像が望まれたと判定し、ビデオキャプチャの最初のフレームを、jpeg等の静止画像フォーマットで静止画像として保存する560。システムは、別のフレームを静止画像として随意的に選んでもよい。タイマ値が所定の時間閾値よりも大きい場合540、システムは、ビデオキャプチャが望まれたと判定する。システムは、次いで、キャプチャデータを、mpeg等などのビデオファイルフォーマットでビデオファイルとして保存する550。その後、システムは、次いで、初期化モードに戻り、キャプチャモードが再び起動されるのを待ち得る。モバイルデバイスが、静止画像キャプチャとビデオキャプチャとについて異なるセンサを備える場合、システムは、随意的に、静止画像センサからの静止画像を保存し、ビデオ画像センサからのキャプチャデータを保存することを開始し得る。タイマ値が所定の時間閾値と比較される場合、所望のデータが保存される一方で、不要なデータは保存されない。例えば、タイマ値が閾値時間値を超える場合、ビデオデータが保存され、画像データは破棄される。
ここで図6を参照すると、自動ビデオセグメント化の例示的実施形態600が示されている。システムは、秒単位の所定の時間間隔にできるだけ近いセグメントにスライスされるビデオを計算および出力することを目指す自動ビデオセグメント化に向けられる。また、セグメントは、セグメント化されているビデオの属性に応じて、長くなり、または短くなり得る。例えば、話されている単語の途中など、ぎこちない方法でコンテンツを二分することは、望ましくない。9つのセグメント(1〜9)にセグメント化されたビデオを描くタイムライン610が示される。セグメントの各々は、約8秒の長さである。元のビデオは、少なくとも1分4秒の長さを有する。
この例示的実施形態において、各ビデオセグメントについて選ばれる時間間隔は、8秒間である。この最初の時間間隔は、より長くても、もしくは、より短くてもよく、または、随意的に、ユーザによって設定可能であってもよい。8秒のベースタイミング間隔が選ばれたのは、様々なネットワークタイプ上でのダウンロードのための合理的なデータ送信サイズを有する、扱いやすいデータセグメントを現在のところ表すためである。約8秒のクリップは、モバイルプラットフォーム上で試験的に配信されるビデオコンテンツの単一のクリップをエンドユーザがよく調べることを期待するための合理的な平均持続期間を有するであろう。約8秒のクリップは、それが表示するコンテンツのより多くのより良好な視覚的記憶をエンドユーザが理論的に保持することができる、知覚的に記憶しやすい持続期間であり得る。また、8秒間は、現代の西洋音楽の最も一般的なテンポである120BPMにおける8ビートの均等なフレーズ長である。これは大体、最も一般的なフレーズ長(音楽のテーマまたはセクション全体をカプセル化するための持続期間)である4小節(16ビート)の短いフレーズの持続期間である。このテンポは、平均アクティブ心拍数に知覚的にリンクされ、アクションおよび活動を示唆し、覚醒を強化する。さらに、小さい、知られているサイズのクリップを有することは、ビデオ圧縮レートおよび帯域幅が、一般に、メガビット/秒、ただし、8メガビット=1メガバイトなどのおよそ8進数の数で計算されることに基づいて、より簡単な帯域幅計算を容易にし、そのため、ビデオの各セグメントは、1メガビット/秒で符号化される場合には、およそ1メガバイトとなる。
ここで図7を参照すると、本発明による、ビデオをセグメント化する方法700が示されている。ビデオコンテンツを知覚的に良好な編集境界上で理想的な8秒のセグメントに手続き的に分解するために、ビデオコンテンツを分析するための多数のアプローチが、システム内で供給され得る。まず、ビデオコンテンツの本質に関して、それが別のアプリケーションから派生したのか、または現在のモバイルデバイスを使用して記録されたのかについて、最初の判定が行われ得る720。コンテンツが別のソースまたはアプリケーションから派生したものである場合、ビデオコンテンツは、まず、シーンブレイク検出を使用して、明らかな編集境界について分析される725。所望の8秒間隔上の境界または所望の8秒間隔に最も近い境界を強調して、任意の統計的に有意な境界にマークが付される730。ビデオコンテンツが現在のモバイルデバイスを使用して記録された場合、センタデータは、記録中にログが取られ得る735。これは、デバイスの加速度計からの全ての軸上でのデバイスの動作の差分、および/またはデバイスのジャイロスコープに基づく全ての軸上でのデバイスの回転を含み得る。このログが取られたデータは、動き開始、任意の所与のベクトルについての経時的な平均の大きさに対して統計的に有意な差分を見つけるために分析され得る。これらの差分は、所望の8秒間隔に最も近い境界を強調してログが取られる740。
ビデオコンテンツは、編集選択を通知し得る付加的なキューのために、さらに知覚的に分析され得る。デバイスハードウェア、ファームウェアまたはOSが、顔ROI選択を含む、任意の一体化された関心領域(ROI:region of interest)検出を提供する場合、それは、シーン内の任意のROIにマークを付するために利用される745。これらのROIの開始出現または開始消失(すなわち、それらがフレームに出現し、フレームから消失する時に最も近い瞬間)は、所望の8秒間隔に最も近い境界を強調してログが取られ得る。
全体的な振幅についてのオーディオベースの開始検出は、ゼロ交差、ノイズフロアまたは移動平均電力レベルに対して、振幅における統計的に有意な変化(増加または減少)を探す750。統計的に有意な変化は、所望の8秒間隔に最も近いそれらを強調してログが取られる。スペクトルバンド範囲内の振幅に関するオーディオベースの開始検出は、FFTアルゴリズムを使用してオーディオ信号を多数の重複するFFTビンに変形することに依存する。いったん変形されると、各ビンは、それ自体の移動平均に対する振幅における統計的に有意な変化について慎重に分析され得る。全てのビンは、共に平均値が求められ、所望の8秒間隔に最も近いそれらを強調して、全てのバンドにわたって最も統計的に有意な結果が開始としてログが取られる。この方法において、オーディオは、バンドを選択的に強調し/強調しないために、櫛形フィルタを用いて予め処理され得、例えば、通常の人間の発話の範囲におけるバンドは強調され得る一方で、ノイズと同義の高周波バンドは強調されなくてもよい。
コンテンツ内の平均動きの視覚分析は、適当なセグメント化ポイントの確立を支援するために、ビデオコンテンツについて判定され得る755。リアルタイム性能特性について必要とされるような制限されたフレーム解像度およびサンプリング比において、インフレームの平均動きの大きさは、経時的な統計的に有意な変化を探すために、所望の8秒間隔に最も近いそれらを強調して結果のログを取りつつ、判定および使用され得る。また、コンテンツの平均色および平均輝度は、統計的に有意な変化を所望の8秒間隔に最も近いそれらを強調してログを取りつつ、記録されたデータの単純な低解像度分析を使用して判定され得る。
いったん上記分析のうちのいずれかまたは全てが完了すると、最終的なログを取られた出力は、各結果を全体的な平均に重み付けして分析され得る760。分析データのこの後処理のパスは、全ての個々の分析プロセスの重み付けおよび平均された結果に基づいて、最も実行可能な時点を見つける。所望の8秒間隔上のまたは所望の8秒間隔に最も近い、最終的な、最も強い平均点は、分離編集決定のためのモデルを形成する出力として計算される。
後処理ステップ760は、ビデオ上の前述されたマークが付されたポイントのいずれかまたは全てを、好適なセグメント化ポイントのインジケータとして見なし得る。様々な判定要因が、重み付けされ得る。また、8秒間などの好適なセグメント長と極端に異なる判定ポイントは、好適なセグメント長に最も近いものよりも低く重み付けされ得る。
ここで図8を参照すると、本発明の1つの態様によるライトボックスアプリケーション800が示されている。ライトボックスアプリケーションは、ビデオおよびメディア時間ベースの編集を改善するために、リスト駆動型選択プロセスを使用するための方法およびシステムに向けられる。ライトボックスアプリケーションは、垂直配向810と水平配向820との両方において示される。ライトボックスアプリケーションは、セグメント化されたビデオが保存された後に、起動され得る。あるいは、ライトボックスアプリケーションは、ユーザコマンドに応答して、起動され得る。セグメントの各々は、最初は、各々について生成されるプレビューと共に、経時的に一覧表にされる。プレビューは、ビデオセグメントから得られた単一の画像、またはビデオセグメントの一部であり得る。付加的なメディアコンテンツまたはデータが、ライトボックスアプリケーションに付加され得る。例えば、他のソースから受け取られた写真またはビデオは、ユーザが受け取られたコンテンツを共有もしくは編集し、またはこれらの受け取られたコンテンツを新たに生成されるコンテンツと組み合わせることを可能にするために、ライトボックスリストに含まれ得る。したがって、アプリケーションは、ビデオおよびメディア時間ベース編集を、単純なリスト駆動型選択プロセスにする。
ライトボックスアプリケーションは、編集上の決定を共有するための中心点として使用され得る。ライトボックスは、ユーザがコンテンツを素早く簡単に見て、何を残し、何を破棄し、どのように、および、いつ他者と共有するかを決定することを可能にする。ライトボックス機能は、カメラと共に、チャネルブラウジングと共に、または他の場所からメディアをインポートするためのポイントとして、動作し得る。ライトボックスビューは、最近のメディアまたはメディアのグループ化されたセットのリストを含み得る。各アイテム、画像またはビデオは、キャプション、称賛(aduration)、および取り得るグループ数と共に、サムネイルとして表示される。キャプションは、自動的に、またはユーザによって、生成され得る。ユーザにメディアコンテンツの重みおよびペースを提示するように、持続期間は単純化され得る。ライトボックスタイトルバーは、戻る、アイテムをインポートする、またはメニューを開くためのナビゲーションと一緒に、そのアイテム数と共にライトボックスセットのカテゴリを含み得る。
ライトボックスランドスケープビュー820は、メディアアイテムが一方の側に一覧表にされ、随意的に、何らかの即座に評価可能な形式で共有する方法が他方の側に一覧表にされた状態で、異なるレイアウトを提示する。これは、facebook、twitter、もしくは他のソーシャルメディアアプリケーションのリンクまたはプレビューを含み得る。
ここで図9を参照すると、ライトボックスアプリケーション内で実行し得る様々な例示的な動作900が示されている。一体化されたカメラ機能によってキャプチャされるメディア、例えば、デバイスの既存のメディアライブラリからインポートされ、おそらくは他のアプリケーションを用いて記録され、もしくは他のアプリケーションによって作成され、もしくはウェブベースのソースからダウンロードされ、または関連するアプリケーション内で直接発行されたコンテンツからキュレートされるメディアは全て、プレビューモードにおいてライトボックス内に収集される905。ライトボックスは、メディアが収集された時間のグルーピングなどの、イベントに基づくグループに分類された単純な垂直のリストにおいてメディアを提示する。各アイテムは、メディアの所与の部分についてのサムネイルまたは簡略化された持続期間を含むリスト行によって表される。任意のアイテムをタップすることによって、メディアは、そのアイテムに直接関連して表示する、展開されたパネルにおいてプレビューされ得る。
ライトボックスアプリケーションは、アイテムをプレビューする、展開されたアイテムビュー910を随意的に有し得る。展開されたアイテムビュー910は、メディアアイテムを処理し、キャプションを付け、それを共有するためのオプションを見せる。閉ボタンをタップすることは、アイテムを閉じ、または、それの下の別のアイテムをタップすることは、そのアイテムを閉じ、別のアイテムを開く。
ライトボックスアプリケーション内で上方または下方へスクロールすることは、ユーザがメディアアイテムをナビゲートすることを可能にする915。ヘッダは、リストの最上部に留まってもよく、または、それは、コンテンツの上に浮かんでもよい。リストの最後までスクロールすることは、他の、より古いリストへのナビゲーションを可能にし得る920。より古いリストの見出しは、ドラッグ中にテンション下で見せられ得る。テンションを超えてドラッグすることは、より古いリストに遷移する。アイテムを押さえ、ドラッグすることは、ユーザが、アイテムを再オーダすること、または、あるアイテムを別のアイテムへドラッグすることによってアイテムを組み合わせることを可能にする925。アイテムを左側へスワイプすることは、そのアイテムをライトボックスから除去する930。アイテムを除去することは、それらをデバイスから除去しても、もしくは除去しなくてもよく、または、そのアイテムを単にライトボックスアプリケーションから除去してもよい。アイテムを別のアイテムへドラッグおよびドロップすることは、アイテムを組み合わせてグループにする935ために、またはドラッグされるアイテムを組み合わせてグループにするために使用され得る。アイテムを一緒にピンチすることは、ピンチ範囲内に存在した全てのアイテムを組み合わせてグループにする940。組み合わされたアイテムをプレビューする場合、それらは、連続して再生し、組み合わされたアイテムをプレビューウィンドウの下に展開するためにタップされ得るアイテム数を示す945。通常のライトボックスアイテムは、次いで、展開されたアイテムが行として表示されることを可能にするために、押下げられ得る。
アイテムは、ライトボックスアプリケーション内からそれらをドラッグすることによって操作され得る。アイテムは、任意のアイテム、例えばアイテム上で左側にドラッグすることによって、ライトボックスアプリケーションから除去され得る930。任意のアイテム上で右側にドラッグすることによって、そのアイテムは、即座に公開するようにレベルを上げられることができ950、これは、ユーザが所与のアイテムのメディアを1または多数の共有ロケーション上で共有することを可能にする画面へ遷移する955。プレビューしている場合に共有ボタンをタップすることも、アイテムの共有を可能にし得る。任意のアイテムを押さえることによって、それはドラッグ可能となり、その時点において、そのアイテムは、リスト全体におけるその位置を再編成するために、上方および下方へドラッグされ得る。リストにおける時間は、上から下へ垂直に表される。例えば、最上部のアイテムは、メディアが連続して実行されるべき場合には、時間において最初となる。(単一のイベント見出しの下で維持される)アイテムの任意のグループ全体は、同じジェスチャおよび制御の手段を使用して、単一のリストアイテムとして、まとめてプレビューされる(全てのアイテムから成る単一のプレビューとして、時間順で連続して再生される)ことができ、まとめて削除もしくは公開されることができる。ビデオまたは時間ベースのメディアを含む任意のアイテムをプレビューする場合、再生は、関連するリストアイテム行上で左側から右側へドラッグすることによって制御され得る。時間における現在の位置は、ユーザによって再生中に時間をオフセットするためにドラッグされ得る小さなラインによってマークを付される。ビデオまたは時間ベースのメディアを含む任意のアイテムをプレビューする場合、関連するリストアイテム行上で2本の指で水平にピンチすることによって、元のメディアを最終的な再生出力として調整するために、ピンチおよびドラッグされ得る選択範囲が定義される。画像または静止画像を含む任意のアイテムをプレビューする場合、関連するリストアイテム行上で左側から右側へ、または右側から左側へドラッグすることによって、キャプチャされた任意の付加的な隣接フレームが、選択的に「スクラブされ(scrubbed)」得る。例えば、単一の写真キャプチャ中に、カメラが出力の幾つかのフレームを記録する場合、このジェスチャは、ユーザが最良のフレームを最終的な静止フレームとして繰り返しおよび選択することを可能にし得る。
最近公開された(1または多くの公開先へアップロードされた)アイテムは、ライトボックスリストから自動的に消去される。タイムアウトするアイテム、または7日間など長期間にわたる不活動期間よりも長くライトボックスに存在するアイテムは、ライトボックスリストから自動的に消去される。ライトボックスメディアは、同じライトボックスを組み込む他のアプリケーションが、メディアの同じ現在のプールからの全ての共有を見られるように、デバイス上の中央のユビキタスなストレージロケーションに構築される。これは、マルチメディアアセット編集についてのマルチアプリケーション協調を単純で同期的にする。
ここで10を参照すると、本発明の1つの態様による例示的な効果制御アプリケーション1000が示されている。この特定の例示的実施形態において、効果外観は、それらの強度および値が流動的なジェスチャによる制御を介してユーザにアクセス可能な状態で、ビデオまたは写真上でリアルタイムで制御される。これは、ユーザに、完成された製品の外観を動的に変更しながら、編集というよりも、むしろ芸術性に近い経験を提供する。効果パラメータは、スクリーン上で直接に、写真またはビデオメディアビューそれ自体の上で制御される。視覚的制御は、ユーザに提示される必要がない。代わりに、ユーザは、任意の所与の効果の機能を制御するために、1または複数の指でタッチおよびドラッグすること、ピンチインおよびピンチアウトすること、並びに回転することによってジェスチャを行う。ユーザは、写真コンテンツまたはビデオコンテンツ上で効果の適用された結果を見る形式で、リアルタイムのフィードバックを即座に得る。ジェスチャが行われていることを強調するための、おそらくはそれらのタッチ位置の小さなハイライトのわきに、値、パラメータまたは範囲の視覚的インジケータは、表示されない。
一般に、適当な位置に短期間タッチし、押さえることによってジェスチャが起動される、効果制御の均一な言語が適用される。フィードバックは、ユーザのタッチ位置において、およびユーザのタッチ位置の周囲にハイライト円を配置することによって提供される。ディスプレイの中心点(横軸と縦軸との両方の中点)は、効果が適用されない0.0ポイントと見なされ得る。中心からディスプレイの最上部へ上方にドラッグすることによって、色外観効果の値(例えば、LUT色等級)は、増加する強度と共にソースに混合される。例えば、中心から最上部までの距離の約50%において、効果は最大限の100%で混合される。50%を超えて、最大で100%まででは、効果は、より極端な値に誇張され得る。
本発明による例示的なシステムの別の態様は、コントラストの増加および/または飽和などの、同じ効果メニュー上の並列効果を導入し得る。特定の補完的増加は、1つ1つ目で見て創造的に判定される。左側から右側へドラッグすることによって、効果の色温度または同様の色変化が適用され得る。例えば、左側から右側への単一の指によるジェスチャ動作は、色調における変化を供給し得る。中心から下方へドラッグすることによって、創造的な外観の視点からは、上方へドラッグする場合に適用される効果と同様または補完的な、補完的効果が適用され得る。これは、例えば、下向きのベクトル上の標準的なクロスプロセス効果と組み合わされた、上向きのベクトル上の標準的なブリーチバイパス効果となり得る。他の場合において、下方へのドラッグは、単純に色を反転し、そうでない場合は、バリエーション、主な、上方、効果を制御し得る。
また、ユーザは、効果の第1のレイヤから効果の第2のレイヤを選択可能であり得る。例えば、2本の指でタッチし、押さえることによって、ユーザは、出力外観を定義する、効果の第2のレイヤを制御するために、ピンチ/回転ジェスチャを起動し得る。ピンチインおよびピンチアウトすることは、ソースメディアの上に合成されるオーバレイスタイルの効果レイヤのスケールおよび強度を制御し得る。例えば、装飾模様、「ノイズ」もしくは他の美的オーバーレイ、放射状もしくは線形のぼけ、ぼけ味、または他の極度に様式化されたレイヤまたは後処理処置。左側から右側へドラッグすることは、そのようなオーバーレイの位置をソースに対して制御し、または、それがタイルベースである場合には、そのオフセットを反復して制御し得る。2本の指を仮想的な中心点の周りで互いに対して回転させることなどによって回転させることは、所与の効果のニュアンスを変化させ得る「ダイアル」の機能を果たす。例えば、装飾模様について、これは、ぼけの減衰率を制御し得る。本発明による1つの望ましい機能は、調査および出力結果の形式での直接的なフィードバックに完全に依存しつつ、ユーザがどのように効果を制御するかに慣れ親しむように、外観ベースの効果のパラメータを修正するためのジェスチャを形式化することである。
効果制御は、外観効果メニュー1005を使用して、ビデオプレビュースクリーン1003から起動され得る。外観効果メニュー1005は、効果アイコンをタップすることによって起動され得る。あるいは、外観効果メニュー1005は、画面上を指で押さえ、次いで、円などのジェスチャを実行することなどのジェスチャによって起動され得る。外観効果メニュー1005は、あるいは、同じ位置において一定期間接点を押さえて、スクリーンにタッチすることによって起動されてもよい。いったん一定期間が経過すると、外観効果メニュー1005が起動される。外観効果メニュー1005は、このジェスチャを繰り返すことによって、または効果アイコンを繰り返しタップすることによって、開いた状態および閉じた状態に切り替えられ得る。外観効果メニュー1005は、各効果が現在のフレームのスケール化された表現上の効果を処理するサムネイルとして描かれるスクロールストリップにおいて一連の効果を提示し得る。各サムネイルは、効果ラベルを有することができ、現在ハイライトされている効果は、アクティブである。現在の効果をタップすることは、効果をオンおよびオフに切り替え得る。
ピンチインおよびピンチアウトすること1020は、選択された外観効果を制御するために使用され得る。例えば、ピンチインおよびピンチアウトすることは、効果に合わせて作られた設計された装飾模様またはオーバーレイの強度を制御し得る。効果の意図される外観に応じて、これは、より暗い、もしくは、より明るい効果、センターフォーカス、もしくは、ぼけ、色収差、または他の様式化された後処理を制御し得る。効果強度範囲は、閉じられた状態のピンチについての0の値から、完全に離れた状態のピンチについての1まで変化し得る。完全に離れた状態のピンチ条件は、2つのピンチポイントが一定の閾値距離を超える場合に満たされる。
回転すること1025は、選択された外観効果を制御するためにも使用され得る。2本の指を左側から右側へ回転することは、ノイズ、利得等などの任意の合成されたオーバーレイテクスチャの強度をダイアルし得る。右方向への回転は、テクスチャコントラストおよび視認性を増加させるために使用されることができ、左方向への回転は、それを減少させ得る。全ての効果が、明らかなテクスチャと組み合わされる必要はないが、そのようなものの汎用アプリケーションは、わずかなノイズまたは同様のものを追加することであり得る。
効果外観は、ジェスチャによってビデオ上で起動および制御され得る。ユーザは、スクリーン上でジェスチャを行って、主なファインダ上の効果をリアルタイムで制御し得る。例えば、スクリーン上のポイントを短期間押さえることによって、効果制御がイネーブルされる1010。短期間押さえることは、効果の制御と、焦点または他の基礎的な相互作用の制御とを区別するために使用され得る。いったん外観を制御することがイネーブルされる1015と、あらゆる方向へドラッグすることは、4ポールスキームを使用する効果を制御し得る。効果は、2つの補完的なプロセスが対向するY軸上で発生するように構成され得、例えば、マイナス1から0は、ブリーチバイパスの強度を制御するのに対して、0から1は、クロスプロセスの強度を制御する。中心、またはゼロ値において、効果は、オフか、または、ほぼオフである。約0.5において、効果は、完全な通常の強度である。約0.5から1.0の間では、効果は、かなり極端な、または誇張された強度レベルを突き抜け得る。1つの例示的実施形態において、色調または他の色輪郭は、X軸上で制御される。
上記に図示および議論された要素は、ハードウェア、ソフトウェア、または、これらの組み合わせの様々な形式において実装され得ることが理解されるべきである。好適には、これらの要素は、プロセッサと、メモリと、入力/出力インターフェースとを含み得る、1または複数の適当にプログラムされた汎用デバイス上で、ハードウェアとソフトウェアとの組み合わせにおいて実装される。本説明は、本開示の原理を例示する。したがって、当業者は、本明細書において明示的に説明または図示されていなくても、本開示の原理を具現化し、その範囲内に含まれる様々な構成を考え出すことができることが認識されるであろう。本明細書において記載された全ての例および条件付きの文言は、本技術分野を前進させるために本発明者によって寄与される本開示の原理および概念を読者が理解する際の助けとなるための情報目的を意図され、そのような具体的に記載された例および条件への制限はないものとして解釈されるべきである。さらに、本開示の原理、態様、および実施形態を記載した本明細書における全ての記述、およびそれらの具体的な例は、それらの構造的および機能的な等価物を包含することが意図される。また、そのような等価物は、現在知られている等価物と将来開発される等価物との両方、すなわち、構造に関わらず、同じ機能を実行する任意の開発された要素を含むことが意図される。したがって、例えば、本明細書に添付されるブロック図は、本開示の原理を具現化する例示の回路の概念的な図を表すことが当業者によって認識されるであろう。同様に、いかなるフローチャート、フロー図、状態遷移図、疑似コード等も、コンピュータ読取可能な媒体において実質的に表され、そのため、そのようなコンピュータまたはプロセッサが明示的に図示されていてもいなくても、コンピュータまたはプロセッサによって実行され得る様々なプロセスを表すことが認識されるであろう。

Claims (21)

  1. 画像を変更する方法であって、
    画像を表示するステップと、
    第1のユーザ起動のジェスチャに対応する第1の制御信号を受信するステップと、
    前記第1の制御信号に応答して第1の効果制御モードを起動するステップと、
    第2のユーザ起動のジェスチャに対応する第2の制御信号を受信するステップと、
    前記第2の制御信号に応答して前記画像の変更されたバージョンを表示するステップと、
    を含む、前記方法。
  2. 前記画像は、前記第2の制御信号における変化と同時に徐々に変更される、請求項1に記載の方法。
  3. 前記画像の変更されたバージョンを前記表示するステップは、前記制御信号に応答してグラフィカルユーザインタフェースを表示することを含まない、請求項3に記載の方法。
  4. 第3のユーザ起動のジェスチャに対応する第3の制御信号を受信するステップと、
    前記第3のユーザ起動のジェスチャに応答して第2の効果制御モードを起動するステップと、
    をさらに含む、請求項1に記載の方法。
  5. 前記第2の効果制御モードは、前記第1の効果制御モードに関連する、請求項4に記載の方法。
  6. 前記画像の変更されたバージョンは、前記画像とは異なる色調を有する、請求項1に記載の方法。
  7. 前記画像の変更されたバージョンは、前記画像とは異なる輝度を有する、請求項1に記載の方法。
  8. 前記画像の変更されたバージョンは、前記画像とは異なるコントラストを有する、請求項1に記載の方法。
  9. 前記第2のユーザ起動のジェスチャは、前記第2のユーザ起動のジェスチャの第1の部分の間は第1のレートで、および前記第2のユーザ起動のジェスチャの第2の部分の間は第2のレートで、前記画像を変更することになる、請求項1に記載の方法。
  10. 前記第2のユーザ起動のジェスチャは、タッチスクリーンを横切って指をスイープ(sweep)することに対応する、請求項9に記載の方法。
  11. 前記制御信号はタッチスクリーンとの接触に応答して生成され、制御指示が前記第1の効果制御モードに関して表示されない、請求項1に記載の方法。
  12. 前記第2の制御信号に応答して前記画像の変更なしのバージョンを表示するステップを含み、前記第2の制御信号は、前記第2のユーザ起動のジェスチャの反転(reversal)に応答する、請求項1に記載の方法。
  13. 前記第2のユーザ起動のジェスチャに応答して視覚的指示を生成するステップをさらに含み、前記視覚的指示は、前記ジェスチャの開始位置を示す、請求項1に記載の方法。
  14. 前記視覚的指示は、前記第2のユーザ起動のジェスチャの視覚的表現をさらに示す、請求項13に記載の方法。
  15. 前記視覚的指示は、タッチスクリーン上の接点の周りの円である、請求項13に記載の方法。
  16. 前記第2のユーザ起動のジェスチャは、前記第2のユーザ起動のジェスチャの第1の部分の間は、前記画像の変更の漸進的な増加をもたらし、前記第2のユーザ起動のジェスチャの第2の部分の間は、前記画像の前記変更の漸進的な減少をもたらす、請求項1に記載の方法。
  17. 前記第2のユーザ起動のジェスチャの前記第1の部分と前記第2のユーザ起動のジェスチャの前記第2の部分との間の変化は、前記第2のユーザ起動のジェスチャの方向の変化に応答する、請求項156に記載の方法。
  18. 前記第2のユーザ起動のジェスチャの方向の変化は、前記第2のユーザ起動のジェスチャの方向の反転である、請求項17に記載の方法。
  19. ユーザ起動のジェスチャを受信するタッチセンサ式制御デバイスと、
    前記ユーザ起動のジェスチャに応答して複数の制御信号を生成するコントローラと、
    第1のユーザ起動のジェスチャに対応する第1の制御信号を受信し、前記第1の制御信号に応答して第1の効果制御モードを起動し、第2のユーザ起動のジェスチャに対応する第2の制御信号を受信し、前記第2の制御信号に応答して画像の変更されたバージョンを表現するデータを生成するプロセッサであって、前記画像は前記第2の制御信号における変化と同時に徐々に変更される、前記プロセッサと、
    前記画像を表示するよう作動するディスプレイであって、前記ディスプレイは前記画像の前記変更されたバージョンを表示するようさらに作動する、前記ディスプレイと、
    を備える、装置。
  20. 前記タッチセンサ式制御デバイス、前記コントローラおよび前記ディスプレイは、タッチスクリーンディスプレイの部分である、請求項19に記載の装置。
  21. メモリをさらに備え、前記メモリは、ビデオ効果プロセスに対応する複数のサブルーチンを記憶する、請求項20に記載の装置。
JP2015561336A 2013-03-08 2013-12-30 撮影効果のためにジェスチャを使用するための方法および装置 Pending JP2016517649A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361775346P 2013-03-08 2013-03-08
US61/775,346 2013-03-08
PCT/US2013/078235 WO2014137466A1 (en) 2013-03-08 2013-12-30 Method and apparatus for using gestures for shot effects

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019149139A Division JP2019220207A (ja) 2013-03-08 2019-08-15 撮影効果のためにジェスチャを使用するための方法および装置

Publications (2)

Publication Number Publication Date
JP2016517649A true JP2016517649A (ja) 2016-06-16
JP2016517649A5 JP2016517649A5 (ja) 2017-02-09

Family

ID=50031521

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015561336A Pending JP2016517649A (ja) 2013-03-08 2013-12-30 撮影効果のためにジェスチャを使用するための方法および装置
JP2019149139A Pending JP2019220207A (ja) 2013-03-08 2019-08-15 撮影効果のためにジェスチャを使用するための方法および装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019149139A Pending JP2019220207A (ja) 2013-03-08 2019-08-15 撮影効果のためにジェスチャを使用するための方法および装置

Country Status (8)

Country Link
US (1) US20160011749A1 (ja)
EP (1) EP2965527A1 (ja)
JP (2) JP2016517649A (ja)
KR (1) KR20150126359A (ja)
CN (1) CN105103567A (ja)
HK (1) HK1220064A1 (ja)
WO (1) WO2014137466A1 (ja)
ZA (1) ZA201506365B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220207A (ja) * 2013-03-08 2019-12-26 トムソン ライセンシングThomson Licensing 撮影効果のためにジェスチャを使用するための方法および装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207857B2 (en) * 2014-02-14 2015-12-08 EyeGroove, Inc. Methods and devices for presenting interactive media items

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164426A (ja) * 1996-11-28 1998-06-19 Nikon Corp 電子カメラ
JP2006245726A (ja) * 2005-03-01 2006-09-14 Fuji Photo Film Co Ltd デジタルカメラ
JP2009124314A (ja) * 2007-11-13 2009-06-04 Nikon Corp カメラ、および画像処理プログラム
JP2011003074A (ja) * 2009-06-19 2011-01-06 Sharp Corp 入力方法、入力装置及び電気機器
JP2011039989A (ja) * 2009-08-18 2011-02-24 Canon Inc 表示制御装置、表示制御方法、プログラム及び記憶媒体
JP2011215800A (ja) * 2010-03-31 2011-10-27 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012174252A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器、接触操作制御プログラムおよび接触操作制御方法
JP2013008326A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置及びその制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100835956B1 (ko) * 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
CN201266371Y (zh) * 2007-01-05 2009-07-01 苹果公司 手持移动通信装置
US8300877B2 (en) * 2007-02-20 2012-10-30 Sony Mobile Communications Ab Copy protected information distribution
US7956848B2 (en) * 2007-09-04 2011-06-07 Apple Inc. Video chapter access and license renewal
KR20090035254A (ko) * 2007-10-05 2009-04-09 윤달환 동영상 합성 및 실시간 피사체 추출을 통한 캐릭터 생성시스템
KR20100028344A (ko) * 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
US20110304584A1 (en) * 2009-02-23 2011-12-15 Sung Jae Hwang Touch screen control method and touch screen device using the same
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
US9535599B2 (en) * 2009-08-18 2017-01-03 Adobe Systems Incorporated Methods and apparatus for image editing using multitouch gestures
US8780134B2 (en) * 2009-09-30 2014-07-15 Nokia Corporation Access to control of multiple editing effects
JP2012033059A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2012058857A (ja) * 2010-09-06 2012-03-22 Sony Corp 情報処理装置、操作方法及び情報処理プログラム
US9466127B2 (en) * 2010-09-30 2016-10-11 Apple Inc. Image alteration techniques
US9933935B2 (en) * 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
US8982141B2 (en) * 2012-04-30 2015-03-17 Blackberry Limited Image processing method and apparatus
CN103809843B (zh) * 2012-11-08 2018-08-24 腾讯科技(深圳)有限公司 一种在浏览器中调节显示屏亮度的方法和装置
JP2016517649A (ja) * 2013-03-08 2016-06-16 トムソン ライセンシングThomson Licensing 撮影効果のためにジェスチャを使用するための方法および装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164426A (ja) * 1996-11-28 1998-06-19 Nikon Corp 電子カメラ
JP2006245726A (ja) * 2005-03-01 2006-09-14 Fuji Photo Film Co Ltd デジタルカメラ
JP2009124314A (ja) * 2007-11-13 2009-06-04 Nikon Corp カメラ、および画像処理プログラム
JP2011003074A (ja) * 2009-06-19 2011-01-06 Sharp Corp 入力方法、入力装置及び電気機器
JP2011039989A (ja) * 2009-08-18 2011-02-24 Canon Inc 表示制御装置、表示制御方法、プログラム及び記憶媒体
JP2011215800A (ja) * 2010-03-31 2011-10-27 Canon Inc 画像処理装置及び画像処理装置の制御方法
JP2012033060A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、表示制御方法及び表示制御プログラム
JP2012174252A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器、接触操作制御プログラムおよび接触操作制御方法
JP2013008326A (ja) * 2011-06-27 2013-01-10 Canon Inc 画像処理装置及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220207A (ja) * 2013-03-08 2019-12-26 トムソン ライセンシングThomson Licensing 撮影効果のためにジェスチャを使用するための方法および装置

Also Published As

Publication number Publication date
CN105103567A (zh) 2015-11-25
ZA201506365B (en) 2016-12-21
KR20150126359A (ko) 2015-11-11
JP2019220207A (ja) 2019-12-26
US20160011749A1 (en) 2016-01-14
EP2965527A1 (en) 2016-01-13
HK1220064A1 (zh) 2017-04-21
WO2014137466A1 (en) 2014-09-12

Similar Documents

Publication Publication Date Title
EP3047362B1 (en) Gesture based image styles editing on a touchscreen .
JP6175518B2 (ja) 自動ビデオセグメント化のための方法および装置
AU2013381005B2 (en) Method and apparatus for using a list driven selection process to improve video and media time based editing
EP3047642B1 (en) Method and apparatus for color detection to generate text color
JP2014183425A (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2019220207A (ja) 撮影効果のためにジェスチャを使用するための方法および装置
US20150348588A1 (en) Method and apparatus for video segment cropping

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180517

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180815

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190415