JP2023527250A - ビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体 - Google Patents

ビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2023527250A
JP2023527250A JP2022576468A JP2022576468A JP2023527250A JP 2023527250 A JP2023527250 A JP 2023527250A JP 2022576468 A JP2022576468 A JP 2022576468A JP 2022576468 A JP2022576468 A JP 2022576468A JP 2023527250 A JP2023527250 A JP 2023527250A
Authority
JP
Japan
Prior art keywords
video
processing
track
edit
processed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022576468A
Other languages
English (en)
Other versions
JP7307864B2 (ja
Inventor
ホー,ヤン
リ,シン
ヂャン,ウェンハイ
リ,ジンミン
シォン,ヂュアン
ドン,シンリャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023527250A publication Critical patent/JP2023527250A/ja
Application granted granted Critical
Publication of JP7307864B2 publication Critical patent/JP7307864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本開示はビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体を提供し、処理対象ビデオを受信するステップと、表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示するステップと、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示されるステップと、を含む。該解決手段はビデオ処理過程における画面プレビュー、トラック編集及び処理機能ナビゲーションに対して領域分割を行い、且つ合理的な連動メカニズムを設定することによって、ユーザーが該解決手段を使用してビデオ処理を行う場合、豊かな処理機能を簡単に取得できることを確保し、ユーザーエクスペリエンスを向上させる。【選択図】図1

Description

本願は、2020年6月10日に提出された中国特許出願第202010525242.8号の優先権を主張し、該中国特許出願の全内容が引用により本願の一部として組み込まれている。
本開示はコンピュータの技術分野に関し、具体的には、本開示はビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体に関する。
モバイルインターネットの急速な発展に伴い、モバイル側のビデオ処理類APP(Application、アプリケーション)の需要も高まっており、従来のビデオ処理類APPはPC(Personal Computer、パーソナルコンピュータ)側のビデオ処理ソフトウェアの機能及びロジックを完全にコピーしたかPC側のビデオ処理ソフトウェアの機能及びロジックを簡素化したものであり、前者が提供するビデオ処理機能は複雑で使いにくいが、後者は機能拡張性が低いためユーザーの需要を満たすことができない。
該発明の概要は簡単な形態でアイディアを説明するために提供され、これらのアイディアは後の発明を実施ための形態において詳細に説明される。該発明の概要は主張される技術的解決手段の重要な特徴又は必要な特徴を特定するものではなく、主張される技術的解決手段の範囲を限定するものでもない。
第1態様によれば、本開示の実施例はビデオ処理方法を提供し、
処理対象ビデオを受信するステップと、
表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示するステップと、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示されるステップと、を含む。
第2態様によれば、本開示の実施例はビデオ処理装置を提供し、
処理対象ビデオを受信することに用いられる処理対象ビデオ受信モジュールと、
表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示することに用いられる処理対象ビデオ表示モジュールと、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられる処理対象ビデオ処理モジュールであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示される処理対象ビデオ処理モジュールと、を備える。
第3態様によれば、本開示の実施例は電子機器を提供し、メモリ及びプロセッサを備え、
メモリにコンピュータプログラムが記憶されており、
プロセッサは、コンピュータプログラムを実行して第1態様の実施例に係る方法を実現することに用いられる。
第4態様によれば、本開示の実施例はコンピュータ可読記憶媒体を提供し、コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、コンピュータプログラムがプロセッサにより実行されると第1態様の実施例に係る方法を実現する。
本開示の実施例に係る技術的解決手段による有益な効果は以下の通りである。
処理対象ビデオを処理する過程では、ビデオプレビュー領域によってプレビュー画面を表示し、トラック編集領域によって編集識別子を表示し、処理機能ナビゲーション領域によって選択対象の処理機能を表示し、ユーザーが所要の処理機能をトリガーすることを受信すると、処理対象ビデオクリップを処理して処理済みのビデオを得て、処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示する。該解決手段はビデオ処理過程における画面プレビュー、トラック編集及び処理機能ナビゲーションに対して領域分割を行い、且つ合理的な連動メカニズムを設定することによって、ユーザーが該解決手段を使用してビデオ処理を行う場合、豊かな処理機能を簡単に取得できることを確保し、ユーザーエクスペリエンスを向上させる。また、該解決手段はアプリケーションの機能拡張性を向上させることもでき、さらにユーザーの需要を満たし、ユーザーの操作エクスペリエンスを向上させる。
本開示の実施例の技術的解決手段をより明確に説明するために、以下、本開示の実施例の説明に使用される必要な図面を簡単に説明する。
図1は本開示の実施例に係るビデオ処理方法の模式的フローチャートである。 図2aは本開示の実施例におけるユーザーが処理対象ビデオをアップロードした後の表示インタフェースの模式図である。 図2bは本開示の実施例におけるユーザーが図2aの表示インタフェースのトラック編集領域に左向きスライド操作を送信した後の表示インタフェースの模式図である。 図3aは本開示の実施例の一例における特殊効果追加処理機能に対応するトラック編集領域の模式図である。 図3bは本開示の実施例の一例におけるビデオ分割処理機能に対応するトラック編集領域の模式図である。 図4は本開示の実施例に係るビデオ処理装置の構造ブロック図である。 図5は本開示の実施例に係る電子機器の構造模式図である。
以下、本開示の実施例を詳細に説明し、前記実施例の例示は図面に示され、全明細書を通して同じ又は類似する符号は同じ又は類似する素子、或いは同じ又は類似する機能を有する素子を示す。以下、図面を参照しながら説明される実施例は例示的であり、単に本開示を解釈することに用いられ、本発明を限定するものではないと解釈すべきである。
当業者が理解できるように、特に断らない限り、ここで使用される単数形「一」、「1つ」、「前記」及び「該」は複数形を含んでもよい。さらに理解すべき点として、本開示の明細書に使用される用語「含む」とは、前記特徴、整数、ステップ、操作、素子及び/又はユニットが存在するが、1つ又は複数のほかの特徴、整数、ステップ、操作、素子、ユニット及び/又はそれらのグループが存在する又は追加されることを排除しないことを意味する。理解すべき点として、素子が別の素子に「接続」又は「結合」されると記載される場合、ほかの素子に直接接続又は結合されてもよく、又は中間素子が存在してもよい。また、ここで使用される「接続」又は「結合」は無線接続又は無線結合を含んでもよい。ここで使用される用語「及び/又は」は1つ以上の関連するリストアイテムのすべて又はいずれかのユニット及びすべての組合せを含む。
本開示の目的、技術的解決手段及び利点をより明確にするために、以下、図面を参照しながら本開示の実施形態をさらに詳細に説明する。
図1は本開示の実施例に係るビデオ処理方法の模式的フローチャートであり、該方法の実行主体はビデオ処理サービスアプリケーションをインストールした電子機器を含んでもよく、図1に示すように、該方法はステップS101~S103を含む。
ステップS101、処理対象ビデオを受信する。
たとえば、処理対象ビデオはユーザーがアップロードする未処理のビデオを含んでもよく、アプリケーションに保存される処理済みのドラフトビデオを含んでもよく、さらにユーザーがアップロードする複数の画像を接合して形成される未処理のビデオを含んでもよい。
具体的には、ユーザーはアプリケーションを開いた後、アプリケーションインタフェース内に設定された新ビデオ追加ボタンによってローカルに記憶されている未処理のビデオを選択してアップロードしてもよく、又はアプリケーションに保存されている前回処理されたドラフトビデオを直接選択してもよい。また、ユーザーはさらにアプリケーションインタフェース内に設定された新ビデオ追加ボタンによってローカルに記憶されている複数の画像を選択してアップロードしてもよく、アプリケーションは受信した複数の画像を接合してビデオを処理対象ビデオとして形成してもよい。本開示は処理対象ビデオの受信方式を限定しない。アプリケーションは処理対象ビデオを受信すると関連表示及び処理操作を行う。
ステップS102、表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示する。
たとえば、アプリケーションの表示インタフェースは処理対象ビデオの関連情報を表示するように3つの領域を含んでもよく、該3つの領域はそれぞれビデオプレビュー領域、トラック編集領域及び処理機能ナビゲーション領域を含む。
図2aに示すように、表示インタフェース内にビデオプレビュー領域201、トラック編集領域202及び処理機能ナビゲーション領域203が含まれている。
一実施例では、ビデオプレビュー領域201は、再生インタフェースとみなされてもよく、プレビュー画面を表示することに用いられる。ビデオプレビュー領域201は処理対象ビデオの各ビデオクリップに対応するプレビュー画面を表示してもよく、処理対象ビデオ全体を再生してもよい。
トラック編集領域202は、タイムライン204とタイムラインルーラー205が設定されており、少なくとも1種の編集識別子を表示することに用いられる。処理対象ビデオを受信すると、トラック編集領域202に処理対象ビデオの編集トラック206を表示し、処理対象ビデオの編集トラック206のトラック開始点はタイムライン204の開始点に位置合わせされ、処理対象ビデオの編集トラック206に処理対象ビデオの各ビデオクリップが表示される。ユーザーは処理対象ビデオの編集トラック206の長さ方向において処理対象ビデオの編集トラック206に対して伸張及び圧縮操作を行うことができる。編集トラック206に対する伸張操作を受信すると、アプリケーションはタイムライン204を縮小し、編集トラック206に対する圧縮操作を受信すると、アプリケーションはタイムライン204を拡大する。
処理機能ナビゲーション領域203は、処理対象ビデオを処理するための様々な処理機能、たとえば、編集機能、フィルター機能、特殊効果機能等を表示することに用いられる。処理機能ナビゲーション領域203はマルチレベルナビゲーションバーを含んでもよく、各レベルのナビゲーションバーには対応する処理機能が表示される。ユーザーは必要に応じてマルチレベルナビゲーションバーを開くことによって対応する処理機能をトリガーすることができる。処理機能ナビゲーション領域203にマルチレベルナビゲーションバーが設定されることによって、ユーザーにより簡単で使いやすい操作インタフェース及びより多くの選択可能な処理機能を提供できるとともに、アプリケーションの機能拡張性を向上させ、ユーザーの需要を満たし、ユーザーの操作エクスペリエンスを向上させることができる。
ステップS103、いずれかの処理機能に対するトリガー操作を受信すると、いずれかの処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、いずれかの処理機能に対応する編集識別子をトラック編集領域に表示し、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示される。
たとえば、編集識別子はユーザーが対応する処理機能をトリガーしたことを指示する。一実施例では、編集識別子は編集トラック及び編集効果識別子を含んでもよい。
具体的には、ユーザーは処理機能ナビゲーション領域内でいずれかの処理機能に対するトリガー操作を送信すると、該処理機能を実行する処理命令を送信する。アプリケーションは該処理機能を実行する処理命令を受信した後、該処理機能を使用して処理対象ビデオの処理対象クリップを処理して処理済みのビデオを得る。アプリケーションは処理済みのビデオのプレビュー画面をビデオプレビュー領域201に表示し、該処理機能に対応する編集識別子をトラック編集領域202に表示する。且つ、トラック編集領域202において、該処理機能に対応する編集識別子と処理対象ビデオの編集トラックはオーバーレイ表示される。一実施例では、表示される編集識別子が該処理機能に対応する編集トラックを含むと、アプリケーションは該処理機能に対応する編集トラックと処理対象ビデオの編集トラックをトラック編集領域に並行してオーバーレイ表示し、表示される編集識別子が該処理機能に対応する編集効果識別子を含む場合、アプリケーションは該処理機能に対応する編集効果識別子を処理対象ビデオの編集トラック上に重畳させてオーバーレイ表示する。
本開示に係る解決手段は、処理対象ビデオを処理する過程では、ビデオプレビュー領域によってプレビュー画面を表示し、トラック編集領域によって編集識別子を表示し、処理機能ナビゲーション領域によって選択対象の処理機能を表示し、ユーザーが所要の処理機能をトリガーすることを受信すると、処理対象ビデオクリップを処理して処理済みのビデオを得て、処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示する。該解決手段はビデオ処理過程における画面プレビュー、トラック編集及び処理機能ナビゲーションに対して領域分割を行い、且つ合理的な連動メカニズムを設定することによって、ユーザーが該解決手段を使用してビデオ処理を行う場合、豊かな処理機能を簡単に取得できることを確保し、ユーザーエクスペリエンスを向上させる。また、該解決手段はアプリケーションの機能拡張性を向上させることもでき、さらにユーザーの需要を満たし、ユーザーの操作エクスペリエンスを向上させる。
本開示の1つの選択可能な実施例では、いずれかの処理機能に対するトリガー操作を受信する前に、該方法は、
トラック編集領域でのスライド操作を受信し、処理対象ビデオの開始編集点を決定するステップをさらに含んでもよい。
処理対象ビデオの開始編集点はユーザーがトラック編集領域における処理対象ビデオの編集トラックを左右にスライドすることによって選定されてもよい。具体的には、ユーザーのトラック編集領域でのスライド操作は処理対象ビデオの編集トラックとタイムラインルーラーとの相対位置を変更するものとして理解されてもよく、タイムラインルーラーの位置が固定し(たとえば、トラック編集領域の中央部に位置する)且つ処理対象ビデオの編集トラックに垂直であり、従って、スライド操作によってタイムラインの処理対象ビデオの編集トラックでの位置を変更できる。
具体的には、タイムラインルーラーと処理対象ビデオの編集トラックとの交点に対応するタイムライン上の時点を処理対象ビデオの開始編集点とする。ユーザーが選択する処理機能を受信すると、アプリケーションは該開始編集点から処理対象ビデオの処理を開始してもよい。ユーザーが図2aに示すトラック編集領域202内で処理対象ビデオの編集トラック206を左にスライドして図2bに示すものを得る場合を例として、図2bに示すように、タイムラインルーラー205と処理対象ビデオの編集トラック206との交点Aに対応するタイムライン204上の時点は対応する開始編集点であり、図2bを例としてわかるように、該開始編集点はタイムライン204上の時刻00:05に対応する。
本開示の1つの選択可能な実施例では、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能に対応し前記いずれかの処理機能の機能識別子及び処理パラメータを含む処理命令を取得するステップと、
機能識別子及び開始編集点に基づいて処理対象ビデオクリップを決定し、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップと、
処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップであって、編集識別子は開始編集点を基準点として処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされるステップと、を含んでもよい。
以上の説明からわかるように、ユーザーは処理機能ナビゲーション領域内でいずれかの処理機能に対するトリガー操作を送信すると、該処理機能を実行する処理命令を送信し、該処理命令は処理機能の機能識別子及び処理パラメータを含む。たとえば、機能識別子はユーザーが選択する処理機能を指示することに用いられ、処理パラメータは処理対象ビデオクリップを処理するパラメータを含み、メディアリソースを追加する処理機能を例として、その処理パラメータは対応するメディアリソース識別子を含む。
具体的には、アプリケーションは処理命令を受信すると、まず、その中の機能識別子に応じて対応する処理機能に対応する時間を取得する。一実施例では、処理機能に対応する時間は予め設定されてもよい。たとえば、ステッカー機能に対応する時間を1秒に設定してもよく、アプリケーションはステッカー機能の機能識別子を受信すると、該処理機能に対応する時間が1秒であると決定してもよい。その後、アプリケーションは開始編集点及び処理機能に対応する時間に応じて対応する処理対象ビデオクリップを決定し、具体的には、アプリケーションは開始編集点を処理対象ビデオクリップの開始点とし、処理機能に対応する時間を処理対象ビデオクリップの時間とし、さらに処理対象ビデオクリップを決定するようにしてもよい。処理対象ビデオクリップを決定した後、アプリケーションは機能識別子に対応する処理機能及び対応する処理パラメータを使用して、決定した処理対象ビデオクリップを処理し、それによって処理済みのビデオを得る。
さらに、得た処理済みのビデオに基づいて、アプリケーションは該処理済みのビデオに対応するプレビュー画面をビデオプレビュー領域に表示し、ある時刻(たとえば、開始編集点の時刻)のプレビュー画面のみを表示してもよく、受信した再生トリガー操作に基づいて処理済みのビデオを再生してもよい。
ユーザーが選択する機能を実行した後、該処理機能に対応する編集トラックと処理対象ビデオの編集トラックはトラック編集領域に並行してオーバーレイ表示され、且つ該処理機能に対応する編集トラックは開始編集点を基準点として処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされる。処理機能が特殊効果追加機能であることを例として、該特殊効果追加に対応する時間は0.3秒であり、開始編集点がタイムライン上の時刻00:05に対応すると、アプリケーションは処理対象ビデオクリップが00:05~00:35の処理対象ビデオクリップであると決定する。アプリケーションは該00:05~00:35の処理対象ビデオクリップに対して特殊効果追加を行った後、トラック編集領域に特殊効果追加に対応する編集トラックを処理対象ビデオの編集トラックと並行して表示し、且つ該特殊効果追加機能に対応する編集トラックと処理対象ビデオクリップはそれぞれタイムライン上の00:05~00:35に対応し、すなわち、両者は開始編集点を基準点としてタイムライン上で位置合わせされる。また、ビデオを処理すると同時に、アプリケーションは現在の命令の逆処理命令を生成してもよい。たとえば、追加命令の逆命令は削除であり、削除命令は処理機能に対応する識別子及び処理パラメータを含む。アプリケーションは前記逆処理命令をキャンセルキューに格納し、且つユーザーインタフェースにキャンセルボタンを表示する。ユーザーインタフェースのキャンセルボタンに対するユーザーのクリック操作を受信すると、該逆処理命令を実行し、すなわち、前のステップの処理命令に対応する処理機能をキャンセルする。
本開示の1つの選択可能な実施例では、処理機能がメディアリソース追加処理機能である場合、対応する処理パラメータは処理機能に対応するメディアリソース識別子を含み、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップは、
メディアリソース識別子に基づいて対応するメディアリソースを取得するステップと、
メディアリソースを処理対象ビデオクリップにマウントして処理済みのビデオを得るステップと、を含む。
一実施例では、アプリケーションはメディアリソース識別子に応じて対応する処理機能のメディアリソースライブラリから対応するメディアコンテンツを取得し、該メディアリソースライブラリには該処理機能に対応する複数種のメディアリソースが含まれ、且つ各種のメディアリソースはそれぞれ対応するメディアリソース識別子を有し、それによってメディアリソース識別子のマッチングだけで対応するメディアリソースを取得できる。到メディアリソースを取得して処理対象ビデオクリップを決定した後、アプリケーションは該メディアリソースを処理対象ビデオクリップにマウントすれば処理済みのビデオを得る。
フィルター追加機能を例として、アプリケーションはフィルターリソース識別子に応じてフィルターリソースライブラリから対応するフィルターリソースパッケージを取得し、該フィルターリソースパッケージを処理対象ビデオクリップに追加してレンダリングを行えば処理済みのビデオを得る。
また、本開示の1つの選択可能な実施例では、処理機能がメディアリソース追加処理機能である場合、対応する処理パラメータは処理機能に対応するメディアリソース識別子及び追加対象コンテンツパラメータを含み、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップは、
メディアリソース識別子に基づいて対応するメディアリソースを取得するステップと、
前記メディアリソース及び前記追加対象コンテンツパラメータに基づいて追加対象メディアリソースを取得するステップと、
前記追加対象メディアリソースを処理対象ビデオクリップにマウントして処理済みのビデオを得るステップと、を含む。
文字追加機能を例として、アプリケーションが受信した処理パラメータはユーザーが入力した追加対象文字コンテンツパラメータ及びユーザーが選択した文字効果リソースパッケージ識別子を含み、アプリケーションは文字効果リソースパッケージ識別子に応じて文字効果リソースライブラリから対応する文字効果リソースパッケージを取得し、該文字効果リソースパッケージに応じて追加対象文字を処理して処理済みの文字効果付き追加対象文字を追加対象メディアリソースとして得て、アプリケーションは該文字効果付き追加対象文字を処理対象ビデオクリップに追加してレンダリングを行い、それによって処理済みのビデオを得る。
本開示の1つの選択可能な実施例では、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
処理機能に対応する編集トラックをトラック編集領域に表示するステップであって、処理機能に対応する編集トラックは開始編集点を基準点として対応する処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされ且つ並行してオーバーレイ表示されるステップを含む。
処理機能に対応する編集トラックと処理対象ビデオの編集トラックは並行してオーバーレイ表示され、且つ該処理機能に対応する編集トラックと対応する処理対象ビデオクリップはタイムライン上で位置合わせされ、該処理機能に対応する編集トラックと対応する処理対象ビデオクリップとが位置合わせされる基準点は処理対象ビデオの開始編集点である。処理機能が特殊効果追加であり、且つ対応するメディアリソースが特殊効果タイプ1であることを例として説明を行い、図3aに示すように、特殊効果タイプ1を追加する処理命令を実行した後、特殊効果タイプ1に対応する編集トラック301は開始編集点Bを基準点とし、対応する処理対象ビデオクリップ(すなわち、処理対象ビデオクリップの編集トラック302において、タイムラインルーラー303から開始し右へ編集トラック302の破線まで終了するビデオクリップ)の編集トラック302とタイムライン304に位置合わせされる。図3aからわかるように、特殊効果タイプ1の編集トラック301と処理対象ビデオクリップの編集トラック302は位置合わせされ且つタイムライン304上の00:05~00:20に対応する。
本開示の1つの選択可能な実施例では、該方法は、
前記処理機能に対応する編集トラックに対する選定操作を受信すると、前記処理機能に対応するナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップをさらに含んでもよい。
一実施例では、アプリケーションは編集識別子に対するユーザーの選定操作を受信することによってトラック編集領域と処理機能ナビゲーション領域との連動を実現できる。具体的には、ユーザーがトラック編集領域で選定するある処理機能に対応する編集識別子を受信すると、アプリケーションは該処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示し、該ナビゲーションバーには該処理機能に関連付けられた処理機能が表示される。たとえば、処理機能が特殊効果追加であることを例として、図3aでは、ユーザーがクリックによって対応する特殊効果タイプ1の編集トラックを選定すると、処理機能1(たとえば、「置換特殊効果」)、処理機能2(たとえば、「コピー特殊効果」)…処理機能n(たとえば、「削除特殊効果」)など特殊効果追加に関連付けられた処理機能のトリガーボタンを処理機能ナビゲーション領域に表示する。
本開示の1つの選択可能な実施例では、処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示するステップは、
処理機能に対応する編集トラックの選定操作を受信すると、アプリケーションは視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示するステップと、を含む。
たとえば、ビューモデル及びナビゲーションバーマネージャはいずれもアプリケーション内の機能ユニットである。
たとえば、状態情報は編集識別子の選定状態を指示し、状態情報は編集識別子が選定される又は選定されていないことを指示してもよい。
具体的には、ある処理機能の編集識別子に対するユーザーの選定操作を受信すると、アプリケーションはビューモデル中の該処理機能に対応する編集識別子の状態情報を選定状態に更新し、ビューモデルは更新済みの状態情報をナビゲーションバーマネージャに送信し、ナビゲーションバーマネージャは該更新済みの状態情報を受信すると、該処理機能に対応する編集識別子の状態情報が選定状態に更新されたと決定し、この場合、該編集識別子に対応する処理機能に対応するナビゲーションバーを作成し且つ該ナビゲーションバーを表示し、たとえば、該ナビゲーションバーには該処理機能に関連付けられた処理機能が表示されてもよい。
本開示の1つの選択可能な実施例では、処理済みのビデオを得た後、該方法は、
ビューモデルに処理完了通知を送信するステップと、
処理完了通知に応答して、ビューモデルによってトラックマネージャに更新済みの編集識別子情報を送信し、それによってトラックマネージャが更新済みの編集識別子情報に応じて、処理機能に対応する編集識別子をトラック編集領域に表示するステップと、をさらに含んでもよい。
たとえば、ビューモデル及びトラックマネージャはいずれもアプリケーション内の機能ユニットである。
処理済みのビデオを得た後、アプリケーションはビューモデルに処理完了通知を送信することによって、ビューモデルによる現在の処理対象ビデオクリップの処理が完了したことを知らせる。ビューモデルは該更新済みの編集識別子情報をトラックマネージャに送信し、たとえば、該更新済みの編集識別子情報は対応する処理機能に応じて決定される。トラックマネージャは受信した更新済みの編集識別子情報に応じて対応する編集識別子を作成し、作成した編集識別子をトラック編集領域に表示する。
本開示の1つの選択可能な実施例では、いずれかの処理機能に対するトリガー操作を受信する前に、方法は、
処理対象ビデオの編集トラックでの選定操作を受信し、処理対象ビデオの処理対象ビデオクリップを決定するステップと、
処理対象ビデオクリップを処理するための処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示するステップと、をさらに含む。
一実施例では、トラック編集領域中の処理対象ビデオの編集トラックをスライドさせることによって処理対象ビデオの開始編集点を選定することに加えて、ユーザーはさらに処理対象ビデオの編集トラックを選定するか、又はシステムは処理対象ビデオの編集トラックを自動的に選定するようにしてもよい。処理対象処理ビデオは少なくとも1つのビデオクリップを含んでもよく、たとえば、選定されたビデオクリップを処理対象ビデオクリップとして決定する。このようなビデオクリップの選択方式では、アプリケーションは処理対象ビデオクリップを決定すると同時に、さらに処理対象ビデオクリップを処理するための処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示してもよく、すなわち、処理対象ビデオの編集トラックでのユーザー選定操作を受信することによって、アプリケーションは処理対象ビデオクリップを処理するための処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示する。アプリケーションは該ナビゲーションバー内でのいずれかの処理機能に対するユーザーのトリガー操作を受信すると、処理対象ビデオクリップの処理を実現できる。
本開示の1つの選択可能な実施例では、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得するステップと、
処理命令に基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップと、
処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域内に重畳してオーバーレイ表示されるステップと、を含む。
具体的には、以上の説明からわかるように、処理機能がトリガーされる前に、アプリケーションは処理対象ビデオの編集トラックでのユーザーの選定操作を受信することによって対応する処理対象クリップを決定した。処理機能に対するユーザーのトリガー操作を受信し、すなわち、ユーザーが該処理操作を実行する処理命令を送信すると、アプリケーションは該処理命令中の機能識別子及び処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得る。処理済みのビデオを得た後、アプリケーションは対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示する。たとえば、編集識別子は編集効果識別子を含んでもよく、且つ、該編集効果識別子は処理対象ビデオの編集トラックとトラック編集領域内に重畳してオーバーレイ表示されてもよい。一実施例では、処理対象ビデオの編集トラックに対する選定操作は前記処理対象ビデオを編集する少なくとも1つの処理機能に対応してもよい。
処理機能がビデオ分割であることを例として説明を行う。図3bに示すように、処理対象ビデオの編集トラックでのユーザーの選定操作を受信すると、アプリケーションは、処理対象ビデオクリップを処理するための処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域313に表示する。アプリケーションは、該ナビゲーションバー内でのビデオ分割処理機能に対するユーザーのクリック操作を受信し、且つ処理対象ビデオの編集トラックでの処理対象ビデオクリップ311に対するユーザーの移動操作をさらに受信すると、ビデオ分割機能に対応する処理命令を取得してもよく、該処理命令はビデオ分割機能識別子及び処理パラメータ(たとえば、処理パラメータは現在の操作のビデオクリップ識別子及びビデオクリップの目標位置時間等を含む)を含んでもよく、アプリケーションは上記処理命令に基づいて処理対象ビデオクリップを処理して処理済みのビデオを得る。また、処理済みのビデオに基づいて、アプリケーションはさらに対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集効果識別子312をトラック編集領域に表示するようにしてもよく、図3bに示すように、編集効果識別子312と処理対象ビデオの編集トラックはトラック編集領域内に重畳してオーバーレイ表示される。
本開示の1つの選択可能な実施例では、処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを処理機能ナビゲーション領域に表示するステップは、
処理対象ビデオの編集トラックでのユーザーの選定操作を受信すると、アプリケーションは視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
更新済みの状態情報に応答して、アプリケーションはナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示するステップと、を含む。
処理対象ビデオの編集トラックを選定することによってトラック編集領域と処理機能ナビゲーション領域との連動を実現できる。ユーザーがトラック編集領域であるビデオクリップを選定すると、該処理対象ビデオクリップを処理するための処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示し、該ナビゲーションバーには該処理対象ビデオクリップの処理に使用できる処理機能が表示される。
また、一実施例では、機能ナビゲーション領域内の処理機能に対するトリガー操作によって、トリガーされる処理機能に対応する編集識別子をトラック編集領域に表示でき、それによって、処理機能ナビゲーション領域とトラック編集領域との連動を実現する。ある処理機能に対するユーザーの選定操作を受信すると、アプリケーションはビューモデル中の該処理機能に対応する編集トラックの状態情報を選定状態に更新し、ビューモデルは更新済みの状態情報をトラックマネージャに送信し、トラックマネージャは該更新済みの状態情報を受信すると、該処理機能に対応する編集トラックの状態情報が選定状態に更新されたと決定し、該対応する編集トラックを表示又は選定する。たとえば、機能ナビゲーション領域内でのビデオを編集する処理機能に対するトリガー操作を受信すると、アプリケーションは処理対象ビデオの編集トラックに対する選定をトラック編集領域に表示し、機能ナビゲーション領域内でのメディアリソース追加処理機能に対するトリガー操作を受信すると、アプリケーションは該処理機能に対応する編集トラックをトラック編集領域に表示する。
本開示の1つの選択可能な実施例では、処理対象ビデオの編集トラックにビデオクリップ追加ボタンが表示されており、それによって、該方法は、
ビデオクリップ追加ボタンによってビデオ追加操作を受信すると、ビデオ追加操作に対応する追加対象ビデオクリップを取得するステップと、
追加対象ビデオクリップに応じて処理対象ビデオの編集トラックを更新するステップと、をさらに含んでもよい。
ユーザーが処理対象ビデオを処理する過程では、さらに新たなビデオクリップを追加する必要があると、ビデオクリップ追加ボタンをクリックしてビデオ追加操作をトリガーし、さらにローカルから追加対象ビデオクリップをアップロードするようにしてもよい。該追加対象ビデオのアップロードを受信すると、アプリケーションは処理対象ビデオの編集トラックを更新する。一実施例では、アプリケーションはタイムラインルーラーの位置に対応する時点を決定してもよく、アプリケーションは前記時点に応じて現在の処理対象ビデオに対応するタイムライン上の位置で、追加対象ビデオクリップを現在の処理対象ビデオに追加して処理対象ビデオの編集トラックを更新する。一実施例では、前記時点が現在の処理対象ビデオに対応するタイムラインの中心点の左側の位置にあると、アプリケーションは追加対象ビデオクリップをタイムラインの開始点から現在の処理対象ビデオに追加し、前記時点が現在の処理対象ビデオに対応するタイムラインの中心点の右側の位置にあると、アプリケーションは追加対象ビデオクリップを現在の処理対象ビデオの終了時点から追加し始める。また、アプリケーションはさらにほかの実施形態に従って追加対象ビデオクリップを現在の処理対象ビデオに追加してもよく、本開示はこれを限定しない。
本開示の実施例では、トリガー操作はクリック、文字/音声入力及びタッチ入力(たとえば、図3bにおける処理対象ビデオクリップ311を移動させる移動操作)等の形態を含み、ユーザーがトリガー操作を送信すると、対応する処理機能の処理命令を実行し、アプリケーションはユーザーのトリガー操作に応じて対応する処理機能の処理命令を取得する。
図4は本開示の実施例に係るビデオ処理装置の構造ブロック図であり、図4に示すように、該装置400は処理対象ビデオ受信モジュール401、処理対象ビデオ表示モジュール402及び処理対象ビデオ処理モジュール403を備えてもよく、
処理対象ビデオ受信モジュール401は、処理対象ビデオを受信することに用いられ、
処理対象ビデオ表示モジュール402は、表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示することに用いられ、
処理対象ビデオ処理モジュール403は、いずれかの処理機能に対するトリガー操作を受信すると、該いずれかの処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、該いずれかの処理機能に対応する編集識別子をトラック編集領域に表示することに用いられ、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示される。
本開示に係る解決手段は、処理対象ビデオを処理する過程では、ビデオプレビュー領域によってプレビュー画面を表示し、トラック編集領域によって編集識別子を表示し、処理機能ナビゲーション領域によって選択対象の処理機能を表示し、ユーザーが所要の処理機能をトリガーすることを受信すると、処理対象ビデオクリップを処理して処理済みのビデオを得て、処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示する。該解決手段はビデオ処理過程における画面プレビュー、トラック編集及び処理機能ナビゲーションに対して領域分割を行い、且つ合理的な連動メカニズムを設定することによって、ユーザーが該解決手段を使用してビデオ処理を行う場合、豊かな処理機能を簡単に取得できることを確保し、ユーザーエクスペリエンスを向上させる。また、該解決手段はアプリケーションの機能拡張性を向上させることもでき、さらにユーザーの需要を満たし、ユーザーの操作エクスペリエンスを向上させる。
本開示の1つの選択可能な実施例では、該装置は、
いずれかの処理機能に対するトリガー操作を受信する前に、トラック編集領域でのスライド操作を受信し、処理対象ビデオの開始編集点を決定することに用いられる開始編集点決定モジュールをさらに備える。
本開示の1つの選択可能な実施例では、処理対象ビデオ処理モジュールは第1処理命令取得モジュール、第1処理済みのビデオ取得モジュール、及び第1プレビュー及びトラック表示モジュールを備えてもよく、
第1処理命令取得モジュールは、いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得することに用いられ、処理命令は処理機能の機能識別子及び処理パラメータを含み、
第1処理済みのビデオ取得モジュールは、機能識別子及び開始編集点に基づいて処理対象ビデオクリップを決定し、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得ることに用いられ、
第1プレビュー及びトラック表示モジュールは、処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられ、編集識別子は開始編集点を基準点として処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされる。
本開示の1つの選択可能な実施例では、処理パラメータは処理機能に対応するメディアリソース識別子を含み、第1処理済みのビデオ取得モジュールは具体的には、
メディアリソース識別子に基づいて対応するメディアリソースを取得し、
メディアリソースを処理対象ビデオクリップにマウントして処理済みのビデオを得ることに用いられる。
本開示の1つの選択可能な実施例では、第1プレビュー及びトラック表示モジュールは具体的には、
処理機能に対応する編集トラックをトラック編集領域に表示することに用いられ、処理機能に対応する編集トラックは開始編集点を基準点として対応する処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされ且つ並行してオーバーレイ表示される。
本開示の1つの選択可能な実施例では、該装置は、
処理機能に対応する編集トラックに対する選定操作を受信すると、処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示することに用いられる第1連動モジュールをさらに備えてもよい。
本開示の1つの選択可能な実施例では、第1連動モジュールは具体的には、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信し、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示することに用いられる。
本開示の1つの選択可能な実施例では、該装置は、
処理済みのビデオを得た後、ビューモデルに処理完了通知を送信し、
処理完了通知に応答して、ビューモデルによってトラックマネージャに更新済みの編集識別子情報を送信し、それによってトラックマネージャが更新済みの編集識別子情報に応じて、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられる編集識別子作成及び表示モジュールをさらに備える。
本開示の1つの選択可能な実施例では、該装置は、
いずれかの処理機能に対するトリガー操作を受信する前に、処理対象ビデオの編集トラックでの選定操作を受信し、処理対象ビデオの処理対象ビデオクリップを決定し、
処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを処理機能ナビゲーション領域に表示することに用いられる第2連動モジュールをさらに備える。
本開示の1つの選択可能な実施例では、処理対象ビデオ処理モジュールは第2処理命令取得モジュール、第2処理済みのビデオ取得モジュール、及び第2プレビュー及びトラック表示モジュールを備えてもよく、
第2処理命令取得モジュールは、いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得することに用いられ、
第2処理済みのビデオ取得モジュールは、処理命令に基づいて処理対象ビデオクリップを処理して処理済みのビデオを得ることに用いられ、
第2プレビュー及びトラック表示モジュールは、処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられ、編集識別子と処理対象ビデオの編集トラックはトラック編集領域内に重畳してオーバーレイ表示される。
本開示の1つの選択可能な実施例では、上記第2連動モジュールは具体的には、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信し、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示することに用いられる。
本開示の1つの選択可能な実施例では、処理対象ビデオの編集トラックにビデオクリップ追加ボタンが表示されており、該装置は、
ビデオクリップ追加ボタンによってビデオ追加操作を受信すると、ビデオ追加操作に対応する追加対象ビデオクリップを取得し、
追加対象ビデオクリップに応じて処理対象ビデオの編集トラックを更新することに用いられる編集トラック更新モジュールをさらに備える。
上記モジュールは1つ又は複数の汎用プロセッサで実行されるソフトウェアユニットとして実現されてもよく、たとえばいくつかの機能又はそれらの組合せを実行するハードウェア、例えばプログラマブルロジック機器及び/又は特定用途向け集積回路として実現されてもよい。いくつかの実施例では、これらのモジュールはソフトウェア製品の形態として具現化されてもよく、該ソフトウェア製品は不揮発性記憶媒体に記憶されてもよく、これらの不揮発性記憶媒体には、コンピュータ機器(たとえば、パーソナルコンピュータ、サーバ、ネットワーク機器、モバイル端末等)が本発明実施例に説明された方法を実現するためのもの含まれる。一実施例では、上記モジュールは1つの機器に実現されてもよく、複数の機器に分散してもよい。これらのモジュールの機能は互いに合併されてもよく、さらに複数のサブモジュールに分割されてもよい。
上記各実施例におけるビデオ処理装置として、たとえばスマートフォン、パームトップパソコン、タブレットPC、及びディスプレイスクリーン付きウェアラブル機器等のモバイル端末が含まれてもよく、たとえばデスクトップコンピュータ、ノートパソコン、及びオールインワンコンピュータ等のコンピュータ機器がさらに含まれてもよい。
当業者には明らかなように、説明の便宜及び簡潔さのために、上記説明されたビデオ処理装置のモジュールの具体的な動作過程は上記方法実施例の対応する過程を参照すればよく、ここでは詳細説明を省略する。
以下、図5に示すように、本開示の実施例を実現することに適用できる電子機器(たとえば、図1に示す方法を実行する端末機器又はサーバ)500の構造模式図である。本開示の実施例における電子機器は、たとえば携帯電話、ノートパソコン、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレットPC)、PMP(携帯型マルチメディアプレーヤー)、車載端末(たとえば車載ナビゲーション端末)、ウェアラブル機器等のモバイル端末、及びたとえばデジタルTV、デスクトップコンピュータ等の固定端末を含んでもよいが、これらに限定されない。図5に示す電子機器は単に一例であり、本開示の実施例の機能及び使用範囲に何ら制限を与えるものではない。
電子機器は、メモリ及びプロセッサを備え、メモリは上記各方法実施例に記載の方法を実行するプログラムを記憶することに用いられ、プロセッサはメモリに記憶されているプログラムを実行するように構成される。ここでのプロセッサは下記処理装置501と呼ばれもよく、メモリは下記読み出し専用メモリ(ROM)502、ランダムアクセスメモリ(RAM)503及び記憶装置508のうちの少なくとも1つを含んでもよく、具体的には以下のように示される。
図5に示すように、電子機器500は処理装置(たとえば、中央処理装置、グラフィックスプロセッサ等)501を備えてもよく、読み出し専用メモリ(ROM)502に記憶されているプログラム又は記憶装置508からランダムアクセスメモリ(RAM)503にロードされるプログラムに従って各種の適切な動作及び処理を実行することができる。RAM503には、電子機器500の操作に必要な各種のプログラム及びデータがさらに記憶されている。処理装置501、ROM502及びRAM503はバス504を介して互いに接続される。入力/出力(I/O)インタフェース505もバス504に接続される。
通常、たとえばタッチパネル、タッチパッド、キーボード、マウス、カメラ、マイクロホン、加速度計、ジャイロスコープ等を含む入力装置506、たとえば液晶ディスプレイ(LCD)、スピーカ、発振器等を含む出力装置507、たとえばテープ、ハードディスク等を含む記憶装置508、及び通信装置509は、I/Oインタフェース505に接続されてもよい。通信装置509は電子機器500がほかの機器と無線又は有線通信してデータを交換することを可能にする。図5には様々な装置を有する電子機器が示されているが、すべての示される装置を実施する又は備えることを要求しないと理解すべきである。より多い又はより少ない装置を代替的に実施する又は備えるようにしてもよい。
特に、本開示の実施例では、以上フローチャートを参照して説明されるプロセスはコンピュータソフトウェアプログラムとして実現されてもよい。たとえば、本開示の実施例はコンピュータプログラム製品を含み、コンピュータプログラム製品は非一時的コンピュータ可読媒体に搭載されるコンピュータプログラムを含み、該コンピュータプログラムはフローチャートに示される方法を実行するためのプログラムコードを含む。このような実施例では、該コンピュータプログラムは通信装置509によってネットワークからダウンロード及びインストールされるか、又は記憶装置508からインストールされるか、又はROM502からインストールされるようにしてもよい。該コンピュータプログラムが処理装置501により実行されると、本開示の実施例における方法に限定される上記機能を実行する。
なお、本開示の上記コンピュータ可読記憶媒体はコンピュータ可読信号媒体又はコンピュータ可読記憶媒体又は上記両者の任意の組合せであってもよい。コンピュータ可読記憶媒体は、たとえば電気、磁気、光、電磁、赤外線、又は半導体システム、装置又はデバイス、又は任意の以上の組合せであってもよいが、これに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つ又は複数の導線を有する電気的接続、携帯型コンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、携帯型コンパクトディスク読み出し専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記任意の適切な組合せを含んでもよいが、これに限定されない。本開示では、コンピュータ可読記憶媒体はプログラムを含む又は記憶する有形の媒体であってもよく、該プログラムは命令実行システム、装置又はデバイスに使用されるか又はそれと組み合わせて使用されるようにしてもよい。本開示では、コンピュータ可読信号媒体はベースバンド内で又は搬送波の一部として伝播されるデータ信号を含んでもよく、コンピュータ可読プログラムコードが搭載されている。このような伝播されるデータ信号は複数種の形態を使用してもよく、電磁信号、光信号又は上記任意の適切な組合せを含んでもよいが、これに限定されない。コンピュータ可読信号媒体はさらにコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、該コンピュータ可読信号媒体は命令実行システム、装置又はデバイスに使用される又はそれと組み合わせて使用されるプログラムを送信、伝播又は伝送してもよい。コンピュータ可読媒体に含まれるプログラムコードは、ワイヤー、ケーブル、RF(RF)等又は上記任意の適切な組合せを含むがこれらに限定されない任意の適切な媒体を使用して伝送されてもよい。
いくつかの実施形態では、クライアント、サーバは、たとえばHTTP(HyperText Transfer Protocol、ハイパーテキスト伝送プロトコル)のような現在知られている又は将来開発される任意のネットワークプロトコルを使用して通信してもよく、任意の形態又は媒体のデジタルデータ通信(たとえば、通信ネットワーク)と相互接続される。通信ネットワークの例として、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、ワールドワイドウェブ(たとえば、インターネット)及びピアツーピアネットワーク(たとえば、adhocピアツーピアネットワーク)、及び現在知られている又は将来開発される任意のネットワークが含まれる。
上記コンピュータ可読媒体は上記電子機器に含まれてもよく、該電子機器に組み立てられることなく単独で存在してもよい。
上記コンピュータ可読媒体に1つ又は複数のプログラムが搭載されており、上記1つ又は複数のプログラムが該電子機器により実行されると、該電子機器は、
処理対象ビデオを受信し、表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示し、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示し、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示される。
1種又は複数種のプログラミング言語又はその組合せによって本開示の操作を実行するためのコンピュータプログラムコードを作成し、上記プログラミング言語は、たとえばJava、Smalltalk、C++のようなオブジェクト指向プログラミング言語を含むがこれらに限定されず、たとえば「C」言語又は類似するプログラミング言語のような一般的な手続き型プログラミング言語をさらに含む。プログラムコードは完全にユーザーコンピュータに実行されるか、ユーザーコンピュータに部分的に実行されるか、1つの独立したソフトウェアパッケージとして実行されるか、ユーザーコンピュータに部分的に実行されリモートコンピュータに部分的に実行されるか、又は完全にリモートコンピュータ又はサーバに実行されるようにしてもよい。リモートコンピュータに関する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザーコンピュータに接続されてもよく、又は、外部コンピュータに接続されてもよい(たとえば、インターネットサービス提供商を使用してインターネットを介して接続される)。
図面におけるフローチャート及びブロック図には、本開示の各種の実施例に係るシステム、方法及びコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能及び操作が示されている。この点では、フローチャート又はブロック図における各ブロックは1つのモジュール、ブロック、又はコードの一部を代表してもよく、該モジュール、ブロック、又はコードの一部は所定のロジック機能を実現するための1つ又は複数の実行可能命令を含む。注意すべき点として、置換とするいくつかの実現では、ブロック内にマークされる機能は図面にマークされる順序とは異なる順序で発生してもよい。たとえば、連続的に示される2つのブロックは実際にはほぼ並行して実行されてもよく、場合によっては反対の順序で実行されてもよく、これは係る機能次第である。さらに注意すべき点として、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組合せは、所定の機能又は操作を実行する専用のハードウェアに基づくシステムを使用して実現されてもよく、又は専用ハードウェアとコンピュータ命令との組合せを使用して実現されてもよい。
本開示の実施例で説明される係るモジュール又はユニットはソフトウェアの形態によって実現されてもよく、ハードウェアの形態によって実現されてもよい。場合によっては、モジュール又はユニットの名称は該ユニット自体を限定するものではなく、たとえば、処理対象ビデオ受信モジュールはさらに「処理対象ビデオを受信するモジュール」として説明されてもよい。
本明細書では、以上説明された機能は少なくとも部分的に1つ又は複数のハードウェアロジック部材によって実行されてもよい。たとえば、制限的でなく使用可能な例示的なハードウェアロジック部材として、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、オンチップシステム(SOC)、及びコンプレックスプログラマブルロジックデバイス(CPLD)等が含まれる。
本開示のコンテキストでは、機器可読媒体は有形の媒体であってもよく、命令実行システム、装置又は機器に使用される又は命令実行システム、装置又は機器と組み合わせて使用されるプログラムを含む又は記憶するようにしてもよい。機器可読媒体は、機器可読信号媒体又は機器可読記憶媒体であってもよい。機器可読媒体は、電子的、磁気的、光学的、電磁的、赤外線、又は半導体システム、装置又は機器、又は上記ものの任意の適切な組合せを含んでもよいが、これに限定されない。機器可読記憶媒体のより具体的な例は、1つ又は複数の線に基づく電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、又は上記ものの任意の適切な組合せを含む。
当業者には明らかなように、説明の便宜及び簡潔さのために、上記説明されたコンピュータ可読媒体が電子機器により実行されるときに実現される具体的な方法は、上記方法実施例の対応する過程を参照すればよく、ここでは詳細説明を省略する。
本開示の1つ又は複数の実施例では、本開示はビデオ処理方法を提供し、
処理対象ビデオを受信するステップと、
表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示するステップと、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示されるステップと、を含む。
本開示の1つ又は複数の実施例では、いずれかの処理機能に対するトリガー操作を受信する前に、方法は、
トラック編集領域でのスライド操作を受信し、処理対象ビデオの開始編集点を決定するステップをさらに含む。
本開示の1つ又は複数の実施例では、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得するステップであって、処理命令は処理機能の機能識別子及び処理パラメータを含むステップと、
機能識別子及び開始編集点に基づいて処理対象ビデオクリップを決定し、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップと、
処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップと、を含み、
編集識別子は開始編集点を基準点として処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされる。
本開示の1つ又は複数の実施例では、処理パラメータは処理機能及び処理機能に対応するメディアリソース識別子を含み、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップは、
メディアリソース識別子に基づいて対応するメディアリソースを取得するステップと、
メディアリソースを処理対象ビデオクリップにマウントして処理済みのビデオを得るステップと、を含む。
本開示の1つ又は複数の実施例では、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
処理機能に対応する編集トラックをトラック編集領域に表示するステップであって、処理機能に対応する編集トラックは開始編集点を基準点として対応する処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされ且つ並行してオーバーレイ表示されるステップを含む。
本開示の1つ又は複数の実施例では、該方法は、
処理機能に対応する編集トラックに対する選定操作を受信すると、処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示するステップをさらに含む。
本開示の1つ又は複数の実施例では、処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示するステップは、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示するステップと、を含む。
本開示の1つ又は複数の実施例では、処理済みのビデオを得た後、該方法は、
ビューモデルに処理完了通知を送信するステップと、
処理完了通知に応答して、ビューモデルによってトラックマネージャに更新済みの編集識別子情報を送信し、それによってトラックマネージャが更新済みの編集識別子情報に応じて、処理機能に対応する編集識別子をトラック編集領域に表示するステップと、をさらに含む。
本開示の1つ又は複数の実施例では、いずれかの処理機能に対するトリガー操作を受信する前に、該方法は、
処理対象ビデオの編集トラックでの選定操作を受信し、処理対象ビデオの処理対象ビデオクリップを決定するステップと、
処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを処理機能ナビゲーション領域に表示するステップと、をさらに含む。
本開示の1つ又は複数の実施例では、いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップは、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得するステップと、
処理命令に基づいて処理対象ビデオクリップを処理して処理済みのビデオを得るステップと、
処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示するステップと、を含み、編集識別子と処理対象ビデオの編集トラックはトラック編集領域内に重畳してオーバーレイ表示される。
本開示の1つ又は複数の実施例では、処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを処理機能ナビゲーション領域に表示するステップは、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示するステップと、を含む。
本開示の1つ又は複数の実施例では、処理対象ビデオの編集トラックにビデオクリップ追加ボタンが表示されており、該方法は、
ビデオクリップ追加ボタンによってビデオ追加操作を受信すると、ビデオ追加操作に対応する追加対象ビデオクリップを取得するステップと、
追加対象ビデオクリップに応じて処理対象ビデオの編集トラックを更新するステップと、をさらに含む。
本開示の1つ又は複数の実施例では、本開示はビデオ処理装置を提供し、
処理対象ビデオを受信することに用いられる処理対象ビデオ受信モジュールと、
表示インタフェースにビデオプレビュー領域によって処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示することに用いられる処理対象ビデオ表示モジュールと、
いずれかの処理機能に対するトリガー操作を受信すると、処理機能で処理された処理済みのビデオのプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられる処理対象ビデオ処理モジュールであって、編集識別子と処理対象ビデオの編集トラックはトラック編集領域にオーバーレイ表示される処理対象ビデオ処理モジュールと、を備える。
本開示の1つ又は複数の実施例では、該装置は、
いずれかの処理機能に対するトリガー操作を受信する前に、トラック編集領域でのスライド操作を受信し、処理対象ビデオの開始編集点を決定することに用いられる開始編集点決定モジュールをさらに備える。
本開示の1つ又は複数の実施例では、処理対象ビデオ処理モジュールは第1処理命令取得モジュール、第1処理済みのビデオ取得モジュール、及び第1プレビュー及びトラック表示モジュールを備えてもよく、
第1処理命令取得モジュールは、いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得することに用いられ、処理命令は処理機能の機能識別子及び処理パラメータを含み、
第1処理済みのビデオ取得モジュールは、機能識別子及び開始編集点に基づいて処理対象ビデオクリップを決定し、処理パラメータに基づいて処理対象ビデオクリップを処理して処理済みのビデオを得ることに用いられ、
第1プレビュー及びトラック表示モジュールは、処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられ、編集識別子は開始編集点を基準点として処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされる。
本開示の1つ又は複数の実施例では、処理パラメータは処理機能に対応するメディアリソース識別子を含み、第1処理済みのビデオ取得モジュールは具体的には、
メディアリソース識別子に基づいて対応するメディアリソースを取得し、
メディアリソースを処理対象ビデオクリップにマウントして処理済みのビデオを得ることに用いられる。
本開示の1つ又は複数の実施例では、第1プレビュー及びトラック表示モジュールは具体的には、
処理機能に対応する編集トラックをトラック編集領域に表示することに用いられ、処理機能に対応する編集トラックは開始編集点を基準点として対応する処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされ且つ並行してオーバーレイ表示される。
本開示の1つ又は複数の実施例では、該装置は、
処理機能に対応する編集トラックに対する選定操作を受信すると、処理機能に対応するナビゲーションバーを処理機能ナビゲーション領域に表示することに用いられる第1連動モジュールをさらに備えてもよい。
本開示の1つ又は複数の実施例では、第1連動モジュールは具体的には、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信し、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示することに用いられる。
本開示の1つ又は複数の実施例では、該装置は、
処理済みのビデオを得た後、ビューモデルに処理完了通知を送信し、
処理完了通知に応答して、ビューモデルによってトラックマネージャに更新済みの編集識別子情報を送信し、それによってトラックマネージャが更新済みの編集識別子情報に応じて、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられる編集識別子作成及び表示モジュールをさらに備える。
本開示の1つ又は複数の実施例では、該装置は、
いずれかの処理機能に対するトリガー操作を受信する前に、処理対象ビデオの編集トラックでの選定操作を受信し、処理対象ビデオの処理対象ビデオクリップを決定し、
処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを処理機能ナビゲーション領域に表示することに用いられる第2連動モジュールをさらに備える。
本開示の1つ又は複数の実施例では、処理対象ビデオ処理モジュールは第2処理命令取得モジュール、第2処理済みのビデオ取得モジュール、及び第2プレビュー及びトラック表示モジュールを備えてもよく、
第2処理命令取得モジュールは、いずれかの処理機能に対するトリガー操作を受信すると、処理機能に対応する処理命令を取得することに用いられ、
第2処理済みのビデオ取得モジュールは、処理命令に基づいて処理対象ビデオクリップを処理して処理済みのビデオを得ることに用いられ、
第2プレビュー及びトラック表示モジュールは、処理済みのビデオに基づいて、対応するプレビュー画面をビデオプレビュー領域に表示し、処理機能に対応する編集識別子をトラック編集領域に表示することに用いられ、編集識別子と処理対象ビデオの編集トラックはトラック編集領域内に重畳してオーバーレイ表示される。
本開示の1つ又は複数の実施例では、上記第2連動モジュールは具体的には、
選定操作を受信すると、視覚モデル中の状態情報を更新し、視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信し、
更新済みの状態情報に応答して、ナビゲーションバーマネージャによってナビゲーションバーを作成し、処理機能ナビゲーション領域にナビゲーションバーを表示することに用いられる。
本開示の1つ又は複数の実施例では、処理対象ビデオの編集トラックにビデオクリップ追加ボタンが表示されており、該装置は、
ビデオクリップ追加ボタンによってビデオ追加操作を受信すると、ビデオ追加操作に対応する追加対象ビデオクリップを取得し、
追加対象ビデオクリップに応じて処理対象ビデオの編集トラックを更新することに用いられる編集トラック更新モジュールをさらに備える。
以上の説明は単に本開示の好適実施例及び使用される技術的原理の説明である。当業者が理解すべき点として、本開示に係る開示範囲は、上記技術的特徴の特定の組合せによる技術的解決手段に限定されないと同時に上記開示のアイディアを逸脱せずに上記技術的特徴又はその同等特徴を任意に組み合わせて形成される別技術解決手段をカバーすべきである。たとえば、上記特徴を本開示に開示されている(これに限定されない)類似する機能を有する技術的特徴と互いに置換して形成される技術的解決手段が挙げられる。
また、特定の順序で各操作を説明したが、これらの操作が示される特定の順序又は順番で実行されることを要求しないと理解すべきである。環境によってはマルチタスクとパラレルプロセシングが有利である可能性がある。同様に、以上の論述に複数の具体的な実現の詳細が含まれているが、これらは本開示の範囲を限定するものではないと解釈されるべきである。単独な実施例のコンテキストで説明されるいくつかの特徴を組み合わせて1つの実施例を実現してもよい。逆には、1つの実施例のコンテキストで説明される各種の特徴は単独で又は任意の適切なサブ組合せの方式で複数の実施例に実現されてもよい。
構造の特徴及び/又は方法のロジック動作に特定される言語を使用して本主題を説明したが、添付特許請求の範囲に限定される主題は以上説明された特定の特徴又は動作に限定されないと理解すべきである。逆には、以上説明された特定の特徴及び動作は単に特許請求の範囲を実現する例示的な形態に過ぎる。

Claims (15)

  1. ビデオ処理方法であって、
    処理対象ビデオを受信するステップと、
    表示インタフェースにビデオプレビュー領域によって前記処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって前記処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示するステップと、
    いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能で処理された処理済みのビデオのプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップであって、前記編集識別子と前記処理対象ビデオの編集トラックは前記トラック編集領域にオーバーレイ表示されるステップと、を含む、ことを特徴とするビデオ処理方法。
  2. いずれかの処理機能に対するトリガー操作を受信する前に、
    前記トラック編集領域でのスライド操作を受信し、前記処理対象ビデオの開始編集点を決定するステップをさらに含む、ことを特徴とする請求項1に記載のビデオ処理方法。
  3. いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能で処理された処理済みのビデオのプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップは、
    いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能に対応し前記いずれかの処理機能の機能識別子及び処理パラメータを含む処理命令を取得するステップと、
    前記機能識別子及び前記開始編集点に基づいて処理対象ビデオクリップを決定し、前記処理パラメータに基づいて前記処理対象ビデオクリップを処理して前記処理済みのビデオを得るステップと、
    前記処理済みのビデオに基づいて、対応するプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップと、を含み、
    前記編集識別子は前記開始編集点を基準点として前記処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされる、ことを特徴とする請求項2に記載のビデオ処理方法。
  4. 前記処理パラメータは前記いずれかの処理機能に対応するメディアリソース識別子を含み、
    前記処理パラメータに基づいて前記処理対象ビデオクリップを処理して前記処理済みのビデオを得るステップは、
    前記メディアリソース識別子に基づいて対応するメディアリソースを取得するステップと、
    前記対応するメディアリソースを前記処理対象ビデオクリップにマウントして前記処理済みのビデオを得るステップと、を含む、ことを特徴とする請求項3に記載のビデオ処理方法。
  5. 前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップは、
    前記いずれかの処理機能に対応する編集トラックを前記トラック編集領域に表示するステップであって、前記いずれかの処理機能に対応する編集トラックは前記開始編集点を基準点として対応する処理対象ビデオクリップの編集トラックとタイムライン上で位置合わせされ且つ並行してオーバーレイ表示されるステップと、を含む、ことを特徴とする請求項3又は4に記載のビデオ処理方法。
  6. 前記いずれかの処理機能に対応する編集トラックに対する選定操作を受信すると、前記いずれかの処理機能に対応するナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップをさらに含む、ことを特徴とする請求項5に記載のビデオ処理方法。
  7. 前記いずれかの処理機能に対応するナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップは、
    前記選定操作を受信すると、視覚モデル中の状態情報を更新し、前記視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
    前記更新済みの状態情報に応答して、前記ナビゲーションバーマネージャによって前記ナビゲーションバーを作成し、前記処理機能ナビゲーション領域に前記ナビゲーションバーを表示するステップと、を含む、ことを特徴とする請求項6に記載のビデオ処理方法。
  8. 前記処理済みのビデオを得た後、
    ビューモデルに処理完了通知を送信するステップと、
    前記処理完了通知に応答して、前記ビューモデルによってトラックマネージャに更新済みの編集識別子情報を送信し、前記トラックマネージャが前記更新済みの編集識別子情報に応じて、前記処理機能に対応する編集識別子を前記トラック編集領域に表示するステップと、をさらに含む、ことを特徴とする請求項3-7のいずれか一項に記載のビデオ処理方法。
  9. いずれかの処理機能に対するトリガー操作を受信する前に、
    前記処理対象ビデオの編集トラックでの選定操作を受信し、前記処理対象ビデオの処理対象ビデオクリップを決定するステップと、
    前記処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップと、をさらに含む、ことを特徴とする請求項1に記載のビデオ処理方法。
  10. いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能で処理された処理済みのビデオのプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップは、
    前記いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能に対応する処理命令を取得するステップと、
    前記処理命令に基づいて前記処理対象ビデオクリップを処理して前記処理済みのビデオを得るステップと、
    前記処理済みのビデオに基づいて、対応するプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示するステップであって、前記編集識別子と前記処理対象ビデオの編集トラックは前記トラック編集領域内に重畳してオーバーレイ表示されるステップと、を含む、ことを特徴とする請求項9に記載のビデオ処理方法。
  11. 前記処理対象ビデオクリップを処理するための処理機能が位置するナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップは、
    前記選定操作を受信すると、視覚モデル中の状態情報を更新し、前記視覚モデルによって更新済みの状態情報をナビゲーションバーマネージャに送信するステップと、
    前記更新済みの状態情報に応答して、前記ナビゲーションバーマネージャによって前記ナビゲーションバーを作成し、前記ナビゲーションバーを前記処理機能ナビゲーション領域に表示するステップと、を含む、ことを特徴とする請求項9又は10に記載のビデオ処理方法。
  12. 前記処理対象ビデオの編集トラックにビデオクリップ追加ボタンが表示されており、
    前記ビデオクリップ追加ボタンによってビデオ追加操作を受信すると、前記ビデオ追加操作に対応する追加対象ビデオクリップを取得するステップと、
    前記追加対象ビデオクリップに応じて前記処理対象ビデオの編集トラックを更新するステップと、をさらに含むことを特徴とする請求項1-11のいずれか一項に記載のビデオ処理方法。
  13. ビデオ処理装置であって、
    処理対象ビデオを受信することに用いられる処理対象ビデオ受信モジュールと、
    表示インタフェースにビデオプレビュー領域によって前記処理対象ビデオのプレビュー画面を表示し、トラック編集領域によって前記処理対象ビデオの編集トラックを表示し、処理機能ナビゲーション領域によって少なくとも1つの処理機能を表示することに用いられる処理対象ビデオ表示モジュールと、
    いずれかの処理機能に対するトリガー操作を受信すると、前記いずれかの処理機能で処理された処理済みのビデオのプレビュー画面を前記ビデオプレビュー領域に表示し、前記いずれかの処理機能に対応する編集識別子を前記トラック編集領域に表示することに用いられる処理対象ビデオ処理モジュールであって、前記編集識別子と前記処理対象ビデオの編集トラックは前記トラック編集領域にオーバーレイ表示される処理対象ビデオ処理モジュールと、を備える、ことを特徴とするビデオ処理装置。
  14. 電子機器であって、メモリ及びプロセッサを備え、
    前記メモリにコンピュータプログラムが記憶されており、
    前記プロセッサは、前記コンピュータプログラムを実行することに用いられ、前記コンピュータプログラムが実行されると、前記電子機器に請求項1~12のいずれか一項に記載のビデオ処理方法を実現させる、ことを特徴とする電子機器。
  15. コンピュータ可読記憶媒体であって、コンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサにより実行されると、請求項1~12のいずれか一項に記載のビデオ処理方法を実現する、ことを特徴とするコンピュータ可読記憶媒体。
JP2022576468A 2020-06-10 2021-05-24 ビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体 Active JP7307864B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010525242.8A CN111629252B (zh) 2020-06-10 2020-06-10 视频处理方法、装置、电子设备及计算机可读存储介质
CN202010525242.8 2020-06-10
PCT/CN2021/095502 WO2021249168A1 (zh) 2020-06-10 2021-05-24 视频处理方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2023527250A true JP2023527250A (ja) 2023-06-27
JP7307864B2 JP7307864B2 (ja) 2023-07-12

Family

ID=72272209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022576468A Active JP7307864B2 (ja) 2020-06-10 2021-05-24 ビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US20230107220A1 (ja)
EP (1) EP4152758A4 (ja)
JP (1) JP7307864B2 (ja)
KR (1) KR102575848B1 (ja)
CN (1) CN111629252B (ja)
BR (1) BR112022025162A2 (ja)
WO (1) WO2021249168A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111629252B (zh) * 2020-06-10 2022-03-25 北京字节跳动网络技术有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN112822543A (zh) * 2020-12-30 2021-05-18 北京达佳互联信息技术有限公司 视频处理方法及装置、电子设备、存储介质
CN112804590B (zh) * 2020-12-31 2023-03-28 上海深柯视觉艺术设计有限公司 一种基于ue4的视频编辑系统
CN113347479B (zh) * 2021-05-31 2023-05-26 网易(杭州)网络有限公司 多媒体素材的编辑方法、装置、设备及存储介质
CN113473204B (zh) * 2021-05-31 2023-10-13 北京达佳互联信息技术有限公司 一种信息展示方法、装置、电子设备及存储介质
CN113891127A (zh) * 2021-08-31 2022-01-04 维沃移动通信有限公司 视频编辑方法、装置及电子设备
CN113784165B (zh) * 2021-09-17 2023-05-05 北京快来文化传播集团有限公司 短视频滤镜叠加方法、系统、电子设备及可读存储介质
CN114253653A (zh) * 2021-09-27 2022-03-29 北京字节跳动网络技术有限公司 视频处理方法、视频处理装置和计算机可读存储介质
CN113873329A (zh) * 2021-10-19 2021-12-31 深圳追一科技有限公司 视频处理方法、装置、计算机存储介质及电子设备
CN114125181A (zh) * 2021-11-22 2022-03-01 北京达佳互联信息技术有限公司 视频处理方法和视频处理装置
CN115460455B (zh) * 2022-09-06 2024-02-09 上海硬通网络科技有限公司 一种视频剪辑方法、装置、设备及存储介质
CN117453085A (zh) * 2023-12-22 2024-01-26 荣耀终端有限公司 显示方法、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013538505A (ja) * 2010-08-10 2013-10-10 アップル インコーポレイテッド 複合プレゼンテーションのストーリーボード表現を提示および編集するためのツール
JP2014030229A (ja) * 2007-07-27 2014-02-13 Lagavulin Ltd ポータブル送信機用装置、方法、システム、及びユーザ・インタフェース
KR101528312B1 (ko) * 2014-02-14 2015-06-11 주식회사 케이티 영상 편집 방법 및 이를 위한 장치
WO2016035423A1 (ja) * 2014-09-05 2016-03-10 富士フイルム株式会社 動画編集装置、動画編集方法及び動画編集プログラム
US20170294212A1 (en) * 2015-04-10 2017-10-12 OMiro IP LLC Video creation, editing, and sharing for social media
CN109495791A (zh) * 2018-11-30 2019-03-19 北京字节跳动网络技术有限公司 一种视频贴纸的添加方法、装置、电子设备及可读介质
CN110198486A (zh) * 2019-05-28 2019-09-03 上海哔哩哔哩科技有限公司 一种预览视频素材的方法、计算机设备及可读存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5999173A (en) * 1992-04-03 1999-12-07 Adobe Systems Incorporated Method and apparatus for video editing with video clip representations displayed along a time line
KR20100086136A (ko) * 2009-01-22 2010-07-30 (주)코드엑트 동영상 편집 시스템
KR101260834B1 (ko) * 2010-12-14 2013-05-06 삼성전자주식회사 타임라인 바를 이용한 터치스크린 제어방법, 장치 및 이를 위한 프로그램이 기록된 기록매체 및 사용자 단말
KR20130107863A (ko) * 2012-03-23 2013-10-02 삼성테크윈 주식회사 영상 검색 장치
CN104811629A (zh) * 2015-04-21 2015-07-29 上海极食信息科技有限公司 一种在同一界面内获取视频素材并对其制作的方法及系统
US10109319B2 (en) * 2016-01-08 2018-10-23 Gopro, Inc. Digital media editing
US10622021B2 (en) * 2016-02-19 2020-04-14 Avcr Bilgi Teknolojileri A.S Method and system for video editing
CN109120997A (zh) * 2018-09-30 2019-01-01 北京微播视界科技有限公司 视频处理方法、装置、终端和介质
CN110381371B (zh) * 2019-07-30 2021-08-31 维沃移动通信有限公司 一种视频剪辑方法及电子设备
CN110582018B (zh) * 2019-09-16 2022-06-10 腾讯科技(深圳)有限公司 一种视频文件处理的方法、相关装置及设备
CN110636382A (zh) * 2019-09-17 2019-12-31 北京达佳互联信息技术有限公司 在视频中添加可视对象的方法、装置、电子设备及存储介质
CN111078348B (zh) * 2019-12-25 2023-06-23 广州市百果园信息技术有限公司 一种界面管理方法、装置、设备和存储介质
CN111629252B (zh) * 2020-06-10 2022-03-25 北京字节跳动网络技术有限公司 视频处理方法、装置、电子设备及计算机可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014030229A (ja) * 2007-07-27 2014-02-13 Lagavulin Ltd ポータブル送信機用装置、方法、システム、及びユーザ・インタフェース
JP2013538505A (ja) * 2010-08-10 2013-10-10 アップル インコーポレイテッド 複合プレゼンテーションのストーリーボード表現を提示および編集するためのツール
KR101528312B1 (ko) * 2014-02-14 2015-06-11 주식회사 케이티 영상 편집 방법 및 이를 위한 장치
WO2016035423A1 (ja) * 2014-09-05 2016-03-10 富士フイルム株式会社 動画編集装置、動画編集方法及び動画編集プログラム
US20170294212A1 (en) * 2015-04-10 2017-10-12 OMiro IP LLC Video creation, editing, and sharing for social media
CN109495791A (zh) * 2018-11-30 2019-03-19 北京字节跳动网络技术有限公司 一种视频贴纸的添加方法、装置、电子设备及可读介质
CN110198486A (zh) * 2019-05-28 2019-09-03 上海哔哩哔哩科技有限公司 一种预览视频素材的方法、计算机设备及可读存储介质

Also Published As

Publication number Publication date
BR112022025162A2 (pt) 2022-12-27
WO2021249168A1 (zh) 2021-12-16
KR20230016049A (ko) 2023-01-31
EP4152758A1 (en) 2023-03-22
KR102575848B1 (ko) 2023-09-06
US20230107220A1 (en) 2023-04-06
EP4152758A4 (en) 2023-09-06
JP7307864B2 (ja) 2023-07-12
CN111629252B (zh) 2022-03-25
CN111629252A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
JP7307864B2 (ja) ビデオ処理方法、装置、電子機器及びコンピュータ可読記憶媒体
JP7387891B2 (ja) 動画ファイルの生成方法、装置、端末及び記憶媒体
CN109275028B (zh) 视频获取方法、装置、终端和介质
CN111629151B (zh) 视频合拍方法、装置、电子设备及计算机可读介质
CN113225483B (zh) 图像融合方法、装置、电子设备和存储介质
JP2023523067A (ja) ビデオ処理方法、装置、機器及び媒体
CN111970571B (zh) 视频制作方法、装置、设备及存储介质
WO2022194031A1 (zh) 视频的处理方法、装置、电子设备和存储介质
WO2023160573A1 (zh) 直播画面的展示方法、装置、电子设备及存储介质
CN111367447A (zh) 信息显示方法、装置、电子设备及计算机可读存储介质
WO2024104316A1 (zh) 多媒体数据的编辑方法、装置、电子设备及存储介质
CN112000267A (zh) 信息显示方法、装置、设备及存储介质
JP7471510B2 (ja) ピクチャのビデオへの変換の方法、装置、機器および記憶媒体
CN115706719A (zh) 信息交互方法、装置和电子设备
CN115098817A (zh) 虚拟形象的发布方法、装置、电子设备和存储介质
US20240019985A1 (en) Emoji preview method and apparatus, device and medium
US20180205680A1 (en) Method, Device, User Terminal And Electronic Device For Sharing Online Image
JP2023523065A (ja) インタラクション方法、装置及び電子機器
WO2023207543A1 (zh) 媒体内容的发布方法、装置、设备、存储介质和程序产品
CN115113787B (zh) 一种消息处理方法、装置、设备及介质
CN116112617A (zh) 演播画面的处理方法、装置、电子设备及存储介质
CN115270734A (zh) 一种基于会话的消息处理方法、装置、设备及介质
CN115269886A (zh) 媒体内容处理方法、装置、设备及存储介质
WO2023109813A1 (zh) 视频生成方法、装置、电子设备和存储介质
CN117692699A (zh) 视频生成方法、装置、设备、存储介质和程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230630

R150 Certificate of patent or registration of utility model

Ref document number: 7307864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150