JP7387891B2 - 動画ファイルの生成方法、装置、端末及び記憶媒体 - Google Patents

動画ファイルの生成方法、装置、端末及び記憶媒体 Download PDF

Info

Publication number
JP7387891B2
JP7387891B2 JP2022522402A JP2022522402A JP7387891B2 JP 7387891 B2 JP7387891 B2 JP 7387891B2 JP 2022522402 A JP2022522402 A JP 2022522402A JP 2022522402 A JP2022522402 A JP 2022522402A JP 7387891 B2 JP7387891 B2 JP 7387891B2
Authority
JP
Japan
Prior art keywords
audio data
target
video
editing
playback
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522402A
Other languages
English (en)
Other versions
JP2022552344A (ja
Inventor
微 ▲鄭▼
怡 ▲陳▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022552344A publication Critical patent/JP2022552344A/ja
Application granted granted Critical
Publication of JP7387891B2 publication Critical patent/JP7387891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/437Interfacing the upstream path of the transmission network, e.g. for transmitting client requests to a VOD server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[関連特許出願の相互参照関]
本願は、2019年10月14日に中国特許庁に出願した、出願番号が201910975347.0であり、発明の名称が「動画ファイルの生成方法、装置、端末及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が参照により本願に援用される。
[技術分野]
本発明の実施例は、コンピュータ技術に関し、特に動画ファイルの生成方法、装置、端末及び記憶媒体に関するものである。
写真撮り、動画撮影が、人々が生活を記録する通常の記録方式になるに伴って、電子アルバム、ダイナミックアルバムなどの写真や動画もいろいろなソーシャルプラットフォームに適用されている。関連技術において、ダイナミックアルバムなどの写真や動画を作成するときに、固定時間軸、バックエンドに基づいて、設定後のテンプレートをリソース共有のユーザに使用されるようにしているが、ユーザがテンプレートに対して変更を行うことができない(例えば、テンプレートにおける背景音楽を変更することができない)ことにより、ユーザの可操作性に限界がある。
以上を鑑みて、本開示の実施例は、動画ファイルの生成方法、装置、端末及び記憶媒体を提供する。
第1の形態では、本開示の実施例に係る動画ファイルの生成方法は、
動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示するステップと、
目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得するステップであって、前記リソース集合は、音声データ、画像データ、および動画構成パラメータを含むステップと、
前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示するステップと、
前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップと、
前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップと、
前記編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップと、を含む。
上記の構成において、前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示するステップと、
目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得するステップと、
前記リソース集合における音声データを前記目標音声データに置き換えるステップと、を含む。
上記の構成において、前記リソース集合における音声データを前記目標音声データに置き換えるステップは、
前記リソース集合における音声データの再生時間軸を取得するステップであって、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示するステップと、
前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整するステップと、
前記リソース集合における音声データを、再生時間軸を調整した前記目標音声データに置き換えるステップと、を含む。
上記の構成において、前記動画ファイルの生成方法は、
表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示するステップと、
前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定するステップと、
確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットするステップと、を含む。
上記の構成において、前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示するステップと、
前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節するステップと、
前記リソース集合における音声データを、前記音量値調節後の音声データに置き換えるステップと、を含む。
上記の構成において、前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップは、
前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整するステップと、を含む。
上記の構成において、前記編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップは、
調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得するステップと、
前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得するステップと、を含む。
第2の形態では、本開示の実施例に係る動画ファイルの生成装置は、
動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示する第1の表示手段と、
目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得し、前記リソース集合が、音声データ、画像データ、および動画構成パラメータを含む取得手段と、
前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示する第2の表示手段と、
前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得する編集手段と、
前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整する調整手段と、
前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する合成手段と、を備える。
上記の構成において、前記編集手段は、さらに、
前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示し、
目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得し、
前記リソース集合における音声データを目標音声データに置き換える。
上記の構成において、前記編集手段は、さらに、
前記リソース集合における音声データの再生時間軸を取得し、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示し、
前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整し、
前記リソース集合における音声データを、前記再生時間軸を調整した目標音声データに置き換える。
上記の構成において、前記動画ファイルの生成装置は、カット手段をさらに備え、
前記カット手段は、
表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示し、
前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定し、
確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットする。
上記の構成において、前記編集手段は、さらに、
前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示し、
前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節し、
前記リソース集合における音声データを、前記音量値調節後の音声データに置き換える。
上記の構成において、前記調整手段は、さらに、
前記目標動画テンプレートに対応する画像表示方式を取得し、
前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整する。
上記の構成において、前記合成手段は、さらに、
調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得し、
前記目標動画テンプレートに対応する画像表示方式を取得し、
前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得する。
第3の形態では、本開示の実施例に係る端末は、
実行可能な指令を記憶するメモリと、
前記実行可能な指令を実行するときに、本開示の実施例に係る動画ファイルの生成方法を実施するプロセッサと、を備える。
第4の形態では、本開示の実施例に係る非一時的な記憶媒体は、
実行可能な指令を記憶し、
前記実行可能な指令が実行されるときに、本開示の実施例に係る動画ファイルの生成方法を実施する。
本開示の実施例は、以下の有利な効果を有する。
編集可能な目標リソーステンプレートに対応するリソース集合における音声データを編集することにより、編集後の音声データを取得し、編集後の音声データに基づいて、リソース集合における画像データの再生パラメータを調整し、編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。このようにして、動画ファイルの時間軸が柔軟になるように音声データの変更や切替ことにより、リソーステンプレートの変更が可能になり、ユーザの可操作性が向上されることができる。
図面及び下記の実施の形態により、本開示の各実施例の上述した及びその以外の目的、特徴及び発明の効果は明らかになる。図面の全般において、同一または類似の符号は、同一又は類似の構成要素を表す。なお、図面は、模式的なものであり、本物や構成要素を必ずしも比例に従って作成したものではない。
本開示の実施例に係る動画ファイルの生成システムの構成の概略図である。 本開示の実施例に係る端末の構成の概略図である。 本開示の実施例に係る動画ファイルの生成方法のフローチャートである。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係るカスタム画像の導入画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る編集画面の概略図である。 本開示の実施例に係る動画ファイルの生成方法のフローチャートである。 本開示の実施例に係る動画ファイルの生成装置の構成の概略図である。
以下、図面及び実施例を参照しながら本開示を説明する。図面には、本開示の一部の実施例を示しているが、本開示は、いろいろな形式によって実現することができ、説明される実施例に限定されることではなく、逆にこれらの実施例は、本開示を適切かつ完全に理解するためのものである。なお、本開示の図面及び実施例は、例示的なものであり、本開示の保護範囲を限定するためのものではない。
なお、本開示の方法において、実施の形態に記載の各ステップは、異なる順序に従って、及び/又は、並行に実行される。また、方法の実施の形態は、あるステップを付加的に実行する、及び/又は、あるステップの実行を省略することができる。本開示は、これらに限定されることではない。
本開示で使用される用語「含む」及びその変更は、開放的な「含む」であり、すなわち「含むがこれらに限定しない」とのことを意味する。用語「基づく」は、「少なくとも部分的に基づく」とのことを意味する。用語「一実施例」は、「少なくとも1つの実施例」とのことを意味する。用語「別の実施例」は、「少なくとも1つの別の実施例」とのことを意味する。他の用語の関連定義は、以下で説明する。
なお、本開示における「第一」、「第二」という用語は、異なる装置、モジュールやユニットを区分するためのことであり、これの装置、モジュールやユニットが実施するステップの順番または依存関係を限定するものではない。
なお、本開示における「1個」、「複数個」という用語は、事項の数量の例示にしか過ぎないものであり、事項の数量を限定するものでない。特別な説明がない場合、当業者は本開示における「1個」、「複数個」という用語を「1個または複数個」に理解することができる。
本開示の実施の形態において、複数個の装置がインタラクティブする情報または情報の名称は、本開示を説明するためのものであり、その情報または情報の範囲を限定するものでない。
以下、本開示の実施例の装置を実施する例示的な応用について説明し、本開示の実施例に係る装置は、スマートフォン、タブレットパソコン、ノートパソコンなどの各種ユーザ端末により実現することができ、端末とサーバとの協力により実現することもできる。以下、装置を実施する例示的な応用について説明する。
いくつかの実施例は、端末の単独によって実施され、端末は、動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示し、目標動画テンプレートに対する選択指令に応じて、目標動画テンプレートに対応するリソース集合を取得し、リソース集合は、音声データ、画像データ、および動画構成パラメータを含み、動画構成パラメータに基づいて音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示し、編集ボタンに対するクリック操作に応じて、音声データを編集して編集後の音声データを取得し、編集後の音声データに基づいて、画像データの再生パラメータを調整し、編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。このようにして、音声データの編集、画像データの再生パラメータの調整、および動画ファイルの合成は、端末側でリアルタイム化され、音声データの切り替えの取得効率を向上させ、ユーザエクスペリエンスを向上させることができる。
いくつかの実施例において、端末とサーバとの協力によって実施され、図1を参照すると、図1は、本開示の実施例に係る動画ファイル生成システム100の構成の概略図であり、例示的な応用をサポートするために、端末200(端末200-1および端末200-2を含む)は、ネットワーク300を介してサーバ400に接続され、ネットワーク300は、ワイドエリアネットワークまたはローカルエリアネットワークであり、または、両者の組み合わせであることができ、無線接続(wireless link)によってデータ送信を実現する。
端末200は、動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示し、目標動画テンプレートに対する選択指令に応じて、目標動画テンプレートに対する選択要請を生成してサーバ400に送信する。
サーバ400は、選択要請に基づいて目標動画テンプレートに対応するリソース集合を取得し、リソース集合は、音声データ、画像データ、および動画構成パラメータを含み、動画構成パラメータに基づいて音声データが編集可能な音声データであることを確定した場合、対応する編集指令を端末200に送信する。
端末200は、編集ボタンを含む編集画面を表示し、編集ボタンに対するクリック操作に応じて、編集要請をサーバ400に送信する。
サーバ400は、音声データを編集して編集後の音声データを取得し、編集後の音声データに基づいて、画像データの再生パラメータを調整し、編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得し、取得した目標動画ファイルを端末200に返送して、端末200は、受信した目標動画ファイルを再生する。このように、音声データの編集、画像データの再生パラメータの調整及び動画ファイルの合成をサーバによって完成することにより、端末側のデータ処理負荷を軽減させ、目標動画テンプレートを切り替える音声データの容量が大きい場合に適用される。
図2を参照すると、図2は、本開示の実施例に係る端末200の構成の概略図である。端末は、携帯電話、ノートパソコン、デジタル放送受信機、パーソナルデジタルアシスタント(PDA,Personal Digital Assistant)、タブレット型コンピュータ(PAD)、携帯型メディアプレーヤー(PMP,Portable Media Player)、車載端末(例えば、車載ナビゲーション端末)などのような携帯電子端末や、デジタルテレビ(TV)、デスクトップ型コンピュータなどのような固定電子端末などの各種の電子端末であることができるが、これらに限定されない。図2に示す電子機器は、例示にすぎず、本開示に係る実施例の機能及び使用される範囲を限定するのではない。
図2に示したように、端末200は、リードオンリーメモリ(ROM,Read-Only Memory)220に記憶されているプログラムや記憶装置280からランダムアクセスメモリ(RAM,Random Access Memory)230にアップロードしたプログラムに基づいて、各種の適切な動作や処理を行う処理装置(例えば、中央処理装置(CPU)、画像処理装置(GPU)など)210を備えることができる。RAM230には、端末の操作に必要な各種のプログラムやデータも記憶されている。処理装置210とROM220とRAM230とは、バス240を介して互いに接続される。入出力(I/O,Input/Output)インターフェース250もバス240に接続される。
通常、I/Oインターフェース250には、例えばタッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイク、アクセラメーター、ジャイロスコープなどのような入力装置260、例えば液晶表示装置(LCD)、スピーカー、バイブレータなどのような出力装置270、例えばテープ、ハードディスクなどのような記憶装置280、及び通信装置290が接続されることができる。通信装置290は、端末と他の機器との無線や有線によるデータ交換を許容することができる。図21では、各種の装置を有する端末を示しているが、これらの全ての装置を備えることを要求することではない。その代わりに、より多い装置またはより少ない装置を備えることもできる。
特に、本開示の実施例によれば、以上でフローチャートを参照しながら説明する過程は、ソフトウェアプログラムによって実現されることができる。例えば、本開示の実施例に係るソフトウェアプログラム製品は、コンピュータ可読記憶媒体に記憶されているソフトウェアプログラムを含み、このソフトウェアプログラムは、フローチャートに示す方法を実行するプログラムコードを含む。このような実施例では、このソフトウェアプログラムは、通信装置290を介してインターネットからダウンロードしてインストールされるか、または、記憶装置280からインストールされるか、または、ROM220からインストールされることができる。このソフトウェアプログラムが処理装置210によって実行されるときに、本開示の実施例に係る動画ファイルの生成方法で限定された上記機能を実行する。
なお、本開示におけるコンピュータ可読媒体は、コンピュータ可読信号媒体、コンピュータ可読記憶媒体又はこれらの組み合わせであることができる。コンピュータ可読記憶媒体は、電気、磁気、光学、電磁気、赤外線、又は半導体のシステム、装置やデバイス、又はこれらの組み合わせであることができるが、これらに限定されることではない。コンピュータ可読記憶媒体のより具体的な例としては、1つ又は複数の導線によって電気接続される、携帯式コンピュータの磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なリードオンリーメモリ(EPROM,Erasable Programmable Read Only Memory)、フラッシュメモリ、光ファイバー、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又はこれらの組み合わせを含むことができるが、これらに限定されることではない。
本開示において、コンピュータ可読記憶媒体は、プログラムを含むまたは記憶する有形的表現媒体であることができ、このプログラムは、指令によって実行されるシステム、装置やデバイスに使用されるか、又はこれらの組み合わせに使用されるものであることができる。本開示の実施例において、コンピュータ可読信号媒体は、ベースバンドで又は搬送波の一部として伝播するデータ信号であることができ、このデータ信号は、コンピュータ可読プログラムコードを持ち運んでいる。このようなデータ信号は、電磁気信号、光学信号又は上記の任意適合な組み合わせのような各種の形式を採用することができるが、これらに限定されることではない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外のいずれのコンピュータ可読媒体であることもでき、この指令によって実行されるシステム、装置やデバイスに使用されるか、又はこれらの組み合わせに使用されるプログラムを発送、伝播又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、いずれの適合な媒体(例えば、電線、光ケーブル、ラジオ周波数(RF,Radio Frequency)など、または、上記のいずれかの適合な組み合わせ)によって伝送することができるが、これらに限定されることではない。
上記のコンピュータ可読媒体は、上記の端末200に備えられるものであることもでき、この端末200に装着せずに単独的に存在するものであることもできる。
コンピュータ可読媒体には、1つ又は複数のプログラムが記憶されており、1つ又は複数のプログラムがこの端末200によって実行される場合、この端末は本開示の実施例に係る動画ファイルの生成方法を実行する。
1種又は複数種のプログラミング言語又はその組み合わせによって本開示の操作を実行するためのコンピュータプログラムコードを編集することができ、前記プログラミング言語は、Java、Smalltalk、C++のようなオブジェクト指向プログラミング言語、C言語又はそれに類似するプログラミング言語のような常用の手続き型プログラミング言語を含むことができるが、これらに限定されることではない。プログラムコードは、ユーザコンピュータで完全に実行されるか、又は、ユーザコンピュータで部分的に実行されるか、又は、1つのソフトウェアパッケージとして実行されるか、又は、一部がユーザコンピュータで実行され、一部がリモートコンピュータで実行されるか、又は、リモートコンピュータ又はサーバで完全に実行されることができる。リモートコンピュータに関する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN,Local Area Network))やワイドエリアネットワーク(WAN,Wide Area Network)のような任意種類のネットワークによって、ユーザコンピュータに接続されるか、または、外部コンピュータに接続されることができる(例えば、インターネットサービスプロバイダを利用して、インターネットによって接続される)。
本開示の実施例に記述されるユニット及び/又はモジュールは、ソフトウェアによって実現してもよく、ハードウェアによって実現してもよい。
ハードウェアは、本開示の実施例を実現可能な端末におけるユニット及び/又はモジュールが、1つ又は複数の特定用途向け集積回路(ASIC,Application Specific Integrated Circuit)、デジタルシグナルプロセッサ(DSP)、プログラマブルロジックデバイス(PLD,programmable logic device)、コンプレックスプログラムマブルロジックデバイス(CPLD,Complex Programmable Logic Device)、フィールドプログラマブルゲートアレイ(FPGA)又は他の電子素子によって実現されることができ、本開示の実施例に係る動画ファイルの生成方法を実行する。
図3を参照すると、図3は、本開示の実施例に係る動画ファイルの生成方法のフローチャートであり、本開示の実施例に係る動画ファイルの生成方法は、以下のステップを含む。
ステップ301では、端末が動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示する。
実際の実施において、端末には、インスタントメッセージングクライアント、マイクロブログクライアント、ショート動画クライアントなどのクライアントが設置されている。ユーザは、クライアントにプロップリソースをロードすることでソーシャルインタラクションを実現することができる。プロップリソースは、動画プロップ、音声プロップ、ユーザインターフェイス(UI)アニメーションプロップのうちの少なくとも1つを含み、動画プロップは、例えば、動画テンプレート、動画カバー、動画関連のテキスト(例えば、タイトル、動画タグなど)を含むことができ、音声プロップは、背景音楽であることができ、UIアニメーションは、ネットワークインタラクションを行うインターフェースであることができる。
実際の実施において、ユーザは、クライアント上の動画の編集ボタンをクリックして、対応する編集指令をトリガして端末に送信し、端末は、ユーザによってトリガされた編集指令を受信して、対応する動画の複数の動画テンプレートを対応的に表示する。
例示的に、図4A~図4Cを参照すると、図4A~図4Cは、本開示の実施例に係る編集画面の概略図であり、ユーザが端末上に設定のショート動画クライアントを開くと、ショート動画クライアントには図4Aに示す画面が表示され、ユーザが図4Aの編集ボタン「+」をクリックすると、ショート動画クライアントには図4Bに示す画面が表示され、ユーザが図4Bの「アルバム」ボタンをクリックすると、対応する編集指令がトリガされ、ショート動画クライアントは、この編集指令を受信して、図4Cに示す「Retro Magazine」、「Full Moon Mid-Autumn Festival」、「ExclusiveBuilding」などの16個の動画テンプレートを表示する。
ステップ302では、目標動画テンプレートに対する選択指令に応じて、目標動画テンプレートに対応するリソース集合を取得し、リソース集合は、音声データ、画像データ、および動画構成パラメータを含む。
実際の実施において、ユーザによる目標動画テンプレートの選択によって、端末が対応する目標動画テンプレートを表示し、目標動画テンプレートに対応するリソース集合を取得する。
例えば、ユーザが、図4Cに示す編集画面で複数の動画テンプレートから「ExclusiveBuilding」を目標動画テンプレートとして選択し、ターゲットビデオテンプレート「ExclusiveBuilding」という目標動画テンプレートに対応する「使用」ボタンをクリックすると、端末は、ユーザによる「ExclusiveBuilding」という目標動画テンプレートの選択ボタンに対するのタッチ操作によってトリガされた選択指令を受信して、「ExclusiveBuilding」という目標動画テンプレートに対応するリソース集合をロードする。
ステップ303では、動画構成パラメータに基づいて音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示する。
ここで、実際の実施において、ユーザが目標動画テンプレートを確定した後、予め設定の数量の画像に目標動画テンプレートにおける効果が具現されるように、カスタムの予め設定の数量の画像をこの目標動画テンプレートに導入することができる。図5を参照すると、図5は、本開示の実施例に係るカスタム画像の導入画面の概略図である。図5に示すように、ユーザによって選択された目標動画テンプレートが「ExclusiveBuilding」でありかつ「ExclusiveBuilding」という目標動画テンプレートに最適具現効果の8枚の画像が表示されている場合、ユーザは、最多8枚の画像を「ExclusiveBuilding」という目標動画テンプレート」に導入することができる。
実際の実施例において、動画テンプレートは、バックエンドがモーションベクトル(MV、Motion Vector)アルゴリズムに基づいてマッチイングされているものであり、動画テンプレートに対応する動画構成パラメータは、音声データに対して時間軸を動的に変更できるかどうかを示すマーカビットを有し、マーカビットが音声データに対する時間軸の変更が可能であるとする場合、すなわち音声データが編集可能な音声データであることを確定した場合、端末に編集ボタンを含む対応する編集画面を表示する。
図6Aを参照すると、図6Aは、本開示の実施例に係る編集画面の概略図である。図6Aに示すように、編集画面に効果音楽選択、特殊効果、テキスト、ステッカーなどの複数の編集ボタンが表示され、異なるボタンをクリックすると、異なる編集形式がトリガされる。
ステップ304では、編集ボタンに対するクリック操作に応じて、音声データを編集して編集後の音声データを取得する。
いくつかの実施例において、端末は、以下の方法によって音声データを編集して編集後の音声データを取得することができる。
編集ボタンに対するクリック操作に応じて、編集画面に複数の音声アイコンを表示し、目標音声アイコンに対する選択指令に応じて、目標音声アイコンに対応する目標音声データを取得し、リソース集合における音声データを目標音声データに置き換える。
実際の実施において、編集ボタンによって目標動画テンプレートのリソース集合における音声データを切り替えるように指示されると、端末の編集画面には、対応する複数の切替待ちの音声アイコンが表示され、ユーザが複数の音声アイコンから1つの音声アイコンを選択すると、リソース集合における音声データがこのアイコンに対応する目標音声データに切り替えられて、この目標音声データを再生する。
例示的には、ユーザが図6Aに示すような「効果音楽選択」ボタンをクリックすると、本開示の実施例に係る編集画面の概略図である図6Bに示したように、端末の編集画面に「お勧め」及び「お気に入り」との2つの切替待ちの音声データ選択項が表示され、「お勧め」を選択した場合、
(外1)
Figure 0007387891000001
、「Asian Power」、「醉赤壁」、「検索」、「もっと」などの複数の音声アイコンが表示され、端末は、ユーザの、
(外2)
Figure 0007387891000002
との音声データに対応する音声アイコンに対するクリック操作によってトリガされた選択指令を受信すると、
(外3)
Figure 0007387891000003
との目標音声データを取得し、目標動画テンプレートにおけるリソース集合の音声データを
(外4)
Figure 0007387891000004
との目標音声データに置き換えて、この
(外5)
Figure 0007387891000005
との音楽を再生する。このようにして、ユーザの選択に応じてリソーステンプレートにおける背景音楽が置き換えることにより、ユーザの個性化の需要を満たさせることができる。
実際の実施において、ユーザが選択した目標音声データの時間長さが、目標リソーステンプレートのリソース集合における音声データの時間長さと異なるが、ユーザが目標音声データの時間長さに対してカットしていない場合がある。いくつかの実施例において、ユーザが選択した目標音声データが目標音声テンプレートによりよく適合するように、端末は、以下の方法でリソース集合における音声データを目標音声データに置き換えることができる。
リソース集合における音声データの再生時間軸を取得し、再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示し、再生時間軸に基づいて、目標音声データの再生時間軸を調整し、リソース集合における音声データを、再生時間軸を調整した目標音声データに置き換える。
ここで、リソース集合における音声データの再生時間軸は、音声データの目標リソーステンプレートでの再生開始時間及び再生終了時間を指示する。例えば、特定の目標リソーステンプレートに対して、10秒から30秒まで音声データの再生するように、そのリソース集合における音声データの再生時間軸を指示した場合、目標音声データでリソース集合における音声データを置き換えたとき、目標動画データも10秒から30秒まで再生する。このようにして、音声データの前奏部分を削除し、高潮部分を直接再生させて、より良い再生効果を得ることができる。
いくつかの実施例において、目標音声データの時間長さがリソース集合における音声データの時間長さと異なることについて、ユーザは、目標音声データの時間長さに対してカットを行うことができ、端末は、対応的に以下の方式によって音声のカットを実現することができる。
表示されたカットボタンに対するクリック操作に応じて、目標音声データに対応する音声スペクトル棒線を表示し、音声スペクトル棒線に対するスワイプ操作に応じて、目標音声データの再生開始時間及び/又は再生終了時間を確定し、確定後の再生開始時間及び/又は再生終了時間に基づいて、目標音声データをカットする。
実際の実施において、端末は、目標音声データの音声スペクトル棒線に対するスワイプ操作によってトリガされたカット指令に基づいて、目標音声データの再生開始時間を確定し、リソース集合における音声データの時間長さに基づいて、目標音声データの時間軸を確定する。例えば、図6C~図6Dを参照すると、図6C~図6Dは、本開示の実施例に係る編集画面の概略図であり、図6Cにおいて、ユーザがカットボタンをクリックすると、端末の編集画面に図6Dに示したような音声スペクトル棒線が表示され、ユーザが目標音声データの音声スペクトル棒線を10秒目までスワイプした場合、リソース集合における音声データの時間長さが20秒であると仮定すれば、目標音声データが10秒目から30秒目まで再生されることにより、10秒目から30秒目までの目標音声データが再生またはループ再生される。
実際の実施例において、端末は、目標音声データの音声スペクトル棒線に対するスワイプ操作によってトリガされたカット指令に基づいて、目標音声データの再生開始時間及び再生終了時間を確定し、音声データの再生開始時間と再生終了時間との間の音声データをカットする。例えば、図6Eを参照すると、図6Eは、本開示の実施例に係る編集画面の概略図であり、図6Eにおいて、ユーザが目標音声データの音声スペクトル棒線を10秒目から25秒目までスワイプして、10秒目から25秒目までの目標音声データをカットすることにより、カット後の目標音声データが再生される。このようにして、目標リソーステンプレートにおける音声データの切替及び対応する再生時間長さのカスタムカットを実現することにより、ユーザの個性化の需要を満たさせることができる。
いくつかの実施例において、端末は、以下の方式によって音声データを編集して、編集後の音声データを取得することができる。
編集ボタンに対するクリック操作に応じて、音声データの再生音量を調節するための音量調節軸を表示し、音量調節軸の調節ノードに対するスワイプ操作に応じて、音声データの異なる再生ノードでの音量値を調節し、リソース集合における音声データを、音量値調節後の音声データに置き換える。
実際の実施において、編集ボタンによってリソース集合における音声データの再生音量を調節するように指示されると、端末の編集画面には、対応する音声データの再生音量を調節するための音量調節軸が表示され、端末は、ユーザの音量調節軸における調節ノードに対するスワイプに基づいて、音声データの異なる再生ノードでの音量値を調節し、図6Fを参照すると、図6Fは、本開示の実施例に係る編集画面の概略図であり、再生ノードに基づいて音声データを3段のセグメントに分割し、1段目のセグメントが20デシベル(dB)の音量で再生され、2段目のセグメントが60デシベルの音量で再生され、3段目のセグメントが80デシベルの音量で再生されるようにする。このようにして、ユーザの需要に基づいて、音声データの異なるセグメントを異なる音量値で再生させて、ユーザに新たな聴覚体験を与えることができる。
いくつかの実施例において、切り替えられた目標音声データの音量も調節することができる。端末は、ユーザの音量調節軸の調節ノードに対するスワイプによってトリガされた音量調節指令に基づいて、目標音声データの再生音量を調節し、図6Gを参照すると、図6Gは、本開示の実施例に係る編集画面の概略図であり、図6Gに示すように、リソース集合における音声データの再生音量値は、50デシベルであり、目標音声データ(即ち、効果音楽)の音量調節軸の調節ノードをスワイプすることにより、目標音声データの音量を40デシベルに調節し、端末は、音量調節後の目標音声データを取得し、それに応じて、リソース集合における音声データを、音量値調節後の目標音声データに置き換える。
ステップ305では、編集後の音声データに基づいて、画像データの再生パラメータを調整する。
いくつかの実施例において、端末は、以下の方式によって画像データの再生パラメータを調整することができる。
目標動画テンプレートに対応する画像表示方式を取得し、画像表示方式と編集後の音声データとに基づいて、画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整する。
実際の実施において、バックエンドが目標動画テンプレートを構成するときに、リソース集合の構成パラメータ(例えば、効果最適、背景の切替速度及び表示方式(例えば、左方導入や回転導入など)の数枚の画像を採用する画像表示方式)も設定される。リソース集合における音声データを編集するときに、編集後の音声データが目標動画テンプレートに適合されるように、端末は、編集後の音声データに基づいて画像の数や再生速度などのパラメータも調整する。
例示的には、目標動画テンプレートにおける音声データの時間長さが20秒であり、8枚の写真が導入されると効果が最適である場合、音声データに対する編集によって音声データの時間長さが15秒にカットされると仮定すれば、導入される画像の数を減少させること、又は、画像の再生速度を加速させることにより、比較的に良好な効果を具現することができる。
ステップ306では、編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。
いくつかの実施例において、端末は、以下の方式によって目標動画ファイルを取得することができる。
調整後の再生パラメータに基づいて目標動画ファイルを合成するための画像を取得し、目標動画テンプレートに対応する画像表示方式を取得し、編集後の音声データ、取得された画像及び画像表示方式に基づいて、動画のエンコーディングを行って目標動画ファイルを取得する。
目標リソーステンプレートのリソース集合における編集可能な音声データを編集することにより、編集後の音声データを取得し、編集後の音声データに基づいて、リソース集合における画像データの再生パラメータを調整し、編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。このようにして、音声データの変更や切替ことにより、リソーステンプレートの変更を実現し、ユーザの可操作性を向上させ、ユーザの個性化の需要を満たさせることができる。
図7を参照すると、図7は、本開示の実施例に係る動画ファイルの生成方法のフローチャートであり、動画ファイルの生成方法は、端末に設置されたクライアントとサーバとの協力によって実施されることができ、本開示の実施例における動画ファイルの生成方法は、以下のステップを含む。
ステップ701では、クライアントは、動画の編集指令に応じて、対応する動画の少なくとも1つの動画テンプレートを表示する。
実際の実施において、端末には、インスタントメッセージングクライアント、マイクロブログクライアント、ショート動画クライアントなどのクライアントが設置されている。ユーザは、クライアントにプロップリソースをロードすることでソーシャルインタラクションを実現することができる。実際の実施において、ユーザは、クライアント上の動画の編集ボタンをクリックして、対応する編集指令をトリガして端末に送信し、端末は、ユーザによってトリガされた編集指令を受信して、対応する動画の複数の動画テンプレートを対応的に表示する。
ステップ702では、クライアントは、目標動画テンプレートに対する選択指令に応じて、目標動画テンプレートに対する選択要請を生成する。
ここで、クライアントは、ユーザの目標動画テンプレートの選択ボタンに対するタッチ操作によってトリガされた選択指令を受信して、対応する選択要請を生成する。
ステップ703では、クライアントは、目標動画テンプレートに対して生成した選択要請をサーバに送信する。
ステップ704では、サーバは、選択要請に基づいて目標動画テンプレートに対応するリソース集合を取得する。
ここで、リソース集合は、音声データ、画像データ、および動画構成パラメータを含む。
ステップ705では、サーバは、動画構成パラメータに基づいて音声データが編集可能な音声データであることを確定した場合、対応する編集指令を生成する。
ここで、実際の実施例において、動画テンプレートは、サーバがモーションベクトル(MV)アルゴリズムに基づいてマッチイングされているものであり、動画テンプレートに対応する動画構成パラメータは、音声データに対して時間軸を動的に変更できるかどうかを示すマーカビットを有し、マーカビットが音声データに対する時間軸の変更が可能であるとする場合、すなわち音声データが編集可能な音声データであることを確定した場合、サーバは、対応する編集指令を生成する。
ステップ706では、サーバは、対応する編集指令をクライアントに送信する。
ステップ707では、クライアントは、編集指令に基づいて、編集ボタンを含む編集画面を表示する。
ここで、クライアントは、サーバから送信された編集指令に基づいて、対応する編集画面を表示する。
ステップ708では、クライアントは、編集ボタンに対するクリック操作に応じて、編集画面に複数の音声アイコンを表示する。
ステップ709では、クライアントは、目標音声アイコンに対する選択指令に応じて、目標音声アイコンに対応する目標音声データを取得する。
ステップ710では、クライアントは、表示されたカットボタンに対するクリック操作に応じて、目標音声データに対応する音声スペクトル棒線を表示する。
ステップ711では、クライアントは、音声スペクトル棒線に対するスワイプ操作に応じて、目標音声データの再生開始時間を確定する。
ステップ712では、クライアントは、確定後の再生開始時間及びリソース集合における音声データの時間長さに基づいて、目標音声データをカットしてカット後の目標音声データを取得する。
以上のステップにより、目標音声データを取得して、目標リソーステンプレートにおける音声データの切替を実現して、目標音声データをカットする。
ステップ713では、クライアントは、編集ボタンに対するクリック操作に応じて、カット後の目標音声データの再生音量を調節するための音量調節軸を表示する。
ここで、カット後の目標音声データの再生音量を調節する。
ステップ714では、クライアントは、音量調節軸の調節ノードに対するスワイプ操作に応じて、カット後の目標音声データの異なる再生ノードでの音量値を調節する。
ここで、ユーザの需要に基づいて、カット後の目標音声データの異なるセグメントの音量値を調節して、目標音声データの異なるセグメントを異なる音量値で再生する。
ステップ715では、クライアントは、音量値調節後の目標音声データを編集後の音声データとする。
以上のステップにより、目標動画テンプレートにおける音声データを切り替え、切替後の目標音声データに対して時間軸の調整と音量の調節を行って、編集後の音声データを取得し、この編集後の音声データでリソース集合における音声データを置き換える。
ステップ716では、クライアントは、編集後の音声データをサーバに送信する。
ステップ717では、サーバは、編集後の音声データに基づいて、画像データの再生パラメータを調整する。
ここで、サーバは、目標動画テンプレートに対応する画像表示方式を取得し、画像表示方式と編集後の音声データとに基づいて、画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整する。
ステップ718では、サーバは、編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。
ステップ719では、サーバは、目標動画ファイルをクライアントに送信する。
ステップ720では、クライアントは、目標動画ファイルを再生する。
次には、本開示の実施例に係る動画ファイルの生成装置のソフトウェア的な実現について説明する。図8は、本開示の実施例に係る動画ファイルの生成装置の構成の概略図である。図8を参照すると、本開示の実施例に係る動画ファイルの生成装置80は、第1の表示手段81と、取得手段82と、第2の表示手段83と、編集手段84と、調整手段85と、合成手段86と、を備える。
前記第1の表示手段81は、動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示する。
前記取得手段82は、目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得し、前記リソース集合は、音声データ、画像データ、および動画構成パラメータを含む。
前記第2の表示手段83は、前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示する。
前記編集手段84は、前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得する。
前記調整手段85は、前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整する。
前記合成手段86は、前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する。
いくつかの実施例において、前記編集手段は、さらに、
前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示し、
目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得し、
前記リソース集合における音声データを目標音声データに置き換える。
いくつかの実施例において、前記編集手段は、さらに、
前記リソース集合における音声データの再生時間軸を取得し、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示し、
前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整し、
前記リソース集合における音声データを、前記再生時間軸を調整した目標音声データに置き換える。
いくつかの実施例において、前記装置は、カット手段をさらに備え、
前記カット手段は、
表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示し、
前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定し、
確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットする。
いくつかの実施例において、前記編集手段は、さらに、
前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示し、
前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節し、
前記リソース集合における音声データを、前記音量値調節後の音声データに置き換える。
いくつかの実施例において、前記調整手段は、さらに、
前記目標動画テンプレートに対応する画像表示方式を取得し、
前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整する。
いくつかの実施例において、前記合成手段は、さらに、
調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得し、
前記目標動画テンプレートに対応する画像表示方式を取得し、
前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得する。
本開示の実施例に係る端末は、
実行可能な指令を記憶するメモリと、
前記実行可能な指令を実行するときに、本開示の実施例に係る動画ファイルの生成方法を実施するプロセッサと、を備える。
本開示の実施例に係る非一時的な記憶媒体は、実行可能な指令を記憶し、
前記実行可能な指令が実行されるときに、本開示の実施例に係る動画ファイルの生成方法を実施する。
本開示の1つ又は複数の実施例によれば、本開示の実施例に係る動画ファイルの生成方法は、
動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示するステップと、
目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得するステップであって、前記リソース集合は、音声データ、画像データ、および動画構成パラメータを含むステップと、
前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示するステップと、
前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップと、
前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップと、
前記編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップと、
を含む。
いくつかの実施例において、前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示するステップと、
目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得するステップと、
前記リソース集合における音声データを前記目標音声データに置き換えるステップと、
を含む。
いくつかの実施例において、前記リソース集合における音声データを前記目標音声データに置き換えるステップは、
前記リソース集合における音声データの再生時間軸を取得するステップであって、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示するステップと、
前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整するステップと、
前記リソース集合における音声データを、再生時間軸を調整した前記目標音声データに置き換えるステップと、
を含む。
いくつかの実施例において、前記方法は、
表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示するステップと、
前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定するステップと、
確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットするステップと、
を含む。
いくつかの実施例において、前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示するステップと、
前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節するステップと、
前記リソース集合における音声データを、前記音量値調節後の音声データに置き換えるステップと、
を含む。
いくつかの実施例において、前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップは、
前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整するステップと、
を含む。
いくつかの実施例において、前記編集後の音声データおよび調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップは、
調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得するステップと、
前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得するステップと、
を含む。
本開示の実施例に係る動画ファイルの生成装置は、
動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示する第1の表示手段と、
目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得し、前記リソース集合が、音声データ、画像データ、および動画構成パラメータを含む取得手段と、
前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示する第2の表示手段と、
前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得する編集手段と、
前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整する調整手段と、
前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する合成手段と、
を備える。
以上の説明は、本開示の実施例及び採用している技術的原理の例示である。当業者であれば、本開示に係る開示範囲が、上記の技術的特徴の特定の組み合わせによって形成される技術案に限定されず、上記の開示の技術的思想を逸脱しない限り、上記の技術的特徴又は均等の特徴の任意の組み合わせによって形成される技術案も本願の保護範囲に属することを理解することができる(例えば、上記の特徴と、本開示に開示の類似している機能を有する技術的特徴と、の交換によって形成される技術案)。
また、特定の順序で各操作を説明したが、以上で開示の特定の順序又は手順でこれらの操作を実行することを要求するのではない。特定の状況では、複数の任務を並列処理することが有利な場合がある。同様に、以上での説明に複数の具体的な実施細部を含んでいるが、これらが本開示の保護範囲を限定することではない。単一の実施例における、ある特徴を組み合わせてこの実施例を実施することもできる。逆に、単一の実施例における各特徴を単独又は何れかの組合によって複数の実施例を実施することもできる。
構造的特徴及び/又は方法的の論理的動作の言語で本開示の主題を説明したが、特許請求の範囲で定義される主題は、必ずしも上記の特定の特徴又は動作に限定されないことではない。逆に、上記の特定の特徴及び動作は、特許請求の範囲を実施するための例示的な形態にすぎない。

Claims (13)

  1. 動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示するステップと、
    目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得するステップであって、前記リソース集合は、音声データ、画像データ、及び動画構成パラメータを含むステップと、
    前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示するステップと、
    前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップと、
    前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップと、
    前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップと、
    を含み、
    前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
    前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示するステップと、
    目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得するステップと、
    前記リソース集合における音声データを前記目標音声データに置き換えるステップと、を含み、
    当該動画ファイルの生成方法は、
    表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示するステップと、
    前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定するステップと、
    確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットするステップと、
    を含むことを特徴とする動画ファイルの生成方法。
  2. 前記リソース集合における音声データを前記目標音声データに置き換えるステップは、
    前記リソース集合における音声データの再生時間軸を取得するステップであって、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示するステップと、
    前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整するステップと、
    前記リソース集合における音声データを、再生時間軸を調整した前記目標音声データに置き換えるステップと、
    を含むことを特徴する請求項に記載の動画ファイルの生成方法。
  3. 前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得するステップは、
    前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示するステップと、
    前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節するステップと、
    前記リソース集合における音声データを、前記音量値調節した後の音声データに置き換えるステップと、
    を含むことを特徴する請求項1に記載の動画ファイルの生成方法。
  4. 前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整するステップは、
    前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
    前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整するステップと、
    を含むことを特徴する請求項1に記載の動画ファイルの生成方法。
  5. 前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得するステップは、
    調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得するステップと、
    前記目標動画テンプレートに対応する画像表示方式を取得するステップと、
    前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得するステップと、
    を含むことを特徴する請求項1に記載の動画ファイルの生成方法。
  6. 動画の編集指令を受信して、対応する動画の少なくとも1つの動画テンプレートを表示する第1の表示手段と、
    目標動画テンプレートに対する選択指令に応じて、前記目標動画テンプレートに対応するリソース集合を取得し、前記リソース集合が、音声データ、画像データ、及び動画構成パラメータを含む取得手段と、
    前記動画構成パラメータに基づいて前記音声データが編集可能な音声データであることを確定した場合、編集ボタンを含む編集画面を表示する第2の表示手段と、
    前記編集ボタンに対するクリック操作に応じて、前記音声データを編集して編集後の音声データを取得する編集手段と、
    前記編集後の音声データに基づいて、前記画像データの再生パラメータを調整する調整手段と、
    前記編集後の音声データ及び調整後の再生パラメータに基づいて、動画ファイルを合成して目標動画ファイルを取得する合成手段と、
    を備える画ファイルの生成装置であって、
    前記編集手段は、さらに、
    前記編集ボタンに対するクリック操作に応じて、前記編集画面に複数の音声アイコンを表示し、
    目標音声アイコンに対する選択指令に応じて、前記目標音声アイコンに対応する目標音声データを取得し、
    前記リソース集合における音声データを目標音声データに置き換え、
    当該動画ファイルの生成装置は、カット手段をさらに備え、
    前記カット手段は、
    表示されたカットボタンに対するクリック操作に応じて、前記目標音声データに対応する音声スペクトル棒線を表示し、
    前記音声スペクトル棒線に対するスワイプ操作に応じて、前記目標音声データの再生開始時間及び/又は再生終了時間を確定し、
    確定後の前記再生開始時間及び/又は再生終了時間に基づいて、前記目標音声データをカットすることを特徴とする
    動画ファイルの生成装置
  7. 前記編集手段は、さらに、
    前記リソース集合における音声データの再生時間軸を取得し、前記再生時間軸は、少なくとも音声再生の開始時間及び終了時間を指示し、
    前記再生時間軸に基づいて、前記目標音声データの再生時間軸を調整し、
    前記リソース集合における音声データを、前記再生時間軸を調整した目標音声データに置き換えることを特徴する
    請求項に記載の動画ファイルの生成装置。
  8. 前記編集手段は、さらに、
    前記編集ボタンに対するクリック操作に応じて、前記音声データの再生音量を調節するための音量調節軸を表示し、
    前記音量調節軸の調節ノードに対するスワイプ操作に応じて、前記音声データの異なる再生ノードでの音量値を調節し、
    前記リソース集合における音声データを、前記音量値調節した後の音声データに置き換えることを特徴する
    請求項に記載の動画ファイルの生成装置。
  9. 前記調整手段は、さらに、
    前記目標動画テンプレートに対応する画像表示方式を取得し、
    前記画像表示方式と前記編集後の音声データとに基づいて、前記画像データのパラメータである画像の数及び再生速度の少なくとも1つを調整することを特徴する
    請求項に記載の動画ファイルの生成装置。
  10. 前記合成手段は、さらに、
    調整後の前記再生パラメータに基づいて前記目標動画ファイルを合成するための画像を取得し、
    前記目標動画テンプレートに対応する画像表示方式を取得し、
    前記編集後の音声データ、取得された前記画像及び前記画像表示方式に基づいて、動画のエンコーディングを行って前記目標動画ファイルを取得することを特徴する
    請求項に記載の動画ファイルの生成装置。
  11. 実行可能な指令を記憶するメモリと、
    前記実行可能な指令を実行するときに、請求項1~のいずれか1項に記載の動画ファイルの生成方法を実施するプロセッサと、を備えることを特徴とする端末。
  12. 実行可能な指令を記憶し、
    前記実行可能な指令が実行されるときに、請求項1~のいずれか1項に記載の動画ファイルの生成方法を実施することを特徴する非一時的な記憶媒体。
  13. 前記動画構成パラメータは、マーカビットを有し、
    前記マーカビットは、音声データの時間軸を動的に変更でき、
    前記マーカビットは、前記音声データの時間軸の変更が可能であることを示す場合、編集ボタンを含む編集画面を表示することを特徴とする請求項1に記載の動画ファイルの生成方法。
JP2022522402A 2019-10-14 2020-09-08 動画ファイルの生成方法、装置、端末及び記憶媒体 Active JP7387891B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910975347.0A CN112738623B (zh) 2019-10-14 2019-10-14 视频文件的生成方法、装置、终端及存储介质
CN201910975347.0 2019-10-14
PCT/CN2020/113987 WO2021073315A1 (zh) 2019-10-14 2020-09-08 视频文件的生成方法、装置、终端及存储介质

Publications (2)

Publication Number Publication Date
JP2022552344A JP2022552344A (ja) 2022-12-15
JP7387891B2 true JP7387891B2 (ja) 2023-11-28

Family

ID=75537694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522402A Active JP7387891B2 (ja) 2019-10-14 2020-09-08 動画ファイルの生成方法、装置、端末及び記憶媒体

Country Status (4)

Country Link
US (1) US11621022B2 (ja)
JP (1) JP7387891B2 (ja)
CN (1) CN112738623B (ja)
WO (1) WO2021073315A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035041B (zh) * 2020-08-31 2022-05-31 北京字节跳动网络技术有限公司 一种图像处理方法、装置、电子设备和存储介质
US12051131B2 (en) 2021-05-19 2024-07-30 Snap Inc. Presenting shortcuts based on a scan operation within a messaging system
EP4341805A1 (en) 2021-05-19 2024-03-27 Snap Inc. Combining functions into shortcuts within messaging system
CN113507640B (zh) * 2021-07-12 2023-08-18 北京有竹居网络技术有限公司 录屏视频分享方法、装置、电子设备及存储介质
CN113590247B (zh) * 2021-07-21 2024-04-05 杭州阿里云飞天信息技术有限公司 文本创作方法及计算机程序产品
CN113891113B (zh) * 2021-09-29 2024-03-12 阿里巴巴(中国)有限公司 视频剪辑合成方法及电子设备
CN114286181B (zh) * 2021-10-25 2023-08-15 腾讯科技(深圳)有限公司 一种视频优化方法、装置、电子设备和存储介质
CN114125552A (zh) * 2021-11-30 2022-03-01 完美世界(北京)软件科技发展有限公司 视频数据的生成方法及装置、存储介质、电子装置
CN116261012A (zh) * 2021-12-09 2023-06-13 北京字跳网络技术有限公司 一种视频编辑模板的生成方法、装置、设备及存储介质
CN114286164B (zh) * 2021-12-28 2024-02-09 北京思明启创科技有限公司 一种视频合成的方法、装置、电子设备及存储介质
CN114528433B (zh) * 2022-01-14 2023-10-31 抖音视界有限公司 一种模板选择方法、装置、电子设备及存储介质
CN114666637B (zh) * 2022-03-10 2024-02-02 阿里巴巴(中国)有限公司 视频剪辑方法、音频剪辑方法及电子设备
CN115022696B (zh) * 2022-04-18 2023-12-26 北京有竹居网络技术有限公司 视频预览方法、装置、可读介质及电子设备
CN117082292A (zh) * 2022-05-10 2023-11-17 北京字跳网络技术有限公司 视频生成方法、装置、设备、存储介质和程序产品
CN115103236B (zh) * 2022-06-16 2024-09-13 抖音视界有限公司 影像记录生成方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272679A1 (en) 2012-04-12 2013-10-17 Mario Luis Gomes Cavalcanti Video Generator System
US20150139613A1 (en) 2013-11-21 2015-05-21 Microsoft Corporation Audio-visual project generator
JP2017063339A (ja) 2015-09-25 2017-03-30 株式会社グロリアス 映像コンテンツ自動生成システム
JP2017157915A (ja) 2016-02-29 2017-09-07 株式会社Hearr 携帯端末装置およびコンテンツ配信システム
JP2019103059A (ja) 2017-12-06 2019-06-24 オリンパス株式会社 動画編集システム及び動画編集方法並びに動画編集のための携帯端末、キャプチャ機器、情報処理システム、情報処理方法、情報生成方法及び情報処理プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4513644B2 (ja) * 2005-05-13 2010-07-28 ヤマハ株式会社 コンテンツ配信サーバ
US20090273712A1 (en) * 2008-05-01 2009-11-05 Elliott Landy System and method for real-time synchronization of a video resource and different audio resources
CN101640057A (zh) * 2009-05-31 2010-02-03 北京中星微电子有限公司 一种音视频匹配方法及装置
US9837128B2 (en) * 2014-06-30 2017-12-05 Mario Amura Electronic image creating, image editing and simplified audio/video editing device, movie production method starting from still images and audio tracks and associated computer program
CN104349175A (zh) * 2014-08-18 2015-02-11 周敏燕 一种基于手机终端的视频制作系统及方法
CN105530440B (zh) * 2014-09-29 2019-06-07 北京金山安全软件有限公司 一种视频的制作方法及装置
CN104540028B (zh) * 2014-12-24 2018-04-20 上海影卓信息科技有限公司 一种基于移动平台的视频美化交互体验系统
US10158825B2 (en) * 2015-09-02 2018-12-18 International Business Machines Corporation Adapting a playback of a recording to optimize comprehension
CN105262959A (zh) * 2015-10-16 2016-01-20 北京易视通科技有限公司 一种基于“互联网+”模式的微视频生成的系统和方法
CN105550251A (zh) * 2015-12-08 2016-05-04 小米科技有限责任公司 图片播放方法和装置
CN106303686A (zh) * 2016-07-29 2017-01-04 乐视控股(北京)有限公司 视频生成方法、视频生成装置和终端设备
CN107357771A (zh) * 2017-06-23 2017-11-17 厦门星罗网络科技有限公司 一种有声电子相册生成及打印装置和方法
CN107743268A (zh) * 2017-09-26 2018-02-27 维沃移动通信有限公司 一种视频的编辑方法及移动终端
CN110033502B (zh) * 2018-01-10 2020-11-13 Oppo广东移动通信有限公司 视频制作方法、装置、存储介质及电子设备
CN108419035A (zh) * 2018-02-28 2018-08-17 北京小米移动软件有限公司 图片视频的合成方法及装置
CN108882015B (zh) * 2018-06-27 2021-07-23 Oppo广东移动通信有限公司 回忆视频的播放速度调整方法、装置、电子设备及存储介质
CN108965599A (zh) * 2018-07-23 2018-12-07 Oppo广东移动通信有限公司 回忆视频处理方法及相关产品
CN108924441A (zh) * 2018-08-07 2018-11-30 上海奇邑文化传播有限公司 视频智能制作终端、系统及方法
CN109769141B (zh) * 2019-01-31 2020-07-14 北京字节跳动网络技术有限公司 一种视频生成方法、装置、电子设备及存储介质
CN110276057A (zh) * 2019-05-31 2019-09-24 上海萌鱼网络科技有限公司 一种用于短视频制作的用户设计图生成方法和装置
CN110288678B (zh) * 2019-06-27 2024-02-09 北京金山安全软件有限公司 动态照片的生成方法、装置、计算机设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130272679A1 (en) 2012-04-12 2013-10-17 Mario Luis Gomes Cavalcanti Video Generator System
US20150139613A1 (en) 2013-11-21 2015-05-21 Microsoft Corporation Audio-visual project generator
JP2017063339A (ja) 2015-09-25 2017-03-30 株式会社グロリアス 映像コンテンツ自動生成システム
JP2017157915A (ja) 2016-02-29 2017-09-07 株式会社Hearr 携帯端末装置およびコンテンツ配信システム
JP2019103059A (ja) 2017-12-06 2019-06-24 オリンパス株式会社 動画編集システム及び動画編集方法並びに動画編集のための携帯端末、キャプチャ機器、情報処理システム、情報処理方法、情報生成方法及び情報処理プログラム

Also Published As

Publication number Publication date
US11621022B2 (en) 2023-04-04
US20220238139A1 (en) 2022-07-28
CN112738623A (zh) 2021-04-30
CN112738623B (zh) 2022-11-01
JP2022552344A (ja) 2022-12-15
WO2021073315A1 (zh) 2021-04-22

Similar Documents

Publication Publication Date Title
JP7387891B2 (ja) 動画ファイルの生成方法、装置、端末及び記憶媒体
US11670339B2 (en) Video acquisition method and device, terminal and medium
WO2022048478A1 (zh) 多媒体数据的处理方法、生成方法及相关设备
CN110582018B (zh) 一种视频文件处理的方法、相关装置及设备
WO2016124095A1 (zh) 生成视频的方法、装置及终端
WO2022253141A1 (zh) 视频分享方法、装置、设备及介质
KR20220103110A (ko) 비디오 생성 장치 및 방법, 전자 장치, 및 컴퓨터 판독가능 매체
JP2022554338A (ja) 音楽点を表示するための方法及び装置、並びに電子デバイス及び媒体
JP2024502664A (ja) ビデオ生成方法、装置、電子機器および記憶媒体
WO2022253157A1 (zh) 音频分享方法、装置、设备及介质
TW200928953A (en) Method, apparatus and computer program product for providing an improved user interface
CN111970571B (zh) 视频制作方法、装置、设备及存储介质
WO2022052838A1 (zh) 视频文件的处理方法、装置、电子设备及计算机存储介质
CN113190314A (zh) 互动内容生成方法、装置、存储介质及电子设备
WO2020220773A1 (zh) 图片预览信息的显示方法、装置、电子设备及计算机可读存储介质
JP2021506196A (ja) ビデオ処理方法、装置、端末および媒体
WO2023051293A1 (zh) 一种音频处理方法、装置、电子设备和存储介质
US20240064367A1 (en) Video processing method and apparatus, electronic device, and storage medium
WO2024002120A1 (zh) 媒体内容展示方法、装置、设备及存储介质
US11272136B2 (en) Method and device for processing multimedia information, electronic equipment and computer-readable storage medium
JP2023538943A (ja) オーディオデータの処理方法、装置、機器及び記憶媒体
CN112000267A (zh) 信息显示方法、装置、设备及存储介质
WO2024037480A1 (zh) 交互方法、装置、电子设备和存储介质
CN113365010A (zh) 音量调节方法、装置、设备、存储介质
WO2023072280A1 (zh) 媒体内容发送方法、装置、设备、可读存储介质及产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231115

R150 Certificate of patent or registration of utility model

Ref document number: 7387891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150