JP6928041B2 - 動画を処理するための方法および装置 - Google Patents

動画を処理するための方法および装置 Download PDF

Info

Publication number
JP6928041B2
JP6928041B2 JP2019161973A JP2019161973A JP6928041B2 JP 6928041 B2 JP6928041 B2 JP 6928041B2 JP 2019161973 A JP2019161973 A JP 2019161973A JP 2019161973 A JP2019161973 A JP 2019161973A JP 6928041 B2 JP6928041 B2 JP 6928041B2
Authority
JP
Japan
Prior art keywords
video
sample
segment
quality
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019161973A
Other languages
English (en)
Other versions
JP2020096342A (ja
Inventor
▲杯飛▼ ▲刑▼
▲杯飛▼ ▲刑▼
加良 王
加良 王
慧▲鋒▼ 沈
慧▲鋒▼ 沈
菲菲 曹
菲菲 曹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020096342A publication Critical patent/JP2020096342A/ja
Application granted granted Critical
Publication of JP6928041B2 publication Critical patent/JP6928041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明の実施例は、コンピュータ技術の分野に関し、具体的には動画を処理するための方法および装置に関する。
動画トランスコーディング(Video transcoding)とは、異なるネットワーク帯域幅、異なる端末処理能力、または異なるユーザニーズに適応するために、エンコードされて圧縮された動画コードストリームを別の動画コードストリームに変換することである。
関連するコンテンツ適応型のエンコード技術は、基本的には複数回エンコードする方式を利用し、すなわち、まずCRF (constant ratefactor、一定の品質を保証してビットレートを知能的に配布する)のエンコードを使用して動画全体の複雑度因子を計算し、次に動画全体のエンコードパラメータを調整し、つまり、コンテンツ適応型の基本は、タイトル(title)のレベルである。
しかしながら、長さの異なる動画コンテンツについて、その中のシーンは頻繁に変わる可能性があり、異なるシーンはより細かい粒度のコンテンツ適応型の精度を意味する。
本発明の実施例は、動画を処理するための方法および装置を提案する。
第1側面において、本発明の実施例は、処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分することと、少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出することと、特徴および目標動画品質を予め訓練されたエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得し、ここで、エンコードパラメータ予測モデルは、動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されることと、少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて動画をエンコード処理し、エンコードされた動画を生成することと、を含む動画を処理するための方法に関する。
いくつかの実施例において、当該方法は、エンコードされた動画の動画品質を確定することと、確定された動画品質は目標動画品質と一致しないことに応答して、所定の情報を出力することと、をさらに含む。
いくつかの実施例において、当該動画セグメントの特徴を抽出することは、当該動画セグメントをデコードし、当該動画セグメントの時間領域特徴および/または周波数領域特徴を抽出することを含む。
いくつかの実施例において、エンコードパラメータ予測モデルは、以下のステップで訓練されることによって得られ、ステップは、サンプル動画セットを取得し、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することと、サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定することと、複雑度因子に基づいて、サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類することと、少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係曲線を得ることと、を含む。
いくつかの実施例において、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することは、サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示することを含む。
いくつかの実施例において、複雑度因子は、エンコードされたサンプル動画のピクセル深度に関連する。
第2側面において、本発明の実施例は、処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分するように構成された区分ユニットと、少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出するように構成された抽出ユニットと、特徴および目標動画品質を予め訓練された動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されるエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得するように構成された入力ユニットと、少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて動画をエンコード処理し、エンコードされた動画を生成するように構成された処理ユニットと、を含む動画を処理するための装置に関する。
いくつかの実施例において、当該装置は、エンコードされた動画の動画品質を確定し、確定された動画品質は目標動画品質と一致しないことに応答して、所定の情報を出力するように構成された検証ユニットをさらに含む。
いくつかの実施例において、抽出ユニットは、さらに、当該動画セグメントをデコードし、当該動画セグメントの時間領域特徴および/または周波数領域特徴を抽出するように構成される。
いくつかの実施例において、当該装置は、サンプル動画セットを取得し、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示し、サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定し、複雑度因子に基づいて、サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類し、少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係曲線を得るように構成された訓練ユニットをさらに含む。
いくつかの実施例において、訓練ユニットは、さらに、サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示するように構成される。
いくつかの実施例において、複雑度因子は、エンコードされたサンプル動画のピクセル深度に関連する。
第3側面において、本発明の実施例は、1つ以上のプロセッサと、1つ以上のプログラムが記憶された記憶装置と、を含み、1つ以上のプログラムが1つ以上のプロセッサによって実行されるとき、第1側面のいずれかの実施形態に記載の方法を1つ以上のプロセッサに実現させる、電子機器に関する。
第4側面において、本発明の実施例は、コンピュータプログラムが記憶されたコンピュータ可読媒体であって、コンピュータプログラムがプロセッサによって実行されるとき、第1側面のいずれかの実施形態に記載の方法を実現するコンピュータ可読媒体に関する。
本発明の実施例に係る動画を処理するための方法と装置は、シーンに基づいて動画をセグメント化し、マシンで学んだエンコードパラメータ予測モデルによって目標動画品質におけるエンコードパラメータを予測する。予測されたエンコードパラメータに基づいて動画に対しコンテンツ適応型のエンコードを行う。よって、圧縮率を高め、動画の品質を向上させる。
本発明のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。
本発明の一実施例が適用され得る例示的なシステムアーキテクチャ図である。 本発明に係る動画を処理するための方法の一実施例のフローチャートである。 本発明に係る動画を処理するための方法の一適用状況の概略図である。 本発明に係る動画を処理するための方法の別の一実施例のフローチャートである。 本発明に係る動画を処理するための方法のエンコードパラメータと動画品質との関係曲線である。 本発明に係る動画を処理するための方法のエンコードパラメータと動画品質との関係曲線である。 本発明に係る動画を処理するための装置の一実施例の概略構造図である。 本発明の実施例を実現するための電子機器のコンピュータシステムの概略構造図である。
以下、図面及び実施例を参照して本発明についてより詳細に説明する。ここで説明された具体的な実施例は、関連する発明を説明するためだけのものであり、この発明を制限するものではないことを理解できる。なお、説明を容易にするために、図面には関連する発明に関連する部分のみを示している。
なお、矛盾しない場合には、本発明の実施例及び実施例における特徴を互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本発明を詳細に説明する。
図1には、本発明が適用され得る、動画を処理するための方法又は動画を処理するための装置の実施例の例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104およびサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクの媒体を提供するために使用される。ネットワーク104は、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末装置101、102、103を使用してネットワーク104を介してサーバ105とインタラクティブすることにより、メッセージなどを送受信することができる。端末装置101、102、103には、例えばウェブブラウザアプリケーション、動画プレーヤ、検索アプリケーション、即時通信ツール、メールクライアント、社交プラットフォームソフトウェアなどの様々なクライアントアプリケーションがインストールされることができる。
端末装置101、102、103は、ハードウェアでもソフトウェアでもよい。端末装置101、102、103がハードウェアである場合、ディスプレイを備え、ウェブページの閲覧をサポートする様々な電子機器であってもよく、スマートフォン、タブレット、電子書籍リーダ、MP3プレーヤ(Moving Picture Experts Group Audio Layer III、エムペグオーディオレイヤー3)、MP4プレーヤ(Moving Picture Experts Group Audio Layer IV、エムペグオーディオレイヤー4)、ラップトップパソコン、デスクトップコンピュータなどを含むがこれらに限定されない。端末装置101、102、103がソフトウェアである場合、上記に挙げられた電子機器にインストールされることができる。それは、複数のソフトウェアまたはソフトウェアモジュール(例えば分散型サービスを提供する)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで、具体的に限定しない。
サーバ105は、様々なサービスを提供するサーバであってもよく、例えば、端末装置101、102、103に標示された動画を処理する動画処理サーバである。動画処理サーバは、受信したトランスコーディング待ち動画などのデータに対し解析などの処理を行い、処理結果(例えば、トランスコーディングされた動画セグメント)を端末装置にフィードバックしてもよい。
なお、サーバは、ハードウェアでもソフトウェアでもよい。サーバがハードウェアである場合、複数のサーバからなる分散型サーバクラスタとして実現されてもよく、単一のサーバとして実現されてもよい。サーバがソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュール(例えば分散型サービスを提供するための複数のソフトウェアまたはソフトウェアモジュール)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで、具体的に限定しない。
なお、本発明の実施例に係る動画を処理するための方法は、一般的に、サーバ105によって実行される。それに対応して、動画を処理するための装置は、一般的に、サーバ105に配置される。
図1の端末装置、ネットワーク、およびサーバの数は単なる例示であることを理解すべきである。必要に応じて、任意の数の端末装置、ネットワーク、およびサーバを備えることができる。
続けて図2を参照すると、本発明による動画を処理するための方法の一実施例のフロー200が示されている。当該動画を処理するための方法は、以下のステップを含む。
ステップ201において、処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分する。
本実施例において、電子機器(例えば、図1に示されるサーバ)で動画を処理するための方法を実行し、有線接続または無線接続によって処理待ち(すなわち、トランスコーディング待ち)の動画を取得し、処理待ちの動画をシーンに応じて少なくとも1つの動画セグメントに区分することができる。シーンに基づいてセグメント化する方法には多くの公知の技術があり、例えば、一つの指標としてフレーム間標準差分、平均二乗差分などを用いて、一つの閾値を固定し、一つの閾値より大きい場合には一つのシーンの分割の境界とすることができる。いわゆる一つのシーンとは、一つのシーン内でこのシーンは連続的に変換された一つのシーンであると考えられ、複雑さは比較的に一致していると考えられている。
ステップ202において、少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出する。
本実施例において、シーンをセグメント化トランスコーディングの基本単位として、このシーン内の動画をデコードし、動画の時間領域特徴または周波数領域特徴を抽出する。これらの特徴は、隣接するフレーム間のmotion(動き)情報、VIF(visual information fidelity、視覚情報忠実度)、DLM(detail loss measure、詳細損失測定)などを含むことができる。
動画の特徴に基づいて動画の複雑度因子を確定することによって動画を分類することができる。各シーンのセグメント化は、与えられた一定品質の値に従ってCRFのトランスコーディングを行い、トランスコーディングした後、トランスコーディングされたすべてのフレームの各ピクセルの占有するビット数BPP(bits per pixel、1ピクセルあたりのビット数、すなわちピクセル深度)を統計し、次にBPPの値から特定の数学演算(例えばLog10)を行って、この値を動画の複雑度係数として一定の範囲内に収める。一つの動画におけるすべての動画セグメントの動画複雑度係数の平均値を平均複雑度係数として統計し、次に各動画セグメントの複雑度因子を算出する:
複雑度因子=複雑度係数/(平均複雑度係数)。
ステップ203において、特徴および目標動画品質を予め訓練されたエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得する。
本実施例において、エンコードパラメータ予測モデルはディープニューラルネットワーク予測器とすることができる。エンコードパラメータ予測モデルは、動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用される。具体的に、例として、エンコードパラメータ予測モデルは、技術者が多くの特徴および異なる動画品質におけるエンコードパラメータに対する統計に基づいて事前に作成したもので、そこに多くの特徴と異なる動画品質におけるエンコードパラメータとの対応関係を表すための対応関係表が記憶されてもよく、また、技術者が大量のデータに対する統計に基づいて事前設定され上記電子機器に記憶されている、異なる動画品質におけるエンコードパラメータの1つまたは複数の値を回帰させ、得られた回帰曲線であってもよい。動画の特徴から確定された複雑度因子に基づいて分類し、異なる回帰曲線を照会することができ、各回帰曲線は、一つの複雑度因子の動画の異なる動画品質におけるエンコードパラメータを表す。エンコードパラメータは、ビットレート、解像度、CRFなどを含むことができる。
動画の品質は、PSNR (Peak Signal to Noise Ratio、ピーク信号対雑音比)、VMAF (Visual Multimethod Assessment Fusion)、MOS (Mean Opinion Score、平均オピニオン値) によって表すことができる。目標動画品質とは、ユーザが所望する動画品質を指す。
ステップ204において、少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて動画をエンコード処理し、エンコードされた動画を生成する。
本実施例において、異なる動画セグメントについて、異なるエンコード方式を採用し、各動画セグメントについて、対応するエンコード方式でそれぞれにエンコードした後に、完全なビデオに結合される。
本実施例のいくつかの選択可能な実施形態において、当該方法は、エンコードされた動画の動画品質を確定することを含む。確定された動画品質は目標動画品質と一致しないことに応答して、所定の情報を出力する。エンコードパラメータ予測モデルの不正確さによる不良結果を防止するために、予測されたエンコードパラメータを検証する。所定の情報は、エンコードされた動画品質が目標動画品質に達していないことを示すための情報であってもよい。
続けて図3を参照すると、図3は、本実施例に係る動画を処理するための方法の一適用状況の概略図である。図3の適用状況では、まず、サーバ301は端末装置302から送信されたトランスコーディング待ち動画303を取得し、トランスコーディング待ち動画303をシーンに応じて2つのトランスコーディング待ち動画セグメント3031および3032に区分することができる。次に、トランスコーディング待ち動画セグメント3031およびトランスコーディング待ち動画セグメント3032に対し、以下のステップを実行することができ、すなわち、トランスコーディング待ち動画セグメント3031とトランスコーディング待ち動画セグメント3032の特徴を確定する。生成された特徴をそれぞれ予め訓練されたエンコードパラメータ予測モデルに入力する同時に、目標動画品質を入力して、目標動画品質におけるトランスコーディング待ち動画セグメント3031の最適エンコードパラメータおよび目標動画品質におけるトランスコーディング待ち動画セグメント3032の最適エンコードパラメータが得られる。次に、得られたエンコードパラメータに基づいて、サーバ301は、トランスコーディング待ち動画セグメント3031のトランスコーディング用ビットレート304とトランスコーディング待ち動画セグメント3032のトランスコーディング用ビットレート305を確定することができる。最後に、サーバ301は、確定されたトランスコーディング用ビットレート304、305に基づいて、トランスコーディング待ち動画セグメント3031および3032をそれぞれトランスコーディングし、トランスコーディングされた動画セグメント306および307を生成することができる。そして、動画セグメント306および307をトランスコーディングされた動画308に合併して、端末装置302に返す。
本発明の上記実施例に係る方法は、シーンに応じてトランスコーディング待ちの動画を動画セグメントに区分してから、それぞれ予め訓練されたエンコードパラメータ予測モデルに入力することによって、異なる動画セグメントのエンコードパラメータを得る。次に、各動画セグメントについて、それぞれのエンコードパラメータに基づいてエンコードした後、トランスコーディングされた動画に合併する。コンテンツの複雑度に基づいてエンコードパラメータの設定を行い、エンコードの圧縮効率を高め、動画品質を向上させる目的を実現する。
さらに図4を参照すると、動画を処理するための方法の別の一実施例のフロー400が示されている。当該動画を処理するための方法のフロー400は、以下のステップを含む。
ステップ401において、サンプル動画セットを取得し、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示する。
本実施例において、電子機器(例えば、図1に示されるサーバ)で動画を処理するための方法を実行し、有線接続または無線接続によって第三者サーバからサンプル動画セットを取得することができる。サンプル動画は、指定されたテストシーケンスであってもよく、各テストシーケンスは、異なる空間複雑度(SI、Spatial perceptual Information)および時間複雑度(TI、Temporal perceptual Information)を特徴付ける。TI、SIの計算方法は国際標準ITU-T P.910で提案されている。
サンプル動画セットの構築は、開放されたデータセットによるものであってもよく、実際のオンラインサンプル動画セットによるものであってもよい。これらのデータセットは様々な異なるカテゴリに分類され、または、各動画は独自の複雑度を持っている。同じ空間複雑度および時間複雑度を持つ動画は、動画エンコードアルゴリズムによって圧縮された動画と同一のエンコード複雑度を持つと考えられる。マニュアル標示または自動標示でサンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することができる。
本実施例のいくつかの選択可能な実施形態において、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することは、サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示することを含む。同じ複雑度(時間、空間)の動画については、同じエンコード特性を持ち、例えば、同じCRF(例えばCRF=23)でエンコードされた動画は同じビットレートを持ち、同時に同じ動画品質を持つ可能性もある。
CRF = 8、10、12、…49これらの離散的な値をそれぞれ採用して、サンプル動画セットにおけるサンプル動画をエンコードしてから、エンコード生成ビットレートのビットレート(bps)、動画品質を統計する(例えば、PSNR、VMAFまたはMOS)。このようにして、すべてのサンプル動画に対する標示作業が実現される。SIやTIも標示可能である。
ステップ402において、サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定する。
本実施例において、サンプル動画セットにおける各サンプル動画に対し、このサンプル動画をデコードし、動画の時間領域特徴または周波数領域特徴を抽出する。これらの特徴は、隣接するフレーム間のmotion(動き)情報、VIF(visual information fidelity、視覚情報忠実度)、DLM(detail loss measure、詳細損失測定)などを含むことができる。
動画の特徴に基づいて動画の複雑度因子を確定することによって動画を分類することができる。各シーンのセグメント化は、与えられた一定品質の値に従ってCRFのトランスコーディングを行い、トランスコーディングした後、トランスコーディングされたすべてのフレームの各ピクセルの占有するビット数BPP(bits per pixel、ピクセル深度)を統計し、次にBPPの値から特定の数学演算(例えばLog10)を行って、この値を動画の複雑度係数として一定の範囲内に収める。一つの動画におけるすべての動画セグメントの動画複雑度の平均値を平均複雑度係数として統計し、次に各動画セグメントの複雑度因子を算出する:
複雑度因子=複雑度係数/(平均複雑度係数)。
ステップ403において、複雑度因子に基づいて、サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類する。
本実施例において、複雑度因子が同じサンプル動画を1つのカテゴリに分類する。次に、各カテゴリのサンプル動画の動画品質とエンコードパラメータに対し、回帰解析を行うことによって、回帰曲線が確定される。
ステップ404において、少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係を得る。
本実施例において、従来の回帰方式を用いて曲線フィッティングを行うことによって、エンコードパラメータと動画品質との関係曲線を得ることができる。図5a、図5bに示したように、右側は異なる動画コンテンツ(BQ-1080、BI-1080などは異なる動画シーケンスを表す)を標示し、異なる動画コンテンツは異なる複雑度因子を有し、各複雑度因子は1つの曲線に対応する。横座標はエンコードパラメータ(CRFまたはビットレート(bit rate)であり、縦座標は動画品質(VMAF)である。
図4から分かるように、図2に対応する実施例と比較して、本実施例における動画を処理するための方法のフロー400には、エンコードパラメータ予測モデルを訓練するステップが示されている。したがって、本実施例で説明した態様は、より多くの種類の動画複雑度のビデオに関するデータを導入することができる。これにより、より包括的な動画エンコードパラメータ予測が実現される。
さらに図6を参照し、上記の各図面に示す方法の実現として、本発明は動画を処理するための装置の一実施例を提供する。当該装置の実施例は、図2に示す方法の実施例に対応し、具体的に様々な電子機器に適用できる。
図6に示すように、本実施例に係る動画を処理するための装置600は、区分ユニット601と、抽出ユニット602と、入力ユニット603と、処理ユニット604とを含む。区分ユニット601は、処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分するように構成される。抽出ユニット602は、少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出するように構成される。入力ユニット603は、特徴および目標動画品質を予め訓練された動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されるエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得するように構成される。処理ユニット604は、少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて動画をエンコード処理し、エンコードされた動画を生成するように構成される。
本実施例において、動画を処理するための装置600の区分ユニット601、抽出ユニット602、入力ユニット603、処理ユニット604の具体的な処理について、図2の対応する実施例のステップ201、ステップ202、ステップ203、ステップ204を参照することができる。
本実施例のいくつかの選択可能な実施形態において、装置600は、エンコードされた動画の動画品質を確定し、確定された動画品質は前記目標動画品質と一致しないことに応答して、所定の情報を出力するように構成された検証ユニット(図示せず)をさらに含む。
本実施例のいくつかの選択可能な実施形態において、抽出ユニット602は、さらに、当該動画セグメントをデコードし、当該動画セグメントの時間領域特徴および/または周波数領域特徴を抽出するように構成される。
本実施例のいくつかの選択可能な実施形態において、装置600は訓練ユニット(図示せず)をさらに含み、訓練ユニットは、サンプル動画セットを取得し、サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示し、サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定し、複雑度因子に基づいて、サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類し、少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係曲線を得るように構成される。
本実施例のいくつかの選択可能な実施形態において、訓練ユニットは、さらに、サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示するように構成される。
本実施例のいくつかの選択可能な実施形態において、複雑度因子は、エンコードされたサンプル動画のピクセル深度に関連する。
以下、図7には、本発明の実施例を実現するための電子機器(例えば図1に示したサーバ)のコンピュータシステム700の概略構造図が示されている。図7に示した電子機器は一例であり、本発明の実施例の機能と使用範囲を限定するものではない。
図7に示すように、コンピュータシステム700は、読み出し専用メモリ(ROM)702に記憶されているプログラムまたは記憶部708からランダムアクセスメモリ(RAM)703にロードされたプログラムに従って各種の適切な動作と処理を行うことができる中央処理装置(CPU)701を含む。RAM703には、システム700の操作に必要な様々なプログラムとデータが記憶されている。CPU701、ROM702、およびRAM703は、バス704によって相互に接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。
I/Oインターフェース705には、キーボード、マウスなどを含む入力部706と、陰極線管(CRT)、液晶ディスプレイ(LCD)、スピーカなどを含む出力部707と、ハードディスクなどを含む記憶部708と、LANカード、デモジュレータなどのネットワークインターフェースカードを含む通信部709とが接続されている。通信部709は、インターネットのようなネットワークを介して通信処理を行う。ドライバ710も必要に応じてI/Oインターフェース705に接続されている。ディスク、光ディスク、磁気ディスク、半導体メモリなどの着脱可能な媒体711は、必要に応じてドライバ710に取り付けられることにより、そこから読み出されるコンピュータプログラムが必要に応じて記憶部708にインストールされる。
特に、本発明の実施例によると、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアのプログラムとして実現されることができる。例えば、本発明の実施例は、コンピュータ可読媒体に担持されたコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、このコンピュータプログラムは、通信部709を介してネットワークからダウンロードされてインストールされ、および/または着脱可能な媒体711からインストールされることができる。このコンピュータプログラムが中央処理装置(CPU)701によって実行されるときに、本発明のシステムで限定された上記の機能を実行する。なお、本発明に示したコンピュータ可読媒体は、コンピュータ可読信号媒体、あるいはコンピュータ可読記憶媒体、または上記の両方の任意の組合せであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、あるいは半導体のシステム、装置またはデバイス、あるいは上記の任意の組合せであってもよいが、これらに限らない。コンピュータ可読記憶媒体のより具体的な例には、1本以上のワイヤによる電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶装置、磁気記憶装置、または上記の任意の組み合わせが含まれるが、これらに限らない。本発明では、コンピュータ可読記憶媒体は、プログラムを含むかまたは記憶する任意の有形の媒体であることができ、このプログラムは、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されることができる。本発明では、コンピュータが読み取り可能な信号媒体は、コンピュータが読み取り可能なプログラムコードを担持した、ベースバンド内でまたは搬送波の一部として伝播されるデータ信号を含んでもよい。このような伝播されたデータ信号は、多種の形式を採用でき、電磁気信号、光信号、または上記の任意の適切な組み合わせを含むが、これらに限らない。コンピュータが読み取り可能な信号媒体は、コンピュータ可読記憶媒体以外のいかなるコンピュータ可読媒体であってもよく、このコンピュータ可読媒体は、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送されることができ、無線、ワイヤ、光ファイバケーブル、RFなど、または上記の任意の適切な組み合わせを含むが、これらに限らない。
本発明の操作を実行するためのコンピュータプログラムコードを、1以上のプログラミング言語またはそれらの組み合わせで書くことができ、前記プログラミング言語には、Java(登録商標)、Smalltalk、C ++などのオブジェクト指向プログラミング言語を含み、さらに「C」言語または同様のプログラミング言語などの従来の手続き型プログラミング言語も含まれる。プログラムコードは、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上、1つの単独のソフトウェアパッケージとして、部分的にユーザのコンピュータ上かつ部分的にリモートコンピュータ上で、あるいは完全に遠隔コンピュータまたはサーバ上で実行されることができる。遠隔コンピュータに関する場合には、遠隔コンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができ、または、外部のコンピュータに接続されることができる(例えばインターネットサービスプロバイダを利用してインターネットを介して接続する)。
図の中のフローチャートおよびブロック図には、本発明の様々な実施例によるシステム、方法とコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および操作が示されている。この点で、フローチャート又はブロック図の各ブロックは、1つのモジュール、プログラミングのセグメント、またはコードの一部を代表でき、このモジュール、プログラミングのセグメント、またはコードの一部は、所定のロジック機能を実現するための1つ以上の実行可能指令を含む。また、いくつかの代替の実施例では、ブロックに示されている機能は、図面に示された順序と異なる順序で発生してもよいことに留意されたい。例えば、連続して示す2つのブロックは実際に並行して実行されてもよく、それらは係る機能に応じて時に逆の順序で実行されてもよい。ブロック図および/またはフローチャートの各ブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、特定の機能または操作を実行する専用のハードウェアによるシステムによって実現されてもよく、または専用ハードウェアとコンピュータ指令の組み合わせによって実現されてもよいことにも留意されたい。
本発明の実施例に係るユニットは、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。説明されたユニットは、プロセッサに設置されてもよく、例えば、「区分ユニットと、入力ユニットと、処理ユニットとを含むプロセッサである」と記載してもよい。ここで、これらのユニットの名は、ある場合にはそのユニット自体を限定しないで、例えば、区分ユニットを「処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分するユニット」と記載してもよい。
別の側面において、本発明は、コンピュータ可読媒体をさらに提供し、このコンピュータ可読媒体は、上記の実施形例で説明された装置に含まれてもよく、個別に存在しこの装置に組み込まれなくてもよい。上記のコンピュータ可読媒体は、1つ以上のプログラムを担持し、上記の1つ以上のプログラムが一つのこの電子機器によって実行されたとき、当該装置は、処理待ちの動画を取得し、動画をシーンに応じて少なくとも1つの動画セグメントに区分し、少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出し、特徴および目標動画品質を予め訓練された動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されるエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得し、少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて動画をエンコード処理し、エンコードされた動画を生成する。
上記の説明は、本発明の好ましい実施例および応用された技術の原理の説明にすぎない。本発明に係る発明の範囲が、上記の技術的特徴を組み合わせて得られた技術案に限定されず、同時に上記の発明の概念から逸脱しない場合に、上記の技術的特徴またはこれと同等の技術的特徴を任意に組み合わせて得られた他の技術案を含むべきであることを当業者は理解すべきである。例えば、上述の特徴が本発明において開示されているもの(しかしこれに限らず)と類似した機能を有する技術的特徴と相互に入れ替わって形成された技術案が挙げられる。

Claims (12)

  1. 処理待ちの動画を取得し、前記動画をシーンに応じて少なくとも1つの動画セグメントに区分することと、
    前記少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出することと、
    前記特徴および目標動画品質を予め訓練されたエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得し、ここで、前記エンコードパラメータ予測モデルは、動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されることと、
    前記少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて前記動画をエンコード処理し、エンコードされた動画を生成することと、
    を含み、
    前記エンコードパラメータ予測モデルは、
    サンプル動画セットを取得し、前記サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することと、
    前記サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定することと、
    複雑度因子に基づいて、前記サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類することと、
    前記少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係曲線を得ることと、
    を含むステップで訓練されることによって得られる、
    動画を処理するための方法。
  2. エンコードされた動画の動画品質を確定することと、
    確定された動画品質は前記目標動画品質と一致しないことに応答して、所定の情報を出力することと、
    をさらに含む請求項1に記載の方法。
  3. 前記当該動画セグメントの特徴を抽出することは、
    当該動画セグメントをデコードし、当該動画セグメントの時間領域特徴および/または周波数領域特徴を抽出することを含む、
    請求項1に記載の方法。
  4. 前記サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示することは、
    前記サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示することを含む、
    請求項に記載の方法。
  5. 前記複雑度因子は、エンコードされたサンプル動画のピクセル深度に関連する請求項に記載の方法。
  6. 処理待ちの動画を取得し、前記動画をシーンに応じて少なくとも1つの動画セグメントに区分するように構成された区分ユニットと、
    前記少なくとも1つの動画セグメントにおける動画セグメントに対し、当該動画セグメントの特徴を抽出するように構成された抽出ユニットと、
    前記特徴および目標動画品質を予め訓練された動画セグメントの特徴と目標動画品質におけるエンコードパラメータとの対応関係を表すために使用されるエンコードパラメータ予測モデルに入力して、当該動画セグメントのエンコードパラメータを取得するように構成された入力ユニットと、
    前記少なくとも1つの動画セグメントにおける動画セグメントに対応するエンコードパラメータに基づいて前記動画をエンコード処理し、エンコードされた動画を生成するように構成された処理ユニットと、
    サンプル動画セットを取得し、前記サンプル動画セットにおけるサンプル動画のエンコードパラメータと動画品質を標示し、
    前記サンプル動画セットにおけるサンプル動画に対し、当該サンプル動画の特徴を抽出し、当該サンプル動画の特徴に基づいて、当該サンプル動画の複雑度因子を確定し、
    複雑度因子に基づいて、前記サンプル動画セットにおけるサンプル動画を少なくとも1つのカテゴリに分類し、
    前記少なくとも1つのカテゴリにおけるカテゴリに対し、当該カテゴリに属するサンプル動画のエンコードパラメータと動画品質を回帰させ、エンコードパラメータと動画品質との関係曲線を得る、ように構成された訓練ユニットと、
    を含む動画を処理するための装置。
  7. エンコードされた動画の動画品質を確定し、
    確定された動画品質は前記目標動画品質と一致しないことに応答して、所定の情報を出力する、
    ように構成された検証ユニットをさらに含む請求項に記載の装置。
  8. 前記抽出ユニットは、さらに、当該動画セグメントをデコードし、当該動画セグメントの時間領域特徴および/または周波数領域特徴を抽出するように構成される、
    請求項に記載の装置。
  9. 前記訓練ユニットは、さらに、前記サンプル動画セットにおけるサンプル動画に対し、所定の一定品質の値に基づいて当該サンプル動画をエンコードし、エンコードプロセスにおけるエンコードパラメータ、動画品質を標示するように構成される、
    請求項に記載の装置。
  10. 前記複雑度因子は、エンコードされたサンプル動画のピクセル深度に関連する請求項に記載の装置。
  11. 1つ以上のプロセッサと、
    1つ以上のプログラムが記憶された記憶装置と、
    を含み、
    前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1からのいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、
    電子機器。
  12. コンピュータプログラムが記憶されたコンピュータ可読媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1からのいずれか1項に記載の方法を実現する、
    コンピュータ可読媒体。
JP2019161973A 2018-12-14 2019-09-05 動画を処理するための方法および装置 Active JP6928041B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811536277.0 2018-12-14
CN201811536277.0A CN109286825B (zh) 2018-12-14 2018-12-14 用于处理视频的方法和装置

Publications (2)

Publication Number Publication Date
JP2020096342A JP2020096342A (ja) 2020-06-18
JP6928041B2 true JP6928041B2 (ja) 2021-09-01

Family

ID=65174380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161973A Active JP6928041B2 (ja) 2018-12-14 2019-09-05 動画を処理するための方法および装置

Country Status (4)

Country Link
US (1) US10897620B2 (ja)
JP (1) JP6928041B2 (ja)
KR (1) KR102235590B1 (ja)
CN (1) CN109286825B (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109000887B (zh) * 2018-05-25 2021-04-23 京东方科技集团股份有限公司 一种图案检测装置及方法、图案化控制系统及方法
CN111316326A (zh) * 2019-02-21 2020-06-19 深圳市大疆创新科技有限公司 图像编码方法、设备及计算机可读存储介质
CN110139113B (zh) * 2019-04-30 2021-05-14 腾讯科技(深圳)有限公司 视频资源的传输参数分发方法及装置
US11089359B1 (en) * 2019-05-12 2021-08-10 Facebook, Inc. Systems and methods for persisting in-band metadata within compressed video files
WO2020237646A1 (zh) * 2019-05-31 2020-12-03 深圳市大疆创新科技有限公司 图像处理方法、设备及计算机可读存储介质
CN110324621B (zh) * 2019-07-04 2021-05-18 北京达佳互联信息技术有限公司 视频编码方法、装置、电子设备和存储介质
CN110490845A (zh) * 2019-07-26 2019-11-22 北京大米科技有限公司 一种图像特征提取方法、装置、存储介质及电子设备
CN110401834B (zh) * 2019-08-06 2021-07-27 杭州微帧信息科技有限公司 一种基于深度学习的自适应视频编码方法
CN110545418B (zh) * 2019-08-27 2021-09-24 杭州当虹科技股份有限公司 一种基于场景的自适应视频编码方法
CN112468816B (zh) * 2019-09-06 2022-07-19 上海哔哩哔哩科技有限公司 固定码率系数预测模型建立及视频编码的方法
CN110650370B (zh) * 2019-10-18 2021-09-24 北京达佳互联信息技术有限公司 一种视频编码参数确定方法、装置、电子设备及存储介质
CN110971784B (zh) * 2019-11-14 2022-03-25 北京达佳互联信息技术有限公司 一种视频处理方法、装置、电子设备及存储介质
CN111083473B (zh) * 2019-12-28 2022-03-08 杭州当虹科技股份有限公司 一种基于机器学习的内容自适应视频编码方法
CN111107395B (zh) * 2019-12-31 2021-08-03 广州市百果园网络科技有限公司 一种视频转码的方法、装置、服务器和存储介质
CN111083483B (zh) * 2019-12-31 2022-09-23 北京奇艺世纪科技有限公司 一种视频编码码率确定方法、装置、电子设备及存储介质
CN111246209B (zh) * 2020-01-20 2022-08-02 北京字节跳动网络技术有限公司 自适应编码方法、装置、电子设备及计算机存储介质
CN111277826B (zh) * 2020-01-22 2022-03-11 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置及存储介质
CN111263154B (zh) * 2020-01-22 2022-02-11 腾讯科技(深圳)有限公司 一种视频数据处理方法、装置及存储介质
CN111263243B (zh) * 2020-02-17 2022-03-22 网易(杭州)网络有限公司 视频编码方法、装置、计算机可读介质及电子设备
CN110996131B (zh) * 2020-03-02 2020-11-10 腾讯科技(深圳)有限公司 视频编码方法、装置、计算机设备及存储介质
CN111405285A (zh) * 2020-03-27 2020-07-10 北京百度网讯科技有限公司 用于压缩图像的方法及装置
US11792408B2 (en) * 2020-03-30 2023-10-17 Alibaba Group Holding Limited Transcoder target bitrate prediction techniques
CN111757118B (zh) * 2020-06-29 2023-04-21 北京百度网讯科技有限公司 视频转码处理方法、装置、设备和介质
US20220046237A1 (en) * 2020-08-07 2022-02-10 Tencent America LLC Methods of parameter set selection in cloud gaming system
US11875495B2 (en) 2020-08-10 2024-01-16 Tencent America LLC Methods of video quality assessment using parametric and pixel level models
CN111950653B (zh) * 2020-08-24 2021-09-10 腾讯科技(深圳)有限公司 视频处理方法和装置、存储介质及电子设备
US11818373B1 (en) * 2020-09-08 2023-11-14 Block, Inc. Machine-learning based data compression for streaming media
CN112188310B (zh) * 2020-09-28 2022-08-16 北京金山云网络技术有限公司 测试序列构建方法、装置、电子设备及存储介质
CN112565775B (zh) * 2020-11-26 2023-09-05 北京达佳互联信息技术有限公司 用于音视频转码的方法、装置及存储介质
CN112653892B (zh) * 2020-12-18 2024-04-23 杭州当虹科技股份有限公司 一种利用视频特征实现转码测试评估的方法
CN112672157B (zh) * 2020-12-22 2022-08-05 广州博冠信息科技有限公司 视频编码方法、装置、设备及存储介质
CN113014922B (zh) * 2021-02-23 2023-04-07 北京百度网讯科技有限公司 模型训练、视频编码方法,装置,设备以及存储介质
CN113329226B (zh) * 2021-05-28 2022-12-20 北京字节跳动网络技术有限公司 数据的生成方法、装置、电子设备及存储介质
CN113382241A (zh) * 2021-06-08 2021-09-10 北京奇艺世纪科技有限公司 视频编码方法、装置、电子设备和存储介质
CN113705628B (zh) * 2021-08-06 2024-02-06 北京百度网讯科技有限公司 预训练模型的确定方法、装置、电子设备以及存储介质
US11870833B2 (en) * 2021-08-31 2024-01-09 Google Llc Methods and systems for encoder parameter setting optimization
CN114268815A (zh) * 2021-12-15 2022-04-01 北京达佳互联信息技术有限公司 视频质量确定方法、装置、电子设备及存储介质
CN114885167A (zh) * 2022-04-29 2022-08-09 上海哔哩哔哩科技有限公司 视频编码方法及装置
CN115379291B (zh) * 2022-07-19 2023-12-26 百果园技术(新加坡)有限公司 一种码表更新方法、装置、设备及存储介质
CN115379259B (zh) * 2022-08-18 2024-04-26 百度在线网络技术(北京)有限公司 视频处理方法、装置、电子设备和存储介质
CN115842925A (zh) * 2022-11-22 2023-03-24 魏洪源 视频转码方法、装置、设备及存储介质
CN116385947B (zh) * 2023-06-06 2023-08-25 南京云创大数据科技股份有限公司 一种视频目标分割方法、装置、计算机设备及存储介质
CN117058596B (zh) * 2023-10-11 2023-12-29 上海凯翔信息科技有限公司 一种获取片名的视频处理系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4428680B2 (ja) 2000-11-06 2010-03-10 パナソニック株式会社 映像信号符号化方法および映像信号符号化装置
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US7456760B2 (en) * 2006-09-11 2008-11-25 Apple Inc. Complexity-aware encoding
US9832540B2 (en) * 2010-12-15 2017-11-28 Hulu, LLC Method and apparatus for hybrid transcoding of a media program
CN103780901B (zh) * 2014-01-22 2015-08-19 上海交通大学 基于视频空间和时间信息的视频质量及压缩码率估计方法
CN105187835B (zh) * 2014-05-30 2019-02-15 阿里巴巴集团控股有限公司 基于内容的自适应视频转码方法及装置
US10460033B2 (en) * 2015-11-11 2019-10-29 Adobe Inc. Structured knowledge modeling, extraction and localization from images
CN106856571B (zh) * 2015-12-09 2019-12-06 阿里巴巴集团控股有限公司 一种转码方法及装置
US11166027B2 (en) * 2016-06-10 2021-11-02 Apple Inc. Content adaptation for streaming
US10721475B2 (en) * 2017-09-01 2020-07-21 Ittiam Systems (P) Ltd. K-nearest neighbor model-based content adaptive encoding parameters determination
CN108174290B (zh) * 2018-01-25 2019-05-24 北京百度网讯科技有限公司 用于处理视频的方法和装置

Also Published As

Publication number Publication date
CN109286825B (zh) 2021-04-30
JP2020096342A (ja) 2020-06-18
CN109286825A (zh) 2019-01-29
KR102235590B1 (ko) 2021-04-05
KR20200074845A (ko) 2020-06-25
US10897620B2 (en) 2021-01-19
US20200195934A1 (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP6928041B2 (ja) 動画を処理するための方法および装置
CN110268717B (zh) 使用播放统计信息对多表示编码的比特率优化
CN111107395B (zh) 一种视频转码的方法、装置、服务器和存储介质
CN109819282B (zh) 一种视频用户类别识别方法、装置和介质
CN109844736B (zh) 概括视频内容
US9615101B2 (en) Method and apparatus for signal encoding producing encoded signals of high fidelity at minimal sizes
CN114245209B (zh) 视频分辨率确定、模型训练、视频编码方法及装置
CN113194320B (zh) 参数预测模型的训练方法及装置和参数预测方法及装置
CN110248195B (zh) 用于输出信息的方法和装置
WO2021028236A1 (en) Systems and methods for sound conversion
US10609405B2 (en) Optimal signal encoding based on experimental data
WO2024017106A1 (zh) 一种码表更新方法、装置、设备及存储介质
CN113012073A (zh) 视频质量提升模型的训练方法和装置
CN110891195B (zh) 花屏图像的生成方法、装置、设备和存储介质
CN113014922A (zh) 模型训练、视频编码方法,装置,设备以及存储介质
US20220030233A1 (en) Interpolation filtering method and apparatus for intra-frame prediction, medium, and electronic device
US9661331B2 (en) Method and apparatus for signal encoding realizing optimal fidelity
CN102948147A (zh) 基于变换系数直方图的视频速率控制
Li et al. Perceptual quality assessment of face video compression: A benchmark and an effective method
CN114143188B (zh) 一种视频处理的方法、装置、电子设备及存储介质
CN114970955B (zh) 基于多模态预训练模型的短视频热度预测方法及装置
WO2024109138A1 (zh) 视频编码方法、装置及存储介质
CN117478886A (zh) 多媒体数据编码方法、装置、电子设备及存储介质
JP6431449B2 (ja) 映像整合装置、映像整合方法、及びプログラム
CN113506219A (zh) 视频超分辨模型的训练方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210805

R150 Certificate of patent or registration of utility model

Ref document number: 6928041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150