JP2015149084A - 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置 - Google Patents

潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置 Download PDF

Info

Publication number
JP2015149084A
JP2015149084A JP2015062744A JP2015062744A JP2015149084A JP 2015149084 A JP2015149084 A JP 2015149084A JP 2015062744 A JP2015062744 A JP 2015062744A JP 2015062744 A JP2015062744 A JP 2015062744A JP 2015149084 A JP2015149084 A JP 2015149084A
Authority
JP
Japan
Prior art keywords
scene
video content
video
threshold
scenes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015062744A
Other languages
English (en)
Inventor
カプア アナンド
Kapoor Anad
カプア アナンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015149084A publication Critical patent/JP2015149084A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience

Abstract

【課題】潜在的なショット及びシーンの検出情報を自動的に分類する。
【解決手段】
ビデオコンテンツを処理する前にビデオコンテンツから導出された前処理ビデオ情報を分類する装置である。後続する処理の間にエラーを生じる可能性を有するビデオコンテンツにおけるシーン及びショットの少なくとも1つを識別し、識別されたシーン及びショットを、少なくとも前処理ビデオ情報に基づいて、2以上のカテゴリに分類するカテゴライザであって、後続する処理はビデオ符号化を含み、識別は、ビデオコンテンツ及び他のビデオコンテンツのうち少なくとも一方に対して実行された一または複数の先行する前処理ステップから得られた過去の結果からの情報に基づき、及び閾値シーン期間の値よりも短いかまたは長いシーンをさらに分類し、前処理ビデオ情報に関して実行された統計分析からの情報に基づき動的に計算される閾値シーン期間の値に基づく、カテゴライザを有する。
【選択図】図1

Description

本発明は、ビデオ処理全般に関し、より詳細には、潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置に関する。
本出願は、2007年1月31日に出願された米国特許仮出願第60/898660号の利益を特許請求するものであり、この米国仮出願の内容はその完全な形で引用により本明細書に盛り込まれる。
この節は、以下に記載され及び/又は特許請求される本発明の様々な態様に関連する技術の様々な態様に読者を導くことが意図される。この説明は、本発明の様々な態様の良好な理解を容易にするために背景となる情報を読者に提供することに役立つものと考えられる。したがって、これらの説明は、この観点から読まれるべきであり、従来技術の認識として読まれるべきではない。
デジタルビデオコンテンツの処理は、後続する処理ステップを更に効率的にするため、1以上の前処理ステップを必要とすることがある。処理は、限定されるものではないが符号化を含む場合がある。前処理は、限定されるものではないが、ショットの検出及び/又はシーンの検出を含む場合がある。
上述された処理は、全ての可能性のあるビデオコンテンツで機能しないことがある。任意のイベントにおいて、ショット又はシーンが欠けているかを判定するため、ビデオコンテンツに対する前処理の結果を調べることは時間がかかり、且つ費用が係るものである。したがって、欠けている高い可能性をもつ候補となるシーンを識別及び分類し、これらの候補となるシーンを処理の開始で調べる必要が存在する。
従来技術のこれらの課題及び問題点並びに他の課題及び問題点は、潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置に向けられる本発明の原理により対処される。
本発明の態様によれば、ビデオコンテンツを処理する前に、ビデオコンテンツから導出された前処理のビデオ情報(pre-processing video information)を分類する装置が提供される。本装置は、少なくとも前処理ビデオ情報に基づいて、後続する処理の間にエラーを生じる可能性を有するビデオコンテンツにおける少なくとも1つのシーン及びショットを識別するカテゴライザを含む。さらに、カテゴライザは、少なくとも前処理ビデオ情報に基づいて1以上のそれぞれのカテゴリに識別されたシーン及びショットを分類する。
本発明の別の態様によれば、ビデオコンテンツを処理する前にビデオコンテンツから導出された前処理ビデオ情報を分類する方法が提供される。本方法は、少なくとも前処理ビデオ情報に基づいて、後続する処理の間にエラーを生じる可能性を有するビデオコンテンツにおける少なくとも1つのシーン及びショットを識別するステップを含む。さらに、本方法は、少なくとも前処理に基づいて1以上のそれぞれのカテゴリに識別されたシーン及びショットを分類するステップを含む。
本発明のこれらの態様、特徴及び利点、並びに他の態様、特徴及び利点は、添付図面と共に読まれることとなる、例示的な実施の形態の以下の詳細な説明から明らかとなるであろう。
本発明の原理は、以下の例示的な図面に従って良好に理解されるであろう。
本発明の実施の形態に係る装置を示す例示的なハイレベルブロック図である。 本発明の実施の形態に係るビデオコンテンツを符号化する例示的な方法のフローチャートである。 本発明の実施の形態に係るビデオ系列の例示的な分類を示す図である。
本発明の原理は、潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置に向けられる。
本実施の形態の記載は、本発明の原理を例示するものである。当業者であれば、明示的に本実施の形態で説明及び図示されていないが、本発明を実施し且つ本発明の精神及び範囲に含まれる様々なアレンジメントを考案することができることを理解されたい。
本実施の形態で引用される全ての例及び条件付き言語は、教育的な目的で、当該技術分野を促進するために本発明者により寄与される本発明の原理及び概念を理解することにおいて読者を支援することが意図され、係る特に引用される例及び条件に限定されることがないものとして解釈されるべきである。
さらに、本発明の特別の例と同様に、本発明の原理、態様及び実施の形態を引用する本実施の形態での全ての説明は、本発明に等価な構造及び機能の両者を包含することが意図される。さらに、係る等価な概念は、現在知られている等価な概念及び将来的に開発される等価な概念、すなわち構造に係らず、同じ機能を実行する開発されたエレメントの両者を含むことが意図される。
したがって、たとえば、本実施の形態で与えられるブロック図は本発明の原理を実施する例示的な回路の概念的なビューを表すことが当業者により理解されるであろう。同様に、任意のフローチャート、フローダイアグラム、状態遷移図、擬似コード等は、コンピュータにより読取り可能な記録媒体で実質的に表され、コンピュータ又はプロセッサが明示的に示されるか否かに係らず、係るコンピュータ又はプロセッサにより実行される様々なプロセスを表すことを理解されたい。
図示される様々なエレメントの機能は、専用ハードウェアと同様に、適切なソフトウェアと野関連するソフトウェアを実行可能なハードウェアの使用を通して提供される場合がある。プロセッサにより提供されたとき、機能は、1つの専用プロセッサにより提供されるか、1つの共有プロセッサにより提供されるか、又はそのうちの幾つかが共有される複数の個々のプロセッサにより提供される場合がある。さらに、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に言及するように解釈されるべきではなく、限定することなしに、デジタルシグナルプロセッサ(DSP)、ソフトウェアを記憶するリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)及び不揮発性ストレージを暗黙的に含む場合がある。
コンベンショナル及び/又はカスタムといった他のハードウェアも含まれる場合がある。それらの機能は、プログラムロジックの動作を通して実行されるか、専用ロジックを通して実行されるか、プログラム制御と専用ロジックのインタラクションを通して実行されるか、又は手動的に、特定の技術は、コンテクストから更に詳細に理解されるように実現者により選択可能である。
本発明の請求項では、特定の機能を実行する手段として表現されるエレメントは、a)その機能を実行する回路エレメントの組み合わせ、又はb)その機能を実行するためにそのソフトウェアを実行する適切な回路と結合される、ファームウェア、マイクロコード等を含む任意の形式でのソフトウェア、を含めた機能を実行する任意のやり方を包含することが意図される。係る請求項により定義される本発明の原理は、様々な引用される手段により提供される機能が結合され、請求項が求めるやり方で結合され纏められる事実にある。したがって、それらの機能を提供することができる任意の手段は本明細書で示されるものに等価であるとみなされる。
本発明の原理の「1実施の形態」又は「実施の形態」に対する明細書における参照は、実施の形態と共に記載される特定の特徴、構造、特徴等が本発明の原理の少なくとも1つの実施の形態に含まれることを意味する。したがって、明細書を通して様々な場所に現れる「1実施の形態では」又は「実施の形態では」の出現は、必ずしも、同じ実施の形態を全て参照するものではない。
さらに、たとえば「A及び/又はB」及び「A及びBの少なくとも1つ」の場合における用語「及び/又は」及び「少なくとも1つ」の使用は、最初に列挙されたオプション(A)のみの選択、次に列挙されたオプション(B)のみの選択、又は両方のオプション(A及びB)の選択、を包含することが意図される。更なる例として、「A,B及び/又はC」及び「A、B及びCの少なくとも1つ」の場合、係るフレーズは、第一の列挙されたオプション(A)のみの選択、第二の列挙されたオプション(B)のみの選択、第三の列挙されたオプション(C)のみの選択、第一及び第二の列挙されたオプション(A及びB)のみの選択、第一及び第三の列挙されたオプション(A及びC)のみの選択、第二及び第三の列挙されたオプション(B及びC)のみの選択、又は、全ての3つのオプション(A及びB及びC)の選択を包含することが意図される。これは、当業者により容易に明らかであるように、列挙された多数のアイテムについて拡張される場合がある。さらに、「シーン/ショット」におけるような本実施の形態における“/”の使用は、本実施の形態で直前に記載されたような「シーン及び/又はショット」を包含することが意図される。
さらに、本発明の原理は、本発明の原理の精神を維持しつつ、標準及び/又は勧告の拡張を含めて、任意のビデオ符号化標準及び/又は勧告を使用して符号化されるビデオに適用される場合があることを理解されたい。たとえば、本発明の原理は、限定されるものではないが、以下の何れかにより使用される場合がある。ISO/IEC(International Organization for Standardization/International Electrotechnical Commission)MPEG−1(Moving Picture Experts Group-1)標準;ISO/IEC MPEG−2標準;ITU−T(International Telecommunication Union, Telecommunication Sector)H.263勧告;ISO/IEC MPEG−4 Part10 AVC(Advanced Video Coding)標準/ITU−T H.264勧告(以下、「MPEG−4 AVC標準」)等。
さらに、本発明の原理は、パラレルプロセッサを使用して並列に幾つかのシーンにシーン処理が実行されるアプリケーションに関する1実施の形態で記載されるが、本発明はこのアプリケーションにのみ限定されるものではなく、ビデオの処理を含む他のアプリケーションに適用される場合があることを理解されたい。すなわち、本実施の形態で提供される本発明の原理の教示が与えられると、当業者は、本発明の原理の精神を維持しつつ、本発明の原理が適用される様々なアプリケーションを考案されるであろう。
本発明の原理の1以上の実施の形態は、シーン及び/又はショットを含むか、及び/又は、シーン及び/又はショットに関連することを理解されたい。用語「シーン」及び「ショット」は当業者に知られているが、それにもかかわらず、それぞれの用語が含むことを確認することにおいて読者を支援するために以下の説明が与えられる。
たとえば、シーンは曖昧に使用される傾向があり、一般に理解及び関連付けすることが容易である。さらに、フィルム及びフィルムに関連する用語に関して、用語「シーン」は、(一般にストーリを有するか、及び/又はこれらに関連する論理的な内容を有する)多数のショットを言及するために使用される場合がある。さらに、フィルムに関して、シーンは、(直後に記載されるショットよりも)長い期間を有する傾向がある。シーンに適用される前処理アルゴリズムは係るシーンにおける低速のカメラの切換に鈍感である。
対照的に、ショットは、特に使用される傾向があり、(限定されるものではないがハードカットを含む)カメラの切換を含む傾向がある。前処理アルゴリズムは(たとえばシーンに比較して)ショットに典型的に感度が高い。これは、限定されるものではないが、(たとえばアクション映画におけるような)比較的短い期間を有する傾向があるショット、又は(たとえばドラマにおけるような)比較的長い期間を有する傾向があるショットを含むショットに含まれる幾つかの特性によるものであり、この場合、係る期間は、符号化の適切さに関する限りにおいて、実際に最適ではない。
本発明の1以上の実施の形態は、関連する対応するシーン及びショットが、限定されるものではないが符号化及び/又は圧縮のような後処理に更に適するのを可能にするため、係る特性及び不規則性を分類及び示唆することに向けられる。
図1を参照して、本発明の実施の形態に係る装置を示す例示的なハイレベルブロック図は、参照符号100により示される。装置100は、ビデオプリプロセッサ110、カテゴライザ120及びビデオプロセッサ130を含む。以下に本実施の形態で更に詳細に記載されるように、ビデオプリプロセッサ110は、ビデオデータを受信及び前処理し、対応する前処理情報を出力する。ビデオデータの係る前処理は、限定されるものではないが、シーンの検出、ショットの検出等を含む。シーン検出は、限定されるものではないが、シーンカット、ディゾルブ、フェードイン、フェードアウト、フラッシュ等の何れかを検出するために使用される。前処理情報は、限定されるものではないが、カットの検出、フェードインの検出、フェードアウトの検出、ディゾルブの検出、シーンの長さの決定等の何れかを含む。
カテゴライザ120は、ビデオプリプロセッサ110により提供される前処理情報を受け、(たとえば所定のタイプのシーン及び/又はショットである等として全体で誤って分類されたこと及び/又は失われたことによる)欠けている高い可能性を有する任意のシーンを識別し、及び任意に分類して、分類情報を提供する。ビデオプロセッサ130は、プリプロセッサ110からビデオデータを受け、カテゴライザ120から分類情報を受ける。ビデオプロセッサ130は、プリプロセッサ110からのビデオデータ及びカテゴライザ120からの分類情報を使用して処理されたビデオを出力する。処理されたビデオは、たとえばビットストリームである場合がある。さらに、ビットストリームは、1以上のビデオ符号化標準及び/又は勧告に従って符号化される。係るケースでは、ビデオプロセッサ130は、エンコーダを含む。
シーン及び/又はショットは、たとえば閾値、履歴データ等に基づいて後続の処理の間に(おそらく)エラーを生じる可能性を有するとして識別されることを理解されたい。履歴データは、たとえば、プリプロセッサ110(及び/又は別のプリプロセッサ)へのビデオデータ入力及び/又はプリプロセッサ110(及び/又は別のプリプロセッサ)への他の前処理されたビデオデータ入力で実行された1以上の前の前処理ステップから取得される過去の結果からのデータを含む場合があることを理解されたい。
先に述べたように、本発明の原理は、潜在的なショット及びシーンの検出の問題を自動的に分類する方法及び装置に向けられる。
さらに、先に述べたように、前処理ステップにおけるシーンの識別が望まれる多数の可能な例のうちの1つは、個別のプロセッサを使用して並列に幾つかのシーンに処理が実行されるときである。欠けているシーンカットが検出され、分類情報が生成される場合、たとえば1つの長いシーンを2つの短いシーンに分割して、結果として符号化の間に更なる並列化を得ることで、改善された性能を得ることができる。全てのショット/シーンの検査により、良好なシーン検出が得られ、この良好なシーン検出により、高品質の符号化、並びに、符号化及び再符号化時の良好な性能が得られる。本発明の原理は、この識別及び分類を達成する方法及び装置を提供する。
この分類を実現する多数の可能性のある方法のうちの1つは、初期のシーン検出アルゴリズムの結果に基づいて、それらの期間に係るショット/シーンを識別及び分類することである。シーンは、昇順又は降順で配列され、全体のビデオコンテンツ内のシーンの実際の位置も記録される。たとえば閾値よりも短いか又は長いシーンを更に分類する閾値が使用される。このように、他の前処理アルゴリズムのうちの1つにより欠ける可能性がある潜在的な問題のシーンが発見される。閾値は、限定されるものではないが、前処理されているビデオのタイプ、発見されたシーン期間での統計分析(running statistics analysis)の何れかに依存する固定された値である。たとえば閾値がシーン期間に基づく場合、アクション映画について短く設定される。これは、アクション映画は、迅速なシーンのカットを有する傾向があるためである。他のタイプの映画は、長いシーンを有する場合があり、したがって、どのシーンが比較的に長いか又は短いかを分類するために閾値は大きく設定される。
他の前処理シーン/ショットの検出アルゴリズムにより係るシーンがエラーの高い確率を有する場合、閾値を超える過剰に長い(extra-long)ビデオシーンは、個別に分類される。同様に、通常フラッシュする過剰に短い(extra-short)シーンは、後続する処理について潜在的に困難なシーンとしてフラグが設定(flag)される。代替的に、シーンの上位Nパーセント及び下位Mパーセントは、特別の注意を必要とする場合に個別に分離される。
シーンの長さを使用するシーンの分類は、シーンを分類するたった1つの方法である。閾値パラメータは、統計値を導出するために前処理が実行された後に全体のビデオコンテンツに基づいて、圧縮されていないビデオコンテンツ又は統計値の他のパラメータを使用して導出される。これらのケースの何れかにおいて、それらの結果を使用して分類が実行される。
この分類は、たとえば符号化のようなダウンストリーム処理を改善された品質で更に正確にし、性能において更に効率的にする。
図2を参照して、本発明の実施の形態に係るビデオコンテンツを符号化する例示的な方法は、参照符号200により示される。
方法200は、開始ブロック205を含み、この開始ブロックは、機能ブロック210に制御を移す。機能ブロック210は、ビデオコンテンツを取り込み、機能ブロック215に制御を移す。機能ブロック215は、前処理ビデオコンテンツデータを生成し、判定ブロック220に制御を写す。判定ブロック215に関して、生成された前処理ビデオコンテンツデータは、限定されるものではないが、色、類似のシーン、ビットレート、サムネイル等に基づいたシーン/ショットの検出、フェード/ディゾルブの検出、ヒストグラム、分類を含む場合がある。
判定ブロック220は、ショット/シーンが予め設定された閾値を超えるか否かを判定する。ショット/シーンが予め設定された閾値を超える場合、機能ブロックに制御を移す。さもなければ、機能ブロック230に制御を移す。機能ブロック220に関して、係る予め設定された閾値は、たとえば期間に対応する。
機能ブロック225は、期間の長さに基づいて識別及び分類の少なくとも1つを実行し、機能ブロック230に制御を移す。機能ブロック225に関して、係る分類は、たとえば、任意に、閾値となる期間の値を使用してシーン/ショットを分類し、任意に、それぞれの期間に基づいてシーン/ショットの上位Nパーセント及び下位Mパーセントを分類し、任意に、(閾値となる期間の値よりも大きい)上側の閾値の値に基づいて1以上のそれぞれのカテゴリに過剰に長いシーン/ショットを分類し、(閾値となる期間の値よりも小さい)下側の閾値の値に基づいて1以上のそれぞれのカテゴリに過剰に短いシーン/ショットを分類し、1つのフレームのシーンを1以上のそれぞれのカテゴリに分類することを含む。勿論、先に述べたように、本発明は、先行する分類に限定されず、本発明の精神を維持しつつ、本発明に従って他の分類が使用される場合がある。
機能ブロック230は、シーン/ショットの検出に基づいて識別及び分類の少なくとも1つを実行し、機能ブロック232に制御を移す。機能ブロック230に関して、係る分類は、たとえば、以下の何れかを1以上のそれぞれのカテゴリに割り当てることを含む。フェードイン、フェードアウト、ディゾルブ、カット等。
機能ブロック232は、後続する処理の間にエラーを生じる可能性に関する閾値及び/又は過去のデータに基づいて識別及び分類の少なくとも1つを実行し、機能ブロック235に制御を移す。
機能ブロック235は、可能性のある後続する処理のエラーを防止するため、分類されたシーン/ショットを固定する。機能ブロック240は、予め指定された基準に基づいて潜在的に問題となるシーン/ショットをフラグ設定し、機能ブロック245に制御を移す。機能ブロック240に関して、フラグが設定された潜在的な問題のシーン/ショットは、たとえば、予め指定された基準に依存して、機能ブロック235により固定されない1以上のシーン/ショット、及び機能ブロック240により固定された1以上のシーン/ショットを含む場合がある。たとえば、機能ブロック235は1以上の分類されたシーン/ショットを固定する一方で、係るアクションは、処理の間に遭遇する問題を全体的に未だ解決しない場合があり、したがって、後続する処理に係るシーン/ショットを意識させるため、係るシーン/ショットにフラグが設定される。
機能ブロック245は、取り込まれたビデオコンテンツにおける少なくとも幾つかのシーン/ショット(たとえば、機能ブロック240を通してフラグ設定されたシーン/ショット)から全てのシーン/ショットまでのそれぞれの位置を示し、判定ブロック250に制御を移す。判定ブロック250は、固定すべき更なるシーン/ショットが存在するか否かを判定する。固定すべき更なるシーン/ショットが存在する場合、機能ブロック235に制御を移す。さもなければ、機能ブロック255に制御を移す。
機能ブロック255は、ビデオコンテンツの処理(たとえば符号化)を開始し、終了ブロック299に制御を移す。
分類が達成された後、ビデオコンテンツは、限定されるものではないが、シーンの境界を追加又は削除すること、シーンの遷移のタイプを変更すること、又は多数の他の可能性のあるビデオ作用のうちの1つを変更することを含む1以上の方法を使用して、機能ブロック235により変更される。
図3を参照して、本発明の実施の形態に係るビデオ系列の例示的な分類は、参照符号30により全般的に示される。
分類300は、デフォルトカテゴリ305、過剰に長いカテゴリ310、過剰に短いカテゴリ315、フェードインカテゴリ320、フェードアウトカテゴリ325、ディゾルブカテゴリ330等を含む。
デフォルトカテゴリ305は、たとえば、全てのカットを含む場合がある。
過剰に長いカテゴリ310は、たとえば、分類に基づいて過剰に長いシーンの上位1パーセントを含む場合がある。
過剰に短いカテゴリ315は、たとえば、分類に基づいて全ての1フレームのシーン及び過剰に短いシーンの下位1パーセントを含む場合がある。
フェードインカテゴリ320は、たとえば、プリプロセッサ110により発見される全てのフェードインのショット/シーンを含む場合がある。
フェードアウトカテゴリ325は、たとえば、プリプロセッサ110により発見される全てのフェードアウトのショット/シーンを含む。
ディゾルブカテゴリ330は、たとえば、プリプロセッサ110により発見される全てのディゾルブのショット/シーンを含む。
たとえば過剰な長いカテゴリ310の拡張は、過剰な長いカテゴリ310内に属する全てのシーンを示す。ユーザは、カテゴリを選択(たとえばクリック)して、選択されたカテゴリの全てのメンバを見る。
上述された例示的なカテゴリは、単に説明するためのものであって、したがって、本発明は、これらのカテゴリのみに限定されるものではない。すなわち、本実施の形態で提供される本発明の教示が与えられると、当業者は、本発明の精神を維持しつつ、本発明に従って使用される様々なカテゴリを考案することができる。
さらに、図3に関して示される例示的な分類300は、本発明に従って行われる識別及び分類をユーザが見ることができるグラフィカルユーザインタフェース(GUI)399を使用して示される。さらに、係るGUI399により、ユーザは、潜在的な問題としてフラグ設定されたシーン及び/又はショットを固定するのと同様に、係る分類を変更することができる。別の実施の形態では、係るシーン及びショットの修復は、自動的に実行される。本発明に係るGUIのこれらの変形例及び他の変形例は、本発明の精神を維持しつつ、当業者により容易に考案される。
以下、本発明の多数の付随する利点/特徴の幾つかに関する説明が与えられ、そのうちの幾つかは、先に説明されている。たとえば、1つの利点/特徴は、ビデオコンテンツを処理する前に、ビデオコンテンツから導出された前処理ビデオ情報を分類する装置である。本装置は、少なくとも前処理のビデオ情報に基づいて、後続する処理の間にエラーを生じる可能性を有するビデオコンテンツにおけるシーン及びショットの少なくとも1つを識別するカテゴライザを含む。さらに、カテゴライザは、少なくとも前処理のビデオ情報に基づいて、識別されたシーン及びショットを1以上のそれぞれのカテゴリに分類する。
別の利点/特徴は、上述されたカテゴライザを有する装置であり、前処理ビデオ情報は、処理の前に、ビデオコンテンツのパラメータ及びビデオコンテンツの統計値の少なくとも1つを含む。
更に別の利点/特徴は、上述されたカテゴライザを有する装置であり、前処理ビデオ情報は、シーン期間、ショット期間、シーン検出、ショット検出、フェード検出、ディゾルブ検出、ヒストグラム、色、他のシーンとの類似性、他のショットとの類似性、ビットレート及びサムネイルの少なくとも1つに対応する情報を含む。
更に別の利点/特徴は、上述されたカテゴライザを有する装置であり、カテゴライザは、閾値となる期間の値を使用して、シーン及びショットの少なくとも1つを識別するか、分類する。
さらに、別の利点/特徴は、上述された閾値となる期間の値を使用するカテゴライザを有する装置であり、閾値となる期間の値は、ビデオコンテンツに関して実行される統計分析からの情報に基づいて動的に計算される。
さらに、別の利点/特徴は、上述された閾値となる期間の値を使用するカテゴライザを有する装置であり、カテゴライザは、過剰に長い及び過剰に短いとしてシーン及びショットの少なくとも1つを識別するか又は分類するため、上側の閾値と下側の閾値の少なくとも1つを使用する。上側の閾値は、閾値となる期間の値よりも大きく、下側の閾値は、閾値となる期間の値よりも小さい。
また、別の利点/特徴は、上述された上側の閾値と下側の閾値の少なくとも1つを使用するカテゴライザを有する装置であり、カテゴライザは、後続する処理について潜在的に困難なシーンとして過剰に短いとして分類されるシーンの何れかを指示する。
さらに、別の利点/特徴は、上述されたカテゴライザを有する装置であり、カテゴライザは、それぞれの期間に基づいてシーン及びショットの少なくとも1つの上位Nパーセントと下位Mパーセントの少なくとも1つを識別又は分類する。
さらに、別の利点/特徴は、上述されたカテゴライザを有する装置であり、カテゴライザは、閾値及び履歴データの少なくとも1つに基づいて、後続する処理の間にエラーを生じる可能性を有するとしてシーン及びショットの少なくとも1つを識別及び分類する。履歴データは、ビデオデータ及び他のビデオデータの少なくとも1つで実行される1以上の前の前処理ステップから得られるかこの結果のデータを含む。
さらに、別の利点/特徴は、上述されたカテゴライザを有する装置であり、カテゴライザは、後続する処理の間にエラーを防止するために識別されたシーン及びショットを固定する。
また、別の利点/特徴は、上述されたカテゴライザを有する装置であり、カテゴライザは、ビデオコンテンツにおけるシーン及びショットの少なくとも1つの位置を示す。
さらに、別の利点/特徴は、上述されたカテゴライザを有する装置であり、1以上のカテゴリは、フェードイン、フェードアウト、ディゾルブ及びカットの少なくとも1つに対応する。
本発明のこれらの特徴及び利点、並びに他の特徴及び利点は、本実施の形態における教示に基づいて当業者により容易に確認される場合がある。本発明の教示は、ハードウェア、ソフトウェア、ファームウェア、特定用途向けプロセッサ又はこれらの組み合わせの様々な形式で実現されることを理解されたい。
最も好ましくは、本発明の教示は、ハードウェア及びソフトウェアの組み合わせとして実現される。さらに、ソフトウェアは、プログラムストレージユニットで実施されるアプリケーションプログラムとして実現される場合がある。アプリケーションプログラムは、適切なアーキテクチャを有するコンピュータにアップロードされ、該コンピュータにより実行される場合がある。好ましくは、コンピュータは、1以上の中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、及び入力/出力(I/O)インタフェースのようなハードウェアを有するコンピュータプラットフォームで実現される。また、コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含む場合がある。本実施の形態で記載される様々な処理及び機能は、CPUにより実行される、マイクロ命令コードの一部又はアプリケーションプログラムの一部、或いはその組み合わせである場合がある。さらに、様々な他の周辺装置は、更なるデータストレージユニット及びプリンティングユニットのようなコンピュータプラットフォームに接続される。
添付図面に示されるシステムコンポーネント及び方法の幾つかはソフトウェアで実現されることが好ましいため、システムコンポーネント間又はプロセス機能ブロック間の実際の接続は、本発明がプログラムされるやり方に依存して異なる場合があることを理解されたい。本実施の形態での教示が与えられると、当業者であれば、本発明のこれらの実現又はコンフィギュレーション及び類似の実現又はコンフィギュレーションを考案することができる。
例示的な実施の形態が添付図面を参照して記載されたが、本発明はこれら正確な実施の形態に限定されず、様々な変形及び変更が本発明の範囲又は精神から逸脱することなしに当業者により実施されることを理解されたい。全ての係る変形及び変更は、特許請求の範囲で述べたように本発明の範囲に含まれることが意図される。
なお、実施形態について次の付記を記す。
(付記1) ビデオコンテンツを処理する前に前記ビデオコンテンツから導出された前処理のビデオ情報を分類する装置であって、
少なくとも前記前処理ビデオ情報に基づいて、後続する処理の間にエラーを生じる可能性を有する前記ビデオコンテンツにおけるシーン及びショットの少なくとも1つを識別し、少なくとも前記前処理ビデオ情報に基づいて、識別されたシーン及びショットを1以上のカテゴリに分類するカテゴライザを有する、ことを特徴とする装置。
(付記2) 前記前処理ビデオ情報は、処理の前に、前記ビデオコンテンツのパラメータ及び前記ビデオコンテンツの統計値の少なくとも1つを含む、
付記1記載の装置。
(付記3) 前記前処理ビデオ情報は、シーンの期間、ショットの期間、シーンの検出、ショットの検出、フェードの検出、ディゾルブの検出、ヒストグラム、色、他のシーンとの類似性、他のショットとの類似性、ビットレート及びサムネイルの少なくとも1つに対応する情報を含む、
付記1記載の装置。
(付記4) 前記カテゴライザは、閾値となる期間の値を使用して、前記シーン及びショットの少なくとも1つを識別又は分類する、
付記1記載の装置。
(付記5) 前記閾値となる期間の値は、前記ビデオコンテンツに関して実行される統計分析からの情報に基づいて動的に計算される、
付記4記載の装置。
(付記6) 前記カテゴライザは、上側の閾値及び下側の閾値の少なくとも1つを使用して、前記シーン及び前記ショットの少なくとも1つを識別するか、又は前記シーン及び前記ショットの少なくとも1つを過剰に長い及び過剰に短いとして分類し、
前記上側の閾値は、前記閾値となる期間の値よりも大きく、前記下側の閾値は、前記閾値となる期間の値よりも小さい、
付記4記載の装置。
(付記7) 前記カテゴライザは、過剰に短いシーンとして分類されたシーンを、前記後続する処理について潜在的に困難なシーンとしてフラグを設定する、付記6記載の装置。
(付記8) 前記カテゴライザは、前記シーン及び前記ショットのそれぞれの期間に基づいて、前記シーン及び前記ショットの少なくとも1つの上位Nパーセント及び下位Mパーセントの少なくとも1つを識別又は分類する、
付記1記載の装置。
(付記9) 前記カテゴライザは、閾値及び履歴データの少なくとも1つに基づいて、前記後続する処理の間にエラーを生じる可能性を有するとして前記シーン及び前記ショットの少なくとも1つを識別及び分類し、
前記履歴データは、前記ビデオデータ及び他のビデオデータの少なくとも1つに実行される1以上の前の前処理ステップから得られる過去の結果のデータを有する、
付記1記載の装置。
(付記10) 前記カテゴライザは、前記後続する処理の間にエラーを防止するため、識別されたシーン及びショットを固定する、
付記1記載の装置。
(付記11) 前記カテゴライザは、前記ビデオコンテンツにおける前記シーン及び前記ショットの少なくとも1つの位置を示す、
付記1記載の装置。
(付記12) 前記1以上のカテゴリは、フェードイン、フェードアウト、ディゾルブ及びカットの少なくとも1つに対応する、
付記1記載の装置。
(付記13) ビデオコンテンツを処理する前に前記ビデオコンテンツから導出された前処理のビデオ情報を分類する方法であって、
少なくとも前記前処理ビデオ情報に基づいて、後続する処理の間にエラーを生じる可能性を有する前記ビデオコンテンツにおけるシーン及びショットの少なくとも1つを識別し、少なくとも前記前処理ビデオ情報に基づいて、識別されたシーン及びショットを1以上のカテゴリに分類するカテゴライザを有する、ことを特徴とする方法。
(付記14) 前記前処理ビデオ情報は、処理の前に、前記ビデオコンテンツのパラメータ及び前記ビデオコンテンツの統計値の少なくとも1つを含む、
付記13記載の方法。
(付記15) 前記前処理ビデオ情報は、シーンの期間、ショットの期間、シーンの検出、ショットの検出、フェードの検出、ディゾルブの検出、ヒストグラム、色、他のシーンとの類似性、他のショットとの類似性、ビットレート及びサムネイルの少なくとも1つに対応する情報を含む、
付記13記載の方法。
(付記16) 閾値となる期間の値が使用され、前記シーン及びショットの少なくとも1つが識別又は分類される、
付記13記載の方法。
(付記17) 前記閾値となる期間の値は、前記ビデオコンテンツに関して実行される統計分析からの情報に基づいて動的に計算される、
付記16記載の方法。
(付記18) 前記識別するステップ及び前記分類するステップの少なくとも1つは、上側の閾値及び下側の閾値の少なくとも1つを使用して、前記シーン及び前記ショットの少なくとも1つを識別するか、又は前記シーン及び前記ショットの少なくとも1つを過剰に長い及び過剰に短いとして分類し、
前記上側の閾値は、前記閾値となる期間の値よりも大きく、前記下側の閾値は、前記閾値となる期間の値よりも小さい、
付記16記載の方法。
(付記19) 前記分類するステップは、過剰に短いとして分類されたシーンを、前記後続する処理について潜在的に困難なシーンとしてフラグを設定する、付記18記載の方法。
(付記20) 前記識別するステップ及び前記分類するステップの少なくとも1つは、前記シーン及び前記ショットのそれぞれの期間に基づいて、前記シーン及び前記ショットの少なくとも1つの上位Nパーセント及び下位Mパーセントの少なくとも1つを識別又は分類する、
付記13記載の方法。
(付記21) 前記識別するステップ及び前記分類するステップの少なくとも1つは、閾値及び履歴データの少なくとも1つに基づいて、前記後続する処理の間にエラーを生じる可能性を有するとして前記シーン及び前記ショットの少なくとも1つを識別及び分類し、
前記履歴データは、前記ビデオデータ及び他のビデオデータの少なくとも1つに実行される1以上の前の前処理ステップから得られる過去の結果のデータを有する、
付記13記載の方法。
(付記22) 前記後続する処理の間にエラーを防止するため、識別されたシーン及びショットを固定するステップを更に含む、
付記13記載の方法。
(付記23) 前記ビデオコンテンツにおける前記シーン及び前記ショットの少なくとも1つの位置を示すステップを更に含む、
付記13記載の方法。
(付記24) 前記1以上のカテゴリは、フェードイン、フェードアウト、ディゾルブ及びカットの少なくとも1つに対応する、
付記13記載の方法。

Claims (14)

  1. ビデオコンテンツを処理する前に前記ビデオコンテンツから導出された前処理ビデオ情報を分類する装置であって、
    後続する処理の間にエラーを生じる可能性を有する前記ビデオコンテンツにおけるシーン及びショットの少なくとも1つを識別し、前記識別されたシーン及びショットを、少なくとも前記前処理ビデオ情報に基づいて、2以上のカテゴリに分類するカテゴライザであって、前記後続する処理はビデオ符号化を含み、前記識別は、前記ビデオコンテンツ及び他のビデオコンテンツのうち少なくとも一方に対して実行された一または複数の先行する前処理ステップから得られた過去の結果からの情報に基づき、及び閾値シーン期間の値よりも短いかまたは長いシーンをさらに分類し、前記前処理ビデオ情報に関して実行された統計分析からの情報に基づき動的に計算される閾値シーン期間の値に基づく、カテゴライザ
    を有することを特徴とする装置。
  2. 前記前処理ビデオ情報は、処理の前に、前記ビデオコンテンツのパラメータ及び前記ビデオコンテンツの統計値の少なくとも1つを含む、
    請求項1記載の装置。
  3. 前記カテゴライザは、あるシーン期間の値をある閾値と比較し、前記シーンを識別し分類する、請求項1記載の装置。
  4. 前記カテゴライザは、上側の閾値及び下側の閾値の少なくとも1つを使用して、前記シーン及び前記ショットの少なくとも1つを、過剰に長い及び過剰に短いとして識別又は分類し、
    前記上側の閾値は、前記閾値となるシーン期間の値よりも大きく、前記下側の閾値は、前記閾値となるシーン期間の値よりも小さい、
    請求項3記載の装置。
  5. 前記カテゴライザは、過剰に短いシーンとして分類されたシーンを、前記後続する処理について潜在的に困難なシーンとしてフラグを設定する、
    請求項4記載の装置。
  6. 前記カテゴライザは、前記シーン及び前記ショットのそれぞれの期間に基づいて、前記シーン及び前記ショットの少なくとも1つの上位Nパーセント及び下位Mパーセントの少なくとも1つを識別して分類する、
    請求項1記載の装置。
  7. 前記1以上のカテゴリは、フェードイン、フェードアウト、ディゾルブ及びカットの少なくとも1つに対応する、請求項1記載の装置。
  8. ビデオコンテンツを処理する前に前記ビデオコンテンツから導出された前処理ビデオ情報を分類する方法であって、
    後続する処理の間にエラーを生じる可能性を有する前記ビデオコンテンツにおけるシーン及びショットのうち少なくとも1つを識別するステップであって、前記後続する処理はビデオ符号化を含み、前記識別は、前記ビデオコンテンツ及び他のビデオコンテンツのうち少なくとも一方に対して実行された一または複数の先行する前処理ステップから得られた過去の結果からの情報に基づき、及び閾値シーン期間の値よりも短いかまたは長いシーンをさらに分類し、前記前処理ビデオ情報に関して実行された統計分析からの情報に基づき動的に計算される閾値シーン期間の値に基づく、ステップと、
    前記識別されたシーン及びショットを、少なくとも前記前処理ビデオ情報に基づいて、2以上のカテゴリに分類するステップと
    を有することを特徴とする方法。
  9. 前記前処理ビデオ情報は、処理の前に、前記ビデオコンテンツのパラメータ及び前記ビデオコンテンツの統計値の少なくとも1つを含む、
    請求項8記載の方法。
  10. 前記シーンを識別又は分類するために閾値の期間の値が使用される、
    請求項8記載の方法。
  11. 前記識別するステップ及び前記分類するステップの少なくとも1つは、上側の閾値及び下側の閾値の少なくとも1つを使用して、前記シーン及び前記ショットの少なくとも1つを、過剰に長い及び過剰に短いとして識別又は分類し、
    前記上側の閾値は、前記閾値となるシーン期間の値よりも大きく、前記下側の閾値は、前記閾値となるシーン期間の値よりも小さい、
    請求項10記載の方法。
  12. 前記分類するステップは、過剰に短いとして分類されたシーンを、前記後続する処理について潜在的に困難なシーンとしてフラグを設定する、
    請求項11記載の方法。
  13. 前記識別するステップ及び前記分類するステップの少なくとも1つは、前記シーン及び前記ショットのそれぞれの期間に基づいて、前記シーン及び前記ショットの少なくとも1つの上位Nパーセント及び下位Mパーセントの少なくとも1つを識別又は分類する、請求項8記載の方法。
  14. 前記1以上のカテゴリは、フェードイン、フェードアウト、ディゾルブ及びカットの少なくとも1つに対応する、請求項8記載の方法。
JP2015062744A 2007-01-31 2015-03-25 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置 Pending JP2015149084A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US89866007P 2007-01-31 2007-01-31
US60/898,660 2007-01-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009548226A Division JP5766915B2 (ja) 2007-01-31 2007-12-11 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置

Publications (1)

Publication Number Publication Date
JP2015149084A true JP2015149084A (ja) 2015-08-20

Family

ID=39864515

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009548226A Expired - Fee Related JP5766915B2 (ja) 2007-01-31 2007-12-11 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置
JP2015062744A Pending JP2015149084A (ja) 2007-01-31 2015-03-25 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009548226A Expired - Fee Related JP5766915B2 (ja) 2007-01-31 2007-12-11 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置

Country Status (6)

Country Link
US (1) US8891020B2 (ja)
EP (1) EP2109992A2 (ja)
JP (2) JP5766915B2 (ja)
KR (1) KR101426978B1 (ja)
CN (1) CN101601302B (ja)
WO (1) WO2008127319A2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199414A (ja) * 2010-03-17 2011-10-06 Toshiba Corp 素材収録装置及び素材収録方法
WO2012006578A2 (en) * 2010-07-08 2012-01-12 The Regents Of The University Of California End-to-end visual recognition system and methods
CN102142256B (zh) * 2010-08-06 2012-08-01 华为技术有限公司 淡入时间的计算方法和装置
MX2013008757A (es) * 2011-01-28 2014-02-28 Eye Io Llc Control de velocidad de bits adaptativa basado en escenas.
CN104318208A (zh) * 2014-10-08 2015-01-28 合肥工业大学 一种基于图分割和实例学习的视频场景检测方法
US10402436B2 (en) 2016-05-12 2019-09-03 Pixel Forensics, Inc. Automated video categorization, value determination and promotion/demotion via multi-attribute feature computation
US10482126B2 (en) * 2016-11-30 2019-11-19 Google Llc Determination of similarity between videos using shot duration correlation
CN111010599B (zh) * 2019-12-18 2022-04-12 浙江大华技术股份有限公司 一种处理多场景视频流的方法、装置及计算机设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723384A (ja) * 1993-06-17 1995-01-24 Matsushita Electric Ind Co Ltd 符号化および復号化装置
JP2001502858A (ja) * 1996-07-12 2001-02-27 ディジタル・ラヴァ・インコーポレーテッド ディジタル音声及び画像情報の符号化データのデータベースを有したディジタル画像システム
US20010017887A1 (en) * 2000-02-29 2001-08-30 Rieko Furukawa Video encoding apparatus and method
JP2001285712A (ja) * 2000-03-07 2001-10-12 Lg Electronics Inc Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
JP2005057493A (ja) * 2003-08-04 2005-03-03 Sharp Corp データ処理装置及びそれを備えた編集装置
US6909745B1 (en) * 2001-06-05 2005-06-21 At&T Corp. Content adaptive video encoder
JP2005301641A (ja) * 2004-04-12 2005-10-27 Matsushita Electric Ind Co Ltd 映像撮影装置
JP2006311079A (ja) * 2005-04-27 2006-11-09 Victor Co Of Japan Ltd 画像ビットストリーム変換装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3112274B2 (ja) 1990-04-13 2000-11-27 ソニー株式会社 電子機器
GB9705999D0 (en) 1997-03-22 1997-05-07 Philips Electronics Nv Video signal analysis and storage
US6278446B1 (en) 1998-02-23 2001-08-21 Siemens Corporate Research, Inc. System for interactive organization and browsing of video
US6477201B1 (en) * 1998-05-22 2002-11-05 Sarnoff Corporation Content-adaptive compression encoding
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection
JP2002010259A (ja) * 2000-06-21 2002-01-11 Mitsubishi Electric Corp 画像符号化装置及び画像符号化方法及び画像符号化プログラムを記録した記録媒体
JP2002176613A (ja) * 2000-12-06 2002-06-21 Minolta Co Ltd 動画像編集装置、動画像編集方法および記録媒体
JP4036328B2 (ja) * 2002-09-30 2008-01-23 株式会社Kddi研究所 動画像データのシーン分類装置
US7075581B1 (en) 2003-06-03 2006-07-11 Zoran Corporation Interlaced-to-progressive scan conversion based on film source detection
JP4047264B2 (ja) * 2003-09-30 2008-02-13 株式会社東芝 動画像処理装置、動画像処理方法および動画像処理プログラム
US7880815B2 (en) 2005-01-10 2011-02-01 Mavs Lab, Inc. Method for detecting and eliminating flash scene in digital video
WO2006092765A2 (en) * 2005-03-04 2006-09-08 Koninklijke Philips Electronics N.V. Method of video indexing
AR052601A1 (es) * 2005-03-10 2007-03-21 Qualcomm Inc Clasificacion de contenido para procesamiento de multimedia
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
EP2063635A4 (en) * 2006-09-12 2009-12-09 Panasonic Corp CONTENT IMAGE FORMATION DEVICE

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0723384A (ja) * 1993-06-17 1995-01-24 Matsushita Electric Ind Co Ltd 符号化および復号化装置
JP2001502858A (ja) * 1996-07-12 2001-02-27 ディジタル・ラヴァ・インコーポレーテッド ディジタル音声及び画像情報の符号化データのデータベースを有したディジタル画像システム
US20010017887A1 (en) * 2000-02-29 2001-08-30 Rieko Furukawa Video encoding apparatus and method
JP2001285712A (ja) * 2000-03-07 2001-10-12 Lg Electronics Inc Mpeg圧縮ビデオ環境でのディゾルブ/フェード検出方法
US6909745B1 (en) * 2001-06-05 2005-06-21 At&T Corp. Content adaptive video encoder
JP2005057493A (ja) * 2003-08-04 2005-03-03 Sharp Corp データ処理装置及びそれを備えた編集装置
JP2005301641A (ja) * 2004-04-12 2005-10-27 Matsushita Electric Ind Co Ltd 映像撮影装置
JP2006311079A (ja) * 2005-04-27 2006-11-09 Victor Co Of Japan Ltd 画像ビットストリーム変換装置

Also Published As

Publication number Publication date
US20100007793A1 (en) 2010-01-14
CN101601302B (zh) 2012-07-04
WO2008127319A3 (en) 2009-08-13
JP2010517469A (ja) 2010-05-20
EP2109992A2 (en) 2009-10-21
US8891020B2 (en) 2014-11-18
CN101601302A (zh) 2009-12-09
JP5766915B2 (ja) 2015-08-19
KR20090115132A (ko) 2009-11-04
KR101426978B1 (ko) 2014-08-07
WO2008127319A2 (en) 2008-10-23

Similar Documents

Publication Publication Date Title
JP2015149084A (ja) 潜在的なショット及びシーンの検出情報を自動的に分類する方法及び装置
Gygli Ridiculously fast shot boundary detection with fully convolutional neural networks
KR100987365B1 (ko) 비디오 프레임들로부터 키 프레임들의 선택
EP1416490B1 (en) Systems and methods for automatically editing a video
US9098902B2 (en) System and method for encoding video
KR101709085B1 (ko) 컨볼루션 신경망을 이용한 샷 경계 검출 방법 및 장치
US9071814B1 (en) Scene detection based on video encoding parameters
US10181083B2 (en) Scene change detection and logging
US10546208B2 (en) Method, system and apparatus for selecting a video frame
JP2011507314A5 (ja)
JP2010507155A (ja) ビデオシーケンス内の漸進的遷移の検出
JP5095819B2 (ja) 時間最適化されたエンコードのためのシステムおよび方法
Chen et al. Modelling of content-aware indicators for effective determination of shot boundaries in compressed MPEG videos
Almeida et al. Rapid cut detection on compressed video
KR102504321B1 (ko) 온라인 행동 탐지 장치 및 방법
CN116214930A (zh) 3d打印方法、打印机及介质
US20180013932A1 (en) Detecting shot changes in a video
TWI669947B (zh) 圖片轉碼方法、計算設備及儲存介質
CN114286199B (zh) 一种基于神经网络模型的短视频片段自动生成方法及系统
US20230060780A1 (en) Shot-change detection using container level information
JP5129198B2 (ja) 映像予告生成装置、映像予告生成方法および映像予告生成プログラム
CN115810103A (zh) 一种前景图像的提取方法、装置、设备及介质
CN114339455A (zh) 一种基于音频特征的短视频预告片自动生成方法及系统
AU2016262689A1 (en) Method, system and apparatus for determining a bounded region of interest in a video frame

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20160209

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160913