JP2019208259A - リアル・タイム・ビデオ要約 - Google Patents

リアル・タイム・ビデオ要約 Download PDF

Info

Publication number
JP2019208259A
JP2019208259A JP2019136916A JP2019136916A JP2019208259A JP 2019208259 A JP2019208259 A JP 2019208259A JP 2019136916 A JP2019136916 A JP 2019136916A JP 2019136916 A JP2019136916 A JP 2019136916A JP 2019208259 A JP2019208259 A JP 2019208259A
Authority
JP
Japan
Prior art keywords
frame
frames
video
stream
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019136916A
Other languages
English (en)
Other versions
JP6961648B2 (ja
Inventor
チャクラボルティー,シャヨク
Chakraborty Shayok
ティクー,オーメッシュ
Tickoo Omesh
ラヴィシャンカル,アイヤー
Ravishankar Lyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2019208259A publication Critical patent/JP2019208259A/ja
Application granted granted Critical
Publication of JP6961648B2 publication Critical patent/JP6961648B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】転送時の取り込まれたビデオ要約のためのシステムを提供する。【解決手段】ビデオ・ストリームは、カメラ・モジュール(CM)・ハードウェアによるストリームの生成と同時に漸進的に要約される。最も重要なフレームだけを含むように要約を更新することによってストリームが進化するので、ビデオ・ストリーム要約の顕著性が維持される。顕著性は、ある選択の多様性と、その選択がビデオ・データ・コーパスの処理部分に対してどれだけ代表的であるかとの両方を表す項を含む目的関数を最適化することによって決定される。CMを含み、かつ、アーキテクチャに適合するデバイス・プラットフォームは、ビデオ・カメラ機能を、超低電力で、極度に小さい記憶リソースで、極度に小さい通信チャネル帯域幅で提供することができる。【選択図】図1B

Description

優先権主張
本出願は、参照により全体が組み込まれる、2014年9月4日に出願された「REAL TIME VIDEO SUMMARIZATION」という名称の米国特許出願第14/477,595号の優先権を主張する。
デジタル・カメラは、市販の電子媒体デバイス・プラットフォームに含まれることが多い構成要素である。デジタル・カメラは現在、ウェアラブル形態の要素(たとえば、ビデオ取込みイヤーピース、ビデオ取込みヘッドセット、ビデオ取込み眼鏡など)として利用可能であるだけでなく、スマート・フォン、タブレット・コンピュータ、及びノートブック・コンピュータなどの中にも組み込まれている。
モバイル・デジタル・カメラからのストリーミング・ビデオの導入は、かつてない量のビデオ・データを所有する時代の先触れとなった。ユーザが、ビデオ・カメラが装着された1本の眼鏡をかける適用例を考えてみる。カメラは、ユーザの終日の活動を描写するビデオ・ストリームを取り込む。ユーザは、ある特定の日の主な出来事の概要を見ることに興味を持つことがあり得る。しかし、このような大量のデータの解析は人手では処理しにくく、また自動化データ処理技法は要望に応じきれていない。
たとえば、主な出来事を抜粋し、取り込まれたビデオの簡潔な描写を得ようとする自動化ビデオ要約アルゴリズムは一般に、予め記録されたビデオ・ファイル全体へのアクセスを必要とし、またこの静的原子単位の要約を生成する。しかし、このような技法では、大規模の処理/記憶リソースに依拠して、場合によっては高いフレーム率(たとえば、25フレーム/秒以上)で最初に取り込まれたストリーム持続期間全体をまず符号化、アーカイブし、それから復号する。このような処理/記憶リソースがビデオ記録プラットフォーム内に元々存在しない場合、これは超低電力プラットフォーム(たとえばヘッドセット、及び他のウェアラブル形態)のデフォルトになり得るが、ビデオ・ストリーム全体がカメラ・プラットフォームからバックエンド機械(たとえば、クラウド・サーバ)へ処理のために転送される必要がある。しかし、このような転送は、通信チャネルに重い負荷を課し、また多くのデバイス・プラットフォーム及び使用事例では非現実的である。
したがって、プラットフォーム上にあるカメラ・モジュール・ハードウェアから連続的に、時間の経過と共にビデオ・ストリームが届くときにビデオをリアル・タイムで(オンザフライで)自動的に要約できる、ビデオ記録プラットフォーム・アーキテクチャ及び技法が有利である。
本明細書に記載の材料は例示として示されており、添付の図面における限定としてではない。図を簡単かつ明瞭にするために、図に示されている要素は必ずしも原寸に比例していない。たとえば、いくつかの要素の寸法は、明瞭にするために他の要素に対して誇張されていることがある。さらに、適切と考えられる場合には、対応する又は類似する要素を示すために、参照標示が図の間で繰り返されている。
1つ以上の実施形態によるリアル・タイム(RT:real time)取り込まれたビデオ要約方法を示す流れ図である。 1つ以上の実施形態によるRT取り込まれたビデオ要約方法を示す流れ図である。 諸実施形態によるRTビデオ・データ・ストリーム取込み及び要約プラットフォームを含むシステムの機能ブロック図である。 1つ以上の実施形態によるRTビデオ・データ・ストリーム要約システムの機能ブロック図である。 1つ以上の実施形態によるRTビデオ・データ・ストリーム取込み及び要約プラットフォームを示す図である。 諸実施形態によるRT取り込まれたビデオ・ストリーム要約方法を別に示す流れ図である。 1つ以上の実施形態によるRT取り込まれたビデオ・データ・ストリーム要約モデルを示す図である。 1つ以上の実施形態によるRT取り込まれたビデオ要約方法を示す流れ図である。 1つ以上の実施形態によるビデオ・フレーム・カバレッジ・スコアリング法を示す流れ図である。 1つ以上の実施形態によるビデオ・フレーム・多様性スコアリング法を示す流れ図である。 1つ以上の実施形態による、ストリーム要約のためにフレームを選択する方法を示す流れ図である。 1つ以上の実施形態による、ビデオ・ストリーム内の連続露光されたフレームを示す図である。 一実施形態による、図6Aに描かれたビデオ・ストリームからセグメント化されたフレームの組を示す図である。 一実施形態による、図6Aに描かれたビデオ・ストリームからセグメント化されたフレームの組を示す図である。 1つ以上の実施形態によるRTビデオ・データ・ストリーム取込み要約アーキテクチャを使用する、例示的な超低電力システムの図である。 1つ以上の実施形態により構成された例示的なモバイル・ハンドセット・プラットフォームの図である。
1つ以上の実施形態について添付の図を参照して説明する。特定の構成及び配置を詳細に描写し論じるが、これは例示のためだけに行われることを理解されたい。当業者には、他の構成及び配置が本明細書の趣旨及び範囲から逸脱することなく可能であることが理解されよう。当業者には、本明細書に記載の技法及び/又は配置が、本明細書に記載されたもの以外に様々な他のシステム及び用途に使用され得ることが明らかであろう。
以下の詳細な説明では、その一部を形成すると共に例示的な実施形態を示す添付の図面が参照される。さらに、他の実施形態が利用され得ること、また構造的及び/又は論理的変更が、特許請求される主題の範囲から逸脱することなく行われ得ることを理解されたい。したがって、以下の詳細な説明は限定的な意味に取られるべきではなく、特許請求される主題は、添付の特許請求の範囲及びその等価物によってのみ定義される。
以下の説明では、多くの細部について論述されるが、当業者には、これらの特定の細部を用いなくても実施形態が実践され得ることが明らかであろう。よく知られている方法及びデバイスは、より重要な態様を不明瞭にしないようにするために、詳細にではなくブロック図の形で示される。本明細書全体を通して「一実施形態」又は「1つの実施形態」に言及することは、その実施形態に関連して説明された特定の特徴、構造、機能、又は特性が、少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体を通して様々な場所で「一実施形態において」又は「1つの実施形態において」という文言が現われても、同一の実施形態に言及しているとは限らない。さらに、一実施形態の文脈で説明された特別な特徴、構造、機能、又は特性は、任意の適切なやり方で1つ以上の実施形態において組み合わせることができる。たとえば、第1の実施形態を第2の実施形態と組み合わせることが、2つの実施形態に関連した特定の特徴、構造、機能、又は特性が互いに排他的でないどこにおいても可能である。
例示的な実施形態の説明及び添付の特許請求の範囲では、単数形「a」、「an」及び「the」は、それ以外の明確な指示がない限り複数形もまた含むものである。本明細書において「及び/又は」という用語は、関連する列挙された項目の1つ以上の、任意及びすべての可能な組合せを指し、かつ包含することを理解されたい。
本明細書全体を通して、また特許請求の範囲において、「〜のうちの少なくとも1つ」又は「〜のうちの1つ以上」という用語で結合された項目の羅列は、列挙された項目の任意の組合せを意味することができる。たとえば、「A、B又はCのうちの少なくとも1つ」という句は、A、B、C、A及びB、A及びC、B及びC、又はA、B及びCを意味することができる。
「結合された(coupled)」及び「接続された(connected)」という用語は、その派生語と共に、本明細書では構成要素間の機能的又は構造的関係を示すのに用いられる。これらの用語は互いに同意語とするものではないことを理解されたい。むしろ、特定の実施形態では「接続された」が、2つ以上の要素が直接に物理的、光学的、又は電気的に互いに接触していることを示すために用いられ得る。「結合された」は、2つ以上の要素が直接又は間接(別の介在要素がその間にある)に物理的、光学的、又は電気的に互いに接触していること、及び/又は2つ以上の要素が互いに協働又は相互作用すること(たとえば、因果関係にあるように)を示すのに用いられ得る。
本明細書で提供される詳細な説明のいくつかの部分は、コンピュータ・メモリ内のデータに対する操作のアルゴリズム及び記号表現に関して提示される。特に別段述べられていない限り、以下の議論から明らかなように、本明細書全体を通して、「計算する(calculating)」、「計算する(computing)」、「決定する(determining)」、「推定する(estimating)」、「記憶する(storing)」、「収集する(collecting)」、「表示する(displaying)」、「受ける(receiving:受信する)」、「統合する(consolidating)」、「生成する(generating)」、「更新する(updating)」などの用語を用いる議論は、コンピュータ・システム、又は類似の電子計算デバイスの動作及び処理を指すことが理解されよう。このシステム又はデバイスは、レジスタ及びメモリを含むコンピュータ・システムの回路内で物理(又は電子)量として表されたデータを、コンピュータ・システム・メモリ若しくはレジスタ、又は他のこのような情報記憶装置、送信デバイス若しくは表示デバイス内で物理量として同様に表される別のデータになるように操作及び変換する。
以下の説明では、たとえばシステム・オン・チップ(SoC)アーキテクチャのようなアーキテクチャとして明示できる実施形態について論述するが、本明細書に記載の技法及び/又は配置の実施態様は、特定のアーキテクチャ及び/又は計算システムに制限されず、同様の目的の任意のアーキテクチャ及び/又は計算システムによっても実現することができる。たとえば複数の集積回路(IC)チップ及び/又はパッケージを使用する様々なアーキテクチャ、並びに/或いは、セットトップ・ボックス、スマート・フォンなどの様々な計算デバイス及び/又は消費者電子(CE)デバイスでは、本明細書に記載の技法及び/又は配置を実施することができる。さらに、以下の説明では、論理回路実施態様、システム構成要素の種類及び相互関係、論理回路分割選択/統合選択などの多数の具体的詳細について論述することがあるが、特許請求される主題は、このような具体的詳細がなくても実践することができる。さらに、たとえば制御構造及び完全ソフトウェア命令シーケンスなどの一部の構成要素は、本明細書に開示の材料を不明瞭にしないようにするために、詳細には示されないことがある。
本明細書に開示の構成要素のいくつかの部分は、たとえばグラフィック・プロセッサの論理回路として、ハードウェアで実施される。いくつか他の部分は、ハードウェア、ファームウェア、ソフトウェア、又はこれらの組合せで実施することができる。本明細書に開示の構成要素の少なくとも一部はまた、機械可読媒体に記憶された命令として実施することもでき、この命令は、1つ以上のプロセッサ(グラフィック・プロセッサ及び/又は中央プロセッサ)によって読み出し、実行することができる。機械可読媒体には、機械(たとえば、計算デバイス)が可読の形で情報を記憶又は伝送するための任意の媒体及び/又は機構が含まれ得る。たとえば、機械可読媒体には、読み出し専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュ・メモリ・デバイス、並びに電気、光、音響又は他の同様に非一時的な有形の媒体が含まれ得る。
リアル・タイム取り込まれたビデオ要約のための1つ以上のシステム、装置、方法及びコンピュータ可読媒体について以下で説明する。「リアル・タイム取り込まれたビデオ要約」では、ビデオ・ストリームが、ストリームの生成と同時に漸進的に要約される。要約アルゴリズムは、全ビデオをセグメントの形で順次にある期間にわたって確認するのではなく、全ビデオへのアクセスなしに任意の所与の時間において動作可能である。実際、ビデオ・コーパスの解析部分が新たに収集された部分によって破棄/上書きされる1つの例示的な実施形態では、要約に含まれるフレームは、残存しているビデオ・コーパスの部分の中に類似物を有する可能性がない。以下でさらに説明するように、CMから新たに受け取ったフレーム、及び以前に評価されたフレームは、データ・ストリームが受け取られたときに顕著性が反復して評価される候補要約フレームである。最も重要なフレームだけを含むように要約を更新することによってストリームが進化するので、ストリーム要約の顕著性が維持される。1つの例示的な実施形態では、顕著性は、ある選択の多様性と、その選択がビデオ・データ・コーパスの処理部分に対してどれだけ代表的であるかとの両方を表す項を含む目的関数を最適化することによって、決定される。
要約アルゴリズムの複数の反復が、第1のビデオ・フレームのCMの出力から、連続ビデオ・ストリームを含む所与の一連の連続的に取り込まれたフレームの最後のフレームにまで及ぶ時間窓内で実行されることになる。したがって、リアル・タイム要約の率要件は、カメラ・ハードウェア・モジュール(CM:camera hardware module)に関連したフレーム率(frame rate:フレーム・レート)の関数になる。以下で説明するように、CMを含み、かつ例示的なアーキテクチャに適合するデバイス・プラットフォームが、ビデオ・カメラ機能を超低電力で、かつ/又は極度に小さい記憶リソースで、かつ/又は極度に小さい通信チャネル帯域幅で提供することができる。以下でまた説明するように、CMを含み、かつ例示的なアーキテクチャに適合するデバイス・プラットフォームは、ユーザのビデオ・カメラ体験を、処理能力、及び/又は記憶装置、及び/又は通信リソースが特に優れていなくても向上させることができる。
図1Aは、1つ以上の実施形態によるRT取り込まれたビデオ要約方法101を示す流れ図である。方法101は、動作105で開始し、CMが露光ビデオ・データ・フレームをあるフレーム率(たとえば30、60、120、240、480fpsなど)で連続してストリーミングする。動作110で、ストリームがCM下流のプラットフォーム上のハードウェアによって受け取られると、受け取られたフレームのサブセットが、ビデオ・ストリームを代表する要約画像として選択される。動作115で、選択された要約フレームが、CMをホストするプラットフォーム上のメモリに記憶される。この過程は、周期的に、又はいくつか所定の数のビデオ・データ・フレームを含む新しいフレームの組を受け取ったことに応答して、繰り返される動作105、110及び115を継続する。例示的な実施形態では、方法101は、数時間のビデオ・データがCMからストリーミングされるときにルーピングする。用途によって、数時間のストリーミングが、数十のフレーム(たとえば、20)から何百もの要約フレームにまで及ぶ、選択されたフレームのサブセットによって要約され得る。1つの例として、20の要約フレームが、30fpsで動作するCMを含むプラットフォームにおいて1日中ストリーミングされた1,000,000以上のビデオ・データ・フレームを代表するものとして、選択され得る。ストリーミングされたビデオ・データを保持する循環バッファは、比較的小さく、その日の全部のストリーミングされたビデオ・データ・フレームを記憶するのに必要になるものよりはずっと小さくなり得る。というのは、ビデオ・データは、記憶された要約画像だけに依拠して継続的に上書きできるからである。
別に図示されているように、CMをホストするプラットフォームはまた、記憶されたストリーム要約(たとえば、画像ファイルの組)が表現されたものを動作180で表示することもできる。別法として、又は追加して動作190で、CMをホストするプラットフォームはさらに、記憶されたストリーム要約が表現されたものを遠隔の宛先(たとえば、クラウド・サーバ)へ送信することもできる。したがって、方法101による例示的な実施形態では、CMから受け取られた、要約フレームとして選択されない露光ビデオ・データ・フレーム(たとえば、1,000,000以上のビデオ・データ・フレーム)が破棄されて(たとえば、循環バッファ実施態様で新たにストリーミングされたビデオ・フレームによって上書きされて)、プラットフォーム記憶装置及び/又は送信チャネル・リソースの要件が3桁又は4桁低減する。別の実施形態では、要約動作115がビデオ・フレーム符号化処理の上流にあり、符号化エンジン・リソース及び/又は電力もまた低減される。適切な品質の自動化ストリーム要約により、1日の連続記録から得られた少量の画像フレームが、その日の出来事の貴重な視覚カタログとしての役割を果たすことができる。
図1Bは、1つ以上の実施形態によるRT取り込まれたビデオ要約方法102を示す流れ図である。方法102は、上述のビデオ・ストリーミング動作105及びリアル・タイム・ストリーム要約動作110を含む。しかし、方法102はさらに、ビデオ符号化及び記憶動作120を含み、任意の既知のA/Vコーデック(たとえば、MPEG−4、H.264AVCなど)が実施される。得られたビデオ・ストリームの圧縮表現がメモリに記憶され、かつ/又はCMをホストするプラットフォームに伝達される。動作125で、動作110で選択された要約フレームがさらに、記憶されたビデオに関連して記憶される。CMをホストするプラットフォームはさらに、記憶されたストリーム要約が表現されたもの(たとえば、画像ファイルの組)を、動作185で、記憶されたビデオ表現を表すサムネイルの組として利用することができる。別の実施形態では、記憶されたストリーム要約はCMプラットフォームによって利用されて、ユーザが記憶ビデオ・コーパスに索引を付けること、及び/又はそれとは別に、要約フレームに対応する様々なエントリ・ポイントにおいて記憶ビデオ・コーパスへのアクセスを得ることができるようになる。別法として、又は加えて、動作191で、CMをホストするプラットフォームはさらに、記憶ストリーム要約が表現されたもの(たとえば、画像ファイルの組)と共に記録ビデオ表現を遠隔の宛先(たとえば、クラウド・サーバ)へ送信することもでき、この場合ストリーム要約は、関連する記憶ビデオのサムネイル及び/又はエントリ・ポイントの索引として同様に利用することができる。方法102による例示的な実施形態では、したがって、CMから受け取られた、要約フレームとして選択されていない露光ビデオ・データ・フレームが保持される。プラットフォーム記憶装置及び/又は送信チャネル・リソースの要件を低減するのではなく、リアル・タイム・ストリーム要約方法102は、方法101で利用された同一の自動化要約技法を利用して、ユーザ体験を従来のビデオ・ストリーミング・プラットフォームのユーザ体験以上に向上させる。
図2Aは、ビデオ・データ・ストリーム取込みデバイス203及び表示デバイス204を含むシステム201の機能ブロック図であり、デバイス203、204のうちの少なくとも一方が、諸実施形態によるRTビデオ要約システムを含む。RTビデオ要約システムの代替実施形態を表す機能ブロックが、破線で示されている。システム201は、たとえば、上述の方法101、102のどちらかを実行することができる。第1の実施形態では、デバイス・プラットフォーム203がRTビデオ要約システム217Aをビデオ取込みパイプライン205とビデオ・エンコーダ216の間に含む。ビデオ取込みパイプライン205は、RTビデオ要約システム217Aの入力部に結合された出力部を有する。RTビデオ要約システム217Aの出力部がエンコーダ216の入力部に結合されている。エンコーダ216の出力部がメモリ(記憶装置)220の入力部に結合されている。メモリ220から出力された要約フレームの符号化表現が、有線又は無線通信チャネルを介して表示デバイス204に結合され、この表示デバイスは、例示的な実施形態では、クラウド225のバックエンド・サーバを通してビデオ取込みデバイス203に結合されている。クラウド225が存在しない代替実施形態では、表示デバイス204が、局所の有線又は無線通信チャネルを介してビデオ取込みデバイス203に結合されている。さらに別の実施形態では、表示デバイス204がビデオ取込み及び要約デバイス203に組み込まれる(すなわち、両デバイスが同一のプラットフォームの一部になる)。デコーダ226は、符号化フレーム要約を要約記憶装置220から受け取る。RTビデオ要約システム217Aを含む第1の実施形態では、デコーダ226からの出力は、ノイズ除去/画像エンハンサ227などの下流画像向上処理を通過して画像表示パイプライン228へと進み、ここで要約フレームの1つ以上が表示画面に提示される。図2Aに別に示された第2の実施形態では、RTビデオ要約は、たとえばRTビデオ要約システム217Bとして、ビデオ・エンコーダ216の下流で実施される。このような実施形態では、ビデオ取込みパイプライン205から出力されたビデオ・ストリームがエンコーダ216へ出力され、符号化ストリーム表現がメモリ220に記憶される。次に、符号化ビデオ・ストリームは、デコーダ226で復号され、RTビデオ要約システム217Bが要約フレームを出力し、この要約フレームは次に、ノイズ除去/画像エンハンサ227などの下流画像向上処理を通過して画像表示パイプライン228に進み、ここで要約フレームの1つ以上が表示画面に提示される。
図2Bは、1つ以上の実施形態によるRTビデオ・データ・ストリーム要約システム217の機能ブロック図である。システム217は、たとえば、図2AのRTビデオ要約システム217A又は217Bとして実施することができる。システム217は、ストリーミング・ビデオ・パイプライン225の出力部と結合された入力部を有する。ビデオ・パイプライン225は、知られている任意の構成を有することができる。1つの例示的な実施形態では、ビデオ・パイプライン225は、画像センサによって取り込まれたビデオ・フレームを出力するCMを含む。ビデオ・データ・フレームは、フレーム特徴抽出器229に受け入れられ、この抽出器は、1つ以上の特徴ベクトル(feature vector)を各受け入れフレームから抽出する。以下でさらに説明されるように、特徴ベクトルは、当技術分野で知られている任意の物体検出技法を使用して決定される特徴を含み得る。例示的な実施形態では、フレーム特徴抽出器229は、勾配方向ヒストグラム(HOG:histograms of oriented gradient)特徴を含む特徴ベクトルを生成する。スコアリング論理回路235が特徴抽出器229の出力部に結合され、特徴ベクトルに基づいてフレームをスコアリングする。スコアリング論理回路235は、受け取られたフレームの新しい組内の各フレームを新しい組内の別のフレームに対して、又は関連してスコアリングする。別の実施形態では、スコアリング論理回路235は、受け取られたフレームの新しい組内の各フレームをさらに、要約フレームとして以前に選択されている各フレームに関連してスコアリングする。フレーム・スコアリング論理回路235は、以下でさらに説明されるように、1つ以上の所定の顕著性基準に基づいてスコアを生成することができる。フレーム・スコアリング論理回路230に結合されたフレーム選択論理回路250は、選択のためにフレーム・スコアリングを最適化する目的(コスト)関数の解に基づいて、要約フレームの組を選択する。本発明者らは、オンライン・ビデオ要約のためのこの最適化ベースの方策が、純粋に発見的な解決策とは異なり、具体的な数学的定式化に有利に基づくことができ、経験的なパラメータ/閾値には極端に依存しないことを発見した。
図2Bに示された例示的な実施形態では、フレーム・スコアリング論理回路235が、カバレッジ・スコアリング論理回路230と多様性スコアリング論理回路240の両方を含む。カバレッジ・スコアリング論理回路230は、フレーム特徴ベクトルに基づいてカバレッジ・スコアを計算する。カバレッジ・スコア(coverage score)は、所与のフレームが、それと比較される別のフレームをどれだけ適切に表現するかを定量化する測定基準である。多様性スコアリング論理回路240は、フレーム特徴ベクトルに基づいて多様性スコアを計算する。多様性スコア(diversity score)は、あるフレームが、それと比較される別のフレームとどれだけ異なっているかを定量化する測定基準である。選択論理回路250は次に、カバレッジ・スコアにも多様性スコアにも依存する目的関数を、たとえば最大カバレッジ及び最大多様性を有するフレームの組を表す解を用いて、解く。そのため、選択された要約は、ほとんどの特異な要素を含みながらも、ビデオのほとんどを「カバー」するはずである。代替実施形態では、カバレッジ・スコアリング論理回路230及び多様性スコアリング論理回路240のうちの1つ以上をさらに、追加のスコアリング論理回路と組み合わせることができる。選択論理回路250が次に、たとえば、例示的な実施形態の文脈で以下に別に説明される論理的根拠に従って、代替目的関数を解く。
図3は、1つの実施形態によるRTビデオ・データ・ストリーム取込み及び要約デバイス・プラットフォーム303を示す図である。図3はさらに、図2Cに提示されたようなRTビデオ・ストリーム要約システムをどのようにデバイス・プラットフォームの他の様々な構成要素と一体化して、高フレーム露光速度にも最小記憶/伝送リソースにも適するビデオ・カメラ要約を提供することができるかを示す。
プラットフォーム303はCM370を含む。例示的な実施形態では、CM370はさらに、カメラ・センサ359を含む。センサ359は、たとえば、QXGA、WQXGA、又はQSXGAフォーマット・デジタル・イメージ・デバイスでよい。画素当たり10ビット以上の色解像度を得ることができるカメラ・センサ359は、連続ビデオ・フレームを累進的に取り込むように動作可能である。センサ359は、170MHz以上の画素周波数を有し得る。カメラ・センサ359は、RGBベイヤー・カラー・フィルタ、アナログ増幅器、A/Dコンバータ、入射光を生画像データに対応するデジタル信号に変換するための他の構成要素を含み得る。センサ359は、ローリング・シャッタ又は電子フォーカル・プレーン・シャッタ過程を操作するように制御することができ、画素が累進的に、フレームに対して線順次式に読み出される。例示的なビデオ実施形態では、センサ350は、多数の連続露光されたフレームを出力する。CM370は、連続露光されたフレームに関連した生ビデオ・データ372を、MIPI又は他のプロトコルなどの任意で既知のストリーミング・プロトコルに従って、出力する。ストリーミングされた生ビデオ・データ472は、ISP375に入力される。ISP375は、CM370に関連した水平及び/又は垂直ブランキング期間中に、生ビデオ・データ372のフレームを受け取り、解析する。生画像データ処理中に、ISP375は、たとえばノイズ低減、画素線形化、及びシェーディング補償のうちの1つ以上を実行することができる。
処理ビデオ・データは、たとえば循環バッファを用いて、FIFOでバッファリングすることができる。DSP385は、CM370からバッファに受け入れられた連続露光されたフレームの組(セグメント)を、CM370から出力された新しいフレームがそれを上書きする前に、フェッチする。図6Aは、1つ以上の実施形態による、ビデオ・ストリーム601内の連続露光されたフレームを示す。図6B及び図6Cは、一実施形態による、図6Aに描かれたビデオ・ストリームから生成されたフレームの組を示す。図6Bに示された第1の実施形態では、時間的に隣接する組が重なり合わず、各組が、他の組に含まれるいずれのフレームも除いてn個のフレームを含む。図6Cに示された第2の実施形態では、時間的に隣接する組が重なり合っており、各組が、他の組に含まれるフレームを含めてn−I個のフレームを含む。第1の実施形態では、ストリーム要約過程は、CMによって露光されたn個のフレームごとに1回反復される。第2の実施形態では、ストリーム要約過程は、CMによって露光されたフレームごとに1回反復される。使用される要約技法、及びその技法を実施するリソースに応じて、隣接する組の間のフレーム冗長性は、図6B及び図6Cに示された2つの実施形態の間で変わり得る。以下でさらに説明する例示的なRTビデオ・ストリーム要約方法では、隣接する組が重なり合わない(たとえば、図6B)。
ストリーミング・ビデオのセグメント化は、ビデオ要約システムによって解析されるべきフレームの各組内のオブジェクトに対していくらかのシーン整合性を与えるのに有用である。例示的な実施形態では、各セグメントに含まれるフレームの数は固定かつ既定であり、フレームのすべての組が連続するn個のフレームを含む。各組内の連続フレームの数は、中央処理ユニット(CPU)350によってインスタンス化されるオペレーティング・システム(OS)のカーネル空間内のサブシステム・ドライバ315によって制御することができる。その数の連続フレームへのアクセスは、OSのユーザ空間内で実行されるアプリケーション層の中のRT要約制御パラメータ355によって行うことができる。DSP385は、シーン/ショット変化検出論理回路をセグメント化過程で利用することができる。ショット境界検出アルゴリズムは、2つのビデオ・ショット間の接合部を検出しようとする。このアルゴリズムでは通常、ビデオ・ストリーム内のどの2つの連続画像間でも差測定基準(画素グレー・レベル差、統計的差、ヒストグラム差、又は動きベクトルのような)を計算し、その差が所定の閾値を超える場合に、ショット境界が仮定される。しかし、例示的な実施形態では、DSP385は、含むフレームが典型的なシーンよりもはるかに少ないフレームを含むフレーム組を生成する。それゆえに、シーン検出が利用される場合、各シーンはさらに、下流要約過程では複数のフレーム組に分割される。諸実施形態では、各組内のフレームの数nは100フレーム未満であり、有利には50フレーム未満、より有利には10から30フレームの間である。
フレームの組がハードウェア・アクセラレータ388に出力され、このハードウェア・アクセラレータは、例示的な実施形態では、RTビデオ要約システム217を実現する固定機能論理回路を含む。固定機能論理を使用する実施形態は、受け取られたビデオ・データ・フレームを、最小の電力消費としながら、高露光フレーム率の速度で要約するのに十分に適している。しかし一代替実施形態では、DSP385、CPU350のコア、グラフィック・プロセッサの実行ユニット、又は他の類似のベクトル・プロセッサを含む任意の既知のプログラム可能プロセッサが、図2Cに提示されたRTビデオ要約システム217の論理回路を実現するのに利用され得る。ハードウェア・アクセラレータ388がRTビデオ要約システム217をビデオ・データ・フレーム符号化の上流で実施する例示的な実施形態では、要約フレームは、静止フレームとして符号化するために、アクセラレータ388から元のDSP385へ出力することができる。HWアクセラレータ388Aからの要約フレームの符号化表現が、ストリーム要約フレーム・データ397として記憶/表示/伝送パイプライン395へ送られる。1つの例示的な記憶パイプライン実施形態では、ストリーム要約フレーム・データ397がメモリ/記憶装置220(たとえば、NVR、DRAMなど)に出力される。このメモリ/記憶装置は別々でも、CPU350がアクセス可能な主メモリ310の一部でもよい。別法として、又は加えて、記憶/表示/伝送パイプライン395は、要約フレーム・データ397をデバイス・プラットフォーム303外へ伝送する。
図4Aは、諸実施形態によるリアル・タイム(RT)取り込まれたビデオ要約方法401をさらに示す流れ図である。方法401は、RTビデオ要約システムによって実行され、1つの例示的な実施形態では、図3に描かれたHWアクセラレータ388によって実施される。方法401は、上流バッファ・オーバラン状態を回避するのに十分な速度で実行される。有利な一実施形態では、方法401は、CMフレーム率を、反復ごとに処理される新フレームの数(たとえば、n)で割ったものに少なくとも等しい(また有利には、それよりも大きい)速度で反復される。
方法401は、ビデオ・セグメントVに含まれるn個の連続露光されたビデオ・フレームの新しい組を受け取ることから開始する。動作406で、1つ以上のk個のストリーム要約フレームのバッチを含む、現在のストリーム要約がアクセスされる。例示的な実施形態では、ストリーム要約フレーム数kは固定かつ既定である。ストリーム要約フレームの数は、たとえば、中央処理ユニット(CPU)350によってインスタンス化されるオペレーティング・システム(OS)のカーネル空間内のサブシステム・ドライバ315(図3)によって制御することができる。その数の連続フレームへのアクセスは、OSのユーザ空間内で実行されるアプリケーション層の中のRT要約制御パラメータ355によって行うことができる。諸実施形態では、スチーム要約フレームの数kは1000フレーム未満であり、有利には100フレーム未満、より有利には10から30フレームの間である。
k個のストリーム要約フレームのバッチ内の各フレームは、方法401の1つ以上の前の反復中に前もって選択された。図4Bは、方法401の1つ以上の実施形態によって実施されるRTビデオ要約モデル402を示す。図4Bに示されるように、ストリーム要約465は、所定の数の要約フレーム・スロットに限定されたビデオ・データ・フレームの選択されたものを含む。k個のスロットが使用可能であると、k個の既存ストリーム要約フレーム(incumbent stream summary frames)が、要約過程を通して時間的に早く露光され(exposed)処理された任意の数の前のフレーム組471を要約する。たとえば、ストリーム要約465のスナップショットが、ごく最近に処理された組Vからの既存フレームi、フレーム組V−3からの既存フレームi+jなどを含む。時間的に前方を見ると、任意の数の新しいフレーム組472が、要約過程を通して時間的に遅く露光され処理される(たとえば、組Vから開始し、V+mで終了)。それぞれの新しいフレーム組(たとえば、V、V+1など)を受け取ったことに応答して要約反復が実行され、既存のk個のストリーム要約フレーム及びn個の新規フレーム(non-incumbent frames)が、目的関数466の適用によって選択するための候補フレームのバッチになる。各反復によって、1つ以上の既存フレームが、ストリーム要約465内でスロットを保持することができ、また1つ以上の既存フレームが、新しい組(たとえば、組V+1)に含まれる新規フレームを優先して、ストリーム要約465から排除され得る。
図4Aにさらに示されているように、動作405及び406からの候補フレーム(n+k)のそれぞれが動作435でスコアリングされる。CMから受け取られたフレームの新しい組内の各新規フレームが、新しい組内の別のフレームに対して、また各既存フレームに対してスコアリングされる。動作440で、1つ以上の要約フレームを含むバッチが、新規フレーム及び既存フレームを含む候補フレーム・プールから選択される。目的関数は動作440で解かれて、要約フレームのうちの所与の選択されたものに関連した報酬(損失)を計算する。候補フレームが、選択のためのフレーム・スコアリングを最適化する解に基づいて選択される。動作495で、k個のストリーム要約フレームのバッチが、動作406でアクセスされたk個のストリーム要約フレームのバッチとは異なり、動作440で行われたフレームの選択に応答して更新される。動作495でストリーム要約を更新することは、少なくとも各選択新規フレームを要約に追加することを含む。例示的な実施形態では、新規フレームの追加には、新規フレームを優先して要約からフラッシュされた既存フレームを取り換えることが必然的に伴い得る。フレーム及びカバレッジ・スコアがストリーム要約スロットごとに記憶される、また以下でより詳細に説明する別の実施形態においては、動作495でストリーム要約を更新することはさらに、選択された各新規フレームに関連したカバレッジ・スコアをストリーム要約に追加することを含む。たとえば、排除既存フレームに関連したカバレッジ・スコアが、新たに選択されたフレームに関連したカバレッジ・スコアで上書きされ得る。k個の要約フレームの更新バッチは、動作450でメモリに記憶される。ストリームの終わり(EOS:end of stream)に達していない場合、方法401は、次の反復のために動作405へ戻る。EOSに達した場合、方法401は終了し、ストリーム要約フレームが記憶される。
上記の実施形態では、ある既存要約フレームが、より新しい、より多くの情報を提供するフレームが届くことにより排除されると、その既存要約フレームは、さらなる考察から除去される。しかし、十分な利用可能メモリがある実施形態では、要約更新動作495でフラッシュされた既存要約フレームは二次メモリ(ロケーション)に記憶されて、方法401で生成された最終ビデオ要約の品質を潜在的に向上させる。二次記憶動作497は、ビデオ・ストリーミング中に反復生成されたすべての要約フレームを保持することが任意選択であることを強調するために、図4Aに破線で示されている。すべての要約フレームが保持されるこれらの実施形態では、EOS状態に達すると、方法401は動作499へ進み、L個の要約フレームの二次選択が行われる。例示的な実施形態では、動作499は、動作435で前もって生成されたフレームスコアと、各記憶要約フレームに関連した特徴ベクトルとに基づいて(一次)選択動作440で解かれたのと同じ目的関数を解くことを必然的に伴う。最終選択フレームの数Lは、k個の要約フレームのバッチと等しくする、又はそれより大きくすることができ、またn及びkの値と同じようにして構成可能な値とすることができる。二次選択動作499は、k個の要約フレームのバッチに関連したメモリ・スロットにも経時的に記憶された顕著なフレームと、二次メモリ・スロットにも記憶されたものとの組の中にある。したがって、方法401は2段階過程になり、顕著なフレームがビデオ・セグメントからまずフィルタリングされ、次に、最終要約フレームがすべての顕著なフレームから選択される。
図5Aは、このような実施形態による、リアル・タイム(RT)取り込まれたビデオ要約方法501を示す流れ図である。方法501は、たとえば方法401(図4A)の一部として実行される。方法501は、上述のように、n個の新規候補ビデオ・フレームを動作405で受け取ること、及びk個の既存ストリーム要約フレームを動作406で受け取ることから開始する。特徴ベクトルが、n+k個のフレームについて動作510で計算される。この特徴ベクトルは、当技術分野で知られている任意の物体検出技法を使用して決定される特徴を含み得る。例示的な実施形態では、勾配方向ヒストグラム(HOG)特徴を含む特徴ベクトルが動作406で、n+k個のフレームのそれぞれに対して生成される。或いは、n個のフレームに対して特徴ベクトルが動作406で計算され、以前の反復で前もって生成されている、k個の要約フレームに対する特徴ベクトルがメモリからフェッチされる。
方法501は動作515を継続し、次元n+kのカバレッジ・ベクトルcが計算される。動作515の1つの例示的な実施形態がさらに、図5Bに方法502として示されている。ビデオ・セグメントVのすべてのフレームの特徴ベクトルが、動作511で受け取られる。動作516は次に反復されて、n−I個の他の新規フレームに関してフレームiごとに1つの新規カバレッジ・スコアを計算する。カバレッジ・ベクトルcの要素iが、受け取られたフレーム組Vについて次式のように計算される。
c(i)=maxwij、ただしj∈V (1)
ここでwijは、フレーム組V内のフレームiとjの対に関連した特徴ベクトル間の類似性を示す。2つのベクトルの類似性を測定するための多くの技法があるが、本発明者らは、コサイン類似性測定基準がHOG特徴ベクトルに対して適切に機能することを発見した。方法502で利用される類似性測定基準(similarity metric)は、たとえば、中央処理ユニット(CPU)350によってインスタンス化されるオペレーティング・システム(OS)のカーネル空間内のサブシステム・ドライバ315(図3)によって制御することができる。類似性測定基準へのアクセスはさらに、OSのユーザ空間で実行されるアプリケーション層の中のRT要約制御パラメータ355によって行うことができる。新しいフレーム組V内のフレームごとに類似性測定基準の最大値を計算することは、カバレッジ・スコアを1つのベクトルに有利に限定する。動作517で(図5B)、動作516で計算された各c(j)が新要素としてカバレッジ・ベクトルcに追加又は結合される。
方法502は、k個の既存ストリーム要約フレームに関連した既存カバレッジ・スコアc(k)を受け取ることを動作506で継続する。例示的な実施形態では、方法501の前の反復から記憶されている、方法502を呼び出した既存カバレッジ・スコアc(k)が、メモリからフェッチされる。動作518で、カバレッジ・ベクトルcのn個の要素がk個の記憶カバレッジ・スコアc(k)と結合され、それにより、カバレッジ・ベクトルcはすべての候補フレーム(既存及び新規)を包含する。
図5Aに戻ると、方法501は動作520を継続し、2次元多様性行列(2D diversity matrix)が計算される。多様性行列は、新たに受け取られた組V内のフレームごとの、その組内の他のフレームに対する、及び各既存フレームに対する多様性スコアを含む。多様性スコアは、動作510で計算された特徴ベクトル間の距離を表す測定基準である。特徴ベクトルがHOGベクトルである例示的な実施形態では、多様性スコアは、候補プール内の全フレームの対形成に関するカラー・ヒストグラム(color histograms)間の距離を表す。動作520の1つの例示的な実施形態がさらに、図5Cに方法503として示されている。図5Cに示されるように、ビデオ・セグメントVの全フレームの特徴ベクトルが再び、動作511で受け取られる。加えて、全k個の要約フレームの特徴ベクトルが動作521で受け取られる。動作522で、n+k個の特徴ベクトルのすべての排他的対の間の距離が計算されて、多様性行列Dが生成され、要素(i,j)が次式のように計算される。
D(i,j)=dij (2)
ここでdijは、フレームiとjの間の距離測定基準である。距離測定基準dijは、それだけには限らないが、ユークリッド距離、カイ二乗距離、マハラノビス距離など、当技術分野で知られているどれでもよい。特徴ベクトルがHOGベクトルである例示的な実施形態では、カイ二乗距離測定基準が多様性行列Dを生成するのに有利であることが分かった。同様の類似性測定基準、方法503に利用された距離測定基準は、たとえば、中央処理ユニット(CPU)350によってインスタンス化されるオペレーティング・システム(OS)のカーネル空間内のサブシステム・ドライバ315(図3)によって制御することができる。距離測定基準へのアクセスはさらに、OSのユーザ空間内で実行される、アプリケーション層内のRT要約制御パラメータ355によって行うこともできる。
図5Aに戻ると、方法501は動作530で継続し、ストリーム要約フレームのバッチが、選択のためのカバレッジ・スコア及び多様性スコアに基づいて、現在の反復のために選択される。動作530の1つの例示的な実施形態がさらに、図5Dに方法504として示されている。カバレッジ・ベクトルc及び多様性行列Dが、動作519、524で受け取られる。動作531で、最適化ベクトルxが、k個のフレームの組を最大カバレッジ及び最大相互多様性によって識別する。フレームiがストリーム要約に含まれるかどうかを要素iが示す、次元n+kの二値ベクトルを考える。カバレッジ・スコア及び多様性スコアの次元の故に、選択はこのように、整数二次計画法(QP)問題として形式化することができる。すなわち、
[外1]
Figure 2019208259
ここで、xはxのベクトル転置であり、次式のようになる。
[外2]
Figure 2019208259
しかし、式(3)の解は、整数制約が可変ベクトルxに置かれる場合には、NP困難になる。したがって、有利な実施形態では、整数制約が緩和され連続的になることができ、ベクトルxのすべての要素が0と1の間の実数に制約される。その場合、式3は、任意の既知のQP解放を用いて容易に解くことができる。その場合、解ベクトルの最上位k個のエントリは1に設定され、残りはゼロに設定されて、整数解を再構築することができる。この最適化ベクトルは、破棄されるべき(値が0の要素)、また要約フレームとして選択されるべき(値が1の要素)新規フレーム及び既存フレームを識別する。
図5Aに戻ると、方法501は次に、k個の要約フレームを動作450で記憶して終了する。有利な実施形態では、動作450で記憶されたフレームごとに、対応するカバレッジ・スコアがそのフレームに関連して記憶されて、それに続く次のフレームの組(たとえば、図5Bの506で読み出される)との比較が容易になる。1つの非選択既存フレームは、新規フレームが選択されるごとに、ストリーム要約内で除去/置換される。非選択既存フレームに関連したいずれのカバレッジ・スコアもまた、除去/置換される。
図7は、1つ以上の実施形態によるRTビデオ・データ・ストリーム取込み要約アーキテクチャを使用する、例示的な超低電力システム700の図である。システム700はモバイル・デバイスであり得るが、システム700はこの文脈に限定されない。たとえば、システム700は、ウェアラブル計算デバイス、超ラップトップ・コンピュータ、タブレット、タッチ・パッド、手持ち式コンピュータ、パームトップ・コンピュータ、セルラー電話、スマート・デバイス(たとえば、スマート・フォン、スマート・タブレット、又はモバイル・テレビジョン)、モバイル・インターネット・デバイス(MID:mobile internet device)、メッセージ・デバイス、データ通信デバイスなどに組み込むことができる。システム700はまた、インフラ・デバイスでもあり得る。たとえば、システム700は、大型テレビジョン、セットトップ・ボックス、デスクトップ・コンピュータ、又は他の家庭用若しくは商用のネットワーク・デバイスに組み込むことができる。
システム700は、様々なストリーミング・ビデオ・カメラ要約方法の全部又は一部、及び図1〜図6の状況で上述したRTストリーミング・ビデオ要約システムのうちのいずれかを提供できるデバイス・プラットフォーム702を含む。様々な例示的実施形態では、ビデオ・プロセッサ715がRTビデオ要約アルゴリズムを実行する。ビデオ・プロセッサ715は論理回路を含み、これは、たとえば本明細書のどこか別のところで説明されたCM370からストリーミングされたビデオ・フレーム・データと同期して、ビデオ要約画像の組を反復生成するためのRTビデオ要約システム217を実現する。いくつかの実施形態では、1つ以上のコンピュータ可読媒体が命令を記憶することができ、この命令は、CPU710及び/又はビデオ・プロセッサ715によって実行されたとき、プロセッサに、上記で詳細に説明されたもののいずれかなど、1つ以上のRTビデオ要約アルゴリズムを実行させる。CM370によって露光された1つ以上の画像データ・フレームが次に、ストリーミングされたビデオ要約データとしてメモリ712に記憶され得る。
諸実施形態では、デバイス・プラットフォーム702がヒューマン・インターフェース・デバイス(HID:human interface device)720に結合される。プラットフォーム702は、CM370を用いて生画像データを収集することができ、このデータは処理され、HID720へ出力される。1つ以上のナビゲーション機能を含むナビゲーション・コントローラ750を使用して、たとえばデバイス・プラットフォーム702及び/又はHID720と相互作用することができる。諸実施形態では、HID720は、無線機718及び/又はネットワーク760を介してプラットフォーム702に結合された任意のテレビ型モニタ、又は表示装置を含むことができる。HID720は、たとえば、コンピュータ表示装置画面、タッチ画面表示装置、ビデオ・モニタ、テレビジョンのようなデバイス、及び/又はテレビジョンを含み得る。
1つ以上のソフトウェア・アプリケーション716の制御のもとで、デバイス・プラットフォーム702は、ユーザ・インターフェース722をHID720に表示することができる。コントローラ750のナビゲーション機能の動きは、表示装置(たとえば、HID720)上で、ポインタ、カーソル、フォーカス・リング、又は表示装置上に表示される他の視覚インジケータの動きによって再現することができる。たとえば、ソフトウェア・アプリケーション716の制御のもとで、ナビゲーション・コントローラ750に置かれたナビゲーション機能は、ユーザ・インターフェース722に表示される仮想ナビゲーション機能にマッピングすることができる。
諸実施形態では、デバイス・プラットフォーム702は、CM370、チップセット705、プロセッサ710、715、メモリ/記憶装置712、アプリケーション716、及び/又は無線機718の任意の組合せを含むことができる。チップセット705は、プロセッサ710、715、メモリ712、ビデオ・プロセッサ715、アプリケーション716、又は無線機718の間の相互通信を可能にすることができる。
プロセッサ710、715のうちの1つ以上は、1つ以上の複合命令セット・コンピュータ(CISC)プロセッサ若しくは縮小命令セット・コンピュータ(RISC)プロセッサ、x86命令セット互換プロセッサ、マルチコア、又は任意の他のマイクロプロセッサ若しくは中央処理ユニット(CPU)として実施することができる。
メモリ712は、それだけには限らないが、ランダム・アクセス・メモリ(RAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)、又はスタティックRAM(SRAM)などの揮発性メモリ・デバイスとして実施することができる。メモリ712はまた、それだけには限らないが、フラッシュ・メモリ、バッテリ・バックアップSDRAM(シンクロナスDRAM)、磁気メモリ、位相変化メモリなどの不揮発性記憶デバイスとして実施することもできる。
無線機718は、様々な適切な無線通信技法を使用して信号を送受信することができる1つ以上の無線機を含み得る。このような技法は、1つ以上の無線ネットワークにわたる通信を含み得る。例示的な無線ネットワークは、(それだけには限らないが)無線ローカル・エリア・ネットワーク(WLAN)、無線パーソナル・エリア・ネットワーク(WPAN)、無線メトロポリタン・エリア・ネットワーク(WMAN)、セルラー・ネットワーク、及び衛星ネットワークを含む。このようなネットワークにわたって通信する際、無線機618は、該当する1つ以上の、任意のバージョンの標準に従って動作することができる。
諸実施形態では、システム700は無線システム、有線システム、又は双方の組合せとして実施することができる。無線システムとして実施される場合、システム700は、1つ以上のアンテナ、送信機、受信機、トランシーバ、増幅器、フィルタ、制御論理回路などの無線共用媒体を介して通信するのに適している構成要素及びインターフェースを含むことができる。無線共用媒体の一例には、RFスペクトルなどの無線スペクトルの一部が含まれ得る。有線システムとして実施される場合、システム700は、入力/出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続するための物理的コネクタ、ネットワーク・インターフェース・カード(NIC)、ディスク・コントローラ、ビデオ・コントローラ、オーディオ・コントローラなどの、有線通信媒体を介して通信するのに適している構成要素及びインターフェースを含むことができる。有線通信媒体の例には、電線、ケーブル、金属リード、印刷回路基板(PCB)、バックプレーン、スイッチ・ファブリック、半導体材料、ツイストペア線、同軸ケーブル、光ファイバなどが含まれ得る。
本明細書で説明されたRTストリーミング・ビデオ要約アーキテクチャ及び関連した要約過程は、様々なハードウェア・アーキテクチャ、セル設計、又は「IPコア」として実施することができる。
上述のように、システム700は、変化する物理的形式又はフォーム・ファクタで具現化することができる。図8はさらに、システム700を具現化できるモバイル・ハンドセット・デバイス800の実施形態を示す。諸実施形態では、たとえばデバイス800は、無線機能を有するモバイル計算デバイスとして実施することができる。モバイル計算デバイスは、処理システムと、たとえば1つ以上の電池などのモバイル電源すなわちパワー・サプライとを有する任意のデバイスを指すことができる。モバイル計算デバイスの例には、超ラップトップ・コンピュータ、タブレット、タッチ・パッド、ポータブル・コンピュータ、手持ち式コンピュータ、パームトップ・コンピュータ、携帯情報端末(PDA)、セルラー電話、一体型セルラー電話/PDA、テレビジョン、スマート・デバイス(たとえば、スマート・フォン、タブレット、又はスマート・テレビジョン)、モバイル・インターネット・デバイス(MID)、メッセージ・デバイス、データ通信デバイスなどが含まれ得る。モバイル計算デバイスの例にはまた、手首コンピュータ、指コンピュータ、リング・コンピュータ、眼鏡コンピュータ、ベルト留めコンピュータ、腕章コンピュータ、靴コンピュータ、衣服コンピュータ、及び他のウェアラブル・コンピュータなど、人に着用されるように構成されたコンピュータ、及び/又は媒体取込み/伝送デバイスが含まれ得る。様々な実施形態では、たとえば、モバイル計算デバイスは、コンピュータ・アプリケーション並びに音声通信及び/又はデータ通信を実行することができるスマート・フォンとして実施することができる。いくつかの実施形態は、例示的にスマート・フォンとして実施されるモバイル計算デバイスを用いて説明できるが、他の実施形態が、他の無線モバイル計算デバイスを使用して同様に実施され得ることが理解されよう。実施形態は、この文脈に限定されない。
図8に示されるように、モバイル・ハンドセット・デバイス800は、前部801及び後部802があるハウジングを含み得る。デバイス800は、表示装置804、入力/出力(I/O)デバイス806、及び内蔵アンテナ808を含む。デバイス800はまた、ナビゲーション機能812を含み得る。表示装置804は、モバイル計算デバイスに適した情報を表示するための任意の適切な表示ユニットを含み得る。I/Oデバイス806は、情報をモバイル計算デバイスに入力するための任意の適切なI/Oデバイスを含み得る。I/Oデバイス806の例には、英数字のキーボード、数字キーパッド、タッチ・パッド、入力キー、ボタン、スイッチ、マイクロフォン、スピーカ、音声認識デバイス及びソフトウェアなどが含まれ得る。情報は、マイクロフォン(図示せず)によってデバイス800に入力されても、音声認識デバイスによってデジタル化されてもよい。実施形態は、この文脈に限定されない。少なくとも後部802の中にカメラ805(たとえば、レンズ、開口部、及びイメージ・センサを含む)及びフラッシュ810が内蔵され、その両方がCMの構成要素であり得る。このCMによってストリーミング・ビデオが露光され、本明細書のどこか別のところで説明されたビデオ要約システムへ出力される。
本明細書で説明された実施形態は、ハードウェア要素、ソフトウェア要素、又は双方の組合せを使用して実施することができる。ハードウェア要素又はモジュールの例には、プロセッサ、マイクロプロセッサ、回路、回路要素(たとえば、トランジスタ、抵抗、コンデンサ、インダクタなど)、集積回路、特定用途向け集積回路(ASIC)、プログラム可能論理デバイス(PLD)、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、論理ゲート、レジスタ、半導体デバイス、チップ、マイクロチップ、チップセットなどが含まれる。ソフトウェア要素又はモジュールの例には、アプリケーション、コンピュータ・プログラム、アプリケーション・プログラム、システム・プログラム、機械プログラム、オペレーティング・システム・ソフトウェア、ミドルウェア、ファームウェア、ルーチン、サブルーチン、関数、方法、手順、ソフトウェア・インターフェース、アプリケーション・プログラミング・インターフェース(API)、命令セット、計算コード、コンピュータ・コード、コード・セグメント、コンピュータ・コード・セグメント、データ語、値、記号、又はこれらの任意の組合せが含む。ある実施形態がハードウェア要素及び/又はソフトウェア要素を使用して実現されるかどうかの判断は、それだけには限らないが、所望の計算速度、電力レベル、耐熱性、処理サイクル・バジェット、入力データ転送速度、出力データ転送速度、メモリ・リソース、データバス速度、及び他の設計制約又は性能制約などの、設計の選択のために考慮された任意の数の要因に応じて、異なり得る。
少なくとも1つの実施形態の1つ以上の態様は、機械可読記憶媒体に記憶された代表的な命令によって実施することができる。このような命令は、機械によるその実行の間、完全に、又は少なくとも部分的に主メモリ内及び/又はプロセッサ内に存在することができ、その場合、命令を記憶している主メモリ部及びプロセッサ部もまた、機械可読記憶媒体を構成している。プログラム可能論理回路は、コンピュータ可読媒体を実装するプロセッサによって構成されたレジスタ、状態機械などを有し得る。その場合、このような論理回路は、プログラムされると、本明細書で説明された実施形態の範囲内に入るシステムに物理的に変換されるものと理解され得る。プロセッサ内で様々な論理を表現する命令は、機械によって読み出されるとやはり、その機械が、本明細書で説明されたアーキテクチャに付着する論理回路を作製する、かつ/又は本明細書で説明された技法を実施することになり得る。セル設計、又はIPコアとして知られるこのような表現は、有形の機械可読媒体に記憶することができ、様々な顧客又は製造施設に供給して、論理回路又はプロセッサを実際に作る製造機械にロードすることができる。
本明細書に論述されたいくつかの特徴が諸実施形態に関して説明されたが、この説明は、限定的な意味に解釈されるべきものではない。それゆえに、本明細書で説明された実施態様、並びに他の実施態様の、本開示に関係する当業者には明らかである様々な修正形態は、本開示の趣旨及び範囲内にあると考えられる。
以下の各項では、いくつかの例示的な実施形態を簡潔に説明する。
1つ以上の第1の実施形態では、取り込まれたビデオ・データ・ストリーム要約方法は、連続露光されたビデオ・データ・フレームのストリームをカメラ・ハードウェア・モジュール(CM)から受け取るステップを含む。この方法は、ビデオ・データ・フレームのうちの1つ以上を含むストリーム要約を、CMから受け取られたフレームの新しい各組に基づいて反復して評価するステップを含む。評価するステップはさらに、CMから受け取られたフレームの新しい組内の各新規フレームを新しい組内の他のフレームに対して、かつ前の反復によるストリーム要約内に含まれる各既存フレームに対してスコアリングするステップを含む。評価するステップはさらに、新規フレーム及び既存フレームを含むプールからフレームを、選択のためにフレーム・スコアリングを最適化する目的関数の解に基づいて選択するステップを含む。この方法はさらに、メモリに記憶されたストリーム要約を、新規フレームを既存フレームよりも優先して選択したことに応答して更新するステップを含む。
1つ以上の第1の実施形態を促進するために、各新規フレームをスコアリングするステップはさらに、特徴ベクトルを新しい組内の各フレームについて計算するステップを含む。各新規フレームをスコアリングするステップはさらに、新規カバレッジ・スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し計算するステップを含む。各新規フレームをスコアリングするステップはさらに、多様性スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し、かつ各既存フレームに対し計算するステップを含む。この方法はさらに、1つ以上のフレームを選択するステップがさらに、所定の数の要約フレーム・スロットを、選択のためにカバレッジ・スコア及び多様性スコアを最大化する目的関数の解に関連した既存フレーム及び新規フレームによって、生成するステップを含むことを含む。
すぐ上に記載の実施形態を促進するために、特徴ベクトルは勾配方向ヒストグラム(HOG)に基づいている。新規カバレッジ・スコアを計算するステップは、類似性測定基準の最大値を含むカバレッジ・ベクトルを新しい組内のフレームごとに決定するステップを含む。多様性スコアを計算するステップは、プール内の全フレームの対形成に対するカラー・ヒストグラム間の距離を含む2次元多様性行列を決定するステップを含む。
第1の実施形態のいずれかを促進するために、ストリーム要約を更新するステップはさらに、ストリーム要約に、選択された各新規フレームを追加するステップと、ストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加するステップとを含む。各新規フレームをスコアリングするステップはさらに、特徴ベクトルを組内の各フレームについて計算するステップを含む。各新規フレームをスコアリングするステップはさらに、新規カバレッジ・スコアを特徴ベクトルに基づいて、組内の各フレームについて組内の別のフレームに対し計算するステップを含む。この方法はさらに、2次元多様性行列を特徴ベクトルに基づいて計算するステップとを含み、この行列は、組内の他のフレームに対する、かつ各既存フレームに対する組内のフレームごとの多様性スコアを含む。1つ以上のフレームを選択するステップはさらに、カバレッジ・ベクトルを、新規カバレッジ・スコアと記憶カバレッジ・スコアを結合することによって計算するステップを含む。1つ以上のフレームを選択するステップはさらに、カバレッジ・ベクトル及び多様性行列を含む目的関数を、最大多様性スコア及び最大カバレッジ・スコアを有する最適化ベクトルを求めて解くステップを含む。1つ以上のフレームを選択するステップはさらに、最適化ベクトルによって識別された新規フレーム及び既存フレームを選択するステップを含む。
1つ以上の第1の実施形態を促進するために、ストリーム要約を更新するステップはさらに、ストリーム要約に、選択された各新規フレームを追加するステップを含む。ストリーム要約を更新するステップはさらに、ストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加するステップを含む。ストリーム要約を更新するステップはさらに、ストリーム要約から1つの非選択既存フレームを、選択された新規フレームごとに削減するステップを含む。ストリーム要約を更新するステップはさらに、ストリーム要約から、ストリーム要約から除去された各非選択既存フレームに関連したカバレッジ・スコアを削減するステップを含む。
すぐ上に記載の実施形態を促進するために、ストリーム要約は、所定の数のストリーム要約フレーム・スロットを含む。各既存フレームは、要約フレーム・スロットのうちの1つを占有する。ストリーム要約を更新するステップはさらに、新規フレームを優先してフラッシュされた既存フレームに関連した要約フレーム・スロットのコンテンツをスワップするステップを含む。この方法はさらに、ストリーム要約によって要約されたビデオ・データ・フレームを、より最近に露光されたビデオ・データ・フレーム・データで上書きするステップを含む。
すぐ上に記載の実施形態を促進するために、この方法はさらに、第2のメモリに、各フレームと、ストリーム要約スロットから除去された関連カバレッジ値(associated coverage value)とを記憶するステップを含む。この方法はさらに、要約フレーム・スロットに関連したフレーム及び第2のメモリに記憶されたフレームを含むフレームのプールからの、フレームの第2の選択を、第2のストリーム要約の所定の数のスロットに対するフレーム・スコアリングを最適化する目的関数の解に基づいて、実行するステップを含む。この方法はさらに、第2の選択によるフレームをメモリに記憶するステップを含む。
第1の実施形態を促進するために、CMから受け取られたストリームはフレーム率と関連付けられ、評価するステップは、フレーム率を新しい各組に含まれるフレームの所定の数で割ったものに少なくとも等しい速度で反復される。
第1の実施形態を促進するために、この方法は、第2のメモリに、ストリーム要約よりも多いフレームを有するストリームが表現されたものを記憶するステップと、ストリーム表現に、ストリーム要約に基づいて索引を付けるステップとをさらに含む。
1つ以上の第2の実施形態では、ビデオ・データ・ストリーム取込み要約システムは、連続露光されたビデオ・データ・フレームのストリームを生成するカメラ・ハードウェア・モジュール(CM)を含む。このシステムは、フレームのうちの1つ以上を含むストリーム要約を、CMから受け取られた新しい各組に基づいて反復して評価する、CMに結合された論理回路を含む。論理回路はさらに、CMから受け取られたフレームの新しい組内の各新規フレームを新しい組内の他のフレームに対して、かつ前の反復によるストリーム要約内に含まれる各既存フレームに対してスコアリングする、フレーム・スコアリング論理回路を含む。論理回路はさらに、新規フレーム及び既存フレームを含むプールからフレームを、選択のためにフレーム・スコアリングを最適化する目的関数の解に基づいて選択する、フレーム選択論理回路を含む。このシステムは、メモリに記憶されたストリーム要約を、新規フレームを既存フレームよりも優先して選択したことに応答して更新する論理回路を含む。
第2の実施形態を促進するために、フレーム・スコアリング論理回路はさらに、特徴ベクトルを新しい組内の各フレームについて計算する。フレーム・スコアリング論理回路はさらに、新規カバレッジ・スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し計算する。フレーム・スコアリング論理回路はさらに、多様性スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し、かつ各既存フレームに対し計算する。
第2の実施形態を促進するために、フレーム・スコアリング論理回路はさらに、勾配方向ヒストグラム(HOG)に基づく特徴ベクトルを新しい組内の各フレームについて計算する。フレーム・スコアリング論理回路はさらに、新規カバレッジ・スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し、新しい組内のフレームごとに類似性測定基準の最大値を含むカバレッジ・ベクトルを決定することによって計算する。フレーム・スコアリング論理回路はさらに、多様性スコアを特徴ベクトルに基づいて、新しい組内の各フレームについて新しい組内の別のフレームに対し、かつ各既存フレームに対し、プール内の全フレームの対形成に対するカラー・ヒストグラム間の距離を含む2次元多様性行列を決定することによって計算する。
第2の実施形態を促進するために、ストリーム要約を更新する論理回路は、ストリーム要約に、選択された各新規フレームを追加し、またストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加する。フレーム・スコアリング論理回路はさらに、特徴ベクトルを組内の各フレームについて計算する。フレーム・スコアリング論理回路はさらに、新規カバレッジ・スコアを特徴ベクトルに基づいて、組内の各フレームについて組内の別のフレームに対し計算する。フレーム・スコアリング論理回路はさらに、カバレッジ・ベクトルを、新規カバレッジ・スコアと記憶カバレッジ・スコアを結合することによって計算する。フレーム・スコアリング論理回路はさらに、2次元多様性行列を特徴ベクトルに基づいて計算し、この行列は、組内の他のフレームに対する、かつ各既存フレームに対する組内のフレームごとの多様性スコアを含む。フレーム選択論理回路はさらに、カバレッジ・ベクトル及び多様性行列を含む目的関数を、最大多様性スコア及び最大カバレッジ・スコアを有する最適化ベクトルを求めて解き、最適化ベクトルによって識別された新規フレーム及び既存フレームを選択する。
第2の実施形態を促進するために、ストリーム要約を更新する論理回路は、ストリーム要約に、選択された各新規フレームを追加し、ストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加し、ストリーム要約から1つの非選択既存フレームを、選択された新規フレームごとに削減し、ストリーム要約から、ストリーム要約から除去された各非選択既存フレームに関連したカバレッジ・スコアを削減する。
すぐ上に記載の実施形態を促進するために、ストリーム要約は、所定の数のストリーム要約フレーム・スロットと関連付けられる。各既存フレームは、要約フレーム・スロットのうちの1つを占有する。ストリーム要約を更新する論理回路は、新規フレームを優先してフラッシュされた既存フレームに関連した要約フレーム・スロットのコンテンツをスワップする。システムがさらに、ストリーム要約によって要約されたビデオ・データ・フレームを、より最近に露光されたビデオ・データ・フレーム・データで上書きする循環バッファを含む。
すぐ上に記載の実施形態を促進するために、システムはさらに、各フレームと、ストリーム要約スロットから除去された関連カバレッジ値とを記憶する第2のメモリを含む。フレーム選択論理回路は、要約フレーム・スロットに関連したフレーム及び第2のメモリに記憶されたフレームを含むフレームのプールからの、フレームの第2の選択を、選択フレームに対するフレーム・スコアリングを最適化する目的関数の解に基づいて実行する。
1つ以上の第3の実施形態では、コンピュータ可読記憶媒体に命令が記憶されており、この命令は、プロセッサによって実行されたとき、プロセッサに、第1の実施形態のいずれかに記載された方法を実行させる。
第3の実施形態を促進するために、コンピュータ可読記憶媒体に命令が記憶されており、この命令は、プロセッサによって実行されたとき、プロセッサに、連続露光されたビデオ・データ・フレームのストリームからのビデオ・データ・フレームの1つ以上を含むストリーム要約を、受け取られたフレームの新しい各組に基づいて、反復して評価するステップを含む方法を実行させる。この評価するステップはさらに、CMから受け取られたフレームの新しい組内の各新規フレームを新しい組内の他のフレームに対して、かつ前の反復によるストリーム要約内に含まれる各既存フレームに対して、スコアリングするステップを含む。命令によりさらにプロセッサが、新規フレーム及び既存フレームを含むプールからフレームを、選択のためにフレーム・スコアリングを最適化する目的関数の解に基づいて選択するステップを含む、方法を実行することになる。命令によりさらにプロセッサが、メモリに記憶されたストリーム要約を、新規フレームを既存フレームよりも優先して選択したことに応答して更新するステップを含む方法を実行することになる。
すぐ上に記載の実施形態を促進するために、媒体は記憶した命令をさらに含み、この命令は、プロセッサによって実行されたとき、プロセッサに、ストリーム要約に、選択された各新規フレームを追加すること、ストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加すること、各新規フレームを、特徴ベクトルを組内の各フレームについて計算することによってスコアリングすること、及び新規カバレッジ・スコアを、特徴ベクトルに基づいて組内の各フレームについて組内の別のフレームに対し計算することによって、ストリーム要約を更新するステップをさらに含む方法を実行させる。この方法はさらに、2次元多様性行列を特徴ベクトルに基づいて計算するステップとを含み、この行列は、組内の他のフレームに対する、かつ各既存フレームに対する組内のフレームごとの多様性スコアを含む。この方法はさらに、カバレッジ・ベクトルを、新規カバレッジ・スコアと記憶カバレッジ・スコアを結合することによって計算すること、カバレッジ・ベクトル及び多様性行列を含む目的関数を、最大多様性スコア及び最大カバレッジ・スコアを有する最適化ベクトルを求めて解くこと、並びに最適化ベクトルによって識別された新規フレーム及び既存フレームを選択することによって、1つ以上のフレームを選択するステップを含む。
上記の実施形態を促進するために、特徴ベクトルは勾配方向ヒストグラム(HOG)に基づいている。この方法はさらに、新規カバレッジ・スコアを計算するステップが、類似性測定基準の最大値を含むカバレッジ・ベクトルを新しい組内のフレームごとに決定するステップを含み、多様性スコアを計算するステップが、プール内の全フレームの対形成に対するカラー・ヒストグラム間の距離を含む2次元多様性行列を決定するステップを含むことを含む。
第3の実施形態を促進するために、媒体はさらに命令を含み、この命令は、実行されたとき、システムに、第2のメモリに、各フレームと、ストリーム要約スロットから除去された関連カバレッジ値とを記憶するステップと、要約フレーム・スロットに関連したフレーム及び第2のメモリに記憶されたフレームを含むフレームのプールからの、フレームの第2の選択を、第2のストリーム要約の所定の数のスロットに対するフレーム・スコアリングを最適化する目的関数の解に基づいて実行するステップと、第2の選択によるフレームをメモリに記憶するステップとをさらに含む方法を実行させる。
1つ以上の第4の実施形態では、ビデオ・データ・ストリーム取込み要約システムが、連続露光されたビデオ・データ・フレームのストリームを生成するビデオ記録手段を含む。このシステムは、フレームのうちの1つ以上を含むストリーム要約を、ビデオ記録手段から受け取られた新しい各組に基づいて、第1の実施形態の方法のうちのいずれか1つを実行することによって反復して評価する、ビデオ記録手段に結合されたビデオ要約手段を含む。
第4の実施形態を促進するために、ビデオ要約手段はさらに、ビデオ記録手段から受け取られたフレームの新しい組内の各新規フレームを新しい組内の他のフレームに対して、かつ前の反復によるストリーム要約内に含まれる各既存フレームに対してスコアリングする、フレーム・スコアリング手段を含む。要約手段はさらに、新規フレーム及び既存フレームを含むプールからフレームを、選択のためにフレーム・スコアリングを最適化する目的関数の解に基づいて選択する、フレーム選択手段を含む。ビデオ要約手段はさらに、メモリに記憶されたストリーム要約を、新規フレームを既存フレームよりも優先して選択したことに応答して更新する要約更新手段を含む。
すぐ上に記載の実施形態を促進するために、要約更新手段は、ストリーム要約に、選択された各新規フレームを追加し、またストリーム要約に、選択された各新規フレームに関連したカバレッジ・スコアを追加する。フレーム・スコアリング手段はさらに、特徴ベクトルを組内の各フレームについて計算し、新規カバレッジ・スコアを特徴ベクトルに基づいて、組内の各フレームについて組内の別のフレームに対し計算し、カバレッジ・ベクトルを、新規カバレッジ・スコアと記憶カバレッジ・スコアを結合することによって計算し、かつ2次元多様性行列を特徴ベクトルに基づいて計算する。この行列は、組内の他のフレームに対する、かつ各既存フレームに対する組内のフレームごとの多様性スコアを含む。フレーム選択手段はさらに、カバレッジ・ベクトル及び多様性行列を含む目的関数を、最大多様性スコア及び最大カバレッジ・スコアを有する最適化ベクトルを求めて解き、最適化ベクトルによって識別された新規フレーム及び既存フレームを選択する。
すぐ上に記載の実施形態を促進するために、システムはさらに、各フレームと、ストリーム要約スロットから除去された関連カバレッジ値とを記憶する第2のメモリを含む。フレーム選択手段は、要約フレームに関連したフレーム及び第2のメモリに記憶されたフレームを含むフレームのプールからの、フレームの第2の選択を、選択フレームに対するフレーム・スコアリングを最適化する目的関数の解に基づいて、実行する。
実施形態は、説明された例示的な実施形態に限定されるのではなく、添付の特許請求の範囲から逸脱しないで修正及び変更と共に実践できることを理解されたい。たとえば、上記の実施形態は、諸特徴の特定の組合せを含み得る。しかし、上記の実施形態はこの点に関して限定されず、諸実施形態の中で、上記の実施形態は、このような特徴の一部だけを引き受けること、このような特徴の異なる順序を引き受けること、このような特徴の異なる組合せを引き受けること、及び/又は明示的に列挙されたこれらの特徴以外の追加の特徴を引き受けることを含み得る。したがって、範囲は、添付の特許請求の範囲を基準として、このような特許請求の範囲の権利の対象となる等価物の全範囲と共に、決定されるべきである。

Claims (3)

  1. シーケンスを実行するためにプロセッサによって実行される命令を含むコンピュータ・プログラムであって、
    前記シーケンスは、
    ビデオのフレーム間のショット境界を検出するショット境界検出を使用することと、
    各フレームの特徴に基づいて特徴ベクトルを記憶することと、
    2つの検出されたショット境界の間の一連のフレームおいてオブジェクトを特定するために前記特徴ベクトルの特徴に基づいて物体検出技法を使用することと、
    ビデオにおいてフレームが他のフレームをいかに良く表現するかに基づく第1基準上で各フレームをスコアリングすることと、
    前記第1基準と異なる第2基準に基づいて各フレームをスコアリングすることと、
    前記ビデオ内の代表的なフレームのスコアに基づいて代表的なフレームを選択することとであって、前記スコアは、前記第1基準及び前記第2基準に基づいている、選択することと、
    を含む、コンピュータ・プログラム。
  2. 勾配方向物体検出技法のヒストグラムを使用することをさらに含む、請求項1に記載のコンピュータ・プログラム。
  3. 前記第2基準は、前記フレームが他のフレームをいかに良く表現するかとは異なる、請求項1に記載のコンピュータ・プログラム。
JP2019136916A 2014-09-04 2019-07-25 リアル・タイム・ビデオ要約 Active JP6961648B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/477,595 US9639762B2 (en) 2014-09-04 2014-09-04 Real time video summarization
US14/477,595 2014-09-04
JP2017157111A JP2017225174A (ja) 2014-09-04 2017-08-16 リアル・タイム・ビデオ要約

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017157111A Division JP2017225174A (ja) 2014-09-04 2017-08-16 リアル・タイム・ビデオ要約

Publications (2)

Publication Number Publication Date
JP2019208259A true JP2019208259A (ja) 2019-12-05
JP6961648B2 JP6961648B2 (ja) 2021-11-05

Family

ID=55437783

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017512745A Active JP6472872B2 (ja) 2014-09-04 2015-08-03 リアル・タイム・ビデオ要約
JP2017157111A Pending JP2017225174A (ja) 2014-09-04 2017-08-16 リアル・タイム・ビデオ要約
JP2019136916A Active JP6961648B2 (ja) 2014-09-04 2019-07-25 リアル・タイム・ビデオ要約

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017512745A Active JP6472872B2 (ja) 2014-09-04 2015-08-03 リアル・タイム・ビデオ要約
JP2017157111A Pending JP2017225174A (ja) 2014-09-04 2017-08-16 リアル・タイム・ビデオ要約

Country Status (5)

Country Link
US (3) US9639762B2 (ja)
EP (2) EP3267693B1 (ja)
JP (3) JP6472872B2 (ja)
CN (2) CN106664467B (ja)
WO (1) WO2016036460A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639762B2 (en) * 2014-09-04 2017-05-02 Intel Corporation Real time video summarization
US9743219B2 (en) * 2014-12-29 2017-08-22 Google Inc. Low-power wireless content communication between devices
US9514502B2 (en) * 2015-01-21 2016-12-06 Interra Systems Inc. Methods and systems for detecting shot boundaries for fingerprint generation of a video
US10762283B2 (en) * 2015-11-20 2020-09-01 Adobe Inc. Multimedia document summarization
JP2017097536A (ja) * 2015-11-20 2017-06-01 ソニー株式会社 画像処理装置および方法
US10229324B2 (en) * 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
KR20170098079A (ko) * 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 전자 장치에서의 비디오 녹화 방법
CN106454347B (zh) * 2016-09-09 2019-04-12 上海兆芯集成电路有限公司 帧分辨率决定方法以及使用该方法的装置
US10929945B2 (en) 2017-07-28 2021-02-23 Google Llc Image capture devices featuring intelligent use of lightweight hardware-generated statistics
US10452920B2 (en) * 2017-10-31 2019-10-22 Google Llc Systems and methods for generating a summary storyboard from a plurality of image frames
CN108307250B (zh) * 2018-01-23 2020-10-30 浙江大华技术股份有限公司 一种生成视频摘要的方法及装置
CN110418156A (zh) * 2019-08-27 2019-11-05 上海掌门科技有限公司 信息处理方法和装置
KR102252083B1 (ko) * 2019-10-17 2021-05-14 주식회사 지오비전 이벤트의 등장 객체간 관련성 파악이 용이한 비디오 서머리방법
CN112069952A (zh) * 2020-08-25 2020-12-11 北京小米松果电子有限公司 视频片段提取方法、视频片段提取装置及存储介质
JP2023544373A (ja) * 2020-10-01 2023-10-23 グーグル エルエルシー フレームセットからフレーム提案を生成することが可能なカメラマネージャシステムを実装する技術および装置
US20220115019A1 (en) * 2020-10-12 2022-04-14 Soundhound, Inc. Method and system for conversation transcription with metadata
WO2023128450A1 (ko) * 2021-12-28 2023-07-06 삼성전자 주식회사 타임랩스 영상 생성 방법 및 그 가전 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070245242A1 (en) * 2006-04-12 2007-10-18 Yagnik Jay N Method and apparatus for automatically summarizing video
JP2008022441A (ja) * 2006-07-14 2008-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
JP2008312215A (ja) * 2007-06-18 2008-12-25 Sony (China) Ltd 映像解析装置、映像解析方法、ダイジェスト自動作成システム及びハイライト自動抽出システム
JP2012074759A (ja) * 2010-09-27 2012-04-12 Toshiba Corp コンテンツ要約装置およびコンテンツ要約表示装置
CN103413330A (zh) * 2013-08-30 2013-11-27 中国科学院自动化研究所 一种复杂场景下可靠的视频摘要生成方法
US20130336590A1 (en) * 2012-05-03 2013-12-19 Stmicroelectronics S.R.L. Method and apparatus for generating a visual story board in real time

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7110454B1 (en) * 1999-12-21 2006-09-19 Siemens Corporate Research, Inc. Integrated method for scene change detection
KR100762225B1 (ko) * 2001-06-30 2007-10-01 주식회사 하이닉스반도체 반도체 소자의 셀 플레이트 전압 안정화 회로
JP3779904B2 (ja) 2001-10-05 2006-05-31 三菱電機株式会社 レベルシフト回路
AU2002351310A1 (en) 2001-12-06 2003-06-23 The Trustees Of Columbia University In The City Of New York System and method for extracting text captions from video and generating video summaries
US7068723B2 (en) * 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
US7035435B2 (en) * 2002-05-07 2006-04-25 Hewlett-Packard Development Company, L.P. Scalable video summarization and navigation system and method
AU2003265318A1 (en) * 2002-08-02 2004-02-23 University Of Rochester Automatic soccer video analysis and summarization
KR100708337B1 (ko) * 2003-06-27 2007-04-17 주식회사 케이티 퍼지 기반 oc―svm을 이용한 동영상 자동 요약 장치및 방법
JP4217964B2 (ja) * 2003-08-20 2009-02-04 ソニー株式会社 情報信号処理装置および情報信号処理方法
KR20060028307A (ko) * 2004-09-24 2006-03-29 주식회사 케이티 실시간 개인형 동영상 요약 시스템 및 그의 동영상 요약정보 생성 장치 및 그 방법과 맞춤형 동영상 요약 정보제공 장치 및 그 방법
US8200063B2 (en) 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
CN100559376C (zh) * 2008-06-30 2009-11-11 腾讯科技(深圳)有限公司 生成视频摘要的方法、系统及设备
CN101656877A (zh) * 2008-08-19 2010-02-24 新奥特(北京)视频技术有限公司 一种改进的图片序列生成动画文件的方法
US8605795B2 (en) * 2008-09-17 2013-12-10 Intel Corporation Video editing methods and systems
CN101425088A (zh) * 2008-10-24 2009-05-06 清华大学 基于图分割的关键帧提取方法和系统
CN101404030B (zh) * 2008-11-05 2011-07-20 中国科学院计算技术研究所 一种视频中周期性结构片段检测的方法及系统
CN101483763A (zh) * 2008-12-16 2009-07-15 南京大学 一种面向社会治安监控的数字影像处理方法及其装置
KR20110032610A (ko) * 2009-09-23 2011-03-30 삼성전자주식회사 장면 분할 장치 및 방법
WO2011143633A2 (en) * 2010-05-14 2011-11-17 Evolution Robotics Retail, Inc. Systems and methods for object recognition using a large database
US8520088B2 (en) * 2010-05-25 2013-08-27 Intellectual Ventures Fund 83 Llc Storing a video summary as metadata
US20120027371A1 (en) * 2010-07-28 2012-02-02 Harris Corporation Video summarization using video frames from different perspectives
US8467610B2 (en) * 2010-10-20 2013-06-18 Eastman Kodak Company Video summarization using sparse basis function combination
CN103210651B (zh) * 2010-11-15 2016-11-09 华为技术有限公司 用于视频概要的方法和系统
RU2549584C2 (ru) * 2010-12-09 2015-04-27 Нокиа Корпорейшн Идентификация ключевого кадра видеопоследовательности на основе ограниченного контекста
US20120148149A1 (en) * 2010-12-10 2012-06-14 Mrityunjay Kumar Video key frame extraction using sparse representation
CN202003350U (zh) * 2010-12-14 2011-10-05 广东鑫程电子科技有限公司 视频摘要系统
CN102184221B (zh) * 2011-05-06 2012-12-19 北京航空航天大学 一种基于用户偏好的实时视频摘要生成方法
US8869198B2 (en) * 2011-09-28 2014-10-21 Vilynx, Inc. Producing video bits for space time video summary
US8958645B2 (en) * 2012-04-19 2015-02-17 Canon Kabushiki Kaisha Systems and methods for topic-specific video presentation
US9430876B1 (en) 2012-05-10 2016-08-30 Aurasma Limited Intelligent method of determining trigger items in augmented reality environments
CN102724485B (zh) * 2012-06-26 2016-01-13 公安部第三研究所 采用双核处理器对输入视频进行结构化描述的装置和方法
EP2741488A1 (en) * 2012-12-10 2014-06-11 Alcatel Lucent A method of extracting the most significant frames out of a video stream based on aesthetical criterions
US9141866B2 (en) 2013-01-30 2015-09-22 International Business Machines Corporation Summarizing salient events in unmanned aerial videos
IN2013DE00589A (ja) * 2013-02-28 2015-06-26 Samsung India Electronics Pvt Ltd
CN103327304B (zh) * 2013-06-13 2016-04-20 北京林业大学 一种基于聚集机理的花卉生长关键帧提取系统
CN103345764B (zh) * 2013-07-12 2016-02-10 西安电子科技大学 一种基于对象内容的双层监控视频摘要生成方法
CN103391484B (zh) * 2013-07-12 2016-04-27 西安电子科技大学 一种用于双层视频摘要的轨迹最优组合方法
CN103886089B (zh) * 2014-03-31 2017-12-15 吴怀正 基于学习的行车记录视频浓缩方法
CN103929685B (zh) * 2014-04-15 2017-11-07 中国华戎控股有限公司 一种视频摘要生成及索引方法
US9646227B2 (en) * 2014-07-29 2017-05-09 Microsoft Technology Licensing, Llc Computerized machine learning of interesting video sections
US9639762B2 (en) 2014-09-04 2017-05-02 Intel Corporation Real time video summarization
GB2532194A (en) * 2014-11-04 2016-05-18 Nokia Technologies Oy A method and an apparatus for automatic segmentation of an object

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070245242A1 (en) * 2006-04-12 2007-10-18 Yagnik Jay N Method and apparatus for automatically summarizing video
JP2008022441A (ja) * 2006-07-14 2008-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
JP2008312215A (ja) * 2007-06-18 2008-12-25 Sony (China) Ltd 映像解析装置、映像解析方法、ダイジェスト自動作成システム及びハイライト自動抽出システム
JP2012074759A (ja) * 2010-09-27 2012-04-12 Toshiba Corp コンテンツ要約装置およびコンテンツ要約表示装置
US20130336590A1 (en) * 2012-05-03 2013-12-19 Stmicroelectronics S.R.L. Method and apparatus for generating a visual story board in real time
CN103413330A (zh) * 2013-08-30 2013-11-27 中国科学院自动化研究所 一种复杂场景下可靠的视频摘要生成方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岡本啓嗣 他: "固定長の時空間画像に基づく映像クラスタリング", 第63回(平成13年後期)全国大会講演論文集(2), JPN6020037644, 24 September 2013 (2013-09-24), pages 2 - 53, ISSN: 0004517754 *
福里 司、外3名: "アニメ作品におけるキーフレーム自動抽出に基づく映像要約手法の提案", 画像電子学会誌, vol. 第42巻,第4号, JPN6018012563, 24 September 2013 (2013-09-24), JP, pages 448 - 456, ISSN: 0004517753 *

Also Published As

Publication number Publication date
EP3267693B1 (en) 2023-05-24
CN106664467A (zh) 2017-05-10
CN106664467B (zh) 2019-09-17
JP6961648B2 (ja) 2021-11-05
US20170330040A1 (en) 2017-11-16
CN107529098A (zh) 2017-12-29
EP3189667A4 (en) 2018-03-28
US20160070963A1 (en) 2016-03-10
WO2016036460A1 (en) 2016-03-10
US9639762B2 (en) 2017-05-02
EP3267693A1 (en) 2018-01-10
JP2017225174A (ja) 2017-12-21
CN107529098B (zh) 2021-09-03
JP2017526086A (ja) 2017-09-07
EP3189667A1 (en) 2017-07-12
US10755105B2 (en) 2020-08-25
US20170286777A1 (en) 2017-10-05
JP6472872B2 (ja) 2019-02-20

Similar Documents

Publication Publication Date Title
JP6472872B2 (ja) リアル・タイム・ビデオ要約
US9727786B2 (en) Visual object tracking system with model validation and management
KR101717915B1 (ko) 동적 생성 그래픽 자원들에 대한 압축 기술들
US10210180B2 (en) Hybrid nearest neighbor search tree with hashing table
JP6109956B2 (ja) ビデオコンテンツを前処理するエンコーダハードウェアの活用
TW201433162A (zh) 電子裝置及其影像選擇方法
EP3213256B1 (en) Global matching of multiple images
WO2021093499A1 (zh) 图像处理方法及装置、存储介质和电子设备
KR20130115341A (ko) 제스쳐 인식 메커니즘을 제공하는 방법 및 장치
US10296605B2 (en) Dictionary generation for example based image processing
TW202301266A (zh) 自動內容相關影像處理演算法選擇的方法及系統
JP6005292B2 (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ
JP6412530B2 (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ
US20240111572A1 (en) Dynamic heterogeneous task processing
JP2017184262A (ja) ビデオ符号化及び復号のためのヒストグラム分割ベースのローカル適応フィルタ
CN112911186A (zh) 图像存储方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R150 Certificate of patent or registration of utility model

Ref document number: 6961648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150