JP2018056990A - ビデオフレームを選ぶための方法、システム、および装置 - Google Patents

ビデオフレームを選ぶための方法、システム、および装置 Download PDF

Info

Publication number
JP2018056990A
JP2018056990A JP2017180397A JP2017180397A JP2018056990A JP 2018056990 A JP2018056990 A JP 2018056990A JP 2017180397 A JP2017180397 A JP 2017180397A JP 2017180397 A JP2017180397 A JP 2017180397A JP 2018056990 A JP2018056990 A JP 2018056990A
Authority
JP
Japan
Prior art keywords
frames
video
video sequence
sampling
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017180397A
Other languages
English (en)
Other versions
JP6550109B2 (ja
Inventor
チャン サミー
Sammy Chan
チャン サミー
ロバート ボアハム イアン
Ian Robert Boreham
ロバート ボアハム イアン
ミン レオン カ
Ming Leung Ka
ミン レオン カ
ロナルド テインシュ マーク
Ronald Tainsh Mark
ロナルド テインシュ マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2018056990A publication Critical patent/JP2018056990A/ja
Application granted granted Critical
Publication of JP6550109B2 publication Critical patent/JP6550109B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶための方法を提供する。
【解決手段】ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定する。ビデオシーケンスの中のフレームの第1のセットは、第1のサンプリングパターンを用いてサンプリングされる。フレームは、第1のサンプリングパターンに従って、ビデオシーケンス全体にわたって低頻度でサンプリングされる。候補フレームが、サンプリングされたフレームから画質に基づいて決定される。決定された候補フレームの近くの狭い範囲のビデオシーケンス中のフレームの1以上を含むフレームの第2のセットが、第2のサンプリングパターンに応じて決定される。サンプリングされたフレームから画質に基づいてビデオフレームの少なくとも1つが選択される。
【選択図】図4

Description

本発明は、一般に画像処理および、特にビデオシーケンスのビデオフレームを選ぶための方法、システム、および装置と関連する。本発明はまた、ビデオシーケンスのビデオフレームを選ぶためのコンピュータプログラムを記録したコンピュータ読取り可能媒体を含むコンピュータプログラム製品と関連する。
ビデオは、シーンまたは展開するイベントを捕らえる効果的な方法である。人はしばしば誕生会、結婚式、旅行、およびスポーツイベントのためにビデオシーケンスを記録する。静止画像と違って、ビデオは、特定の自然な表情および人間の交流(例えば会話、微笑み合い、キス、抱擁、握手)などの、展開していく非構造化イベントを記録する利点を持っている。静止画像が使われるのと同じ方法でディスプレイのために又は出版された本の内容として使用するために、ビデオフレームのシーケンスから個々のフレームを選ぶことが多くの場合に望ましい。
携帯電話および他の消費者指向のカメラデバイスの需要とアクセスしやすさを増大させることによって、より多くのビデオデータが撮影され、保存されている。印刷またはディスプレイのための選択の候補であるビデオシーケンスのフレームの数は多いため、ビデオは問題になる。10分のビデオは1万8000フレームを持つことがある。
フレーム選択のためのよくある状況は、ユーザが、多数のビデオシーケンスを選び、印刷またはディスプレイのためのフレームを選択するよう、選択システムに、選択されたビデオシーケンスを処理することを要求する、というものである。一例は、ユーザが特定の年の内に記録したビデオシーケンスのセットを提供し、選ばれたビデオシーケンスから選ばれたフレームで作成されたその年のフォトブックを要求することである。ユーザは、選択システムが直ちに動作することを期待している。ユーザは、例えば、1時間の長さのビデオシーケンスのセットを選択システムプロセスが10分未満で処理すると期待するかもしれない。その様な期待は、処理システムがパーソナルコンピュータまたはモバイル機器である能性がある場合には難題である。
本発明の目的は、既存の構成の少なくとも一つの不利益を実質的に克服するか、少なくとも改善することである。
本開示の一側面によると、複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶ方法が提供され、前記方法は、
前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定し、
決定された前記解析時間に基づいて第1のサンプリングパターンを決定し、
前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングし、
サンプリングされた前記フレームから画質に基づいて候補フレームを決定し、
第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の前記フレームの1以上を含む前記フレームの第2のセットをサンプリングし、
サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択する。
本開示の他の一側面によると、複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶ装置が提供され、前記装置は、
前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定する手段と、
決定された前記解析時間に基づいて第1のサンプリングパターンを決定する手段と、
前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングする手段と、
サンプリングされた前記フレームから画質に基づいて候補フレームを決定する手段と、
第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の前記フレームの1以上を含む前記フレームの第2のセットをサンプリングする手段と、
サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択する手段とを有する。
本開示のさらに他の一側面によると、複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶシステムが提供され、前記システムは、
データ及びコンピュータプログラムを含むメモリと、
前記コンピュータプログラムを実行するために前記メモリと結合されたプロセッサとを含み、前記コンピュータプログラムは、
前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定し、
決定された前記解析時間に基づいて第1のサンプリングパターンを決定し、
前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングし、
サンプリングされたフレームから画質に基づいて候補フレームを決定し、
第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の前記フレームの1以上を含む前記フレームの第2のセットをサンプリングし、
サンプリングされた前記フレームから画質に基づいてビデオフレームの少なくとも1つを選択する命令を有する。
本開示のさらに他の一側面によると、複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶプログラムが提供され、前記プログラムは、
前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定するコードと、
決定された前記解析時間に基づいて第1のサンプリングパターンを決定するコードと、
前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングするコードと、
サンプリングされた前記フレームから画質に基づいて候補フレームを決定するコードと、
第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の前記フレームの1以上を含む前記フレームの第2のセットをサンプリングするコードと、
サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択するコードとを含む。
本開示のさらに他の一側面によると、複数のビデオフレームを含むビデオシーケンスから少なくとも1つのビデオフレームを選ぶプログラムが提供され、前記プログラムは、
第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングするコードと、
サンプリングされた前記フレームから画質に基づいて候補フレームを決定するコードと、
第2のサンプリングパターンに応じて、前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の1以上の前記フレームを含む前記フレームの第2のセットをサンプリングするコードと、
サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択するコードとを有する。
他の側面もまた開示される。
本発明の1つ以上の実施形態が、以下の図を参照してこれから説明されるであろう。
説明された装置が実施され得る汎用コンピュータの概略ブロック図を形成する。 入力されたビデオシーケンスのセットの少なくとも1つのビデオフレームを選ぶ方法を示す概略フローダイアグラムである。 ビデオシーケンスの少なくとも1つのビデオフレームを選ぶ方法を示す概略フローダイアグラムである。 図4の方法において用いられる初期のビデオ処理およびサンプリング戦略を決定する方法を示す概略フローダイアグラムである。 図4の方法において用いられるフレームのリストを決定し、品質解析を実行する方法を示す概略フローダイアグラムである。 図4の方法において用いられる候補フレームを決定する方法を示す概略フローダイアグラムである。 図4の方法において用いられるサンプルフレームを解析する方法を示す概略フローダイアグラムである。 図4の方法において用いられるフレームを選ぶ方法を示す概略フローダイアグラムである。 38の復号済みフレームを2つのセグメントに分けるシーケンスを示す。 潜在的候補フレームとみなされる十分な品質を有する3つのサンプルフレームを示す。 解析されるサンプルフレームの数が4つに設定された例を示す。
添付図面のいずれか1つ以上において、同じ参照番号を有するステップおよび/または機構に言及する場合、それらのステップおよび/または機構は本明細書の目的のために、反対の意図が現れない限り同じ機能または動作を有する。
手動でビデオシーケンスのフレームを選ぶことはコレクションから画像を選ぶことよりも長い時間が掛かる。完全自動選択方法が、完全な選択をするために必要である。代わりに、部分的に自動的な選択方法が、初期の選択をするため、または可能性のある選択のフィルタをかけられたセットを少なくとも提供するために必要とされることもある。ビデオシーケンスの望ましいフレームを選ぶためにビデオシーケンスを解析することは処理集中的なタスクである。ビデオシーケンスの望ましいフレームを選ぶための、ビデオシーケンスを解析する高速で有効な方法が必要とされている。
複数のビデオフレームを含むビデオシーケンスの望ましいビデオフレームを選ぶための方法は以下で説明される。この方法は処理能力が制限されたパーソナルコンピュータ或いはモバイル機器のようなシステムに実装されてもよい。これらのシステムは、フレーム選択のために直ちにビデオシーケンスのすべてのフレームを処理することが可能ではない。この説明された方法は、印刷または表示のためのフレームの効率的な選択を可能にする処理のために潜在的に望ましいビデオシーケンスのビデオフレームのサブセットを決定する。
図1および図2は、上述した様々な構成を実行できる汎用コンピュータシステム100を示す。
図1において見られるように、コンピュータシステム100は、コンピュータモジュール101、キーボード102、マウスポインタデバイス103、スキャナ126、カメラ127、およびマイクロホン180などの入力装置、およびプリンタ115、表示装置114、および拡声器117を含む出力装置、を含む。外部変復調装置(モデム)トランシーバデバイス116は、接続121経由で通信ネットワーク120に(から)通信するためにコンピュータモジュール101によって使用することができる。通信ネットワーク120は、インターネット、セルラ通信ネットワーク、またはプライベートWANなどの広域ネットワーク(WAN)であってよい。接続121が電話回線である場合、モデム116は伝統的な「ダイヤルアップ」モデムであっよい。代わりに、接続121が高容量(例えばケーブル)接続である場合、モデム116はブロードバンドモデムであってよい。無線モデムはまた通信ネットワーク120との無線接続のために使うことができる。
コンピュータモジュール101は一般に少なくとも1つプロセッサユニット105とメモリユニット106とを含む。例えば、メモリユニット106は半導体ランダムアクセスメモリ(RAM)と半導体読出し専用メモリ(ROM)を有することがある。コンピュータモジュール101はまた、ビデオディスプレイ114と拡声器117とマイクロホン180とを結合するオーディオビデオインターフェイス107と、キーボード102とマウス103とスキャナ126とカメラ127とオプションでジョイスティックまたは他のヒューマンインターフェイスデバイス(不図示)とを接続する入出力インターフェイス113と、外部変復調装置116とプリンタ115のためのインターフェイス108と、を含む多数の入出力(I/O)インターフェイスを含む。いくつかの実装において、モデム116はコンピュータモジュール101の内部、例えばインターフェイス108の内部に含まれていてもよい。コンピュータモジュール101はまた、ローカルエリアネットワーク(LAN)として知られているローカルエリア通信ネットワーク122にコネクション123経由でコンピュータシステム100が接続できるローカルネットワークインターフェイス111を有する。図1において説明されるように、ローカル通信ネットワーク122はまた、広域ネットワーク120にコネクション124経由で接続してもよい(それは一般にいわゆる「ファイアウォール」デバイスまたは同様な機能性のデバイスを含むであろう)。ローカルネットワークインターフェイス111は、イーサネット回路カード、Bluetooth(登録商標)、無線装置、またはIEEE802.11無線装置を含んでもよい。しかし、たくさんの他のタイプのインターフェイスがインターフェイス111のために実施されてもよい。
コンピュータモジュール101はまた、イメージの作成を早めるために、メモリ(例えばメモリ106)を操作し、変更するためのグラフィクスプロセッサ171を含む。プロセッサ174はコネクション172を用いてバス104に接続される。
入出力インターフェイス108および113は、シリアルおよびパラレル接続性のどちらかまたは両方を与えることができ、一般に前者はユニバーサルシリアルバス(USB)標準に従って実施され、対応するUSBコネクタ(不図示)を有する。記憶デバイス109が提供され、一般に、ハードディスクドライブ(HDD)110を含む。フロッピーディスクドライブおよび磁気テープドライブ(不図示)などの他の記憶装置もまた使われてよい。光ディスクドライブ112は、一般に、不揮発性のデータソースとして作動するために提供される。例えば、たとえば、光ディスク(例えばCD−ROM、DVD、ブルーレイディスク(登録商標))、USB−RAM、携帯型外付けハードドライブ、およびフロッピィディスクなどの携帯型メモリ装置は、システム100への適切なデータソースとして使うことができる。
コンピュータモジュール101の構成部品105〜113は一般的に、相互接続されたバス104を介して、当業者に知られた、コンピュータシステム100の動作の従来のモードをもたらすやり方で通信する。例えば、プロセッサ105はコネクション118を用いてシステムバス104に接続される。同様に、メモリ106と光ディスクドライブ112はコネクション119によってシステムバス104に接続される。説明した装置を実施できるコンピュータの例はIBM−PCと互換機、サンのSparcstations、アップルのMac(登録商標)、または同様なコンピュータシステムを含む。
説明する方法は、コンピュータシステム100を用いて実施でき、説明する図3〜図10のプロセスが、コンピュータシステム100内部で実行可能な1つ以上のソフトウェアアプリケーションプログラム133として実施できる。特に、説明する方法のステップは、コンピュータシステム100内で実行されるソフトウェア133の命令131(図2参照)により達成される。ソフトウェア命令131は、それぞれが1つ以上の特定のタスクを実行するための1つ以上のコードモジュールとして形成できる。ソフトウェアはまた2つの別個の部分に分割されてもよく、そこにおいて、第1の部分および対応するコードモジュールは説明した方法を実行し、第2の部分および対応するコードモジュールは第1の部分とユーザとの間のユーザインターフェイスを管理する。
ソフトウェアは、例えば以下で説明されるメモリデバイスを含むコンピュータ読取り可能媒体の中に記憶されてもよい。ソフトウェア133は一般にHDD110またはメモリ106の中に記憶される。ソフトウェアはコンピュータ読取り可能媒体からコンピュータシステム100の中にロードされ、それからコンピュータシステム100によって実行される。従って、例えばソフトウェア133は、光ディスクドライブ112によって読まれる光学的に読取り可能のディスク記憶媒体(例えばCD−ROM)125上に記憶できる。コンピュータ読取り可能媒体に記録されたそのようなソフトウェアまたはコンピュータプログラムを有するコンピュータ読取り可能媒体はコンピュータプログラム製品である。コンピュータシステム100におけるコンピュータプログラム製品の使用は、好適には、説明する方法を実施するための有利な装置をもたらす。
場合によっては、アプリケーションプログラム133は1つ以上CD−ROM125上で符号化されてユーザに供給され、対応するドライブ112経由で読まれてよいし、代わりに、ネットワーク120または122からユーザによって読まれてもよい。さらにまた、ソフトウェアはまた、他のコンピュータ読取り可能媒体からコンピュータシステム100中にロードされてもよい。コンピュータ読取り可能記憶媒体は、実行および/または処理のために、記録された命令および/またはデータをコンピュータシステム100に提供する任意の非一時的有形記憶媒体を参照する。そのような記憶媒体の例は、フロッピィディスク、磁気テープ、CD−ROM、DVD、ブルーレイ(登録商標)ディスク、ハードディスクドライブ、ROMまたは集積回路、USBメモリ、光磁気ディスク、またはPCMCIAカードなどのコンピュータ読取可能カードを含み、それらのデバイスがコンピュータモジュール101の内部または外部であるかどうかにかかわらない。コンピュータモジュール101へのソフトウェア、アプリケーションプログラム、命令および/またはデータの提供にも関与できる一時的または非有形的コンピュータ読取可能転送媒体の例は、無線または赤外線伝送チャネルのほかに、他のコンピュータまたはネットワークデバイスへのネットワーク接続、および、電子メール送信およびウェブサイトなどに記録された情報を含むインターネットまたはイントラネットも含む。
ディスプレイ114上に描画されるか又は別のやり方で表現される1つ以上のグラフィカルユーザインターフェイス(GUI)を実装するために、上述したアプリケーションプログラム133の第2の部分および対応するコードモジュールを実行することができる。一般にキーボード102とマウス103の操作を通して、コンピュータシステム100のユーザおよびアプリケーションは、GUIと関連づけられたアプリケーションにコントロールコマンドを提供するために、および/または入力をするために、機能的に適応可能な方法でインターフェイスを操作することができる。拡声器117を用いて出力される音声プロンプトおよびマイクロホン180を用いて入力されるユーザ音声コマンドを利用しているオーディオインターフェイスなどの機能的に適応可能なユーザインターフェイスの他の形も実装できる。
図2はプロセッサ105と「メモリ」134の詳細概略ブロック図である。メモリ134は、図1中のコンピュータモジュール101によってアクセスできるすべてのメモリモジュール(HDD109と半導体メモリ106とを含む)の論理的な集合体を表している。
コンピュータモジュール101が最初パワーアップされるときに、パワーオンセルフテスト(POST)プログラム150が実行される。POSTプログラム150は一般に図1の半導体メモリ106のROM149中に記憶される。ソフトウェアを記憶しているROM149などのハードウェアデバイスは時にファームウェアと称される。適切な機能を保証するために、POSTプログラム150はコンピュータモジュール101中でハードウェアを検査し、一般に、プロセッサ105、メモリ134(109、106)、および基本入出力システムソフトウェア(BIOS)モジュール151(これも一般にROM149に記憶される)を、正しい動作のためにチェックする。POSTプログラム150が首尾よく動いたら、BIOS151は図1のハードディスクドライブ110を起動させる。ハードディスクドライブ110の起動は、ハードディスクドライブ110上に常駐するブートストラップローダプログラム152をプロセッサ105を用いて実行させる。これによりRAMメモリ106にオペレーティングシステム153をロードし、そこでオペレーティングシステム153が動作を開始する。オペレーティングシステム153は、プロセッサ管理、メモリ管理、デバイス管理、記憶管理、ソフトウェアアプリケーションインターフェイス、および一般的なユーザインターフェイスを含む様々な高レベル機能を果たすためにプロセッサ105によって実行可能なシステムレベルアプリケーションである。
コンピュータモジュール101上で実行される各プロセスまたはアプリケーションが、別のプロセスに割り当てられたメモリと衝突することなく実行されるための十分なメモリを有することを保証するために、オペレーティングシステム153はメモリ134(109、106)を管理する。さらに、各プロセスが効果的に実行できるように、図1のシステム100において使用可能なさまざまなタイプのメモリが適切に使われなければならない。それによって、統合されたメモリ134は、メモリの特定のセグメントがどのように割り当てられるかを示すことを意図されておらず(違った形で述べられない限り)、むしろコンピュータシステム100によってアクセス可能なメモリの全体図を提供することを意図している。
図2に示すように、プロセッサ105は、制御ユニット139、算術論理演算ユニット(ALU)140、および時にキャッシュメモリと呼ばれるローカルまたは内部メモリ148を含む多くの機能モジュールを含む。キャッシュメモリ148は一般にレジスタ部の中に多くの記憶レジスタ144−146を含む。1つ以上の内部バス141は機能的にこれらの機能モジュールを相互接続する。コネクション118を用いてシステムバス104経由で外部デバイスと通信するために、プロセッサ105は一般に1つ以上インターフェイス142も持っている。メモリ134はコネクション119を用いてバス104に接続される。
アプリケーションプログラム133は、条件付き分岐およびループ命令を含み得る命令シーケンス131を含む。プログラム133は、プログラム133の実行において用いられるデータ132も含むことがある。命令131とデータ132は記憶場所128、129、130、および135、136、137にそれぞれ記憶される。命令131の相対的なサイズと記憶場所128−130に依存して、記憶場所130内に示された命令によって示されるように、個別の命令が1つの記憶場所に記憶されてもよい。代わりに、命令は、記憶場所128と129において示された命令セグメントによって示されるように、それぞれが別個の記憶場所に記憶される多くの部分に分割されてもよい。
一般に、プロセッサ105は、その中で実行される命令セットを与えられる。プロセッサ105はその後の入力を待ち、その入力に対してプロセッサ105が別の命令セットを実行することによって反応する。各入力は、多くのソースのうちの1以上から提供され、入力デバイス102、103のうちの1以上によって生成されるデータ、ネットワーク120、102の1つを超えて外部ソースから受信したデータ、記憶デバイス106、109の1つから検索したデータ、または、対応するリーダ112に挿入された記憶媒体125から検索されたデータを含み、すべて図1に描かれている。命令セットの実行は場合によってはデータの出力を生じることがある。実行はまた、メモリ134にデータまたは変数を記憶することを伴うことがある。
開示された装置は入力変数154を使用し、それは対応する記憶場所155、156、157内のメモリ134に記憶される。開示された装置は、出力変数161を生み出す。それは、対応する記憶場所162、163、164内のメモリ134に記憶される。中間変数158は記憶場所159、160、166、および167内に記憶できる。
図2のプロセッサ105を参照して、プログラム133を構成している命令セットの中で、すべての命令に対して「フェッチ−デコード−実行」サイクルを遂行するために必要なマイクロオペレーションのシーケンスを遂行するために、レジスタ144、145、146、算術論理演算ユニット(ALU)140、および制御ユニット139は協働する。各フェッチ−デコード−実行サイクルは以下を含む:
記憶場所128、129、130から命令131をフェッチするか或いは読むフェッチオペレーション、
制御ユニット139が、どの命令がフェッチされたを判定するデコードオペレーション、
制御ユニット139および/またはALU140が命令を実行する実行オペレーション。
その後、次の命令のためのさらなるフェッチ−デコード−実行サイクルが実行されてもよい。同様に、制御ユニット139が記憶場所132に値を記憶するかまたは書き込む記憶サイクルが実行されてもよい。
図1及び図2のプロセスの中の各ステップまたはサブプロセスはプログラム133の1つ以上のセグメントと関連づけられ、プログラム133の上記セグメントに関する命令セットの中のすべての命令のためのフェッチ−デコード−実行サイクルを遂行するために協働しているプロセッサ105内のレジスタ部144、145、147、ALU140、および制御ユニット139によって実行される。
説明する方法は代わりに、携帯電話、携帯型メディアプレーヤ、またはデジタルカメラなど汎用電子装置上で実行されてもよい(その中では処理リソースは制限される)。
説明する方法は代わりに、説明する方法の機能またはサブ機能を実行している1つ以上の集積回路などの専用のハードウェアで実施されてもよい。そのような専用のハードウェアは、グラフィックプロセッサ、信号処理プロセッサまたは、1つ以上のマイクロプロセッサおよび結合したメモリを含んでもよい。
図3は、入力された1セットのビデオシーケンスの少なくとも1つのビデオフレームを選ぶ方法300を示すフローダイアグラムである。方法300は自動選択方法と称されてもよい。
方法300のひとつのアレンジメントにおいて、時間バジェットが、入力セットの中のビデオシーケンスのそれぞれを処理するために決定される。時間バジェットはビデオシーケンスの解析のための時間を表している。時間バジェットは、ビデオシーケンスの長さとコンピュータモジュール101などの実行デバイスの処理能力とに基づいて決定されてもよい。時間バジェットを割り当てることは、処理が直ちに実行されて、方法300の応答性がよいことを保証する。
方法300は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実行できる。
方法300は決定ステップ310で始まり、そこでは方法300の処理ステップの実行におけるコンピュータシステム100の性能特性が、プロセッサ105の実行の下で決定される。例えば、システム100中のグラフィクスプロセッサ171の存在をステップ310で検出してもよい。そのようなグラフィクスプロセッサ171はビデオシーケンスのデコーディングと品質解析の両方の速度を上げる。プロセッサ105のタイプだけでなくグラフィクスプロセッサ171の可用性およびそのタイプに関する知識により、特定の時間バジェット内でデコードされ、解析され得るサンプルフレームの数の計算ができる。
代わりのアレンジメントにおいては、ステップ310は必要なく、性能特性はオペレーティングシステム153によって固定されている。例えば、いくつかのモバイル機器は固定された動作環境を持っている。
ステップ310には決定ステップ320が続き、そこでは、プロセッサ105の実行の下で、デフォルトの処理時間バジェットが、入力された1セットのビデオシーケンスの個々のビデオシーケンスのために決定される。
用語デコーディングは、圧縮されたビデオファイルからビデオフレーム(例えばジョイントフォトグラフィックエキスパートグループイメージ(JPEG))のピクセル表現を生み出すことを指す。デコーディングによるシステム100への要求は高い。
用語品質解析は、着目する画質および内容についてフレームを解析することを指す。品質の要素は以下のものを含んでよいがそれに限られない。
・顔の特徴−数、位置、サイズ、相対的なサイズ、切り取り状態、瞬き状態、注視方向、および微笑み状態、
・ピクセルの特徴−先鋭度、露光、および色の彩度、
・意味的な特徴−誕生日のろうそくを吹き消すことなど型通りのシーンの存在、共通の顔を認識すること、ペットを認識すること、関係を認識すること。
上述した品質の要素を使って、顔認識、表情認識、瞬き認識、注視方向、先鋭度、露光、彩度、型通りのシーンの存在、特定の人物の識別、ペットの識別、および関係の識別の少なくとも1つに基づいて画質が決定されてもよい。
品質解析によるシステム100への要求は高い。解析の出力は、品質「スコア」または以前にリストにされた品質の要素のコンビネーションから導き出された1セットの品質スコアである。一例において、品質スコアに達するために重みが各品質の要素に割り付けられてもよい。
ここで述べるように、サンプルフレームは、品質について解析されたデコード済みフレームとして定義される。
ステップ320に戻り、処理バジェットは、方法300が実行されるのにかかるであろう時間を定義する。すべてのビデオシーケンスの上で結合された処理バジェットは特定のシステム目標によって設定できる。システム目標の例は例えば以下のものを含んでよい。
・方法300は5分以内に完了しなければならない、
・方法300は結合されたビデオ持続時間の10分の1以内で完了しなければならない。
方法300に対する時間的制約は、個別のビデオシーケンスに割る振ることができる。ひとつのアレンジメントにおいて、時間的制約は、ビデオの長さに基づいて個々のビデオシーケンスに比例的に割り付けてよい。代わりに、ビデオシーケンス各々の中ではサンプルフレームの最小数が要求され、それから残りのサンプルフレームがビデオシーケンスに比例配分されてよい。
上述したように、フレームのデコードおよび品質解析によるシステム100のような処理システムに対する要求は高い。他のアレンジメントにおいては、個々のビデオシーケンスに課される処理バジェットは、ビデオシーケンスの中でサンプリングされるであろうフレームの最大数に設定されてもよい。代わりのアレンジメントにおいては、処理バジェットは、サンプリング対象のフレームの最大数および、ビデオシーケンス中でデコード対象のフレームの最大数に設定されてよい。ビデオシーケンス処理に課された他の制約があってもよく、それは、デコードされるP(前方予測された)及びB(双方向予測された)インターフレームなどの非Iフレームの最大数などの項目を含み得る。
ステップ320には選択ステップ330が続き、そこではプロセッサ105の実行の下で、個々のビデオシーケンスから少なくとも1フレームが選択される。ステップ320への入力は処理バジェット及び望ましいフレームが選択されるビデオシーケンスである。ステップ330で実行されたとき、ビデオシーケンスの少なくとも1フレームを選択する方法400は、図4を参照して以下に詳述される。
判定340において、処理対象の残りのビデオシーケンスがあれば、その場合には方法300はステップ350に進む。さもなければ、方法300は終了する。
ひとつのアレンジメントにおいて、ステップ330での個々のビデオシーケンスの処理の後、隣接するステップ350において、ステップ330で割り付けられた処理バジェットの使いすぎか或いは使い足りないかに基づいて、残りのバジェットが再評価される。ステップ320で実行された同じ方法がステップ350でも適用できる。
入力されたビデオシーケンスのセットの少なくとも1つのビデオフレームを選択する方法300は説明したが、ステップ330で実行されたときに入力ビデオシーケンスの少なくとも1つのビデオフレームを選択する方法400を、これから図4を参照して詳細に説明する。
方法400は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実行できる。
方法400は、2つ以上のパス(多重パスサンプリング)中のビデオシーケンスのビデオフレームのサンプルを選択し、サンプリングされたフレームから印刷または表示のために最も望ましいフレームを選ぶ。
既存の方法は、例えばフレーム間の色差から導出されるアクティビティによって決定されたサンプリングパターンを用いてサンプリングされたフレームを利用する。方法400は、ビデオフレームのサンプルを選択するための目標とされた方法を提供し、その方法は、潜在的な選択可能なフレームを識別することにおいて、既存の方法よりもより効率的で、より効果的である。
方法400はステップS320に関連して前述した処理バジェットとともに提供される。
処理ステップ410において、プロセッサ105の実行の下で、処理バジェットが、初期処理及びフレームサンプリング戦略を決定するために使用される。初期処理およびフレームサンプリング戦略は、メモリ106に記憶してよい。
フレームサンプリング戦略は、ビデオシーケンスのビデオフレームをデコードするサブステップ、対応するタイプのセグメント中で利用されるフレームサンプリング密度を判定するためのビデオシーケンスの静的セグメントおよび動的セグメントを決定するサブステップ、およびビデオシーケンスの一連のパスの中で起こるサンプリングの量を決定するサブステップを用いて、ステップ410で決定されてもよい。静的部分および動的部分へのビデオシーケンスの分割はプロセッサ105の実行の下でステップ410で起きてもよい。以下で説明されるように、ビデオシーケンスの静的部分および動的部分の決定は、離れた期間におけるフレーム間の色差の量に基づいてよい。ステップ410で実行されたとき、ビデオシーケンスのための初期ビデオ処理およびサンプリング戦略を決定する方法500は、図5を参照して以下に詳述される。
最初のステップ410には、第1のパスサンプリングステップ420を実行するステップが続く。ステップ420において、プロセッサ10による実行の下で、第1のサンプリングパターンが、ステップ410で決定された解析のための処理バジェットに基づいて決定される。サンプリングするビデオシーケンスのフレームは、ステップ410で提供されたサンプリング密度を含む考慮に基づいてステップ420で決定される。ステップ420で決定されたフレームは、決定された第1のサンプリングパターンを使ってサンプリング対象のフレームの第1のセットを成形する。フレームは、第1のサンプリングパターンに従って、ビデオシーケンス全体にわたって低頻度でサンプリングされてよい。さらに、フレームのサンプリングは、ビデオシーケンスの動的な部分においてより頻繁で、ビデオシーケンスの静的な部分においてあまり頻繁でなくてよい。
またステップ410において、品質解析が、ステップS410で決定されたフレーム上で実行される。ステップ410で実行されるような、フレームを決定し品質解析を実行する方法600は、図6を参照して以下に詳述される。
ステップ420にはステップ430が続き、そこでは、プロセッサ105の実行の下で、ステップ420でサンプリングされたフレームからビデオシーケンスの候補フレームが決定される。候補フレームは十分に高品質のサンプリング済みフレームである。候補フレームは、近くのフレームのよりいっそうの高品質の可能性という理由から、ビデオシーケンスのその後のサンプリングパスの中でのサンプリングのために、ビデオシーケンスの近くのフレームを選択するために使用されるインジケータである。候補フレームは画質に基づいてステップ430で決定される。ステップ430は、以前のパスサンプルを使用して、最も選択可能でありそうで、かつ次のパスでサンプリングする価値があるフレームを予測するために、他の従来の方法よりも高い利点を提供する。より高品質のフレームの可能性がより高いところでのサンプリングが目標とされるので、選択をするために十分なサイズと品質のプールを決定するために少ないフレーム数でサンプリングされる必要がある。結果として、処理はより効率的で、代わりの方法より時間がかからない。
候補フレームを決定することにおける考慮は以下を含む:現在のパスの中で割り当てられるサンプルフレームの数、サンプリングされたフレームの品質スコア、サンプルフレームの中の多様性についての要件。ステップ430で実行されるような、候補フレームを決定する方法700は、図7を参照して以下でより詳細に説明されるであろう。
ステップ430の後に次のパスサンプリングステップ440が続き、そこでは、サンプルフレームの別のセット(例えば第2のセット)が第2のサンプリングパターンに従って決定されて、解析される。ステップ440で決定されたフレームのセットは、決定された候補フレームの近くの狭い範囲のビデオシーケンスにおいて1つ以上のフレームを含む。ステップ440で選ばれたサンプルフレームはステップ430で決定された候補フレームに近い。第2のサンプリングパターンは、候補フレームと比較したビデオシーケンスの中の近くのフレームの類似に基づく。
対応する候補フレームへの類似性が高いフレームはステップ430でサンプルフレームとして除外してよい。ステップ430で、追加のフレームは、ステップ440でサンプルフレームとして使用されるためにデコードされてよい。サンプルフレームがステップ430で選ばれた後に、選ばれたサンプルフレームの上で品質解析が実行される。ステップ440で実行されるようなサンプルフレームを解析する方法800は、図8を参照して以下でより詳細に説明される。
ステップ440の後に、判定ステップ450が続き、そこでは、さらなるサンプルパスが実行されることになっているなら、方法400はステップ460に進む。さもなければ、方法400はステップS460に進む。方法400の中で実行されたサンプルパスの数はステップ410で出力されたサンプリング戦略によって指定できる。例えば、2パスだけが指定されるならば、ステップ450における決定は否になるであろうし、それから、方法400は選択ステップ460に進む。さもなければ、2パスより多くが指定されるならば、ステップ430および440を繰り返すために、方法400はステップ430に戻る。
代わりのアレンジメントにおいては、ステップ410で決定された処理バジェットの中に解析のための処理時間が残存しているならば、パス数が、ステップ410で出力されたサンプリング戦略によって設定されたパス数を越えていても、ステップ430と440は繰り返されるであろう。
選択ステップ460で、ステップ440またはステップ420で決定されたフレームのセットのビデオフレームの少なくとも1つは、プロセッサ105の実行の下で、画質に基づいて、印刷または表示のために選択される。印刷または表示のためのフレームは高品質のサンプルフレームからステップ460で選ばれる。選択は、高い画質スコアを持つサンプリングされたフレームからステップ460で行われる。フレームは、ステップ420において第1のサンプリングパターンを用いて、またはステップ440において第2のサンプリングパターンを用いてサンプリングされていてよい。サンプリングされたフレームが高い画質スコアを持っている限り、選択は、どのサンプリングパターンが使われるかに無関係である。例えば、高画質のフレームはステップ420でサンプリングされるかもしれず、その後にステップ440でサンプリングされたフレームは低画質である。そのような例においては、ステップ420でサンプリングされたフレームがステップ460で選ばれるであろう。
ほぼ複製のフレームはステップ460で考慮されず、多様性は、ビデオシーケンスの異なるセグメントからサンプルフレームを選ぶことによってもたらされる。ステップ460で実行されるような、印刷または表示のためのフレームの選択方法900は、図9を参照して以下で詳細に説明されるであろう。
入力されたビデオシーケンスから少なくとも1つのビデオフレーム(例えば望ましいビデオセグメントまたはフレーム)を選ぶための方法400を説明したが、ステップ410で実行されるような初期のビデオ処理とサンプリング戦略を決定する方法500が、これから図5を参照して詳細に説明されるであろう。
方法500は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実装できる。
上述したように、ステップ320への入力は、処理バジェット及び、望ましいフレームが選択されるビデオシーケンスである。方法500は、ステップS320におけるように処理バジェットとともに提供される。ステップ320で使用される処理バジェットは、サンプリング対象のフレームの推定最大数として定義される。代わりに、処理バジェットは、サンプリング対象のフレームの最大数および、デコード対象のフレームの最大数の両方として定義されてもよい。
方法500はデコーディングステップ510で開始され、そこでは、プロセッサ105の実行の下で、入力ビデオシーケンスのビデオフレームがデコードされる。システム100は、入力ビデオシーケンスのビデオフレームのデコードで利用するためにアプリケーションプログラミングインターフェイス(API)を含んでもよい。全ての適したAPIをビデオフレームをデコードするために利用できる。移動デバイスなどの他の環境は、ビデオフレームのデコードで利用するためのデコーダを有してもよい。代わりに、デコーダは、例えばネットワーク120を渡ってダウンロードしてもよい。デコーダの一例はFFmpegライブラリであり得る。
ひとつのアレンジメントにおいては、ステップ510で決定された各デコード済みフレームはJPEGファイルまたはgif,tiffを含む代わりのタイプの画像ファイルである。代わりのアレンジメントにおいては、ステップ510の出力はメモリ110に保持されたビットマップ画像であってよい。
上述したように、10分の長さのビデオシーケンスは一般的に18000フレームを持つ。デコーディングはプロセッサ集中タスクであり、それなので総ビデオシーケンス時間が短くない限り、すべてのフレームをデコードすることができない可能性がある。従って通常はフレームのサブセットがデコードされるであろう。1つの効率的なアレンジメントにおいては、方法500はビデオシーケンスのIフレームだけをデコードする。Iフレームはビデオ圧縮の一部分として作成される。圧縮において、完全に特定されたフレームの後に、その完全に特定されたフレームからの「差分」として特定される多くのフレームが続く。その完全に特定されたフレームがIフレームである。Iフレームは完全に特定されているので、Iフレームは、フレーム画像を決定するためにデコードするにはより効率的であり、その画像の圧縮アーチファクトは少ない。Iフレームがビデオの1秒ごとに1つ現れるのは一般的である。
説明した方法のひとつのアレンジメントにおいて、第1のサンプリングパターンでは、Iフレームのみがサンプリングされる。Iフレームのみをデコードすることは、処理する必要のあるフレーム数を減らすだけでなく、分散した多くのフレームをデコードする最も効率的な方法である。ステップ510では、ビデオシーケンスの全フレーム、またはIフレーム、またはIフレームと非Iフレームとのコンビネーションをデコードしてよい。
代わりのアレンジメントにおいて、ステップ320に関連して以前に説明したように、処理バジェットは、フレームの最大数がステップ510で適用されるであろう場合に、デコード対象のフレームの最大数の指定を含む。
ステップ510の代わりのアレンジメントにおいては、フレームはJPEGまたは他の画像フォーマットにデコードされなくてもよい。そのような代わりのアレンジメントにおいては、デコードすることは、ビデオシーケンス中でアクティビティを判定するために利用できる動きベクタを出力してよい。動きベクタはステップ520に入力できる。代わりのアレンジメントにおいては、動きベクタがステップ510で決定される場合、画像フレームをJPEGまたは他の画像フォーマットへとデコードすることがステップ420及び方法600で必要である。
ひとつのアレンジメントにおいて、ビデオシーケンス内で検知されたアクティビティはサンプリングパターンを形成するために利用される。より多くのサンプルフレームが、より高いアクティビティを持つビデオシーケンス(動的セグメント)から、より少ないサンプルフレームが、ほとんどアクティビティがないビデオシーケンス(静的セグメント)から決定できる。動的セグメントの中により高いサンプル密度を持つことは次の通り多くの利点を持っている:
・動的セグメントの中のフレームには、モーションブラー及びまずく構成された内容を含む欠陥を持つ可能性が高い。サンプルフレームがより多いことは、欠陥サンプルフレームのための代替サンプルフレームが利用可能である可能性がより高いことを意味している。
・多種多様なコンテンツがあり、その結果、より高い密度によってビデオシーケンスの異なるコンテンツのカバレッジが保証される。
・移動する物体などの関心を引くコンテンツは高いビデオアクティビティを結果として生じており、それは、動的セグメントからより高密度でサンプルを選ぶことの他の有利な理由である。
方法500は次のステップ520を続行し、そこではプロセッサ105の実行の下でサンプリングセグメントが設定される。ビデオシーケンスの中の動きを判定するための1つの方法が、隣接するデコード済みフレームの色差を比較することによるものである。色ヒストグラムにおける差が、そのような差がビデオフレームの類似性の良い目安を提供するものとして決定されてもよい。類似していない隣接するデコード済みフレームの高い密度が、高いアクティビティを示す。類似していない隣接するデコード済みフレームの高い密度は、動的セグメントおよび静的セグメントを決定するために使われてもよい。
代わりのアレンジメントにおいて、高いアクティビティは相対的に大きな規模の多くの動きベクタの存在によって示されてよい。スケール不変特徴変換(SIFT)などの既知の方法も、隣接するデコード済みフレームの間で類似の程度を決定するために使用することができ、従って、アクティビティを検出するために使うことができる。
説明した方法の代わりのアレンジメントにおいて、ビデオシーケンスの中のアクティビティはサンプリングの密度に影響するために利用されず、ステップ520は飛び越される。そのような代わりの場合のサンプルはビデオシーケンス全体にわたって均等に割り当てられてもよい。
方法500は次のステップ530を続行し、そこでは、サンプリング戦略が、多重パスサンプリングのためのパラメータを定義することによって決定される。サンプルの総数はステップ320で設定された。ステップ530で設定されるパラメータは、サンプリングパスの数と各パスでサンプリング対象のフレームの数である。例えば、1つのサンプリング戦略は、2パスを持ち、第1のパスの中でサンプルフレームの75%を割り当て、第2のパスのためにサンプルフレームの25%を残すことである。低品質のフレームが比較的高い割合であるであろうと予測されるならば、有効の可能性がある第2の戦略は、より多くのパスを割り当てることである。例えば、第1のパスの中での割り当てがサンプルフレームの60%、第2のパスのためにサンプルフレームの30%、最終パスのためにサンプルパスの10%の3つパスが利用されてもよい。
ステップ410で実行されるような、フレームを決定し品質解析を実行する方法600が、図6を参照してここで以下に詳述される。方法500はサンプルフレームの第1のセットを決定する。
方法600は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実装できる。
方法600は判定ステップ610で開始され、そこではサンプリングされるビデオシーケンスのフレームが決定される。第1のパスで割り当てられるサンプルフレームの数はステップ530で決定され、サンプルフレームはステップ520で設定されたセグメント間に分散される、サンプルフレームは、ビデオセグメントの長さ及びタイプに基づいてセグメント間に分散されてよい。ステップ520に関して前述したように、静的セグメントよりも比例的に多くのサンプルフレームを動的セグメントに割り当てることには利点がある。ひとつのアレンジメントにおいては、サンプルフレームの相対的な割り当ては「動的対静的サンプリング密度比」Rdsとして表され、それは1より大きく、かつ、静的セグメント内のサンプルに対する動的セグメント内のサンプルの相対密度であると定義される。例えば、Rds=2の場合、動的セグメント及び静的セグメントの両方が同じフレーム数を持つなら、動的セグメントには静的セグメントの2倍のサンプルフレーム数が割り当てられるであろう。
図10Aは、2つのセグメント(動的セグメント1020及び静的セグメント1025)に分割される38個のデコード済みフレーム1000のシーケンスを示す。セグメント1020と1025の両方は、同じフレーム数を有する(すなわち19フレーム)。黒く長くマークされた九つのフレーム1015はサンプリングされたフレームである。動的セグメント1020は、静的セグメント1025の2倍のフレーム数を持ち、サンプルはセグメント内で均等に配置されている。
全ての動的セグメントにわたって割り当てられるサンプル数Ndは数式(1)に従って以下のように決定される。
Nd = Td x Rds x N / (Ts + (Td x Rds)) (1)
ここで、Ndは全ての動的セグメントにわたって割り当てられるサンプル数である。
Tdは全ての動的セグメントにわたる総フレーム数である。
Rdsは前述した動的対静的サンプリング密度比である。
Nは、動的セグメントと静的セグメントとの間で分割される総サンプル数である。
Tsは全ての静的セグメントにわたる総フレーム数である。
全ての静的セグメントにわたって割り当てられるサンプル数Nsは数式(2)に従って以下のように決定される。
Ns = N - Nd (2)
ここで、Nsは全静的セグメントにわたって割り当てられるサンプル数である。
特定の動的セグメントの中で割り当てられるサンプル数NPdは数式(3)に基づいて以下のように決定される。
NPd = Pd x Nd / Td (3)
ここで、NPdは特定の動的セグメントの中で割り当てられるサンプル数である。
Pdは特定の動的セグメントの中のフレーム数である。
式(3)に対する同様な数式が、静的セグメントの中のサンプル数を決定するために適用されてもよい。
上記式(1)、(2)、(3)の変形は、セグメントのそれぞれの中で少なくとも一つのサンプルが確実に生じるようにすることができる。他の変形もまた可能である。
ひとつのアレンジメントにおいては、サンプルフレームはセグメント内部に均等に分散される。たとえば、図10Aに示すように、セグメント1020内で6つのサンプルが均等に分けられ、セグメント1025内で3つのサンプルが均等に分けられる。代わりのアレンジメントにおいては、よりアクティビティの高いフレームを有するセグメントの部分の周りのサンプル群が利用されてもよい。
ステップ610の後、ステップ620で、ステップ610で決定されたサンプルフレーム上で品質解析が実行される。品質解析の要素は上述されており、三分割法への位置合わせを伴う位置、類似サイズの顔、切り取られていない顔、微笑の存在などの顔の特徴など、高品質フレームに寄与するであろう全てを含むがそれに限定されない。顔の特徴は多くの顔検出ライブラリによって提供され得る。全ての適切な顔検出ライブラリがステップ620で使用できる。
先鋭度、露光、コントラスト、彩度を含むがそれに限定されないピクセル派生特徴はすべて、フレームに欠陥がないことを保証するためにステップ620で測定できる。すべての適切なアルゴリズムが、そのような測定をするためにステップ620で利用できる。さらに、型通りの表現および関係の識別などの意味的特徴は、フレームの品質を決定するために利用できる。
ステップ620で決定されたサンプリングされたフレームの特徴または決定された特徴のサブセットは、1つの品質スコアに達するために結合されてもよい。
ステップ430で実行されるような、候補フレームを決定する方法700が、図7を参照してここで以下に詳述される。方法600においてサンプリングされたフレームは割り当てられた品質スコアを持つ。高い品質スコアを持つサンプルは次のパスでサンプリングされるであろうフレームを決定する。高い品質スコアを持つサンプルに近いフレームを対象とすることで、良好なフレームが一緒に集まる傾向がある。弱い光に起因する露光不足とつまらないシーンに起因する低コントラストを含む特徴は、次のシーンが捕捉されるまで、複数秒の期間について存在する可能性がある。その様な特徴がサンプルフレーム中で検出されたなら、次のパスの中ではそのフレームに近くをサンプリングしない方がよい。
方法700は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実装できる。
方法700は優先度付けステップ710で開始され、そこでは、プロセッサ105の実行の下で、ステップ420で決定されたサンプルフレームが、各フレームに関連付けられた品質スコアに基づいて優先度が付けられる。優先度が付けられたフレームはメモリ106に格納されてよい。ステップ420で決定されたサンプルフレームは、セグメント内部で最高品質から下へ単一の品質スコアに基づいてサンプルフレームを順序付けすることで優先度付けできる代わりに、サンプルフレームの優先度付けの際に、多様性を考慮してもよい。
セグメント内部の多様性を保証する一つの方法は、高いスコアを持つサンプルフレームに対する類似度が高いサンプルフレームを考慮しないことによる。セグメント内部の多様性を保証する他の方法は、時間的に離れたサンプルを優先度付けするために、品質スコアと共に時間差を考慮することである。
図10Bは、潜在的候補フレームとみなされる十分な品質を有する3つのサンプルフレーム1035、1040、1045を示す。サンプルフレーム1040はサンプルフレーム1045に比べてより高品質であるが、2つのサンプルフレームの最高品質のサンプル1035に対する時間差に起因する重み付けが計算に含まれる場合には、サンプルフレーム1045はサンプルフレーム1040に比べてよりよい候補であり得る。
割り当てステップ720で、隣りが次のサンプリングパスの中で選ばれるであろうサンプリング済みフレームであると定義される「候補フレーム」が割り当てられる。次のパスの中で処理対象のサンプルフレームの数は方法500に従って決定される。ステップ520に関連して説明されたように、サンプルフレームは方程式(1)、(2)、および(3)に従って異なるセグメントに割り当てられることができる。
ひとつのアレンジメントにおいて、同じ方程式(1)、(2)、(3)のセットが、いくつの候補フレームがセグメントのそれぞれの中にあるであろうかを決定するために利用される。ひとつのアレンジメントにおいて、候補フレームのそれぞれは1つのサンプルと関連している。ステップ710において決定されるスコアは、上位N個の候補フレームを選ぶために使われ、ここでNは方法500によって決定されたような次のパスの中で解析されるサンプルフレームの数である。これは図10Cの中で示され、ここで、解析されるサンプルフレームの数が4として設定され、その結果、1055として示された4つの最高品質のサンプルフレームが候補フレームとして選ばれる。
代わりのアレンジメントにおいては、候補フレームの数は、サンプルフレームの数を必要な数まで減らすために図8の方法800内の後のステップとして存在するフィルタリングを有するパス中で得られるサンプルフレームの数を超えてもよい。
セグメント内に、候補フレームとして資格を与えるために十分な品質スコアを持つサンプルフレームがない可能性もある。ひとつのアレンジメントにおいて、候補フレームとして資格を与えるために十分な品質スコアを持つサンプルフレームがない場合、ステップ720では候補フレームが割り当てられず、その結果方法400の次のパスではサンプルは選択されないだろう。他のアレンジメントにおいては、縮小された数の候補フレームは、セグメント内の無作為な位置に割り当てられたサンプルフレームを用いて、ステップ720で割り当てられてよい。
ステップ440で実行されるような、サンプルフレームを解析する方法800が、図8を参照してここで以下に詳述される。
方法800は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実装できる。
方法800はフィルタリングステップ810から始まり、そこでは、ステップ430で決定されたフレームが、候補フレームに隣接するフレームのうち解析対象のサンプルフレームとして選択されるフレームを決定するためにフィルタリングされる。ひとつのアレンジメントにおいて、候補フレームの隣接フレームは、サンプリングのために選択された、候補フレームに最も似ていないフレームであるフレームと共に考慮される。例えば、図10Cは、サンプリング対象のフレーム1065を示し、候補フレーム1055に対して最高の非類似度を持つ候補フレーム1055の隣接フレームである。
代わりのアレンジメントにおいて、候補フレームに対して或る閾値を超える類似度を持つ隣接フレームは、サンプルフレームとして選択されないであろう。すぐ隣に、候補フレームに対して十分に非類似なフレームがなければ、候補フレームに隣接するフレームの隣接フレームが考慮される。処理はそれから候補フレームから最大時間距離まで繰り返される。さらなるアレンジメントにおいて、隣接フレームは、類似度を考慮することなしに2つの隣接フレームの最大値から無作為に選択される。
方法800は解析ステップ820で完了し、そこでは、解析がステップ810で選択されたフレーム上で、前述したステップ620と同じ要領で実行される。
ステップ460で実行されるような、印刷または表示のためのフレームの選択方法900は、図9を参照して以下でこれから詳細に説明されるであろう。方法900は、ハードディスクドライブ110上に常駐で、かつその実行中にはプロセッサ105により制御されるソフトウェアアプリケーションプログラム133の1つ以上のソフトウェアコードモジュールとして実装できる。
方法900は、全てのデコードと解析が行われた後で、ステップ460で実行される。方法900に従って選択されたフレームは表示のために(例えばディスプレイ114上に)、或いは印刷された本の内容として利用してよい。
方法900は決定ステップ910で開始され、そこではビデオシーケンス中で選択されるフレーム数がプロセッサ105の実行の下で決定されてメモリ106に格納される。選択されるフレーム数は選択されたフレームの目的によって決定されてよい。例えばフォトブックには、そのフォトブックの中に入るフレーム数の上限と下限とがある。システム100のようなシステムはまた、ビデオシーケンス全体にわたってサンプリング対象のフレーム数を、フォトブックに入るであろう画像の上限を超えるように設定してもよい。ステップ910は、可能な各ビデオセグメントから選択することによって多様性を保証する。選択されるフレーム数はメモリ106に格納されてよい。
ひとつのアレンジメントにおいて、決定した選択されるフレーム数はビデオの部分の長さとタイプとに基づく。例えば、この方法は、ビデオシーケンスの異なる部分の中で選択されるフレーム数を決定することを含む。効果的には、より多くの数のフレームを、ビデオのより短い部分よりも、ビデオのより長い部分について決定できる。また、ビデオの静的セグメント及び動的セグメントが決定されたアレンジメントにおいて、ビデオシーケンスの静的な部分よりも動的な部分のたにてより多くのフレームを決定できる。
次の選択ステップ920において、プロセッサ105の実行の下で、ビデオシーケンス内で最高品質スコアを持つサンプリング済みフレームが選択される。代わりに、選択はサンプル済みフレームの第2のセットまたは任意の後続のセットからすることができる。その後、フィルタリングステップ930において、ステップ920で選択されたフレームの近くの重複したフレームが除去される。
方法900は提供ステップ940で終了し、そこでは、ステップ920で選択されたフレームが、ステップ930で除去されたフレームを除いて提供される。提供されるフレームはメモリ106に格納されてよい。選択されたフレームが、JPEGファイルや任意の他の適切な画像フォーマットなどのフレーム画像ファイルとして提供される。代わりに、選択されたフレームのフレーム番号あるいはフレームタイムスタンプが提供されてもよい。
説明した方法が、ビデオシーケンスからフレームをサンプリングするための効率の優位性を提供する。最高の品質スコアを持つ映像のサンプリングに集中することで、望ましいフレームを発見するチャンスがより大きくなる。また、より低い品質スコアを持つフレーム周辺のフレームのサンプリングをより少なくすることで、望ましいフレームを発見するチャンスがより少ないビデオの映像の部分に費やす時間バジェットがより少ない。
望ましいフレームは、ビデオフレームのごくわずかで相対的に短い部分にまとまる傾向があるので、説明した方法に従って決定したサンプリングパターンは、通常のビデオシーケンスの中の望ましいフレームの分散に適合するよう設定される。
周期的な間隔でフレームをサンプリングするような従来のサンプリング方法と比較した場合、方法400は速度および精度の両方で良好に機能する。方法400と、映像の3秒ごとに1フレームをサンプリングした周期的なサンプリング方法の性能を比較するために実施された実験では、方法400が周期的なサンプリング方法よりも平均22%速かったことが分かった。この実験ではまた、方法400は、ビデオシーケンスの時間に応じた望ましいフレーム選択の精度及びリコールの点において、2乃至3倍正確であることが分かった。
この実験はまた、方法400の精度の優位は、ビデオシーケンスが長くなれば高くなる傾向にあることを示した。より短いビデオシーケンスよりもより長いビデオシーケンス中の同じビデオ映像の量について望ましいフレームが少ない可能性があるために、方法400の精度の優位は、より長いビデオシーケンスの方が高くなる可能性がある。より長い映像を用いれば、周期的なサンプリングではより多くの望ましくないフレームを選択し、その結果精度が低下する。一方、説明したアレンジメントのサンプリングパターンを用いることで、より長いビデオシーケンスを解析することの方法400の精度へのインパクトはより小さい。
説明したアレンジメントはコンピュータ、および、データ処理産業、特に画像処理に適用可能である。
前の説明は、本発明のいくつかの実施形態のみを述べており、本発明お範囲および精神から離れることなく、それらに対する変形および/または変更が可能であり、実施形態は説明であって制限的なものではない。
本明細書の文脈において、単語「包含している」は「基本的に含んでいるが、必ずしもそれだけではない」或いは「持っている」または「含んでいる」であり、かつ、「のみから成る」ではない。「包含する(comprise)」および「包含する(comprises)」のような「包含している」のバリエーションは、それに応じて変化した意味を持つ。

Claims (14)

  1. 複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶための方法であって、
    前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定し、
    決定された前記解析時間に基づいて第1のサンプリングパターンを決定し、
    前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングし、
    サンプリングされたフレームから画質に基づいて候補フレームを決定し、
    第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲のビデオシーケンス中のフレームの1以上を含む前記フレームの第2のセットをサンプリングし、
    サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択することを特徴とする方法。
  2. 請求項1に記載の方法であって、
    更なる解析のために残された時間があるか判定することをさらに含むことを特徴とする方法。
  3. 請求項1に記載の方法であって、
    前記第2のサンプリングパターンは、前記候補フレームと比較した前記ビデオシーケンスの中の近くのフレームの類似度に基づくことを特徴とする方法。
  4. 請求項1に記載の方法であって、
    前記画質は、顔認識、表情認識、瞬き認識、注視方向、先鋭度、露光、彩度、型通りのシーンの存在、特定の人物の識別、ペットの識別、および関係の識別の少なくとも1つに基づいて決定されることを特徴とする方法。
  5. 請求項1に記載の方法であって、
    前記ビデオシーケンスを静的な部分と動的な部分とに分割することをさらに含む方法。
  6. 請求項5に記載の方法であって、フレームのサンプリングは、前記ビデオシーケンスの動的な部分において頻度が高く、前記ビデオシーケンスの静的な部分において頻度が低いことを特徴とする方法。
  7. 請求項5に記載の方法であって、
    前記静的な部分と動的な部分の決定は、或る時間間隔を隔てたフレーム間の色差の量に基づくことを特徴とする方法。
  8. 請求項1に記載の方法であって、
    前記第1のサンプリングパターンはIフレームのサンプリングを含むことを特徴とする方法。
  9. 請求項1に記載の方法であって、
    サンプリングされた前記フレームから、各ビデオ部分について決定されたフレーム数に応じた数のビデオフレームを、前記ビデオ部分の長さ及びタイプの少なくとも一方に基づいて選択することを更に含むことを特徴とする方法。
  10. 請求項2に記載の方法であって、
    更なる解析のための時間がある場合、
    サンプリングされた前記フレームから前記画質に基づいて更なる候補フレームを決定し、
    更なるサンプリングパターンを用いて前記ビデオシーケンスをサンプリングすることであって、前記更なるサンプリングパターンは前記更なる候補フレーム近隣の狭い範囲で1以上のフレームをサンプリングすることを更に含むことを特徴とする方法。
  11. 複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶための装置であって、
    前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定する手段と、
    決定された前記解析時間に基づいて第1のサンプリングパターンを決定する手段と、
    前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングする手段と、
    サンプリングされたフレームから画質に基づいて候補フレームを決定する手段と、
    第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲のビデオシーケンス中のフレームの1以上を含む前記フレームの第2のセットをサンプリングする手段と、
    サンプリングされた前記フレームから画質に基づいてビデオフレームの少なくとも1つを選択する手段とを有することを特徴とする装置。
  12. 複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶシステムであって、
    データ及びコンピュータプログラムを含むメモリと、
    前記コンピュータプログラムを実行するために前記メモリと結合されたプロセッサとを含み、前記コンピュータプログラムは、
    前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定し、
    決定された前記解析時間に基づいて第1のサンプリングパターンを決定し、
    前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングし、
    サンプリングされたフレームから画質に基づいて候補フレームを決定し、
    第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲のビデオシーケンス中のフレームの1以上を含む前記フレームの第2のセットをサンプリングし、
    サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択するための命令を含むことを特徴とするシステム。
  13. 複数のビデオフレームを含むビデオシーケンスの少なくとも1つのビデオフレームを選ぶためのプログラムであって、、
    前記ビデオシーケンスの長さと実行デバイスの処理能力とに基づいて解析時間を決定するコードと、
    決定された前記解析時間に基づいて第1のサンプリングパターンを決定するコードと、
    前記第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングするコードと、
    サンプリングされたフレームから画質に基づいて候補フレームを決定するコードと、
    第2のサンプリングパターンに応じて、決定された前記候補フレームの近くの狭い範囲のビデオシーケンス中のフレームの1以上を含む前記フレームの第2のセットをサンプリングするコードと、
    サンプリングされた前記フレームから画質に基づいてビデオフレームの少なくとも1つを選択するコードとを含むことを特徴とするプログラム。
  14. 複数のビデオフレームを含むビデオシーケンスから少なくとも1つのビデオフレームを選ぶためのプログラムであって、
    第1のサンプリングパターンを使って前記ビデオシーケンスの前記フレームの第1のセットを、前記第1のサンプリングパターンに従って前記ビデオシーケンス全体にわたって低頻度でサンプリングされるコードと、
    サンプリングされた前記フレームから画質に基づいて候補フレームを決定するコードと、
    第2のサンプリングパターンに応じて、前記候補フレームの近くの狭い範囲の前記ビデオシーケンス中の1以上の前記フレームを含む前記フレームの第2のセットをサンプリングするコードと、
    サンプリングされた前記フレームから画質に基づいて前記ビデオフレームの少なくとも1つを選択するコードとを有することを特徴とするプログラム。
JP2017180397A 2016-09-27 2017-09-20 ビデオフレームを選ぶための方法、システム、および装置 Active JP6550109B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AU2016231661A AU2016231661A1 (en) 2016-09-27 2016-09-27 Method, system and apparatus for selecting a video frame
AU2016231661 2016-09-27

Publications (2)

Publication Number Publication Date
JP2018056990A true JP2018056990A (ja) 2018-04-05
JP6550109B2 JP6550109B2 (ja) 2019-07-24

Family

ID=61687296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017180397A Active JP6550109B2 (ja) 2016-09-27 2017-09-20 ビデオフレームを選ぶための方法、システム、および装置

Country Status (3)

Country Link
US (1) US10546208B2 (ja)
JP (1) JP6550109B2 (ja)
AU (1) AU2016231661A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11743492B2 (en) 2021-03-26 2023-08-29 Fujitsu Limited Information processing apparatus, inference execution control method, and storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538257B2 (en) 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
US11087119B2 (en) * 2018-05-16 2021-08-10 Gatekeeper Security, Inc. Facial detection and recognition for pedestrian traffic
CN109784226B (zh) * 2018-12-28 2020-12-15 深圳云天励飞技术有限公司 人脸抓拍方法及相关装置
US10867193B1 (en) 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems
CN114449343A (zh) * 2022-01-28 2022-05-06 北京百度网讯科技有限公司 一种视频处理方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005191770A (ja) * 2003-12-25 2005-07-14 Fujitsu Ltd ハイライト静止画生成・配信装置
JP2008154047A (ja) * 2006-12-19 2008-07-03 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP2013026935A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置、画像処理方法、およびプログラム
JP2013101305A (ja) * 2011-10-14 2013-05-23 Canon Inc 焦点調節装置及び焦点調節装置の制御方法
JP2013198012A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 情報処理装置、静止画フレーム抽出方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553138B2 (en) * 1998-12-30 2003-04-22 New York University Method and apparatus for generating three-dimensional representations of objects
US6449392B1 (en) * 1999-01-14 2002-09-10 Mitsubishi Electric Research Laboratories, Inc. Methods of scene change detection and fade detection for indexing of video sequences
US6549643B1 (en) 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
US6697523B1 (en) 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
US7203380B2 (en) * 2001-11-16 2007-04-10 Fuji Xerox Co., Ltd. Video production and compaction with collage picture frame user interface
JP2004334459A (ja) * 2003-05-07 2004-11-25 Nec Corp 記録再生装置、記録再生方法、および記録再生プログラム
US9292904B2 (en) * 2004-01-16 2016-03-22 Nvidia Corporation Video image processing with parallel processing
EP1557837A1 (en) * 2004-01-26 2005-07-27 Sony International (Europe) GmbH Redundancy elimination in a content-adaptive video preview system
US8379154B2 (en) 2006-05-12 2013-02-19 Tong Zhang Key-frame extraction from video
US20090083781A1 (en) * 2007-09-21 2009-03-26 Microsoft Corporation Intelligent Video Player
US8494231B2 (en) * 2010-11-01 2013-07-23 Microsoft Corporation Face recognition in video content
US8724854B2 (en) * 2011-04-08 2014-05-13 Adobe Systems Incorporated Methods and apparatus for robust video stabilization
US20120275511A1 (en) * 2011-04-29 2012-11-01 Google Inc. System and method for providing content aware video adaptation
US8934762B2 (en) * 2011-12-09 2015-01-13 Advanced Micro Devices, Inc. Apparatus and methods for altering video playback speed
US9646221B2 (en) * 2013-07-24 2017-05-09 Nec Corporation Image recognition apparatus and storage medium
KR20150104358A (ko) * 2014-03-05 2015-09-15 삼성전자주식회사 서버 장치 및 그의 핑거프린트 전송 방법, 그리고 방송수신장치
US9386358B2 (en) * 2014-05-29 2016-07-05 Echostar Technologies L.L.C. Automatic identification of relevant video content through replays
US10013640B1 (en) * 2015-12-21 2018-07-03 Google Llc Object recognition from videos using recurrent neural networks

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005191770A (ja) * 2003-12-25 2005-07-14 Fujitsu Ltd ハイライト静止画生成・配信装置
JP2008154047A (ja) * 2006-12-19 2008-07-03 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体
JP2008167082A (ja) * 2006-12-27 2008-07-17 Toshiba Corp 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP2013026935A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置、画像処理方法、およびプログラム
JP2013101305A (ja) * 2011-10-14 2013-05-23 Canon Inc 焦点調節装置及び焦点調節装置の制御方法
JP2013198012A (ja) * 2012-03-21 2013-09-30 Casio Comput Co Ltd 情報処理装置、静止画フレーム抽出方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11743492B2 (en) 2021-03-26 2023-08-29 Fujitsu Limited Information processing apparatus, inference execution control method, and storage medium

Also Published As

Publication number Publication date
JP6550109B2 (ja) 2019-07-24
US20180089528A1 (en) 2018-03-29
AU2016231661A1 (en) 2018-04-12
US10546208B2 (en) 2020-01-28

Similar Documents

Publication Publication Date Title
JP6550109B2 (ja) ビデオフレームを選ぶための方法、システム、および装置
RU2693906C2 (ru) Основанный на правилах анализ важности видео
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
US8792685B2 (en) Presenting image subsets based on occurrences of persons satisfying predetermined conditions
KR100708067B1 (ko) 디지털 영상 검색 장치 및 그 방법
JP4907621B2 (ja) 映像処理装置と方法及びその記録媒体
AU2010257409B2 (en) Temporal-correlation-based mode connection
US10817744B2 (en) Systems and methods for identifying salient images
KR102300522B1 (ko) 수퍼복셀-기반 공간 시간 비디오 세그먼트화에 대한 빠른 프로그레시브 접근법
US20140241592A1 (en) Systems and Methods for Automatic Image Editing
US8346006B1 (en) Real time auto-tagging system
US9710703B1 (en) Method and apparatus for detecting texts included in a specific image
JP6373446B2 (ja) ビデオフレームを選択するプログラム、システム、装置、及び方法
JP2023520631A (ja) 視覚認識における資源コストの低減
CN113206929A (zh) 图像数据处理方法和传感器装置
US20230066331A1 (en) Method and system for automatically capturing and processing an image of a user
CN110019951B (zh) 一种生成视频缩略图的方法及设备
CN115830362A (zh) 图像处理方法、装置、设备、介质及产品
KR102543833B1 (ko) 인공 지능 학습에 기초한 객체 검출 방법 및 그 장치
US10372750B2 (en) Information processing apparatus, method, program and storage medium
KR101378404B1 (ko) 요약 영상 검출 방법 및 장치
KR20240039394A (ko) 영상 처리 장치, 그것을 갖는 전자 장치, 그것의 동작 방법
CN115967835A (zh) 一种自动选择抠像方式的直播方法、系统及电子设备
CN115828954A (zh) 扫码设备的解码方法及扫码设备
JP2012138079A (ja) バーコードの位置検出パターンの候補対を識別する方法、装置及びシステム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R151 Written notification of patent or utility model registration

Ref document number: 6550109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151