JP2021082316A - ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分 - Google Patents

ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分 Download PDF

Info

Publication number
JP2021082316A
JP2021082316A JP2021012881A JP2021012881A JP2021082316A JP 2021082316 A JP2021082316 A JP 2021082316A JP 2021012881 A JP2021012881 A JP 2021012881A JP 2021012881 A JP2021012881 A JP 2021012881A JP 2021082316 A JP2021082316 A JP 2021082316A
Authority
JP
Japan
Prior art keywords
motion vector
image frame
vector values
pixels
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021012881A
Other languages
English (en)
Other versions
JP2021082316A5 (ja
Inventor
ピンシャン リー
Pingshan Li
ピンシャン リー
淳司 島田
Junji Shimada
淳司 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of JP2021082316A publication Critical patent/JP2021082316A/ja
Publication of JP2021082316A5 publication Critical patent/JP2021082316A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】不正確な背景の検出および減算に関連する問題を克服すること。【解決手段】ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分のための装置および方法は、以前の画像フレームに対して現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算するように構成されている1つまたは複数のプロセッサを含む。現在の画像フレーム内の複数の画素について複数の第2の運動ベクトル値が、装置に設けたセンサーから受信した入力に基づいて計算される。複数の第1の運動ベクトル値について信頼スコアが、定めた一組のパラメータに基づいて決定される。現在の画像フレームから1つまたは複数の背景領域が、決定された信頼スコアと、複数の第1の運動ベクトル値と複数の第2の運動ベクトル値との間の相似パラメータとに基づいて、抽出される。【選択図】図3

Description

〔関連発明への相互参照/参照による援用〕
[0001] なし
[0002] 本開示の様々な実施形態は、背景および前景をセグメント化する技術に関する。より具体的には、本開示の様々な実施形態は、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分に関する。
[0003] コンピュータビジョンの分野における最近の進歩により、ビデオコンテンツの背景および前景を検出するためにさまざまな技術が開発された。ビデオコンテンツにおける背景および前景の検出およびセグメント化のためのそのような技術は、例えば、ビデオ監視用途または自動焦点用途などのさまざまな用途において有用なことがある。
[0004] 一連の画像における背景の検出および減算(または除去)がオプティカルフロー手順に基づいて行い得る。オプティカルフロー手順は、通常、背景領域が取り込まれた画像フレームの最大部分をカバーするという仮定に基づいており、したがって、画像フレームにおける最大領域は、オプティカルフロー手順によって背景領域として識別される。所定のシナリオでは、画像/ビデオ取込み中にオブジェクトが画像取込み機器の近くに存在することがある。このようなシナリオでは、取り込まれた画像フレームの大部分を前景領域がカバーし、背景領域が比較的小さくなる。このようなシナリオでは、背景の減算時に関心があるオブジェクトが、オプティカルフロー手順ベースの手法によって削除されることがある。したがって、不正確な背景の検出および減算に関連する問題を克服するために、背景差分のための改善されたシステムおよび方法が必要になることがある。
[0005] 当業者には、説明したシステムと、本願の残りの部分において図面を参照して記述する本開示のいくつかの態様とを比較することにより、従来の慣習的なアプローチのさらなる制限および欠点が明らかになる。
[0006] ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分が提供され、それは、少なくとも1つの図に実質的に示され、および/またはそれに関連して説明され、請求項においてより完全に記述される。
[0007] 本開示のこれらおよび他の特徴および利点は、全体を通して同様の参照番号が同様の部分を指す添付の図面とともに本開示の以下の詳細な説明を検討することによって理解できる。
本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分の、例示的なネットワーク環境を示すブロック図である。 本開示の実施形態による例示的な画像処理装置を示すブロック図である。 本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分の例示的なシナリオを示す図である。 本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分の例示的な動作を図4Aと一緒に示すフローチャートである。 本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分の例示的な動作を図4Aと一緒に示すフローチャートである。
〔詳細な説明〕
[0012] 以下に説明する実装は、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分のための開示された装置および方法に見出すことができる。本開示の例示的な態様は装置を含み、装置は、一連の画像フレームを取り込むように構成された1つまたは複数のプロセッサをさらに含むことができる。一連の画像フレームは、少なくとも現在の画像フレームおよび以前の画像フレームを含むことができる。1つまたは複数のプロセッサは、以前の画像フレームに対して現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算するように構成できる。オプティカルフローマップは、現在の画像フレームおよび以前の画像フレーム内の複数の画素の画素値の差に基づいて生成することができる。現在の画像フレームは、1つまたは複数の前景領域および1つまたは複数の背景領域を含むことができる。現在の画像フレームにある複数の画素について、複数の第2の運動ベクトル値も、装置に設けたセンサーから受信した入力に基づいて計算ができる。受信した入力は、現在の画像フレーム内の複数の画素の各々の角速度情報に対応することができる。複数の第1の運動ベクトル値について定めた一組のパラメータに基づいて信頼スコアが決定できる。現在の画像フレームからの1つまたは複数の背景領域は、決定された信頼スコアと、複数の第1の運動ベクトル値と複数の第2の運動ベクトル値との間の相似パラメータとに基づいて抽出することができる。
[0013] 複数の第1の運動ベクトル値の各々は、以前の画像フレームから現在の画像フレームへの複数の画素の各々の相対運動に対応することができる。複数の第2の運動ベクトル値は、装置内に設けたジャイロセンサー(または他の運動センサー)について計算した複数の運動ベクトル値に対応することができる。複数の第2の運動ベクトル値の計算は、装置の1つまたは複数のデバイスパラメータにさらに基づくことができる。1つまたは複数のデバイスパラメータは、装置のレンズの焦点距離、水平画素の数、および装置に設けた撮像素子構成部品の幅を含むことができる。
[0014] 実施形態によれば、装置内の1つまたは複数のプロセッサは、1つまたは複数の背景領域を抽出するために、複数の画素の複数の第2の運動ベクトル値を複数の第1の運動ベクトル値と比較するようにさらに構成することができる。現在の画像フレーム内の複数の画素の各々に関する相似パラメータは、複数の第2の運動ベクトル値と複数の第1の運動ベクトル値との間の比較に基づいて決定することができる。信頼スコアと、複数の画素の各々に関連する相似パラメータとに基づいて、信頼マップが生成できる。1つまたは複数の背景領域は、複数の画素の各々に関連する決定された相似パラメータと特定された閾値との比較に基づいて抽出することができる。
[0015] 本開示の例示的な態様によれば、画像処理システムは、撮像装置内に1つまたは複数のプロセッサを含み、プロセッサは、以前の画像フレームに対する現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算するように構成できる。オプティカルフローマップは、現在の画像フレームおよび以前の画像フレーム内の複数の画素の画素値の差に基づいて生成することができる。現在の画像フレームは、1つまたは複数の前景領域および1つまたは複数の背景領域を備えることができる。現在の画像フレーム内の複数の画素について、複数の第2の運動ベクトル値が、装置に設けたセンサーから受信した入力に基づいて計算できる。受信した入力は、現在の画像フレーム内の複数の画素の各々の角速度情報に対応することができる。複数の第1の運動ベクトル値に関する信頼スコアが、定めた一組のパラメータに基づいて決定できる。現在の画像フレームからの1つまたは複数の背景領域は、決定された信頼スコアと、複数の第1の運動ベクトル値と複数の第2の運動ベクトル値との間の相似パラメータとに基づいて抽出することができる。撮像装置内の1つまたは複数のプロセッサは、抽出された1つまたは複数の背景領域に基づいて、現在の画像フレーム内の1つまたは複数の関心があるオブジェクトを検出するようにさらに構成できる。検出された1つまたは複数の関心オブジェクトは、現在の画像フレーム内で運動している1つまたは複数のオブジェクトに対応することができる。撮像装置内の1つまたは複数のプロセッサは、検出された1つまたは複数の関心オブジェクトに自動焦点調整することができる。検出された1つまたは複数の関心オブジェクトの1つまたは複数の視覚パラメータは、撮像装置によって修正することができる。
[0016] 図1は、本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分を示すブロック図である。図1を参照すると、ネットワーク環境100が示される。ネットワーク環境100は、画像処理装置102、サーバー104、通信ネットワーク106、ユーザー108などの1人または複数人のユーザー、一連の画像フレーム110、およびオブジェクト112などの1つまたは複数のオブジェクトを含むことができる。図1を参照すると、画像処理装置102は、通信ネットワーク106を介してサーバー104に通信可能に結合することができる。ユーザー108は、画像処理装置102に関連付けることができる。
[0017] 画像処理装置102は、背景差分のために1つまたは複数のデジタル画像および/またはビデオを処理するように構成できる適切なロジック、回路、インターフェースおよび/またはコードを備えることができる。画像処理装置102は、オブジェクト112を含む一連の画像フレーム110を取り込むように構成できる。画像処理装置102は、取り込まれた一連の画像フレーム110を処理して背景減算するようにさらに構成できる。画像処理装置102の例には、限定されないが、撮像装置(デジタルカメラ、カムコーダなど)、運動取込みシステム、カメラ付き携帯電話、プロジェクタ、コンピュータワークステーション、大型汎用コンピュータ、手持ち式コンピュータ、携帯電話(cellular phone)/携帯電話(mobile phone)、スマート電気器具、ビデオプレーヤー、DVDライター/プレーヤー、テレビ、および/またはその他のコンピュータ装置が含まれる。
[0018] サーバー104は、画像処理装置102と通信するように構成できる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。サーバー104は、複数のデジタル画像および/またはビデオを保存するように構成できる、1つまたは複数の保存システムをさらに含むことができる。サーバー104の例には、限定されないが、ウェブサーバー、データベースサーバー、ファイルサーバー、アプリケーションサーバー、クラウドサーバーまたはそれらの組合せが含まれる。
[0019] 通信ネットワーク106は、画像処理装置102がサーバー104と通信するのを仲介し得る媒体を含むことができる。通信ネットワーク106の例には、限定されないが、インターネット、クラウドネットワーク、ロングタームエボリューション(LTE)ネットワーク、無線ローカルエリアネットワーク(WLAN)、ローカルエリアネットワーク(LAN)、電話回線(POTS)、および/またはメトロポリタンエリアネットワーク(MAN)が含まれる。ネットワーク環境100内の様々な機器は、様々な有線および無線通信プロトコルに従って、通信ネットワーク106に接続するように構成できる。そのような有線および無線通信プロトコルの例には、限定されないが、伝送制御プロトコルおよびインターネットプロトコル(TCP/IP)、ユーザーデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE 802.1 1、光忠実度(Li−Fi)、802.16、IEEE 802.11 s、IEEE 802.11g、マルチホップ通信、ワイヤレスアクセスポイント(AP)、機器間通信、セルラー通信プロトコル、またはBluetooth(BT)通信プロトコル、あるいはそれらの組合せの少なくとも1つが含まれる。
[0020] 一連の画像フレーム110は、撮像装置のビューファインダから見てしかも画像処理装置102を用いてユーザー108によって取り込まれたシーンのビデオを指すことができる。一連の画像フレーム110は、オブジェクト112などの1つまたは複数のオブジェクトを含むことができる。実施形態によれば、オブジェクト112は、一連の画像フレーム110内の前景領域を構成できる関心オブジェクトにすることができる。一連の画像フレーム110は、1つまたは複数の背景領域をさらに含むことができる。例えば、一連の画像フレーム110内の前景領域から離れた任意の領域は、背景領域に対応することができる。
[0021] オブジェクト112は、運動しているオブジェクト、ある期間にわたって形状を変化させる変形オブジェクト、または取り込まれた一連の画像フレーム110において異なる時点で同じ位置にあるが向きが異なるようにされたオブジェクトにすることができる。オブジェクト112の例には、限定されないが、人間のオブジェクト、動物、あるいは車両アイテムまたはスポーツアイテムなどの非人間オブジェクトまたは無生物のオブジェクトが含まれる。
[0022] 動作時、画像処理装置102は、シーンのビデオを取り込むために使用できる撮像機器に対応することができる。ビデオは、少なくとも現在の画像フレームおよび以前の画像フレームを含む一連の画像フレーム(一連の画像フレーム110など)を含むことができる。取り込まれた一連の画像フレーム110は、1つまたは複数の関心オブジェクト(オブジェクト112など)をさらに含むことができる。1つまたは複数の関心オブジェクトは、1つまたは複数の前景領域を構成することができ、1つまたは複数の関心オブジェクトから離れた任意の領域は、一連の画像フレーム110内の1つまたは複数の背景領域を構成することができる。
[0023] 画像処理装置102は、以前の画像フレームに対して、現在の画像フレーム内の複数の画素について複数の第1の運動ベクトル値を計算するように構成できる。画像処理装置102は、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算するように構成できる。オプティカルフローマップは、現在の画像フレームおよび以前の画像フレーム内の複数の画素の画素値の差に基づいて生成することができる。複数の第1の運動ベクトル値は、以前の画像フレームから現在の画像フレームへの複数の画素の各々の相対運動に対応することができる。
[0024] 画像処理装置102は、現在の画像フレーム内の複数の画素について複数の第2の運動ベクトル値を計算するようにさらに構成できる。複数の第2の運動ベクトル値は、画像処理装置102に設けたセンサーから受信した入力に基づいて計算することができる。例えば、センサーから受信した入力は、現在の画像フレーム内にある複数の画素の各々の角速度情報に対応することができる。画像処理装置102に含まれるセンサーは、ジャイロセンサーなどの運動センサーに対応することができる。複数の第2の運動ベクトル値は、画像処理装置102に設けたセンサー(例えば、ジャイロセンサー)について計算した複数の運動ベクトル値に対応することができる。複数の第1の運動ベクトル値および複数の第2の運動ベクトル値の計算は、図2において詳細に説明する。
[0025] 画像処理装置102は、計算した複数の第1の運動ベクトル値について定めた一組のパラメータに基づいて、信頼スコアを決定するようにさらに構成できる。例えば、定めた一組のパラメータは、限定されないが、画像フレームの全面積および/または画像フレームのコントラストレベルに関連して、画像フレーム内の前景オブジェクト(複数可)によって覆われた領域を含むことができる。画像処理装置102は、現在の画像フレーム内の複数の画素について計算した複数の第1の運動ベクトル値を、複数の第2の運動ベクトル値と比較するようにさらに構成できる。現在の画像フレーム内の複数の画素の各々について、複数の第2の運動ベクトル値と複数の第1の運動ベクトル値との比較に基づいて、相似パラメータが決定できる。画素に関連する相似パラメータは、対応する第1の運動ベクトル値と対応する第2の運動ベクトル値との間の相似を示すことができる。画像処理装置102は、現在の画像フレーム内の複数の画素の各々に関する相似パラメータを特定の閾値と比較して、現在の画像フレームから1つまたは複数の背景領域を抽出するようにさらに構成できる。例えば、画像処理装置102は、相似パラメータが特定閾値を超える現在の画像フレームから1つまたは複数の画素を抽出することができる。抽出された1つまたは複数の画素は、抽出された1つまたは複数の背景領域を構成することができる。1つまたは複数の背景領域の抽出は、例えば、図3、図4Aおよび図4Bで詳細に説明する。
[0026] 実施形態によれば、画像処理装置102は、複数の画素の各々について決定された信頼スコアおよび決定された相似パラメータに基づいて、信頼マップを生成するようにさらに構成できる。生成された信頼マップは、1つまたは複数の背景領域の各々を検出しおよび抽出する信頼レベルを示すことができる。信頼レベルは、信頼スコアによって数値的に表わすことができる。信頼マップは、信頼スコアに従って抽出された1つまたは複数の背景領域をグラフで表わすことができる。実施形態によれば、決定された信頼スコアが予め定めたまたは定めた下限信頼閾値以下のとき、画像処理装置102は、複数の第1の運動ベクトル値を計算するために、複数の第1の運動ベクトル値の決定された信頼スコアに基づいて、空間情報を使用するように構成できる。予め定めたまたは定めた下限信頼閾値には、ユーザー108が予め定義しまたは特定した閾値設定値を参照することができる。
[0027] 実施形態によれば、複数の第1の運動ベクトル値について決定した信頼スコアが予め定めたまたは定めた上限信頼閾値を超えるとき、画像処理装置102は、複数の第1の運動ベクトル値に基づいて、1つまたは複数の背景領域を抽出するように構成できる。さらに別の実施形態によれば、画像処理装置102は、第1の運動ベクトル値に関する決定された信頼スコアが、予め定めまたは定めた下限信頼閾値および予め定めたまたは定めた上限信頼閾値の特定範囲内にあるとき、複数の第1の運動ベクトル値および複数の第2の運動ベクトル値に基づいて、1つまたは複数の背景領域を抽出するように構成できる。
[0028] 実施形態によれば、画像処理装置102は、抽出された1つまたは複数の背景領域を利用して、現在の画像フレーム内の1つまたは複数の関心オブジェクトを検出するように構成できる。画像処理装置102は、生成された信頼マップをさらに利用して、1つまたは複数の関心オブジェクトを検出することができる。1つまたは複数の背景領域が正確に抽出されると、画像処理装置102は、検出された1つまたは複数の関心オブジェクトに、1つまたは複数の画像処理操作を実行すること(例えば、1つまたは複数の関心オブジェクトに自動焦点調整し、または1つまたは複数の関心オブジェクトの視覚パラメータを変更するなど)ができる。
[0029] 図2は、本開示の実施形態による、例示的な画像処理装置を示すブロック図である。図2は図1の要素と併せて説明する。図2を参照すると、画像処理装置102で実施されるブロック図200が示される。ブロック図200は、処理回路200Aおよび光学回路200Bを含むことができる。処理回路200Aは、画像プロセッサ202などの1つまたは複数のプロセッサ、メモリー204、オプティカルフロー発生器206、運動センサー208、背景抽出器210、入出力(I/O)機器212およびトランシーバ214などを含むことができる。I/O機器212は、ディスプレイ212Aをさらに含むことができる。光学回路200Bは、定常ショットのために撮像装置制御装置218によって制御される、定めた寸法の撮像装置216を含むことができる。光学回路200Bは、レンズ制御装置222およびレンズ駆動装置224によって制御される複数のレンズ220をさらに含むことができる。複数のレンズ220は、絞り220Aをさらに含むことができる。さらに、光学回路200B内にシャッタ226が示される。シャッタ226により、光が所定時間通過して、撮像装置216を光に曝し、一連の画像フレーム110を取り込むことができる。
[0030] ブロック図200は、画像処理装置102などの例示的な画像処理装置に実装されるように示すが、本開示の様々な実施形態はそのように限定されない。したがって、実施形態によれば、ブロック図200は、本開示の様々な実施形態の範囲から逸脱することなく、サーバー104などの例示的なサーバーに実装することができる。
[0031] 図2を参照して、画像プロセッサ202に、メモリー204、オプティカルフロー発生器206、運動センサー208、背景抽出器210、入出力(I/O)機器212およびトランシーバ214が通信可能に接続できる。背景抽出器210は、オプティカルフロー発生器206からの一連の画像フレーム110のオプティカルフローマップおよび運動センサー208からの入力を受信するように構成できる。複数のレンズ220は、レンズ制御装置222およびレンズ駆動装置224に接続することができる。複数のレンズ220は、画像プロセッサ202に関連するレンズ制御装置222によって制御することができる。
[0032] 画像プロセッサ202は、メモリー204に保存された一組の命令を実行するように構成できる適切なロジック、回路、インターフェースおよび/またはコードを備えることができる。画像プロセッサ202は、背景抽出器210に命令して、画像処理装置102によって取り込まれた一連の画像フレーム110から1つまたは複数の背景領域を抽出するように構成できる。画像プロセッサ202は、当技術分野で公知であるいくつかのプロセッサ技術に基づいて実装される、特殊な画像処理用途プロセッサにすることができる。画像プロセッサ202の例には、限定されないが、X86ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサおよび/または他のハードウェアプロセッサが含まれる。
[0033] メモリー204は、画像プロセッサ202、オプティカルフロー発生器206および背景抽出器210によって実行可能な一組の命令を保存するように構成できる適切なロジック、回路、および/またはインターフェースを備えることができる。メモリー204は、画像処理装置102によって取り込まれた一連の画像フレーム110(現在の画像フレームおよび以前の画像フレームなど)を保存するように構成できる。メモリー204は、画像処理装置102のオペレーティングシステムおよび関連するアプリケーションを保存するようにさらに構成できる。メモリー204の例には、限定されないが、ランダムアクセスメモリ(RAM)、読取り専用メモリー(ROM)、ハードディスクドライブ(HDD)および/またはフラッシュドライブが含まれ得る。
[0034] オプティカルフロー発生器206は、画像処理装置102によって取り込まれたビデオコンテンツの一連の画像フレーム110をメモリー204から受信するように構成できる適切なロジック、回路、および/またはインターフェースを備えることができる。オプティカルフロー発生器206は、一連の画像フレーム110内の現在の画像フレームと、一連の画像フレーム110内の現在の画像フレームの前にある画像フレームとに基づいてオプティカルフローマップを生成するようにさらに構成できる。現在の画像フレームの前に位置する画像フレームは、以前の画像フレームと呼ぶことができる。フロー発生器206の例には、X86ベースのプロセッサ、RISCプロセッサ、ASICプロセッサ、CISCプロセッサおよび/または他のハードウェアプロセッサが含まれる。オプティカルフロー発生器206は、画像処理装置102内の別個のプロセッサまたは回路(図示する)として実装することができる。実施形態によれば、オプティカルフロー発生器206および画像プロセッサ202は、オプティカルフロー発生器206および画像プロセッサ202の機能を実行する、統合プロセッサまたは一群のプロセッサとして実装することができる。
[0035] 運動センサー208は、画像処理装置102などの装置における運動(直線または角度)を検出するように構成できる適切なロジック、回路、インターフェース、および/またはコードを備えることができる。例えば、運動センサー208は、一連の画像フレーム110のうちある画像フレーム内の複数の画素の角速度情報を検出するように構成できる。運動センサー208の例には、限定されないが、ジャイロセンサー、加速度計などが含まれ得る。
[0036] 背景抽出器210は、画像フレーム(一連の画像フレーム110のうち現在の画像フレームなど)から1つまたは複数の背景領域を抽出するように構成できる適切なロジック、回路および/またはインターフェースを備えることができる。背景抽出器210は、以前の画像フレームに対して、現在の画像フレーム内の複数の画素について複数の第1の運動ベクトル値を計算するために、様々なアルゴリズムおよび数学関数を実装するように構成できる。複数の第1の運動ベクトル値は、オプティカルフロー発生器206によって生成されたオプティカルフローマップを用いて計算することができる。複数の第1の運動ベクトル値は、以前の画像フレームから現在の画像フレームへの複数の画素の各々の相対運動に対応することができる。背景抽出器210は、運動センサー208から受信した入力(角速度情報など)に基づいて、現在の画像フレーム内の複数の画素について複数の第2の運動ベクトル値を計算するために、様々なアルゴリズムおよび数学関数を実装するようにさらに構成できる。現在の画像フレームにおける1つまたは複数の背景領域の抽出は、計算した複数の第1の運動ベクトル値および計算した複数の第2の運動ベクトル値に基づくことができる。背景抽出器210は、画像処理装置102に別個のプロセッサまたは回路(図示した)として実装することができる。実施形態によれば、背景抽出器210および画像プロセッサ202は、背景抽出器210および画像プロセッサ202の機能を実行する統合プロセッサまたは一群のプロセッサとして実装することができる。
[0037] I/O機器212は、ユーザー108などのユーザーから入力を受信するように構成できる適切なロジック、回路、インターフェースおよび/またはコードを備えることができる。I/O機器212は、ユーザー108に出力を与えるようにさらに構成できる。I/O機器212は、画像プロセッサ202と通信するように構成できる様々な入力機器および出力機器を備えることができる。入力機器の例には、限定されないが、タッチスクリーン、キーボード、マウス、ジョイスティック、マイクおよび/または画像取込み機器が含まれる。出力機器の例には、限定されないが、ディスプレイ212Aおよび/またはスピーカーが含まれる。
[0038] ディスプレイ212Aは、抽出された1つまたは複数の背景領域をユーザー108に表示するように構成できる適切なロジック、回路、インターフェースおよび/またはコードを備えることができる。ディスプレイ212Aは、限定されないが、液晶ディスプレイ(LCD)ディスプレイ、発光ダイオード(LED)ディスプレイ、プラズマディスプレイおよび/または有機LED(OLED)ディスプレイ技術、ならびに/あるいは他のディスプレイのうちの少なくとも1つなどの、いくつかの公知の技術で実現することができる。実施形態によれば、ディスプレイ212Aは、スマートガラス機器のディスプレイスクリーン、投影ベースのディスプレイ、エレクトロクロミックディスプレイおよび/または透明ディスプレイなどの様々な出力機器を指すことができる。
[0039] トランシーバ214は、通信ネットワーク106を介して、サーバー104に一連の画像フレーム110を送信するように構成できる適切なロジック、回路、インターフェースおよび/またはコードを備えることができる。トランシーバ214は、通信ネットワーク106との有線または無線通信をサポートするための公知技術を実装することができる。トランシーバ214は、限定されないが、アンテナ、周波数変調(FM)トランシーバ、無線周波数(RF)トランシーバ、1つまたは複数の増幅器、チューナ、1つまたは複数の発振器、デジタル信号プロセッサ、コーダー・デコーダー(CODEC)チップセット、加入者識別モジュール(SIM)カードおよび/またはローカルバッファを含むことができる。トランシーバ214は、無線通信を介して、インターネット、イントラネットなどのネットワークと通信し、ならびに/あるいは携帯電話ネットワーク、無線ローカルエリアネットワーク(LAN)などの無線ネットワークおよび/またはメトロポリタンエリアネットワーク(MAN)と通信することができる。無線通信は、複数の通信標準、プロトコル及び技術の何れかが使用でき、例えばロングタームエボリューション(LTE)、グローバルシステムフォーモバイルコミュニケーション(GSM)、高まったデータGSM環境(EDGE)、広帯域符号分割多重アクセス(W−CDMA)、コード分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、ブルートゥース(登録商標)、ワイヤレスフィディリティ(Wi−Fi)(e.120g、IEEE802.11a、IEEE802.11b、IEEE802.11g及び/又はIEEE802.11n)、語りインターネットプロトコル(VoIP)、Wi−MAX、電子メール、インスタントメッセージ及び/又はショートメッセージサービス(SMS)が含まれる。
[0040] 撮像装置216は、画像(一連の画像フレーム110の複数の画像フレームなど)を、アナログ光信号から一連のデジタル画素に歪みなしに変換するように構成できる適切な回路および/またはインターフェースを備えることができる。撮像装置216の例には、限定されないが、電荷結合素子(CCD)撮像装置および相補型金属酸化膜半導体(CMOS)撮像装置が含まれる。
[0041] 撮像装置制御装置218は、画像プロセッサ202から受信した命令に基づいて、撮像装置216の向きまたは方向を制御するように構成できる適切なロジック、回路、および/またはインターフェースを備えることができる。撮像装置制御装置218は、当業者に周知のいくつかの技術を用いることによって実装できる。
[0042] 複数のレンズ220は、オブジェクト(オブジェクト112など)の画像(一連の画像フレーム110など)を取り込むカメラ本体および機構とともに使用される、光学レンズまたはレンズ組立品に対応することができる。画像は、画像を化学的または電子的に保存できる、写真フィルムまたは他のメディアの何れかによって取り込むことができる。
[0043] レンズ制御装置222は、複数のレンズ220のズーム、焦点、絞り220Aまたは口径などの様々な特性を制御するように構成できる適切なロジック、回路、および/またはインターフェースを備えることができる。レンズ制御装置222は、内部的に画像処理装置102の撮像ユニットの一部にすることができ、または画像プロセッサ202とともに独立型ユニットにすることができる。レンズ制御装置222は、当業者に周知のいくつかの技術を用いることによって実装できる。
[0044] レンズ駆動装置224は、レンズ制御装置222から受信した命令に基づいて、ズームおよび焦点および絞り制御を実行するように構成できる適切なロジック、回路、および/またはインターフェースを備えることができる。レンズ駆動装置224は、当業者に周知のいくつかの技術を使用することによって実装できる。
[0045] 動作時、画像処理装置102などの例示的な装置は、一連の画像フレーム110を複数のレンズ220を介して取り込むことができる。複数のレンズ220は、画像プロセッサ202とともに、レンズ制御装置222およびレンズ駆動装置224によって制御することができる。複数のレンズ220は、ユーザーから受信した入力信号に基づいて制御することができる。入力信号は、画像処理装置102において利用可能なディスプレイ212Aに表示されるグラフィカルボタン、ジェスチャ、および/またはハードウェアボタンのボタン押下イベントの選択を介して、ユーザーが与えることができる。代わりに、画像処理装置102は、メモリー204に予め保存された別の一連の画像フレームを検索することができる。一連の画像フレーム110は、ビデオクリップなどのビデオに対応することができ、少なくとも現在の画像フレームおよび以前の画像フレームを含むことができる。
[0046] 背景抽出器210は、現在の画像フレーム内の複数の画素について、オプティカルフロー発生器206によって生成されたオプティカルフローマップを用いて、複数の第1の運動ベクトル値を計算するように構成できる。オプティカルフローマップは、現在の画像フレーム内の複数の画素と以前の画像フレーム内の複数の画素との画素値の差に基づいて生成することができる。複数の第1の運動ベクトル値は、以前の画像フレームから現在の画像フレームへの複数の画素の各々の相対運動に対応することができる。以前の画像フレームから現在の画像フレームへの複数の画素の各々の相対運動のそのような計算は、当技術分野で公知の様々な数学関数に基づいて決定することができる。そのような数学関数の例には、限定されないが、絶対差の和(SAD)関数、二乗差の和(SSD)関数、絶対差の加重和(WSAD)関数、および/または二乗和の加重和(WSSD)関数が含まる。それにもかかわらず、本開示の範囲から逸脱することなく、複数の画素の各々の相対運動を計算するために、当技術分野で公知の他の数学関数も実装することができる。複数の画素の各々のそのような計算した相対運動は、次の数式(1)
Figure 2021082316
で表すことができる。
[0047] 実施形態によれば、背景抽出器210は、計算した複数の第1の運動ベクトル値について定めた一組のパラメータに基づいて信頼スコアを決定することができる。例えば、定めた一組のパラメータは、限定されないが、画像フレームの全面積に関して1つまたは複数の前景オブジェクトによってカバーされる領域、および/または画像フレームの前景および背景領域のコントラストレベルを含むことができる。複数の第1の運動ベクトル値の各々の決定された信頼スコアは、対応する第1の運動ベクトル値の精度パラメータを示すことができる。例えば、ある画素の第1のベクトル値に関連する高い信頼スコアは、別の画素の第1の運動ベクトル値に関連する低い信頼スコアと比べて、精度を高くすることができる。例えば、画像フレーム内のコントラスト比が低い第1組の画素について計算した第1の運動ベクトル値は、画像フレーム内のコントラスト比が高い第2組の画素について計算した第1の運動ベクトル値と比べて、低い信頼スコアを示す。
[0048] 背景抽出器210は、現在の画像フレーム内の複数の画素について複数の第2の運動ベクトル値を計算するように構成できる。背景抽出器210は、運動センサー208によって提供される入力(角速度情報など)に基づいて、複数の第2の運動ベクトル値を計算することができる。複数の第2の運動ベクトル値の計算は、画像処理装置102などの例示的な装置の1つまたは複数のデバイスパラメータにさらに基づくことができる。1つまたは複数のデバイスパラメータの例には、限定されないが、複数のレンズ220の有効焦点距離、多数の水平画素の数、および撮像装置216の幅が含まれる。計算した複数の第2の運動ベクトル値は、
Figure 2021082316
として表すことができる。複数の第2の運動ベクトル値は、運動センサー208に基づいて、以前の画像フレーム内の複数の画素に対する現在の画像フレーム内の複数の画素の運動を示すことができる。複数の画素のこのような運動は、例えば、次の数式(2)
Figure 2021082316
によって表すことができ、式中
Figure 2021082316
であり、式中、
θは、時間Δt(秒)中に運動センサー208から受信した角速度情報
Figure 2021082316
(度/秒)に基づいて計算した移動角度を表し、
f(mm)は、複数のレンズ220のうちあるレンズの焦点距離を表す。
画素あたりの撮像装置サイズ(m)=X/H*10-3
であり、式中、
Xは撮像装置216の幅を表し、
Hは撮像装置216の水平画素の総数を表す。
[0049] 実施形態によれば、背景抽出器210は、複数の画素のうち計算した複数の第1の運動ベクトル値を複数の第2の運動ベクトル値と比較するように構成できる。背景抽出器210は、現在の画像フレーム内の複数の画素の各々について、複数の第2の運動ベクトル値と複数の第1の運動ベクトル値との比較に基づいて、相似パラメータをさらに決定することができる。言い換えると、画素に関連して決定された相似パラメータは、対応する第1の運動ベクトル値と対応する第2の運動ベクトル値との間の相似を示すことができる。背景抽出器210は、現在の画像フレーム内の複数の画素の各々に関連する相似パラメータを、特定された閾値と比較するようにさらに構成できる。閾値は、ユーザー08によって予め特定することができる。1つまたは複数の背景領域は、現在の画像フレーム内の複数の画素の各々について、相似パラメータと特定された閾値との間の比較に基づいて、現在の画像フレームから抽出することができる。例えば、相似パラメータが特定された閾値を超える1つまたは複数の画素は、1つまたは複数の背景領域を構成すると考えられるので、背景抽出器210によって抽出することができる。
[0050] 実施形態によれば、背景抽出器210は、複数の画素の各々について、決定された信頼スコアおよび決定された相似パラメータに基づいて、信頼マップを生成するようにさらに構成できる。信頼マップは、抽出された1つまたは複数の背景領域を、信頼スコアに従ってグラフで表すことができる。言い換えると、生成された信頼マップは、背景抽出器210が1つまたは複数の背景領域の各々を検出しおよび抽出した信頼レベルを示すことができる。信頼マップにおける高い信頼レベルに関連付けた背景領域は、信頼マップにおける信頼が低い信頼レベルに関連付けた別の背景領域と比較して、抽出された領域が現在の画像フレームにおいて実際の背景領域を表す可能性が高いことを示し得る。生成された信頼マップでは、低い信頼スコアに関連付けたある画素は低い信頼レベルにさらに関連付け、高い信頼スコアに関連付けた別の画素はさらに高い信頼レベルに関連付ける。従って、信頼スコアが低い画素を含む背景領域は、信頼マップにおいて低い信頼レベルに関連付けることができる。
[0051] 実施形態によれば、背景抽出器210は、抽出された1つまたは複数の背景領域および生成された信頼マップを、画像プロセッサ202に提供するようにさらに構成できる。画像プロセッサ202は、抽出された1つまたは複数の背景領域および生成された信頼マップに基づいて、現在の画像フレーム内の関心オブジェクト(オブジェクト112など)を検出するように構成できる。画像プロセッサ202は、関心オブジェクト上で1つまたは複数の画像処理操作をさらに実行することができる。1つまたは複数の画像処理操作は、限定されないが、関心オブジェクトへの自動焦点調整、関心オブジェクトの視覚パラメータ(色、色相、彩度、コントラストおよび/または明るさなど)の強化が含まれる。図3に、1つまたは複数の背景領域の抽出の例を示す。
[0052] 図3は、本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサベースの背景差分の例示的なシナリオを示す。図3は、図1および図2の要素と併せて説明する。図3を参照すると、生放送のサッカーの試合のシーンに対応する、以前の画像フレーム302および現在の画像フレーム304を含む例示的なシナリオ300が示される。シーンには、4人のサッカー選手、観客およびサッカー場が含まれる。画像処理装置102などの撮像装置は、最大ズームに設定されている。したがって、シーン内のサッカー選手は、観客およびサッカー場と比べて画像処理装置102により近くに見え、以前の画像フレーム302および現在の画像フレーム304の大部分を占める。取り込まれたシーンは、ビデオコンテンツに対応することができる。観客およびサッカー場は、1つまたは複数の背景領域に対応することができ、4人のサッカー選手は、関心オブジェクト(すなわち、1つまたは複数の前景領域)に対応することができる。例示的なシナリオ300は、オプティカルフローマップ306と、センサー入力308と、背景抽出器210によって生成された背景差分の異なる出力(出力312など)とをさらに含む。さらに、オプティカルフロー発生器206、運動センサー208および背景抽出器210(図2)が示される。
[0053] 簡潔にするために、オプティカルフローマップ306内の複数の領域は、異なるパターンで示される。しかしながら、当業者であれば、本開示の範囲は、実際のオプティカルフローマップに似るようにするため、オプティカルフローマップ306の例示的な表現に限定されないことを理解する。例えば、実際のオプティカルフロー内の複数の領域は、通常、異なる色合いまたは同じ色の強度変化によって表される。
[0054] 例示的なシナリオ300を参照して、以前の画像フレーム302および現在の画像フレーム304は、一連の画像フレーム110に対応することができる。以前の画像フレーム302は、時刻t-1にて取り込むことができ、現在の画像フレーム304は、次の時刻tにて取り込むことができる。オプティカルフロー発生器206は、当技術分野で公知の1つまたは複数の技法に基づいて、オプティカルフローマップ306を生成することができる。オプティカルフローマップ306は、複数の領域306a、・・・、306jを備えることができる。複数の領域306a、・・・306j内の領域306a、306bおよび306gは、シーン内の4人のサッカー選手に対応する。領域306hおよび306iは、シーン内の観客に対応する。さらに、領域306c、306d、306eおよび306iは、シーン内のサッカー場に対応する。
[0055] オプティカルフロー発生器206は、生成されたオプティカルフローマップ306を背景抽出器210に与えることができる。背景抽出器210は、現在の画像フレーム304内の複数の画素について複数の第1の運動ベクトル値を計算し、計算は、図2で説明したように、数式(1)を用いることによってオプティカルフローマップ306に基づいて行うことができる。背景抽出器210は、運動センサー208からセンサー入力308(角速度情報など)をさらに受信することができる。次いで、背景抽出器210は、センサー入力308に基づいて、現在の画像フレーム304内の複数の画素について複数の第2の運動ベクトル値を計算することができる。背景抽出器210は、画像処理装置102の1つまたは複数のデバイスパラメータ(複数のレンズ220の焦点距離、水平画素の数、および撮像装置216の幅など)をさらに用いて、複数の第2の運動ベクトル値を計算することができる。背景抽出器210は、図2に記載するように数式(2)に基づいて複数の第2の運動ベクトル値を計算し、計算は、以前の画像フレーム302および現在の画像フレーム304に対応するセンサー入力308に適用することができる。
[0056] 背景抽出器210は、現在の画像フレーム304から、複数の第1の運動ベクトル値に基づいて1つまたは複数の背景領域を抽出することができる。背景抽出器210は、背景抽出器210の出力312に示すように、現在の画像フレーム304から、複数の第1の運動ベクトル値および複数の第2の運動ベクトル値に基づいて1つまたは複数の背景領域314B、・・・、314Iを抽出する。出力312に含まれる抽出された1つまたは複数の背景領域314B、・・・、314Iは、現在の画像フレーム304における実際の1つまたは複数の背景領域を正確に表すことができる。背景抽出器210はさらに、複数の画素のうち、計算した複数の第1の運動ベクトル値を複数の第2の運動ベクトル値と比べて、現在の画像フレーム304内の複数の画素の各々に関する相似パラメータを決定することができる。次いで、背景抽出器210は、複数の画素の各々に関する相似パラメータを特定された閾値と比較して、現在の画像フレーム304内の1つまたは複数の背景領域314B、・・・、314Iを抽出することができる。
[0057] 実施形態によれば、背景抽出器210は、計算した複数の第1の運動ベクトル値に関する信頼スコアを、定めた一組のパラメータに基づいて決定することができる。定めた一組のパラメータには、限定されないが、画像フレームの全面積に関して画像フレーム内の前景オブジェクトによってカバーされる領域および/または画像フレームのコントラストレベルが含まれる。
[0058] 実施形態によれば、背景抽出器210は、現在の画像フレーム304内の複数の画素の各々について、決定された信頼スコアおよび決定された相似パラメータに基づいて信頼マップを生成することができる。信頼マップは、1つまたは複数の背景領域(抽出された1つまたは複数の背景領域314B)を信頼スコアに従って表すことができる。例えば、生成された信頼マップにおいて背景領域314Cおよび314Dは、背景領域314Bおよび314D、・・・、314Iと比べて信頼レベルが低い。したがって、現在の画像フレーム304の実際の(または真の)背景領域を表すための背景領域314Cおよび314Dの可能性は、現在の画像フレーム304の実際の(または真の)背景領域を表すための背景領域314Bおよび314D、・・・、314Iの可能性と比べて低い。
[0059] 実施形態によれば、画像プロセッサ202は、出力312および生成された信頼マップに基づいて、現在の画像フレーム304の1つまたは複数の前景領域を検出することができる。画像プロセッサ202は、現在の画像フレーム304の1つまたは複数の前景領域として、抽出された1つまたは複数の背景領域314B、・・・、314Iから離れた任意の領域を検出することができる。実施形態によれば、画像プロセッサ202は、背景領域314Cおよび314Dを検出された1つまたは複数の前景領域に含めることができ、その理由は、生成された信頼マップ内の信頼レベルが背景領域314Bおよび314D、・・・、3141と比べて低いためである。次いで、画像プロセッサ202は、1つまたは複数の前景領域に1つまたは複数の画像処理操作を実行することができる。
[0060] 実施形態によれば、画像処理装置102は、撮像装置(例えば、デジタルカメラまたはカムコーダー)に対応することができる。撮像装置は、抽出された1つまたは複数の背景領域(1つまたは複数の背景領域314B、・・・、314Iなど)を用いて、現在の画像フレーム304内の1つまたは複数の関心オブジェクトを検出することができる。撮像装置は、現在の画像フレーム304内で運動している1つまたは複数のオブジェクトを検出するためにさらに使用できる。運動している1つまたは複数のオブジェクトは、1つまたは複数の関心オブジェクトに対応することができる。さらに、撮像装置を用いて、検出された1つまたは複数の関心オブジェクトに自動焦点調整することができる。1つまたは複数の関心オブジェクトの1つまたは複数の視覚パラメータ(例えば、明るさ、コントラスト、色相、彩度または色)は、1つまたは複数の背景領域の抽出に基づいて、撮像装置によって修正することができる。画像処理装置102は、例えば、ビデオ監視装置として使用することができる。
[0061] 画像フレーム(現在の画像フレーム304など)から1つまたは複数の背景領域(1つまたは複数の背景領域314B、・・・、314Iなど)を、複数の第1の運動ベクトル値および複数の第2の運動ベクトル値に基づいて抽出することにより、画像処理装置102などの装置に1つまたは複数の前景領域を1つまたは複数の背景領域から正確にセグメント化する能力が与えられる。さらに、画像フレーム内の1つまたは複数の前景領域で覆われている領域が、画像フレーム内の1つまたは複数の背景領域で覆われている領域よりも比較的大きいシナリオでは、画像処理装置102は、1つまたは複数の背景領域(1つまたは複数の背景領域314B、・・・、314Iなど)を、従来の画像処理装置と比べてより高い精度で抽出する。別言すると、開示された装置および方法は、1つまたは複数の背景領域によって覆われた領域が1つまたは複数の前景領域によって覆われた領域よりも比較的小さいシナリオにおいて、画像フレームから1つまたは複数の背景領域を抽出する。
[0062] 図4Aおよび4Bは、本開示の実施形態による、ビデオコンテンツにおけるオプティカルフローおよびセンサベースの背景差分に関する例示的な動作を示すフローチャートを一緒に示す。図4Aおよび4Bを参照すると、フローチャート400が示される。フローチャート400は、図1、図2、図3と併せて説明する。ビデオコンテンツにおけるオプティカルフローおよびセンサベースの背景差分について画像処理装置102で実施する動作は、ステップ402で始まり、ステップ404に進む。
[0063] ステップ404において、一連の画像フレームを含むビデオコンテンツが取り込まれ得る。画像処理装置102の画像プロセッサ202は、レンズ制御装置222および撮像装置制御装置218に、複数のレンズ220および撮像装置216を制御するように指示して、ビデオコンテンツの一連の画像フレームを取り込むことができる。実施形態によれば、画像処理装置102は、メモリー204および/またはサーバー104からビデオコンテンツの一連の画像フレームを取り出すことができる。一連の画像フレームは、少なくとも現在の画像フレームおよび以前の画像フレームを含むことができる。一例が図3に図示されおよび説明され、画像処理装置102は、以前の画像フレーム302および現在の画像フレーム304を含む一連の画像フレーム110を取り込む。
[0064] ステップ406において、ビデオコンテンツの現在の画像フレームのオプティカルフローマップが生成できる。オプティカルフロー発生器206は、現在の画像フレームおよび以前の画像フレームに基づいて、オプティカルフローマップを生成するように構成できる。一例が図3に図示及び説明され、オプティカルフロー発生器206は、現在の画像フレーム304および以前の画像フレーム302に基づいてオプティカルフローマップ306を生成する。
[0065] ステップ408において、以前の画像フレームに対して、現在の画像フレーム内の複数の画素について複数の第1の運動ベクトル値が計算できる。背景抽出器210は、オプティカルフローマップを用いることによって、現在の画像フレーム内の複数の画素について複数の第1の運動ベクトル値を計算するように構成できる。一例が図2および図3に図示および説明され、背景抽出器210は、オプティカルフローマップ306を用いることによって、現在の画像フレーム304内の複数の画素について複数の第1の運動ベクトル値を計算する。背景抽出器210は、複数の第1の運動ベクトル値を計算するために、様々なアルゴリズムおよび数学関数(例えば、図2に説明するような数式(1))を実装することができる。
[0066] ステップ410において、運動センサーからのセンサー入力が受信できる。背景抽出器210は、運動センサー208からセンサー入力を受信するように構成できる。一例が図2および図3に図示および説明され、背景抽出器210は、運動センサー208からセンサー入力308(角速度情報など)を受信する。
[0067] ステップ412において、現在の画像フレーム内の複数の画素について複数の第2の運動ベクトル値が計算できる。背景抽出器210は、現在の画像フレーム内の複数の画素について、受信したセンサー入力に基づいて複数の第2の運動ベクトル値を計算するように構成できる。一例が図2および図3に図示および説明され、背景抽出器210は、現在の画像フレーム304内の複数の画素について、受信したセンサー入力308に基づいて複数の第2の運動ベクトル値を計算する。背景抽出器210は、複数の第2の運動ベクトル値の計算のための様々なアルゴリズムおよび数学関数(例えば、図2に説明するような数式(2))を実装することができる。
[0068] ステップ414において、複数の第1の運動ベクトル値について信頼スコアが決定できる。背景抽出器210は、複数の第1の運動ベクトル値について定めた一組のパラメータに基づいて信頼スコアを決定するように構成できる。一例が、図2および図3に図示および説明され、背景抽出器210は、定めた一組のパラメータに基づいて、複数の第1の運動ベクトル値の信頼スコアを決定する。
[0069] ステップ416において、複数の第2の運動ベクトル値は、複数の第1の運動ベクトル値と比較することができる。背景抽出器210は、複数の第2の運動ベクトル値を複数の第1の運動ベクトル値と比較するように構成できる。一例が図2および図3に図示および説明され、背景抽出器210は、複数の第2の運動ベクトル値を複数の第1の運動ベクトル値と比較する。
[0070] ステップ418において、現在の画像フレーム内の複数の画素の各々に関する相似パラメータが決定できる。背景抽出器210は、現在の画像フレーム内の複数の画素の各々について、複数の第2の運動ベクトル値と複数の第1の運動ベクトル値との比較に基づいて相似パラメータを決定するように構成できる。一例が図2および図3に図示および説明され、背景抽出器210は、現在の画像フレーム304内の複数の画素の各々に関連して相似パラメータを決定する。
[0071] ステップ420において、複数の画素のうちある画素に関連する相似パラメータは、特定された閾値と比較することができる。背景抽出器210は、複数の画素のうちある画素に関連する相似パラメータを特定された閾値と比較するように構成できる。閾値は、画像処理装置102に関連付けたユーザー108によって予め特定することができる。一例が図2および図3に図示および説明され、背景抽出器210は、現在の画像フレーム304内の複数の画素の各々に関連する相似パラメータを特定された閾値と比較する。
[0072] ステップ422において、相似パラメータが特定された閾値を超える画素は、1つまたは複数の背景領域に含むことができる。背景抽出器210は、抽出すべき1つまたは複数の背景領域において、相似パラメータが特定された閾値を超える画素を含むように構成できる。背景抽出器210は、対応する相似パラメータが特定された閾値を超える、1つまたは複数の背景領域内の全ての画素を含むことができる。
[0073] ステップ424において、現在の画像フレームから1つまたは複数の背景領域が抽出できる。背景抽出器210は、現在の画像フレームから、対応する相似パラメータが特定された閾値を超える全ての画素を含む1つまたは複数の背景領域を抽出するように構成できる。背景抽出器210は、信頼レベルを示す信頼マップをさらに生成し、信頼レベルによって複数の画素のうちある画素が1つまたは複数の背景領域に含まれるように抽出される。現在の画像フレーム内の複数の画素について、複数の第1の運動ベクトル値に関連する相似パラメータおよび信頼スコアに基づいて、信頼マップが生成できる。背景抽出器210は、現在の画像フレーム304をさらに処理する(例えば、1つまたは複数の前景領域を検出しまたは関心オブジェクトに自動焦点調整する)ために、画像プロセッサ202に、抽出された1つまたは複数の背景領域を与えることができる。一例が図2および図3に図示および説明され、背景抽出器210は、現在の画像フレーム304から1つまたは複数の背景領域314B、・・・、314Iを抽出する。制御は終了426に進むことができる。
[0074] 本開示の実施形態によれば、画像処理のための装置が開示される。画像処理装置102(図1)などの装置は、1つまたは複数のプロセッサ(画像プロセッサ202、オプティカルフロー発生器206、背景抽出器210(図2)など)を備えることができる。背景抽出器210は、以前の画像フレーム(以前の画像フレーム302(図3)など)に対して、現在の画像フレーム(現在の画像フレーム304(図3)など)内の複数の画素について、オプティカルフローマップ(オプティカルフローマップ306(図3)など)を用いて複数の第1の運動ベクトル値を計算するように構成できる。背景抽出器210は、現在の画像フレーム304内の複数の画素について、画像処理装置102に設けたセンサー(運動センサー208(図2)など)から受信する入力(センサー入力308(図3)など)に基づいて、複数の第2の運動ベクトル値を計算するように構成できる。背景抽出器210は、定めた一組のパラメータに基づいて、複数の第1の運動ベクトル値の信頼スコアを決定するようにさらに構成できる。背景抽出器210は、現在の画像フレーム304から、決定された信頼スコアと、複数の第1の運動ベクトル値と複数の第2の運動ベクトル値との間の相似パラメータとに基づいて、1つまたは複数の背景領域(1つまたは複数の背景領域314B、・・・、314Iなど)(図3))を抽出するようにさらに構成できる。
[0075] 本開示の様々な実施形態は、ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分のための装置および方法を含む多くの利点を包含する。オプティカルフローおよびセンサー入力ベースの背景差分により、関心オブジェクトが画像取込み機器の近くにある場合における誤った背景抽出が克服される。例えば、シーンの画像フレームを最大ズームで取り込む場合、関心オブジェクトは画像取込み機器に非常に近く、取り込まれた画像フレームの大部分を占めるように見える。例えば、図3に示すように、画像処理装置は最大ズームで動作することができるので、4人のサッカー選手が現在の画像フレーム304および以前の画像フレーム302の大部分を占める。このシナリオでは、背景領域は関心オブジェクトに比べて占める割合が少なくなる。このようなシナリオにおける従来の装置および方法による背景抽出は、通常、従来の装置が画像フレーム内の最大部分を背景領域として抽出するため、不正確になる可能性がある。背景抽出器210により画像処理装置102は、画像内の背景領域のカバレージに関係なく、1つまたは複数の背景領域を正確に抽出することができる。
[0076] 背景抽出器210は、抽出された背景領域が画像フレームにおける実際の背景領域を表す可能性を示す信頼マップをさらに生成する。したがって、画像プロセッサ202は、信頼マップおよび抽出された1つまたは複数の背景領域を利用して信頼性が高い背景領域を識別することができ、この背景領域は、画像フレームをさらに処理するために利用され得る。
[0077] 本開示の様々な実施形態は、非一時的なコンピュータ可読媒体および/または記憶媒体、ならびに/あるいは非一時的機械可読媒体および/またはそれに記憶される記憶媒体を提供し、機械コードおよび/またはコンピュータプログラムに画像処理を行うために機械および/またはコンピュータによって実行可能な少なくとも1つのコードセクションを与える。少なくとも1つのコードセクションにより、機械および/またはコンピュータが動作を実行し、動作は、以前の画像フレームに対して、現在の画像フレーム内の複数の画素について複数の第1の運動ベクトル値の計算を、オプティカルフローを用いて実行することを含む。現在の画像フレーム内の複数の画素について、装置に設けたセンサーから受信した入力に基づいて、複数の第2の運動ベクトル値が計算できる。複数の第1の運動ベクトル値の信頼スコアが、定めた一組のパラメータに基づいて決定できる。1つまたは複数の背景領域が、現在の画像フレームから、決定された信頼スコアと、複数の第1の運動ベクトル値と複数の第2の運動ベクトル値との間の相似パラメータとに基づいて抽出できる。
[0078] 本開示は、ハードウェア、又はハードウェアとソフトウェアとの組み合わせで実現することができる。本開示は、少なくとも1つのコンピュータシステムにおいて集中型で、または異なる要素が複数の相互接続されたコンピュータシステムにわたって広がっている分散方式で実現することができる。本明細書に記載した方法を実行するように適合されたコンピュータシステム又は他の装置が適切なことがある。ハードウェアとソフトウェアとの組み合わせは、コンピュータプログラムを持つ汎用コンピュータシステムとすることができ、コンピュータプログラムは、ロードされ実行されたときコンピュータシステムを、それが本明細書に記載した方法を実施するように制御する。本開示は、他の機能も実行する集積回路の一部を備えるハードウェアで実現することができる。
[0079] 本開示はまた、コンピュータプログラムに埋め込むことができ、コンピュータプログラムは、本明細書に記載した方法を実施できる全ての特徴を備え、コンピュータプログラムは、コンピュータシステムにロードされたとき、これらの方法を実施できる。本開示は所定の実施形態を参照して説明されたが、当業者であれば、本開示の範囲から逸脱することなく様々な変更がなされ、均等物が置換されることを理解する。さらに、特定の状況又は材料を本開示の教示に適合させるために、多くの修正が本発明の範囲から逸脱することなくなされる。従って、本開示は、開示された特定の実施形態に限定されず、むしろ本開示は、添付の特許請求の範囲内に属する全ての実施形態を含むことを意図している。
202 画像プロセッサ
206 オプティカルフロー発生器
208 運動センサー
210 背景抽出器
308 センサー入力

Claims (20)

  1. 画像処理のための装置であって、
    1つまたは複数のプロセッサを備え、前記プロセッサは、
    以前の画像フレームに対して現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算し、
    前記現在の画像フレーム内の前記複数の画素について、前記装置に設けたセンサーから受信した入力に基づいて複数の第2の運動ベクトル値を計算し、
    前記複数の第1の運動ベクトル値について、定めた一組のパラメータに基づいて信頼スコアを決定し、および
    前記決定された信頼スコアと、前記複数の第1の運動ベクトル値と前記複数の第2の運動ベクトル値との間の相似パラメータとに基づいて、前記現在の画像フレームから1つまたは複数の背景領域を抽出する、ように構成されている画像処理のための装置。
  2. 前記1つまたは複数のプロセッサは、一連の画像フレームを取り込むようにさらに構成され、前記一連の画像フレームは、少なくとも前記現在の画像フレームおよび前記以前の画像フレームを含む、請求項1に記載の装置。
  3. 前記1つまたは複数のプロセッサは、前記現在の画像フレームおよび前記以前の画像フレーム内の前記複数の画素の画素値の差に基づいて、前記オプティカルフローマップを生成するようにさらに構成されている、請求項1に記載の装置。
  4. 前記受信した入力は、前記現在の画像フレームにある前記複数の画素の各々の角速度情報に対応する、請求項1に記載の装置。
  5. 前記複数の第1の運動ベクトル値の各々は、前記以前の画像フレームから前記現在の画像フレームへの前記複数の画素の各々の相対移動に対応する、請求項1に記載の装置。
  6. 前記複数の第2の運動ベクトル値は、前記装置内に設けたジャイロセンサーについて計算した複数の運動ベクトル値に対応する、請求項1に記載の装置。
  7. 前記複数の第2の運動ベクトル値の前記計算は、前記装置の1つまたは複数のデバイスパラメータにさらに基づき、前記1つまたは複数のデバイスパラメータは、前記装置のレンズの焦点距離、水平画素の数および前記装置に設けた撮像装置構成部品の幅を含む、請求項1に記載の装置。
  8. 前記1つまたは複数のプロセッサは、前記1つまたは複数の背景領域を抽出するために、前記複数の画素の前記複数の第2運動ベクトル値を前記複数の第1運動ベクトル値と比較するようにさらに構成されている、請求項1に記載の装置。
  9. 前記1つまたは複数のプロセッサは、前記現在の画像フレーム内の前記複数の画素の各々について、前記複数の第2の運動ベクトル値と前記複数の第1の運動ベクトル値との前記比較に基づいて、前記相似パラメータを決定するようにさらに構成されている、請求項8に記載の装置。
  10. 前記1つまたは複数のプロセッサは、前記信頼スコアと前記複数の画素の各々に関連する前記相似パラメータとに基づいて信頼マップを生成するようにさらに構成されている、請求項9に記載の装置。
  11. 前記1つまたは複数の背景領域は、前記複数の画素の各々に関連する前記決定された相似パラメータと特定された閾値との比較に基づいて抽出される、請求項10に記載の装置。
  12. 前記現在の画像フレームは、1つまたは複数の前景領域および前記1つまたは複数の背景領域を含む、請求項1に記載の装置。
  13. 画像処理システムであって、
    撮像装置内に1つまたは複数のプロセッサを備え、前記プロセッサは、
    以前の画像フレームに対して現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算し、
    前記現在の画像フレーム内の前記複数の画素について、前記装置に設けたセンサーから受信した入力に基づいて複数の第2の運動ベクトル値を計算し、
    前記複数の第1の運動ベクトル値について、定めた一組のパラメータに基づいて信頼スコアを決定し、
    前記決定された信頼スコアと、前記複数の第1の運動ベクトル値と前記複数の第2の運動ベクトル値との間の相似パラメータとに基づいて、前記現在の画像フレームから1つまたは複数の背景領域を抽出し、および
    前記抽出された1つまたは複数の背景領域に基づいて、前記現在の画像フレーム内の1つまたは複数の関心オブジェクトを検出する、画像処理システム。
  14. 前記検出された1つまたは複数の関心オブジェクトは、前記現在の画像フレーム内で運動している1つまたは複数のオブジェクトに対応する、請求項13に記載の画像処理システム。
  15. 前記撮像装置内の前記1つまたは複数のプロセッサは、前記検出された1つまたは複数の関心オブジェクトに自動焦点調整するようにさらに構成されている、請求項13に記載の画像処理システム。
  16. 前記撮像装置内の前記1つまたは複数のプロセッサは、前記検出された1つまたは複数の関心オブジェクトの1つまたは複数の視覚パラメータを修正するようにさらに構成されている、請求項13に記載の画像処理システム。
  17. 画像処理のための方法であって、方法は、
    一連の画像フレームを扱うように構成された装置において、
    以前の画像フレームに対して現在の画像フレーム内の複数の画素について、オプティカルフローマップを用いて複数の第1の運動ベクトル値を計算するステップと、
    前記現在の画像フレーム内の前記複数の画素について、センサーから受信した入力に基づいて複数の第2の運動ベクトル値を計算するステップと、
    前記複数の第1の運動ベクトル値について、定めた一組のパラメータに基づいて信頼スコアを決定するステップと、および
    前記決定された信頼スコアと、前記複数の第1の運動ベクトル値と前記複数の第2の運動ベクトル値との間の相似パラメータとに基づいて、前記現在の画像フレーム内の1つまたは複数の背景領域を抽出するステップと、を備える画像処理のための方法。
  18. 前記現在の画像フレームおよび前記以前の画像フレーム内の前記複数の画素の画素値の差に基づいて前記オプティカルフローマップを生成するステップをさらに備える、請求項17に記載の方法。
  19. 前記1つまたは複数の背景領域を抽出するために、前記複数の画素の前記複数の第2の運動ベクトル値を前記複数の第1の運動ベクトル値と比較するステップをさらに備える、請求項17に記載の方法。
  20. 前記現在の画像フレーム内の前記複数の画素の各々について、前記複数の第2の運動ベクトル値と前記複数の第1の運動ベクトル値との前記比較に基づいて、前記相似パラメータを決定するステップをさらに備える、請求項19に記載の方法。
JP2021012881A 2017-04-11 2021-01-29 ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分 Pending JP2021082316A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/484,811 US20180293735A1 (en) 2017-04-11 2017-04-11 Optical flow and sensor input based background subtraction in video content
US15/484,811 2017-04-11

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019547397A Division JP2020514891A (ja) 2017-04-11 2018-04-03 ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分

Publications (2)

Publication Number Publication Date
JP2021082316A true JP2021082316A (ja) 2021-05-27
JP2021082316A5 JP2021082316A5 (ja) 2021-07-08

Family

ID=63711591

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019547397A Pending JP2020514891A (ja) 2017-04-11 2018-04-03 ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
JP2021012881A Pending JP2021082316A (ja) 2017-04-11 2021-01-29 ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019547397A Pending JP2020514891A (ja) 2017-04-11 2018-04-03 ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分

Country Status (6)

Country Link
US (1) US20180293735A1 (ja)
EP (1) EP3593319A4 (ja)
JP (2) JP2020514891A (ja)
KR (1) KR20190122807A (ja)
CN (1) CN110383335A (ja)
WO (1) WO2018191070A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10547801B2 (en) * 2017-10-26 2020-01-28 International Business Machines Corporation Detecting an image obstruction
US11070729B2 (en) * 2018-07-27 2021-07-20 Canon Kabushiki Kaisha Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus
US10567787B1 (en) * 2018-08-10 2020-02-18 Apple Inc. Autofocusing images using motion detection
US10708501B2 (en) * 2018-10-17 2020-07-07 Sony Corporation Prominent region detection in scenes from sequence of image frames
US11741710B2 (en) * 2020-10-22 2023-08-29 Micron Technology, Inc. Accelerated video processing for feature recognition via an artificial neural network configured in a data storage device
US20220405907A1 (en) * 2021-06-20 2022-12-22 Microsoft Technology Licensing, Llc Integrated system for detecting and correcting content
CN113902696A (zh) * 2021-09-29 2022-01-07 北京百度网讯科技有限公司 图像处理方法、装置、电子设备和介质
CN114173058B (zh) * 2021-11-30 2023-12-26 云控智行科技有限公司 视频图像稳定处理方法、装置及设备
CN114419107B (zh) * 2022-01-20 2024-01-30 中国人民解放军国防科技大学 视频光流提取加速方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008186246A (ja) * 2007-01-30 2008-08-14 Aisin Seiki Co Ltd 移動物体認識装置
JP2008227826A (ja) * 2007-03-12 2008-09-25 Toshiba Corp 補間フレーム作成方法及び補間フレーム作成装置
JP2017016592A (ja) * 2015-07-06 2017-01-19 キヤノン株式会社 主被写体検出装置、主被写体検出方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1377040A1 (en) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Method of stabilizing an image sequence
US7446798B2 (en) 2003-02-05 2008-11-04 Siemens Corporate Research, Inc. Real-time obstacle detection with a calibrated camera and known ego-motion
BRPI0606477A2 (pt) * 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
KR100829581B1 (ko) * 2006-11-28 2008-05-14 삼성전자주식회사 영상 처리 방법, 기록매체 및 장치
DE602008005318D1 (de) * 2007-08-22 2011-04-14 Honda Res Inst Europe Gmbh Schätzung der ordnungsgemässen bewegung von objekten mithilfe optischer fluss-, kinematik- und tiefeninformationen
CN101860664A (zh) * 2010-06-13 2010-10-13 华中科技大学 一种对光照变化鲁棒的运动目标检测方法
US8335350B2 (en) * 2011-02-24 2012-12-18 Eastman Kodak Company Extracting motion information from digital video sequences
US8744169B2 (en) * 2011-05-31 2014-06-03 Toyota Motor Europe Nv/Sa Voting strategy for visual ego-motion from stereo
US8836799B2 (en) * 2012-03-30 2014-09-16 Qualcomm Incorporated Method to reject false positives detecting and tracking image objects
US9165190B2 (en) * 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
US20140253785A1 (en) * 2013-03-07 2014-09-11 Mediatek Inc. Auto Focus Based on Analysis of State or State Change of Image Content
US9367067B2 (en) * 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
US9565416B1 (en) * 2013-09-30 2017-02-07 Google Inc. Depth-assisted focus in multi-camera systems
CN104915926B (zh) * 2014-03-10 2017-12-29 佳能株式会社 图像处理设备和图像处理方法
US9699381B2 (en) * 2014-04-18 2017-07-04 Samsung Electro-Mechanics Co., Ltd. Digital photographing motion compensation system and method
US9940541B2 (en) * 2015-07-15 2018-04-10 Fyusion, Inc. Artificially rendering images using interpolation of tracked control points
JP6496323B2 (ja) * 2015-09-11 2019-04-03 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 可動物体を検出し、追跡するシステム及び方法
EP3223196B1 (en) * 2016-03-24 2021-05-05 Aptiv Technologies Limited A method and a device for generating a confidence measure for an estimation derived from images captured by a camera mounted on a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004056763A (ja) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd 監視装置、監視方法および監視用プログラム
JP2008186246A (ja) * 2007-01-30 2008-08-14 Aisin Seiki Co Ltd 移動物体認識装置
JP2008227826A (ja) * 2007-03-12 2008-09-25 Toshiba Corp 補間フレーム作成方法及び補間フレーム作成装置
JP2017016592A (ja) * 2015-07-06 2017-01-19 キヤノン株式会社 主被写体検出装置、主被写体検出方法及びプログラム

Also Published As

Publication number Publication date
WO2018191070A3 (en) 2018-11-22
KR20190122807A (ko) 2019-10-30
JP2020514891A (ja) 2020-05-21
CN110383335A (zh) 2019-10-25
WO2018191070A2 (en) 2018-10-18
US20180293735A1 (en) 2018-10-11
EP3593319A2 (en) 2020-01-15
EP3593319A4 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
JP2021082316A (ja) ビデオコンテンツにおけるオプティカルフローおよびセンサー入力ベースの背景差分
KR101958116B1 (ko) 객체 세그먼트화를 위한 전경 마스크 정정을 위한 이미지 처리 디바이스 및 방법
US10176558B2 (en) Method, apparatus and computer program product for motion deblurring of images
US20140226858A1 (en) Method of tracking object using camera and camera system for object tracking
CN108154465B (zh) 图像处理方法及装置
KR20190106698A (ko) 이미지들의 시퀀스 중의 이미지에서의 객체 경계 안정화를 위한 이미지 처리 장치 및 방법
CN108154466B (zh) 图像处理方法及装置
KR102559859B1 (ko) 적응적 전경 마스크 업샘플링에 기초한 컬러 이미지 프레임들의 시퀀스에서의 객체 분할
KR102577957B1 (ko) 배경 이미지 및 배경 심도 보정에 의한 컬러 이미지 프레임들의 시퀀스에서의 객체 분할
US9826145B2 (en) Method and system to assist a user to capture an image or video
CN109784164B (zh) 前景识别方法、装置、电子设备及存储介质
US10121093B2 (en) System and method for background subtraction in video content
US10432853B2 (en) Image processing for automatic detection of focus area
US11222235B2 (en) Method and apparatus for training image processing model, and storage medium
US20190362500A1 (en) Missing feet recovery of a human object from an image sequence based on ground plane detection
JP6317635B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN111741187B (zh) 图像处理方法、装置及存储介质
JP2017506456A (ja) マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
CN109862252B (zh) 图像拍摄方法及装置
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP6003383B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220721