JP7233873B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7233873B2
JP7233873B2 JP2018175088A JP2018175088A JP7233873B2 JP 7233873 B2 JP7233873 B2 JP 7233873B2 JP 2018175088 A JP2018175088 A JP 2018175088A JP 2018175088 A JP2018175088 A JP 2018175088A JP 7233873 B2 JP7233873 B2 JP 7233873B2
Authority
JP
Japan
Prior art keywords
image
image processing
region
area
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018175088A
Other languages
English (en)
Other versions
JP2020046960A5 (ja
JP2020046960A (ja
Inventor
究 小林
明弘 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018175088A priority Critical patent/JP7233873B2/ja
Priority to US16/554,712 priority patent/US11361448B2/en
Publication of JP2020046960A publication Critical patent/JP2020046960A/ja
Publication of JP2020046960A5 publication Critical patent/JP2020046960A5/ja
Application granted granted Critical
Publication of JP7233873B2 publication Critical patent/JP7233873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像画像から背景画像を生成する技術に関するものである。
カメラを用いて撮像された撮像画像から背景画像を生成する技術がある。特許文献1には、フレームバッファに記憶された入力画像と、その1時刻前の入力画像との差分を検出し、変化が検出された画素をカウントアップすることが記載されている。そして、カウントアップした値が所定値に達した場合、その画素を背景画像の更新に用いることが記載されている。
特開2001―43458号公報
撮像環境の変化やノイズ等の影響により、検出される差分が必ずしも適切な値になるとは限らない。特許文献1の技術では、背景画像の更新が画素ごとに行われる。このため、いわゆる孤立点が発生し、背景として更新すべき領域に欠損点が生じたり、背景として更新しなくてよい領域に更新対象の画素が生じたりする。この結果、適切な背景画像が生成されない可能性がある。
本発明は、適切な背景画像を生成することを目的とする。
本発明の一態様に係る画像処理装置は、複数の検出期間を含む特定の期間において撮像装置によって撮像された画像を取得する取得手段と、前記取得手段により取得された画像に基づいて、前記複数の検出期間それぞれにおいて、検出期間内で画素値の変化が閾値未満の画素で構成される第一の領域を検出する検出手段と、前記検出手段により検出された前記複数の検出期間に対応する複数の第一の領域が重複する第二の領域を特定する特定手段と、前記特定手段により特定された前記第二の領域と、前記取得手段により取得された前記画像とに基づいて、背景画像を更新する更新手段と、を有し、前記特定手段は、それぞれ異なるタイミングで開始される複数の検出期間において前記第二の領域を特定し、複数の前記検出期間を合計した期間を、前記第二の領域を特定する数で除した値に相当する量だけ順次タイミングをずらして前記第二の領域を特定することを特徴とする。
本発明によれば、適切な背景画像を生成することができる。
システムの概略構成を説明する図である。 画像処理装置の内部構成を示す図である。 フローチャートを示す図である。 フローチャートを示す図である。 背景画像の生成処理を説明する図である。 継続領域が決定される例を示す図である。 更新領域決定部で行われる処理を説明する図である。 更新領域決定部で行われるフローチャートを示す図である。 背景画像生成部で行われる処理を説明する図である。 画像処理装置の内部構成を示す図である。 背景画像の生成処理を説明する図である。 画像処理装置の内部構成を示す図である。
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<<実施形態1>>
本実施形態では、仮想視点画像の生成に用いられる背景画像を生成する形態を説明する。まず、実施形態の理解を容易にするために、仮想視点画像の概要を簡単に説明する。複数の視点で撮像された複数視点の画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。
仮想視点画像を生成する際には、主な被写体(オブジェクト)である前景を背景部分から切り離してモデル化した上でレンダリングする処理が行われる。前景をモデル化する際には、複数のカメラから見たときの前景のシルエットに相当する前景マスクの情報と前景のテクスチャの情報(例えば前景の各画素のR、G、Bの色情報)とが必要となる。
前景を背景部分から切り離す処理は、前景背景分離処理と呼ばれる。前景背景分離処理は、前景領域の推定を行う処理であり、一般的に背景差分法によって行われる。背景差分法とは、背景画像と、前景を含む入力画像との差分を求め、差分値が所定の閾値以上と判定された画素の集まりである領域を前景領域とする、というものである。つまり、前景を求めるために、背景画像が必要となる。
背景画像は、基本的には、前景を撮像領域から除いた状態で撮像された入力画像を背景画像として利用することができる。ただし、撮像環境・撮像条件が同じ状態であるとは限らない、例えば、屋外で撮像する場合、時間によって日ざしの状況が変化する。また、天候の変化によって、環境の照度が変化する。このような変化に追従する背景画像を生成することが求められている。
以下で説明する実施形態では、このような撮像環境の変化に追従することができ、かつ、孤立点などを除去した背景画像を生成する形態を説明する。なお、本実施形態では、背景画像が仮想視点画像の生成に用いられる例を説明するが、必ずしも仮想視点画像の生成に用いられるものでなくてよい。このため、複数カメラ間の相対的な幾何学的設置条件に縛られるものではない。さらには、複数のカメラを用いる形態でなくてもよい。例えば、構内、遠隔地、または屋外に設置された監視カメラなどの単一のカメラで撮像した画像の背景画像の生成に用いられる形態でもよい。
<システム構成>
図1は、本実施形態のシステム100の概略構成を説明する図である。競技場101の周囲に、複数のカメラ102が並べて配置されている。複数のカメラ102によって、複数の視点から競技場101が撮像されるように構成されている。競技場101では、例えばサッカーなどの競技が行われており、競技場101の中に前景のオブジェクトとなる人物103が存在しているものとする。オブジェクトとは、例えば選手、監督、または審判等の特定の人物である。オブジェクトは、ボール、またはゴール等のように画像パターンが予め定められている物体であってもよい。また、オブジェクトは動体であってもよいし、静止体であってもよい。
各カメラ102は、データ伝送のための入出力ハードウェアを備えている。カメラ102同士は、例えばネットワークケーブルを使ってリング型のネットワーク接続がされており、ネットワークを介して隣のカメラへ画像データを順次伝送するように構成されている。つまり、カメラは、受信した画像データと、自身のカメラで撮像して得られた画像データとを併せて隣のカメラに伝送するように構成されている。カメラ102のうちの一つは画像処理装置200に接続されており、各カメラ102の画像データは、画像処理装置200まで伝送される。画像処理装置200では、受信した各画像データを用いて、仮想視点画像を生成する処理が行われる。
<画像処理装置の構成および処理>
図2は、画像処理装置200の内部構成を示すブロック図である。画像処理装置200は、画像取得部201、フレーム画像保存部202、不変領域検出部203、継続領域決定部204、更新領域決定部205、背景画像生成部206を備える。また、背景差分処理部207、前景テクスチャ生成部208、仮想視点画像生成部209を備える。本実施形態における画像処理は、画像処理装置に内蔵されたASIC(application specific integrated circuit)やFPGA(field programmable gate array)などを備える。図2に示した各モジュールは、ハードウェアとしてASICやFPGAの内部に実装されている。なお、画像処理装置200は、例えば、CPU、RAM、ROM、およびHDDを含む情報処理装置として構成されてもよい。そして、CPUがROM等に記憶されたプログラムをRAMに読み出して実行することで、CPUが図2に示す各部として機能する形態でもよい。即ち、画像処理装置200は、ソフトウェアのモジュールとして図2に示す各モジュールを実現してもよい。
図3および図4は、画像処理装置200で行われるフローチャートの一例を示す図である。図3および図4のフローチャートで示される一連の処理は、CPUがHDDに記憶されているプログラムコードをRAMに展開し実行することにより行われる。あるいはまた、図3および図4におけるステップの一部または全部の機能をASIC、FPGA、または電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。以下、図2から図4を参照して、画像処理装置200の構成および処理の概要を説明する。
S301において画像取得部201は、カメラ102が撮像した撮像画像の画像データを取得する。撮像画像は、時間的に連続して撮像された静止画または動画像のフレームなどの画像である。以下、画像取得部201に入力される、時間的に連続する入力画像の中のある1フレームの画像をフレーム画像という。画像取得部201では取得したフレーム画像に対して、画像の揺れや振動の補正、レンズ歪などの画像の歪みの補正、および、色調整・ガンマ調整などの前処理が行われる。
S302においてフレーム画像保存部202は、画像取得部201で取得されたフレーム画像を保存する。尚、画像取得部201は、フレーム画像を継続的に取得している。従って、ある時刻Txにおいて、画像取得部201で取得されたフレーム画像と、フレーム画像保存部202に保存されたフレーム画像とは、異なる時刻に撮像されたフレーム画像となる。
S303において不変領域検出部203は、画像取得部201で新たに取得されたフレーム画像と、フレーム画像保存部202で保存されているフレーム画像とを、画素ごとに比較する。即ち、不変領域検出部203は、第一の時刻で撮像されフレーム画像保存部202で保存されている第一のフレーム画像と、第一の時刻の後の第二の時刻で撮像され画像取得部201で取得された第二のフレーム画像とを比較する。そして、差分が所定の閾値未満の画素によって構成される不変領域を検出する。第一の時刻と第二の時刻との間を不変検出期間という。なお、不変領域は、差分が所定の閾値未満の変化は許容し得る領域であり、全く変化がない領域とは限らない。なお、領域は、複数の画素で構成されるが、複数の画素はすべてつながっている必要なく、2つ以上に分離されていてもよい。また、領域を構成する複数の画素は、互いに離れていてもよい。また、差分が所定の閾値未満となる画素が1つの場合であっても本実施形態を適用することができる。所定の閾値は、フレーム画像のノイズ等を考慮した値を適宜設定すればよい。不変領域検出部203は、検出した不変領域を継続領域決定部204に出力する。詳細は後述する。
S304において継続領域決定部204は、一定の判定期間(継続判定期間という)が経過したかを判定する。継続判定期間が経過していない場合、処理はS301に戻る。継続判定期間が経過している場合、S305に進む。S305において継続領域決定部204は、継続判定期間においてS303で検出されている不変領域が継続し続けている領域である継続領域を決定する。継続領域決定部204は、決定した継続領域を更新領域決定部205に出力する。詳細は後述する。
S306において更新領域決定部205は、継続領域に空間的なフィルター処理(孤立点除去などの空間的平滑化処理)を行い、背景更新領域を決定する。更新領域決定部205は、決定した背景更新領域を背景画像生成部206に送る。空間的なフィルター処理により、空間的な相関に基づいた確からしさを向上させた背景更新領域を決定することができる。詳細は後述する。
S307において背景画像生成部206は、画像取得部201で取得されたフレーム画像と更新領域決定部205で決定された背景更新領域とに基づいて、背景画像の画像データを生成する。例えば、背景画像生成部206は、前回生成した背景画像の画像データを保持している。そして、背景画像生成部206は、フレーム画像のうち、背景更新領域に対応する画素の画素値で、前回生成した背景画像の画像データにおける対応する画素の画素値を更新する。このようにして、背景画像を更新することで、背景画像の画像データが生成される。背景画像生成部206で生成された背景画像の画像データは、背景差分処理部207および仮想視点画像生成部209に出力される。
以上が、背景画像が生成される一連の処理である。背景画像の生成に着目した場合、S307の処理の後に、一連の処理を終了させてもよい。このような処理を繰り返し行うことで、環境変化に追従させた背景画像を生成することができる。本実施形態は、仮想視点画像を生成する形態を説明するので、続いて、図4を用いて仮想視点画像の生成に関連する処理を説明する。図4の処理は、S307の処理に引き続き行うことができる。
S401において背景差分処理部207は、画像取得部201で取得されたフレーム画像と背景画像生成部206で生成された背景画像とを用いて前景マスクを生成する。背景差分処理部207は、前述したように、前景背景分離処理(背景差分処理)を行い、前景領域を示すマスク画像(前景マスク)を生成する。前景マスクは、前景テクスチャ生成部208と仮想視点画像生成部209とに出力される。
S402において前景テクスチャ生成部208は、画像取得部201で取得されたフレーム画像と背景差分処理部207によって生成された前景マスクとを用いて前景テクスチャを生成する。前景テクスチャは、例えば前景マスクによって示されている前景に対応する領域の各画素のR、G、Bなどの色情報のことである。前景テクスチャは、仮想視点画像生成部209に出力される。
S403において仮想視点画像生成部209は、前景テクスチャ、前景マスク、および背景画像を用いて仮想視点画像を生成する。なお、先に説明したように、カメラ102は複数視点に対応する位置に設置されている。仮想視点画像生成部209には、複数のカメラ102で撮像された撮像画像に基づいて生成された前景テクスチャ、前景マスク、背景画像がそれぞれ入力されており、これらのデータを用いて仮想視点画像が生成される。例えば、仮想視点画像生成部209は、複数視点の前景マスクおよび前景テクスチャを用いて、撮像シーン内に存在する各オブジェクトの3次元形状推定処理を実行する。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法、または三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。これにより、オブジェクトの3次元形状を表すデータ(例えば、ポリゴンデータまたはボクセルデータ)が生成される。
また、仮想視点画像生成部209には、仮想視点を表す仮想カメラのカメラパラメータ等が入力される。仮想視点画像生成部209は、仮想カメラのパラメータに従って、仮想視点画像を生成する。仮想視点画像は、形状推定処理で得られたオブジェクトの3D形状データを用いて、仮想カメラから見た画像をコンピュータグラフィックスの技術を用いることで生成することができる。この生成処理には公知の技術を適宜適用すればよく、本実施形態の主眼ではないので説明は省略する。
以上が画像処理装置200の構成および処理の説明である。なお、背景差分処理部207、前景テクスチャ生成部208および仮想視点画像生成部209は、画像処理装置200とは別の装置の構成として実現されている形態でもよい。
<背景画像の生成の説明>
図5は、画像処理装置200において行われる背景画像の生成処理を詳細に説明する図である。図5は、左から右に時間軸が進む図である。項目501は、画像取得部201から出力される動画像を示す。
項目502は、不変領域検出部203の動作を示す。不変領域IAは、項目501における不変検出期間T1の時間差のフレーム画像間で検出される不変領域を模したものである。即ち、不変領域検出部203は、第一の時刻で取得された第一のフレーム画像と、第一の時刻より時刻T1の後に取得された第二のフレーム画像とを画素ごとに比較する。そして、差分が所定の閾値未満の画素によって構成される不変領域IAが検出される。即ち、不変領域IAは、不変検出期間T1内(第一の期間内)で、画素値の変化が所定の閾値未満の画素で構成される領域である。不変検出期間T1は、例えば前景の動く速さおよび撮像の画角などから適宜決められる。
項目503は、継続領域決定部204の動作を示す。継続領域決定部204は、継続判定期間T2の間、不変領域検出部203で検出された不変領域の論理積(AND)を継続的に求める。これにより、継続判定期間T2の間、不変領域であり続けた継続領域が決定される。
項目504は、更新領域決定部205の動作を示す。更新領域決定部205は、決定された継続領域に基づいて背景更新領域を決定する。更新領域決定部205は、継続領域に空間的なフィルター処理を行うことで背景更新領域を決定する。
項目505は、背景画像生成部206の動作を示す。背景画像生成部206は、画像取得部201が出力する動画像のフレーム画像のうち、背景更新領域に対応する領域を用いて前回生成した背景画像を更新して新たに背景画像を生成する。背景画像生成部206は、継続判定期間T2毎に、更新領域決定部205から送られる背景更新領域に基づいて、背景画像を順次生成し出力する。つまり、継続判定期間T2が、背景更新期間T3_1に相当する。なお、背景画像の生成に用いられるフレーム画像は、継続判定期間T2において最新のフレーム画像を用いることが好ましい。環境変化などの追従性を高め、その時点における適切な背景画像を生成することができるからである。しかしながら、必ずしも継続判定期間T2において最新のフレーム画像でなくてもよい。例えば最新のフレーム画像の数フレーム前のフレーム画像を用いてもよい。つまり、背景更新期間T3_1は、必ずしも継続判定期間T2と一致していなくてもよい。
図6は、不変領域から継続領域が決定される具体例を示す図である。フレーム画像602は、画像取得部201から出力された現在のフレーム画像である。フレーム画像601は、フレーム画像保存部202に保存されている、不変検出期間T1だけ過去のフレーム画像である。フレーム画像602内の矢印は、フレーム画像601内の前景(人物)が、不変検出期間T1において移動した方向と大きさを示す。
マスク画像610は、不変領域検出部203によって検出され、出力される不変領域を示すデータ(画像データ)である。マスク画像610は、フレーム画像602とフレーム画像601との各画素の画素値の差が、所定の閾値未満である領域を白で示し、閾値以上の領域を黒で示している画像である。即ち、不変領域は、マスク画像610の白画素で示す領域に相当する。
図6の下段には、継続領域決定部204の内部データ、すなわち作成途中の継続領域のデータを示している。継続領域決定部204は、不変領域の論理積(AND)を、不変検出期間T1の周期毎に順次求めている。マスク画像621は、現在よりも不変検出期間T1だけ過去における時点の継続領域を示す。マスク画像621中の破線で示す部分が、現在求められているマスク画像622の継続領域に新たに黒画素として加わっている。なお、マスク画像621中の破線は、説明のために付したものであり、実際には、破線は存在しない。マスク画像610の白画素の領域(不変領域)と、マスク画像621の白画素の領域(継続領域)との論理積(AND)が、マスク画像622の白画素の領域と決定される。換言すれば、継続判定期間T2の間に、前景が一度でも入り込んだ部分については、継続領域とは判定されず、継続領域を示すマスク画像において黒画素となる。このような論理積(AND)を求める処理が所定の回数に至った段階で、継続領域決定部204は、継続領域の作成を完了し、継続領域を更新領域決定部205に出力する。なお、本実施形態では、論理積(AND)を求める回数を8回としているが、これに限られるものではない。
図7は、更新領域決定部205で行われる処理を説明する図である。マスク画像710は、継続領域決定部204から入力した継続領域を示すデータである。本実施形態では、継続領域決定部204における論理積(AND)を求める回数は、8回である。前景が常に動いていれば、その動きに合わせて一つの被写体ごとに8個の黒いシルエットが見られる。
ここで、継続領域を示すマスク画像710には、白い部分に黒いゴミ(様々な大きさの孤立点など)があったり、黒い部分には白いゴミ(様々な大きさの孤立点)があったりする。なお、図6で説明した例では、孤立点の表示は省略している。このような孤立点は、撮像環境の変化やフレーム画像のノイズ等の様々な要因によって生じ得るものである。更新領域決定部205は、これらの孤立点を空間的なフィルター処理によって除去し、空間的な相関が得られている背景更新領域を決定する。マスク画像720は、決定された背景更新領域を示すデータである。
なお、本実施形態では、差分が所定の閾値未満の画素を画素ごとにカウントして、背景更新領域を決定するのではなく、不変領域が所定の期間継続している継続領域を決定している。そして、その継続領域を用いて背景更新領域を決定している。このように、本実施形態では、個々の画素単位ではなく、空間的な相関が得られている継続領域を単位として処理を行う。このため、空間的なフィルター処理によって孤立点を除去することができる。
図8は、更新領域決定部205のフローチャートの一例を示す図である。図8を用いて空間的なフィルター処理(空間的平滑化処理)を説明する。
S801において更新領域決定部205は、継続領域決定部204から出力された継続領域を示すデータ(マスク画像)を取得する。S802において更新領域決定部205は、取得した継続領域に対してクロージング処理を行う。クロージング処理とは、所定の画素数(N1画素)の膨張処理を行い、その後、同一の画素数の収縮処理を行う処理である。即ち、膨張処理と縮小処理とがセットで行われる処理である。膨張処理は、所定サイズ(N1画素)のフィルターを用いて行われる。例えば、所定サイズ内において一つでも白の画素があれば、そのサイズ内の画素を全て白の画素に置き換える。膨張処理により、黒い孤立点が消滅する。ただし、白の領域が膨張するので、マスク部分(不変領域)が一回り大きくなる。これを解消するため、縮小処理が行われる。収縮処理は、膨張処理と同じ所定サイズのフィルターを用いて行われ、所定サイズ内において一つでも黒の画素があれば、そのサイズ内の画素を全て黒の画素に置き換える。膨張処理および収縮処理はこの例に限られるものではなく、他の方法を用いて膨張処理および収縮処理が行われてよい。例えば、膨張処理においては、所定サイズ内において白の画素の個数または白の画素の占める割合が、所定の閾値を超えている場合に、そのサイズ内の画素を全て白の画素に置き換える処理としてもよい。この場合、縮小処理についても、膨張処理に合わせた処理を行えばよい。このようなクロージング処理を行うことにより、図7のマスク画像710の白い部分の黒ノイズが解消される。なお、N1はノイズの大きさ分布から決められる。
S803において更新領域決定部205は、オープニング処理を行う。オープニング処理とは、所定の画素数(N2画素)の収縮処理を行い、その後、同一の画素数の膨張処理を行う、このようなオープニング処理により、黒い部分の白ノイズが解消される。N2はノイズの大きさ分布から決められる。
なお、S802のオープニング処理とS803のクロージング処理とは、逆の順番で行われてもよいし、組み合わせて複数回行われてもよい。また、更新領域決定部205で行われる空間的な平滑化処理は、必ずしも上述したオープニング処理とクロージング処理との組み合わせでなくてもよい。例えば、所定のサイズのフィルターを用いて、多数決を取り、多い方の色(黒・白)に、その所定サイズ内の画素を全て置き換えてもよい。あるいは、ノイズごとにラベリングを行い、そのラベルごとの面積を求め、その大きさによって除去するか否かが決められてもよい。例えば、面積が所定値よりも小さいラベルの領域(画素群)を除去するようにしてもよい。いずれにせよ、画素ごとの孤立的な情報ではなく、空間的な情報に基づいて行われる処理であればよい。
図9は、図5の項目504~項目505の処理、即ち、背景画像生成部206で行われる処理を説明する図である。
図9の上段のマスク画像905、915、925は、更新領域決定部205によって出力される背景更新領域を示すデータである。図9の下段の背景画像900、910、920、930は、背景画像生成部206によって生成される背景画像を示す画像データである。図9の下段の背景画像におけるドットパターンの部分は、背景を表している。例えばスタジアムなどでは、背景はフィールドであり、具体的には芝などである。図9の下段は、背景画像生成部206から、背景更新期間T3_1ごとに順次出力される背景画像を示す。図9の上段下段ともに、背景更新期間T3_1ごとに、図9の左から右に(0)→(1)→(2)→(3)のように1ステップずつ進む。
そして、ステップごとに、各背景更新期間T3_1における最新のフレーム画像から、図9の上段のマスク画像の白で示される部分に対応する領域を切り出した背景領域が、最新の背景画像に上書きされる。なお、背景画像900は、連続処理の先頭の部分を表すという意味で全面黒としている。
図9の左から右に(1)→(2)→(3)→・・・とステップが進むにつれて、順次、ドットパターンの部分が追加されていく。即ち、背景が書きこまれていく。複数回のステップが繰り返されると、抜けの無い(図中の黒い部分の無い)背景画像が生成されることになる。
以上説明したように、本実施形態では、不変領域が所定の期間継続している継続領域が決定される。その継続領域に空間的な処理を適用することで、背景更新領域が決定される。そして、その背景更新領域を用いて背景画像が生成される。このような処理を行うことで、孤立点を除去した背景更新領域を用いて背景画像を生成することができるので、適切な背景画像を生成することができる。また、本実施形態では、天候などが順次変化するなどの環境変化に対してリアルタイムで追従する形で背景画像を生成することができる。
<<実施形態2>>
実施形態1では、継続判定期間T2と背景更新期間T3_1とが、概略等しくなるような形態を説明した。本実施形態では、継続領域決定部を複数備えることで、継続判定期間よりも背景更新期間を短くする形態を説明する。
実施形態1で説明したようなシステムにおいては、継続判定期間T2が長いほど、動きの少ない前景が背景に混入する可能性が下がるので、生成される背景画像の安定性が向上する。一方、背景更新期間T3_1が短いほど、背景画像の生成(更新)の頻度が上がるので、生成される背景画像の環境変化の追従性が向上する。実施形態1では、継続判定期間T2と背景更新期間T3_1とは、概略等しくなる形態であり、安定性と追従性との関係が、トレードオフの関係になっている。
本実施形態では、継続領域決定部を複数備えることで、継続判定期間よりも背景更新期間を短くすることを可能とし、背景画像の安定性を向上させ、かつ、背景画像の環境変化の追従性を向上させる形態を説明する。
図10は、本実施形態の画像処理装置1000を示すブロック図である。実施形態1と同じ構成については、同一の符号を付し説明を省略する。本実施形態では、継続領域決定部1004が、複数(N個)の継続領域決定部で構成されている。図10では、N=4の場合を示している。即ち、継続領域決定部1004は、第1継続領域決定部1014、第2継続領域決定部1015、第3継続領域決定部1016、および第4継続領域決定部1017を備えている。
其々の継続領域決定部には、不変領域検出部203から同じ不変領域が継続的に入力される。其々の継続領域決定部は、1/N(N=4)ずつ位相をずらして継続領域を其々で決定するように動作し、其々が順番に継続領域を出力する。出力された其々の継続領域は、更新領域決定部205に送られる。更新領域決定部205は、其々の継続領域について更新領域を決定し、背景画像生成部206に出力する。
図11は、実施形態2の背景画像の生成処理を説明する図である。図11は、図5と同様に、図の左から右に時間軸が進む図を示している。図11の項目1101は、図5の項目501と同様に、画像取得部201から出力される動画像を示す。図11では、不変領域検出部203の動作(図5の項目502に相当)については、記載を省略する。
図11の項目1103は、継続領域決定部1004の動作を示している。即ち、項目1114は、第1継続領域決定部1014の動作を示す。項目1115は、第2継続領域決定部1015の動作を示す。項目1116は、第3継続領域決定部1016の動作を示す。項目1117は、第4継続領域決定部1017の動作を示す。
其々の継続領域決定部は、継続判定期間T2を周期とし、かつ、そのT2の1/4だけ位相をずらして動作する。また、其々の継続領域決定部は、その継続判定期間T2の最後において、継続領域を出力し、更新領域決定部205に出力する。
図11の項目1104は、更新領域決定部205の動作を示す。更新領域決定部205は、其々の継続領域決定部から出力された継続領域に基づいて背景更新領域を決定する。背景更新領域の決定に際しては、実施形態1で説明したように、空間的なフィルター処理が行われる。
図11の項目1105は、背景画像生成部206の動作を示す。背景画像生成部206は、更新領域決定部205から出力された背景更新領域に基づいて、例えば其々の継続判定期間T2における最新のフレーム画像を用いて背景画像を更新する。
上述したように、本実施形態では4つの継続領域決定部は、其々継続判定期間T2を周期として動作するが、位相が1/4周期ずつずれている。このため、実施形態2における背景更新期間T3_2は、実施形態1の図5の場合の背景更新期間T3_1と比較して、1/4となっている。なお、本実施形態では、継続領域決定部の数(N)が、4である例を示しているが、Nは2以上の任意の値に設定可能である。Nを大きくするほど、継続判定期間T2を長めに設定し、かつ背景更新期間T3_2を短めに設定することが可能となる。また、順次位相をずらす方法として、継続領域決定部の個数Nで均等にずらす例を示したが、これに限られない。不均等に位相をずらしてもよい。このように、実施形態2によれば、背景画像の安定性と背景画像の環境変化の追従性との向上を両立させることができる。
<<実施形態3>>
実施形態3では、カメラから入力される画像に揺れや振動があり、かつ、画像取得部201における制振機能が不充分、あるいは制振機能がない場合を想定している。
図12は、実施形態3の画像処理装置1200のブロック図の一例を示す図である。画像処理装置1200は、振動検出部1219からの制御信号を受け取ることが可能に構成されている。また、画像処理装置1200は、ローパスフィルター(LPF)1218を備えている。その他の構成については、実施形態2で説明したものと同様である。なお、ここでは実施形態2に基づく形態を示しているが、実施形態1に基づく形態であってもよい。
LPF1218は、画像取得部201から出力されたフレーム画像を受け取り、そのフレーム画像の空間的な高周波成分を抑圧した第二の画像を生成する。
振動検出部1219は、加速度センサーまたはジャイロなどの物理的な手法により、カメラの振動状態を検出し、そのレベルに応じてLPF1218を制御するため制御信号を送る。例えば、LPF1218は最大タップ数7×7で動作するように構成されている。振動検出部1219は、自ら検出した振動レベルに応じて、振動レベルを示す制御指示値1、3、5、7を出力するように構成されている。LPF1218は、送られた制御指示値に応じて、実効的なフィルターサイズ(タップ数)が例えば1×1、3×3、5×5、7×7となるようにフィルター係数を変更することが可能である。
このようにして得られた第二の画像は、フレーム画像保存部202、不変領域検出部203、背景画像生成部206、背景差分処理部207、および前景テクスチャ生成部208に送られる。
つまり、実施形態3では、不変領域の決定、継続領域の決定、背景更新領域の決定、および背景画像の生成は、いずれもLPF1218を通過した第二の画像に基づいて行われる。従って、カメラから入力される画像に振動等が生じている場合においても、適切に背景画像を生成することができる。
また、本実施形態では、背景画像、前景マスク、および前景テクスチャについても第二の画像に基づいて生成される。第二の画像から前景テクスチャを生成すると、LPF1218の影響により、ボケた前景テクスチャが得られる。前景の中には、ボケてもよい前景もあり、そのような前景テクスチャを得る際に本実施形態は有用である。
<<その他の実施形態>>
以上、実施形態1、2、3を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、前述した実施形態では、一つの画像処理装置200が、複数のカメラの画像データを取得して各カメラにおける背景画像、前景マスクおよび前景テクスチャの生成をする形態を説明した。しかしながら、この形態に限られない。例えば、各カメラのハードウェア、または、各カメラに付随する画像処理装置が、仮想視点画像生成部の機能を除く機能を有する形態でもよい。そして、各カメラ側において、背景画像、前景マスクおよび前景テクスチャを生成し、生成したそれぞれのデータが、仮想視点画像を生成する装置に送信される形態でもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
203 不変領域検出部
204 継続領域決定部
205 更新領域決定部
206 背景画像生成部

Claims (17)

  1. 複数の検出期間を含む特定の期間において撮像装置によって撮像された画像を取得する取得手段と、
    前記取得手段により取得された画像に基づいて、前記複数の検出期間それぞれにおいて、検出期間内で画素値の変化が閾値未満の画素で構成される第一の領域を検出する検出手段と、
    前記検出手段により検出された前記複数の検出期間に対応する複数の第一の領域が重複する第二の領域を特定する特定手段と、
    前記特定手段により特定された前記第二の領域と、前記取得手段により取得された前記画像とに基づいて、背景画像を更新する更新手段と、
    を有し、
    前記特定手段は、
    それぞれ異なるタイミングで開始される複数の検出期間において前記第二の領域を特定し、
    複数の前記検出期間を合計した期間を、前記第二の領域を特定する数で除した値に相当する量だけ順次タイミングをずらして前記第二の領域を特定することを特徴とする画像処理装置。
  2. 前記特定手段により特定された第二の領域を表す画像を画像処理することで第三の領域を特定する第二の特定手段をさらに有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理は、空間的な処理を含むことを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像処理は、空間的なフィルターを用いた平滑化処理を含むことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記画像処理は、膨張処理および収縮処理を含むことを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記更新手段は、前記取得手段により取得された画像に含まれる領域であり、かつ、前記第三の領域に対応する領域内の画素の画素値を用いて背景画像を更新することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記更新手段は、前記取得手段により取得された画像のうち、最新の画像を用いて前記背景画像を更新することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記特定の期間は、前記背景画像が更新される期間に対応することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記複数の検出期間は、互いに重ならないことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記特定された第二の領域をそれぞれ表す画像を画像処理することで第三の領域を特定する第二の特定手段をさらに有することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記複数の検出期間は、前記背景画像が更新される期間よりも長いことを特徴とする請求項から10のいずれか1項に記載の画像処理装置。
  12. 前記取得手段により取得された画像にローパスフィルターを用いて画像処理する処理手段をさらに有し、
    前記検出期間における前記第一の領域は、前記処理手段により画像処理が行われた後の前記取得された画像に基づいて特定されることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
  13. 前記更新手段により更新された背景画像に基づいて、別の特定の期間において前記撮像装置により撮像された画像における前景領域と背景領域とを分離する分離手段をさらに有することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記前景領域は、前記別の特定の期間において前記撮像装置により撮像された画像と前記更新された背景画像との差分が閾値以上の画素を含むことを特徴する請求項13に記載の画像処理装置。
  15. 前記取得手段は、複数の視点で撮像された画像をそれぞれ取得し、
    前記更新された背景画像と前記複数の視点で撮像されて取得された画像とに基づいて仮想視点画像を生成する生成手段をさらに有することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。
  16. 画像処理装置で実行される画像処理方法であって、
    複数の検出期間を含む特定の期間において撮像装置によって撮像された画像を取得する取得ステップと、
    前記取得ステップにより取得された画像に基づいて、前記複数の検出期間それぞれにおいて、検出期間内で画素値の変化が閾値未満の画素で構成される第一の領域を検出する検出ステップと、
    前記検出ステップにより検出された前記複数の検出期間に対応する複数の第一の領域が重複する第二の領域を特定する特定ステップと、
    前記特定ステップにより特定された前記第二の領域と、前記取得ステップにより取得された前記画像とに基づいて、背景画像を更新する更新ステップと、
    を有し、
    前記特定ステップは、
    それぞれ異なるタイミングで開始される複数の検出期間において前記第二の領域を特定し、
    複数の前記検出期間を合計した期間を、前記第二の領域を特定する数で除した値に相当する量だけ順次タイミングをずらして前記第二の領域を特定することを特徴とする画像処理方法。
  17. コンピュータを、請求項1から15のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018175088A 2018-09-19 2018-09-19 画像処理装置、画像処理方法、およびプログラム Active JP7233873B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018175088A JP7233873B2 (ja) 2018-09-19 2018-09-19 画像処理装置、画像処理方法、およびプログラム
US16/554,712 US11361448B2 (en) 2018-09-19 2019-08-29 Image processing apparatus, method of controlling image processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175088A JP7233873B2 (ja) 2018-09-19 2018-09-19 画像処理装置、画像処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2020046960A JP2020046960A (ja) 2020-03-26
JP2020046960A5 JP2020046960A5 (ja) 2021-10-21
JP7233873B2 true JP7233873B2 (ja) 2023-03-07

Family

ID=69772995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175088A Active JP7233873B2 (ja) 2018-09-19 2018-09-19 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11361448B2 (ja)
JP (1) JP7233873B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023013538A (ja) * 2021-07-16 2023-01-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059060A (ja) 2007-08-30 2009-03-19 Casio Comput Co Ltd 動体画像抽出装置及びプログラム
JP2018136793A (ja) 2017-02-22 2018-08-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6141433A (en) * 1997-06-19 2000-10-31 Ncr Corporation System and method for segmenting image regions from a scene likely to represent particular objects in the scene
JPH1115982A (ja) * 1997-06-24 1999-01-22 Nippon Denki Denpa Kiki Eng Kk 移動物体検出方法
JP2001043458A (ja) 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd 背景画像生成システム
CN100477745C (zh) * 2002-08-09 2009-04-08 夏普株式会社 图像合成装置和图象合成方法
US7447380B2 (en) * 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
JP2011210139A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
CN104364824A (zh) * 2012-06-13 2015-02-18 松下知识产权经营株式会社 物体检测装置
US10115206B2 (en) * 2014-06-03 2018-10-30 Nec Corporation Detection system, detection method, and program storage medium
WO2017165538A1 (en) * 2016-03-22 2017-09-28 Uru, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
JP6735592B2 (ja) 2016-04-08 2020-08-05 キヤノン株式会社 画像処理装置及びその制御方法、画像処理システム
CN106447674B (zh) * 2016-09-30 2020-01-14 北京大学深圳研究生院 一种视频的背景去除方法
US10635373B2 (en) * 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009059060A (ja) 2007-08-30 2009-03-19 Casio Comput Co Ltd 動体画像抽出装置及びプログラム
JP2018136793A (ja) 2017-02-22 2018-08-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Neha Srivastav, et al.,Hybrid object detection using improved three frame differencing and background subtraction,2017 7th International Conference on Cloud Computing, Data Science & Engineering - Confluence,2017年,pp.613-617,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7943225
岡本 さやか,外2名,ネットワークに繋がった複数カメラによる人物追跡システムの構築,映像情報メディア学会技術報告 Vol.32 No.54,日本,(社)映像情報メディア学会,2008年,第32巻

Also Published As

Publication number Publication date
US11361448B2 (en) 2022-06-14
US20200090342A1 (en) 2020-03-19
JP2020046960A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
KR100918544B1 (ko) 화상 처리 장치 및 방법, 및 촬상 장치
US9117310B2 (en) Virtual camera system
JP7003994B2 (ja) 画像処理装置および方法
JP6204659B2 (ja) 映像処理装置及び映像処理方法
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
KR101669820B1 (ko) 볼륨 예측 기반 폐색 영역 양방향 복원 장치 및 방법
KR20190034092A (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
CN111951372B (zh) 一种三维人脸模型的生成方法和设备
JP6921686B2 (ja) 生成装置、生成方法、及びプログラム
JP4507045B2 (ja) 信号処理装置および方法、並びに記録媒体
JP2002190015A (ja) 画像処理装置および方法、並びに記録媒体
JP2003006648A (ja) 画像処理装置および方法、記録媒体、並びにプログラム
CN109685797A (zh) 骨骼点检测方法、装置、处理设备及存储介质
CN112541867A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
EP3629570A2 (en) Image capturing apparatus and image recording method
JP7233873B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018207252A (ja) 画像処理システム、画像処理システムの制御方法、及び、プログラム
US7477761B2 (en) Image processing apparatus and method, and image-capturing apparatus
WO2021161878A1 (ja) 画像処理装置、画像処理方法、学習済みモデルの生成方法、およびプログラム
CN110490131B (zh) 一种拍摄设备的定位方法、装置、电子设备及存储介质
JP2019106145A (ja) 3次元モデルの生成装置、生成方法及びプログラム
JP4268497B2 (ja) 距離情報付加装置、付加映像生成装置、付加映像生成方法及び距離情報付加プログラム
JP7520539B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230222

R151 Written notification of patent or utility model registration

Ref document number: 7233873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151