JP7207957B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7207957B2
JP7207957B2 JP2018209731A JP2018209731A JP7207957B2 JP 7207957 B2 JP7207957 B2 JP 7207957B2 JP 2018209731 A JP2018209731 A JP 2018209731A JP 2018209731 A JP2018209731 A JP 2018209731A JP 7207957 B2 JP7207957 B2 JP 7207957B2
Authority
JP
Japan
Prior art keywords
saturation
image
threshold
difference
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018209731A
Other languages
English (en)
Other versions
JP2020077165A5 (ja
JP2020077165A (ja
Inventor
明弘 松下
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018209731A priority Critical patent/JP7207957B2/ja
Priority to US16/594,397 priority patent/US11074742B2/en
Publication of JP2020077165A publication Critical patent/JP2020077165A/ja
Publication of JP2020077165A5 publication Critical patent/JP2020077165A5/ja
Application granted granted Critical
Publication of JP7207957B2 publication Critical patent/JP7207957B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像画像から前景領域を決定する技術に関するものである。
撮像画像から人物などの前景領域を決定する処理が行われている。特許文献1では、色差や輝度等の色の特徴量に基づいて被写体領域を検出する手法が開示されている。特許文献1では、画像における無彩色度合いを示す評価値を求め、色差や輝度などの各特徴量に基づいて作成されたマスクを使用するかしないかを、評価値に応じて決定し、使用対象のマスクを用いて被写体領域を検出することが記載されている。
特開2014-23057号公報
しかしながら、特許文献1の技術は、画像における無彩色度合いを示す評価値に基づいて、マスクを使用するかしないかを決定する技術であり、無彩色度合いに応じて前景であるかを判定するための条件を適応的に変化させる技術ではない。このため、前景領域を適切に決定できない場合がある。
本発明は、撮像画像から前景領域を適切に決定することを目的とする。
本発明の一態様に係る画像処理装置は、撮像装置によって撮像された撮像画像を取得する第一取得手段と、前記撮像画像に対応する背景画像を取得する第二取得手段と、前記第一取得手段で取得された撮像画像と前記第二取得手段で取得された背景画像との色相の差又は色度の差を特定する第一特定手段と、前記第一取得手段で取得された撮像画像の彩度および前記第二取得手段で取得された背景画像の彩度の少なくとも一方を特定する第二特定手段と、前記第二特定手段で特定された彩度に応じて設定される閾値と、前記第一特定手段で特定された色相の差又は色度の差とに基づいて、前景領域を決定する決定手段と、を有することを特徴とする。
本発明によれば、撮像画像から前景領域を適切に決定することができる。
システムの概略を示す図である。 画像処理装置のハードウェア構成を示すブロック図である。 画像処理装置の機能構成を示すブロック図である。 画像処理を説明するフローチャートである。 処理結果の例を示す図である。 画像処理装置の機能構成を示すブロック図である。 画像処理を説明するフローチャートである。
以下、添付の図面を参照して、実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<<実施形態1>>
本実施形態では、仮想視点画像の生成に用いられる前景領域を決定する形態を説明する。まず、実施形態の理解を容易にするために、仮想視点画像の概要を簡単に説明する。複数の視点で撮像された複数視点の画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。
このような複数視点画像に基づく仮想視点画像の生成は、複数のカメラが撮像した画像をサーバなどの画像処理部に集約し、画像処理部にてレンダリングなどの処理を施すことで行われる。また、生成された仮想視点画像は、ユーザ端末に伝送され、ユーザ端末において閲覧される。
仮想視点画像を生成する際には、主な被写体(オブジェクト)である前景を背景部分から切り離してモデル化した上でレンダリングする処理が行われる。前景をモデル化する際には、複数のカメラから見たときの前景のシルエットに相当する前景マスクの情報と前景のテクスチャの情報(例えば前景の各画素のR、G、Bの色情報)とが必要となる。
前景を背景部分から切り離す処理は、前景背景分離処理と呼ばれる。前景背景分離処理は、前景領域を推定して決定する処理であり、一般的に背景差分法によって行われる。背景差分法とは、背景画像と、前景を含む入力画像との差分を求め、差分値が所定の閾値以上と判定された画素の集まりである領域を前景領域とする、というものである。
前景領域の推定処理において、輝度、色、またはテクスチャなどの画像の特徴量を用いて差分を求めることが一般的である。ここで色の特徴量の差分を用いる形態において、彩度が低い場合には、色相の精度が低下する。これにより、前景領域の推定において誤判定が増加してしまうことがある。以下で説明する実施形態では、色の特徴量の差分を用いて前景領域を推定する場合に、彩度に応じて閾値を変化させることで、前景領域の推定の精度を高め、適切な前景領域を決定する処理の一例を説明する。
<システム構成>
図1は、本実施形態のシステム100の概略構成を説明する図である。競技場101の周囲に複数のカメラ102が並べて配置されており、複数の視点から競技場が撮像されるように構成されている。競技場101では、例えばサッカーなどの競技が行われており、競技場101の中に前景のオブジェクトとなる人物103が存在しているものとする。オブジェクトとは、例えば選手、監督、または審判等の特定の人物である。オブジェクトは、ボール、またはゴール等のように画像パターンが予め定められている物体であってもよい。
各カメラ102は、データ伝送のための入出力ハードウェアを備えている。カメラ102同士は、例えばネットワークケーブルを使ってリング型のネットワーク接続がされており、ネットワークを介して隣のカメラへ画像データを順次伝送するように構成されている。つまり、カメラは、受信した画像データと、自身のカメラで撮像して得られた画像データとを併せて隣のカメラに伝送するように構成されている。カメラ102のうちの一つは画像処理装置200に接続されており、各カメラ102の画像データは、画像処理装置200まで伝送される。画像処理装置200では、受信した各画像データを用いて、仮想視点画像を生成する処理が行われる。
<画像処理装置の構成および処理>
図2は、画像処理装置200のハードウェア構成の一例を示す図である。画像処理装置200は、CPU201、RAM202、ROM203、HDD204、および入出力I/F205を備える。画像処理装置200の各部は、システムバス206によって相互に接続されている。また、画像処理装置200は、入出力I/F205を介して、カメラ102および表示操作部210に接続されている。
CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス206を介して画像処理装置200の各部を統括的に制御する。これにより、後述する様々な処理が実現される。HDD204は、画像処理装置200で取り扱う種々のデータを記憶する大容量記憶装置であり、例えばSSDなどでもよい。CPU201は、システムバス206を介してHDD204へのデータの書き込み、および、HDD204に記憶されたデータの読出しを行うことができる。
入出力I/F205は、例えばUSBまたはIEEE1394等のシリアルバスI/Fであり、外部装置と画像処理装置200との間の各種データ・命令等の入力または出力が、入出力I/F205を介して行われる。表示操作部210は、例えばタッチパネル機能を有する液晶ディスプレイなどで構成され、ユーザに対する必要な情報の表示、またはUI画面を介してユーザからの指示を取得する。なお、画像処理装置200の構成要素は上記以外にも存在し得るが説明を省略する。
図3は、画像処理装置200の機能構成を示すブロック図である。画像処理装置200は、画像受信部301、記録部302、背景生成部303、第一輝度情報取得部304、第一色相情報取得部305、第一彩度情報取得部306を備える。また、画像処理装置200は、第二輝度情報取得部307、第二色相情報取得部308、第二彩度情報取得部309、輝度前景領域推定部310、閾値決定部311、色相前景領域推定部312、前景領域決定部313、および仮想視点画像生成部314を備える。図3の記録部302は、例えばHDD204またはRAM202で実現される。図3のその他の各部は、CPU201がROM203等に記憶されたプログラムをRAM202に読み出して実行することで、CPU201が図3に示す各部として機能する。即ち、画像処理装置200は、ソフトウェアのモジュールとして図3に示す各モジュールを実現することができる。あるいは、画像処理装置200は、不図示のASIC(application specific integrated circuit)やFPGA(field programmable gate array)などのハードウェアを内蔵してもよい。そして、図3に示す各部は、ASICおよびFPGAなどのハードウェアにより処理されてもよく、図3に示した各部は、ハードウェアとしてASICやFPGAの内部に実装されていてもよい。また、図3の一部がソフトウェアで実現され、残りがハードウェアで実現されてもよい。
図4は、画像処理装置200で行われるフローチャートの一例を示す図である。図4のフローチャートで示される一連の処理は、CPU201がROM203またはHDD204に記憶されているプログラムコードをRAM202に展開し実行することにより行われる。あるいは、図4におけるステップの一部または全部の機能をASIC、FPGA、または電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。以下、図2、図3、および図4を参照して、画像処理装置200の構成および処理の概要を説明する。
S401において画像処理装置200は、前処理を行う。前処理とは、本実施形態で行う前景領域の決定処理に先立って行われる処理である。例えば、画像受信部301は、ネットワークを介して各カメラ102の画像データを受信する。以下、画像受信部301が受信した画像データによって表される画像のことを入力画像という。入力画像は、時間的に連続して入力される画像であり、動画像および静止画像を含むものである。本実施形態では、入力画像は、動画像のフレーム画像であるものとして説明する。S401において画像受信部301は、受信した入力画像に対して、例えばレンズ歪を含んだ画像の歪みの補正や、色及びガンマの調整などの前処理を行う。画像受信部301は、前処理した画像データを記録部302に保存する。
S402において画像処理装置200は、背景画像の生成処理を行う。例えば、画像処理装置200は、表示操作部210を通じて仮想視点画像を生成する時刻の情報を取得する。画像受信部301は、仮想視点画像を生成する時刻の各カメラのフレーム画像を記録部302から順次読み出し、背景生成部303、第一輝度情報取得部304、第一色相情報取得部305、および第一彩度情報取得部306へそれぞれ出力する。
背景生成部303の説明をする。背景生成部303は、各カメラで撮像された複数のフレーム画像(過去に受信したフレーム画像を含む)に基づいて各カメラの背景画像を推定し、その結果をHDD204などのメモリに保存する処理を行う。複数のフレーム画像に基づいた背景生成処理については、例えば混合ガウスモデルによる背景生成方法を用いることができる。混合ガウスモデルについては一般的によく知られている手法であるので詳細な説明は省く。
S402において背景生成部303は、画像受信部301からフレーム画像を受信すると、対応するカメラについてメモリに保存された背景画像を読み出し、受信したフレーム画像を用いて背景画像を更新し、メモリに保存する。これにより、フレーム画像に対応する背景画像が生成される。背景生成部303は、第二輝度情報取得部307、第二色相情報取得部308、および第二彩度情報取得部309に、画像受信部301から受信したフレーム画像に対応するカメラの背景画像データを出力する。また、背景生成部303は、背景画像データを仮想視点画像生成部314に出力する。
S403において第一輝度情報取得部304および第二輝度情報取得部307において輝度情報の取得処理が行われる。本実施形態では、フレーム画像は、各画素がRGBの画素値で構成されている画像であり、RGBの画素値から輝度情報を算出することで輝度情報の取得処理が行われる。なお、既に色変換処理が行われている画像を画像処理装置200で受信するような場合には、算出処理を行わず、受信した画像の輝度情報を取得すればよい。後述する彩度および色相についても同様である。
まず、第一輝度情報取得部304の処理を説明する。第一輝度情報取得部304は、画像受信部301から出力されたフレーム画像の各画素の輝度情報を決定する。本実施形態では、RGB画像であるフレーム画像に対して、HSV色空間を用いた処理が行われる。第一輝度情報取得部304は、輝度情報であるV成分を式(1)により決定する。
V=max(R,G,B) 式(1)
ここで、maxは引数の中の最大値を選択する関数である。第二輝度情報取得部307は、背景生成部303から出力された背景画像の各画素の輝度情報であるV成分を、第一輝度情報取得部304と同様に、式(1)により決定する。第一輝度情報取得部304および第二輝度情報取得部307において取得された輝度情報は、輝度前景領域推定部310に出力される。
S404において第一彩度情報取得部306および第二彩度情報取得部309において彩度情報の取得処理が行われる。まず、第一彩度情報取得部306の処理を説明する。第一彩度情報取得部306は、画像受信部301から出力されたフレーム画像の各画素の彩度情報を取得する。第一彩度情報取得部306は、各画素の色情報として、彩度情報であるS成分を式(2)により算出する。
S=max(R,G,B)-min(R,G,B) 式(2)
ここで、minは引数の中の最小値を選択する関数である。第二彩度情報取得部309は、背景生成部303から出力された背景画像の各画素の彩度情報であるS成分を、第一彩度情報取得部306と同様に、式(2)により算出する。第一彩度情報取得部306および第二彩度情報取得部309において取得された彩度情報は、閾値決定部311に出力される。
S405において第一色相情報取得部305および第二色相情報取得部308において色相情報の取得処理が行われる。まず、第一色相情報取得部305の処理を説明する。第一色相情報取得部305は、画像受信部301から出力されたフレーム画像の各画素の色相情報を取得する。第一色相情報取得部305は、各画素の色情報として、色相情報であるH成分を式(3)~式(5)により算出する。なおSは、式(2)で算出した値を用いる。
min(R,G,B)=B のとき、
H=(G-R)/S×60+60 式(3)
min(R,G,B)=R のとき、
H=(B-G)/S×60+180 式(4)
min(R,G,B)=G のとき、
H=(R-B)/S×60+300 式(5)
なお、max(R,G,B)=min(R,G,B) のときは、Hの値は無効とする。第二色相情報取得部308は、背景生成部303から出力された背景画像の各画素の色相情報であるH成分を、第一色相情報取得部305と同様に、式(3)~式(5)により算出する。なおSは式(2)で算出した値を用いる。またmax(R,G,B)=min(R,G,B)のときは、Hの値は無効とする。第一色相情報取得部305および第二色相情報取得部308において取得された色相情報は、色相前景領域推定部312に出力される。
S406において輝度前景領域推定部310は、S403で取得されたフレーム画像の輝度情報と背景画像の輝度情報とを用いてフレーム画像の前景領域を推定する。例えば、輝度前景領域推定部310は、フレーム画像のV成分および背景画像のV成分の差を検査し、その値が予め定められた閾値より大きければ、その画素を前景と推定する。本実施形態において輝度前景領域推定部310が用いる閾値は、全画素で共通の閾値である。なお、本実施形態においては、HSV色空間におけるV成分を輝度情報として用いる例を示したが、これに限らない。輝度情報については他の色空間による処理を行ってもよい。例えばYUV色空間による処理を行ってもよい。一般的に、YUV色空間において、輝度Yを式(6)で算出する方法が知られている。
Y=0.299×R+0.587×G+0.114×B 式(6)
輝度情報の算出については、この他にも様々な計算方法が知られており、どの計算方法を用いても良い。
図5は、前景領域の一例を示す図である。図5において黒い部分が前景を示している。図5(a)は、輝度前景領域推定部310における処理結果の例を示す図である。図5(a)では、人物形状の一部に欠損が生じている。フレーム画像と背景画像との輝度の差が小さい部分があると、図5(a)に示すような欠損部が生じる現象が発生する。輝度前景領域推定部310で推定された前景領域を示す画像は、前景領域決定部313に出力される。
S407において閾値決定部311は、第一彩度情報取得部306および第二彩度情報取得部309から出力された彩度情報に基づいて色相の差を検査するための閾値を決定し、決定した閾値を色相前景領域推定部312に出力する。本実施形態では、閾値決定部311は、彩度に対応する閾値を決定するためのテーブルを保持する。閾値決定部311は、テーブルを参照することで閾値を決定する。例えば、閾値決定部311は、まずフレーム画像および背景画像のS成分のうち小さい方の値に基づいて、テーブル参照により閾値を決定する。このテーブルは、S成分の値が小さいほど、閾値が大きくなるように予め設定されている。彩度(S成分)が小さいほど色相(H成分)の精度が低下する。このため、彩度(S成分)が小さいほど前景と判定する閾値を大きくすることで、低い彩度において色相の精度が低下した場合に、前景領域と推定させ難くし、誤判定の発生を抑制することが可能となる。逆に、彩度(S成分)が大きいほど色相(H成分)の精度が上昇する。このため、彩度(S成分)が大きいほど前景と判定する閾値を小さくすることで、高い彩度においては、色相による差分によって前景と判定され易くすることができる。
S408において色相前景領域推定部312は、第一色相情報取得部305および第二色相情報取得部308から出力された色相情報と、閾値決定部311から出力された閾値とを用いて、前景領域を推定する処理を行う。色相前景領域推定部312は、フレーム画像のH成分と背景画像のH成分との差分値を算出し、差分値と閾値とを比較する。色相前景領域推定部312は、差分値が閾値より大きければその画素を前景と推定する。このとき、色相前景領域推定部312は、フレーム画像のS成分と背景画像のS成分との差を算出し、差が第二の閾値より大きい場合に、その画素を前景と推定してもよい。つまり、色相の差分値が所定の閾値より大きく、かつ、彩度の差が第二の閾値より大きい場合に、その画素を前景と判定してもよい。あるいは、色相の差分値が所定の閾値より大きい場合であっても、フレーム画像のS成分の値と背景画像のS成分の値とが両方とも第三の閾値よりも小さければ、前景であると推定しない処理を行ってもよい。
以上の処理を、全画素を処理対象の画素とした処理をすると、色相情報に基づいて推定された前景領域を表す画像が完成する。この処理は、前述したように画素ごとに個別に実行される。このため、本来前景である領域の内部に細かな画素の欠落が発生したり、本来背景である領域に細かなノイズが発生したりする。そのため、例えば前景領域を示す画像に対して平滑化処理を行うことで、欠落やノイズを除去する処理を行ってもよい。色相前景領域推定部312で推定された前景領域を示す画像は、前景領域決定部313に出力される。
図5(b)は、色相前景領域推定部312における処理結果の例を示す図である。色相情報に基づく前景領域の推定処理の結果においては、前景領域の内部に細かなノイズが出る、または前景境界の精度が下がるなどの傾向が生じることが多い。
S409において、前景領域決定部313は、輝度前景領域推定部310および色相前景領域推定部312から出力された前景領域を示す画像を、画素毎の論理和(OR)演算を行うことによって合成することで、前景領域を決定する。なお、前景領域決定部313は、両画像のOR演算に限らず、他の論理演算や、さらにその他の各種処理を行ってもよい。
図5(c)は、輝度前景領域推定部310における処理結果(図5(a))と、色相前景領域推定部312における処理結果(図5(b))と、に対する演算結果の例を示す図である。輝度を用いた推定によって生じている人物形状の欠損部が色相を用いた推定によって補完されることで、前景領域が改善されていることがわかる。前景領域決定部313で決定された前景領域を示す画像データは、仮想視点画像生成部314に出力される。
S410において仮想視点画像生成部314は、ユーザ指定などにより入力された仮想視点位置に応じて仮想視点画像を生成する。仮想視点画像の生成方法としては、例えばVisualHullなどの方法が知られている。仮想視点画像生成部314は、背景生成部303から出力された背景画像データを用いて2次元上へ再投影することで、まず仮想視点における背景を生成する。また、仮想視点画像生成部314は、前景領域決定部313から出力された各カメラの前景領域を示す画像データに基づいて、各前景の3次元形状を復元する。仮想視点画像生成部314は、前景に対応する画像を3次元モデルに対応付けた後、2次元上へ再投影することで、仮想視点画像を生成する。VisualHullについてはよく知られた手法なので詳細な説明は省く。
以上説明したように、本実施形態においては、HSV色空間において、色情報に基づいた前景推定処理と輝度情報に基づいた前景推定処理とが行われる。即ち、2段階での前景推定処理が行われる。そして、それぞれの前景推定処理の結果に所定の演算を行うことで、前景領域が決定される。本実施形態では、色情報に基づく前景推定処理において、画像全体に閾値を設けるのではなく、画素ごとに閾値を設けている。そして、画素ごとに設けた閾値を、画素ごとの彩度に応じて変化させる処理を行っている。このような処理によれば、画素ごとに彩度に応じて適応的に閾値が変化するので、例えば、低い彩度において色相の精度が低下した場合でも誤判定の発生を抑制することができる。
なお、輝度情報に基づいた前景推定処理においては、画素ごとに閾値を変化させずに、各画素で共通の閾値を用いる例を示しているが、輝度情報に基づいた前景推定処理においても画素ごとに閾値を設けてもよい。
また、図4のフローチャートでは、彩度情報の取得処理および色相情報の取得処理の前に輝度情報の取得処理を行う例を示したが、この順に限られるものではない。また、輝度による前景領域推定処理の後に色相による前景領域推定処理を行う例を示したが、逆の順序で処理が行われてもよい。
<<実施形態2>>
実施形態1においては、色情報に基づく前景推定処理として、HSV色空間における前景領域を推定する処理を説明した。本実施形態では、色情報に基づく前景推定処理として、Lab色空間における前景領域を推定する例を説明する。
本実施形態における画像処理システムの構成は、実施形態1と同様であるので説明を省略する。
図6は、本実施形態の画像処理装置200の機能構成を示すブロック図である。本実施形態における画像処理装置200は、画像受信部601、記録部602、背景生成部603、第一輝度情報取得部604、第一色度情報取得部605を備える。また、第二輝度情報取得部607、第二色度情報取得部608、輝度前景領域推定部610、閾値決定部611、色度前景領域推定部612、前景領域決定部613、および仮想視点画像生成部614を備える。
図6の記録部602は、例えばHDD204またはRAM202で実現される。図6のその他の各部は、CPU201がROM203等に記憶されたプログラムをRAM202に読み出して実行することで、CPU201が図3に示す各部として機能する形態でもよい。あるいは、画像処理装置600は、不図示のASICやFPGAなどのハードウェアを内蔵してもよい。そして、図6に示す各部は、ASICおよびFPGAなどのハードウェアにより処理されてもよく、図6に示した各部は、ハードウェアとしてASICやFPGAの内部に実装されていてもよい。また、図6の一部がソフトウェアで実現され、残りがハードウェアで実現されてもよい。
図7は、画像処理装置200で行われるフローチャートの一例を示す図である。S701において画像処理装置200は、前処理を行う。前処理は、実施形態1で説明した処理と同様であるので、説明は省略する。
S702において画像処理装置200は、背景画像の生成処理を行う。背景画像の生成処理は、実施形態1で説明した処理と同様であるので、説明は省略する。なお、画像受信部601は、フレーム画像を第一輝度情報取得部604、第一色度情報取得部605、および背景生成部603に出力する。また、背景生成部603で生成された背景画像データは、第二輝度情報取得部607、第二色度情報取得部608、および仮想視点画像生成部614に出力される。
S703において第一輝度情報取得部604および第二輝度情報取得部607において輝度情報の取得処理が行われる。本実施形態では、フレーム画像は、各画素がRGBの画素値で構成されている画像であり、RGBの画素値から輝度情報を算出することで輝度情報の取得処理が行われる。なお、既に色変換処理が行われている画像を画像処理装置200で受信するような場合には、算出処理を行わず、受信した画像の輝度情報を取得すればよい。後述する色度についても同様である。
まず、第一輝度情報取得部604の処理を説明する。第一輝度情報取得部604は、画像受信部601から出力されたフレーム画像の各画素の輝度情報を決定する。本実施形態では、RGB画像であるフレーム画像に対して、Lab色空間を用いた処理が行われる。なお、L成分、a成分、b成分の算出式については一般的に知られているため詳細な説明は省略することとする。第一輝度情報取得部604は、フレーム画像から輝度情報であるL成分を算出する。同様に、第二輝度情報取得部607は、背景画像から輝度情報であるL成分を算出する。
S704において第一色度情報取得部605および第二色度情報取得部608において色度情報の取得処理が行われる。第一色度情報取得部605は、画像受信部601から出力されたフレーム画像の各画素の彩度情報および色相情報に対応する色度を示すa成分およびb成分を算出する。同様に、第二色度情報取得部608は、背景生成部603から出力された背景画像の各画素のa成分およびb成分を算出する。
S705において輝度前景領域推定部610は、S703で取得されたフレーム画像の輝度情報と背景画像の輝度情報とを用いてフレーム画像の前景領域を推定する。例えば、輝度前景領域推定部610は、フレーム画像および背景画像のL成分の差を検査し、その値が予め定められた閾値より大きければ、その画素を前景と推定する。
S706において閾値決定部611は、第一色度情報取得部605および第二色度情報取得部608から出力された色度情報に基づいて、色度の差を検査するための閾値を決定し、決定した閾値を色度前景領域推定部612に出力する。閾値決定部611は、まずフレーム画像および背景画像の彩度Sを式(7)により算出する。
S=sqrt(a^2+b^2) 式(7)
ここで、sqrtは平方根を求める関数であり、^は累乗を表す記号である。閾値決定部611は、フレーム画像および背景画像のうちS成分が小さい方の値に基づいて、テーブル参照により閾値を決定する。このテーブルは、S成分の値が小さいほど、閾値が大きくなるように予め設定されている。つまり、彩度(S成分)が小さいほど色度の精度が低下するのに応じて、前景と判定する閾値を大きくすることで、低い彩度において色度の精度が低下した場合に、誤判定の発生を抑制することが可能となる。閾値決定部611は、画素ごとに閾値を決定し、決定した閾値を色度前景領域推定部612に出力する。
S707において色度前景領域推定部612は、第一色度情報取得部605および第二色度情報取得部608から出力された色度情報と、閾値決定部611から出力された閾値とを用いて、前景領域を推定する処理を行う。色度前景領域推定部612は、フレーム画像の色度と背景画像の色度との差分値を算出し、差分値と閾値とを比較する。色度前景領域推定部612は、差分値が閾値より大きければその画素を前景と推定する。以上の処理を全画素について処理すると、色度情報に基づいて推定された前景領域を表す画像が完成する。色度前景領域推定部612で推定された前景領域を示す画像は、前景領域決定部613に出力される。
S708において前景領域決定部613は、輝度前景領域推定部610および色度前景領域推定部612から出力された前景領域を示す画像を、画素毎のOR演算を行うことによって合成することで、前景領域を決定する。このように、実施形態1と同じように、輝度に基づいて前景が推定された人物形状の欠損部などを色度に基づいて前景が推定された結果を用いて補完することで、前景形状が改善される。前景領域決定部613で決定された前景領域を示す画像データは、仮想視点画像生成部に出力される。
S709において仮想視点画像生成部614は、仮想視点画像を生成する。仮想視点画像の生成処理は、実施形態1で説明した処理と同様であるので、説明は省略する。
以上説明したように、本実施形態では、Lab色空間において、色情報に基づいた前景推定処理と、輝度情報に基づいた前景推定処理とが行われる。そして、それぞれの前景推定処理の結果に所定の演算を行うことで前景領域が決定される。本実施形態においても、実施形態1と同様に、色情報に基づく前景推定処理において、画像全体に閾値を一つ設けるのではなく、画素ごとに閾値を設けている。そして、画素ごとに設けた閾値を、画素ごとの彩度に応じて変化させる処理を行っている。このような処理によれば、画素ごとに彩度に応じて適応的に閾値が変化するので、例えば、低い彩度において色度の精度が低下した場合でも誤判定の発生を抑制することができる。
なお、色の特徴量の差分として、例えばLab色空間における色差ΔEを用いる方法が行われることがある。しかしながら、色差ΔEは、輝度と色とを含めた評価値となる。このため、彩度によって色情報の精度が変化することに対して適応的な制御をすることはできない。本実施形態では、Lab色空間における色度の差を比較する閾値を彩度に応じて変化させることで誤判定を防止することができる。
<<その他の実施形態>>
上述した実施形態では、色情報に基づいた前景推定処理と輝度情報に基づいた前景推定処理とをそれぞれ行い、その結果に基づいて前景判定処理の結果を決定する形態を例に挙げて説明したが、この例に限られない。前景判定処理として、色情報に基づいた前景推定処理と輝度情報に基づいた前景推定処理とが一括して行われる形態でもよい。
また、上述した実施形態では、彩度に応じて画素ごとに閾値を変える形態を例に挙げて説明したが、この例に限られない。画素ごとの閾値を変えずに、閾値との比較対象である色相または色度を、彩度に応じて重みづけをして補正し、補正後の値と閾値とを画素ごとに比較してもよい。なお、この補正後の値は、前景推定処理のために一時的に用いられる値である。このような処理でも、上述した実施形態と同様の効果を得ることができる。
また、上述した実施形態では、フレーム画像および背景画像のうちのS成分が小さい値に対応する閾値をテーブル参照により決定する形態を例に挙げて説明したが、これに限らない。例えば、フレーム画像の彩度Sfと背景画像の彩度Sbとの差が所定の範囲内であれば、彩度Sfから彩度Sbの間の任意の値、例えば彩度Sfと彩度Sbとの平均値などに対応する閾値が決定されてもよい。即ち、フレーム画像および背景画像のS成分から多少ずれた値に対応する閾値を用いても同等の効果を得ることができる。
また、上述した実施形態では、説明の便宜上、輝度情報取得部、色相情報取得部、彩度情報取得部、および色度情報取得部が、フレーム画像用と背景画像用とでそれぞれ構成されている例を説明したが、これに限られない。各情報の取得部が、フレーム画像用と背景画像用とで共通の取得部として構成されていてもよい。
また、上述した実施形態では、画像の各画素の色の属性の値として輝度、彩度、色相、明度などの情報を用いる形態を説明したが、これに限られない。画像の各画素の色の属性を示す値を用いる形態であれば、いずれの形態でもよい。また、第一の属性の値の差分値を、画素ごとの第二の属性の値に応じて変化する閾値と比較して第一の前景領域を推定し、第三の属性の差分値を、全画素に共通の閾値と比較して第二の前景領域を推定してもよい。そして、第一の前景領域と第二の前景領域とに基づいて前景領域を決定してもよい。
また、上述した実施形態では、仮想視点画像を生成するために前景領域を決定する処理を例に挙げて説明したが、これに限られない。例えば、監視カメラなどのような単一のカメラで得られた撮像画像から前景領域を決定する処理に適用してもよい。
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
また、前述した実施形態では、一つの画像処理装置200が、複数のカメラの画像データを取得して各カメラにおける背景画像の生成および前景領域の決定を行う形態を説明した。しかしながら、この形態に限られない。例えば、各カメラのハードウェア、または、各カメラに付随する画像処理装置が、仮想視点画像生成部の機能を除く機能を有する形態でもよい。そして、各カメラ側において、背景画像および前景領域を示す画像を生成し、生成したそれぞれのデータが、仮想視点画像を生成する装置に送信される形態でもよい。
また、実施形態1では、色相を用いて前景領域を推定する処理を説明し、実施形態2では、色差を用いて前景領域を推定する処理を説明した。これらを合わせた実施形態を採用してもよい。即ち、色相を用いて前景領域を推定する処理と、色差を用いて前景領域を推定する処理との両方の処理を行ってもよい。そして、それぞれで推定された前景領域に所定の演算を行い、色情報を用いて推定された前景領域が決定されてもよい。つまり、色相を用いて前景領域を推定する処理と、色差を用いて前景領域を推定する処理とのうちの少なくとも一方の処理を行う形態を採用することができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
303 背景生成部
310 輝度前景領域推定部
311 閾値決定部
312 色相前景領域推定部

Claims (15)

  1. 撮像装置によって撮像された撮像画像を取得する第一取得手段と、
    前記撮像画像に対応する背景画像を取得する第二取得手段と、
    前記第一取得手段で取得された撮像画像と前記第二取得手段で取得された背景画像との色相の差又は色度の差を特定する第一特定手段と、
    前記第一取得手段で取得された撮像画像の彩度および前記第二取得手段で取得された背景画像の彩度の少なくとも一方を特定する第二特定手段と、
    前記第二特定手段で特定された彩度に応じて設定される閾値と、前記第一特定手段で特定された色相の差又は色度の差とに基づいて、前景領域を決定する決定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記決定手段は、対象の画素について、前記第一特定手段で特定された色相の差又は色度の差が、前記閾値より大きい場合、前記対象の画素を前景領域の画素であると決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第二特定手段で特定された彩度に応じて、前記閾値を設定する設定手段をさらに有することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記設定手段は、前記第二特定手段で特定された彩度が第一の値の場合の閾値を、彩度が前記第一の値よりも大きい第二の値の場合の閾値よりも大きくなるように、前記閾値を設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第一特定手段は、前記色相の差を特定することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記第一特定手段は、前記色度の差を特定し、
    前記第二特定手段は、前記第一取得手段で取得された撮像画像の色度から前記彩度を特定する、又は、前記第二取得手段で取得された背景画像の色度から前記彩度を特定することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  7. 前記第二特定手段は、前記第一取得手段で取得された撮像画像の彩度と前記第二取得手段で取得された背景画像の彩度とを特定し、
    前記決定手段は、前記第二特定手段で特定された撮像画像の彩度と背景画像の彩度との差が、第二の閾値よりも小さい場合、前記第一特定手段で特定された色相の差又は色度の差に関わらず、前記対象の画素を前景領域の画素であると決定しないことを特徴とする請求項2に記載の画像処理装置。
  8. 前記第二特定手段は、前記第一取得手段で取得された撮像画像の彩度と前記第二取得手段で取得された背景画像の彩度とを特定し、
    前記決定手段は、前記第二特定手段で特定された撮像画像の彩度および背景画像の彩度が、いずれも第三の閾値よりも小さい場合、前記第一特定手段で特定された色相の差又は色度の差に関わらず、前記対象の画素を前景領域の画素であると決定しないことを特徴とする請求項2に記載の画像処理装置。
  9. 前記第一取得手段で取得された撮像画像と前記第二取得手段で取得された背景画像の輝度の差を特定する第三特定手段と、
    前記第三特定手段で特定された輝度の差と、第四の閾値とを用いて前景領域を決定する第二決定手段と、
    前記決定手段で決定された前景領域と、前記第二決定手段で決定された前景領域とに基づいて前景領域を特定する第四特定手段と、
    をさらに有することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記第二決定手段は、対象の画素について、前記第三特定手段で特定された輝度の差が、前記第四の閾値より大きい場合、前記対象の画素を前景領域の画素であると決定することを特徴とする請求項9に記載の画像処理装置。
  11. 前記第四の閾値は、各画素において共通の値であることを特徴とする請求項9または10に記載の画像処理装置。
  12. 前記第四特定手段は、前記決定手段で決定された前景領域と、前記第二決定手段で決定された前景領域との論理和を求めることで、前景領域を特定することを特徴とする請求項9から11のいずれか1項に記載の画像処理装置。
  13. 前記第四特定手段で特定された前景領域と、前記第二取得手段で取得された背景画像とを用いて仮想視点画像を生成する生成手段をさらに有することを特徴とする請求項9から12のいずれか1項に記載の画像処理装置。
  14. 撮像装置によって撮像された撮像画像を取得する第一取得ステップと、
    前記撮像画像に対応する背景画像を取得する第二取得ステップと、
    前記第一取得ステップで取得された撮像画像と前記第二取得ステップで取得された背景画像との色相の差又は色度の差を特定する第一特定ステップと、
    前記第一取得ステップで取得された撮像画像の彩度および前記第二取得ステップで取得された背景画像の彩度の少なくとも一方を特定する第二特定ステップと、
    前記第二特定ステップで特定された彩度に応じて設定される閾値と、前記第一特定ステップで特定された色相の差又は色度の差とに基づいて、前景領域を決定する決定ステップと、
    を有することを特徴とする画像処理方法。
  15. コンピュータを、請求項1から13のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018209731A 2018-11-07 2018-11-07 画像処理装置、画像処理方法、及びプログラム Active JP7207957B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018209731A JP7207957B2 (ja) 2018-11-07 2018-11-07 画像処理装置、画像処理方法、及びプログラム
US16/594,397 US11074742B2 (en) 2018-11-07 2019-10-07 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018209731A JP7207957B2 (ja) 2018-11-07 2018-11-07 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020077165A JP2020077165A (ja) 2020-05-21
JP2020077165A5 JP2020077165A5 (ja) 2021-12-23
JP7207957B2 true JP7207957B2 (ja) 2023-01-18

Family

ID=70458907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018209731A Active JP7207957B2 (ja) 2018-11-07 2018-11-07 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11074742B2 (ja)
JP (1) JP7207957B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11308605B2 (en) * 2020-02-14 2022-04-19 University Of Florida Research Foundation, Incorporated Image processing for printed circuit board component detection
JP7475959B2 (ja) * 2020-05-20 2024-04-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20240112446A1 (en) * 2021-02-24 2024-04-04 Sony Group Corporation Image processing device, image processing method, projector device
CN113301384B (zh) * 2021-05-21 2023-03-24 苏州翼鸥时代科技有限公司 一种背景的替换方法、装置、电子设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006033178A1 (ja) 2004-09-22 2006-03-30 Polygon Magic, Inc. 画像処理装置、方法、およびプログラム
JP2010123114A (ja) 2008-10-24 2010-06-03 Hiroshima Univ 画像分割装置および画像分割方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674485B2 (en) * 1998-08-31 2004-01-06 Hitachi Software Engineering Co., Ltd. Apparatus and method for image compositing
US20150297949A1 (en) * 2007-06-12 2015-10-22 Intheplay, Inc. Automatic sports broadcasting system
JP6089476B2 (ja) 2012-07-20 2017-03-08 株式会社ニコン 画像処理装置、撮像装置、および画像処理プログラム
US9208580B2 (en) * 2012-08-23 2015-12-08 Qualcomm Incorporated Hand detection, location, and/or tracking
JP5945487B2 (ja) * 2012-09-27 2016-07-05 株式会社沖データ 画像処理装置、プログラム及び方法
JP6491581B2 (ja) * 2015-10-06 2019-03-27 キヤノン株式会社 画像処理装置およびその制御方法ならびにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006033178A1 (ja) 2004-09-22 2006-03-30 Polygon Magic, Inc. 画像処理装置、方法、およびプログラム
JP2010123114A (ja) 2008-10-24 2010-06-03 Hiroshima Univ 画像分割装置および画像分割方法

Also Published As

Publication number Publication date
US20200143582A1 (en) 2020-05-07
JP2020077165A (ja) 2020-05-21
US11074742B2 (en) 2021-07-27

Similar Documents

Publication Publication Date Title
JP7207957B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10165248B2 (en) Optimization method of image depth information and image processing apparatus
TWI536318B (zh) 深度測量之品質提升
JP6351238B2 (ja) 画像処理装置、撮像装置および距離補正方法
Sun et al. HDR image construction from multi-exposed stereo LDR images
US10841555B2 (en) Image processing apparatus, image processing method, and storage medium
JP6998388B2 (ja) 画像特性マップを処理するための方法及び装置
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR20150114437A (ko) 화상처리장치 및 화상처리방법
US10708505B2 (en) Image processing apparatus, method, and storage medium
US10742852B2 (en) Image processing apparatus, object shape estimation method, and storage medium
US9367900B2 (en) Image noise removing apparatus and image noise removing method
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
US20200118250A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
CN112132925A (zh) 用于重建水下图像颜色的方法和装置
EP3616399B1 (en) Apparatus and method for processing a depth map
JP2013182330A (ja) 画像処理装置および画像処理方法
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP7271115B2 (ja) 画像処理装置、背景画像の生成方法およびプログラム
JP7012457B2 (ja) 画像処理装置、画像処理方法
JP7329964B2 (ja) 画像処理装置および画像処理方法およびプログラム
CN111935391B (zh) 图像处理装置及其控制方法和计算机可读存储介质
JP7227785B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
KR102497593B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R151 Written notification of patent or utility model registration

Ref document number: 7207957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151