JP7012457B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP7012457B2
JP7012457B2 JP2017100074A JP2017100074A JP7012457B2 JP 7012457 B2 JP7012457 B2 JP 7012457B2 JP 2017100074 A JP2017100074 A JP 2017100074A JP 2017100074 A JP2017100074 A JP 2017100074A JP 7012457 B2 JP7012457 B2 JP 7012457B2
Authority
JP
Japan
Prior art keywords
region
image
foreground
specifying
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017100074A
Other languages
English (en)
Other versions
JP2018195190A (ja
Inventor
明弘 松下
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017100074A priority Critical patent/JP7012457B2/ja
Publication of JP2018195190A publication Critical patent/JP2018195190A/ja
Application granted granted Critical
Publication of JP7012457B2 publication Critical patent/JP7012457B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、入力画像内の前景領域を特定するための技術に関するものである。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、該撮影により得られた複数視点画像を用いて任意の仮想視点コンテンツを生成する技術が注目されている。このようにして複数視点画像から任意の仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することが出来るため、通常の画像と比較してユーザに高臨場感を与えることができる。
一方、複数視点画像に基づく任意の仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバなどの画像処理部に集約し、該画像処理部にてレンダリングなどの処理を施し、最後にユーザ端末に伝送をおこなうことで実現できる。仮想視点の映像を生成する技術についてはさまざまな手法が開発されている。例えば、複数のカメラ映像から選手などの前景を分離し、3次元座標を算出し、平面に再投影して仮想視点映像を生成する技術がある。
ここで、前景を分離する手法については、例えば、背景差分法と呼ばれるものが一般的に知られている。まず過去の一定時間の画像の情報に基づいて背景情報を生成し、現在の画像との差分を検出して前景として分離する手法である。前景の分離についてはその他にも、特徴量や機械学習を用いる手法などが知られている。また特許文献1では、空間周波数に基づく注目点の推定と、色情報に基づく前景形状の推定処理を組み合わせて、前景分離の性能を改善する方法が開示されている。
特開2014-232477号公報
しかし、一つの特徴量を用いた前景形状推定は性能に限界があった。例えば色情報に基づく手法では、前景と背景の色が近い場合に性能が低下する場合があった。
本発明はこのような問題に鑑みてなされたものであり、入力画像内における前景領域の特定の精度を改善するための技術を提供する。
本発明の一様態は、入力画像と背景画像との間の色情報に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定手段と、
前記入力画像と前記背景画像との間の輝度情報に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定手段と、
前記第2の特定手段により特定された前記第2領域に対して、前記第1の特定手段により特定された前記第1領域の面積と前記第2の特定手段により特定された前記第2領域の面積との比率に基づいて、収縮処理を行う処理手段と、
前記第1の特定手段により特定された前記第1領域と、前記処理手段により収縮処理が行われた前記第2領域と、の少なくとも一方に含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定手段と
を有することを特徴とする。
本発明の構成によれば、入力画像内における前景領域の特定の精度を改善することができる。
システムの構成例を示す図である。 画像処理装置103の機能構成例を示すブロック図である。 画像処理装置103が行う処理のフローチャートである。 画像処理装置103が行う処理のフローチャートである。 前景領域の一例を示す図である。 画像処理装置103の機能構成例を示すブロック図である。 前景分離部606が行う処理のフローチャートである。 コンピュータ装置のハードウェア構成例を示すブロック図である。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、伝送路を介してリング状に接続されている複数のカメラ102と、該複数のカメラ102のうち少なくとも一部のカメラ102による撮像画像に基づいて仮想視点画像を生成する画像処理装置103と、を有する。
複数のカメラ102は競技場101の周囲に設置されており、それぞれのカメラ102は互いに異なる方向から競技場101の動画像を撮像している。複数のカメラ102のうち1つは画像処理装置103に接続されており、それぞれのカメラ102による撮像画像(動画像を構成する各フレームの画像)は、伝送路や他のカメラ102等を介して画像処理装置103に転送される。これにより画像処理装置103には、複数のカメラ102による撮像画像がフレーム単位で入力されることになる。
画像処理装置103は、それぞれのカメラ102による撮像画像のうち、ユーザにより指定された仮想的な視点から見た競技場101の画像(仮想視点画像)を生成するために必要な撮像画像群に基づいて、該仮想視点画像を生成する。なお、競技場101では例えばサッカーなどの競技が行われており、競技場101の中に被写体としての人物104がいるものとする。ただし、撮影対象は競技場101における競技に限らず、例えばステージにおける演技などであってもよい。また、視点はユーザにより指定されるものに限らず、自動的に決定されるものであってもよい。
なお、競技場101の周囲に配置された複数のカメラ102による撮像画像を画像処理装置103が取得することができるのであれば、システムの構成は図1に示した構成に限らない。例えば、各カメラ102と画像処理装置103とが直接接続されていてもよい。また例えば、各カメラ102に撮像画像を記憶するための取り外し可能な記憶装置が備えられており、当該記憶装置をカメラ102から取り外して画像処理装置103に接続することで撮像画像を画像処理装置103に取得させてもよい。
次に、画像処理装置103の機能構成例について、図2のブロック図を用いて説明する。本実施形態では、画像処理装置103における画像処理は、画像処理装置103に内蔵されたASIC(application specific integrated circuit)やFPGA(field programmable gate array)などのハードウェアにより処理される。然るに本実施形態では、図2に示した各機能部(各モジュール)は、ハードウェアとしてASICやFPGAの内部に実装されている。
データ受信部201は、それぞれのカメラ102が撮像した撮像画像を取得し、該取得した撮像画像を記録部202に格納する。撮像画像には、該撮像画像を撮像したカメラ102に固有の識別情報が添付されているものとする。記録部202は、例えばハードディスクや、SSD(solid state drive)、またはそれらの組み合わせなどで構成される。そしてデータ受信部201は、記録部202に格納されている撮像画像群のうち、ユーザ指定などにより入力された仮想視点位置に応じてこれから生成する仮想視点画像の生成処理のために必要となる撮像画像群を記録部202から読み出す。そしてデータ受信部201は、記録部202から読み出した撮像画像群を、背景生成部203、前景分離部205、前景分離部206、生成部209に対して出力する。
背景バッファ204には、カメラ102ごとに、該カメラ102に固有の識別情報と、該カメラ102が過去に撮像した撮像画像から生成した背景画像(以下では登録背景画像と称する)と、が関連づけて格納されている。本実施形態において背景画像とは、撮像画像から人物などの所定の被写体の画像(前景画像)が取り除かれた画像である。例えば、競技場101におけるサッカーの試合がカメラ102により撮影される場合に、選手やボールなどの画像が前景画像となり、選手やボールなどを含まない競技場101の地面の画像が背景画像となる。
背景生成部203は、データ受信部201から入力された撮像画像に添付されている識別情報と同じ識別情報と関連づけて背景バッファ204に格納されている登録背景画像を該背景バッファ204から読み出す。そして背景生成部203は、同じ識別情報に対応する撮像画像と登録背景画像とに基づいて、該撮像画像における背景を表す背景画像を生成し、該識別情報と関連づけて背景バッファ204に格納されている登録背景画像を該生成した背景画像を用いて更新する。撮像画像と登録背景画像とに基づいて該撮像画像の背景を表す背景画像を生成するための方法には様々な方法を適用することができる。例えば背景生成部203は、撮像画像と登録背景画像との差分画像(撮像画像と登録背景画像とで同位置の画素位置における画素値の差分をとった画像)を用いて、該撮像画像における背景を表す背景画像を生成しても良い。また、混合ガウスモデルによる背景画像生成方法を用いても良い。混合ガウスモデルについては一般的によく知られている手法であるので詳細な説明は省く。そして背景生成部203は、生成した背景画像を、前景分離部205及び前景分離部206に対して出力する。
前景分離部205は、データ受信部201から入力した撮像画像と、該撮像画像における背景を表す背景画像として背景生成部203が生成した背景画像と、の画素ごとの第1の特徴量の差分に基づいて、該撮像画像における前景領域を推定する。本実施形態において前景領域とは、撮影画像内における人物などの所定の被写体が位置する領域である。なお、前景領域は人物に対応する領域に限らず、例えば移動物体に対応する領域や、あらかじめ指定された被写体に対応する領域としてもよい。前景分離部205が行う処理について、同処理のフローチャートを示す図3(A)を用いて説明する。前景分離部205は第1の特徴量として色情報を用いる。本実施形態において或る画素についての第1の特徴量は、当該画素の画素値に応じて決まる。
ステップS301では、前景分離部205は、撮像画像(入力画像)と背景画像との色情報に基づく差分画像を生成する。ステップS301で生成される差分画像は、差分画像中の画素位置(x、y)における画素値が、撮像画像中の画素位置(x、y)における色情報と、背景画像中の画素位置(x、y)における色情報と、の差分を表す画像である。例えば、撮像画像中の画素位置(x、y)におけるR,G,Bのそれぞれの画素値をPR,PG,PBとし、背景画像中の画素位置(x、y)におけるR,G,Bのそれぞれの画素値をPR’,PG’,PB’とする。このとき、差分画像中の画素位置(x、y)における画素値Δは、Δ=|PR-PR’|+|PG-PG’|+|PB-PB’|を計算することで決定される。もちろん、撮像画像と背景画像との色情報についての差分画像の求め方は、このような方法に限るものではない。例えば、色情報はRGBであっても良いし、YUV色空間やその他の色空間における各色成分であっても良く、特定の色成分に限らない。
ステップS302では、前景分離部205は、差分画像に対して画素値の平滑化処理を行う。平滑化処理を行うことで、画素の欠落やノイズを除去する。平滑化については最も簡単なものとして単純平均処理があるが、性能を向上するために、例えばガウシアンフィルタやバイラテラルフィルタなどが知られており、どのようなフィルタを用いてもよい。
ステップS303では、前景分離部205は、ステップS302で平滑化処理を行った差分画像における各画素について、該画素の画素値が閾値よりも大きいか否かを判断する。そしてこの判断の結果、前景分離部205は、差分画像において画素値が閾値よりも大きい画素については、ステップS304において該画素に対し、「前景領域を構成する画素(前景画素)」を表すビット値「1」を割り当てる。一方、前景分離部205は、差分画像において画素値が閾値以下の画素については、ステップS305において該画素に対し、「背景領域を構成する画素(背景画素)」を表すビット値「0」を割り当てる。このような処理により、差分画像の各画素に対応するビット値を画素値とする二値画像を生成することができる。二値画像中の画素位置(x、y)における画素値が「1」である場合、撮像画像中の画素位置(x、y)における画素が前景画素と推定された画素であることを示す。一方、二値画像中の画素位置(x、y)における画素値が「0」である場合、撮像画像中の画素位置(x、y)における画素が背景画素と推定された画素であることを示す。このように前景分離部205は、撮像画像と背景画像との色情報の差分に基づく二値画像を、撮像画像上における前景領域の推定結果を表す情報として生成する。
なお、ステップS303からS305において生成されるこの二値画像では、実際には前景に対応する領域の内部に細かな画素の欠落が発生したり、実際には背景に対応する領域に細かなノイズが発生したりする。そのため次のステップS306では、前景分離部205は、この二値画像に対して上記のような平滑化処理を行うことで、画素の欠落やノイズを除去する。なお、平滑化処理は、二値画像全体に対して行っても良いし、画素値が「1」である画素の領域及びその近傍に対して行っても良い。
そして前景分離部205は、図3(A)のフローチャートに従った処理を行うことで生成した二値画像(第1の二値画像)を、後段の前景領域調整部207に対して送出する。なお、前景分離部205は、データ受信部201から撮像画像が入力されるたびに図3(A)のフローチャートに従った処理を行う。
前景分離部206は、データ受信部201から入力した撮像画像と、該撮像画像における背景領域を表す背景画像として背景生成部203が生成した背景画像と、の画素ごとの第2の特徴量の差分に基づいて、該撮像画像における前景領域を推定する。前景分離部206が行う処理について、同処理のフローチャートを示す図3(B)を用いて説明する。前景分離部206は第2の特徴量としてテクスチャ情報を用いる。すなわち、本実施形態において或る画素についての第2の特徴量は、当該画素の画素値と当該画素の周囲の画素の画素値とに応じて決まる。
ステップS307では、前景分離部206は、撮像画像(入力画像)と背景画像とのテクスチャ情報に基づく差分画像を生成する。ステップS307で生成される差分画像中の画素位置(x、y)における画素値は、例えば次のようにして求める。撮像画像中の画素位置(x、y)を中心とする画像領域(例えば3×3画素の画像領域)と、背景画像中の画素位置(x、y)を中心とする画像領域(例えば3×3画素の画像領域)と、の間で同じ画素位置の画素同士で輝度値の差分(絶対値)を求め、求めた差分の合計値Sを、差分画像中の画素位置(x、y)における画素値とする。画素の輝度値は、Lab色空間におけるLの成分値である。画素の画素値がRGBの色空間におけるものであれば、R成分の画素値、G成分の画素値、B成分の画素値から周知の方法でもってLの成分値を求めることができる。なお、画素の輝度値はL成分に限らず、YUVやYCbCr等のY成分の値であっても良い。
なお、テクスチャ情報に基づく特徴量としては、そのほかにも例えば、HOG(Histograms of Oriented Gradients)特徴量やLBP(Local Binary Pattern)特徴量などを用いてもよい。
ステップS308では、前景分離部206は上記のステップS302と同様にして、差分画像に対して画素値の平滑化処理を行う。ステップS309では、前景分離部206は、ステップS308で平滑化処理を行った差分画像における各画素について、該画素の画素値が閾値よりも大きいか否かを判断する。そしてこの判断の結果、前景分離部206は、差分画像において画素値が閾値よりも大きい画素については、ステップS310において該画素に対し、「前景領域を構成する画素(前景画素)」を表すビット値「1」を割り当てる。一方、前景分離部206は、差分画像において画素値が閾値以下の画素については、ステップS311において該画素に対し、「背景領域を構成する画素(背景画素)」を表すビット値「0」を割り当てる。このような処理により、上記のステップS304,S305と同様に、差分画像の各画素に対応するビット値を画素値とする二値画像を生成することができる。このように前景分離部206は、撮像画像と背景画像とのテクスチャ情報の差分に基づく二値画像を、撮像画像上における前景領域の推定結果を表す情報として生成する。
ステップS312では、前景分離部206は、上記のステップS306と同様にして、この二値画像に対して上記のような平滑化処理を行うことで、画素の欠落やノイズを除去する。
そして前景分離部206は、図3(B)のフローチャートに従った処理を行うことで生成した二値画像(第2の二値画像)を、後段の前景領域調整部207に対して送出する。なお、前景分離部206は、データ受信部201から撮像画像が入力されるたびに図3(B)のフローチャートに従った処理を行う。
図3(A)のフローチャートに従って生成された二値画像の一例を図5(A)に示す。図5(A)に示す如く、二値画像上では前景(人物104)が人の形として検出されているが、ここでは例として、検出された前景の領域の一部に大きな欠落があるものとする。色情報の差分に基づいて前景領域の推定を行う際、特に前景と背景の色が近い場合にこのような欠落が発生することがある。
図3(B)のフローチャートに従って生成された二値画像の一例を図5(B)に示す。図5(B)に示す如く、二値画像上では検出された前景(人物104)の領域の境界部が滑らかでなく、また前景の領域の内部に小さな欠落が見られる。テクスチャ情報の差分に基づいて前景領域の推定を行う際には、このように前景と背景との境界が粗くなりやすい傾向がある。
前景領域調整部207では、前景分離部206によって生成された第2の二値画像における前景領域を調整する。第2の二値画像における前景領域の調整処理の一例について、図4(A)のフローチャートを用いて説明する。
ステップS401で前景領域調整部207は、第1の二値画像及び第2の二値画像のそれぞれに対してラベリング処理を行うことで、第1の二値画像及び第2の二値画像のそれぞれにおける前景領域(画素値が「1」の画素の領域)に対してラベルを付与する。ラベリング処理では、同じ画素値「1」を有し且つ繋がった画素のかたまりを一つの前景領域(同一の被写体に対応する領域)として検出し、前景領域ごとにラベル(番号)を付加する。
以下では説明を簡単にするために、第1の二値画像における着目前景領域と、第2の二値画像における前景領域群のうち着目前景領域に最も近い前景領域と、には同じラベル番号が付加されているものとする。しかし、第1の二値画像における着目前景領域と、第2の二値画像における前景領域群のうち着目前景領域に最も近い前景領域と、の対応関係が導出可能であれば、それぞれの二値画像において近接する前景領域に同じラベル番号を付加することに限らない。
そしてステップS403における処理を、第1の二値画像(第2の二値画像)におけるそれぞれのラベル番号について行う(ラベル数に応じた回数繰り返す)ことで、それぞれのラベル番号に対応する前景領域についてステップS403の処理を行う。
ステップS403では、前景領域調整部207は、未選択のラベル番号を1つ選択ラベル番号として選択し、第2の二値画像において該選択ラベル番号が付加された前景領域に対して収縮処理を行うことで、該前景領域を調整する。収縮処理にはモルフォロジー演算と呼ばれる処理を用いる。モルフォロジー演算については一般的によく知られているので説明は省く。またこのときの収縮量は、第1の二値画像と第2の二値画像とを重ねたときに、第2の二値画像における前景領域が第1の二値画像における前景領域のほぼ内側になるように、予め一定の値として決められている。図5(B)の前景領域に対する収縮処理の結果の例を図5(C)に示す。
第2の二値画像における前景領域の調整処理の他の例について、図4(B)のフローチャートを用いて説明する。ステップS405では前景領域調整部207は、上記のステップS401と同様にして、第1の二値画像及び第2の二値画像のそれぞれに対するラベリング処理を行う。
ステップS407~S411における処理を、第1の二値画像(第2の二値画像)におけるそれぞれのラベル番号について行う(ラベル数に応じた回数繰り返す)ことで、それぞれのラベル番号に対応する前景領域についてステップS407~S411の処理を行う。
ステップS407では、前景領域調整部207は、未選択のラベル番号を1つ選択ラベル番号として選択し、第1の二値画像における前景領域群のうち、選択ラベル番号に対応する前景領域の面積S1(例えば、該前景領域に含まれている画素の数)を特定する。
ステップS408では、前景領域調整部207は、第2の二値画像における前景領域群のうち、選択ラベル番号に対応する前景領域の面積S2(例えば、該前景領域に含まれている画素の数)を特定する。
ステップS409では、前景領域調整部207は、面積S1に対する面積S2の比率(S2/S1)を求める。そしてステップS410では、前景領域調整部207は、S2/S1<θという条件を満たすか否かを判断する。ここでθは、予め決められた閾値である。この判断の結果、S2/S1<θであれば、処理はステップS407に戻る。一方、S2/S1≧θであれば、処理はステップS411に進む。
ステップS411では、前景領域調整部207は、上記のステップS403と同様にして、第2の二値画像において選択ラベル番号が付加された前景領域に対して収縮処理を行うことで、該前景領域を調整する。なお、調整量(収縮量)は予め定められていてもよいし、例えばS1の値とS2の値とに基づいて決定されてもよい。
以上の処理によって、第2の二値画像における前景領域の面積が、第1の二値画像における前景領域の面積に対して一定比率以下となっている。そのため結果的に、第1の二値画像と第2の二値画像とを重ねたときに、第2の二値画像における前景領域の境界が第1の二値画像における前景領域のほぼ内側となることが期待できる。
さらに、前景領域調整部207における前景領域の調整方法の他の例としては、前景領域の境界部の長さを比較する方法がある。ステップS407では、第1の二値画像における前景領域の境界部の長さをS11として求め、ステップS408では、第2の二値画像における前景領域の境界部の長さをS12として求める。そしてステップS409以降では、S1,S2の代わりにそれぞれS11,S12を用いて処理を行う。
前景領域決定部208は、第1の二値画像における前景領域(第1領域)と、前景領域調整部207による調整済み(収縮済み)の第2の二値画像における前景領域(第2領域)と、に基づいて、撮像画像における前景領域を決定する。前景領域決定部208による前景領域の決定処理について、図3(C)のフローチャートに従って説明する。
ステップS313では、前景領域決定部208は、第1の二値画像と第2の二値画像とで同位置の画素ごとに画素値のOR演算を行う。このようなOR演算を行うことで得られる二値画像(第3の二値画像)中の画素位置(x、y)における画素値が「1」である場合、撮像画像中の画素位置(x、y)における画素が前景画素と推定された画素であることを示す。一方、第3の二値画像中の画素位置(x、y)における画素値が「0」である場合、撮像画像中の画素位置(x、y)における画素が背景画素と推定された画素であることを示す。すなわち、第3の二値画像において画素値が「1」の領域とは、第1の二値画像における前景領域と第2の二値画像における前景領域との和である。言い換えると、前景領域決定部208により決定される前景領域は、前景分離部205により特定される前景領域と前景分離部206により特定される前景領域との少なくとも何れかに含まれる画素により構成される。なお、第1の二値画像及び第2の二値画像の全体領域についてOR演算を行うことに限らず、例えば、同じラベル番号の前景領域ごとにOR演算を行うようにしても良い。
図5(A)の前景領域と図5(C)の前景領域とを用いて前景領域決定部208により得られる前景領域を図5(D)に示す。図5(D)に示す如く、図5(A)の前景領域と比べると、前景領域の欠落が埋まり、前景形状の品質が改善されている。また図5(B)の前景領域と比べると、図5(B)の前景領域の境界部が図5(A)の前景領域の内側となるよう調整したために、前景領域の境界部の粗い部分が少なくなっており、前景形状の品質が改善されている。
生成部209は、データ受信部201から入力された撮像画像と、背景バッファ204に格納されている背景画像と、前景領域決定部208によって生成された第3の二値画像と、を用いて仮想視点画像を生成する。仮想視点画像の生成方法としては、例えばVisualHullなどの方法が知られている。例えば生成部209は、ユーザにより指定された視点に対応する仮想視点画像の生成に要する背景画像を背景バッファ204から読み出し、該読み出した背景画像を2次元平面上に投影することで、該2次元平面上に仮想視点における背景を生成する。また生成部209は、データ受信部201から入力された撮像画像について前景領域決定部208が生成した第3の二値画像中の画素値が「1」の画素群に対応する該撮像画像上の画素群の領域を前景領域として特定する。そして生成部209は、データ受信部201から入力されたそれぞれの撮像画像から、該撮像画像について特定した前景領域を抽出し、該抽出した前景領域に基づいて前景(例えば人物104)の3次元モデルを生成する。そして生成部209は、該生成した3次元モデルを、ユーザにより指定された視点に応じて上記の2次元平面上に投影することで、該2次元平面上に仮想視点画像を生成する。VisualHullについてはよく知られた手法なので詳細な説明は省く。
そして生成部209は、生成した仮想視点画像を出力するのであるが、出力先については特定の出力先に限らない。例えば、画像処理装置103に接続されている表示装置に表示しても良いし、記憶装置に記録するようにしても良い。また、ネットワークを介して外部の端末に対して送信しても良い。
このように、本実施形態によれば、特性の異なる複数の前景分離手法による前景分離を行って、その結果に対して調整を行った後合成するという手順で、前景形状の品質を改善することができる。すなわち、入力画像内における前景領域の特定の精度を改善できる。その結果、生成される仮想視点画像の画質を向上させることができる。
[第2の実施形態]
第1の実施形態では、第2の特徴量として画像のテクスチャ情報を用いたが、本実施形態では画像の輝度情報を用いる。すなわち、本実施形態において或る画素についての第2の特徴量は、当該画素の画素値に応じて決まる。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
画像処理装置103の機能構成例について、図6のブロック図を用いて説明する。図6において図2に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。本実施形態でも第1の実施形態と同様、画像処理装置103における画像処理は、画像処理装置103に内蔵されたASICやFPGAなどのハードウェアにより処理される。然るに本実施形態では、図6に示した各機能部(各モジュール)は、ハードウェアとしてASICやFPGAの内部に実装されている。
前景分離部606は、データ受信部201から入力した撮像画像と、該撮像画像における背景領域を表す背景画像として背景生成部203が生成した背景画像と、の輝度情報の差分に基づいて、該撮像画像における前景領域を推定する。前景分離部606が行う処理について、同処理のフローチャートを示す図7を用いて説明する。図7において図3(B)と同じ処理ステップには同じステップ番号を付しており、該処理ステップに係る説明は省略する。
ステップS707では、前景分離部606は、撮像画像(入力画像)と背景画像との輝度情報に基づく差分画像を生成する。ステップS707で生成される差分画像は、差分画像中の画素位置(x、y)における画素値が、撮像画像中の画素位置(x、y)における輝度値と、背景画像中の画素位置(x、y)における輝度値と、の差分を表す画像である。
ステップS709では、前景分離部606は、ステップS308で平滑化処理を行った差分画像における各画素について、該画素の画素値が閾値よりも大きいか否かを判断する。そしてこの判断の結果、前景分離部606は、差分画像において画素値が閾値よりも大きい画素については、ステップS710において該画素に対し、「前景領域を構成する画素(前景画素)」を表すビット値「1」を割り当てる。一方、前景分離部606は、差分画像において画素値が閾値以下の画素については、ステップS711において該画素に対し、「背景領域を構成する画素(背景画素)」を表すビット値「0」を割り当てる。このような処理により、差分画像の各画素に対応するビット値を画素値とする二値画像を生成することができる。
本実施形態によれば、第2の二値画像における前景領域の面積が、第1の二値画像における前景領域の面積に対して一定比率以下となっている。そのため結果的に、第1の二値画像と第2の二値画像とを重ねたときに、第2の二値画像における前景領域の境界がほぼ内側となることが期待できる。
<変形例>
上記の各実施形態では、第1の二値画像における前景領域のサイズに鑑みて第2の二値画像における前景領域の収縮を行ったが、状況に応じて、第2の二値画像における前景領域のサイズに鑑みて第1の二値画像における前景領域の収縮又は拡張を行うようにしても良い。
また、第1及び第2の実施形態では、仮想視点画像を生成するべく前景分離を行っているが、第1及び第2の実施形態で説明した前景分離は、他の用途における画像処理において実行しても良い。
また、上記の各実施形態では、前景分離処理と仮想視点画像の生成処理とを同一の画像処理装置103が実行する場合について説明したが、これに限らない。例えば、システム内には複数のカメラ102に対応する複数の画像処理装置103が存在し、各画像処理装置は対応するカメラ102の撮像画像に対する前景分離処理を行ってもよい。そして、複数の画像処理装置103のそれぞれが、自装置による前景分離処理の結果を、仮想視点画像の生成処理を行う生成装置に出力してもよい。
また、本変形例を含む上記の実施形態の一部若しくは全部を適宜組み合わせても構わないし、本変形例を含む上記の実施形態の一部若しくは全部を選択的に使用しても構わない。
[その他の実施形態]
第1及び第2の実施形態では、図2及び図6に示した各機能部は何れもハードウェアで構成されているものとして説明した。しかし、記録部202、背景バッファ204、データ受信部201以外の機能部はソフトウェア(コンピュータプログラム)で実装しても良い。そのような場合、記録部202及び背景バッファ204として機能するメモリを有し、データ受信部201として機能するインターフェース(I/F)を有し、上記ソフトウェアを実行可能なコンピュータ装置を画像処理装置103に適用することができる。
画像処理装置103に適用可能なコンピュータ装置のハードウェア構成例について、図8のブロック図を用いて説明する。なお、図8に示したハードウェア構成は、画像処理装置103に適用可能なコンピュータ装置のハードウェア構成の一例に過ぎない。
CPU801は、RAM802やROM803に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU801は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置103が行うものとして上述した各処理を実行若しくは制御する。
RAM802は、ROM803や外部記憶装置806からロードされたコンピュータプログラムやデータ、I/F807を介して外部から受信したデータ(例えば撮像画像群)、を格納するためのエリアを有する。更にRAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。このようにRAM802は、各種のエリアを適宜提供することができる。ROM803には、書換不要のコンピュータプログラムやデータが格納されている。
操作部804は、キーボードやマウスなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をCPU801に対して入力することができる。例えばユーザは操作部804を操作することで、仮想視点の位置を指定することができる。
表示装置805は、CRTや液晶画面などにより構成されており、CPU801による処理結果を画像や文字などでもって表示することができる。例えば、表示装置805には、仮想視点の位置を指定するためのGUI(グラフィカルユーザインターフェース)や、生成部209が生成した仮想視点画像を表示することができる。なお、操作部804と表示装置805とを一体化させてタッチパネル画面を構成しても良い。
外部記憶装置806は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置806には、OS(オペレーティングシステム)や、図2及び図6において記録部202、背景バッファ204、データ受信部201を除く各機能部の機能をCPU801に実現させるためのコンピュータプログラムやデータが保存されている。外部記憶装置806に保存されているデータには、上記の説明において既知の情報として取り扱ったもの、例えば、上記の閾値や、RGBをLabやYUVに変換するためのルックアップテーブル、等のデータが含まれている。外部記憶装置806に保存されているコンピュータプログラムやデータは、CPU801による制御に従って適宜RAM802にロードされ、CPU801による処理対象となる。なお、上記の記録部202や背景バッファ204は、RAM802や外部記憶装置806を用いて実装することができる。
I/F807は、上記のデータ受信部201として機能するものであり、それぞれのカメラ102による撮像画像を受信するためのインターフェースとして機能するものである。また、それぞれのカメラ102に対する制御信号は、I/F807を介してコンピュータ装置からそれぞれのカメラ102に対して送信される。上記のCPU801、RAM802、ROM803、操作部804、表示装置805、外部記憶装置806、I/F807は何れもバス808に接続されている。
なお本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:データ受信部 202:記録部 203:背景生成部 204:背景バッファ 205:前景分離部 206:前景分離部 207:前景領域調整部 208:前景領域決定部 209:生成部

Claims (9)

  1. 入力画像と背景画像との間の色情報に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定手段と、
    前記入力画像と前記背景画像との間の輝度情報に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定手段と、
    前記第2の特定手段により特定された前記第2領域に対して、前記第1の特定手段により特定された前記第1領域の面積と前記第2の特定手段により特定された前記第2領域の面積との比率に基づいて、収縮処理を行う処理手段と、
    前記第1の特定手段により特定された前記第1領域と、前記処理手段により収縮処理が行われた前記第2領域と、の少なくとも一方に含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定手段と
    を有することを特徴とする画像処理装置。
  2. 前記第1領域の面積、前記第2領域の面積はそれぞれ、前記第1領域を構成する画素数、前記第2領域を構成する画素数、により規定されることを特徴とする請求項に記載の画像処理装置。
  3. 入力画像と背景画像との間の色情報に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定手段と、
    前記入力画像と前記背景画像との間の輝度情報に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定手段と、
    前記第2の特定手段により特定された前記第2領域に対して、前記第1の特定手段により特定された前記第1領域の境界部の長さと前記第2の特定手段により特定された前記第2領域の境界部の長さとの比率に基づいて、収縮処理を行う処理手段と、
    前記第1の特定手段により特定された前記第1領域と、前記処理手段により収縮処理が行われた前記第2領域と、の少なくとも一方に含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定手段と
    を有することを特徴とする画像処理装置。
  4. 入力画像と背景画像との間の第1の特徴量に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定手段と、
    前記入力画像と前記背景画像との間の第2の特徴量に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定手段と、
    前記第1の特定手段により特定された前記第1領域と、前記第2の特定手段により特定された前記第2領域を収縮させた収縮済みの第2領域との少なくとも何れかに含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定手段と
    を有し、
    前記収縮済みの第2領域は、前記第2の特定手段により特定された前記第2領域を、前記第1の特定手段により特定された前記第1領域の面積と前記第2の特定手段により特定された前記第2領域の面積との比率に基づいて収縮させた領域であることを特徴とする画像処理装置。
  5. 入力画像と背景画像との間の第1の特徴量に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定手段と、
    前記入力画像と前記背景画像との間の第2の特徴量に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定手段と、
    前記第1の特定手段により特定された前記第1領域と、前記第2の特定手段により特定された前記第2領域を収縮させた収縮済みの第2領域との少なくとも何れかに含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定手段と
    を有し、
    前記収縮済みの第2領域は、前記第2の特定手段により特定された前記第2領域を、前記第1の特定手段により特定された前記第1領域の境界部の長さと前記第2の特定手段により特定された前記第2領域の境界部の長さとの比率に基づいて収縮させた領域であることを特徴とする画像処理装置。
  6. 更に、撮像装置による撮像に基づく撮像画像を前記入力画像として取得する取得手段を有することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  7. 更に、前記決定手段により決定された前景領域に基づいて、仮想視点画像を生成する生成手段を有することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  8. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の第1の特定手段が、入力画像と背景画像との間の色情報に基づく差分を用いて、該入力画像における第1領域を特定する第1の特定工程と、
    前記画像処理装置の第2の特定手段が、前記入力画像と前記背景画像との間の輝度情報に基づく差分を用いて、該入力画像における第2領域を特定する第2の特定工程と、
    前記画像処理装置の処理手段が、前記第2の特定工程で特定された前記第2領域に対して、前記第1の特定工程で特定された前記第1領域の面積と前記第2の特定工程で特定された前記第2領域の面積との比率、又は前記第1の特定工程により特定された前記第1領域の境界部の長さと前記第2の特定工程により特定された前記第2領域の境界部の長さとの比率に基づいて、収縮処理を行う処理工程と、
    前記画像処理装置の決定手段が、前記第1の特定工程で特定された前記第1領域と、前記処理工程で収縮処理が行われた前記第2領域と、の少なくとも一方に含まれる領域を、前記入力画像における所定の被写体に対応する前景領域として決定する決定工程と
    を有することを特徴とする画像処理方法。
  9. コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2017100074A 2017-05-19 2017-05-19 画像処理装置、画像処理方法 Active JP7012457B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017100074A JP7012457B2 (ja) 2017-05-19 2017-05-19 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017100074A JP7012457B2 (ja) 2017-05-19 2017-05-19 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018195190A JP2018195190A (ja) 2018-12-06
JP7012457B2 true JP7012457B2 (ja) 2022-01-28

Family

ID=64571624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017100074A Active JP7012457B2 (ja) 2017-05-19 2017-05-19 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP7012457B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074836A (ja) 2007-09-19 2009-04-09 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
JP2010081244A (ja) 2008-09-25 2010-04-08 Casio Computer Co Ltd 撮像装置及び撮像方法、画像処理プログラム
JP2011053951A (ja) 2009-09-02 2011-03-17 Canon Inc 画像処理装置
JP2012048484A (ja) 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2014219718A (ja) 2013-05-01 2014-11-20 三菱電機株式会社 監視用画像処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4268644B2 (ja) * 2007-01-22 2009-05-27 アジア航測株式会社 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP4925942B2 (ja) * 2007-06-27 2012-05-09 セコム株式会社 画像センサ
JP6570905B2 (ja) * 2015-07-15 2019-09-04 国立大学法人九州大学 グラフ表示装置、グラフ表示プログラム及びグラフ表示プログラムが記憶されたコンピュータ読取可能な記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074836A (ja) 2007-09-19 2009-04-09 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
JP2010081244A (ja) 2008-09-25 2010-04-08 Casio Computer Co Ltd 撮像装置及び撮像方法、画像処理プログラム
JP2011053951A (ja) 2009-09-02 2011-03-17 Canon Inc 画像処理装置
JP2012048484A (ja) 2010-08-26 2012-03-08 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP2014219718A (ja) 2013-05-01 2014-11-20 三菱電機株式会社 監視用画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
橋本 敦史、外3名,"テクスチャと色の相補的な利用に基づく調理作業中の台上物体領域抽出",情報処理学会研究報告 エンタテインメントコンピューティング(EC),日本,社団法人情報処理学会,2010年06月15日,No.16,pp.1-6

Also Published As

Publication number Publication date
JP2018195190A (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
TWI524734B (zh) 產生深度圖的方法及裝置
EP2927873B1 (en) Image processing apparatus and image processing method
US11589023B2 (en) Image processing apparatus, image processing method, and storage medium
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
KR20190034092A (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
US20150071530A1 (en) Image processing apparatus and method, and program
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
JP6914734B2 (ja) シルエット抽出装置、方法およびプログラム
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5703255B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11074742B2 (en) Image processing apparatus, image processing method, and storage medium
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
US7477761B2 (en) Image processing apparatus and method, and image-capturing apparatus
JP7374582B2 (ja) 画像処理装置、画像生成方法およびプログラム
US7181080B2 (en) Image processing apparatus and method, and image pickup apparatus
US20140098246A1 (en) Method, Apparatus and Computer-Readable Recording Medium for Refocusing Photographed Image
US20230394834A1 (en) Method, system and computer readable media for object detection coverage estimation
JP7012457B2 (ja) 画像処理装置、画像処理方法
KR101718309B1 (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
JP6811679B2 (ja) シルエット抽出装置、方法およびプログラム
JP2020046744A (ja) 画像処理装置、背景画像の生成方法およびプログラム
US20240169552A1 (en) Image processing apparatus, image processing method, and storage medium
JP7329964B2 (ja) 画像処理装置および画像処理方法およびプログラム
JP2024041435A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211206

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220118