JP2017228146A - 画像処理装置、画像処理方法およびコンピュータプログラム - Google Patents

画像処理装置、画像処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2017228146A
JP2017228146A JP2016124761A JP2016124761A JP2017228146A JP 2017228146 A JP2017228146 A JP 2017228146A JP 2016124761 A JP2016124761 A JP 2016124761A JP 2016124761 A JP2016124761 A JP 2016124761A JP 2017228146 A JP2017228146 A JP 2017228146A
Authority
JP
Japan
Prior art keywords
mask
image processing
processing apparatus
background difference
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016124761A
Other languages
English (en)
Other versions
JP6632134B2 (ja
Inventor
強 要
Tsutomu Kaname
強 要
敬介 野中
Keisuke Nonaka
敬介 野中
内藤 整
Hitoshi Naito
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016124761A priority Critical patent/JP6632134B2/ja
Publication of JP2017228146A publication Critical patent/JP2017228146A/ja
Application granted granted Critical
Publication of JP6632134B2 publication Critical patent/JP6632134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】背景差分において、オブジェクトの抽出の正確さとユーザ利便性とを両立する。【解決手段】画像処理装置は、動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する手段と、対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する手段と、第1マスクと第2マスクとを合成することで合成マスクを生成する手段と、を備える。【選択図】図1

Description

本発明は、画像処理装置、画像処理方法およびコンピュータプログラムに関する。
従来、スポーツシーンなどを対象として、カメラ視点以外の自由な視点からの映像(以下、自由視点映像と称す)を生成する技術が提案されている。この技術は、複数のカメラで撮影された映像を基に、それらの配置されていない仮想的な視点の映像を合成し、その結果を画面上に表示することでさまざまな視点での映像観賞を可能とするものである。
背景差分によるオブジェクトの正確な抽出は、高品質な自由視点映像を得るための最初のステップである。背景差分について、従来では例えば非特許文献1、2に記載される技術が知られている。非特許文献1には、自動的にオブジェクトを抽出する技術が開示されている。非特許文献2には、Grabcut法により正確にオブジェクトを抽出する技術が開示されている。
Elgammal, Ahmed, David Harwood, and Larry Davis. "Non-parametric model for background subtraction," Computer Vision-ECCV 2000. Springer Berlin Heidelberg, 2000. 751-767 Rother, Carsten, Vladimir Kolmogorov, and Andrew Blake. "Grabcut: Interactive foreground extraction using iterated graph cuts." ACM transactions on graphics (TOG). Vol. 23. No. 3. ACM, 2004 森田 真司, 山澤 一誠, 寺沢 征彦, 横矢 直和: "全方位画像センサを用いたネットワーク対応型遠隔監視システム", 電子情報通信学会論文誌(D-II), Vol. J88-D-II, No. 5, pp. 864-875, (2005.5)
しかしながら、非特許文献1に記載される技術では、事前に様々なパラメータを手動で設定する必要がある。したがって、ユーザにとって煩わしく、また手動で設定されたパラメータが最適なものである保証もない。また、非特許文献2に記載されるGrabcut法はユーザによる入力を必要とする。したがって、動画像からのオブジェクトの抽出にGrabcut法を適用すると、動画像のフレームごとにユーザに入力を求めることとなり、現実的ではない。
本発明はこうした課題に鑑みてなされたものであり、その目的は、オブジェクトの抽出の正確さとユーザ利便性とを両立できる背景差分技術の提供にある。
本発明のある態様は、画像処理装置に関する。この画像処理装置は、動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する手段と、対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する手段と、第1マスクと第2マスクとを合成することで合成マスクを生成する手段と、を備える。
なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、オブジェクトの抽出の正確さとユーザ利便性とを両立できる背景差分技術を提供できる。
実施の形態に係る画像処理装置を備える自由視点画像配信システムを示す模式図である。 図1の携帯端末の機能および構成を示すブロック図である。 図1の画像処理装置の機能および構成を示すブロック図である。 図3のパラメータ保持部の一例を示すデータ構造図である。 図5(a)、(b)は、関心領域設定画面の代表画面図である。 図6(a)、(b)、(c)は、重み設定画面の代表画面図である。 自由視点画像再生画面の代表画面図である。 エラー画面の代表画面図である。 図3のパラメータ設定部におけるパラメータ設定処理を説明するための説明図である。 図10(a)、(b)、(c)は、重みαの違いによる合成マスクの違いを説明するための説明図である。 図11(a)、(b)は、改良F値による評価を説明するためのグラフである。 図12(a)〜(f)は、フレームの平均画素強度の変動を示すグラフである。 図1の画像処理装置における一連の処理の流れを示すフローチャートである。 図13の閾値設定処理ステップにおける処理の流れを示すフローチャートである。 図13の合成マスク生成処理ステップにおける処理の流れを示すチャートである。
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
実施の形態に係る画像処理装置は、動画像のフレームからオブジェクトを抽出する際、空間ドメイン(spatial domain)における背景差分によりフレームからマスクを生成する。空間ドメインにおける背景差分は処理対象のフレーム内で行われる背景差分であるから、以降イントラ背景差分と称す。イントラ背景差分により生成されるマスクをイントラマスクと称す。画像処理装置は、イントラ背景差分と並行して時間ドメイン(temporal domain)における背景差分によりフレームからマスクを生成する。時間ドメインにおける背景差分は処理対象のフレームを含むフレーム間で行われる背景差分であるから、以降インター背景差分と称す。インター背景差分により生成されるマスクをインターマスクと称す。画像処理装置は、生成された2つのマスク、イントラマスクおよびインターマスク、を合成することで合成マスクを生成し、生成された合成マスクをオブジェクトの抽出に利用する。これにより、ユーザによる指示や入力の必要性を抑えつつ、確度の高いオブジェクト抽出を実現できる。
本実施の形態では、イントラ背景差分として正規混合モデル(Gaussian Mixture Model)を用いた背景差分(非特許文献1参照)を採用する。この背景差分では、混合正規分布(Mixture of Gaussian Distribution, MoG)を用いて背景(background)をモデル化する。まず、オブジェクトの無い背景フレームを用意し、その背景フレームから背景の混合正規分布モデルを得る。処理対象のフレームの画素が混合正規分布モデルに属さない場合、その画素は前景(foreground)として抽出される。この属否の判定の際に閾値が用いられる。以下、この閾値をイントラ閾値(gmm_th)と表記する。
本実施の形態では、インター背景差分として、画素ごとにひとつの正規モデルを適用した背景差分(非特許文献3参照)を採用する。この背景差分では、フレーム中の画素の座標を(i,j)と表記するとき、平均値μi,jおよび標準偏差σi,jを有する一つの正規分布モデルを画素(i,j)の強度に割り当てる。平均値μi,jおよび標準偏差σi,jは、動画像に含まれる複数のフレームに亘る画素(i,j)の強度の集合を母集団として計算される。Y、U、Vの全てのチャネルについて、処理対象のフレームの画素(i,j)の強度の偏差の絶対値が、標準偏差σi,jに閾値を加えた値よりも小さい場合、画素(i,j)は背景に属すると判定される。そうでなければ画素(i,j)は前景に属すると判定される。以下、Y、U、Vのそれぞれについての上記閾値をインター閾値(Y_th、U_th、V_th)と表記する。
図1は、実施の形態に係る画像処理装置200を備える自由視点画像配信システム110を示す模式図である。自由視点画像配信システム110は、複数のカメラ116、118、120と、それらのカメラと接続された画像処理装置200と、携帯電話やタブレットやスマートフォンやHMD(Head Mounted Display)やノートPCなどの携帯端末114と、を備える。画像処理装置200と携帯端末114とはインターネットなどのネットワーク112を介して接続される。自由視点画像配信システム110では、例えば屋内に配置された複数のカメラ116、118、120が床126に立つ人物124を撮像する。複数のカメラ116、118、120は撮った映像を画像処理装置200に送信し、画像処理装置200はそれらの映像を処理する。携帯端末114のユーザは画像処理装置200に対して希望の視点を指定し、画像処理装置200は指定された視点(仮想視点)から人物124を見た場合の画像を合成し、ネットワーク112を介して携帯端末114に配信する。
なお、図1では屋内の人物を撮像する場合を説明したが、これに限られず、例えばフィットネスのインストラクタを撮像する場合やダンサーのダンスを撮像する場合やサッカーの試合を撮像する場合などに、本実施の形態の技術的思想を適用できる。また、携帯端末114の代わりに、デスクトップPCやラップトップPC、TV受像機、セットトップボックス等の据え置き型端末が使用されてもよい。また、画像処理装置200による配信形態は、予め全体をダウンロードしてから再生するものでも、ストリーミングでも、プログレッシブでもよい。配信形態がリアルタイムでない場合、画像処理装置200はカメラから取得して保持している動画像について予め平均値μi,jおよび標準偏差σi,jを演算してもよい。配信形態がリアルタイムである場合、画像処理装置200は現時点までに得られた動画像から平均値μi,jおよび標準偏差σi,jを演算し、新たな動画像が所定の量得られるたびにそれらの値を再演算することで更新してもよい。
図2は、図1の携帯端末114の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(Central Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
携帯端末114は通信部246と表示制御部216とディスプレイ218と入力部220とを備える。通信部246は、入力部220を介してユーザにより指定された視点を特定する情報をネットワーク112を介して画像処理装置200に送信する。通信部246は動画像を画像処理装置200からネットワーク112を介して取得する。表示制御部216はディスプレイ218を制御し、ディスプレイ218に種々の画面を表示させる。表示制御部216は、通信部246によって取得された動画像をディスプレイ218に表示させる。ディスプレイ218は、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイであってもよい。入力部220はユーザからの入力を受け付ける。入力部220は、マウスやキーボードやタッチパネルやボタンやリモートコントローラであってもよい。
図3は、図1の画像処理装置200の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(Central Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
画像処理装置200は、カメラから得られた動画像から合成マスクを用いてオブジェクト、例えば人物124の像を抽出し、抽出されたオブジェクトに基づいて任意の仮想視点の画像を合成する。画像処理装置200は、動画像取得部202と、パラメータ設定部204と、合成マスク生成部206と、オブジェクト抽出部208と、再設定判定部210と、更新判定部212と、パラメータ更新部214と、動画像配信部244と、動画像保持部222と、パラメータ保持部224と、を備える。
動画像取得部202は、画像処理装置200と接続された各カメラ116、118、120から動画像を取得する。動画像取得部202は、取得された動画像を動画像保持部222に格納する。動画像保持部222は動画像を保持する。動画像は複数のフレームの時系列であってもよい。
パラメータ設定部204は、動画像からのオブジェクトの抽出を始める際に、イントラ背景差分およびインター背景差分で使用されるパラメータを設定する。イントラ背景差分のパラメータはgmm_thを含み、インター背景差分のパラメータはY_th、U_th、V_thを含む。パラメータ設定部204は、関心領域設定部226と、基準マスク生成部228と、重み設定部230と、テストマスク生成部232と、改良F値算出部234と、パラメータ決定部236と、を含む。
関心領域設定部226は、処理対象の動画像のうち基準マスクを生成するために使用される基準フレーム、例えば最初のフレームを動画像保持部222から取得する。関心領域設定部226は、取得された最初のフレームを含む関心領域設定画面400(図5(a)、(b)で後述)を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づき関心領域設定画面400をディスプレイ218に表示させる。携帯端末114は、表示された最初のフレームにおける関心領域(Region Of Interest)の指定をユーザから入力部220を介して受け付ける。携帯端末114の通信部246は、指定された関心領域の情報をネットワーク112を介して画像処理装置200に送信する。画像処理装置200の関心領域設定部226は、指定された関心領域の情報を受信する。
基準マスク生成部228は、関心領域が指定された最初のフレームに対して、イントラ背景差分、インター背景差分のいずれとも異なる背景差分を行うことで基準マスクを生成する。基準マスク生成部228は、最初のフレームと該最初のフレームに対して指定された関心領域とを入力とするGrabcut法(非特許文献2参照)により基準マスクを生成する。基準マスク生成部228は、Grabcut法により生成された基準マスクに対するユーザによる編集(ペインティング、ブラッシング等)を受け付けてもよい。
Grabcut法はイントラ背景差分やインター背景差分よりも処理に時間がかかり、かつユーザ入力すなわちユーザによる関心領域の指定を必要とするものであるが、それらの背景差分よりも正確な結果が得られる。以下で説明される最適なパラメータの探索において客観的な基準は重要である。本実施の形態では、最初のフレームからGrabcut法により基準マスクを得て、その基準マスクを探索の際の基準とする。
重み設定部230は、後述の改良F値の算出における重みαの指定をユーザから受け付ける。重み設定部230は、重み設定画面500(図6(a)、(b)、(c)で後述)を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づき重み設定画面500をディスプレイ218に表示させる。携帯端末114は、ユーザが重み設定画面500に対して入力部220を介して入力または指定した値を取得する。携帯端末114の通信部246は、取得された値をネットワーク112を介して画像処理装置200に送信する。画像処理装置200の重み設定部230は、受信した値を重みαとして設定する。
テストマスク生成部232は、インター背景差分の設定可能なインター閾値(Y_th、U_th、V_th)の集合のなかからひとつのインター閾値を選択する。テストマスク生成部232は、関心領域設定部226によって取得された最初のフレームに対して、選択されたインター閾値を用いたインター背景差分を行うことでインターテストマスクを生成する。
改良F値算出部234は、テストマスク生成部232によって生成されたインターテストマスクを評価対象とし、基準マスク生成部228によって生成された基準マスクを正解とするときの適合率(Precision)と再現率(Recall)との重み付け調和平均を改良F値(Modified F-Measure)として算出する。改良F値は以下の式1で与えられる。
Figure 2017228146
…(1)
ここで、重みαは0以上2以下の値であり、重み設定部230により設定される。重みαは、オブジェクトの抽出の際のユーザの好みを反映する。適合率(Precision)および再現率(Recall)はそれぞれ以下の式2、式3により算出される。
Figure 2017228146
…(2)
Figure 2017228146
…(3)
ここで、TP(True Positive)はインターテストマスクおよび基準マスクの両方で背景に属する画素の総数であり、FN(False Negative)はインターテストマスクでは前景に属するが基準マスクでは背景に属する画素の総数であり、FP(False Positive)はインターテストマスクでは背景に属するが基準マスクでは前景に属する画素の総数である。
テストマスク生成部232および改良F値算出部234は、インター閾値の選択および改良F値の算出を設定可能な全てのインター閾値が選択されるまで繰り返す。パラメータ決定部236は、改良F値が大きくなるようにインター閾値を決定する。パラメータ決定部236は、テストマスク生成部232および改良F値算出部234により得られたインター閾値と改良F値との組の集合のなかから、最も大きい改良F値を有する組を抽出する。パラメータ決定部236は、抽出された組のインター閾値を最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)として決定し、パラメータ保持部224に登録する。
テストマスク生成部232は、イントラ背景差分の設定可能なイントラ閾値(gmm_th)の集合のなかからひとつのイントラ閾値を選択する。テストマスク生成部232は、関心領域設定部226によって取得された最初のフレームに対して、選択されたイントラ閾値を用いたイントラ背景差分を行うことでイントラテストマスクを生成する。テストマスク生成部232は、最初のフレームに対してパラメータ保持部224に保持される最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を用いたインター背景差分を行うことでインター最適マスクを生成する。テストマスク生成部232は、後述の合成部242における合成方法と同じまたはそれに準じた合成方法により、イントラテストマスクとインター最適マスクとを合成し、合成テストマスクを生成する。
改良F値算出部234は、テストマスク生成部232によって生成された合成テストマスクを評価対象とし、基準マスク生成部228によって生成された基準マスクを正解とするときの改良F値を算出する。テストマスク生成部232および改良F値算出部234は、イントラ閾値の選択および改良F値の算出を全てのイントラ閾値が選択されるまで繰り返す。パラメータ決定部236は、改良F値が大きくなるようにイントラ閾値を決定する。パラメータ決定部236は、テストマスク生成部232および改良F値算出部234により得られたイントラ閾値と改良F値との組の集合のなかから、最も大きい改良F値を有する組を抽出する。パラメータ決定部236は、抽出された組のイントラ閾値を最適なイントラ閾値(gmm_th_opt)として決定し、パラメータ保持部224に登録する。
合成マスク生成部206は、処理対象の動画像に含まれるフレームに対して、パラメータ保持部224に保持される閾値を参照し、インター背景差分およびイントラ背景差分を適用することで合成マスクを生成する。合成マスク生成部206は、イントラ背景差分部238と、インター背景差分部240と、合成部242と、を含む。
イントラ背景差分部238は、パラメータ保持部224を参照し、最適なイントラ閾値(gmm_th_opt)を特定する。イントラ背景差分部238は、フレームに対して、特定されたイントラ閾値を用いたイントラ背景差分を行うことでイントラマスクを生成する。
インター背景差分部240は、パラメータ保持部224を参照し、最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を特定する。インター背景差分部240は、フレームに対して、特定されたインター閾値を用いたインター背景差分を行うことでインターマスクを生成する。
合成部242は、イントラ背景差分部238によって生成されたイントラマスクとインター背景差分部240によって生成されたインターマスクとを合成することで合成マスクを生成する。合成部242は、画素ごとにイントラマスクとインターマスクとの間で論理積(AND演算、&&)を行うことで合成マスクを生成する。RGBで表した場合、マスクの背景部分の画素値は(0,0,0)すなわち黒色であり、前景部分の画素値は画素のサンプリングビットをnとすると(2−1,2−1,2−1)すなわち白色である。したがって、合成マスクの背景部分は、イントラマスクおよびインターマスクのうちの少なくとも一方における背景部分であり、合成マスクの前景部分はイントラマスクおよびインターマスクの両方における前景部分である。言い換えると、合成によりマスクの背景部分が増加する。これにより、より正確でシャープなオブジェクトの輪郭が抽出される。
オブジェクト抽出部208は、合成部242によって生成された合成マスクを用いてフレームからオブジェクトを抽出する。
動画像配信部244は、オブジェクト抽出部208における抽出結果を利用して、携帯端末114のユーザにより指定された視点からの動画像を合成する。動画像配信部244は、合成により得られた合成動画像をネットワーク112を介して携帯端末114に送信する。
再設定判定部210は、パラメータ設定部204による基準マスクの生成および生成された該基準マスクによるパラメータの再設定が必要か否かを判定する。再設定判定部210は、合成部242によって生成された合成マスクの平均画素強度の変化量を指標として再設定の要否の判定を行う。合成部242によって生成された合成マスクにおける画素(i,j)の強度をMout(i,j)と表記する。再設定判定部210は、以下の式4により合成マスクの平均画素強度Ave_mskを算出する。
Figure 2017228146
…(4)
ここで、Mはフレームの幅、Nはフレームの高さである。再設定判定部210は、現在のフレームから得られた合成マスクの平均画素強度と一つ前のフレームから得られた合成マスクの平均画素強度との差の絶対値|Δmsk|を算出する。再設定判定部210は、算出された|Δmsk|が所定の閾値th_mskを上回る場合、パラメータの再設定が必要であると判定し、そうでなければ再設定は不要と判定する。
2つの連続するフレームの内容は通常は互いによく似ているから、オブジェクトの抽出のエラーが小さい場合は|Δmsk|は小さい。オブジェクトの抽出のエラーが大きい場合はそのエラーに起因して|Δmsk|が大きくなる。再設定判定部210によると、|Δmsk|がth_mskより大きい場合はエラーが大きいと判定され、パラメータの再設定が行われる。このエラー検知は自動的に行われる。
更新判定部212は、パラメータ保持部224に保持されるインター閾値の更新が必要か否かを判定する。更新判定部212は、フレーム間の平均画素強度の差に基づいて更新の要否を判定する。位置(i,j)の画素の強度をI(i,j)と表記する。更新判定部212は、以下の式5によりフレームの平均画素強度Aveを算出する。
Figure 2017228146
…(5)
更新判定部212は、現在のフレームの平均画素強度と一つ前のフレームの平均画素強度との差の絶対値|Δimg|を算出する。更新判定部212は、算出された|Δimg|が所定の閾値th_imgを上回る場合、更新が必要であると判定し、そうでなければ更新は不要と判定する。th_imgがゼロに設定される場合、フレームごとに更新が行われる。
なお、上述のマスクやフレームの平均画素強度はY、U、Vのチャネルごとに算出され、閾値と比較される。特に、ΔimgはYチャネルに係るΔimg_YとUチャネルに係るΔimg_UとVチャネルに係るΔimg_Vとからなる。
パラメータ更新部214は、更新判定部212において更新が必要であると判定された場合、インター閾値を、更新判定部212で得られた平均画素強度の差Δimgに応じて更新する。パラメータ更新部214は、パラメータ保持部224にアクセスし、保持されているインター閾値に差Δimgを加算する。特に、Yチャネルのインター閾値Y_th_optにはΔimg_Yが加算される。Uチャネル、Vチャネルについても同様である。
図4は、パラメータ保持部224の一例を示すデータ構造図である。パラメータ保持部224は、イントラ閾値であるgmm_th_optと、インター閾値であるY_th_opt、U_th_opt、V_th_optと、を対応付けて保持する。
図5(a)、(b)は、関心領域設定画面400の代表画面図である。関心領域設定画面400は、フレーム表示領域402と、OKボタン404と、キャンセルボタン406と、を有する。フレーム表示領域402は最初のフレームを表示する。ユーザは、図5(a)に示される関心領域設定画面400を見ながらタッチパネルを操作し、関心領域を矩形408で指定する。図5(b)はフレーム表示領域402に表示される最初のフレームに対して矩形408を描いた状態を示す。この状態でOKボタン404がタップされると、携帯端末114は矩形408で囲まれる領域を関心領域として取得する。
図6(a)、(b)、(c)は、重み設定画面500の代表画面図である。重み設定画面500は、重み設定領域502と、代表マスク表示領域504と、OKボタン506と、を有する。重み設定領域502はスライダバーであり、ユーザによる重みの値の指定を受け付ける。代表マスク表示領域504には重み設定領域502でユーザが指定した重みの値を用いたときの合成マスクが表示される。ユーザは、重み設定領域502で重みの値を様々に変えながら代表マスク表示領域504に表示される合成マスクを確認し、自分の好みに合致する合成マスクを与える重みを選択する。OKボタン506がタップされると、携帯端末114はそのとき重み設定領域502で設定されている値を重みαとして取得する。
図7は、自由視点画像再生画面600の代表画面図である。表示制御部216は、動画像配信部244から送信された合成動画像を受信し、自由視点画像再生画面600をディスプレイ218に表示させる。自由視点画像再生画面600は、自由視点画像表示領域602と、プログレッシブバー604と、視点指定領域606と、操作領域608と、ROI指定ボタン610と、重み指定ボタン612と、を有する。自由視点画像表示領域602には、合成動画像が表示される。操作領域608は合成動画像の再生、一時停止、早送り等の操作を行うための領域である。視点指定領域606は、視点の上下方向の位置を指定するためのスライダバーである。ROI指定ボタン610がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、関心領域設定画面400により関心領域の指定を受け付ける処理を開始する。重み指定ボタン612がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、重み設定画面500により重みαの指定を受け付ける処理を開始する。
図8は、エラー画面800の代表画面図である。再設定判定部210は、再設定が必要であると判定すると、エラー画面800を生成し、その画面データをネットワーク112を介して携帯端末114に送信する。携帯端末114の表示制御部216は、受信した画面データに基づきエラー画面800をディスプレイ218に表示させる。OKボタン802がタップされると、携帯端末114は画像処理装置200にその旨を通知する。画像処理装置200は、該通知を受けると、関心領域設定画面400により関心領域の指定を受け付ける処理を開始する。
図9は、パラメータ設定部204におけるパラメータ設定処理を説明するための説明図である。最初のフレーム902において関心領域904が指定される。これにGrabcut法を適用することで、基準マスク906が生成される。種々のインター閾値を用いたインター背景差分を最初のフレーム902に適用することで種々のインターテストマスクが得られる。これらのインターテストマスクのなかから、基準マスク906に最も合致する(すなわち、改良F値が最も大きい)インター最適マスク908が選択される。次に、種々のイントラ閾値を用いたイントラ背景差分を最初のフレーム902に適用して得られるイントラテストマスクと、インター最適マスク908と、が合成されて種々の合成テストマスクが得られる。これらの合成テストマスクのなかから、基準マスク906に最も合致する(すなわち、改良F値が最も大きい)合成最適マスク910が選択される。インター最適マスク908を与えるインター閾値および合成最適マスク910を与えるイントラ閾値が最適な閾値としてパラメータ保持部224に登録される。基準マスク906と合成最適マスク910とを比べると、基準マスク906では人物の右脚と左脚との間の領域は前景と判断されていたが、インター最適マスク908を合成した後の合成最適マスク910ではその領域も正しく背景と認識される。
Grabcut法において、関心領域904の外側は背景部分として扱われる。したがって、基準マスク906の背景部分は、指定された関心領域904の外部を含む。インター最適マスク908の人物の像の右足と合成最適マスク910の人物の像の右足とを比べると、後者の方がより正確に足の輪郭を抽出していることが分かる。
図10(a)、(b)、(c)は、重みαの違いによる合成マスクの違いを説明するための説明図である。図10(a)、(b)、(c)はそれぞれα=0.3、1.0、1.7のときの合成マスクを示す。式1に関して上述した通り、αが異なると、決定される最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)や最適なイントラ閾値(gmm_th_opt)も異なり、したがって、結果として得られる合成マスクの外観も異なる。具体的には、重みαを大きくすると、輪郭はぼけるが背景でないのに背景とされてしまう部分を減らすことができる。重みαを小さくすると、輪郭はよりくっきりするが、背景でないのに背景とされてしまう部分が増える。ユーザは、この違いを理解しつつ、アプリケーションや好みにより重みαを設定すればよい。
図11(a)、(b)は、改良F値による評価を説明するためのグラフである。図11(a)はテストマスク生成部232が選んだインター閾値(Y_th、U_th、V_th)を特定する番号を横軸、改良F値算出部234により算出された改良F値を縦軸とするグラフである。改良F値の最大は符号150の箇所で得られ、対応するインター閾値が最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)として決定される。図11(b)はテストマスク生成部232が選んだイントラ閾値gmm_thの1/10を横軸、改良F値算出部234により算出された改良F値を縦軸とするグラフである。改良F値の最大は符号152の箇所で得られ、対応するイントラ閾値が最適なイントラ閾値(gmm_th_opt)として決定される。
図12(a)〜(f)は、フレームの平均画素強度の変動を示すグラフである。図12(a)、(b)、(c)はそれぞれ、あるシーンをカメラで撮像して得られる600フレーム分の動画像について、横軸をフレーム番号、縦軸をYチャネル、Uチャネル、Vチャネルの平均画素強度としてプロットしたものである。図12(d)、(e)、(f)はそれぞれ、同じシーンを別のカメラで撮像して得られる600フレーム分の動画像について、横軸をフレーム番号、縦軸をYチャネル、Uチャネル、Vチャネルの平均画素強度としてプロットしたものである。これらのグラフから分かる通り、一般に、フレーム間の平均画素強度の変動はそれほど大きくない。したがって、フレーム間の平均画素強度の差は、閾値更新の要否の判定のための良い指標と言える。
以上の構成による画像処理装置200の動作を説明する。
図13は、画像処理装置200における一連の処理の流れを示すフローチャートである。画像処理装置200は、動画像保持部222に保持される処理対象の動画像からひとつのフレームを取得する(S12)。画像処理装置200は、ステップS12で取得されたフレームが最初のフレームであるか否かを判定する(S14)。最初のフレームである場合(S14のYES)、画像処理装置200はユーザによる入力を要する閾値設定処理(S16)を実行する。画像処理装置200は、ステップS16により設定されたインター閾値、イントラ閾値を用いて、ステップS12で取得された最初のフレームから合成マスクを生成する(S18)。最初のフレームを扱っている場合は、画像処理装置200は以下のステップS20、ステップS22をスキップする。画像処理装置200は、2番目以降のフレームについて、ステップS18で生成された合成マスクを用いてΔmskを算出する(S20)。画像処理装置200は、マスクエラーを評価するため、ステップS20で算出されたΔmskとth_mskとを比較する(S22)。Δmsk>th_mskの場合(S22のYES)、処理はステップS16に戻る。Δmsk≦th_mskの場合(S22のNO)、画像処理装置200はステップS18で生成された合成マスクを出力する(S24)。合成マスクの出力の後、画像処理装置200は扱っているフレームが処理対象の動画像の最後のフレームであるか否かを判定する(S26)。最後のフレームである場合(S26のYES)、処理は終了する。最後のフレームでない場合(S26のNO)、処理はステップS12に戻る。
ステップS12で取得されたフレームが最初のフレームでない場合(S14のNO)、画像処理装置200はΔimgを算出する(S28)。画像処理装置200は、閾値の更新の要否を判定するため、Δimgとth_imgとを比較する(S30)。Δimg>th_imgの場合(S30のYES)、画像処理装置200はインター閾値を更新する(S32)。ステップS32の後、処理はステップS18に進み、画像処理装置200は更新されたインター閾値を用いて合成マスクを生成する。Δimg≦th_imgの場合(S30のNO)、インター閾値は更新されずに処理はステップS18に進む。
図14は、図13の閾値設定処理ステップS16における処理の流れを示すフローチャートである。画像処理装置200は、ユーザが利用する携帯端末114を介して、関心領域の指定を受け付ける(S36)。画像処理装置200は、指定された関心領域と最初のフレームとに基づくGrabcut法により基準マスクを生成する(S38)。画像処理装置200は、テスト用のインター閾値を選択する(S40)。画像処理装置200は、ステップS40で選択されたインター閾値を用いて最初のフレームからインターテストマスクを生成する(S42)。画像処理装置200は、ステップS38で生成された基準マスクとステップS42で生成されたインターテストマスクとから改良F値を算出する(S44)。選択されていないインター閾値がある場合(S46のNO)、処理はステップS40に戻る。全てのインター閾値が選択された場合(S46のYES)、画像処理装置200は最大の改良F値を与えるインター閾値を最適インター閾値として決定する(S48)。画像処理装置200は、テスト用のイントラ閾値を選択する(S50)。画像処理装置200は、ステップS50で選択されたイントラ閾値を用いて最初のフレームからイントラテストマスクを生成する(S52)。画像処理装置200は、ステップS52で生成されたイントラテストマスクとステップS48で決定された最適インター閾値に対応するインター最適マスクとを合成し、合成テストマスクを生成する(S54)。画像処理装置200は、ステップS38で生成された基準マスクとステップS54で生成された合成テストマスクとから改良F値を算出する(S56)。選択されていないイントラ閾値がある場合(S58のNO)、処理はステップS50に戻る。全てのイントラ閾値が選択された場合(S58のYES)、画像処理装置200は最大の改良F値を与えるイントラ閾値を最適イントラ閾値として決定する(S60)。
図15は、図13の合成マスク生成処理ステップS18における処理の流れを示すチャートである。画像処理装置200は、処理対象のフレームを取得する(S62)。画像処理装置200は、ステップS62で取得されたフレームに対するイントラ背景差分とインターとを並列に実行する。イントラ背景差分では、画像処理装置200は、背景フレームを取得し(S64)、パラメータ保持部224からイントラ閾値を読み出す(S66)。画像処理装置200は、ステップS66で読み出されたイントラ閾値およびステップS64で取得された背景フレームを用いて、ステップS62で取得されたフレームに対してイントラ背景差分を行い、イントラマスクを生成する(S68)。インター背景差分では、画像処理装置200は、パラメータ保持部224からインター閾値を読み出す(S70)。画像処理装置200は、ステップS70で読み出されたインター閾値を用いて、ステップS62で取得されたフレームに対してインター背景差分を行い、インターマスクを生成する(S72)。画像処理装置200は、ステップS68で生成されたイントラマスクとステップS72で生成されたインターマスクとを合成し、合成マスクを生成する(S74)。
上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。
本実施の形態に係る画像処理装置200によると、基本的にはユーザは最初に関心領域を指定するだけで、より正確に抽出されたオブジェクトに基づく自由視点映像を楽しむことができる。関心領域の指定後は、イントラ背景差分およびインター背景差分に必要なパラメータは自動的に設定され、自動的に更新される。したがって、ユーザ利便性が向上する。
例えば、背景差分のパラメータの意義や背景差分そのものについての知見を有さないユーザにパラメータの設定を求めても、パラメータが適切に設定される蓋然性は低いし、ユーザも当惑するであろう。これに対して本実施の形態に係る画像処理装置200では、そのようなパラメータの設定、更新は自動的に行われるので、ユーザは背景差分についての知見を有さなくても自由視点映像を楽しむことができる。
また、本実施の形態に係る画像処理装置200では、イントラ背景差分の結果とインター背景差分の結果とを合成することで合成マスクを生成する。したがって、イントラ背景差分の結果、インター背景差分の結果のそれぞれに求められる正確さのレベルを下げ、代わりに処理速度を高めることができる。その結果、リアルタイムにも適用可能な程度に高速でありながら、より正確にオブジェクトを抽出できる背景差分を提供できる。
また、本実施の形態に係る画像処理装置200では、マスクのエラーが自動的に検出される。したがって、ユーザが自らマスクのエラーを見つける必要がなくなるので、ユーザ利便性が向上する。
また、本実施の形態に係る画像処理装置200では、改良F値を用いてテストマスクの良し悪しが評価される。この改良F値の重みαを変えることで、ユーザは抽出結果を自分の好みに合わせることができる。したがって、ユーザの好みを反映できる柔軟性の高い評価手法が実現される。例えば、ユーザがより正確な輪郭の抽出を望む場合、αを1より小さく設定すればよい。また、ユーザがオブジェクトの抽出漏れの低減を望む場合はαを1より大きく設定すればよい。
また、本実施の形態に係る画像処理装置200では、フレームごとにインター閾値の更新の要否が判定され、必要と判定された場合はフレーム間の平均画素強度の差に基づき自動的に閾値が更新される。したがって、オブジェクトの抽出の堅牢性(Robustness)が向上する。
以上、実施の形態に係る画像処理装置200の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。
実施の形態では、自由視点映像の配信を例として説明したが、これに限られず、監視カメラから得られる動画像の解析などの一般的な動画像の解析に本実施の形態に係る技術的思想を適用してもよい。
実施の形態では、フレームごとにインター閾値の更新の要否が判定される場合を説明したが、これに限られず、更新の要否の判定は任意の数のフレームごとになされてもよいし、ランダムなタイミングでなされてもよい。また、Δimgに限られず任意の基準により、イントラ閾値およびインター閾値のうちの少なくとも一方の更新の要否が判定されてもよい。
実施の形態では、基準フレームとして最初のフレームが採用されたが、これに限られず、処理対象の動画像の任意のフレームが基準フレームとして採用されてもよい。
実施の形態では、イントラ背景差分の結果とインター背景差分の結果との合成により合成マスクを生成する処理を画像処理装置200が行う場合を説明したが、これに限られず、例えば携帯端末114が当該合成処理を行ってもよい。このように、画像処理装置200の機能の一部または全部を携帯端末114が実現する態様も可能である。
実施の形態では、イントラテストマスクを生成し、それをインター最適マスクと合成して合成テストマスクを生成する場合を説明したが、これに限られず、例えばイントラテストマスクに対して改良F値を算出し、最大の改良F値を与えるイントラ閾値を最適なイントラ閾値として決定してもよい。この場合、インター閾値、イントラ閾値は個々に基準マスクに対して最適化される。
以下に、最適なインター閾値(Y_th_opt、U_th_opt、V_th_opt)を決めるためのプログラムコードの例を示す。最適なイントラ閾値(gmm_th_opt)は同様のプログラムコードにより決められてもよい。
Figure 2017228146
110 自由視点画像配信システム、 112 ネットワーク、 114 携帯端末、 200 画像処理装置。

Claims (12)

  1. 動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する手段と、
    前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する手段と、
    前記第1マスクと前記第2マスクとを合成することで合成マスクを生成する手段と、を備える画像処理装置。
  2. 前記合成マスクの背景部分は、前記第1マスクおよび前記第2マスクのうちの少なくとも一方における背景部分である請求項1に記載の画像処理装置。
  3. 生成された前記合成マスクを用いて前記対象フレームからオブジェクトを抽出する手段をさらに備える請求項1または2に記載の画像処理装置。
  4. 前記第1背景差分、前記第2背景差分のいずれとも異なる第3背景差分を行うことで基準マスクを生成する手段と、
    生成された前記基準マスクに基づいて、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を設定する手段と、をさらに備える請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記動画像の基準フレームにおける関心領域の指定をユーザから受け付ける手段をさらに備え、
    前記基準マスクの背景部分は、指定された前記関心領域の外部を含む請求項4に記載の画像処理装置。
  6. 前記設定する手段は、前記基準マスクを正解とするときの適合率(precision)と再現率(recall)との重み付け調和平均が大きくなるようにパラメータを設定する請求項4または5に記載の画像処理装置。
  7. 前記重み付け調和平均における重みの指定をユーザから受け付ける手段をさらに備える請求項6に記載の画像処理装置。
  8. 基準マスクの生成および生成された該基準マスクによるパラメータの再設定が必要か否かを判定する手段をさらに備える請求項4から7のいずれか1項に記載の画像処理装置。
  9. 前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方の更新が必要か否かを判定する手段をさらに備える請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記判定する手段は、フレーム間の平均画素強度の差に基づいて更新の要否を判定し、
    本画像処理装置はさらに、更新が必要であると判定された場合、前記第1背景差分で用いられるパラメータおよび前記第2背景差分で用いられるパラメータのうちの少なくとも一方を前記差に応じて更新する手段を備える請求項9に記載の画像処理装置。
  11. 動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得することと、
    前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得することと、
    前記第1マスクと前記第2マスクとを合成することで合成マスクを生成することと、を含む画像処理方法。
  12. 動画像の対象フレームに対して該対象フレーム内で第1背景差分を行うことで得られる第1マスクを取得する機能と、
    前記対象フレームに対してフレーム間で第2背景差分を行うことで得られる第2マスクを取得する機能と、
    前記第1マスクと前記第2マスクとを合成することで合成マスクを生成する機能と、をコンピュータに実現させるためのコンピュータプログラム。
JP2016124761A 2016-06-23 2016-06-23 画像処理装置、画像処理方法およびコンピュータプログラム Active JP6632134B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016124761A JP6632134B2 (ja) 2016-06-23 2016-06-23 画像処理装置、画像処理方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124761A JP6632134B2 (ja) 2016-06-23 2016-06-23 画像処理装置、画像処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2017228146A true JP2017228146A (ja) 2017-12-28
JP6632134B2 JP6632134B2 (ja) 2020-01-15

Family

ID=60891875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124761A Active JP6632134B2 (ja) 2016-06-23 2016-06-23 画像処理装置、画像処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6632134B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208702A1 (ja) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019208702A1 (ja) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
JPWO2019208702A1 (ja) * 2018-04-27 2021-04-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
JP7167134B2 (ja) 2018-04-27 2022-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置

Also Published As

Publication number Publication date
JP6632134B2 (ja) 2020-01-15

Similar Documents

Publication Publication Date Title
CN109891189B (zh) 策划的摄影测量
CN112492388B (zh) 视频处理方法、装置、设备以及存储介质
US20180332317A1 (en) Adaptive control for immersive experience delivery
WO2020056903A1 (zh) 用于生成信息的方法和装置
US10176616B2 (en) Automatic capture and refinement of a digital image of a group of people without user intervention
US9392248B2 (en) Dynamic POV composite 3D video system
US11748870B2 (en) Video quality measurement for virtual cameras in volumetric immersive media
JP2015524103A (ja) 拡張現実インタラクションを実現する方法およびシステム
CN110178158B (zh) 信息处理装置、信息处理方法和记录介质
US10706512B2 (en) Preserving color in image brightness adjustment for exposure fusion
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
US10986401B2 (en) Image processing apparatus, image processing system, and image processing method
US10582125B1 (en) Panoramic image generation from video
CN112954443A (zh) 全景视频的播放方法、装置、计算机设备和存储介质
US11622099B2 (en) Information-processing apparatus, method of processing information, and program
JP2008287594A (ja) 特定動作判定装置、リファレンスデータ生成装置、特定動作判定プログラム及びリファレンスデータ生成プログラム
US11710247B2 (en) System for image compositing including training with synthetic data
JP6632134B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP7080614B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
GB2566478B (en) Probability based 360 degree video stabilisation
JP2017111620A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101741150B1 (ko) 영상에디팅을 수행하는 영상촬영장치 및 방법
WO2022259618A1 (ja) 情報処理装置、情報処理方法およびプログラム
CN114025219B (zh) 增强现实特效的渲染方法、装置、介质及设备
JP5276609B2 (ja) 画像処理装置及びプログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R150 Certificate of patent or registration of utility model

Ref document number: 6632134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150