JP2013218660A - 画像処理方法、プログラム及び装置 - Google Patents

画像処理方法、プログラム及び装置 Download PDF

Info

Publication number
JP2013218660A
JP2013218660A JP2012251237A JP2012251237A JP2013218660A JP 2013218660 A JP2013218660 A JP 2013218660A JP 2012251237 A JP2012251237 A JP 2012251237A JP 2012251237 A JP2012251237 A JP 2012251237A JP 2013218660 A JP2013218660 A JP 2013218660A
Authority
JP
Japan
Prior art keywords
image
difference
frame
boundary
synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012251237A
Other languages
English (en)
Other versions
JP5949481B2 (ja
Inventor
Ryoichi Funabashi
涼一 舟橋
Ryuta Tanaka
竜太 田中
Atsuko Tada
厚子 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012251237A priority Critical patent/JP5949481B2/ja
Publication of JP2013218660A publication Critical patent/JP2013218660A/ja
Priority to US14/067,379 priority patent/US9836864B2/en
Application granted granted Critical
Publication of JP5949481B2 publication Critical patent/JP5949481B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】動画像の各フレーム中に存在する合成対象領域に別の画像を各々合成する際の演算量を削減する。
【解決手段】動画像の連続する2つのフレーム中に各々存在する合成対象領域の外縁に相当する境界の差分値を演算し、ポアソン方程式を用いた繰り返し演算により、境界の画素値が演算した境界の差分値のまま維持され、境界の内部の領域の二次微分値が0となる差分画像を生成し、前フレーム中の合成対象領域に合成した合成結果画像に差分画像を加算した画像を、現フレームに対する合成結果画像として求め、求めた現フレームに対する合成結果画像を、現フレーム中の合成対象領域の画像と置き換えることを、動画像の各フレームに対して各々行う。
【選択図】図9

Description

開示の技術は画像処理方法、画像処理プログラム及び画像処理装置に関する。
画像に被写体として写っている人物のプライバシーを保護する技術として、前記人物を特定できないように、画像中の前記人物の顔領域にモザイクを掛けたり、前記人物の眼部領域を矩形状にマスクする画像処理が知られている。しかし、上記のような画像処理を行った画像は、一見しただけで加工されていることが明瞭に判別できる画像となり、画像の鑑賞者に不自然な印象を与える。
これを解決するため、マスク画像の勾配情報を用い、画像中の顔領域等の合成対象領域のエッジ(マスク画像との合成境界)を境界条件としてポアソン方程式を解くことで、合成対象領域にマスク画像を合成する技術が提案されている。この技術では、合成対象領域に初期値画像を与え、初期値画像から、各画素の差分がマスク画像の勾配情報とエッジの境界条件を満たす値に収束するまで繰り返し演算を行うことで、合成対象領域にマスク画像を合成した結果に相当する合成結果画像が生成される。
なお、合成対象領域が顔領域である場合、マスク画像としては、例えば他の人物の顔を表す画像や、複数の人の平均的な顔を表す画像を適用することができる。また、初期値画像としては、例えば全面が白で塗り潰された画像や、全面が黒で塗り潰された画像などが用いられる。
特開2008−204466号公報
Patrick Perez,Michel Gangnet,Andrew Blake,"Poisson Image Editing",Microsoft Reserch UK,2003 P.Viola and M.Jones,"Rapid object detection using a boosted cascade of simple features,"in Proc.IEEE Computer Vision and Pattern Recognition,pp.I_511-I_518,2001
しかしながら、上記技術は、合成したマスク画像との合成境界が目立ちにくい自然な画像が得られるという利点があるものの、繰り返し演算における演算の繰り返し回数が非常に多く、演算量が非常に大きいという欠点も有している。一方、動画像に対して各フレーム中に存在する合成対象領域にマスク画像を各々合成しようとした場合、動画像の中で照明条件が変化すること等を考慮すると、各フレーム毎に合成結果画像を生成する必要がある。このため、上記技術を動画像の各フレームへのマスク画像の合成に適用した場合、演算量が膨大なものとなり、処理に長大な時間が掛かるという課題があった。
開示の技術は、1つの側面として、動画像の各フレーム中に存在する合成対象領域に別の画像を各々合成する際の演算量を削減することが目的である。
開示の技術は、動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算する。また、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部の領域が所定の勾配条件に合致するように差分画像を生成する。また、前記N−1番目のフレームに対して求めた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求める。そして、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える。
開示の技術は、1つの側面として、動画像の各フレーム中に存在する合成対象領域に別の画像を各々合成する際の演算量を削減することができる、という効果を有する。
第1実施形態に係る画像処理装置の機能ブロック図である。 画像処理装置として機能するコンピュータの概略ブロック図である。 第1実施形態に係る色要素分離処理の一例を示すフローチャートである。 第1実施形態に係る境界差分演算処理の一例を示すフローチャートである。 第1実施形態に係る差分画像演算処理の一例を示すフローチャートである。 第1実施形態に係る合成結果画像生成処理の一例を示すフローチャートである。 色要素合成処理の一例を示すフローチャートである。 境界差分の演算結果の一例を示すイメージ図である。 第1実施形態における合成結果画像の生成を説明するための概略図である。 動画像の各フレームに対する処理のタイミングの一例を示すタイミングチャートである。 第2実施形態に係る画像処理装置の機能ブロック図である。 第2実施形態に係る差分画像演算処理の一例を示すフローチャートである。 第3実施形態に係る画像処理装置の機能ブロック図である。 図13の画像処理装置として機能するコンピュータの概略ブロック図である。 第3実施形態に係る色要素分離処理の一例を示すフローチャートである。 第3実施形態に係るマスク画像差分演算処理の一例を示すフローチャートである。 第3実施形態に係る差分画像演算処理の一例を示すフローチャートである。 マスク動画像及びマスク動画像の合成の一例を示すイメージ図である。 合成結果画像の生成を説明するための概略図である。 第4実施形態に係るマスク画像差分演算処理を示すフローチャートである。 図20のマスク画像差分演算処理を含む合成結果画像の生成を説明するための概略図である。 第5実施形態に係る画像処理装置の機能ブロック図である。 図22の画像処理装置として機能するコンピュータの概略ブロック図である。 第5実施形態に係る色要素分離処理の一例を示すフローチャートである。 第5実施形態に係る境界差分演算処理の一例を示すフローチャートである。 第5実施形態に係る勾配条件画像演算処理の一例を示すフローチャートである。 第5実施形態に係る差分画像演算処理の一例を示すフローチャートである。 第5実施形態に係る合成結果画像生成処理の一例を示すフローチャートである。 第5実施形態におけるマスク画像、元画像及び最終結果画像の一例を各々示すイメージ図である。 第5実施形態における合成結果画像の生成を説明するための概略図である。 第6実施形態に係る勾配条件画像演算処理の一例を示すフローチャートである。 第6実施形態における合成結果画像の生成を説明するための概略図である。 比較例におけるポアソン方程式を用いたマスク画像の合成を説明するための概略図である。 比較例における合成結果画像の生成の一例を説明するための概略図である。 比較例における合成結果画像の生成の他の例を説明するための概略図である。 比較例における動画像の各フレームに対する処理のタイミングの一例を示すタイミングチャートである。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
〔第1実施形態〕
図1には、本第1実施形態に係る画像処理装置10が示されている。画像処理装置10は、動画像の各フレーム中に存在する人物の顔領域等の合成対象領域に、予め設定されたマスク画像を合成することで、動画像中に被写体として写っている人物のプライバシーの保護を図るマスク合成処理を行う装置である。画像処理装置10は、動画像取得部12、マスク画像取得部14、合成対象領域検出部16、2個の色要素分離部18,20、3個の画像合成部22〜26、色要素合成部28及び動画像出力部30を備えている。また、画像合成部22〜26は、互いに同一の構成であり、前フレーム画像保持部32、境界差分演算部34、マスク画像保持部36、選択部38、複数の差分画像演算部40及び切替部42を各々備えている。更に、画像合成部22〜26は、前フレーム合成結果画像保持部44及び合成結果画像生成部46を各々備えている。
動画像取得部12は、動画像を撮影する機能を備えた撮影装置によって被写体が撮影されることで得られた動画像を、撮影装置又は前記動画像を記憶する記憶部からフレーム単位で取得する。なお、動画像取得部12は上記の撮影装置を含んだ構成であってもよい。また、画像処理装置10自体が上記の撮影装置に内蔵されていてもよい。また、例えば撮影装置が、画像処理装置10として機能する情報機器と通信ケーブルを介して接続される場合、動画像取得部12は、前記情報機器に設けられ、通信ケーブルを介して撮影装置から画像データを受信することで取得する通信ユニットであってもよい。
マスク画像取得部14は、動画像の各フレーム中に存在する人物の顔領域等の合成対象領域に合成するためのマスク画像を取得する。前述のように、本実施形態に係るマスク合成処理は、動画像中に被写体として写っている人物のプライバシーの保護等を目的としており、マスク画像は、マスク画像が合成された動画像が前記人物の特定が困難な動画像となるように予め設定される。例えば合成対象領域が人物の顔領域である場合、マスク画像としては、動画像中に被写体として写っている人物以外の他の人の顔を表す画像や、複数の人の平均的な顔を表す画像等が予め設定される。マスク画像取得部14は、予め設定されて記憶部に記憶されたマスク画像を記憶部から読み出す等の処理を行うことで、マスク画像を取得する。
合成対象領域検出部16は、動画像取得部12によって取得された動画像の各フレームの画像に対し、各フレームの画像中に存在している合成対象領域を順次検出し、検出した合成対象領域の画像上の位置及びサイズを動画像の各フレームと共に順次出力する。色要素分離部18は、動画像取得部12によって取得された動画像の各フレームの画像を画素毎に複数の色要素に分離し、色要素分離部20は、マスク画像取得部14によって取得されたマスク画像を画素毎に複数の色要素に分離する。複数の色要素としては、任意の色空間を規定する色要素を適用可能であり、例えばR,G,BやH,S,V、Y,U,V、L*,a*,b*等のうちの何れかを適用することができる。
画像合成部22〜26は互いに異なる色要素に対応しており、互いに異なる色要素のフレーム画像が色要素分離部18,20から入力される。画像合成部22〜26は、互いに異なる色要素について、入力されたフレーム画像中の合成対象領域に入力されたマスク画像を合成する処理を各々行う。
すなわち、前フレーム画像保持部32は、色要素分離部18から入力された特定の色要素のフレーム画像のうち、処理対象のフレーム画像(N番目のフレーム画像)よりも1フレーム前のフレーム画像(N−1番目のフレーム画像)を保持する。なお、前フレーム画像保持部32は、例えば2フレーム分の画像のデータを保持可能なFIFO(First-in First-out)メモリ等で構成することができる。境界差分演算部34は、N番目のフレーム画像中に存在する合成対象領域の外縁に相当する境界と、前フレーム画像保持部32に保持されたN−1番目のフレーム画像中に存在する合成対象領域の外縁に相当する境界と、の特定の色要素の差分値を演算する。なお、境界差分演算部34は開示の技術における差分値演算部の一例であり、境界差分演算部34によって実現される処理は開示の技術における差分値を演算することの一例である。
また、マスク画像保持部36は、色要素分離部20から入力された特定の色要素のマスク画像を保持する。選択部38は、境界差分演算部34によって演算された合成対象領域の境界の特定の色要素の差分値を、複数の差分画像演算部40のうちの何れか1つに選択的に出力する。複数の差分画像演算部40は互いに並列に動作し、選択部38から合成対象領域の境界の特定の色要素の差分値が入力されると、入力された境界の差分値を保存する条件で、境界の内部の領域の二次微分値(二階微分値)が0となる特定の色要素の差分画像を演算により生成する。差分画像演算部40の数は、例えば画像処理装置10が動画像のうちの1フレームの画像に対する処理に要する処理時間内に、動画像として入力されるフレーム数と同数とすることができる。
なお、差分画像演算部40による差分画像の生成は、詳細は後述するが、ポアソン方程式を用いた繰り返し演算によって実現される。差分画像演算部40は開示の技術における差分画像生成部の一例であり、差分画像演算部40によって実現される処理は開示の技術における差分画像を生成することの一例である。
切替部42は、複数の差分画像演算部40のうちの何れかによって特定の色要素の差分画像が生成される度に、生成された特定の色要素の差分画像を合成結果画像生成部46へ出力する。前フレーム合成結果画像保持部44は、N−1番目のフレーム画像に対して合成結果画像生成部46で生成された特定の色要素の合成結果画像を保持する。
合成結果画像生成部46は、フレーム番号N=1の場合、N番目のフレーム画像中に存在する合成対象領域の境界を保存する条件で、境界の内部の領域の二次微分値がマスク画像の二次微分値に合致する特定の色要素の合成結果画像を演算により生成する。そして、生成した特定の色要素の合成結果画像を、N番目のフレーム画像中の合成対象領域の画像と置き換える画像合成処理を行う。また合成結果画像生成部46は、フレーム番号N≧2の場合、前フレーム合成結果画像保持部44に保持されたN−1番目のフレーム画像に対する特定の色要素の合成結果画像に、切替部42から入力された特定の色要素の差分画像を加算する。そして、この加算によって得られた画像を、N番目のフレーム画像に対する特定の色要素の合成結果画像として、N番目のフレーム画像中の合成対象領域の画像と置き換える画像合成処理を行う。なお、合成結果画像生成部46は開示の技術における画像合成部の一例であり、合成結果画像生成部46によって実現される処理は開示の技術における画像を合成することの一例である。
色要素合成部28は、合成結果画像が合成された互いに異なる色要素のフレーム画像が画像合成部22〜26から出力される度に、画像合成部22〜26から出力された各色要素のフレーム画像を単一のフレーム画像へ合成して出力する。動画像出力部30は、色要素合成部28から出力された単一のフレーム画像を、マスク画像が合成された動画像のうちの1フレームの画像として出力する。
画像処理装置10は、例えば図2に示すコンピュータ60で実現することができる。コンピュータ60はCPU62、メモリ64、不揮発性の記憶部66、キーボード68、マウス70、ディスプレイ72を備え、これらはバス74を介して互いに接続されている。
また、記憶部66はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記録媒体としての記憶部66には、コンピュータ60を画像処理装置10として機能させるためのマスク合成プログラム76が記憶されている。CPU62は、マスク合成プログラム76を記憶部66から読み出してメモリ64に展開し、マスク合成プログラム76が有するプロセスを順次実行する。
マスク合成プログラム76は、動画像取得プロセス78、マスク画像取得プロセス80、合成対象領域検出プロセス82、色要素分離プロセス84、画像合成プロセス86、色要素合成プロセス88及び動画像出力プロセス90を有する。CPU62は、動画像取得プロセス78を実行することで、図1に示す動画像取得部12として動作する。またCPU62は、マスク画像取得プロセス80を実行することで、図1に示すマスク画像取得部14として動作する。またCPU62は、合成対象領域検出プロセス82を実行することで、図1に示す合成対象領域検出部16として動作する。またCPU62は、色要素分離プロセス84を実行することで、図1に示す色要素分離部18,20として動作する。またCPU62は、画像合成プロセス86を実行することで、図1に示す画像合成部22〜26として動作する。またCPU62は、色要素合成プロセス88を実行することで、図1に示す色要素合成部28として動作する。またCPU62は、動画像出力プロセス90を実行することで、図1に示す動画像出力部30として動作する。
また、画像合成プロセス86は、前フレーム画像保持プロセス92、境界差分演算プロセス94、マスク画像保持プロセス96、選択プロセス98、差分画像演算プロセス100、切替プロセス102を有する。更に画像合成プロセス86は、前フレーム合成結果画像保持プロセス104及び合成結果画像生成プロセス106を有する。CPU62は、前フレーム画像保持プロセス92を実行することで、図1に示す前フレーム画像保持部32として動作する。またCPU62は、境界差分演算プロセス94を実行することで、図1に示す境界差分演算部34として動作する。またCPU62は、マスク画像保持プロセス96を実行することで、図1に示すマスク画像保持部36として動作する。またCPU62は、選択プロセス98を実行することで、図1に示す選択部38として動作する。またCPU62は、差分画像演算プロセス100を実行することで、図1に示す複数の差分画像演算部40として各々動作する。またCPU62は、切替プロセス102を実行することで、図1に示す切替部42として動作する。またCPU62は、前フレーム合成結果画像保持プロセス104を実行することで、図1に示す前フレーム合成結果画像保持部44として動作する。またCPU62は、合成結果画像生成プロセス106を実行することで、図1に示す合成結果画像生成部46として動作する。
これにより、マスク合成プログラム76を実行したコンピュータ60が、画像処理装置10として機能することになる。なお、マスク合成プログラム76は開示の技術における画像処理プログラムの一例である。
なお、画像処理装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、本第1実施形態の作用の説明に先立ち、従来のマスク画像の合成(合成結果画像の演算)について説明する。従来のマスク画像の合成は、マスク画像の勾配情報(二次微分値)を用い、合成対象領域のエッジ(マスク画像との合成境界)を境界条件としてポアソン方程式を解き、合成結果画像を求めることによって成される。具体的には、例えば以下の演算処理によって実現される(図33も参照)。
すなわち、マスク画像をS(幅W,高さH)、合成対象領域をT(幅W,高さH)、初期値画像をI(幅W,高さH)、合成結果画像をFとしたときに、マスク画像Sのラプラシアンフィルタ適用値LSは次の(1)式で表される。
LS(x,y)=S(x-1,y)+S(x+1,y)+S(x,y-1)+S(x,y+1)−4S(x,y)
…(1)
但し、画像の端は算出先とならないので、マスク画像Sの幅をW、高さをHとすると、
0<x<W、0<y<H
である。画像の外縁は合成対象領域の画素値(境界γ)とする(次の(2)式参照)。
F(x,y)=T(x,y) (x=0又はy=0又はx=W又はy=Hのとき) …(2)
また、合成結果画像Fのラプラシアンフィルタ適用値LFをマスク画像Sのラプラシアンフィルタ適用値LSと一致させる(次の(3)式参照)。
LF(x,y)=LS(x,y) …(3)
上記(2),(3)式の方程式を解くことで、合成対象領域Tの全領域で合成結果画像F(x,y)の値を得ることができる。
上記の方程式は、以下のようにして解くことができる。すなわち、合成結果画像Fのラプラシアンフィルタ適用値LFは次の(4)式で表される。
LF(x,y)=F(x-1,y)+F(x+1,y)+F(x,y-1)+F(x,y+1)−4F(x,y)
…(4)
また、前出の(3)式より次の(5)式が得られる。
F(x,y)={F(x-1,y)+F(x+1,y)+F(x,y-1)+F(x,y+1)−LS(x,y)}/4
…(5)
合成結果画像Fを数値的に解く場合は、(5)式を次の(6)式の漸化式へ変形し、合成結果画像Fに初期値を与えた後、合成結果画像Fの値が収束する迄繰り返し演算を行う(ガウスザイデル法)。
Fi+1(x,y)={Fi(x-1,y)+Fi(x+1,y)+Fi(x,y-1)+Fi(x,y+1)
−LS(x,y)}/4 …(6)
但し、iは各回の演算を識別するための変数である。また、初期値は通常、
F0(x,y)=T(x,y) (x=0又はy=0又はx=W又はy=Hのとき)
F0(x,y)=0 (x=0、y=0、x=W及びy=H以外のとき)
である。
また、収束条件は以下の何れかである。
(収束条件A) |Fi+1−Fi|が閾値以下
(収束条件B) 合成結果画像Fのラプラシアンフィルタ適用値LFを演算し、|LF−LS|が閾値以下
これにより、マスク画像Sに基づき、初期値画像I及び合成対象領域Tの境界γから合成結果画像Fが生成される。
また、(6)式に代えて以下の(7)式によって合成結果画像Fを求めることも可能である(SOR法)。
Fi+1(x,y)=(1−ω)Fi(x,y)+ω{Fi(x-1,y)+Fi(x+1,y)+Fi(x,y-1)
+Fi(x,y+1)−LS(x,y)}/4 …(7)
(7)式はω=1〜2で収束する。なお、前出の(6)式は(7)式におけるω=1の場合とみなすことも可能である。ω=1.95程度の値を用いることで良好な収束性が得られることが知られている。
但し、上述した合成結果画像Fの演算は、繰り返し演算における演算の繰り返し回数が非常に多く、演算量が非常に大きいという欠点を有している。この欠点を軽減するため、1フレーム前のフレーム画像に対して演算した合成結果画像FN−1を初期値画像として用いることが考えられる(次の(8)式及び図34参照)。
F0(x,y)=T(x,y) (x=0又はy=0又はx=W又はy=Hのとき)
F0(x,y)=FN−1(x,y) (x=0、y=0、x=W及びy=H以外のとき) …(8)
また、演算の繰り返し回数を更に削減する方法として、1フレーム前のフレーム画像中の合成対象領域TN−1に対する合成対象領域Tの差分を、合成結果画像FN−1に加算した結果を初期値画像として用いることも考えられる(次の(9)式及び図35参照)。
F0(x,y)=T(x,y) (x=0又はy=0又はx=W又はy=Hのとき)
F0(x,y)=FN−1(x,y)+T(x,y)−TN−1(x,y)
(x=0、y=0、x=W及びy=H以外のとき) …(9)
しかしながら、図34及び図35に示した演算手法は、何れも演算の繰り返し回数は削減できるものの、処理対象のフレーム画像の合成結果画像Fの演算を開始する際には、1フレーム前のフレーム画像に対する合成結果画像FN−1が算出されている必要がある。このため、例えば図35に示した演算手法では、図36に示すように、1フレーム前のフレーム画像に対する繰り返し演算(図36では「ポアソン演算」と表記)が完了しないと、次のフレーム画像に対する繰り返し演算を開始できない。従って、入力される動画像のフレームレートに対してマスク画像の合成結果の出力レートが低く、動画像の各フレームへのマスク画像の合成をリアルタイムで行うことは困難である。
一方、動画像の個々のフレームに対し、先の(3)式を満足するように合成結果画像F(x,y)を解くことから、次の(10)式が得られる。
LFN(x,y)−LFN-1(x,y)=0 …(10)
なお、LFN(x,y)はN番目のフレームの合成結果画像Fのラプラシアンフィルタ適用値(二次微分値)、LFN-1(x,y)はN−1番目のフレームの合成結果画像Fのラプラシアンフィルタ適用値(二次微分値)である。
上記の(10)式は、連続する2フレームの合成結果画像Fの差分に相当する画像(以下、この画像を差分画像D(x,y)と称する)が、二次微分値が0になる画像(グラデーション画像)であることを意味している。前述のように、各フレームの合成結果画像Fは、合成対象領域の画素値(境界γ)が保存される境界条件で、ポアソン方程式を用いた繰り返し演算によって算出できる。このため、差分画像D(x,y)は、N−1番目のフレームとN番目のフレームの合成対象領域の画素値(境界γ)の差分(境界差分)を求め、求めた境界差分が保存される境界条件で、ポアソン方程式を用いた繰り返し演算を行うことで算出することができる。そして、算出した差分画像D(x,y)をN−1番目のフレームの合成結果画像Fに加算すれば、N番目のフレームの合成結果画像Fが得られる。
上記に基づき、本第1実施形態では、画像処理装置10に対してマスク合成処理の実行が指示された場合に、図3〜図7に示す処理を含むマスク合成処理が画像処理装置10によって行われる。なお、マスク合成処理は、例えば、撮影装置によって撮影された動画像を配布、或いは放送、或いはネットワーク上で公開する等の理由で、動画像中に被写体として写っている人物のプライバシーの保護を図る必要が生じた場合に実行が指示される。
マスク合成処理の実行に際しては、処理対象の動画像が指定され、合成対象のマスク画像も指定される。これにより、本第1実施形態に係る画像処理装置10では、動画像取得部12、マスク画像取得部14、合成対象領域検出部16及び2個の色要素分離部18,20により、図3に示す色要素分離処理が実行される。
色要素分離処理のステップ150において、マスク画像取得部14は、例えば記憶部66等に予め記憶された複数のマスク画像の中から、合成対象として指定されたマスク画像を取得する。なお、マスク画像を合成する合成対象領域として、動画像中に被写体として写っている人物の顔領域全体を適用する場合、マスク画像としては、例えば図9に示すように、人物の顔(他の人の顔や複数の人の平均的な顔等)を表す顔画像が適用される。ステップ152において、色要素分離部20は、マスク画像取得部14によって取得されたマスク画像を複数の色要素に分離する。
ステップ154において、動画像取得部12は、処理対象として指定された動画像の各フレームを識別するための変数Nに1を設定する。またステップ156において、動画像取得部12は、処理対象の動画像のうちN番目のフレームの画像を取得する。またステップ158において、合成対象領域検出部16は、動画像取得部12によって取得されたN番目のフレームの画像の中から合成対象領域を検出し、N番目のフレームの画像における合成対象領域の位置及びサイズを検出する。
なお、合成対象領域として顔領域を適用する場合、顔領域の検出には、例えばHaar classifierを用いる手法(非特許文献2参照)等の任意の手法を適用できる。また、合成対象領域は合成対象領域検出部16によって検出することに限られるものではない。例えば動画像中に被写体として写っている複数の人物のうちの一部の人物に対してのみマスク画像を合成する等の場合に、処理対象の人物の合成対象領域が最初に指定されるようにしてもよい。この場合、合成対象領域検出部16は、最初に指定された合成対象領域を動画像上で追跡する処理を行うことができる。
ステップ160において、色要素分離部18は、動画像取得部12によって取得されたN番目のフレームの画像を複数の色要素に分離する。ステップ162において、色要素分離部18は、各色要素毎のN番目のフレームの画像を、フレーム番号Nと共に画像合成部22〜26に各々出力し、色要素分離部20は各色要素のマスク画像を画像合成部22〜26へ各々出力する。なお、色要素分離部20から出力された各色要素のマスク画像は、画像合成部22〜26のマスク画像保持部36に各々保持される。また、色要素分離部18から出力されたN番目のフレームの画像は前フレーム画像保持部32に保持される。
次のステップ164において、動画像取得部12は、処理対象の動画像の全フレームの画像を取得したか否かを判定する。ステップ164の判定が否定された場合はステップ166へ移行し、動画像取得部12は、変数Nの値を1だけインクリメントし、ステップ156に戻る。これにより、ステップ164の判定が肯定される迄、ステップ156〜ステップ166が繰り返される。そして、ステップ164の判定が肯定されると、色要素分離処理を終了する。
また、画像処理装置10の画像合成部22〜26の各々では、N番目のフレームの特定色要素の画像が色要素分離部18から入力される度に、境界差分演算部34及び選択部38により、図4に示す境界差分演算処理が実行される。境界差分演算処理のステップ170において、境界差分演算部34は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ170の判定が否定されてステップ172に移行する。ステップ172において、境界差分演算部34は、N(=1)番目のフレームの画像に対応する特定色要素の合成結果画像を、マスク画像保持部36に保持された特定色要素のマスク画像に基づいて生成するよう合成結果画像生成部46に対して指示する。
また、変数Nの値が2以上になると、ステップ170の判定が肯定されてステップ174に移行する。ステップ174において、境界差分演算部34は、前フレーム画像保持部32に保持されているN−1番目のフレームの特定色要素の画像から、合成対象領域検出部16によって検出された合成対象領域のデータを取り出す。また、次のステップ176において、境界差分演算部34は、色要素分離部18より入力されたN番目のフレームの特定色要素の画像から、合成対象領域検出部16によって検出された合成対象領域のデータを取り出す。
ステップ178において、境界差分演算部34は、N−1番目のフレームの特定色要素の画像における合成対象領域の境界と、N番目のフレームの特定色要素の画像における合成対象領域の境界と、の画素値の差分(境界差分γD)を演算する。なお、N−1番目のフレームの画像における合成対象領域の境界をγTN−1、N番目のフレームの画像における合成対象領域の境界をγTとすると、境界差分γDは次の(11)式で演算できる。
γD(x,y)=γT(x,y)−γTN−1(x,y) …(11)
これにより、例として図8に示すように、合成対象領域の周縁に沿って1画素幅で、連続する2フレームにおける合成境界領域の境界の画素値の差分を表す境界差分γDが得られる。なお、図8では境界差分の符号が「+(プラス)」の場合のみ示しているが、差分の値によっては符号が「−(マイナス)」となる場合もある。
次のステップ180において、選択部38は、複数の差分画像演算部40のうち、境界差分演算部34によって演算された合成対象領域の境界差分γDを出力する何れか1つの差分画像演算部40を選択する。本実施形態では、複数の差分画像演算部40が互いに並列に演算処理を行う構成であり、ステップ180では、合成対象領域の境界差分γDを出力する差分画像演算部40を、複数の差分画像演算部40の中から循環的に選択する。そして、次のステップ182において、選択部38は、境界差分演算部34によって演算された特定色要素についての合成対象領域の境界差分γDをステップ180で選択した差分画像演算部40へ出力する。
また、画像処理装置10の画像合成部22〜26の各々では、N番目のフレームの特定色要素についての合成対象領域の境界差分が選択部38から入力される度に、差分画像演算部40により、図5に示す差分画像演算処理が実行される。差分画像演算処理のステップ190において、差分画像演算部40は、入力された合成対象領域の境界差分を境界条件として(境界差分の画素値を保存する条件で)、二次微分値が0となる特定色要素の差分画像D(x,y)を演算する。この演算は、先の(2)〜(7)式における合成結果画像Fに代えて差分画像Dを適用した以下の(12)〜(17)式の演算を行うことで実現できる。
すなわち、差分画像Dの外縁は合成対象領域の境界差分γDとする(次の(12)式参照)。
D(x,y)=γD(x,y) (x=0又はy=0又はx=W又はy=Hのとき) …(12)
また、差分画像Dのラプラシアンフィルタ適用値LDを0とする(次の(13)式参照)。
LD(x,y)=0 …(13)
上記(12),(13)式の方程式を解くことで、合成対象領域Tの全領域で差分画像D(x,y)の値を得ることができる。
上記の方程式は、以下のようにして解くことができる。すなわち、差分画像Dのラプラシアンフィルタ適用値LDは次の(14)式で表される。
LD(x,y)=D(x-1,y)+D(x+1,y)+D(x,y-1)+D(x,y+1)+4D(x,y)
…(14)
また、前出の(13)式より次の(15)式が得られる。
D(x,y)={D(x-1,y)+D(x+1,y)+D(x,y-1)+D(x,y+1)}/4 …(15)
差分画像Dを数値的に解く場合は、(15)式を次の(16)式の漸化式へ変形し、差分画像Dに初期値を与えた後、差分画像Dの値が収束する迄繰り返し演算を行う(ガウスザイデル法)。
Di+1(x,y)={Di(x-1,y)+Di(x+1,y)+Di(x,y-1)+Di(x,y+1)}/4
…(16)
但し、iは各回の演算を識別するための変数である。また、初期値は通常、
D0(x,y)=γD(x,y) (x=0又はy=0又はx=W又はy=Hのとき)
D0(x,y)=0 (x=0、y=0、x=W及びy=H以外のとき)
である。
また、収束条件は以下の何れかである。
(収束条件A) |Di+1−Di|が閾値以下
(収束条件B) 差分画像Dのラプラシアンフィルタ適用値LDを演算し、LD≒0の場合
これにより、図9にも示すように、二次微分値が0のなだらかなグラデーション画像である差分画像Dが、境界差分γDから生成される。
また、(16)式に代えて以下の(17)式によって差分画像Dを求めることも可能である(SOR法)。
Di+1(x,y)=(1−ω)Di(x,y)+ω{Di(x-1,y)+Di(x+1,y)+Di(x,y-1)
+Di(x,y+1)}/4 …(17)
(17)式はω=1〜2で収束する。ω=1.95程度の値を用いることで良好な収束性が得られる。
差分画像演算部40による差分画像Dの演算もポアソン方程式を用いた繰り返し演算であるが、動画像の連続するフレームでは合成対象領域の輝度差が小さく、境界差分の値自体も小さくなる。このため、ステップ190の繰り返し演算における演算の繰り返し回数は、先の(1)〜(7)式に基づいて合成結果画像Fを算出する場合と比較して少なくなり、演算が短時間で収束する。
次のステップ192において、切替部42は、差分画像演算部40によって演算された特定色要素の差分画像Dを合成結果画像生成部46へ出力し、差分画像演算処理を終了する。
また、画像処理装置10の画像合成部22〜26の各々では、合成結果画像生成部46により、図6に示す合成結果画像生成処理が行われる。なお、この合成結果画像生成処理は、境界差分演算部34から合成結果画像Fの生成が指示されるか、又は、N番目のフレームの特定色要素についての差分画像Dが切替部42から入力される度に実行される。
合成結果画像生成処理のステップ200において、合成結果画像生成部46は、差分画像Dが切替部42から入力されたか否か判定する。境界差分演算部34から合成結果画像Fの生成が指示された場合は、ステップ200の判定が否定されてステップ202へ移行する。ステップ202において、合成結果画像生成部46は、N番目(但しN=1)のフレームの合成対象領域の境界の特定色要素の値を境界条件として、二次微分値がマスク画像Sの二次微分値に一致する合成結果画像Fを演算する。この演算は、先の(1)〜(7)式に基づき、ポアソン方程式を用いた繰り返し演算によって実現される。ステップ202で合成結果画像Fを算出するとステップ208へ移行する。
また、N番目のフレームの特定色要素についての差分画像Dが切替部42から入力された場合には、ステップ200の判定が肯定されてステップ204へ移行する。ステップ204において、合成結果画像生成部46は、前フレーム合成結果画像保持部44に保持されているN−1番目のフレームの特定色要素の合成結果画像Fを取り出す。また、次のステップ206において、合成結果画像生成部46は、N−1番目のフレームの画像に対応する特定色要素の合成結果画像に、切替部42から入力されたN番目のフレームの画像の特定色要素についての差分画像Dを加算する。この加算により、図9にも示すように、N番目のフレームの画像に対応する特定色要素の合成結果画像Fが生成される。
次のステップ208において、合成結果画像生成部46は、N番目のフレームの特定色要素の画像中の合成対象領域に、上記の処理で得られた合成結果画像Fを合成する。そしてステップ210において、合成結果画像生成部46は、合成結果画像Fを合成したN番目のフレームの特定色要素の画像を色要素合成部28へ出力し、合成結果画像生成処理を終了する。
また、画像処理装置10では、色要素合成部28及び動画像出力部30により、画像合成部22〜26の何れかの合成結果画像生成部46から合成結果画像Fが入力される度に、図7に示す色要素合成処理が行われる。この色要素合成処理のステップ212において、色要素合成部28は、同一フレームの全色要素の画像が画像合成部22〜26から各々入力されたか否か判定する。ステップ212の判定が否定された場合は、入力された合成結果画像Fをメモリ64等に記憶させ、色要素合成処理を一旦終了する。
また、同一フレームの全色要素の画像が画像合成部22〜26から各々入力されると、ステップ212の判定が肯定されてステップ214へ移行する。ステップ214において、色要素合成部28は、同一フレームの全ての色要素の画像(合成結果画像Fを合成した画像)を単一のカラー画像として合成する。また、動画像出力部30は、色要素合成部28によって生成された画像を、マスク画像を合成した動画像のN番目のフレームの画像として出力する。
上述した一連の処理のうち、処理時間が最も長いのは、ポアソン方程式を用いた繰り返し演算である差分画像演算部40による差分画像Dの演算である。しかし、本実施形態では、差分画像演算部40が複数設けられており、かつ、N番目のフレームの画像に対応する差分画像Dの演算に際し、N−1番目のフレームの画像に対する合成結果画像Fは不要である。このため、本実施形態では、例として図10に示すように、動画像の各フレームに対応する差分画像Dの演算を、複数の差分画像演算部40で並列に行うことができ、各フレームの合成結果画像Fを演算する処理をパイプラインで処理することができる。これにより、図10からも明らかなように、画像処理装置10に入力される動画像のフレームレートと同一の周期で、マスク画像を合成した各フレームの画像を出力することが可能となり、リアルタイムでの処理を実現することができる。
〔第2実施形態〕
次に開示の技術の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付して説明を省略し、第1実施形態と異なる部分についてのみ説明する。
図11には、本第2実施形態に係る画像処理装置10が示されている。本第2実施形態に係る画像処理装置50は、画像合成部22〜26が、二次微分画像演算部52,54及び誤差演算部56を更に備えている。二次微分画像演算部52は、マスク画像保持部36に保持された特定色要素のマスク画像Sに基づき、マスク画像Sの二次微分画像(マスク画像Sのラプラシアンフィルタ適用値LS)を演算する。また、二次微分画像演算部54は、前フレーム合成結果画像保持部44に保持されたN−1番目のフレームの画像に対する合成結果画像Fに基づき、合成結果画像Fの二次微分画像(合成結果画像Fのラプラシアンフィルタ適用値LF)を演算する。
また、誤差演算部56は、二次微分画像演算部52によって演算されたマスク画像Sの二次微分画像と、二次微分画像演算部54によって演算されたN−1番目のフレームの合成結果画像Fの二次微分画像と、の差分を誤差画像として演算する。なお、誤差演算部56は開示の技術における誤差演算部の一例であり、誤差演算部56によって実現される処理は開示の技術における誤差を演算することの一例である。
また、本第2実施形態において、マスク合成プログラム76の画像合成プロセス86は、図2に破線で示すように、二次微分画像演算プロセス108及び誤差演算プロセス110を更に備えている。本第2実施形態において、CPU62は、二次微分画像演算プロセス108を実行することで、図11に示す二次微分画像演算部52,54として各々動作する。また、本第2実施形態において、CPU62は、誤差演算プロセス110を実行することで、図11に示す誤差演算部56として動作する。
次に図12を参照し、本第2実施形態の作用として、本第2実施形態に係る差分画像演算処理について、第1実施形態で説明した差分画像演算処理(図5)と異なる部分を説明する。本第2実施形態に係る差分画像演算処理のステップ220において、二次微分画像演算部52は、マスク画像保持部36に保持された特定色要素のマスク画像Sの二次微分画像(マスク画像Sのラプラシアンフィルタ適用値LS)を先の(1)式に従って演算する。
次のステップ222において、二次微分画像演算部54は、前フレーム合成結果画像保持部44に保持されたN−1番目のフレームの画像に対する合成結果画像Fの二次微分画像(合成結果画像Fのラプラシアンフィルタ適用値LF)を先の(4)式に従って演算する。またステップ224において、誤差演算部56は、マスク画像Sの特定色要素の二次微分画像に対するN−1番目のフレームの特定色要素の合成結果画像Fの二次微分画像の画素値の差分を誤差画像E(x,y)として演算する。
そしてステップ226において、差分画像演算部40は、選択部38から入力された合成対象領域の境界差分を境界条件として、二次微分値が誤差演算部56によって演算された誤差画像E(x,y)に一致する特定色要素の差分画像D(x,y)を演算する。なお、誤差画像Eのラプラシアンフィルタ適用値をLEとすると、上記演算は次の(18),(19)式で表される。、
LD(x,y)=LE(x,y) …(18)
LE(x,y)=E(x-1,y)+E(x+1,y)+E(x,y-1)+E(x,y+1)−4E(x,y)
…(19)
先に説明した第1実施形態では、N=1番目のフレームでマスク画像Sを用いて合成結果画像Fを演算した後は、差分画像Dを演算し、N−1番目のフレームの合成結果画像Fに差分画像Dを加算してN番目のフレームの合成結果画像Fを演算している。このため、差分画像Dを演算して合成結果画像Fを演算する処理を複数フレームに亘って繰り返すと、マスク画像Sに対する誤差が蓄積されてくる可能性がある。
これに対して本第2実施形態では、上記のように、マスク画像Sの特定色要素の二次微分画像に対するN−1番目のフレームの特定色要素の合成結果画像Fの二次微分画像の画素値の差分を誤差画像E(x,y)として演算している。そして、差分画像Dの二次微分値LD(x,y)が誤差画像Eの二次微分値LE(x,y)に一致するように差分画像Dを求めている。これにより、マスク画像Sに対する誤差が蓄積されることが抑制され、誤差がより少ない差分画像Dが得られることで、誤差がより少ない合成結果画像Fが得られる。
なお、本第2実施形態において、誤差画像Eを演算し、差分画像Dの二次微分値が誤差画像Eの二次微分値に一致するように差分画像Dを求める処理は、動画像の毎フレームで行ってもよいし、一定数のフレームが入力される度に行ってもよい。また、境界差分演算部34によって演算された境界差分における差分の大きさを評価する評価値を演算し、演算した評価値が閾値以上になる度に行うようにしてもよい。
〔第3実施形態〕
次に開示の技術の第3実施形態を説明する。なお、第1及び第2実施形態と同一の部分には同一の符号を付して説明を省略し、第1及び第2実施形態と異なる部分についてのみ説明する。
図13には、本第3実施形態に係る画像処理装置120が示されている。本第3実施形態に係る画像処理装置120は、画像処理装置10(図1)に対し、マスク画像取得部14に代えてマスク動画像取得部122が設けられ、前フレームマスク画像保持部124及びマスク画像差分演算部126が設けられている点で相違している。第1及び第2実施形態では、動画像取得部12によって取得された動画像の各フレームに同一のマスク画像を合成する態様を説明した。しかし、この場合、例えばマスク画像が人物の顔領域の画像であるとすると、合成後の動画像では人物が瞬きなどをしないことになり、不自然な動画像となることがある。
このため、本第3実施形態では、一例として図18に示すように、マスク画像として複数のフレームを含む動画像(マスク動画像)を用意しており、動画像取得部12によって取得された動画像の各フレームに、マスク動画像の各フレームの画像を合成している。なお、マスク動画像として人物の顔領域の動画像を適用した場合、マスク動画像としては、例えば定期的に瞬きをしている動画像(例えば数秒〜十数秒程度の長さの動画像)等を適用することができる。本第3実施形態において、マスク動画像取得部122は、予め記憶部等に記憶されたマスク動画像をフレーム単位で取得する。なお、マスク動画像の長さが動画像取得部12によって取得された動画像の長さよりも短い場合、マスク動画像取得部122は、同一のマスク動画像をフレーム単位で取得することを繰り返す。
また、前フレームマスク画像保持部124は画像合成部22A〜26Aに設けられている。前フレームマスク画像保持部124は、色要素分離部20から入力された特定の色要素のマスク画像のうち、処理対象のN番目のフレーム画像よりも1フレーム前のN−1番目のフレーム画像に合成するマスク画像を保持する。なお、前フレームマスク画像保持部124は、例えば2フレーム分の画像のデータを保持可能なFIFO(First-in First-out)メモリ等で構成することができる。
また、マスク画像差分演算部126も画像合成部22A〜26Aに設けられている。マスク画像差分演算部126は、特定の色要素について、N番目のフレーム画像に合成するマスク画像のラプラシアンフィルタ適用値(2次微分値)と、N−1番目のフレーム画像に合成するマスク画像のラプラシアンフィルタ適用値(2次微分値)を各々演算する。そして、差分演算部40は、N番目のフレーム画像に合成するマスク画像のラプラシアンフィルタ適用値(2次微分値)と、N−1番目のフレーム画像に合成するマスク画像のラプラシアンフィルタ適用値(2次微分値)と、の差分を特定の色要素について演算する。
また、本第3実施形態に係る差分画像演算部40は、境界差分演算部34から合成対象領域の境界の特定の色要素の差分(境界差分γD)が入力され、マスク画像差分演算部126からマスク画像の特定の色要素のラプラシアンフィルタ適用値の差分が入力される。差分画像演算部40は、合成対象領域の境界の特定の色要素の差分γDを境界条件、マスク画像の特定の色要素のラプラシアンフィルタ適用値の差分LSdを勾配条件として、特定の色要素の差分画像を演算により生成する。
画像処理装置120は、例えば図14に示すコンピュータ60で実現することができる。図14に示すコンピュータ60の記憶部66には、コンピュータ60を画像処理装置10として機能させるためのマスク合成プログラム76Aが記憶されている。CPU62は、マスク合成プログラム76Aを記憶部66から読み出してメモリ64に展開し、マスク合成プログラム76Aが有するプロセスを順次実行する。
マスク合成プログラム76Aは、マスク画像取得プロセス80に代えてマスク動画像取得プロセス128を有し、前フレームマスク画像保持プロセス130及びマスク画像差分演算プロセス132を更に有する。CPU62は、マスク動画像取得プロセス128を実行することで、図13に示すマスク動画像取得部14として動作する。またCPU62は、前フレームマスク画像保持プロセス130を実行することで、図13に示す前フレームマスク画像保持部124として動作する。またCPU62は、マスク画像差分演算プロセス132を実行することで、図13に示すマスク画像差分演算部126として動作する。これにより、マスク合成プログラム76Aを実行したコンピュータ60が、画像処理装置120として機能することになる。なお、マスク合成プログラム76Aは開示の技術における画像処理プログラムの一例である。
本第3実施形態に係る画像処理装置120では、動画像取得部12、マスク動画像取得部122、合成対象領域検出部16及び2個の色要素分離部18,20により、図15に示す色要素分離処理が実行される。
色要素分離処理のステップ230において、動画像取得部12は、処理対象として指定された動画像の各フレームを識別するための変数Nに1を設定する。またステップ232において、動画像取得部12は、処理対象の動画像のうちN番目のフレームの画像を取得する。またステップ234において、合成対象領域検出部16は、動画像取得部12によって取得されたN番目のフレームの画像の中から合成対象領域を検出し、N番目のフレームの画像における合成対象領域の位置及びサイズを検出する。
なお、合成対象領域として顔領域を適用する場合、顔領域の検出には、例えばHaar classifierを用いる手法(非特許文献2参照)等の任意の手法を適用できる。また、合成対象領域は合成対象領域検出部16によって検出することに限られるものではない。例えば動画像中に被写体として写っている複数の人物のうちの一部の人物に対してのみマスク画像を合成する等の場合に、処理対象の人物の合成対象領域が最初に指定されるようにしてもよい。この場合、合成対象領域検出部16は、最初に指定された合成対象領域を動画像上で追跡する処理を行うことができる。またステップ236において、色要素分離部18は、動画像取得部12によって取得されたN番目のフレームの画像を複数の色要素に分離する。
次のステップ238において、マスク動画像取得部122は、例えば記憶部66等に予め記憶されたマスク動画像の中から、処理対象のN番目のフレームの画像に合成するマスク画像を取得する。ステップ240において、色要素分離部20は、マスク動画像取得部122によって取得されたマスク画像を複数の色要素に分離する。
ステップ242において、色要素分離部18は、各色要素毎のN番目のフレームの画像を、フレーム番号Nと共に画像合成部22A〜26Aに各々出力し、色要素分離部20は各色要素のマスク画像を画像合成部22A〜26Aへ各々出力する。なお、色要素分離部20から出力された各色要素のマスク画像は、画像合成部22A〜26Aの前フレームマスク画像保持部124に各々保持される。また、色要素分離部18から出力されたN番目のフレームの画像は前フレーム画像保持部32に保持される。
次のステップ244において、動画像取得部12は、処理対象の動画像の全フレームの画像を取得したか否かを判定する。ステップ244の判定が否定された場合はステップ246へ移行し、動画像取得部12は、変数Nの値を1だけインクリメントし、ステップ232に戻る。これにより、ステップ244の判定が肯定される迄、ステップ232〜ステップ246が繰り返される。そして、ステップ244の判定が肯定されると、色要素分離処理を終了する。上記の色要素分離処理により、図18に「マスク画像」として示すように、処理対象の各フレームに対応するマスク画像として、同一でないマスク画像(例えば定期的に瞬きをしているマスク動画像の各フレームの画像)が取得されることになる。
なお、本第3実施形態において、境界差分演算部34及び選択部38によって実行される境界差分演算処理(図4)については、第1実施形態と同一であるので説明を省略する(図19に示す「(1)境界輝度差」も参照)。続いて、マスク画像差分演算部126によって実行されるマスク画像差分演算処理について、図16を参照して説明する。
マスク画像差分演算処理のステップ250において、マスク画像差分演算部126は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ250の判定が否定されてマスク画像差分演算処理を終了する。この場合、境界差分演算処理(図4)のステップ172での境界差分演算部34の指示により、N(=1)番目のフレームの画像に対応する特定色要素の合成結果画像が、前フレームマスク画像保持部124に保持された特定色要素のマスク画像に基づいて生成される。
また、変数Nの値が2以上になると、ステップ250の判定が肯定されてステップ252に移行する。ステップ252において、マスク画像差分演算部126は、前フレームマスク画像保持部124に保持されているN−1番目のフレームに対応する特定色要素のマスク画像SN−1のデータを取り出す。また、次のステップ254において、マスク画像差分演算部126は、N−1番目のフレームに対応する特定色要素のマスク画像に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像(二次微分値)LSN−1を演算する。
ステップ256において、マスク画像差分演算部126は、色要素分離部20から入力されたN番目のフレームに対応する特定色要素のマスク画像Sのデータを取り出す。また、次のステップ258において、マスク画像差分演算部126は、N番目のフレームに対応する特定色要素のマスク画像に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像(二次微分値)LSを演算する。
次のステップ260において、マスク画像差分演算部126は、N−1番目のフレームに対応する特定色要素のマスク画像のラプラシアンフィルタ適用値とN番目のフレームに対応する特定色要素のマスク画像のラプラシアンフィルタ適用値との差分を演算する。マスク画像Sのラプラシアンフィルタ適用画像をLS、マスク画像SN−1のラプラシアンフィルタ適用画像をLSN−1とすると、特定色要素の2つのマスク画像のラプラシアンフィルタ適用画像の差分LSdは以下の(20)式で算出できる。なお、以下の(20)式の演算は図19に示す「(2)二次微分差分」の演算の一例である。
LSd(x,y)=LS(x,y)−LSN−1(x,y) …(20)
次のステップ262において、マスク画像差分演算部126は、複数の差分画像演算部40のうち、特定色要素のマスク画像のラプラシアンフィルタ適用値の差分LSdを出力する何れか1つの差分画像演算部40を選択する。ステップ262では、マスク画像のラプラシアンフィルタ適用値の差分LSdを出力する差分画像演算部40が、複数の差分画像演算部40の中から循環的に選択される。そしてステップ264において、マスク画像差分演算部126は、特定色要素のマスク画像のラプラシアンフィルタ適用値の差分を、ステップ262で選択した差分画像演算部40へ出力し、マスク画像差分演算処理を終了する。
画像処理装置10の画像合成部22A〜26Aの各々では、N番目のフレームの特定色要素の合成対象領域の境界差分とマスク画像のラプラシアンフィルタ適用値の差分が入力される度に、差分画像演算部40により、図17に示す差分画像演算処理が実行される。ステップ270において、差分画像演算部40は、入力された合成対象領域の境界差分γDを境界条件(境界差分の画素値を保存する条件)、マスク画像のラプラシアンフィルタ適用値の差分LSdを勾配条件として、特定色要素の差分画像D(x,y)を演算する。この演算は、合成対象領域の境界差分γD(x,y)を境界条件とし、マスク画像のラプラシアンフィルタ適用値の差分LSd(x,y)を勾配情報としてポアソン方程式を解くことで算出できる。算出式を次の(21)式に示す(図19に示す「(3)差分画像を生成」も参照)。
(x,y)={D(x-1,y)+D(x+1,y)+D(x,y-1)+D(x,y+1)
−LSd(x,y))}/4 …(21)
次のステップ272において、差分画像演算部40は、演算した特定色要素の差分画像D(x,y)を合成結果画像生成部46へ出力し、差分画像演算処理を終了する。これにより、合成結果画像生成部46において、N番目のフレームの差分画像Dが、N−1番目のフレームの合成結果画像FN−1に加算されることで、N番目のフレームの合成結果画像Fが生成される(次の(22)式も参照)。
(x,y)=FN−1(x,y)+D(x,y) …(22)
従って、図18に「合成後」として示すように、例えば定期的に瞬きをしているマスク画像が各フレームに合成された動画像が得られることになる。
このように、第3実施形態では、動画像の毎フレームに対して境界条件を解いて合成結果画像を算出するのではなく、動画像上で連続する二つの画像フレーム(処理対象のN番目のフレームとN−1番目のフレーム)の差分画像D(x,y)を算出している。そして、算出した差分画像D(x,y)をN−1番目のフレームの合成結果画像FN−1(x,y)に加算して、処理対象のN番目のフレームの合成結果画像F(x,y)を算出している((22)式も参照)。
このとき、差分画像D(x,y)は、フレーム間の輝度変化を含み、マスク画像間の特徴変化を含んでいる。フレーム間の輝度変化は境界画素の差分γDであり、マスク画像間の特徴変化は、(20)式よりマスク画像間のラプラシアン適用値(勾配情報)の差分LSdである。従って、上記2つの条件を満たす差分画像D(x,y)は、境界画素値の差分γDを境界条件とし、勾配情報の差分LSdを二次微分特徴(勾配条件)として、ポアソン方程式を解いて算出できる。差分画像Dは、フレーム間の境界画素の差分γDが小さく、またマスク画像間の差が小さいほど差が0に近い画像となるので、初期値を0として計算したときに計算の収束が速い。従って、差分画像演算部40による差分画像Dの演算は短時間で完了する。
また、本第3実施形態においても、差分画像演算部40が複数設けられており、かつ、N番目のフレームの画像に対応する差分画像Dの演算に際し、N−1番目のフレームの合成結果画像FN−1は不要である。このため、本第3実施形態においても、動画像の各フレームに対応する差分画像Dの演算を、複数の差分画像演算部40で並列に行うことができ、各フレームの合成結果画像Fを演算する処理をパイプラインで処理することができる。これにより、画像処理装置10に入力される動画像のフレームレートと同一の周期で、マスク画像を合成した各フレームの画像を出力することが可能となり、リアルタイムでの処理を実現することができる。
〔第4実施形態〕
次に開示の技術の第4実施形態を説明する。なお、本第4実施形態は第3実施形態と同一の構成であるので、各部分に同一の符号を付して構成の説明を省略し、以下、本第4実施形態の作用を説明する。
本第4実施形態では、第3実施形態で説明したマスク画像差分演算処理(図16)に代えて、図20に示すマスク画像差分演算処理を行う。本第4実施形態に係るマスク画像差分演算処理のステップ250において、マスク画像差分演算部126は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ250の判定が否定されてマスク画像差分演算処理を終了する。この場合、境界差分演算処理(図4)のステップ172での境界差分演算部34の指示により、N(=1)番目のフレームの画像に対応する特定色要素の合成結果画像が、前フレームマスク画像保持部124に保持された特定色要素のマスク画像に基づいて生成される。
また、変数Nの値が2以上になると、ステップ250の判定が肯定されてステップ252に移行する。ステップ252において、マスク画像差分演算部126は、前フレームマスク画像保持部124に保持されているN−1番目のフレームに対応する特定色要素のマスク画像SN−1のデータを取り出す。また、次のステップ256において、マスク画像差分演算部126は、色要素分離部20から入力されたN番目のフレームに対応する特定色要素のマスク画像Sのデータを取り出す。
次のステップ274において、マスク画像差分演算部126は、N−1番目のフレームに対応する特定色要素のマスク画像SN−1と、N番目のフレームに対応する特定色要素のマスク画像Sと、の差分を演算する。またステップ276において、マスク画像差分演算部126は、N−1番目のフレームとN番目のフレームとの特定色要素のマスク画像の差分に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像LSdを演算する(次の(23)式参照)。
LSd(x,y)=L(S(x,y)−SN−1(x,y)) …(23)
次のステップ262以降の処理は、第3実施形態で説明したマスク画像差分演算処理と同じであるので、説明を省略する。
前述した第3実施形態では、N−1番目のフレームに対応する特定色要素のマスク画像と、N番目のフレームに対応する特定色要素のマスク画像について、ラプラシアンフィルタ適用値LSを各々演算した後に差分を演算していた。これに対して第4実施形態では、図21に示すように、N−1番目のフレームに対応する特定色要素のマスク画像と、N番目のフレームに対応する特定色要素のマスク画像との差分を演算した後に、演算した差分に対してラプラシアンフィルタ適用値を演算している。これにより、第3実施形態で説明した態様に比較してラプラシアンフィルタ適用値の演算回数が少なくなり、演算負荷を軽減することができる。
〔第5実施形態〕
次に開示の技術の第5実施形態を説明する。なお、第3及び第4実施形態と同一の部分には同一の符号を付して説明を省略し、第3及び第4実施形態と異なる部分についてのみ説明する。
図22には、本第5実施形態に係る画像処理装置300が示されている。本第5実施形態に係る画像処理装置300は、画像処理装置120(図13)に対し、前フレーム画像保持部32及び前フレームマスク画像保持部124が省略され、勾配条件画像演算部302が設けられている点で相違している。また、本第5実施形態に係る画像処理装置300は、画像処理装置120(図13)に対し、前フレーム合成結果画像保持部44に代えて前フレーム最終結果画像保持部304が設けられている点でも相違している。
先に説明した第3及び第4実施形態では、動画像取得部12によって取得された動画像の各フレーム中の合成対象領域が一定形状であることを前提とし、動画像の各フレームに、マスク動画像の各フレームの画像を合成する態様を説明した。しかし、例えば合成対象領域が人物の顔領域の場合、人物の顔の向きの変化等により各フレーム中の実際の合成対象領域の形状は変化するので、合成対象領域の形状を一定にすると不自然な動画像となることがある。
このため、本第5実施形態では、第3及び第4実施形態と同様に、マスク画像としてマスク動画像を用意し、更に、一例として図29に示すように、フレームの形状が異なる複数種のマスク動画像を用意している。そして本第5実施形態では、動画像の各フレーム中の合成対象領域の形状が合成対象領域検出部16によって検出され、検出された合成対象領域の形状に合致したフレーム形状のマスク動画像がマスク動画像取得部122によって選択的に取得される。
また境界差分演算部34は、動画像のN番目のフレーム画像の第1の境界と、動画像のN−1番目のフレーム画像の第2の境界と、の特定の色要素の差分値を演算する。第5実施形態において、第1の境界は、N番目のフレーム画像中に存在する合成対象領域の外縁に相当する境界である。また第2の境界は、N−1番目のフレーム画像の合成結果画像をN−1番目のフレーム画像中に存在する合成対象領域の画像と置き換えた最終結果画像のうち、第1の境界と同一形状の境界である(図30も参照)。なお、N−1番目のフレーム画像の合成結果画像は、前フレーム最終結果画像保持部304に保持され、境界差分演算部34に供給される。
また、勾配条件画像演算部302は、動画像のN番目のフレームに合成するマスク画像の二次微分値と、動画像のN−1番目のフレームの最終結果画像のうち、第1の境界と同一形状の第2の境界内の画像の二次微分値と、の差分を勾配条件画像として求める。なお、N−1番目のフレーム画像の合成結果画像は、前フレーム最終結果画像保持部304から勾配条件画像演算部302に供給される。
画像処理装置300は、例えば図23に示すコンピュータ60で実現することができる。図23に示すコンピュータ60の記憶部66には、コンピュータ60を画像処理装置10として機能させるためのマスク合成プログラム76Bが記憶されている。CPU62は、マスク合成プログラム76Bを記憶部66から読み出してメモリ64に展開し、マスク合成プログラム76Bが有するプロセスを順次実行する。
マスク合成プログラム76Bは、マスク合成プログラム76Aと比較し、前フレーム画像保持プロセス92及び前フレームマスク画像保持プロセス130が省略され、マスク画像差分演算取得プロセス132に代えて勾配条件画像演算プロセス306を有している。またマスク合成プログラム76Bは、前フレーム合成結果画像保持プロセス104に代えて前フレーム最終結果画像保持プロセス308を有している。CPU62は、勾配条件画像演算プロセス306を実行することで、図22に示す勾配条件画像演算部302として動作する。またCPU62は、前フレーム最終結果画像保持プロセス308を実行することで、図22に示す前フレーム最終結果画像保持部304として動作する。これにより、マスク合成プログラム76Bを実行したコンピュータ60が、画像処理装置300として機能することになる。なお、マスク合成プログラム76Bは開示の技術における画像処理プログラムの一例である。
本第5実施形態に係る画像処理装置300では、動画像取得部12、マスク動画像取得部122、合成対象領域検出部16及び2個の色要素分離部18,20により、図24に示す色要素分離処理が実行される。以下、図24に示す色要素分離処理について、第3実施形態で説明した色要素分離処理(図15)と異なる部分を主に説明する。
色要素分離処理のステップ230において、動画像取得部12は変数Nに1を設定し、次のステップ232において、動画像取得部12は、処理対象の動画像のうちN番目のフレームの画像を取得する。次のステップ310において、合成対象領域検出部16は、動画像取得部12によって取得されたN番目のフレームの画像の中から合成対象領域を検出し、N番目のフレームの画像における合成対象領域の位置、サイズに加えて形状も検出する。またステップ236において、色要素分離部18は、動画像取得部12によって取得されたN番目のフレームの画像を複数の色要素に分離する。
また、合成対象領域検出部16によって検出された合成対象領域の位置、サイズ及び形状はマスク動画像取得部122に供給される。次のステップ312において、マスク動画像取得部122は、例えば記憶部66等に予め記憶されたマスク動画像の中から、処理対象のN番目のフレームの画像に合成するマスク画像を取得する。なお、マスク動画像取得部122は、マスク画像の取得にあたり、合成対象領域検出部16によって検出された合成対象領域の形状に合致したフレーム形状のマスク動画像を選択的に取得する。
なお、次のステップ240以降の処理は、第3実施形態で説明した色要素分離処理(図15)と同一であるので説明を省略する。
また、第5実施形態に係る画像処理装置300の画像合成部22B〜26Bの各々では、N番目のフレームの特定色要素の画像が色要素分離部18から入力される度に、境界差分演算部34及び選択部38により、図25に示す境界差分演算処理が実行される。以下、図25に示す境界差分演算処理について、第1実施形態で説明した境界差分演算処理(図4)と異なる部分を主に説明する。
境界差分演算処理のステップ170において、境界差分演算部34は、変数Nの値が2以上か否か判定する。変数Nの値が2以上の場合、ステップ170の判定が肯定されてステップ314に移行する。ステップ314において、境界差分演算部34は、色要素分離部18より入力されたN番目のフレームの特定色要素の画像から、合成対象領域検出部16によって検出された合成対象領域のデータを取り出す。これにより、図30に符号「320」を付して示す領域のデータが取り出される。
また、ステップ316において、境界差分演算部34は、前フレーム最終結果画像保持部304に保持されているN−1番目のフレームの特定色要素の最終結果画像から、N番目のフレームの合成対象領域と同一形状の領域のデータを取り出す。これにより、N−1番目のフレームにおける合成対象領域の形状と無関係に、図30に符号「322」を付して示す領域のデータが取り出される。
ステップ318において、境界差分演算部34は、N番目のフレームの画像の合成対象領域の境界と、N−1番目のフレームの最終結果画像におけるN番目のフレームの合成対象領域と同一形状の領域の境界と、の画素値の差分(境界差分γD(x,y))を演算する。なお、境界差分γD(x,y)は、N番目のフレームの画像の合成対象領域の境界をγT(x,y)、N−1番目のフレームの最終結果画像におけるN番目のフレームの合成対象領域と同一形状の領域の境界をγFN−1(x,y)とすると、次の(24)式で演算できる。
γD(x,y)=γT(x,y)−γFN−1(x,y) …(24)
上記の(24)式の演算を行うことにより、図30に符号「324」を付して示す境界画素差分画像(境界差分γD(x,y))のデータが得られる。
なお、次のステップ180以降の処理は、第1実施形態で説明した境界差分演算処理(図4)と同一であるので説明を省略する。
続いて、第5実施形態に係る勾配条件画像演算部302によって実行される勾配条件画像演算処理について、図26を参照して説明する。
勾配条件画像演算処理のステップ350において、勾配条件画像演算部302は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ350の判定が否定されて勾配条件画像演算処理を終了する。この場合、境界差分演算部34の指示により、N(=1)番目のフレームの画像に対応する特定色要素の合成結果画像が、特定色要素のマスク画像に基づいて生成される。
また、変数Nの値が2以上になると、ステップ350の判定が肯定されてステップ352に移行する。ステップ352において、勾配条件画像演算部302は、前フレーム最終結果画像保持部304に保持されているN−1番目のフレームの特定色要素の最終結果画像から、N番目のフレームの合成対象領域と同一形状の領域のデータを取り出す。これにより、N−1番目のフレームにおける合成対象領域の形状と無関係に、図30に符号「322」を付して示す領域のデータが取り出される。また、次のステップ354において、勾配条件画像演算部302は、ステップ352で取り出した領域の画像に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像(二次微分値)を演算する。これにより、図30に符号「326」を付して示す画像(ラプラシアンフィルタ適用結果LFN−1)が生成される。
ステップ356において、勾配条件画像演算部302は、色要素分離部20から入力されたN番目のフレームに対応する特定色要素のマスク画像のデータを取り出す。図30では、ステップ356でデータが取り出されるマスク画像に符号「328」を付して示す。また、次のステップ358において、勾配条件画像演算部302は、N番目のフレームに対応する特定色要素のマスク画像に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像(二次微分値)を演算する。これにより、図30に符号「330」を付して示す画像(ラプラシアンフィルタ適用結果LS)が生成される。
次のステップ360において、勾配条件画像演算部302は、N番目のフレームに対応する特定色要素の画像のラプラシアンフィルタ適用結果LSNとN−1番目のフレームに対応する特定色要素の画像のラプラシアンフィルタ適用結果LFN-1との差分を演算する。ラプラシアンフィルタ適用結果の差分LSdは以下の(25)式で算出できる。
LSd(x,y)=LS(x,y)−LFN−1(x,y) …(25)
上記の(25)式の演算を行うことで、図30に符号「332」を付して示す差分画像(ラプラシアンフィルタ適用結果の差分LSd)が得られる。
次のステップ362において、勾配条件画像演算部302は、複数の差分画像演算部40のうち、特定色要素のラプラシアンフィルタ適用結果の差分LSdを出力する何れか1つの差分画像演算部40を選択する。そしてステップ364において、勾配条件画像演算部302は、特定色要素のラプラシアンフィルタ適用結果の差分LSdを、ステップ362で選択した差分画像演算部40へ出力し、勾配条件画像演算処理を終了する。
画像処理装置300の画像合成部22B〜26Bの各々では、N番目のフレームの特定色要素の境界差分γD(x,y)とラプラシアンフィルタ適用結果の差分LSdが入力される度に、差分画像演算部40により、図27に示す差分画像演算処理が実行される。ステップ370において、差分画像演算部40は、入力された境界差分γD(x,y)を境界条件(境界差分の画素値を保存する条件)、ラプラシアンフィルタ適用結果の差分LSdを勾配条件として、特定色要素の差分画像D(x,y)を演算する。この演算は、境界差分γD(x,y)を境界条件とし、マスク画像のラプラシアンフィルタ適用値の差分LSd(x,y)を勾配情報としてポアソン方程式を解くことで算出できる。算出式は前出の(21)式と同じである。この演算により、図30に符号「334」を付して示す差分画像(差分画像D(x,y))が得られる。
次のステップ372において、差分画像演算部40は、演算した特定色要素の差分画像D(x,y)を合成結果画像生成部46へ出力し、差分画像演算処理を終了する。
また、画像処理装置300の画像合成部22B〜26Bの各々では、合成結果画像生成部46により、図28に示す合成結果画像生成処理が行われる。以下、図28に示す合成結果画像生成処理について、第1実施形態で説明した合成結果画像生成処理(図6)と異なる部分を主に説明する。
第5実施形態に係る合成結果画像生成処理では、ステップ200の判定が肯定された場合にステップ380へ移行する。ステップ380において、合成結果画像生成部46は、前フレーム最終結果画像保持部304に保持されているN−1番目のフレームの特定色要素の最終結果画像から、N番目のフレームの合成対象領域と同一形状の領域のデータFN−1を取り出す。
またステップ382において、合成結果画像生成部46は、N−1番目のフレームの最終結果画像から取り出したN番目のフレームの合成対象領域と同一形状の領域の画像に、切替部42から入力されたN番目のフレームの画像の差分画像D(x,y)を加算する。この加算は(22)式の演算と同じであり、この演算により、N番目のフレームの画像に対応する特定色要素の合成結果画像F(図30に符号「336」を付して示す画像)が生成される。
なお、次のステップ208以降の処理は、第1実施形態で説明した合成結果画像生成処理(図6)と同一であるので説明を省略する。
このように、本第5実施形態では、N番目のフレームの合成対象領域の形状を検出し、N−1番目のフレームの最終結果画像から、N番目のフレームの合成対象領域と同一形状の領域FN−1を取り出している。また、N−1番目のフレームの最終結果画像から取り出したN番目のフレームの合成対象領域と同一形状の領域FN−1を用いて、境界差分γD(x,y)やラプラシアンフィルタ適用結果の差分LSd、差分画像D(x,y)を演算している。これにより、動画像の各フレーム中の合成対象領域の形状の変化に応じて、合成対象領域の画像と置き換えられる差分画像D(x,y)の形状が変更される。従って、図29に最終結果画像として示すように、動画像の各フレーム中の合成対象領域の形状の変化に応じた自然な動画像が得られる。
また、第3実施形態と同様に、差分画像Dは、フレーム間の境界画素の差分γDが小さく、またマスク画像間の差が小さいほど差が0に近い画像となるので、初期値を0として計算したときに計算の収束が速い。従って、本第5実施形態においても、第3実施形態と同様に、差分画像演算部40による差分画像Dの演算は短時間で完了する。
〔第6実施形態〕
次に開示の技術の第6実施形態を説明する。なお、本第6実施形態は第5実施形態と同一の構成であるので、各部分に同一の符号を付して構成の説明を省略し、以下、本第6実施形態の作用を説明する。
本第6実施形態では、第5実施形態で説明した勾配条件画像演算処理(図26)に代えて、図31に示す勾配条件画像演算処理を行う。第6実施形態に係る勾配条件画像演算処理のステップ350において、勾配条件画像演算部302は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ350の判定が否定されてマスク画像差分演算処理を終了する。
また、変数Nの値が2以上になると、ステップ350の判定が肯定されてステップ352に移行する。ステップ352において、勾配条件画像演算部302は、前フレーム最終結果画像保持部304に保持されているN−1番目のフレームの特定色要素の最終結果画像から、N番目のフレームの合成対象領域と同一形状の領域のデータを取り出す。これにより、図32に符号「322」を付して示す領域のデータが取り出される。また、次のステップ356において、勾配条件画像演算部302は、色要素分離部20から入力されたN番目のフレームに対応する特定色要素のマスク画像のデータを取り出す。図32では、ステップ356でデータが取り出されるマスク画像に符号「328」を付して示す。
次のステップ380において、勾配条件画像演算部302は、N−1番目のフレームの特定色要素の最終結果画像から取り出したN番目のフレームの合成対象領域と同一形状の領域の画像と、N番目のフレームに対応するマスク画像と、の差分を演算する。これにより、図32に符号「338」を付して示す差分画像が得られる。またステップ382において、勾配条件画像演算部302は、ステップ380の演算で得られた差分画像に対してラプラシアンフィルタを適用し、ラプラシアンフィルタ適用画像(二次微分値)LSdを演算する(次の(26)式を参照)。
LSd(x,y)=L(S(x,y)−FN−1(x,y)) …(26)
これにより、図32に符号「340」を付して示す画像(ラプラシアンフィルタ適用結果)が生成される。
次のステップ362以降の処理は、第5実施形態で説明した勾配条件画像演算処理と同じであるので、説明を省略する。
前述の第5実施形態では、N−1番目のフレームの最終結果画像から取り出したN番目のフレームの合成対象領域と同一形状の領域の画像と、N番目のフレームに対応するマスク画像について、ラプラシアンフィルタ適用値を各々演算した後に差分を演算していた。これに対して第6実施形態では、図32に示すように、N−1番目のフレームの最終結果画像から取り出したN番目のフレームの合成対象領域と同一形状の領域の画像と、N番目のフレームに対応する特定色要素のマスク画像と、の差分画像を演算する。そして、演算した差分画像に対してラプラシアンフィルタ適用値を演算している。これにより、第5実施形態で説明した態様に比較してラプラシアンフィルタ適用値の演算回数が少なくなり、演算負荷を軽減することができる。
なお、第5,第6実施形態は、動画像中の連続する2フレーム間で合成対象領域の境界形状が変化していることを前提としている。これに対し、動画像中の連続する2フレーム間で合成対象領域の境界形状が変化しない場合は、境界差分γD(x,y)として、N−1番目のフレームの元画像TN−1の合成対象領域と、N番目のフレームの元画像Tの合成対象領域との境界差分を演算してもよい。また同様に、差分画像D(x,y)として、N−1番目のフレームのマスク画像のラプラシアンフィルタ適用結果LSN−1と、N番目のフレームのマスク画像のラプラシアンフィルタ適用結果LSとの差分を演算してもよい。この場合、(24)式に代えて(11)式、(25)式に代えて(20)式の演算を行えばよい。
また、動画像中の連続する2フレーム間で合成対象領域の境界形状が変化しない場合、連続する2フレームのマスク画像のラプラシアンフィルタ適用結果の差分を事前に演算して保持しておき、必要時に読み出して用いるようにしてもよい。この場合、演算負荷を更に軽減することができる。
更に、上記では動画像中に被写体として写っている人物のプライバシーの保護を目的として、動画像中に被写体として写っている人物以外の他の人の顔を表す画像や、複数の人の平均的な顔を表す画像等をマスク画像として用いる態様を説明した。しかし、開示の技術の用途はプライバシーの保護に限られるものではなく、例えばTV電話の動画像等において、人物などの良い表情の画像を、そうでない画像に合成するベストショット合成に適用することも可能である。ベストショット合成の場合は、自動又は手動にて任意の人物のベストショットがマスク画像(動画像)として切り出され、自動又は手動にて合成する任意フレームの任意箇所が指定される。これにより、任意フレームの任意箇所に対し、切り出されたマスク画像の合成が行われることになる。
また、上記では処理対象の動画像としてカラー動画像を適用した態様を説明したが、これに限定されるものではなく、処理対象の動画像としてモノクロの動画像を適用することも可能である。
また、前出の(1),(4),(14),(19)式では、演算対象の画素に対して上下左右に位置する4画素の値を用いてラプラシアンフィルタ適用値を演算しているが、より多数の画素(例えば周囲8画素)の値を用いて演算してもよい。また、ラプラシアンフィルタに代えて、二次微分に相当する値が得られる他のフィルタを適用してもよい。
更に、上記では合成対象領域として人物の顔に相当する顔領域を適用した態様を説明したが、これに限定されるものではなく、顔領域以外の他の領域を適用してもよい。例えばプライバシーの保護が目的であれば、合成対象領域として顔領域のうちの眼部領域を適用し、当該合成領域に異なる人物の眼部を表すマスク画像を合成することも、個人の特定を阻止することに有効であるので好ましい。合成対象領域として眼部領域を適用した場合、マスク画像としては、動画像中に被写体として写っている人物以外の他の人の眼部領域を表す画像や、複数の人の平均的な眼部領域を表す画像等が設定される。
また、上記では開示の技術を、動画像の各フレーム中に存在する人物に対応する合成対象領域に、プライバシーの保護を図る目的で設定したマスク画像を合成する態様を説明したが、これに限られるものではない。開示の技術は、マスク画像以外の一般的な画像の合成に適用することも可能であり、合成対象領域は動画像の各フレーム中に存在する人物に対応する領域に限られるものではなく、合成画像もプライバシーの保護を図る目的で設定したマスク画像に限られない。また、合成画像は静止画像に限られるものではなく、合成画像として動画像を適用することも可能である。
また、上記では開示の技術に係る画像処理プログラムの一例であるマスク合成プログラムが記憶部66に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る画像処理プログラムは、CD−ROMやDVD−ROM等の記録媒体に記録されている形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算し、
差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成し、
前記N−1番目のフレームに対して求めた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える
ことを含む画像処理方法。
(付記2)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
前記差分画像の生成において、前記差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部が、前記所定の勾配条件として前記境界の内部の領域の二次微分値が0に近づくように前記差分画像を生成する付記1記載の画像処理方法。
(付記3)
前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることを、前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることの合計処理時間内に入力される前記動画像のフレーム数分だけ並列に処理する付記2記載の画像処理方法。
(付記4)
前記合成結果画像を求めて前記合成対象領域の画像と置き換えることで求めた前記N番目のフレームに対する前記合成結果画像を二次微分した画像と、前記合成画像を二次微分した画像と、の差分を誤差画像として求め、
前記差分画像の生成は、前記N番目のフレームに対する前記合成結果画像から前記誤差画像を求めた場合、N+1番目のフレームに対応する差分画像として、前記境界の内部の領域の二次微分値が前記誤差画像に合致する差分画像を生成する付記2又は付記3記載の画像処理方法。
(付記5)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームに合成する合成画像の二次微分値と、の差分を勾配条件画像として求め、
前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行う付記1記載の画像処理方法。
(付記6)
動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームに合成する合成画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める付記5記載の画像処理方法。
(付記7)
前記勾配条件画像を予め求めて保持しておき、
前記合成結果画像を求める際に、前記勾配条件画像を読み出して用いる付記5又は付記6記載の画像処理方法。
(付記8)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する第1の境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域に合成画像を合成した結果に相当する合成結果画像を前記N−1番目のフレーム中の前記合成対象領域の画像と置き換えた最終結果画像のうち、前記第1の境界と同一形状の第2の境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像の二次微分値と、の差分を勾配条件画像として求め、
前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行い、
前記N−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える付記1記載の画像処理方法。
(付記9)
動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める付記8記載の画像処理方法。
(付記10)
前記差分値の演算及び前記差分画像の生成を、前記動画像の2番目以降のフレームに対して行い、前記合成結果画像を求めて前記合成対象領域の画像と置き換える際に、前記動画像の前記1番目のフレームに対しては、境界の画素値が前記動画像の1番目のフレーム中に存在する合成対象領域の境界の画素値のまま維持され、前記境界の内部の領域の二次微分値が前記合成画像の二次微分値に合致する前記合成結果画像を生成する付記1〜付記9の何れか1項記載の画像処理方法。
(付記11)
前記動画像は前記各フレームが各々カラー画像であり、前記差分値の演算は各色要素毎に前記差分値を演算し、前記差分画像の生成は各色要素毎に前記差分画像を生成し、前記画像合成結果画像の生成は、各色要素毎に前記合成結果画像を生成し、生成した各色要素毎の前記合成結果画像を前記N番目のフレームの各色要素毎の画像中の前記合成対象領域の画像と各々置き換える付記1〜付記10の何れか1項記載の画像処理方法。
(付記12)
前記合成対象領域は人物の顔又は顔の一部分に対応する領域である付記1〜付記11の何れか1項記載の画像処理方法。
(付記13)
コンピュータに、
動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算し、
差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成し、
前記N−1番目のフレームに対して求めた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える
ことを含む処理を実行させるための画像処理プログラム。
(付記14)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
前記差分画像の生成において、前記差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部が、前記所定の勾配条件として前記境界の内部の領域の二次微分値が0に近づくように前記差分画像を生成する付記13記載の画像処理プログラム。
(付記15)
前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることを、前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることの合計処理時間内に入力される前記動画像のフレーム数分だけ並列に処理する付記14記載の画像処理プログラム。
(付記16)
前記合成結果画像を求めて前記合成対象領域の画像と置き換えることで求めた前記N番目のフレームに対する前記合成結果画像を二次微分した画像と、前記合成画像を二次微分した画像と、の差分を誤差画像として求め、
前記差分画像の生成は、前記N番目のフレームに対する前記合成結果画像から前記誤差画像を求めた場合、N+1番目のフレームに対応する差分画像として、前記境界の内部の領域の二次微分値が前記誤差画像に合致する差分画像を生成する付記14又は付記15記載の画像処理プログラム。
(付記17)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームに合成する合成画像の二次微分値と、の差分を勾配条件画像として求め、
前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行う付記13記載の画像処理プログラム。
(付記18)
動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームに合成する合成画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める付記17記載の画像処理プログラム。
(付記19)
前記勾配条件画像を予め求めて保持しておき、
前記合成結果画像を求める際に、前記勾配条件画像を読み出して用いる付記17又は付記18記載の画像処理プログラム。
(付記20)
前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する第1の境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域に合成画像を合成した結果に相当する合成結果画像を前記N−1番目のフレーム中の前記合成対象領域の画像と置き換えた最終結果画像のうち、前記第1の境界と同一形状の第2の境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像の二次微分値と、の差分を勾配条件画像として求め、
前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行い、
前記N−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える付記13の何れか1項記載の画像処理プログラム。
(付記21)
動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める請求項20記載の画像処理プログラム。
(付記22)
前記差分値の演算及び前記差分画像の生成を、前記動画像の2番目以降のフレームに対して行い、
前記合成結果画像を求めて前記合成対象領域の画像と置き換える際に、前記動画像の前記1番目のフレームに対しては、境界の画素値が前記動画像の1番目のフレーム中に存在する合成対象領域の境界の画素値のまま維持され、前記境界の内部の領域の二次微分値が前記合成画像の二次微分値に合致する前記合成結果画像を生成する付記13〜付記21の何れか1項記載の画像処理プログラム。
(付記23)
前記動画像は前記各フレームが各々カラー画像であり、
前記差分値の演算は各色要素毎に前記差分値を演算し、
前記差分画像の生成は各色要素毎に前記差分画像を生成し、
前記画像合成結果画像の生成は、各色要素毎に前記合成結果画像を生成し、
生成した各色要素毎の前記合成結果画像を前記N番目のフレームの各色要素毎の画像中の前記合成対象領域の画像と各々置き換える付記13〜付記22の何れか1項記載の画像処理プログラム。
(付記24)
前記合成対象領域は人物の顔又は顔の一部分に対応する領域である付記13〜付記23の何れか1項記載の画像処理プログラム。
(付記25)
動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算する差分値演算部と、
差分画像の境界の画素値が前記差分値演算部によって演算された前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成する差分画像生成部と、
前記N−1番目のフレームに対して求められた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、前記差分画像生成部で生成された前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える画像合成部と、
を含む画像処理装置。
(付記26)
前記差分値演算部は、前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
前記差分画像生成部は、前記差分画像の生成において、前記差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部が、前記所定の勾配条件として前記差分画像の境界の内部の領域の二次微分値が0に近づくように前記差分画像を生成する付記25記載の画像処理装置。
(付記27)
前記差分値演算部が前記差分値を演算し、前記差分画像生成部が前記差分画像を生成し、前記画像合成部が前記合成結果画像を求めて前記合成対象領域の画像と置き換えることを、前記差分値演算部が前記差分値を演算し、前記差分画像生成部が前記差分画像を生成し、前記画像合成部が前記合成結果画像を求めて前記合成対象領域の画像と置き換えることの合計処理時間内に入力される前記動画像のフレーム数分だけ並列に処理する付記26記載の画像処理装置。
(付記28)
前記画像合成部によって求められた前記N番目のフレームに対する前記合成結果画像を二次微分した画像と、前記合成画像を二次微分した画像と、の差分を誤差画像として求める誤差演算部を更に備え、
前記差分画像生成部は、前記誤差演算部により前記N番目のフレームに対する前記合成結果画像から前記誤差画像が求められた場合、N+1番目のフレームに対応する差分画像として、前記境界の内部の領域の二次微分値が前記誤差画像に合致する差分画像を生成する付記26又は付記27記載の画像処理装置。
(付記29)
前記差分値演算部は、前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームに合成する合成画像の二次微分値と、の差分を勾配条件画像として求める勾配条件画像演算部を更に備え、
前記差分画像生成部は、前記差分画像の生成を、境界の画素値が前記差分値演算部によって演算された前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として、前記勾配条件画像演算部によって求められた前記勾配条件画像に合致するように行う付記25記載の画像処理装置。
(付記30)
前記勾配条件画像演算部は、動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームに合成する合成画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める付記29記載の画像処理装置。
(付記31)
前記勾配条件画像演算部は、前記勾配条件画像を予め求めて保持しておき、
前記画像合成部は、前記合成結果画像を求める際に、前記勾配条件画像演算部に保持されている前記勾配条件画像を読み出して用いる付記29又は付記30記載の画像処理装置。
(付記32)
前記差分値演算部は、前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する第1の境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域に合成画像を合成した結果に相当する合成結果画像を前記N−1番目のフレーム中の前記合成対象領域の画像と置き換えた最終結果画像のうち、前記第1の境界と同一形状の第2の境界と、の差分値を演算し、
動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像の二次微分値と、の差分を勾配条件画像として求める勾配条件画像演算部を更に備え、
前記差分画像生成部は、前記差分画像の生成を、境界の画素値が前記差分値演算部によって演算された前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として、前記勾配条件画像演算部によって求められた前記勾配条件画像に合致するように行い、
前記画像合成部は、前記N−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える付記25記載の画像処理装置。
(付記33)
前記勾配条件画像演算部は、動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める付記32記載の画像処理装置。
(付記34)
前記差分値演算部による前記差分値の演算及び前記差分画像生成部による前記差分画像の生成は、前記動画像の2番目以降のフレームに対して行われ、
前記画像合成部は、前記動画像の前記1番目のフレームに対しては、境界の画素値が前記動画像の1番目のフレーム中に存在する合成対象領域の境界の画素値のまま維持され、前記境界の内部の領域の二次微分値が前記合成画像の二次微分値に合致する前記合成結果画像を生成する付記25〜付記33の何れか1項記載の画像処理装置。
(付記35)
前記動画像は前記各フレームが各々カラー画像であり、
前記差分値演算部は各色要素毎に前記差分値を演算し、
前記差分画像生成部は各色要素毎に前記差分画像を生成し、
前記画像合成部は、各色要素毎に前記合成結果画像を生成し、生成した各色要素毎の前記合成結果画像を前記N番目のフレームの各色要素毎の画像中の前記合成対象領域の画像と各々置き換える付記25〜付記34の何れか1項記載の画像処理装置。
(付記36)
前記合成対象領域は人物の顔又は顔の一部分に対応する領域である付記25〜付記35の何れか1項記載の画像処理装置。
10,50 画像処理装置
12 動画像取得部
14 マスク画像取得部
16 合成対象領域検出部
18,20 色要素分離部
22 画像合成部
28 色要素合成部
30 動画像出力部
32 前フレーム画像保持部
34 境界差分演算部
36 マスク画像保持部
38 選択部
40 差分画像演算部
42 切替部
44 前フレーム合成結果画像保持部
46 合成結果画像生成部
52,54 二次微分画像演算部
56 誤差演算部
60 コンピュータ
62 CPU
64 メモリ
66 記憶部
76 マスク合成プログラム

Claims (14)

  1. 動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算し、
    差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成し、
    前記N−1番目のフレームに対して求めた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える
    ことを含む画像処理方法。
  2. 前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
    前記差分画像の生成において、前記差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部が、前記所定の勾配条件として前記差分画像の境界の内部の領域の二次微分値が0に近づくように前記差分画像を生成する請求項1記載の画像処理方法。
  3. 前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることを、前記差分値を演算し、前記差分画像を生成し、前記合成結果画像を求めて前記合成対象領域の画像と置き換えることの合計処理時間内に入力される前記動画像のフレーム数分だけ並列に処理する請求項2記載の画像処理方法。
  4. 前記合成結果画像を求めて前記合成対象領域の画像と置き換えることで求めた前記N番目のフレームに対する前記合成結果画像を二次微分した画像と、前記合成画像を二次微分した画像と、の差分を誤差画像として求め、
    前記差分画像の生成は、前記N番目のフレームに対する前記合成結果画像から前記誤差画像を求めた場合、N+1番目のフレームに対応する差分画像として、前記境界の内部の領域の二次微分値が前記誤差画像に合致する差分画像を生成する請求項2又は請求項3記載の画像処理方法。
  5. 前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域の外縁に相当する境界と、の差分値を演算し、
    動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームに合成する合成画像の二次微分値と、の差分を勾配条件画像として求め、
    前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行う請求項1記載の画像処理方法。
  6. 動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームに合成する合成画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める請求項5記載の画像処理方法。
  7. 前記勾配条件画像を予め求めて保持しておき、
    前記合成結果画像を求める際に、前記勾配条件画像を読み出して用いる請求項5又は請求項6記載の画像処理方法。
  8. 前記差分値として、動画像のN番目のフレーム中に存在する合成対象領域の外縁に相当する第1の境界と、前記動画像のN−1番目のフレーム中に存在する合成対象領域に合成画像を合成した結果に相当する合成結果画像を前記N−1番目のフレーム中の前記合成対象領域の画像と置き換えた最終結果画像のうち、前記第1の境界と同一形状の第2の境界と、の差分値を演算し、
    動画像のN番目のフレームに合成する合成画像の二次微分値と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像の二次微分値と、の差分を勾配条件画像として求め、
    前記差分画像の生成を、境界の画素値が演算した前記差分値を維持しながら、前記境界の内部が、前記所定の勾配条件として前記勾配条件画像に合致するように行い、
    前記N−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える請求項1記載の画像処理方法。
  9. 動画像のN番目のフレームに合成する合成画像と、前記動画像のN−1番目のフレームの前記最終結果画像のうち前記第2の境界内の画像と、の差分を求め、求めた差分の二次微分値を、前記勾配条件画像として求める請求項8記載の画像処理方法。
  10. 前記差分値の演算及び前記差分画像の生成を、前記動画像の2番目以降のフレームに対して行い、
    前記合成結果画像を求めて前記合成対象領域の画像と置き換える際に、前記動画像の前記1番目のフレームに対しては、境界の画素値が前記動画像の1番目のフレーム中に存在する合成対象領域の境界の画素値のまま維持され、前記境界の内部の領域の二次微分値が前記合成画像の二次微分値に合致する前記合成結果画像を生成する請求項1〜請求項9の何れか1項記載の画像処理方法。
  11. 前記動画像は前記各フレームが各々カラー画像であり、
    前記差分値の演算は各色要素毎に前記差分値を演算し、
    前記差分画像の生成は各色要素毎に前記差分画像を生成し、
    前記画像合成結果画像の生成は、各色要素毎に前記合成結果画像を生成し、
    生成した各色要素毎の前記合成結果画像を前記N番目のフレームの各色要素毎の画像中の前記合成対象領域の画像と各々置き換える請求項1〜請求項10の何れか1項記載の画像処理方法。
  12. 前記合成対象領域は人物の顔又は顔の一部分に対応する領域である請求項1〜請求項11の何れか1項記載の画像処理方法。
  13. コンピュータに、
    動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算し、
    差分画像の境界の画素値が演算した前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成し、
    前記N−1番目のフレームに対して求めた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、生成した前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える
    ことを含む処理を実行させるための画像処理プログラム。
  14. 動画像のN番目のフレームに対応する合成対象領域の外縁に相当する境界と、前記動画像のN−1番目のフレームに対応する合成対象領域の外縁に相当する境界と、の差分値を演算する差分値演算部と、
    差分画像の境界の画素値が前記差分値演算部によって演算された前記差分値を維持しながら、前記差分画像の境界の内部の領域が所定の勾配条件に合致するように前記差分画像を生成する差分画像生成部と、
    前記N−1番目のフレームに対して求められた、前記N−1番目のフレーム中の前記合成対象領域に合成画像を合成した結果に相当する合成結果画像に、前記差分画像生成部で生成された前記差分画像を加算した画像を、前記N番目のフレームに対する前記合成結果画像として求め、求めた前記N番目のフレームに対する前記合成結果画像を、前記N番目のフレーム中の前記合成対象領域の画像と置き換える画像合成部と、
    を含む画像処理装置。
JP2012251237A 2012-03-14 2012-11-15 画像処理方法、プログラム及び装置 Expired - Fee Related JP5949481B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012251237A JP5949481B2 (ja) 2012-03-14 2012-11-15 画像処理方法、プログラム及び装置
US14/067,379 US9836864B2 (en) 2012-03-14 2013-10-30 Image processing method, recording medium and apparatus for replacing face components

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012057184 2012-03-14
JP2012057184 2012-03-14
JP2012251237A JP5949481B2 (ja) 2012-03-14 2012-11-15 画像処理方法、プログラム及び装置

Publications (2)

Publication Number Publication Date
JP2013218660A true JP2013218660A (ja) 2013-10-24
JP5949481B2 JP5949481B2 (ja) 2016-07-06

Family

ID=49590642

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012251237A Expired - Fee Related JP5949481B2 (ja) 2012-03-14 2012-11-15 画像処理方法、プログラム及び装置

Country Status (2)

Country Link
US (1) US9836864B2 (ja)
JP (1) JP5949481B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017077680A1 (ja) * 2015-11-05 2017-05-11 日本電気株式会社 画像処理システム、画像処理方法、および画像処理プログラム記録媒体
CN110660088A (zh) * 2018-06-30 2020-01-07 华为技术有限公司 一种图像处理的方法和设备

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101948692B1 (ko) * 2012-10-09 2019-04-25 삼성전자주식회사 촬영 장치 및 이미지 합성 방법
US9576341B2 (en) * 2013-10-30 2017-02-21 Ricoh Imaging Company, Ltd. Image-processing system, imaging apparatus and image-processing method
JP6790752B2 (ja) * 2015-11-20 2020-11-25 株式会社リコー 画像読取装置、画像形成装置および画像読取方法
US10769828B2 (en) * 2017-07-13 2020-09-08 Nimai C. Malle Automated photo collages
CN108234867B (zh) * 2017-12-21 2020-06-30 维沃移动通信有限公司 图像处理方法及移动终端
CN108389217A (zh) * 2018-01-31 2018-08-10 华东理工大学 一种基于梯度域混合的视频合成方法
CN108737730A (zh) * 2018-05-25 2018-11-02 优酷网络技术(北京)有限公司 图像合成方法及装置
CN113034481A (zh) * 2021-04-02 2021-06-25 广州绿怡信息科技有限公司 设备图像模糊检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204466A (ja) * 2007-02-03 2008-09-04 Arcsoft Inc 顔面構成要素の交換
JP2013150203A (ja) * 2012-01-20 2013-08-01 Fujitsu Ltd 画像処理プログラム、装置及び方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997000582A1 (en) 1995-06-16 1997-01-03 Princeton Video Image, Inc. System and method of real time insertions into video using adaptive occlusion with a synthetic reference image
JP2002056381A (ja) 2000-08-11 2002-02-20 Fujitsu Ltd 道路状況画像処理装置
US7082211B2 (en) * 2002-05-31 2006-07-25 Eastman Kodak Company Method and system for enhancing portrait images
JP4649640B2 (ja) 2004-11-18 2011-03-16 学校法人慶應義塾 画像処理方法、画像処理装置、及びコンテンツ作成システム
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US7787664B2 (en) * 2006-03-29 2010-08-31 Eastman Kodak Company Recomposing photographs from multiple frames
US8265410B1 (en) * 2009-07-11 2012-09-11 Luxand, Inc. Automatic correction and enhancement of facial images
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP2011134204A (ja) * 2009-12-25 2011-07-07 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP2011176748A (ja) * 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
EP2596475B1 (en) * 2010-07-19 2019-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204466A (ja) * 2007-02-03 2008-09-04 Arcsoft Inc 顔面構成要素の交換
JP2013150203A (ja) * 2012-01-20 2013-08-01 Fujitsu Ltd 画像処理プログラム、装置及び方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017077680A1 (ja) * 2015-11-05 2017-05-11 日本電気株式会社 画像処理システム、画像処理方法、および画像処理プログラム記録媒体
JPWO2017077680A1 (ja) * 2015-11-05 2018-08-23 日本電気株式会社 画像処理システム、画像処理方法、および画像処理プログラム
US10699455B2 (en) 2015-11-05 2020-06-30 Nec Corporation Image processing system, image processing method, and image processing program recording medium
CN110660088A (zh) * 2018-06-30 2020-01-07 华为技术有限公司 一种图像处理的方法和设备
CN110660088B (zh) * 2018-06-30 2023-08-22 华为技术有限公司 一种图像处理的方法和设备
US11798147B2 (en) 2018-06-30 2023-10-24 Huawei Technologies Co., Ltd. Image processing method and device

Also Published As

Publication number Publication date
US9836864B2 (en) 2017-12-05
US20140133779A1 (en) 2014-05-15
JP5949481B2 (ja) 2016-07-06

Similar Documents

Publication Publication Date Title
JP5949481B2 (ja) 画像処理方法、プログラム及び装置
KR102142567B1 (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
US20150319373A1 (en) Method and device to compose an image by eliminating one or more moving objects
KR20150088656A (ko) 참조 영역 분할을 이용한 인페인팅 장치 및 방법
KR20150112535A (ko) 비디오 대표 이미지 관리 장치 및 방법
JP5807555B2 (ja) 画像処理プログラム、装置及び方法
KR101362183B1 (ko) 카메라 자세 기반의 깊이 영상 노이즈 제거 장치 및 방법
KR101341616B1 (ko) 세부정보 추정에 의한 영상 개선 장치 및 방법
KR101781942B1 (ko) 홀 채움 방법, 이를 수행하기 위한 기록매체 및 장치
CN113724143A (zh) 用于图像修复的方法和装置
JP5799859B2 (ja) 画像処理方法、プログラム及び装置
Koochari et al. Exemplar-based video inpainting with large patches
JP5987961B2 (ja) 画像処理プログラム、装置及び方法
KR20100088282A (ko) 영상 데이터 인페인팅 방법 및 장치
Mahajan et al. Image inpainting techniques for removal of object
CN113688753A (zh) 静态人脸动态化方法、系统、计算机设备及可读存储介质
KR101893142B1 (ko) 객체 영역 추출 방법 및 그 장치
JP5838874B2 (ja) 画像処理方法、装置及びプログラム
JP2011018199A (ja) 画像処理装置および方法、並びにプログラム
JP2002095012A (ja) ステレオ画像生成装置およびその方法
KR101607948B1 (ko) 영상 처리 장치 및 방법
JP5430492B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
Krishnan et al. Enhanced Defogging System on Foggy Digital Color Images
RU2576490C1 (ru) Способ гибридного ретуширования фона для преобразования 2d в 3d
Patel et al. Object Remove Using Structure Oriented In Image Inpainting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees