JP5807555B2 - 画像処理プログラム、装置及び方法 - Google Patents

画像処理プログラム、装置及び方法 Download PDF

Info

Publication number
JP5807555B2
JP5807555B2 JP2012010168A JP2012010168A JP5807555B2 JP 5807555 B2 JP5807555 B2 JP 5807555B2 JP 2012010168 A JP2012010168 A JP 2012010168A JP 2012010168 A JP2012010168 A JP 2012010168A JP 5807555 B2 JP5807555 B2 JP 5807555B2
Authority
JP
Japan
Prior art keywords
image
frame
synthesis
target
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012010168A
Other languages
English (en)
Other versions
JP2013150203A (ja
Inventor
多田 厚子
厚子 多田
涼一 舟橋
涼一 舟橋
田中 竜太
竜太 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012010168A priority Critical patent/JP5807555B2/ja
Priority to US13/675,393 priority patent/US8902367B2/en
Publication of JP2013150203A publication Critical patent/JP2013150203A/ja
Application granted granted Critical
Publication of JP5807555B2 publication Critical patent/JP5807555B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

開示の技術は画像処理プログラム、画像処理装置及び画像処理方法に関する。
画像に被写体として写っている人物のプライバシーを保護する技術として、前記人物を特定できないように、画像中の前記人物の顔領域にモザイクを掛けたり、前記人物の眼部領域を矩形状にマスクする画像処理が知られている。しかし、上記のような画像処理を行った画像は、一見しただけで加工されていることが明瞭に判別できる画像となり、画像の鑑賞者に不自然な印象を与える。
これを解決するため、マスク画像の勾配情報を用い、画像中の顔領域等の合成対象領域のエッジ(マスク画像との合成境界)を境界条件としてポアソン方程式を解くことで、合成対象領域にマスク画像を合成する技術が提案されている。この技術では、合成対象領域に任意の初期値画像を与え、初期値画像から、各画素の差分がマスク画像の勾配情報とエッジの境界条件を満たす値に収束するまで繰り返し演算を行うことで、合成対象領域にマスク画像を合成した結果に相当する合成結果画像が生成される。
なお、合成対象領域が顔領域である場合、マスク画像としては、例えば他の人物の顔を表す画像や、複数の人の平均的な顔を表す画像を適用することができる。また、初期値画像としては、例えば全面が白で塗り潰された画像や、全面が黒で塗り潰された画像などが用いられる。
特開2008−204466号公報
Patrick Perez,Michel Gangnet,Andrew Blake,"Poisson Image Editing",Microsoft Reserch UK,2003 P.Viola and M.Jones,"Rapid object detection using a boosted cascade of simple features,"in Proc.IEEE Computer Vision and Pattern Recognition,pp.I_511-I_518,2001
しかしながら、上記技術は、合成したマスク画像との合成境界が目立ちにくい自然な画像が得られるという利点があるものの、繰り返し演算における演算の繰り返し回数が非常に多く、演算量が非常に大きいという欠点も有している。一方、動画像に対して各フレーム中に存在する合成対象領域にマスク画像を各々合成しようとした場合、動画像の中で照明条件が変化すること等を考慮すると、各フレーム毎に合成結果画像を生成する必要がある。このため、上記技術を動画像の各フレームへのマスク画像の合成に適用した場合、演算量が膨大なものとなり、処理に長大な時間が掛かるという課題があった。
開示の技術は、動画像の各フレーム中に存在する合成対象領域に別の画像を各々合成する際の演算量を、合成後の画質を損なうことなく削減することが目的である。
開示の技術は、コンピュータに、以下の処理を含む画像処理を実行させる。すなわち、動画像の処理対象のフレーム中に存在する合成対象領域の画像及び合成画像に基づいて、ポアソン方程式を用いた繰り返し演算により、初期値画像から、前記合成対象領域に前記合成画像を合成した結果に相当する合成結果画像を求める。この合成結果画像は、前記処理対象のフレーム中に存在する前記合成対象領域の画像と置き換える画像として求められ、上記処理は、前記動画像の各フレームを処理対象として順に行われる。また、前記処理対象のフレームに対する前記繰り返し演算で用いる前記初期値画像として、前記動画像の各フレームのうち前記処理対象のフレームの前のフレームに対して求めた前記合成結果画像を設定する。
開示の技術は、動画像の各フレーム中に存在する合成対象領域に別の画像を各々合成する際の演算量を、合成後の画質を損なうことなく削減できる、という効果を有する。
第1実施形態に係る画像処理装置の機能ブロック図である。 画像処理装置として機能するコンピュータの概略ブロック図である。 第1実施形態に係るマスク合成処理の一例を示すフローチャートである。 ポアソン方程式を用いたマスク画像の合成を説明するための概略図である。 第1実施形態における初期値画像の設定を説明するための概略図である。 第2実施形態に係る画像処理装置の機能ブロック図である。 第2実施形態に係るマスク合成処理の一例を示すフローチャートである。 第2実施形態における初期値画像の設定を説明するための概略図である。 第3実施形態に係る画像処理装置の機能ブロック図である。 第3実施形態に係るマスク合成処理の一例を示すフローチャートである。 第3実施形態における初期値画像の設定を説明するための概略図である。 開示の技術の他の態様を説明するための概略図である。 実験結果の一例を示す線図である。
以下、図面を参照して開示の技術の実施形態の一例を詳細に説明する。
〔第1実施形態〕
図1には、本第1実施形態に係る画像処理装置10が示されている。画像処理装置10は、動画像の各フレーム中に存在する人物の顔領域等の合成対象領域に、予め設定されたマスク画像を合成することで、動画像中に被写体として写っている人物のプライバシーの保護を図るマスク合成処理を行う装置である。画像処理装置10は、動画像取得部12、マスク画像取得部14、合成対象領域検出部16、変化量演算部18、2個の色要素分離部20,22、3個の画像合成部24〜28、色要素合成部30及び動画像出力部32を備えている。また、画像合成部24〜28は、互いに同一の構成であり、フレーム画像保持部34、マスク画像保持部36、前フレーム合成結果画像保持部38、2個の位置・サイズ補正部40,42、初期値画像設定部44及びマスク画像合成部46を各々備えている。
動画像取得部12は、動画像を撮影する機能を備えた撮影装置によって被写体が撮影されることで得られた動画像を、撮影装置又は前記動画像を記憶する記憶部からフレーム単位で取得する。なお、動画像取得部12は上記の撮影装置を含んだ構成であってもよい。また、画像処理装置10自体が上記の撮影装置に内蔵されていてもよい。また、例えば撮影装置が、画像処理装置10として機能する情報機器と通信ケーブルを介して接続される場合、動画像取得部12は、前記情報機器に設けられ、通信ケーブルを介して撮影装置から画像データを受信することで取得する通信ユニットであってもよい。
マスク画像取得部14は、動画像の各フレーム中に存在する人物の顔領域等の合成対象領域に合成するためのマスク画像を取得する。前述のように、本実施形態に係るマスク合成処理は、動画像中に被写体として写っている人物のプライバシーの保護を目的としており、マスク画像は、マスク画像が合成された動画像が前記人物の特定が困難な動画像となるように予め設定される。例えば合成対象領域が人物の顔領域である場合、マスク画像としては、動画像中に被写体として写っている人物以外の他の人の顔を表す画像や、複数の人の平均的な顔を表す画像等が予め設定される。マスク画像取得部14は、予め設定されて記憶部に記憶されたマスク画像を記憶部から読み出す等の処理を行うことで、マスク画像を取得する。
合成対象領域検出部16は、動画像取得部12によって取得された動画像の各フレームの画像に対し、各フレームの画像中に存在している合成対象領域を順次検出し、検出した合成対象領域の画像上の位置及びサイズを変化量演算部18へ順次出力する。また、変化量演算部18は、合成対象領域検出部16から動画像の各フレーム毎に入力される合成対象領域の位置及びサイズに基づき、前フレームからの合成対象領域の位置及びサイズの変化量を演算する。なお、合成対象領域検出部16及び変化量演算部18は開示の技術における検出部の一例であり、合成対象領域検出部16及び変化量演算部18によって実現される処理は開示の技術における検出ステップの一例である。
色要素分離部20は、動画像取得部12によって取得された動画像の各フレームの画像を画素毎に複数の色要素に分離し、色要素分離部22は、マスク画像取得部14によって取得されたマスク画像を画素毎に複数の色要素に分離する。複数の色要素としては、任意の色空間を規定する色要素を適用可能であり、例えばR,G,BやY,U,V、L*,a*,b*等のうちの何れかを適用することができる。
画像合成部24〜28は互いに異なる色要素に対応しており、互いに異なる色要素のフレーム画像が色要素分離部20,22から入力される。画像合成部24〜28は、互いに異なる色要素について、入力されたフレーム画像中の合成対象領域に入力されたマスク画像を合成する処理を各々行う。
すなわち、フレーム画像保持部34は、色要素分離部20から入力された特定の色要素のフレーム画像(処理対象のフレーム画像)を保持し、マスク画像保持部36は、色要素分離部22から入力された特定の色要素のマスク画像を保持する。前フレーム合成結果画像保持部38は、処理対象のフレーム画像よりも1フレーム前のフレーム画像に対して生成された特定の色要素の合成結果画像(マスク画像を合成した結果)を保持する。
位置・サイズ補正部40は、合成対象領域検出部16により処理対象のフレーム画像について検出された合成対象領域の位置及びサイズに基づき、マスク画像保持部36に保持された特定の色要素のマスク画像の位置及びサイズが合致するように補正する。また位置・サイズ補正部42は、変化量演算部18により処理対象のフレーム画像について演算された合成対象領域の位置及びサイズの変化量に基づき、前フレーム合成結果画像保持部36に保持された特定の色要素の合成結果画像の位置及びサイズを補正する。なお、位置・サイズ補正部40,42は開示の技術における補正部の一例であり、位置・サイズ補正部40,42によって実現される処理は開示の技術における補正ステップの一例である。
初期値画像設定部44は、位置・サイズ補正部42による補正を経た前フレームの特定の色要素の合成結果画像を初期値画像として設定する。なお、初期値画像設定部44は開示の技術における初期値設定部の一例であり、初期値画像設定部44によって実現される処理は開示の技術における初期値設定ステップの一例である。
また、マスク画像合成部46は、フレーム画像保持部34に保持された処理対象のフレーム画像、マスク画像保持部36に保持されたマスク画像及び初期値画像設定部44によって設定された初期値画像に基づき、処理対象のフレーム画像にマスク画像を合成する。マスク画像の合成(合成結果画像の生成)は、詳細は後述するが、ポアソン方程式を用いた繰り返し演算によって実現される。なお、マスク画像合成部46は開示の技術における合成部の一例であり、マスク画像合成部46によって実現される処理は開示の技術における合成ステップの一例である。
色要素合成部30は、マスク画像が合成された互いに異なる色要素のフレーム画像が画像合成部24〜28から出力される度に、画像合成部24〜28から出力された各色要素のフレーム画像を単一のフレーム画像へ合成して出力する。動画像出力部32は、色要素合成部30から出力された単一のフレーム画像を、マスク画像が合成された動画像のうちの1フレームの画像として出力する。
画像処理装置10は、例えば図2に示すコンピュータ60で実現することができる。コンピュータ60はCPU62、メモリ64、不揮発性の記憶部66、キーボード68、マウス70、ディスプレイ72を備え、これらはバス74を介して互いに接続されている。
また、記憶部66はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記録媒体としての記憶部66には、コンピュータ60を画像処理装置10として機能させるためのマスク合成プログラム76が記憶されている。CPU62は、マスク合成プログラム76を記憶部66から読み出してメモリ64に展開し、マスク合成プログラム76が有するプロセスを順次実行する。
マスク合成プログラム76は、動画像取得プロセス78、マスク画像取得プロセス80、合成対象領域検出プロセス82、変化量演算プロセス84、色要素分離プロセス86、画像合成プロセス88、色要素合成プロセス90及び動画像出力プロセス92を有する。CPU62は、動画像取得プロセス78を実行することで、図1に示す動画像取得部12として動作する。またCPU62は、マスク画像取得プロセス80を実行することで、図1に示すマスク画像取得部14として動作する。またCPU62は、合成対象領域検出プロセス82を実行することで、図1に示す合成対象領域検出部16として動作する。またCPU62は、変化量演算プロセス84を実行することで、図1に示す変化量演算部18として動作する。またCPU62は、色要素分離プロセス86を実行することで、図1に示す色要素分離部20,22として動作する。またCPU62は、画像合成プロセス88を実行することで、図1に示す画像合成部24〜28として動作する。またCPU62は、色要素合成プロセス90を実行することで、図1に示す色要素合成部30として動作する。またCPU62は、動画像出力プロセス92を実行することで、図1に示す動画像出力部32として動作する。
また、画像合成プロセス88は、フレーム画像保持プロセス94、マスク画像保持プロセス96、前フレーム合成結果画像保持プロセス98、位置・サイズ補正プロセス100、初期値画像設定プロセス102及びマスク画像合成プロセス104を有する。CPU62は、フレーム画像保持プロセス94を実行することで、図1に示すフレーム画像保持部34として動作する。またCPU62は、マスク画像保持プロセス96を実行することで、図1に示すマスク画像保持部36として動作する。またCPU62は、前フレーム合成結果画像保持プロセス98を実行することで、図1に示す前フレーム合成結果画像保持部38として動作する。またCPU62は、位置・サイズ補正プロセス100を実行することで、図1に示す位置・サイズ補正部40,42として各々動作する。またCPU62は、初期値画像設定プロセス102を実行することで、図1に示す初期値画像設定部44として動作する。またCPU62は、マスク画像合成プロセス104を実行することで、図1に示すマスク画像合成部46として動作する。
これにより、マスク合成プログラム76を実行したコンピュータ60が、画像処理装置10として機能することになる。なお、マスク合成プログラム76は開示の技術における画像処理プログラムの一例である。
なお、画像処理装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に本第1実施形態の作用を説明する。例えば、撮影装置によって撮影された動画像を配布、或いは放送、或いはネットワーク上で公開する等の理由で、動画像中に被写体として写っている人物のプライバシーの保護を図る必要が生じた場合、画像処理装置10に対してマスク合成処理の実行が指示される。なお、マスク合成処理の実行に際しては、処理対象の動画像が指定され、合成対象のマスク画像も指定される。これにより、本第1実施形態に係る画像処理装置10では、図3に示すマスク合成処理が実行される。
マスク合成処理のステップ130において、マスク画像取得部14は、例えば記憶部66等に予め記憶された複数のマスク画像の中から、合成対象として指定されたマスク画像を取得する。なお、マスク画像を合成する合成対象領域として、動画像中に被写体として写っている人物の顔領域全体を適用する場合、マスク画像としては、例えば図5に示すように、人物の顔(他の人の顔や複数の人の平均的な顔等)を表す顔画像が適用される。ステップ132において、色要素分離部22は、マスク画像取得部14によって取得されたマスク画像を複数の色要素に分離する。なお、色要素分離部22によって分離された各色要素のマスク画像は、画像合成部24〜28のマスク画像保持部36に各々保持される。
ステップ134において、動画像取得部12は、処理対象として指定された動画像の各フレームを識別するための変数Nに1を設定する。またステップ136において、動画像取得部12は、処理対象の動画像のうちN番目のフレームの画像を取得する。またステップ138において、合成対象領域検出部16は、動画像取得部12によって取得されたN番目のフレームの画像の中から合成対象領域を検出し、N番目のフレームの画像における合成対象領域の位置及びサイズを検出する。
なお、合成対象領域として顔領域を適用する場合、顔領域の検出には、例えばHaar classifierを用いる手法(非特許文献2参照)等の任意の手法を適用できる。また、合成対象領域は合成対象領域検出部16によって検出することに限られるものではない。例えば動画像中に被写体として写っている複数の人物のうちの一部の人物に対してのみマスク画像を合成する等の場合に、処理対象の人物の合成対象領域が最初に指定されるようにしてもよい。この場合、合成対象領域検出部16は、最初に指定された合成対象領域を動画像上で追跡する処理を行うことができる。
次のステップ140において、変化量演算部18は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ140の判定が否定されてステップ144に移行する。ステップ144において、色要素分離部20は、動画像取得部12によって取得されたN番目のフレームの画像を複数の色要素に分離する。なお、色要素分離部20によって分離された各色要素毎のN番目のフレームの画像は、画像合成部24〜28のフレーム画像保持部34に各々保持される。
次のステップ146において、画像合成部24〜28の何れかは、個々の色要素を識別するための変数jに1を設定する。またステップ148において、画像合成部24〜28のうち、色要素jに対応する画像合成部のマスク画像合成部46は、色要素jのN番目のフレームの画像をフレーム画像保持部34から取り出す。ステップ150において、位置・サイズ補正部40は、色要素jのマスク画像をマスク画像保持部36から取り出す。ステップ152において、位置・サイズ補正部40は、ステップ148で取り出した色要素jのマスク画像の位置及びサイズを、合成対象領域検出部16によって検出された合成対象領域の位置・サイズに一致するように補正する。
次のステップ154において、初期値画像設定部44は、変数Nの値が2以上か否か判定する。変数Nの値は当初は1であるので、ステップ154の判定が否定されてステップ156に移行する。ステップ156において、初期値画像設定部44は、位置・サイズ補正部40によって位置及びサイズが補正された色要素jのマスク画像を、色要素jのN番目のフレームの画像への色要素jのマスク画像の合成に用いる初期値画像として設定する。なお、ステップ156の処理を行うとステップ164へ移行する。
ステップ164において、マスク画像合成部46は、色要素jのN番目のフレームの画像に色要素jのマスク画像を合成するマスク画像合成処理を行う。マスク画像合成部46によるマスク画像合成処理は、マスク画像の勾配情報を用い、合成対象領域のエッジ(マスク画像との合成境界)を境界条件としてポアソン方程式を解き、合成結果画像を求める処理である。具体的には、例えば以下の演算処理によって実現される(図4も参照)。
すなわち、マスク画像をS(幅W,高さH)、合成対象領域をT(幅W,高さH)、初期値画像をI(幅W,高さH)、合成結果画像をFとしたときに、マスク画像Sのラプラシアンフィルタ適用値Lsは次の(1)式で表される。
Ls(x,y)=S(x-1,y)+S(x+1,y)+S(x,y-1)+S(x,y+1)+4S(x,y)
…(1)
但し、画像の端は算出先とならないので、マスク画像Sの幅をW、高さをHとすると、
0<x<W-1、0<y<H-1
である。画像の外縁は合成対象領域の画素値(境界γ)とする(次の(2)式参照)。
F(x,y)=T(x,y) (x=0又はy=0又はx=W-1又はy=H-1のとき) …(2)
また、合成結果画像Fのラプラシアンフィルタ適用値Lfをマスク画像Sのラプラシアンフィルタ適用値Lsと一致させる(次の(3)式参照)。
Lf(x,y)=Ls(x,y) …(3)
上記(2),(3)式の方程式を解くことで、合成対象領域Tの全領域で合成結果画像F(x,y)の値を得ることができる。
上記の方程式は、以下のようにして解くことができる。すなわち、合成結果画像Fのラプラシアンフィルタ適用値Lfは次の(4)式で表される。
Lf(x,y)=F(x-1,y)+F(x+1,y)+F(x,y-1)+F(x,y+1)+4F(x,y)
…(4)
また、前出の(3)式より次の(5)式が得られる。
F(x,y)={F(x-1,y)+F(x+1,y)+F(x,y-1)+F(x,y+1)−Ls(x,y)}/4
…(5)
合成結果画像Fを数値的に解く場合は、(5)式を次の(6)式の漸化式へ変形し、合成結果画像Fに初期値を与えた後、合成結果画像Fの値が収束する迄繰り返し演算を行う(ガウスザイデル法)。
Fi+1(x,y)={Fi(x-1,y)+Fi(x+1,y)+Fi(x,y-1)+Fi(x,y+1)
−Ls(x,y)}/4 …(6)
但し、iは各回の演算を識別するための変数である。また、初期値は通常、
F0(x,y)=T(x,y) (x=0又はy=0又はx=W-1又はy=H-1のとき)
F0(x,y)=0 (x=0、y=0、x=W-1及びy=H-1以外のとき)
であるが、本実施形態では、初期値画像設定部44によって設定された初期値画像を用いる(次の(7)式参照)。
F0(x,y)=T(x,y) (x=0又はy=0又はx=W-1又はy=H-1のとき)
F0(x,y)=I(x,y) (x=0、y=0、x=W-1及びy=H-1以外のとき) …(7)
また、収束条件は以下の何れかである。
(収束条件A) |Fi+1−Fi|が閾値以下
(収束条件B) 合成結果画像Fのラプラシアンフィルタ適用値Lfを演算し、|Lf−Ls|が閾値以下
これにより、マスク画像Sに基づき、初期値画像I及び合成対象領域Tの境界γから合成結果画像Fが生成される。
また、(6)式に代えて以下の(8)式によって合成結果画像Fを求めることも可能である(SOR法)。
Fi+1(x,y)=(1−ω)Fi(x,y)+ω{Fi(x-1,y)+Fi(x+1,y)+Fi(x,y-1)
+Fi(x,y+1)−Ls(x,y)}/4 …(8)
(8)式はω=1〜2で収束する。なお、前出の(6)式は(8)式におけるω=1の場合とみなすことも可能である。ω=1.95程度の値を用いることで良好な収束性が得られる。
上記のように、変数N=1の場合、マスク画像合成処理における合成結果画像Fの初期値としてマスク画像Sが用いられるが、マスク画像Sは、一般的な初期値である全面が白の画像(F0(x,y)=0)よりも、合成結果画像Fとして最終的に得られる画像に近い。このため、収束条件を満たすことでマスク画像合成処理の繰り返し演算が終了する迄の繰り返し演算の回数が少なくなり(演算量が削減され)、マスク画像合成処理が短時間で完了することになる。
上記のようにして色要素jの合成結果画像Fを生成すると、マスク画像合成部46は、色要素jのN番目のフレームの画像のうちの合成対象領域に、生成した色要素jの合成結果画像Fを貼り付ける。これにより、色要素jのN番目のフレームの画像として、合成したマスク画像(合成結果画像F)との合成境界が目立ちにくい自然な画像が得られる。
マスク画像合成部46によってN番目のフレームの色要素jに対してマスク画像合成処理が行われると、ステップ166へ移行する。ステップ166において、画像合成部24〜28の何れかは、N番目のフレームの全ての色要素についてマスク画像合成処理が行われたか否か判定する。ステップ166の判定が否定された場合はステップ168へ移行し、ステップ168において、画像合成部24〜28の何れかは変数jの値を1だけインクリメントする。ステップ168の処理を行った後はステップ148に戻り、ステップ166の判定が肯定される迄、ステップ148〜ステップ168を繰り返す。これにより、N番目のフレームの全ての色要素についてマスク画像合成処理が行われる。
また、ステップ166の判定が肯定されるとステップ170へ移行する。ステップ170において、色要素合成部30は、N番目のフレームの全ての色要素の画像(合成結果画像Fを貼り付けた画像)を単一の画像として合成する。また、動画像出力部32は、色要素合成部30によって生成された画像を、マスク画像を合成した動画像のN番目のフレームの画像として出力する。
次のステップ172において、動画像取得部12は、処理対象の動画像の全フレームの画像を取得したか否かを判定することで、マスク合成処理を終了するか否か判定する。ステップ172の判定が否定された場合はステップ174へ移行し、動画像取得部12は、変数Nの値を1だけインクリメントし、ステップ136に戻る。これにより、ステップ172の判定が肯定される迄、ステップ136〜ステップ174が繰り返される。
また、変数Nの値がインクリメントされて2以上になると、前述のステップ140の判定が肯定されてステップ142へ移行する。ステップ142において、変化量演算部18は、合成対象領域検出部16によって検出されたN番目のフレームの画像における合成対象領域の位置及びサイズに基づき、N−1番目のフレームの画像からの合成対象領域の位置及びサイズの変化量を演算する。ステップ142の処理を行うとステップ144へ移行する。
また、変数Nの値が2以上になると、前述のステップ154の判定も肯定されてステップ158へ移行する。ステップ158において、前フレーム合成結果画像保持部38は、N−1番目のフレームの色要素jについて演算された合成結果画像Fを取得し、取得した合成結果画像Fを一時的に保持する。
次のステップ160において、位置・サイズ補正部42は、変化量演算部18によって演算された合成対象領域の位置及びサイズの変化量に基づいて、前フレーム合成結果画像保持部38に保持されたN−1番目のフレームの色要素jの合成結果画像Fを補正する。これにより、N−1番目のフレームの色要素jの合成結果画像Fは、その位置及びサイズが、合成対象領域検出部16によって検出されたN番目のフレームの画像における合成対象領域の位置・サイズに一致するように補正される。そしてステップ162において、初期値画像設定部44は、位置・サイズ補正部42による補正を経たN−1番目のフレームの色要素jの合成結果画像Fを初期値画像Iに設定する。
動画像の連続するフレーム間での合成対象領域の境界γ等の輝度等の変化は小さく、マスク画像合成処理で最終的に得られる合成結果画像Fも似通った画像となる。これを利用し、本第1実施形態では、変数N≧2の場合に、図5にも示すように、マスク画像合成処理における合成結果画像Fの初期値(初期値画像I)として、N−1番目のフレーム(1つ前のフレーム)の合成結果画像Fを用いている。
これにより、初期値画像Iとしてマスク画像Sを用いる場合と比較しても、初期値画像Iがマスク画像合成処理で最終的に得られる合成結果画像Fにより近い画像となる。従って、収束条件を満たすことでマスク画像合成処理の繰り返し演算が終了する迄の繰り返し演算の回数が少なくなる(演算量が削減される)ことで、マスク画像合成処理が短時間で完了する。また、本第1実施形態は、初期値画像Iをマスク画像合成処理で最終的に得られる合成結果画像Fにより近い画像とすることで演算量を削減するものであり、最終的に得られる合成結果画像Fの画質が損なわれることもない。
また、ステップ172の判定が肯定される迄、ステップ136〜ステップ174が繰り返されることで、動画像出力部32からは、各フレーム中に存在する合成対象領域にマスク画像が合成された動画像が順次出力される。動画像出力部32から出力される動画像は、動画像中に被写体として写っている人物の顔領域等の合成対象領域にマスク画像が合成された領域であるので、当該動画像を視聴しても前記人物の特定は困難であり、前記人物のプライバシーの保護が実現される。
〔第2実施形態〕
次に開示の技術の第2実施形態について説明する。なお、第1実施形態と同一の部分には同一の符号を付して説明を省略し、第1実施形態と異なる部分についてのみ説明する。
図6には、本第2実施形態に係る画像処理装置10が示されている。本第2実施形態に係る画像処理装置10は、画像合成部24が、前フレーム画像保持部48、位置・サイズ補正部50及び差分画像演算部52を更に備えている。前フレーム画像保持部48は、処理対象のフレーム画像よりも1フレーム前のフレーム画像を保持する。位置・サイズ補正部50は、変化量演算部18により処理対象のフレーム画像について演算された合成対象領域の位置及びサイズの変化量に基づき、前フレーム画像保持部48に保持された特定の色要素のフレーム画像の位置及びサイズを補正する。
差分画像演算部52は、処理対象のフレーム画像よりも1フレーム前のフレーム画像と処理対象のフレーム画像との差分を画素毎に演算し、演算によって得られた差分画像を初期値画像設定部44へ出力する。なお、差分画像演算部52は開示の技術における差分演算部の一例であり、差分画像演算部52によって実現される処理は開示の技術における差分演算ステップの一例である。
また、本第2実施形態において、マスク合成プログラム76の画像合成プロセス88は、図2に破線で示すように、前フレーム画像保持プロセス106及び差分画像演算プロセス108を更に備えている。本第2実施形態において、CPU62は、前フレーム画像保持プロセス106を実行することで、図6に示す前フレーム画像保持部48として動作する。また、本第2実施形態において、CPU62は、位置・サイズ補正プロセス100を実行することで、図1に示す位置・サイズ補正部40,42,50として各々動作する。また、本第2実施形態において、CPU62は、差分画像演算プロセス108を実行することで、図6に示す差分画像演算部52として動作する。
次に図7を参照し、本第2実施形態の作用として、本第2実施形態に係るマスク合成処理について、第1実施形態で説明したマスク合成処理(図3)と異なる部分についてのみ説明する。
本第2実施形態に係るマスク合成処理では、ステップ154の判定が肯定された場合、ステップ158でN−1番目のフレームの色要素jの合成結果画像Fが取得され、ステップ160で合成結果画像Fが補正された後にステップ180へ移行する。ステップ180において、前フレーム画像保持部48は、N−1番目のフレーム(1つ前のフレーム)の色要素jの画像を取得し、取得した画像を一時的に保持する。
次のステップ182において、位置・サイズ補正部50は、変化量演算部18によって演算された合成対象領域の位置及びサイズの変化量に基づいて、前フレーム画像保持部48に保持されたN−1番目のフレームの色要素jの画像を補正する。これにより、N−1番目のフレームの色要素jの画像は、当該画像中に存在する合成対象領域の位置及びサイズが、合成対象領域検出部16によって検出されたN番目のフレームの画像における合成対象領域の位置・サイズに一致するように補正される。
ステップ184において、差分画像演算部52は、位置・サイズ補正部50による補正を経たN−1番目のフレームの色要素jの画像と、フレームNの色要素jの画像と、の合成対象領域の差分を表す差分画像を演算する(図8に示す「差分画像」も参照)。そしてステップ186において、初期値画像設定部44は、位置・サイズ補正部42による補正を経たN−1番目のフレームの色要素jの合成結果画像Fに、差分画像演算部52で演算された差分画像を足し合わせた画像を初期値画像Iに設定する。図8に示すように、この初期値画像Iが、マスク画像合成部46によるマスク画像合成処理における合成結果画像Fの初期値として用いられる。
上記のように、本第2実施形態における初期値画像Iは、N−1番目のフレームの色要素jの合成結果画像Fを、N−1番目のフレームの画像とN番目のフレームの画像との輝度差(詳しくは色要素jの差)に応じて補正したものである。これにより、N−1番目のフレームの色要素jの合成結果画像Fを初期値画像Iとして用いる第1実施形態と比較しても、初期値画像Iが、マスク画像合成処理で最終的に得られる合成結果画像Fにより近い画像となる。
従って、収束条件を満たすことでマスク画像合成処理の繰り返し演算が終了する迄の繰り返し演算の回数がより少なくなる(演算量がより削減される)ことで、マスク画像合成処理がより短時間で完了する。また、本第2実施形態についても、初期値画像Iをマスク画像合成処理で最終的に得られる合成結果画像Fにより近い画像とすることで演算量を削減するものであるので、最終的に得られる合成結果画像Fの画質が損なわれることもない。
〔第3実施形態〕
次に開示の技術の第3実施形態について説明する。なお、第2実施形態と同一の部分には同一の符号を付して説明を省略し、第2実施形態と異なる部分についてのみ説明する。
図9には、本第3実施形態に係る画像処理装置10が示されている。本第3実施形態に係る画像処理装置10は、差分画像演算部52がマスク画像合成部46と接続され、差分画像演算部52による差分画像の演算結果がマスク画像合成部46にも出力される点でのみ、第2実施形態で説明した画像処理装置10と相違している。
次に図10を参照し、本第3実施形態の作用として、本第3実施形態に係るマスク合成処理について、第2実施形態で説明したマスク合成処理(図7)と異なる部分についてのみ説明する。
本第3実施形態に係るマスク合成処理では、ステップ186で初期値画像設定部44が初期値画像Iを設定した後、ステップ190へ移行する。ステップ190において、マスク画像合成部46は、合成対象領域のうち、差分画像演算部52によって演算された差分画像上での差分が予め設定された閾値未満の画素から成り、合成対象領域の外縁に接している周縁領域を抽出する。なお、上記の閾値は、一例として、画素値の階調の1%程度の値(例えば画素値が256階調であれば閾値=2.56)を適用することができる。上記処理により、差分が閾値未満で合成対象領域の外縁に接している周縁領域として、例えば図11に斜線で示す領域が抽出される。
次のステップ192において、マスク画像合成部46は、合成対象領域のうちステップ190で抽出した周縁領域を、マスク画像合成処理の処理対象から除外する。そして、次のステップ164において、マスク画像合成部46は、合成対象領域のうちステップ190で抽出した周縁領域を除外した領域を対象としてマスク画像合成処理を行う。この場合、境界γとしては、N番目のフレーム(処理対象のフレーム)の画像のうち、合成対象領域から周縁領域を除外した領域の外縁が適用される。そして、合成対象領域から周縁領域を除外した領域について、合成結果画像Fが求められることになる。
次のステップ194において、マスク画像合成部46は、マスク画像合成処理の処理対象から除外した周縁領域が有るか否か判定する。ステップ194の判定が否定された場合はステップ166へ移行する一方、ステップ194の判定が肯定された場合はステップ196へ移行する。ステップ196において、マスク画像合成部46は、マスク画像合成処理の処理対象から除外した周縁領域に、初期値画像設定部44によって設定された初期値画像のうちの対応する領域の画素の値をそのまま設定し、ステップ166へ移行する。なお、初期値画像に代えて、N−1番目のフレームの色要素jの合成結果画像Fのうちの対応する領域の画素の値を用いてもよい。
合成対象領域のうち、1つ前のフレームの合成対象領域との輝度等の差が0又は非常に小さく、かつ合成対象領域の外縁に接している領域は、マスク画像合成処理で最終的に得られる合成結果画像Fも非常に近い画像となる。本第3実施形態ではこれを利用し、差分画像上での差分が閾値未満の画素から成り、かつ合成対象領域の外縁に接している周縁領域をマスク画像合成処理の処理対象から除外し、初期値画像のうちの対応する領域の画素の値をそのまま設定している。
これにより、マスク画像合成処理での処理対象の領域の面積が小さくなることで、繰り返し演算における各回の演算時間が短くなる(演算量が削減される)ことで、マスク画像合成処理がより短時間で完了する。また、本第3実施形態は、最終的に得られる合成結果画像Fが殆ど変化しない領域をマスク画像合成処理における処理対象から除外することで演算量を削減するものであるので、最終的に得られる合成結果画像Fの画質に殆ど影響を及ぼすこともない。
なお、上記では合成対象領域として人物の顔に相当する顔領域を適用した態様を説明したが、これに限定されるものではなく、顔領域以外の他の領域を適用してもよい。例えばプライバシーの保護が目的であれば、例として図12に示すように、合成対象領域として顔領域のうちの眼部領域を適用し、当該合成領域に異なる人物の眼部を表すマスク画像を合成することも、個人の特定を阻止することに有効であるので好ましい。合成対象領域として眼部領域を適用した場合、マスク画像としては、動画像中に被写体として写っている人物以外の他の人の眼部領域を表す画像や、複数の人の平均的な眼部領域を表す画像等が設定される。
なお、図12では処理対象のフレームの初期値画像として、1つ前のフレームの合成結果画像(眼部領域の画像)をそのまま用いる例を示しているが、これに限定されるものではない。例えば、第2実施形態で説明したように、1つ前のフレームの合成結果画像に、1つ前のフレームの画像と処理対象のフレームの画像との眼部領域の差分画像を足し合わせた画像を初期値画像として用いてもよい。また、第3実施形態で説明したように、差分画像上で差分が閾値未満で合成対象領域の外縁に接している周縁領域を処理対象から除外し、マスク画像の合成処理を行うようにしてもよい。
また、上記ではフレームNの画像にマスク画像を合成する処理を、各色要素毎に順次行う態様を説明したが、これに限定されるものではなく、フレームNの画像に各色要素毎にマスク画像を合成する処理を並列に行うようにしてもよい
また、上記では処理対象の動画像としてカラー動画像を適用した態様を説明したが、これに限定されるものではなく、処理対象の動画像としてモノクロの動画像を適用することも可能である。
更に、前出の (1),(4),(5),(6),(8)式では、演算対象の画素に対して上下左右に位置する4画素の値を用いてラプラシアンフィルタ適用値を演算しているが、より多数の画素(例えば周囲8画素)の値を用いて演算してもよい。また、ラプラシアンフィルタに代えて、2階微分に相当する値が得られる他のフィルタを適用してもよい。
また、上記では開示の技術を、動画像の各フレーム中に存在する人物に対応する合成対象領域に、プライバシーの保護を図る目的で設定したマスク画像を合成する態様を説明したが、これに限られるものではない。開示の技術は、マスク画像以外の一般的な画像の合成に適用することも可能であり、合成対象領域は動画像の各フレーム中に存在する人物に対応する領域に限られるものではなく、合成画像もプライバシーの保護を図る目的で設定したマスク画像に限られない。また、合成画像は静止画像に限られるものではなく、合成画像として動画像を適用することも可能である。
また、上記では開示の技術に係る画像処理プログラムの一例であるマスク合成プログラムが記憶部66に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る画像処理プログラムは、CD−ROMやDVD−ROM等の記録媒体に記録されている形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
前記処理対象のフレーム中に存在する前記合成対象領域の画像と、前記動画像の各フレームのうち前記処理対象のフレームの前のフレーム中に存在する前記合成対象領域の画像と、の差分を画素毎に演算する差分演算部を更に備え、
前記初期値設定部は、前記処理対象のフレームに対する前記合成部による前記繰り返し演算で用いられる前記初期値画像として、前記前のフレームに対して求められた前記合成結果画像に、前記差分演算部によって画素毎に演算された前記差分を表す差分画像を加えた画像を設定する請求項7記載の画像処理装置。
(付記2)
前記合成部は、前記処理対象のフレーム中に存在する前記合成対象領域のうち、前記差分演算部によって画素毎に演算された前記差分が閾値未満の画素から成り、前記合成対象領域の外縁に接している周縁領域を前記繰り返し演算の対象から除外し、前記処理対象のフレーム中に存在する前記合成対象領域のうちの前記周縁領域に、前記初期値設定部によって設定された前記初期値画像のうちの前記周縁領域に対応する領域の値をそのまま設定する付記1記載の画像処理装置。
(付記3)
前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズを検出し、前記前のフレーム中に存在する前記合成対象領域に対する、前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズの変化量を検出する検出部と、
前記検出部によって検出された位置及びサイズの変化量に基づいて、前記処理対象のフレームに対する合成結果画像の演算に用いられる前記合成画像及び前記前のフレーム中に存在する前記合成対象領域の位置及びサイズを、前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズに合致するように補正する補正部と、
を更に備えた請求項7、付記1及び付記2の何れか1項記載の画像処理装置。
(付記4)
前記動画像は前記各フレームが各々カラー画像であり、
前記合成部は、前記合成処理として、各色要素毎に前記合成結果画像を各々求める処理を行い、
前記初期値設定部は、各色要素毎に前記初期値画像を各々設定する請求項7、付記1〜付記3の何れか1項記載の画像処理装置。
(付記5)
前記合成対象領域は人物の顔又は顔の一部分に対応する領域である請求項7、付記1〜付記4の何れか1項記載の画像処理装置。
以下、開示の技術の効果を確認するために実施された実験の結果を説明する。この実験では、(1)初期値画像としてマスク画像を用いたケース、(2)初期値画像として前フレームの合成結果画像を用いたケース、(3)初期値画像として前フレームの合成結果画像+前フレームとの差分画像を用いたケースを比較した。なお、ケース(1)は第1実施形態に、ケース(2)は第2実施形態に対応している。
ケース(1)〜(3)について、動画像1〜4を対象としてマスク画像の合成を各々行い、マスク画像合成処理における繰り返し演算回数をフレーム単位に計測した。また、マスク画像合成処理における繰り返し演算回数はフレーム毎に相違するため、1フレーム当りの繰り返し演算回数として平均値を各々演算し、演算した1フレーム当りの繰り返し演算回数を比較した。結果を以下の表1及び図13に示す。
表1及び図13から明らかなように、ケース(2)をケース(1)と比較すると、動画像1〜4でばらつきはあるものの、1フレーム当りの繰り返し演算回数、すなわち演算量は26.0%〜64.5%も削減されており、演算量が大幅に削減されることが確認された。また、ケース(3)をケース(2)と比較しても、1フレーム当りの繰り返し演算回数(演算量)が4.9%〜20.2%も削減されており、初期値画像を前フレームの合成結果画像+前フレームとの差分画像とすることで演算量を更に削減できることが確認された。
10 画像処理装置
12 動画像取得部
14 マスク画像取得部
16 合成対象領域検出部
18 変化量演算部
20,22 色要素分離部
24 画像合成部
30 色要素合成部
32 動画像出力部
34 フレーム画像保持部
36 マスク画像保持部
38 前フレーム合成結果画像保持部
40,42,50 位置・サイズ補正部
44 初期値画像設定部
46 マスク画像合成部
48 前フレーム画像保持部
52 差分画像演算部
60 コンピュータ
62 CPU
64 メモリ
66 記憶部
76 マスク合成プログラム

Claims (8)

  1. コンピュータに、
    動画像の処理対象のフレーム中に存在する合成対象領域の画像及び合成画像に基づいて、ポアソン方程式を用いた繰り返し演算により、初期値画像から、前記合成対象領域に前記合成画像を合成した結果に相当する合成結果画像を、前記処理対象のフレーム中に存在する前記合成対象領域の画像と置き換える画像として求めることを、前記動画像の各フレームを処理対象として順に行うと共に、
    前記処理対象のフレームに対する前記繰り返し演算で用いる前記初期値画像として、前記動画像の各フレームのうち前記処理対象のフレームの前のフレームに対して求めた前記合成結果画像を設定す
    ことを含む画像処理を実行させるための画像処理プログラム。
  2. 記処理対象のフレーム中に存在する前記合成対象領域の画像と、前記動画像の各フレームのうち前記処理対象のフレームの前のフレーム中に存在する前記合成対象領域の画像と、の差分を画素毎に演算し、
    記処理対象のフレームに対する前記繰り返し演算で用いられる前記初期値画像として、前記前のフレームに対して求めた前記合成結果画像に、素毎に演算た前記差分を表す差分画像を加えた画像を設定する請求項1記載の画像処理プログラム。
  3. 記処理対象のフレーム中に存在する前記合成対象領域のうち、画素毎に演算た前記差分が閾値未満の画素から成り、前記合成対象領域の外縁に接している周縁領域を前記繰り返し演算の対象から除外し、前記処理対象のフレーム中に存在する前記合成対象領域のうちの前記周縁領域に、設定した前記初期値画像のうちの前記周縁領域に対応する領域の値をそのまま設定する請求項2記載の画像処理プログラム。
  4. 前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズを検出し、前記前のフレーム中に存在する前記合成対象領域に対する、前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズの変化量を検出し、
    た位置、サイズ及びその変化量に基づき、前記処理対象のフレームに対する合成結果画像の演算に用いる前記合成画像及び前記前のフレームに対して求めた前記合成結果画像の位置及びサイズを、前記処理対象のフレーム中に存在する前記合成対象領域の位置及びサイズに合致するように補正す
    求項1〜請求項3の何れか1項記載の画像処理プログラム。
  5. 前記動画像は前記各フレームが各々カラー画像であり、
    前記合成結果画像を各色要素毎に各々求め、
    前記初期値画像を各色要素毎に各々設定する請求項1〜請求項4の何れか1項記載の画像処理プログラム。
  6. 前記合成対象領域は人物の顔又は顔の一部分に対応する領域である請求項1〜請求項5の何れか1項記載の画像処理プログラム。
  7. 動画像の処理対象のフレーム中に存在する合成対象領域の画像及び合成画像に基づいて、ポアソン方程式を用いた繰り返し演算により、初期値画像から、前記合成対象領域に前記合成画像を合成した結果に相当する合成結果画像を、前記処理対象のフレーム中に存在する前記合成対象領域の画像と置き換える画像として求めることを、前記動画像の各フレームを処理対象として順に行う合成部と、
    前記処理対象のフレームに対する前記合成部による前記繰り返し演算で用いられる前記初期値画像として、前記動画像の各フレームのうち前記処理対象のフレームの前のフレームに対して求められた前記合成結果画像を設定する初期値設定部と、
    を含む画像処理装置。
  8. 動画像の処理対象のフレーム中に存在する合成対象領域の画像及び合成画像に基づいて、ポアソン方程式を用いた繰り返し演算により、初期値画像から、前記合成対象領域に前記合成画像を合成した結果に相当する合成結果画像を、前記処理対象のフレーム中に存在する前記合成対象領域の画像と置き換える画像として求めることを、前記動画像の各フレームを処理対象として順に行うと共に、
    前記処理対象のフレームに対する前記繰り返し演算で用いる前記初期値画像として、前記動画像の各フレームのうち前記処理対象のフレームの前のフレームに対して求めた前記合成結果画像を設定す
    ことを含む画像処理方法。
JP2012010168A 2012-01-20 2012-01-20 画像処理プログラム、装置及び方法 Expired - Fee Related JP5807555B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012010168A JP5807555B2 (ja) 2012-01-20 2012-01-20 画像処理プログラム、装置及び方法
US13/675,393 US8902367B2 (en) 2012-01-20 2012-11-13 Computer-readable storage medium storing image processing program, image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012010168A JP5807555B2 (ja) 2012-01-20 2012-01-20 画像処理プログラム、装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015178397A Division JP5987961B2 (ja) 2015-09-10 2015-09-10 画像処理プログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2013150203A JP2013150203A (ja) 2013-08-01
JP5807555B2 true JP5807555B2 (ja) 2015-11-10

Family

ID=49047296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012010168A Expired - Fee Related JP5807555B2 (ja) 2012-01-20 2012-01-20 画像処理プログラム、装置及び方法

Country Status (2)

Country Link
US (1) US8902367B2 (ja)
JP (1) JP5807555B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5949481B2 (ja) * 2012-03-14 2016-07-06 富士通株式会社 画像処理方法、プログラム及び装置
KR101948692B1 (ko) * 2012-10-09 2019-04-25 삼성전자주식회사 촬영 장치 및 이미지 합성 방법
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
CN111414800B (zh) * 2020-02-17 2023-08-01 妙微(杭州)科技有限公司 图像中小目标识别监控方法及其训练集的获取方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253015A (ja) * 2004-03-08 2005-09-15 Matsushita Electric Ind Co Ltd 動きベクトル検出装置、動きベクトル検出方法、及びプログラム
US7796787B2 (en) * 2007-02-03 2010-09-14 Arcsoft, Inc. Face component replacement
JP5383366B2 (ja) * 2009-07-28 2014-01-08 キヤノン株式会社 画像処理装置、画像処理方法、および、そのプログラム
JP5048736B2 (ja) * 2009-09-15 2012-10-17 みずほ情報総研株式会社 画像処理システム、画像処理方法及び画像処理プログラム
JP2011176748A (ja) * 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
EP2596475B1 (en) * 2010-07-19 2019-01-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filling disocclusions in a virtual view

Also Published As

Publication number Publication date
JP2013150203A (ja) 2013-08-01
US20130314604A1 (en) 2013-11-28
US8902367B2 (en) 2014-12-02

Similar Documents

Publication Publication Date Title
JP5949481B2 (ja) 画像処理方法、プログラム及び装置
CN108446694B (zh) 一种目标检测方法及装置
US20150071530A1 (en) Image processing apparatus and method, and program
WO2013168618A1 (ja) 画像処理装置及び画像処理方法
Fang et al. Single image dehazing and denoising: a fast variational approach
CN108961158B (zh) 一种图像合成方法及装置
JP2001126075A (ja) 画像処理方法および装置並びに記録媒体
JP2008234342A (ja) 画像処理装置及び画像処理方法
JP2006085678A (ja) 画像作成方法および装置並びにプログラム
WO2016002152A1 (ja) 個人情報に配慮した画像処理システム、画像処理方法及びプログラム記憶媒体
JP7098601B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
KR20090111939A (ko) 영상을 전경과 배경으로 분리하는 방법 및 장치, 영상을전경과 배경으로 분리하여 배경을 대체하는 방법 및 장치
JP5807555B2 (ja) 画像処理プログラム、装置及び方法
KR20190030870A (ko) 가상 크로마키 배경을 이용하여 영상을 합성하는 장치, 방법 및 컴퓨터 프로그램
JP5534411B2 (ja) 画像処理装置
JP5012967B2 (ja) 画像処理装置及び方法、並びにプログラム
KR101341616B1 (ko) 세부정보 추정에 의한 영상 개선 장치 및 방법
US9083913B2 (en) Image processing method, image processing device, and program
JP5799859B2 (ja) 画像処理方法、プログラム及び装置
US20230274398A1 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
JP5987961B2 (ja) 画像処理プログラム、装置及び方法
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
Shao et al. An image inpainting approach based on the poisson equation
Koochari et al. Exemplar-based video inpainting with large patches
JP2007243987A (ja) 画像処理方法、画像処理システムおよび画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150824

R150 Certificate of patent or registration of utility model

Ref document number: 5807555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees