JP2013206015A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2013206015A
JP2013206015A JP2012072788A JP2012072788A JP2013206015A JP 2013206015 A JP2013206015 A JP 2013206015A JP 2012072788 A JP2012072788 A JP 2012072788A JP 2012072788 A JP2012072788 A JP 2012072788A JP 2013206015 A JP2013206015 A JP 2013206015A
Authority
JP
Japan
Prior art keywords
region
image
joint
area
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012072788A
Other languages
English (en)
Inventor
Mitsuharu Oki
光晴 大木
Hidefumi Yamada
英史 山田
Kenichi Sano
乾一 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012072788A priority Critical patent/JP2013206015A/ja
Priority to US13/783,995 priority patent/US9002140B2/en
Priority to CN 201310092397 priority patent/CN103369236A/zh
Publication of JP2013206015A publication Critical patent/JP2013206015A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】より簡単に画像を合成することができるようにする。
【解決手段】つなぎ目候補領域決定部は、異なる人が含まれる2枚の撮影画像から、それぞれ人の領域を検出し、撮影画像から人の領域を除外したつなぎ目候補領域を決定する。つなぎ目候補領域は、各撮影画像を重ね合わせたときに、どの撮影画像でも人の領域となっていない領域とされる。つなぎ目決定部は、つなぎ目候補領域の上辺と下辺を通り、つなぎ目候補領域を分断するつなぎ目を決定する。合成部は、つなぎ目の位置で、2枚の撮影画像を合成することで、各人が含まれる出力画像を生成する。本技術は、画像処理装置に適用することができる。
【選択図】図1

Description

本技術は画像処理装置および方法、並びにプログラムに関し、特に、より簡単に画像合成を行なうことができるようにした画像処理装置および方法、並びにプログラムに関する。
例えば、ユーザが他のユーザと2人で旅行に行った際に、記念撮影をすることがある。このような場合に、2人のユーザが写っている画像を得るための手法として、画像合成が考えられる。
すなわち、まず1人目のユーザが、2人目のユーザと風景を撮影する。これにより、1枚目の撮影画像が得られる。続いて、2人目のユーザが、1人目のユーザと風景を撮影する。これにより、2枚目の撮影画像が得られる。
そして、得られた1枚目と2枚目の撮影画像を合成することで、2人のユーザが風景とともに写っている合成画像を得ることができる。
例えば特許文献1には、このような画像合成を実現するための技術が開示されている。しかしながら、その技術では、1枚目と2枚目の撮影画像のつなぎ目が直線とされるため、その直線に重ならないように人物を撮影しなければならず、不便であった。
そこで、グラフカット手法を利用して、撮影画像のつなぎ目の位置を適応的に定めるようにした技術が提案されている(例えば、特許文献2および特許文献3参照)。
この技術では、撮影画像から人物と思われる領域が検出され、検出された部分に対応するデータ項に強めの値が設定されて、さらに2枚の撮影画像間での差分強度に応じて平滑化項が設定される。そして、このデータ項と平滑化項の和を最小とするように、グラフカット手法により、つなぎ目が適応的に定められる。
特開2003−274263号公報 特開2011−138313号公報 特開2011−139288号公報
しかしながら、上述した技術では、簡単な処理で適切に2つの撮影画像を合成することができなかった。
例えば、グラフカット手法を利用した技術では、エッジ情報などが用いられて人物と思われる領域が検出されているが、その検出手法はヒューリスティックであり、検出精度が高いとはいえなかった。そのため、適切に撮影画像間のつなぎ目の位置を求めることが困難であった。また、グラフカット手法を利用した技術では、平滑化項とデータ項の2つを算出し、それら合計のエネルギ関数を最小とする複雑な計算が必要であった。
本技術は、このような状況に鑑みてなされたものであり、より簡単な処理で適切に画像を合成することができるようにするものである。
本技術の一側面の画像処理装置は、第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理装置であって、前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定するつなぎ目候補領域決定部と、前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定するつなぎ目決定部と、前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成する合成部とを備える。
前記つなぎ目候補領域決定部には、前記第1の撮影画像または前記第2の撮影画像における、前記第1の前景物体または前記第2の前景物体の領域を前景領域として検出する前景領域決定部と、前記第1の撮影画像または前記第2の撮影画像のうちの一方の画像における前記前景領域と、前記前景領域に対応する他方の画像の領域との差分を計算する前景差分計算部と、前記前景差分計算部により計算された差分に基づいて閾値を決定する閾値決定部と、前記前景領域を除く領域について、前記第1の撮影画像と前記第2の撮影画像の差分を計算する背景差分計算部と、前記背景差分計算部により計算された差分、および前記閾値に基づいて、前記つなぎ目候補領域を決定する閾値処理部とを設けることができる。
前記閾値処理部には、前記背景差分計算部により差分が計算された領域のうち、差分が前記閾値以上となる領域を除外して得られる領域を前記つなぎ目候補領域とさせることができる。
前記つなぎ目候補領域決定部には、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域とは異なる領域であって、前記第1の前景物体と前記第2の前景物体との間に位置する領域を中央部貫通領域として決定する中央部貫通領域決定部をさらに設け、前記つなぎ目決定部には、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記つなぎ目が前記中央部貫通領域を通過してもよいという条件で、前記つなぎ目を決定させることができる。
前記つなぎ目決定部には、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域および前記中央部貫通領域とは異なる領域に対して、領域侵食処理を行なわせ、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記領域侵食処理により侵食された領域を前記つなぎ目が通過してもよいという条件で、前記つなぎ目を決定させることができる。
本技術の一側面の画像処理方法またはプログラムは、第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理方法またはプログラムであって、前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定し、前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定し、前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成するステップを含む。
本技術の一側面においては、第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理において、前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域が決定され、前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目が決定され、前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像が合成されて前記出力画像が生成される。
本技術の一側面によれば、より簡単な処理で適切に画像を合成することができる。
画像処理装置の構成例を示す図である。 撮影画像の一例を示す図である。 顔検出について説明する図である。 顔領域の分断線について説明する図である。 人物間画像について説明する図である。 つなぎ目候補領域について説明する図である。 人マスクについて説明する図である。 人領域除外画像について説明する図である。 人の領域と背景領域との差分について説明する図である。 背景領域同士の差分について説明する図である。 閾値決定に用いる累積ヒストグラムについて説明する図である。 つなぎ目候補領域について説明する図である。 微小領域追加処理について説明する図である。 微小領域追加処理について説明する図である。 微小領域追加処理について説明する図である。 中央部貫通領域について説明する図である。 つなぎ目について説明する図である。 出力画像の一例について説明する図である。 撮影画像の他の例について説明する図である。 つなぎ目候補領域について説明する図である。 中央部貫通領域について説明する図である。 つなぎ目について説明する図である。 出力画像の一例について説明する図である。 画像合成処理について説明するフローチャートである。 差分マップの生成について説明する図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[本技術の概念について]
まず、本技術の概念について説明する。
本技術で行なわれる画像合成処理は、主に3つのステップからなる。
まず、最初のステップでは、1枚目と2枚目の撮影画像上の人以外の部分の領域が、つなぎ目候補領域として指定される処理が行なわれる。このつなぎ目候補領域内を通り、つなぎ目候補領域を分断する線を2つの撮影画像のつなぎ目とすれば、人を切断することなく、1枚目の撮影画像と2枚目の撮影画像をつなぎ合わせることができる。
2つ目のステップでは、つなぎ目候補領域内で、2つの撮影画像がスムーズにつながるつなぎ目が決定される。
そして、最後のステップである3つ目のステップでは、実際に、決定されたつなぎ目で2つの撮影画像の合成処理が行なわれる。
これにより、簡単な計算で、2枚の撮影画像を合成して(つなぎ合わせて)、記念写真等の1枚の合成画像を得ることができる。
[本技術と従来技術との差異について]
ここで、本技術による画像合成と、従来の画像合成との違いについて説明しておく。
本技術では、2つの撮影画像の差分を参照して、適応的につなぎ目を決定していく点が、上述した特許文献1とは異なる。特許文献1では、つなぎ目とされる部分が予め定められている。
また、特許文献2の第29段落目や、特許文献3の第31段落目には、顔検出手法では横向きや後向きの人物を検出することができないと述べられている。
しかしながら、一般的に、記念撮影をする際は、被写体となるユーザの顔は正面を向いているので、従来からある既知の顔検出手法を利用することができる。本技術では、顔検出を利用している点が、特許文献2や特許文献3とは異なる。
また、本技術では、撮影画像上の人物が写っている部分がマスクされて、2枚の撮影画像間のつなぎ目が、そのマスク部分を通らないようにされている。これにより、従来の技術において必要であったデータ項(人物らしさの度合いを表す項)は、本技術では不要となる。なぜなら、本技術では、人物らしさの部分がマスクされているからである。これにより、平滑化項のみを考慮したエネルギ関数を最小とする簡単な計算で、所望の結果を導くことができる。
[画像処理装置の構成例]
次に、本技術を適用した具体的な実施の形態について説明する。
図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示す図である。
図1の画像処理装置11には、2人のユーザによって、それぞれ撮影された2枚の撮影画像IP−1および撮影画像IP−2が入力される。そして、画像処理装置11において、これらの撮影画像IP−1と撮影画像IP−2が合成され、その結果得られた出力画像OPが出力される。
なお、2枚の撮影画像IP−1と撮影画像IP−2は、それぞれ異なるユーザが撮影するため、各撮影画像の撮影方向がわずかに異なる可能性があるが、各撮影画像の位置合わせを行なえば、撮影方向のずれに対処することができる。また、そのような撮影画像の位置合わせ技術は、既知の技術であるので、その説明は省略する。
したがって、以下においては、2枚の撮影画像IP−1と撮影画像IP−2は、同じ位置から同じ方向を撮影したものであるとして、説明を続ける。また、以下では、撮影画像IP−1と撮影画像IP−2を特に区別する必要のない場合、単に撮影画像IPとも称することとする。
図1の例では、1枚目の撮影画像IP−1は、2枚目の撮影画像IP−2に投影されている被写体としての男性が撮影した画像であり、被写体として女性と風景が写っている画像である。撮影画像IP−1には、風景として木が写っている。
また、2枚目の撮影画像IP−2は、1枚目の撮影画像IP−1に投影されている被写体としての女性が撮影した画像であり、被写体として男性と風景が写っている画像である。撮影画像IP−2には、風景として木が写っている他、移動している自動車も被写体として写ってしまっている。
本技術の目的は、撮影画像IP−1と撮影画像IP−2を用いて、出力画像OPを得ることである。出力画像OPでは、主要な被写体である男性と女性が写っている。なお、出力画像OPには、2枚目の撮影画像IP−2上の自動車が半分だけ写っているが、これは主要な被写体(男性と女性)ではないので、許容されることとする。
画像処理装置11は、つなぎ目候補領域決定部21、つなぎ目決定部22、および合成部23から構成される。
つなぎ目候補領域決定部21は、供給された撮影画像IPに基づいてつなぎ目候補領域決定処理を行なうことで、それらの撮影画像IPのつなぎ目の探索対象の領域であるつなぎ目候補領域を決定し、その決定結果をつなぎ目決定部22に供給する。ここで、つなぎ目候補領域決定処理は、上述した「最初のステップ」に対応する。
つなぎ目候補領域決定部21は、顔検出部31−1、顔検出部31−2、人物間採用部32、人マスク生成部33、人マスク部除外処理部34、人マスク部差分計算部35、背景部差分計算部36、閾値決定部37、除外処理部38、微小領域追加部39、および中央部貫通領域追加部40を備えている。
顔検出部31−1は、供給された撮影画像IP−1から、被写体としての人(人物)の顔領域を検出し、その検出結果を人物間採用部32、人マスク生成部33、および中央部貫通領域追加部40に供給する。
また、顔検出部31−2は、供給された撮影画像IP−2から、被写体としての人の顔領域を検出し、その検出結果を人物間採用部32、人マスク生成部33、および中央部貫通領域追加部40に供給する。なお、以下、顔検出部31−1および顔検出部31−2を特に区別する必要のない場合、単に顔検出部31とも称することとする。
人物間採用部32は、供給された撮影画像と、顔検出部31からの顔領域の検出結果とに基づいて人物間採用処理を行い、その結果得られた人物間画像を人マスク部除外処理部34および人マスク部差分計算部35に供給する。
人物間採用処理では、2枚の撮影画像の一方における被写体としての人物の顔の領域の中央から、他方の撮影画像における人の領域とは反対側の領域が撮影画像から削除(除去)され、残った領域の画像が人物間画像とされる。すなわち、人物間画像は、撮影画像における主要被写体である2人のユーザの間の領域の画像である。
人マスク生成部33は、顔検出部31から供給された顔領域の検出結果に基づいて、撮影画像上の主要な被写体としての人の領域を示す人マスクを生成し、人マスク部除外処理部34および人マスク部差分計算部35に供給する。
人マスク部除外処理部34は、人物間採用部32からの人物間画像と、人マスク生成部33からの人マスクとに基づいて人領域除外画像を生成し、背景部差分計算部36および除外処理部38に供給する。ここで、人領域除外画像は、人物間画像から人マスクの領域が除去されて得られる画像である。
人マスク部差分計算部35は、人物間採用部32からの人物間画像と、人マスク生成部33からの人マスクに基づいて、2枚の人物間画像の一方における人の領域と、その人の領域に対応する他方の人物間画像の領域との差分を計算し、閾値決定部37に供給する。すなわち、1枚目の人物間画像の人の領域と、その領域に対応する2枚目の人物間画像の領域との差分、および2枚目の人物間画像の人の領域と、その領域に対応する1枚目の人物間画像の領域との差分が計算される。これにより、人の領域と背景領域との差分が得られる。
背景部差分計算部36は、人マスク部除外処理部34から供給された2枚の人領域除外画像の重複領域の差分を計算し、その計算結果を除外処理部38に供給する。ここで、人領域除外画像の重複領域とは、2枚の人領域除外画像上の同じ被写体が重なるように、それらの人領域除外画像を並べたときに互いに重なる領域である。この重複領域は、背景が写っている領域である。
閾値決定部37は、人マスク部差分計算部35から供給された差分の計算結果に基づいて閾値決定処理を行なうことで閾値を決定し、除外処理部38に供給する。閾値決定部37で決定される閾値は、2枚の撮影画像の対応する画素位置で差分を求めたときに、その差分から、対応する2つの画素位置が、それぞれ背景領域同士であるか、または人の領域と背景領域であるかを定めるのに用いられる。
除外処理部38は、背景部差分計算部36からの差分と、閾値決定部37からの閾値とを用いて、人マスク部除外処理部34から供給された人領域除外画像から、人の領域を除外してつなぎ目候補領域とし、微小領域追加部39に供給する。
微小領域追加部39は、除外処理部38から供給されたつなぎ目候補領域に対して、適宜、修正を加えて中央部貫通領域追加部40、およびつなぎ目決定部22に供給する。
中央部貫通領域追加部40は、顔検出部31からの顔検出結果と、微小領域追加部39からのつなぎ目候補領域とに基づいて中央部貫通領域を定め、つなぎ目決定部22に供給する。
ここで、中央部貫通領域とは、主要な被写体である2人の人物の中間にある領域であって、つなぎ目候補領域ではない領域をいい、この中央部貫通領域は、できればつなぎ目の領域としたくない領域である。
つなぎ目決定部22は、供給された撮影画像IPと、つなぎ目候補領域決定部21からのつなぎ目候補領域および中央部貫通領域とに基づいてつなぎ目決定処理を行なうことで、撮影画像IP間のつなぎ目を決定し、合成部23に供給する。ここで、つなぎ目決定処理は、上述した「2つ目のステップ」に対応する。
また、つなぎ目決定部22は、差分計算部51および分断線検出部52を備えている。
差分計算部51は、供給された撮影画像IP、微小領域追加部39からのつなぎ目候補領域、および中央部貫通領域追加部40からの中央部貫通領域に基づいて、撮影画像IP間の差分を示す差分マップを生成し、分断線検出部52に供給する。但し、差分マップの各画素の画素値は、中央部貫通領域などの各領域に基づいて適宜変更される。
分断線検出部52は、差分計算部51から供給された差分マップに基づいて、撮影画像IP間のつなぎ目を決定し、合成部23に供給する。
合成部23は、分断線検出部52から供給されたつなぎ目の位置で、供給された2枚の撮影画像IPを合成する合成処理を行なって、出力画像OPを生成する。そして、合成部23は、合成処理により得られた出力画像OPを出力する。なお、この合成処理が、上述した「最後のステップ」(3つ目のステップ)に対応する。
[顔検出処理について]
次に、図1の画像処理装置11を構成する各部により行なわれる処理について説明していく。
まず、顔検出部31により行なわれる顔検出処理について説明する。
例えば、図2に示すように、1枚目の撮影画像IP−1と2枚目の撮影画像IP−2が画像処理装置11に供給されたとする。なお、図2において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図2に示される撮影画像IP−1と撮影画像IP−2は、図1に示した撮影画像IPと同じ画像となっている。
1枚目の撮影画像IP−1には、被写体として主要被写体である女性MH11と、風景としての木LD11が含まれている。また、2枚目の撮影画像IP−2には、被写体として主要被写体である男性MH12、風景としての木LD11、および自動車OB11が含まれている。
顔検出部31では、供給された撮影画像IPに対して顔検出処理が施される。なお、画像が与えられたときに、その画像から顔を検出する処理は一般的な処理であり既知であるので、その詳細は省略する。
撮影画像IPに対する顔検出処理が行なわれると、例えば図3に示すように、各撮影画像IPから顔領域が検出される。
この例では、1枚目の撮影画像IP−1からは、女性MH11の顔の領域が顔領域FC11として検出され、2枚目の撮影画像IP−2からは、男性MH12の顔の領域が顔領域FC12として検出されている。また、これらの顔領域FC11と顔領域FC12は矩形の領域となっている。
例えば、顔検出部31からは、このようにして得られた顔領域FC11や顔領域FC12の位置情報が出力される。
[人物間採用処理について]
顔検出処理が行なわれると、次に人物間採用部32による人物間採用処理が行なわれる。
例えば、図4に示すように、顔検出処理で得られた顔領域FC11と顔領域FC12のそれぞれの中央を分断する線を考える。なお、図4において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図4では分断線L11が、1枚目の撮影画像IP−1から検出された顔領域FC11の中央を分断する図中、縦方向(鉛直方向)の直線であり、分断線L12が、2枚目の撮影画像IP−2から検出された顔領域FC12の中央を分断する図中、縦方向の直線となっている。
分断線L11が定められると、1枚目の撮影画像IP−1については、その撮影画像IP−1における分断線L11よりも、2枚目の撮影画像IP−2の分断線L12がある側と反対側にある領域が削除される。同様に、2枚目の撮影画像IP−2については、その撮影画像IP−2における分断線L12よりも、1枚目の撮影画像IP−1の分断線L11がある側と反対側にある領域が削除される。
これにより、図5に示す人物間画像HP−1および人物間画像HP−2が得られる。
図5では、人物間画像HP−1は、撮影画像IP−1における分断線L11よりも、図4中、右側の領域の画像であり、図5中、斜線部分の領域は、撮影画像IP−1から削除された領域、つまり撮影画像IP−1上の人物間画像HP−1とされない領域である。
また、人物間画像HP−2は、撮影画像IP−2における分断線L12よりも、図4中、左側の領域の画像であり、斜線部分の領域は、撮影画像IP−2から削除された領域、つまり撮影画像IP−2上の人物間画像HP−2とされない領域である。
人物間採用部32からは、人物間採用処理により得られた人物間画像HP−1および人物間画像HP−2が出力される。
ここで、人物間採用処理以降の各処理が、どのような目的で行なわれているかについて説明する。すなわち、つなぎ目候補領域決定処理の最終的な目標について説明する。
つなぎ目候補領域決定処理の最終的な目標は、撮影画像IPから人の部分(領域)を除外して、背景部分の画素位置を除外せずに、つなぎ目の領域の候補として残すことである。すなわち、例えば図6に示すように、撮影画像IPのうち、女性MH11と男性MH12の領域を除く、女性MH11と男性MH12についての顔領域の分断線間の領域SC11を残すことである。
図6の例では、撮影画像IPにおける女性MH11と、その分断線L11よりも図中、左側の領域、および撮影画像IPにおける男性MH12と、その分断線L12よりも図中、右側の領域に斜線が施されている。そして、撮影画像IPから斜線が施された領域が削除されて得られる領域が領域SC11となっており、撮影画像IPの領域SC11のみを残して他の領域を除外することが目標とされる。
もちろん、例えば図5に示した自動車OB11と、主要な被写体である男性MH12とを区別することは不可能に近い。さらに、ノイズによる誤判定もあるので、正確に図6の領域SC11を抽出することはほぼ不可能である。そこで、なるべく領域SC11に等しい領域を抽出することが、つなぎ目候補領域決定処理の最終的な目標となる。
[人マスク生成処理について]
人物間採用処理が行なわれると、次に、人マスク生成部33により人マスク生成処理が行なわれる。
人マスク生成処理では、例えば図4に示した顔領域FC11や顔領域FC12から、撮影画像IPにおける人の領域の情報が人マスクとして生成される。
人マスクの生成には、顔領域の横幅のBODY_W倍の横幅を持ち、顔領域の高さのBODY_H倍の高さを持つ矩形領域が考えられる。
すなわち、例えば図7に示すように撮影画像IP−1の顔領域FC11直下に位置し、顔領域FC11の横幅(図中、横方向の長さ)のBODY_W倍の横幅を持ち、かつ顔領域FC11の高さ(図中、縦方向の長さ)のBODY_H倍の高さを持つ矩形領域を領域BR11とする。このように顔領域FC11直下に位置し、顔領域FC11の大きさにより定まる大きさの領域BR11は、主要被写体としての人の体の領域である。
そこで、人マスク生成処理では、顔領域FC11と領域BR11とからなる領域を、人マスクMC11とする。この人マスクMC11の領域は、主要な被写体である人の領域である。
同様に、撮影画像IP−2についても、顔領域FC12直下に位置し、顔領域FC12の横幅のBODY_W倍の横幅を持ち、かつ顔領域FC12の高さのBODY_H倍の高さを持つ矩形領域が領域BR12とされる。そして、顔領域FC12と領域BR12とからなる領域が人マスクMC12とされる。
人マスク生成部33からは、人マスク生成処理により得られた人マスクMC11および人マスクMC12の位置情報が出力される。
なお、BODY_WおよびBODY_Hは、人の体の領域を得るためのパラメータであり、一般的には、それぞれ例えば3および7という値にすればよい。この数値にすることで、人の領域として適度な大きさを指定するこができる。
[人マスク部除外処理について]
人マスク生成処理が行なわれると、続いて人マスク部除外処理部34により人マスク部除外処理が行なわれる。
人マスク部除外処理では、人マスク生成部33から出力された人マスクに基づいて、人物間画像から、さらに人マスクにより示される領域が削除され、人領域除外画像とされる。
例えば、図8に示すように、1枚目の撮影画像IP−1から、斜線の施された領域ER11が除去されて残る領域の画像が、図5に示した人物間画像HP−1である。
人マスク部除外処理では、撮影画像IP−1から領域ER11が除去された領域から、さらにその領域内に含まれている、人マスクにより示される領域ER12が除去されて、人領域除外画像HRP−1とされる。
なお、図8において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図8において、領域ER12は、撮影画像IP−1における図7の人マスクMC11の領域のうち、撮影画像IP−1から領域ER11が除去された領域内に含まれる領域を示している。したがって、人領域除外画像HRP−1は、人物間画像HP−1からさらに人マスクMC11の領域を除去(削除)して得られる領域の画像である。
このようにして得られる人領域除外画像HRP−1は、人物間画像HP−1から人の領域が除去された画像であるが、人領域除外画像HRP−1には、矢印A11に示すように、主要な被写体としての女性MH11のスカートの部分などが含まれている。
なお、図8では、領域ER11は人物間採用処理で撮影画像IP−1から除去された領域を示しており、領域ER12は人マスク部除外処理で撮影画像IP−1から除去される領域を示している。これらの領域は、ともに撮影画像IP−1から除去された領域であるが、ここでは図を見やすくするため、それらの領域が分けて図示されている。つまり、実際の処理では、領域ER11と領域ER12は、どちらも区別する必要はなく、除去された領域とされる。
また、撮影画像IP−1における場合と同様に、撮影画像IP−2についても人マスク部除外処理が行なわれる。
すなわち、撮影画像IP−2から領域ER13が除去された領域から、さらにその領域内に含まれている、人マスクにより示される領域ER14が除去されて、人領域除外画像HRP−2とされる。
ここで、2枚目の撮影画像IP−2から、領域ER13が除去されて残る領域の画像が、図5に示した人物間画像HP−2である。また、領域ER14は、撮影画像IP−2における図7の人マスクMC12の領域のうち、撮影画像IP−2から領域ER13が除去された領域内に含まれる領域を示している。したがって、人領域除外画像HRP−2は、人物間画像HP−2からさらに人マスクMC12の領域を除去(削除)して得られる領域の画像である。
このようにして得られる人領域除外画像HRP−2は、人物間画像HP−2から人の領域が除去された画像であるが、人領域除外画像HRP−2には、矢印A12に示すように、主要な被写体としての男性MH12の肘の部分などが含まれている。
なお、撮影画像IP−2についても、図を見やすくするため、領域ER13と領域ER14が分けて図示されている。
人マスク部除外処理部34において人マスク部除外処理が行なわれると、その結果得られた人領域除外画像HRP−1と人領域除外画像HRP−2が、背景部差分計算部36および除外処理部38に出力される。
[人マスク部差分計算処理について]
人マスク部除外処理が行なわれると、人マスク部差分計算部35により、人マスク部差分計算処理が行なわれる。
人マスク部差分計算処理では、撮影画像IPの主要な被写体としての人が写っている位置における、2枚の撮影画像IP間の差分が求められる。
なお、差分のとり方には各種の手法があるが、本技術は、特定の差分計算手法に限定されるものではない。
例えば、2枚の画像間の差分を求める方法として、従来から輝度信号値の絶対値差分をとる手法や、RGB空間で対応する画素データの距離を差分とする方法、注目画素位置を中心とした小さなブロック内でテクスチャの類似度を見る方法などが知られている。本技術では、2枚の撮影画像IP間の差分を求める手法として、これらの何れの手法が用いられてもよい。以下では、どの手法が用いられるかに関わらず、単に「差分」という用語を用いて説明を続けることとする。
さて、人マスク部差分計算処理では、人が写っている位置における、2枚の撮影画像IP間の差分は、具体的に以下のようにして算出される。
例えば、図9に示すように、1枚目の人物間画像HP−1は、撮影画像IP−1から図4に示した分断線L11よりも図4中、左側の領域を除去して得られる画像である。図9では、撮影画像IP−1上の斜線が施された領域が除去された領域を示している。
同様に、2枚目の人物間画像HP−2は、撮影画像IP−2から図4に示した分断線L12よりも図4中、右側の領域を除去して得られる画像であり、図9では、撮影画像IP−2上の斜線が施された領域が除去された領域を示している。
なお、図9において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
このような人物間画像HP−1上において、図7に示した人マスクMC11のうち、人物間画像HP−1内に含まれている領域が領域DF11である。つまり領域DF11は、人マスクMC11のうち、分断線L11よりも図9中、右側の領域である。
また、人物間画像HP−1上において、図7に示した人マスクMC12のうち、人物間画像HP−2内に含まれている領域と同じ位置にある領域が領域DF12である。
さらに、人物間画像HP−2上において、図7に示した人マスクMC11のうち、人物間画像HP−1内に含まれている領域と同じ位置にある領域が領域DF13であり、人マスクMC12のうち、人物間画像HP−2内に含まれている領域が領域DF14である。
ここで、領域DF13は、同じ被写体が重なるように人物間画像HP−1と人物間画像HP−2を重ねた場合に、領域DF11と重なる領域である。同様に、領域DF12は、同じ被写体が重なるように人物間画像HP−1と人物間画像HP−2を重ねた場合に、領域DF14と重なる領域である。
また、1枚目の人物間画像HP−1上における領域DF11は、女性MH11の領域であるので、領域DF11は人の領域である。これに対して、人物間画像HP−1上における領域DF12は、2枚目の人物間画像HP−2上の男性MH12の領域に対応する領域であるが、1枚目の人物間画像HP−1には男性MH12が写っていないので、領域DF12は背景の領域である。
同様に、2枚目の人物間画像HP−2上の領域DF13は背景の領域であり、領域DF14は人の領域である。
このようにして領域DF11乃至領域DF14が得られると、領域DF11と領域DF13の同じ位置にある画素の画素値の差分、および領域DF12と領域DF14の同じ位置にある画素の画素値の差分が計算される。差分の計算により得られる差分データの数は、領域DF11内の画素の総数と、領域DF14内の画素の総数との和に等しくなる。
このような差分計算により、人が写っている領域DF11と、背景の領域DF13との差分、および人が写っている領域DF14と、背景の領域DF12との差分が求まる。
但し、領域DF11内には、領域HDF11のように人の領域ではない領域も含まれている。この領域HDF11と同じ位置にある領域DF13内の領域HDF12は、領域HDF11と同じ背景の領域となっている。そのため、領域HDF11と領域HDF12の差分については、背景領域同士の差分となってしまうが、そのような領域は殆どないため、基本的には、領域DF11と領域DF13内の各位置での差分は、人の領域と背景領域の差分となる。これは、領域DF12と領域DF14の差分についても同様である。
したがって、人マスク部差分計算部35から閾値決定部37には、領域DF11と領域DF13の各領域内の対応する画素の画素値の差分、および領域DF12と領域DF14の各領域内の対応する画素の画素値の差分が供給される。そして、それらの差分のデータ数は、領域DF11と領域DF14内の画素の総数と同じ個数となる。
[背景部差分計算処理について]
人マスク部差分計算処理が行なわれると、背景部差分計算部36において、背景部差分計算処理が行なわれる。すなわち、人マスク部差分計算処理と同じ差分計算が、人マスク部除外処理で人物間画像から除外(除去)されずに残った領域、つまり人領域除外画像についても行なわれる。
例えば、背景部差分計算処理では、図10に示すように、人領域除外画像HRP−1内の領域UR11と、人領域除外画像HRP−2内の領域UR12との差分が求められる。なお、図10において、図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図10では、撮影画像IP−1から斜線が施された領域ER31が除去されて得られる領域の画像が人領域除外画像HRP−1である。同様に、撮影画像IP−2から斜線が施された領域ER32が除去されて得られる領域の画像が人領域除外画像HRP−2である。
また、人領域除外画像HRP−1上の差分の計算対象となる領域UR11は、同じ被写体が重なるように人領域除外画像HRP−1と人領域除外画像HRP−2を重ねたときに、人領域除外画像HRP−2と重なる人領域除外画像HRP−1上の領域である。
換言すれば、領域UR11は、人領域除外画像HRP−1から、2枚目の撮影画像IP−2の領域ER32に対応する領域を除去して残る領域であり、2枚の撮影画像IPを重ねてもおよそ背景のみとなる領域である。
人領域除外画像HRP−2上の差分の計算対象となる領域UR12は、同じ被写体が重なるように人領域除外画像HRP−1と人領域除外画像HRP−2を重ねたときに、人領域除外画像HRP−1と重なる人領域除外画像HRP−2上の領域である。
このようにして領域UR11と領域UR12が得られると、これらの領域UR11と領域UR12内の同じ位置にある画素の画素値の差分が計算される。つまり、人領域除外画像の重複領域の差分が求められる。差分の計算により得られる差分データの数は、領域UR11内の画素の総数に等しくなる。
したがって、背景部差分計算部36から除外処理部38には、背景の領域である領域UR11と領域UR12の各画素の画素値の差分が供給される。
[閾値決定処理について]
人マスク部差分計算処理と背景部差分計算処理が行われ、人の領域と背景領域の差分、および背景領域同士の差分が得られると、閾値決定部37において閾値決定処理が行なわれ、閾値が決定される。
ここで、本技術の特徴の1つである閾値の考え方について説明する。
1枚目の撮影画像IP−1にも2枚目の撮影画像IP−2にも、背景(静止物体)として写っている部分は同じ背景であるので、2枚の撮影画像IP間の差分を各位置でとれば、それぞれの位置で差分の値は0となるはずである。しかし、実際にはノイズなどの影響で差分の値は0にはならず、ある小さな値を持つ。
一方、1枚目の撮影画像IP−1、または2枚目の撮影画像IP−2の一方のみに写っている人の部分について差分をとれば、その差分の値は0でない大きな値となる。
つなぎ目候補領域決定処理の最終目標は、つなぎ目候補領域を求めるときに、人の部分を除外すると同時に、背景部分であるにも関わらずノイズの影響で差分をとったときに差分値が0にならなかった画素位置をなるべく除外せずに、つなぎ目候補領域として残すことである。
ここで、1つの問題がある。すなわち、つなぎ目候補領域から除外される人の領域と背景領域との差分、および背景領域同士の差分を区別するための閾値をどのような値に設定すればよいかという問題である。
閾値をかなり小さな値に設定した場合は、2枚の撮影画像上の対応する領域について、画像間で対応する画素値の差分が少しでもあれば、その差分は閾値以上ということになり、差分を求めた領域は、つなぎ目候補領域から除外されてしまう。
この場合、つなぎ目候補領域から人の部分の領域を確実に除外することができるが、背景領域であるにも関わらずノイズのために差分があった位置も、つなぎ目候補領域から除外されてしまうことになる。
一方、閾値をかなり大きな値に設定した場合は、画像間で対応する画素値の差分が大きくても、その差分は閾値以下ということになり、差分を求めた領域は、つなぎ目候補領域から除外されない。この場合、背景部分の領域は多少のノイズがあって差分が0でなくても、つなぎ目候補領域から除外されずに残ると推定されるが、人の部分の領域もつなぎ目候補領域として残ってしまう可能性が高い。
なお、ここでいう人の部分の領域とは、例えば人マスク部除外処理により得られた人領域除外画像上にある、図8の矢印A11に示した女性MH11のスカートの部分や、矢印A12に示した男性MH12の肘の部分などである。つまり、人領域除外画像から除去されずに残った人の投影像の領域である。
以上の説明をまとめると、閾値についての問題は、矢印A11に示したスカートの部分や、矢印A12に示した肘の部分を、人の領域としてつなぎ目候補領域から除外したいが、そのためには、閾値をどのように設定したらよいかという問題である。
そこで、この実施の形態では、閾値決定部37による閾値決定処理において、入力される撮影画像に最適な閾値を自動で決定するようにしている。すなわち、閾値決定処理では以下の処理が行われる。
まず、人マスク部差分計算処理により求められた差分のデータについて、累積ヒストグラムが生成される。
例えば、図9の領域DF11と領域DF13内の同じ位置にある画素の差分、および領域DF12と領域DF14内の同じ位置にある画素の差分の計算結果に基づいて、図11の曲線HG11により示される累積ヒストグラムが生成される。なお、図11において、横軸および縦軸は、それぞれ画素数および差分値を示している。
曲線HG11により示される累積ヒストグラム(以下、累積ヒストグラムHG11とも称する)は、人の領域と背景の領域の差分の累積ヒストグラムであり、位置PX11における画素数は、領域DF11と領域DF14内の画素の総数である。
また、曲線HG12により示される累積ヒストグラム(以下、累積ヒストグラムHG12とも称する)は、図10に示した領域UR11と領域UR12内の同じ位置にある画素の差分の累積ヒストグラムである。累積ヒストグラムHG12は、背景領域同士の差分の累積ヒストグラムであり、位置PX12における画素数は領域UR11内の画素の総数である。
累積ヒストグラムHG11は、多少の誤差はあったとしても、ほぼ、人と背景の差分をとるとどのような値になるかを示している。
ここで、多少の誤差と述べたのは、図9の領域DF11内には、例えば人の領域だけでなく、領域HDF11などの背景の領域も含まれているからである。
図9では、領域HDF11に対応する2枚目の人物間画像HP−2上の領域は、領域DF13内の領域HDF12となっている。これらの対応する領域HDF11と領域HDF12は、何れも2枚の撮影画像における背景部分の領域である。したがって、領域HDF11と領域HDF12について求めた差分は、人の領域と背景領域の差分とはいえない。しかし、領域DF11内は、ほぼ人の投影像で満たされており、領域HDF11などは微少領域であり無視できるので、多少の誤差という表現を用いている。
ここで、上述した「多少の誤差」を例えば20%と考えれば、累積ヒストグラムHG11における下位20%の位置PX13に対応する差分値TH11が1つの目安となる。位置PX13に示される画素数は、位置PX11に示される画素数の20%分の画素数であり、累積ヒストグラムHG11の位置PX13における差分値が差分値TH11である。
したがって、2枚の撮影画像IPの所定の画素位置について求めた差分値が差分値TH11以上であれば、どちらか一方の撮影画像IPには人が写っており、他方の撮影画像IPには背景が写っている画素位置であったと考えられる。なお、本技術では、閾値を決定する際の画素数は、総画素の20%分の画素数に限定されるわけではなく、10%や30%など、どのような値であってもよい。
閾値決定処理では、人の領域と背景の領域との差分の計算結果から、累積ヒストグラムHG11が生成され、この累積ヒストグラムHG11の下位20%となる画素数の位置PX13における差分値TH11が閾値として求められる。
したがって、累積ヒストグラムHG12において、差分値が差分値TH11となる画素数の位置PX14までの間に累積された、差分の計算対象となった画素は、背景領域同士の差分が得られた画素である。逆に、累積ヒストグラムHG12において位置PX14から位置PX12までの間に累積された画素は、人の領域と背景領域の差分が得られた画素である。
閾値決定部37から除外処理部38には、閾値決定処理により得られた差分値TH11が閾値として出力される。
[除外処理について]
閾値決定処理により閾値が定められると、除外処理部38では、定められた閾値が用いられて除外処理が行なわれて、つなぎ目候補領域から人の領域が除外される。
例えば、つなぎ目候補領域から、図8の矢印A11に示した女性MH11のスカートの部分や、矢印A12に示した男性MH12の肘の部分を除外する処理が行なわれる。
すなわち、人マスク部除外処理で撮影画像IPから削除されずに残された図10の領域UR11と領域UR12内の各画素について、それらの画素を、つなぎ目候補領域を構成する画素とするかの選別が行なわれる。つなぎ目候補領域を構成する画素とするかの選別には、背景部差分計算部36において計算された、各画素の差分が用いられる。
除外処理では、累積ヒストグラムHG12で、先に求めた閾値、つまり差分値TH11以上である差分を持つ画素位置が、どちらか一方の撮影画像の画素には人が写っており、他方の撮影画像の画素には背景が写っている画素位置であるとされ、削除される。
図11の例では、位置PX14から位置PX12の間で累積された画素位置が、削除(除外)される画素位置である。
したがって、例えば図10の領域UR11と領域UR12の各画素のうち、差分値が閾値以上である画素が除外されて残った画素からなる領域が、つなぎ目候補領域とされる。換言すれば、つなぎ目候補領域は、領域UR11と領域UR12の各画素のうち、差分値が閾値未満である画素からなる領域である。
これにより、例えば図10の領域UR11や領域UR12から、図12に示すつなぎ目候補領域が得られる。
図12では、1枚目または2枚目の撮影画像IPのうち、斜線が施された領域ER41と領域ER42とが除去されて残った領域が領域UR21であり、領域UR21は、図10における撮影画像IP上の領域UR11または領域UR12である。
そして、この領域UR21内の各領域のうち、斜線の施された領域は差分が閾値以上である画素からなる領域であり、斜線の施されていない領域は差分が閾値未満である画素からなる領域である。
したがって、領域UR21内にある斜線の施されていない領域が、つなぎ目候補領域となる。なお、図12において、領域ER41と領域ER42は、人物間採用処理と人マスク部除外処理で除外された領域を示している。
また、領域UR21内の斜線が施されている領域は、除外処理によって除外(削除)された領域を示している。なお、削除された領域を区別して図示しているのは、図を見やすくするためであり、実際の処理ではこれらの領域は区別する必要はなく、どちらも削除された領域とされる。
このような除外処理によって、例えば図8の矢印A11に示した女性MH11のスカートの部分や、矢印A12に示した男性MH12の肘の部分などが、つなぎ目候補領域から除外されることになる。
しかし、撮影画像IP上の自動車OB11は、2枚の撮影画像IPのうちの2枚目の撮影画像IP−2にしか写っていないために、つなぎ目候補領域から除外されてしまっているが、これは仕方のないことである。図12では、領域ER43の一部が、主要な被写体ではないにも関わらず削除されてしまった自動車OB11の領域となっている。
また、領域ER44の一部の領域は、巨大なノイズがあったために、この領域における2枚の撮影画像間の差分が大きな値となってしまい、閾値処理において閾値以上であると判定されて、背景領域でないとしてつなぎ目候補領域から除外されてしまった領域である。
これらの領域ER43や領域ER44の一部の領域は、閾値処理による誤判定が生じたために、つなぎ目候補領域から除外されてしまった領域である。
除外処理によって、つなぎ目候補領域が得られると、このつなぎ目候補領域が除外処理部38から微小領域追加部39に出力される。
[微小領域追加処理について]
さらに、つなぎ目候補領域が得られると、微小領域追加部39では、つなぎ目候補領域に対して閾値処理による誤判定を軽減する処理である、微小領域追加処理が行なわれる。
微小領域追加処理では、例えば図13に示す撮影画像IPにおけるつなぎ目候補領域を特定するための情報、すなわち斜線が施されている領域を示す情報が入力とされる。なお、図13において、図12における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図13は、図12の斜線領域を区別せずに再掲したものである。
微小領域追加処理では、まず、撮影画像IPにおけるつなぎ目候補領域、つまり斜線の施されていない、除外されずに残っている領域がセグメント化される。これにより、例えば図14に示すように、セグメントCE11乃至セグメントCE13の3つのセグメントが得られる。
次に、これらのセグメントCE11乃至セグメントCE13を膨張させる処理、すなわちダイレーション(dilation)が行なわれる。例えば、ダイレーションする量は4画素程度とされる。
このようなダイレーションを行なうことで、2つのセグメントがつながり合う場合は、ダイレーションした画素位置が残されるようにされる。つまり、一旦は削除された画素位置であったが、ダイレーションによりつながるようであれば、その画素位置の削除を取りやめて、つなぎ目候補領域の画素として残されるようにされる。
これにより、ダイレーション後のつなぎ目候補領域として、図15に示すつなぎ目候補領域が得られる。図15では、撮影画像IPのうち、斜線が施されていない領域がつなぎ目候補領域となっている。
図15に示すダイレーション後のつなぎ目候補領域と、図13に示したダイレーション前のつなぎ目候補領域とを比較すると、図15の例では、図13の領域ER44の一部の領域が、つなぎ目候補領域に含まれている。すなわち、閾値処理による誤判定が生じて、一度は除外されてしまった領域が、その除外が取り消されて最終的にはつなぎ目候補領域とされている。
これにより、ノイズのために誤判定してしまった微少領域の削除(除去)を取りやめることができ、より適切なつなぎ目候補領域が得られるようになる。最終的に得られたつなぎ目候補領域は、撮影画像IPからおよそ人の領域を除外して、およそ背景部分を残した領域である。
微小領域追加処理が行なわれて、つなぎ目候補領域が修正されると、つなぎ目候補領域を特定する情報、例えば図15の斜線が施されている領域の情報が微小領域追加部39から中央部貫通領域追加部40、および差分計算部51に供給される。
なお、以下、微小領域追加処理により得られた、最終的なつなぎ目候補領域を特定する情報をマスク情報と称することとする。マスク情報は、つなぎ目候補領域を特定することができる情報であれば、図15の斜線が施されていない領域、つまりつなぎ目候補領域を示す情報であってもよいし、図15の斜線が施されている領域、つまりつなぎ目候補領域とされずに除外された領域を示す情報であってもよい。以下では、マスク情報は、つなぎ目候補領域とされずに除外された領域を示す情報、つまりつなぎ目候補領域とされないようにマスクされる領域を示す情報であるものとして説明を続ける。
[中央部貫通領域追加処理について]
さて、図15を見ても分かるように、撮影画像IP上の斜線の施されていない領域、つまり除外されずに残ったつなぎ目候補領域だけを通り、図中、上から下までを貫通する線を引くことは不可能である。
もちろん、図2に示した自動車OB11の領域と、女性MH11や男性MH12などの主要な被写体である人の領域とを区別して、自動車OB11の部分をつなぎ目候補領域として残すことができればよいが、そのようなことは不可能である。これは、自動車OB11の領域と、女性MH11や男性MH12などの人の領域とを区別することができないからである。
しかし、2つの撮影画像IPをつなぎ合わせるためには、撮影画像IPを図中、上から下まで貫通(分断)する線を引かなくてはならない。そこで、本技術では、撮影画像IPに含まれる2人のユーザ、つまり女性MH11と男性MH12の丁度、中央部分を、つなぎ目が通るようにさせることとする。中央部分であれば、人(女性MH11と男性MH12)を分断しない可能性が高くなるからである。
そこで、図16に示すように、撮影画像IP上において図4を参照して説明した人物間採用処理で求められた分断線L11と分断線L12から等距離にあり、幅が例えば16画素の領域CL11を考える。なお、図16において、図4における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図16では、斜線の施されていない領域がつなぎ目候補領域となっている。また、撮影画像IP上の分断線L11と分断線L12の間にある、2つの点線の間の領域が領域CL11とされており、この領域CL11の図中、横方向の幅は16画素となっている。なお、領域CL11の横幅は、16画素に限らず、どのような画素数であってもよい。例えば、領域CL11の横幅は、8画素や32画素などとされてもよい。
このような横幅16画素の領域CL11内にある、斜線が施された中央部貫通領域ER51が求められる。中央部貫通領域ER51は、領域CL11のうち、つなぎ目候補領域ではない領域、つまりマスク情報により示される領域である。この中央部貫通領域ER51は、これまでの処理によってつなぎ目候補領域から除外された領域であり、回避可能であれば、つなぎ目としたくない領域である。
中央部貫通領域追加処理によって、中央部貫通領域ER51が求められると、中央部貫通領域追加部40から差分計算部51には、中央部貫通領域ER51を示す情報が出力される。
以上で、つなぎ目候補領域決定処理の説明を終える。つなぎ目候補領域決定処理は、2枚の撮影画像IPを入力とし、図15に示したマスク情報、つまり撮影画像IPからつなぎ目候補領域とされずに除外された領域を示す情報と、図16に示した中央部貫通領域ER51を示す情報とを出力とする処理である。
なお、より厳密に述べるならば、つなぎ目候補領域決定処理では、1枚目の撮影画像IP−1は合成する際に図2中、右側の領域を使うのか、または左側の領域を使うのかという情報も出力される。この情報は、後述する合成処理において使用される。
撮影画像IP−1の左右のどちら側の領域を合成処理に用いるかは、2つの撮影画像IPに対する顔検出処理で検出された2人のユーザのうち、どちらのユーザの顔が左側にあったかにより判定することができる。
つまり、1枚目の撮影画像IP−1の顔検出処理の結果の顔の位置が、2枚目の撮影画像IP−2の顔検出処理の結果の顔の位置より、図2中、左側にあった場合、すなわち図2の例の場合は、1枚目の撮影画像IP−1は合成する際に左側の領域を使うとされる。
逆に、1枚目の撮影画像IP−1の顔検出処理の結果の顔の位置が、2枚目の撮影画像IP−2の顔検出処理の結果の顔の位置より、図2中、右側にあった場合は、1枚目の撮影画像IP−1は合成する際に右側の領域を使うとされる。
このような合成時に1枚目の撮影画像IP−1のどちら側の領域を用いるかを示す情報の流れは、図1には図示されていないが、より詳細には、そのような情報が合成部23に供給されることになる。
[つなぎ目決定処理について]
次に、つなぎ目を決定する処理であるつなぎ目決定処理について説明する。つなぎ目決定処理は、差分計算処理およびエネルギ最小分断線検出処理の2つの処理からなる。
まず、差分計算処理では、2枚の撮影画像IPが入力され、それらの撮影画像IPの対応する画素位置ごとに差分が計算される。この差分の計算手法は、上述した人マスク部差分計算処理における差分の計算手法と同じであってもよいし、他の計算手法であってもよい。
2枚の撮影画像IPの画素位置での差分が小さいということは、その画素位置で、2枚の撮影画像IPをつなぎ合わせても、つなぎ目が分からないことを意味する。この考え方は、上述した特許文献2や特許文献3における平滑化項と同じ考え方である。
さて、この差分計算処理においては、つなぎ目候補領域決定処理で得られたつなぎ目候補領域を特定するマスク情報と、中央部貫通領域を示す情報とが用いられ、差分マップが生成される。なお、以下では、マスク情報により示される領域、つまり撮影画像IP上のつなぎ目候補領域とされずに除外された領域を、マスク領域とも称することとする。
具体的には、撮影画像IP上のマスク情報により示されるマスク領域であり、かつ中央部貫通領域ではない領域内の画素位置については、その画素位置の差分値が強制的に無限大の値とされる。例えば、そのような領域は、図16に示した撮影画像IP上の斜線が施された領域のうち、中央部貫通領域ER51ではない領域である。
また、中央部貫通領域内の画素位置については、その画素位置の差分値に対して1以上である所定の大きさ、例えば1000などを持ったゲインがかけられる。
これにより、以下のような性質を有する差分マップが得られる。ここで、差分マップの画素の画素値は、基本的に、その画素と同じ位置にある2枚の撮影画像の画素の画素値の差分の値を示している。但し、上述した中央部貫通領域内の画素など、撮影画像上の特定の画素と同じ位置にある差分マップの画素の画素値は、無限大やゲインがかけられた値とされる。
性質1:つなぎ目候補領域決定処理で得られたマスク情報により示されるマスク領域であって、かつ中央部貫通領域内にない領域に対応する差分マップの画素の画素値は、無限大の値を持つ。
性質2:つなぎ目候補領域決定処理で得られた中央部貫通領域に対応する差分マップの画素の画素値は、かなり大きな値を持つ。
性質3:つなぎ目候補領域に対応する差分マップの画素の画素値は、その画素位置における2枚の撮影画像の差分が小さい画素では小さな値となり、2枚の撮影画像の差分が大きい画素では大きな値となる。
差分計算処理では、上述した3つの性質を有する差分マップが求められ、差分計算部51から分断線検出部52へと出力される。
分断線検出部52により行なわれるエネルギ最小分断線検出処理では、撮影画像の上辺と下辺を結ぶ1本の線(分断線)が求められ、得られた分断線が撮影画像IP間のつなぎ目とされる。
この分断線は、差分マップの任意の上辺と下辺の画素位置を、それぞれ始点と終点とし、始点から終点までの経路のうち、経路上にある差分マップの画素の画素値の合計値が最小となる経路を求め、その経路と同じ位置を通る撮影画像上の線を分断線とすることで求められる。したがって、撮影画像IP間のつなぎ目は、実質的には、次のようにして求められることになる。
すなわち、つなぎ目候補領域の上辺と下辺を通り、つなぎ目候補領域を分断する線(分断線)がつなぎ目として求められる。このとき、分断線は、できるだけつなぎ目候補領域内のみを通過するように求められるが、そのような分断線が得られない場合には、分断線が中央部貫通領域を通過してもよいという条件で、分断線が求められる。なお、分断線は、マスク領域であって、かつ中央部貫通領域内にない領域を通過することはない。
このような分断線は、実際には、動的計画法(dynamic programming)により簡単に求めることができる。なお、動的計画法は既知の技術であるので、その詳細な説明は省略する。
以上のようにして分断線が求められると、この分断線は分断線検出部52から合成部23に出力される。
例えば、合成部23に出力される分断線は、図17に示すように、撮影画像間のつなぎ目とされる。なお、図17において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図17では、1枚目の撮影画像IP−1上のつなぎ目SM11と、2枚目の撮影画像IP−2上のつなぎ目SM12が、つなぎ目決定処理で得られた分断線を示している。同じ被写体が重なるように撮影画像IP−1と撮影画像IP−2を重ね合わせると、これらのつなぎ目SM11とつなぎ目SM12も重なるようになっている。
[合成処理について]
次に、1枚目の撮影画像IP−1と2枚目の撮影画像IP−2を合成して出力画像OPを生成する合成処理について説明する。
合成処理では、2つの撮影画像と、つなぎ目決定処理で求めた分断線、つまりつなぎ目が入力とされる。また、より詳細には、つなぎ目候補領域決定処理で得られた、1枚目の撮影画像は合成する際に左右のどちら側の領域を用いるのかを示す情報も与えられる。
例えば、1枚目の撮影画像IP−1の左側の領域を用いる旨の情報が与えられた場合、入力されたつなぎ目の左側の領域には、1枚目の撮影画像IP−1が用いられ、つなぎ目の右側の領域には、2枚目の撮影画像IP−2が用いられて合成処理が行なわれる。
すなわち、例えば図17に示した撮影画像IP−1のつなぎ目SM11よりも図中、左側の領域と、撮影画像IP−2のつなぎ目SM12よりも図中、右側の領域とがつなぎ合わされて、出力画像OPとされる。
これにより、例えば図18に示す出力画像OPが得られる。なお、図18において、図1における場合と対応する部分には同一の符号を付してあり、その説明は省略する。
図18の例では、出力画像OPには、主要な被写体である女性MH11と男性MH12が分断されずに写っており、高品質な出力画像OPが得られていることが分かる。但し、出力画像OPでは、自動車OB11がつなぎ目SM13により分断されている。
なお、1枚目の撮影画像IP−1の右側の領域を用いる旨の情報が与えられた場合には、入力されたつなぎ目の右側の領域には、1枚目の撮影画像IP−1が用いられ、つなぎ目の左側の領域には、2枚目の撮影画像IP−2が用いられて合成処理が行なわれる。
[中央部貫通領域追加処理の補足について]
ここで、上述した中央部貫通領域追加処理について、補足説明をする。
例えば、図1に示した画像処理装置11に、図19に示す撮影画像が入力されたとする。なお、図19において図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図19の例では、1枚目の撮影画像IP−1と、2枚目の撮影画像IP−2’が入力されている。1枚目の撮影画像IP−1は、図2に示した撮影画像IP−1と同じであり、2枚目の撮影画像IP−2’と、図2に示した撮影画像IP−2とでは、写っている被写体は同じであるが、それらの被写体のうち自動車OB11が写っている位置が異なっている。具体的には、撮影画像IP−2’では、撮影画像IP−2における場合よりも自動車OB11がやや右側に位置している。
なお、以下、撮影画像IP−1と撮影画像IP−2’を特に区別する必要のない場合、単に撮影画像IPとも称することとする。
これらの撮影画像IP−1と撮影画像IP−2’に対して、画像処理装置11が各処理を施すと、微小領域追加部39から出力されるマスク情報、つまりマスク領域を示す情報は、図20に示すようになる。
図20では、撮影画像IP上の斜線が施された領域がマスク領域を示しており、斜線の施されていない領域がつなぎ目候補領域を示している。
図15に示したマスク領域(斜線が施された領域)では、女性MH11と自動車OB11に対応する領域がつながっている。これに対して、図20のマスク領域では、女性MH11と自動車OB11に対応する領域がつながっていない。
また、撮影画像IP−1と撮影画像IP−2’を入力とする場合、中央部貫通領域追加処理により得られる中央部貫通領域は、図21に示すようになる。
図21では、撮影画像IP上の斜線が施された領域がマスク領域を示しており、斜線の施されていない領域がつなぎ目候補領域を示している。また、撮影画像IP上のマスク領域のうち、女性MH11と男性MH12に対応する領域の中間に位置する領域が中央部貫通領域ER61となっている。
このような場合、つなぎ目決定処理で、差分マップの画素の画素値の合計値が最小となる経路から求まる撮影画像IPの上辺と下辺を結ぶ1本の線(分断線)、つまりつなぎ目として、図22に示すつなぎ目SM21が得られる。
図22では、撮影画像IP上のつなぎ目SM21は、中央部貫通領域ER61ではなく、斜線で示されるマスク領域の間にある領域PS11を通っている。領域PS11は、つなぎ目候補領域内にある領域である。
また、このつなぎ目SM21により撮影画像IP−1と撮影画像IP−2’をつなぎ合わせると、図23に示す出力画像OP’が得られる。なお、図23において、図22または図18における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図23の出力画像OP’では、主要な被写体である女性MH11と男性MH12だけでなく、自動車OB11も分断されずに写っていることが分かる。
ところで、つなぎ目決定処理において、図22の斜線が施されたマスク領域であって、中央部貫通領域ER61ではない領域は、無限大のエネルギを有する。つまり、その領域と同じ位置にある差分マップの各画素の画素値は、無限大の値とされる。
そのため、つなぎ目SM21が、斜線が施されたマスク領域のうち、中央部貫通領域ER61ではない領域を通過することはない。しかし、中央部貫通領域ER61は有限の値のエネルギをもつ、つまり中央部貫通領域ER61と同じ位置にある差分マップの各画素の画素値は、有限の値となるので、つなぎ目SM21が中央部貫通領域ER61を通過する可能性もあるとも思える。
しかし、中央部貫通領域ER61に対応する差分マップの画素では、前述した通り2枚の撮影画像IPの差分値を1000倍した値が画素値とされている。したがって、つなぎ目SM21が中央部貫通領域ER61を通ると、1000倍ものエネルギが加わることになるので、中央部貫通領域ER61を通過するよりは、つなぎ目候補領域内の領域PS11を通過する方が、エネルギが小さくて済む。つまり、エネルギ最小分断線検出処理の結果として、中央部貫通領域ER61を通ることはなく、領域PS11を通るつなぎ目が求まることになる。
このように、回避可能であれば、つなぎ目としたくない領域である中央部貫通領域は、まさに図22の例のように回避可能である場合、つまり領域PS11を通過すればよい場合は、つなぎ目の領域とはならない。
そして、図16の例のように、回避が不可能である場合には、つなぎ目は、回避可能であれば、つなぎ目としたくない中央部貫通領域ER51を通ることになる。中央部貫通領域追加処理で求まった中央部貫通領域は、後段のつなぎ目決定処理に対して、適切な情報として提供される。
[画像合成処理の説明]
次に、図24のフローチャートを参照して、画像処理装置11により行なわれる画像合成処理について説明する。画像合成処理は、画像処理装置11に撮影画像IPが供給され、出力画像OPの生成が指示されると開始される。
ステップS11において、顔検出部31は、供給された撮影画像IPから、被写体としての人の顔領域を検出する。
例えば、顔検出部31−1は、1枚目の撮影画像IP−1から人の顔領域を検出し、その検出結果を人物間採用部32、人マスク生成部33、および中央部貫通領域追加部40に供給する。また、顔検出部31−2は、2枚目の撮影画像IP−2から人の顔領域を検出し、その検出結果を人物間採用部32、人マスク生成部33、および中央部貫通領域追加部40に供給する。
ステップS12において、人物間採用部32は、供給された撮影画像と、顔検出部31からの顔領域の検出結果とに基づいて人物間画像を生成し、人マスク部除外処理部34および人マスク部差分計算部35に供給する。
例えば、人物間採用部32は、撮影画像IPから検出された顔領域の中央部を分断する分断線を定め、撮影画像IPにおける分断線よりも他方の撮影画像IPの分断線側にある領域の画像を、人物間画像とする。これにより、例えば図5の人物間画像HP−1と人物間画像HP−2が得られる。
ステップS13において、人マスク生成部33は、顔検出部31から供給された顔領域の検出結果に基づいて、撮影画像IP上の人の領域を示す人マスクを生成し、人マスク部除外処理部34および人マスク部差分計算部35に供給する。
例えば、人マスク生成部33は、撮影画像IP上の顔領域に対して、顔領域の高さおよび横幅から定まる大きさで、顔領域直下に位置する矩形領域を定め、定めた矩形領域と顔領域とからなる領域を、人の領域を示す人マスクとする。これにより、例えば図7の人マスクMC11と人マスクMC12が得られる。
ステップS14において、人マスク部除外処理部34は、人物間採用部32からの人物間画像と、人マスク生成部33からの人マスクとに基づいて人領域除外画像を生成し、背景部差分計算部36および除外処理部38に供給する。
例えば、人マスク部除外処理部34は、人物間画像から人マスクの領域が除去されて残った領域の画像を、人領域除外画像とする。これにより、例えば図8の人領域除外画像HRP−1と人領域除外画像HRP−2が得られる。
ステップS15において、人マスク部差分計算部35は、人物間採用部32からの人物間画像と、人マスク生成部33からの人マスクに基づいて、人物間画像における人マスク部分の差分を計算し、閾値決定部37に供給する。
すなわち、人マスク部差分計算部35は、2枚の人物間画像の一方における人の領域と、その人の領域に対応する他方の人物間画像の領域との差分をそれらの領域内の画素ごとに計算する。これにより、例えば図9の領域DF11と領域DF13の同じ位置にある画素の画素値の差分、および領域DF12と領域DF14の同じ位置にある画素の画素値の差分が計算される。つまり、人の領域と背景領域との差分が計算される。
ステップS16において、背景部差分計算部36は、人マスク部除外処理部34から供給された2枚の人領域除外画像の重複領域の差分を計算し、その計算結果を除外処理部38に供給する。この処理では、例えば図10の領域UR11と領域UR12内の同じ位置にある画素の画素値の差分が計算される。これにより、およそ背景の領域同士の差分が得られる。
ステップS17において、閾値決定部37は、人マスク部差分計算部35から供給された差分の計算結果に基づいて閾値決定処理を行なうことで閾値を決定し、除外処理部38に供給する。
すなわち、閾値決定部37は、人マスク部差分計算部35から供給された差分に基づいて、その差分を求めた画素の累積ヒストグラムを生成し、得られた累積ヒストグラムの所定の累積画素数における差分値を閾値とする。これにより、例えば図11の累積ヒストグラムHG11が生成され、位置PX13における差分値TH11が閾値とされる。
ステップS18において、除外処理部38は、背景部差分計算部36からの差分と、閾値決定部37からの閾値とを用いて、人マスク部除外処理部34から供給された人領域除外画像から、つなぎ目候補領域を定めて微小領域追加部39に供給する。
例えば、除外処理部38は、同じ被写体が重なるように1枚目と2枚目の人領域除外画像を重ねた場合に、それらの人領域除外画像が重なる領域(重複領域)を求める。そして、除外処理部38は、重複領域のうち、2枚の人領域除外画像の画素の差分が閾値未満である画素からなる領域をつなぎ目候補領域とする。この処理により、例えば図12の領域UR21内にある斜線の施されていない領域が、つなぎ目候補領域として定められる。
ステップS19において、微小領域追加部39は、除外処理部38から供給されたつなぎ目候補領域に対して、微小領域追加処理を行なう。そして、微小領域追加部39は、微小領域追加処理により得られた、最終的なつなぎ目候補領域を特定するマスク情報を、中央部貫通領域追加部40、および差分計算部51に供給する。
すなわち、微小領域追加処理では、つなぎ目候補領域に対してダイレーションが行なわれ、つなぎ目候補領域の修正が行なわれる。これにより、例えば図15に示した斜線が施されていない領域がつなぎ目候補領域として得られる。そして、例えば図15に示した斜線が施されている領域、つまりつなぎ目候補領域ではない領域がマスク領域とされ、マスク領域を示すマスク情報が、つなぎ目候補領域を特定する情報として出力される。
ステップS20において、中央部貫通領域追加部40は、顔検出部31からの顔検出結果と、微小領域追加部39からのマスク情報とに基づいて中央部貫通領域を定め、差分計算部51に供給する。
すなわち、中央部貫通領域追加部40は、撮影画像IPにおけるマスク領域であって、顔検出部31により検出された2つの顔領域の分断線のほぼ中間にある領域を、中央部貫通領域とする。これにより、例えば図16の中央部貫通領域ER51が得られる。
ステップS21において、差分計算部51は、供給された撮影画像IP、微小領域追加部39からのマスク情報、および中央部貫通領域追加部40からの中央部貫通領域に基づいて差分マップを生成し、分断線検出部52に供給する。
例えば、差分計算部51は、これから生成しようとする差分マップの画素の画素値を、その画素と同じ位置にある2枚の撮影画像IPの画素の画素値の差分値とする。そして、差分計算部51は、差分マップの各画素のうち、中央部貫通領域と同じ位置にある画素については、その差分マップの画素の画素値にゲインをかけた値を最終的な画素値とする。
また、差分計算部51は、差分マップの画素のうち、撮影画像上のつなぎ目候補領域ではなく、かつ中央部貫通領域でもない領域と同じ位置にある画素については、その画素の画素値を無限大の値として、その結果得られた差分マップを最終的な差分マップとする。
ステップS22において、分断線検出部52は、差分計算部51から供給された差分マップに基づいて、撮影画像IP間のつなぎ目を決定し、合成部23に供給する。
例えば、分断線検出部52は、差分マップの任意の上辺から下辺までの経路について、経路上にある画素の画素値の合計値が最小となる経路を求め、その経路と同じ位置を通る撮影画像上の線を、撮影画像のつなぎ目とする。これにより、例えば図17のつなぎ目SM11とつなぎ目SM12が得られる。
ステップS23において、合成部23は、分断線検出部52から供給されたつなぎ目の位置で、供給された2枚の撮影画像IPを合成して出力画像OPを生成する。これにより、例えば図18に示した出力画像OPが得られる。
出力画像が得られると、合成部23は生成した出力画像を出力し、画像合成処理は終了する。
以上のようにして、画像処理装置11は、撮影画像から人の領域が除外された領域をつなぎ目候補領域とし、つなぎ目候補領域を用いて、つなぎ目を決める際のエネルギを示す差分マップを生成する。そして、画像処理装置11は、差分マップに基づいてつなぎ目を決定し、そのつなぎ目で撮影画像を合成して出力画像とする。
このように、差分マップを用いることで、人の領域を通らない適切なつなぎ目を簡単に定めることができ、これにより、簡単な処理で適切に画像を合成することができる。
〈第2の実施の形態〉
[差分計算処理について]
次に、本技術の第2の実施の形態について説明する。
第2の実施の形態において、上述した第1の実施の形態と異なる点は、つなぎ目決定処理を構成する差分計算処理の部分だけである。つまり、差分計算部51により行なわれる処理のみである。そこで、以下では、この差分計算処理について説明を行なう。
先に述べたように、つなぎ目候補領域決定処理で求まった図15に示すつなぎ目候補領域を特定するためのマスク情報は、およそ人の部分を除外して、およそ背景部分を残した領域を特定するための情報である。これは、正確に人の部分を除外して、正確に背景部分を残した領域の情報ではない。
ここで「正確」でなく「およそ」という事を加味する点が、第1の実施の形態と第2の実施の形態との違いである。
上述した第1の実施の形態では、図15のマスク情報により示される、つなぎ目候補領域とされずに除去されたマスク領域を、つなぎ目とされる領域から完全に除外するため、マスク領域に対応する差分マップの画素の画素値には、無限大の値がセットされていた。
しかし、このマスク情報が正確ではないので、マスク領域を、つなぎ目とされる領域から完全に除外するべきではない。そこで、第2の実施の形態においては、マスク情報により示される、つなぎ目候補領域とされずに除去されたマスク領域の境界周辺部分では、差分マップの画素値を無限大の値とする代わりに、大きなゲインをかけるようにする。これにより、マスク領域を「完全に除外して、つなぎ目を通過させない」とするのではなく、マスク領域を「なるべく通過させない」とする。
具体的には、つなぎ目候補領域決定処理で得られたマスク情報により示されるマスク領域から、回避可能であれば、つなぎ目としたくない領域を除いた領域に対して、領域浸食処理、すなわちエロージョン(erosion)が行なわれる。
ここで、マスク領域は、例えば図15において斜線が施された領域であり、回避可能であれば、つなぎ目としたくない領域とは、例えば図16の中央部貫通領域ER51である。
また、エロージョンする量は、例えば8画素程度である。このエロージョン(侵食)された領域を第1エロージョン領域とする。
さらに、第1エロージョン領域に対して、再度、エロージョンが行なわれ、このときエロージョン(侵食)された領域を第2エロージョン領域とする。
例えば、図15に示したマスク領域、つまり斜線の施されている領域について、その領域から中央部貫通領域ER51を除いた領域に対して、エロージョンが行なわれるとすると、図25に示すようになる。
図25では、撮影画像IPのうち、斜線の施されていない領域が、マスク情報により特定されるつなぎ目候補領域を示している。また、斜線が施されている領域の一部がマスク領域MSK11となっている。さらに、マスク領域MSK11に隣接する領域が第1エロージョン領域RO11であり、その第1エロージョン領域RO11に隣接する領域が第2エロージョン領域RO12である。
この実施の形態では、まず差分計算部51による差分計算処理では、上記のエロージョンが2回行なわれ、第1エロージョン領域と第2エロージョン領域が求められる。
そして、差分計算処理では、第2エロージョン領域であり、かつ回避可能であれば、つなぎ目としたくない領域(中央部貫通領域)でない領域内の位置については、撮影画像間の差分値が強制的に無限大の値とされる。すなわち、第2エロージョン領域であり、かつ中央部貫通領域でない領域に対応する差分マップの領域内の各画素については、その画素の画素値が無限大の値とされる。
さらに、第1エロージョン領域であり、かつ第2エロージョン領域でなく、かつ中央部貫通領域でない領域内の位置については、その位置における撮影画像間の差分値に、所定の大きさ(例えば、20などの1以上の値)を持ったゲインがかけられる。
つまり、第1エロージョン領域であり、かつ第2エロージョン領域でなく、かつ中央部貫通領域でない領域に対応する差分マップの領域を注目領域とすると、注目領域内の各位置の撮影画像間の差分値に対してゲインがかけられる。そして、注目領域に対応する差分マップの領域内の画素の画素値は、その画素と同じ位置にある注目領域内の位置のゲインがかけられた差分値の値とされる。
さらに、つなぎ目候補領域とされずに除去された領域、つまりマスク領域であり、かつ第1エロージョン領域でなく、かつ第2エロージョン領域でなく、かつ中央部貫通領域でない領域内の位置については、その位置における撮影画像間の差分値に、所定の大きさ(例えば、10などの1以上の値)を持ったゲインがかけられる。
すなわち、マスク領域であり、かつ第1エロージョン領域、第2エロージョン領域、および中央部貫通領域の何れでもない領域を注目領域とすると、注目領域内の各位置の撮影画像間の差分値に対してゲインがかけられる。そして、注目領域に対応する差分マップの領域内の画素の画素値は、その画素と同じ位置にある注目領域内の位置のゲインがかけられた差分値の値とされる。このときかけられるゲインは、第1エロージョン領域にかけられるゲインよりも小さい値とされる。
また、つなぎ目候補領域では、2枚の撮影画像間の差分値がそのままセットされる。つまり、つなぎ目候補領域に対応する差分マップの領域内の画素については、その画素と同じ位置にあるつなぎ目候補領域の画素の差分値が、そのまま差分マップの画素の画素値とされる。
さて、これにより、以下のような5つの性質を持った差分マップが得られる。
性質1:第2エロージョン領域であって、かつ中央部貫通領域内にない領域に対応する差分マップの画素の画素値は、無限大の値を持つ。
性質2:第1エロージョン領域であって、かつ第2エロージョン領域内にも、中央部貫通領域内にもない領域に対応する差分マップの画素の画素値は、大きな値を持つ(例えば、差分値を20倍した値)。
性質3:つなぎ目候補領域から除外された領域(マスク領域)であって、かつ第1エロージョン領域、第2エロージョン領域、および中央部貫通領域の何れの領域内にもない領域に対応する差分マップの画素の画素値は、ある程度大きな値を持つ(例えば、差分値を10倍した値)。
性質4:中央部貫通領域に対応する差分マップの画素の画素値は、かなり大きな値を持つ(例えば、差分値を1000倍した値)。
性質5:その他の領域、つまり、つなぎ目候補領域に対応する差分マップの画素の画素値は、その画素位置における2枚の撮影画像の差分が小さい画素では小さな値となり、2枚の撮影画像の差分が大きい画素では大きな値となる。
差分計算処理では、差分計算部51によって、上述した性質1乃至性質5を有する差分マップが生成され、分断線検出部52に供給される。したがって、この場合、図24のステップS21では、性質1乃至性質5を有する差分マップが差分計算部51により生成されることになる。
以上のようにして差分マップを生成することで、つなぎ目候補領域決定処理で得られたつなぎ目候補領域から除外された領域、つまりマスク領域について、多少浸食をした画像の上辺と下辺を結ぶ1本の線も、エネルギ最小分断線検出処理での候補として与えることができる。したがって、撮影画像IP間のつなぎ目は、実質的には、次のようにして求められることになる。
すなわち、つなぎ目候補領域の上辺と下辺を通り、つなぎ目候補領域を分断する線(分断線)がつなぎ目として求められる。このとき、分断線は、できるだけつなぎ目候補領域内のみを通過するように求められるが、そのような分断線が得られない場合には、分断線が第1エロージョン領域や、マスク領域の一部、中央部貫通領域を通過してもよいという条件で、分断線が求められる。
但し、分断線は、中央部貫通領域よりは、第1エロージョン領域を通過するようにされる。また、分断線は、第1エロージョン領域よりは、マスク領域のうちの中央部貫通領域、第1エロージョン領域、および第2エロージョン領域の何れでもない領域を通過するようにされる。さらに、分断線は第2エロージョン領域を通過することはない。
なお、以上においては、2回のエロージョンを行なうと説明したが、エロージョンを行なう回数は、1回であってもよいし、3回以上であってもよい。
また、上述した画像合成処理の全体の処理量のなかで、つなぎ目候補領域決定処理での処理が大きな割合を占める。そこで、この部分に関しては、縮小画像を生成して、縮小画像上で処理を行い、出来上がったマスク情報を原画像の大きさに拡大するという処理を行うようにしてもよい。これにより、つなぎ目候補領域決定処理での処理量を減らすことが可能となる。
さらに、以上においては、主要な被写体としての2人のユーザが出力画像に含まれるように撮影画像の合成を行なうと説明したが、主要な被写体は、人に限らずどのようなものであってもよい。例えば、物体認識等により検出可能な被写体であれば、その被写体を前景として、出力画像を生成することが可能である。
この場合、主要な被写体としての第1の前景物体および背景が含まれた第1の撮影画像と、主要な被写体としての第2の前景物体および背景が含まれた第2の撮影画像とが合成されて、第1の前景物体、第2の前景物体、および背景が含まれる出力画像が生成される。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記録部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記録部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理装置であって、
前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定するつなぎ目候補領域決定部と、
前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定するつなぎ目決定部と、
前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成する合成部と
を備える画像処理装置。
[2]
前記つなぎ目候補領域決定部は、
前記第1の撮影画像または前記第2の撮影画像における、前記第1の前景物体または前記第2の前景物体の領域を前景領域として検出する前景領域決定部と、
前記第1の撮影画像または前記第2の撮影画像のうちの一方の画像における前記前景領域と、前記前景領域に対応する他方の画像の領域との差分を計算する前景差分計算部と、
前記前景差分計算部により計算された差分に基づいて閾値を決定する閾値決定部と、
前記前景領域を除く領域について、前記第1の撮影画像と前記第2の撮影画像の差分を計算する背景差分計算部と、
前記背景差分計算部により計算された差分、および前記閾値に基づいて、前記つなぎ目候補領域を決定する閾値処理部と
を備える
[1]に記載の画像処理装置。
[3]
前記閾値処理部は、前記背景差分計算部により差分が計算された領域のうち、差分が前記閾値以上となる領域を除外して得られる領域を前記つなぎ目候補領域とする
[2]に記載の画像処理装置。
[4]
前記つなぎ目候補領域決定部は、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域とは異なる領域であって、前記第1の前景物体と前記第2の前景物体との間に位置する領域を中央部貫通領域として決定する中央部貫通領域決定部をさらに備え、
前記つなぎ目決定部は、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記つなぎ目が前記中央部貫通領域を通過してもよいという条件で、前記つなぎ目を決定する
[1]乃至[3]の何れかに記載の画像処理装置。
[5]
前記つなぎ目決定部は、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域および前記中央部貫通領域とは異なる領域に対して、領域侵食処理を行い、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記領域侵食処理により侵食された領域を前記つなぎ目が通過してもよいという条件で、前記つなぎ目を決定する
[4]に記載の画像処理装置。
11 画像処理装置, 21 つなぎ目候補領域決定部, 22 つなぎ目決定部, 23 合成部, 32 人物間採用部, 33 人マスク生成部, 34 人マスク部除外処理部, 35 人マスク部差分計算部, 36 背景部差分計算部, 37 閾値決定部, 38 除外処理部, 40 中央部貫通領域追加部, 51 差分計算部, 52 分断線検出部

Claims (7)

  1. 第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理装置であって、
    前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定するつなぎ目候補領域決定部と、
    前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定するつなぎ目決定部と、
    前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成する合成部と
    を備える画像処理装置。
  2. 前記つなぎ目候補領域決定部は、
    前記第1の撮影画像または前記第2の撮影画像における、前記第1の前景物体または前記第2の前景物体の領域を前景領域として検出する前景領域決定部と、
    前記第1の撮影画像または前記第2の撮影画像のうちの一方の画像における前記前景領域と、前記前景領域に対応する他方の画像の領域との差分を計算する前景差分計算部と、
    前記前景差分計算部により計算された差分に基づいて閾値を決定する閾値決定部と、
    前記前景領域を除く領域について、前記第1の撮影画像と前記第2の撮影画像の差分を計算する背景差分計算部と、
    前記背景差分計算部により計算された差分、および前記閾値に基づいて、前記つなぎ目候補領域を決定する閾値処理部と
    を備える
    請求項1に記載の画像処理装置。
  3. 前記閾値処理部は、前記背景差分計算部により差分が計算された領域のうち、差分が前記閾値以上となる領域を除外して得られる領域を前記つなぎ目候補領域とする
    請求項2に記載の画像処理装置。
  4. 前記つなぎ目候補領域決定部は、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域とは異なる領域であって、前記第1の前景物体と前記第2の前景物体との間に位置する領域を中央部貫通領域として決定する中央部貫通領域決定部をさらに備え、
    前記つなぎ目決定部は、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記つなぎ目が前記中央部貫通領域を通過してもよいという条件で、前記つなぎ目を決定する
    請求項1に記載の画像処理装置。
  5. 前記つなぎ目決定部は、前記第1の撮影画像または前記第2の撮影画像における、前記つなぎ目候補領域および前記中央部貫通領域とは異なる領域に対して、領域侵食処理を行い、前記つなぎ目候補領域内のみを通る前記つなぎ目が得られない場合には、前記領域侵食処理により侵食された領域を前記つなぎ目が通過してもよいという条件で、前記つなぎ目を決定する
    請求項4に記載の画像処理装置。
  6. 第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理方法であって、
    前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定し、
    前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定し、
    前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成する
    ステップを含む画像処理方法。
  7. 第1の前景物体と背景を含む第1の撮影画像と、第2の前景物体と前記背景を含む第2の撮影画像とを合成して、前記第1の前景物体、前記第2の前景物体、および前記背景を含む出力画像を生成する画像処理用のプログラムであって、
    前記第1の撮影画像または前記第2の撮影画像から、前記第1の前景物体と前記第2の前景物体の領域を除去して得られるつなぎ目候補領域を決定し、
    前記つなぎ目候補領域の上辺と下辺を通り、前記つなぎ目候補領域を分断するつなぎ目を決定し、
    前記つなぎ目で前記第1の撮影画像と前記第2の撮影画像を合成して前記出力画像を生成する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2012072788A 2012-03-28 2012-03-28 画像処理装置および方法、並びにプログラム Pending JP2013206015A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012072788A JP2013206015A (ja) 2012-03-28 2012-03-28 画像処理装置および方法、並びにプログラム
US13/783,995 US9002140B2 (en) 2012-03-28 2013-03-04 Image processing apparatus, method, and program
CN 201310092397 CN103369236A (zh) 2012-03-28 2013-03-21 图像处理设备、方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012072788A JP2013206015A (ja) 2012-03-28 2012-03-28 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2013206015A true JP2013206015A (ja) 2013-10-07

Family

ID=49235135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012072788A Pending JP2013206015A (ja) 2012-03-28 2012-03-28 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9002140B2 (ja)
JP (1) JP2013206015A (ja)
CN (1) CN103369236A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754179B2 (en) 2014-12-26 2017-09-05 Morpho, Inc. Image generating device, electronic device, image generating method and recording medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI533675B (zh) * 2013-12-16 2016-05-11 國立交通大學 影像接合之最佳動態接縫找尋調整系統與方法
CN105391949A (zh) * 2015-10-29 2016-03-09 深圳市金立通信设备有限公司 一种拍照方法及终端
JP6758265B2 (ja) * 2017-08-21 2020-09-23 日本電信電話株式会社 映像処理装置、映像処理方法及び映像処理プログラム
CN107730433A (zh) * 2017-09-28 2018-02-23 努比亚技术有限公司 一种拍摄处理方法、终端及计算机可读存储介质
CN108009985B (zh) * 2017-11-24 2020-04-24 武汉大学 一种基于图割的视频拼接方法
KR20200084164A (ko) * 2019-01-02 2020-07-10 엘지이노텍 주식회사 사육장 환경 관리 장치
CN113596574A (zh) * 2021-07-30 2021-11-02 维沃移动通信有限公司 视频处理方法、视频处理装置、电子设备和可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4617417B2 (ja) 2002-03-13 2011-01-26 カシオ計算機株式会社 電子カメラ、撮影記録方法、及び、プログラム
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
JP5278307B2 (ja) 2009-12-28 2013-09-04 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
JP5445127B2 (ja) 2009-12-28 2014-03-19 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9754179B2 (en) 2014-12-26 2017-09-05 Morpho, Inc. Image generating device, electronic device, image generating method and recording medium
KR101777927B1 (ko) * 2014-12-26 2017-09-13 가부시키가이샤 모르포 화상생성장치, 전자기기, 화상생성방법 및 기록매체

Also Published As

Publication number Publication date
US9002140B2 (en) 2015-04-07
CN103369236A (zh) 2013-10-23
US20130259401A1 (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP2013206015A (ja) 画像処理装置および方法、並びにプログラム
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
WO2018103244A1 (zh) 直播视频处理方法、装置及电子设备
US8515254B2 (en) Video editing apparatus and video editing method
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
JP4821642B2 (ja) 画像処理方法、画像処理装置、ディジタルカメラ及び画像処理プログラム
US20150319373A1 (en) Method and device to compose an image by eliminating one or more moving objects
WO2018180578A1 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
KR20110131949A (ko) 영상 처리 장치 및 방법
KR101549929B1 (ko) 깊이 지도를 생성하는 방법 및 장치
JP2015180045A (ja) 画像処理装置、画像処理方法及びプログラム
US11263759B2 (en) Image processing apparatus, image processing method, and storage medium
US11798227B2 (en) Image processing apparatus and image processing method
JP5807555B2 (ja) 画像処理プログラム、装置及び方法
KR20130057585A (ko) 입체 영상의 장면 전환 검출 장치 및 방법
KR20150094108A (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP2014085845A (ja) 動画処理装置、動画処理方法、プログラム、および集積回路
US10445612B2 (en) Information processing apparatus, information processing method, and storage medium
JP6150419B2 (ja) カメラおよびプログラム
JP4920525B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US11200706B2 (en) Image processing apparatus, image processing method, and storage medium
WO2021149169A1 (ja) 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
US20230177851A1 (en) Image processing apparatus, image processing method, and storage medium
JP2017228873A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP2009290831A (ja) 画像追尾装置,画像追尾処理方法および画像追尾処理プログラム