JP6320165B2 - 画像処理装置及びその制御方法、並びにプログラム - Google Patents

画像処理装置及びその制御方法、並びにプログラム Download PDF

Info

Publication number
JP6320165B2
JP6320165B2 JP2014104333A JP2014104333A JP6320165B2 JP 6320165 B2 JP6320165 B2 JP 6320165B2 JP 2014104333 A JP2014104333 A JP 2014104333A JP 2014104333 A JP2014104333 A JP 2014104333A JP 6320165 B2 JP6320165 B2 JP 6320165B2
Authority
JP
Japan
Prior art keywords
image
interpolation
background image
main subject
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014104333A
Other languages
English (en)
Other versions
JP2015220662A (ja
Inventor
小林 悟
悟 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014104333A priority Critical patent/JP6320165B2/ja
Publication of JP2015220662A publication Critical patent/JP2015220662A/ja
Application granted granted Critical
Publication of JP6320165B2 publication Critical patent/JP6320165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、主被写体画像及び背景画像を変形して仮想的な視点の画像又は仮想的な撮影条件の画像を生成する画像処理装置及びその制御方法、並びにプログラムに関する。
画像処理装置を備えるカメラを用いた撮影技法として、カメラを主被写体に近づけ又は遠ざけながら焦点距離を調節して撮影画像の遠近感を操作するドリーズームがある。ドリーズームは、撮影者がカメラを主被写体から遠ざけると共に当該カメラの焦点距離を長く調節する(望遠操作を行う)場合には主被写体の大きさを変えずに背景画像のみを拡大することができる。一方、ドリーズームは、撮影者がカメラを主被写体に近づけると共に当該カメラの焦点距離を短く調節する(広角操作を行う)場合には主被写体の大きさを変えずに背景画像のみを縮小することができる。
ところで、撮影者がドリーズームを行う際に、例えば、撮影者が物理的にカメラを遠ざけることができない場合や、撮影者がカメラに設けられたレンズの倍率以上の焦点距離を必要とする場合がある。このような場合には、撮影者はドリーズームを行うことができない。
ドリーズームを行うことができない場合には、複数枚の画像を合成してドリーズームで撮影した画像に相当する合成画像を生成する。例えば、特許文献1の技術では、広角画像及び望遠画像の2枚の画像を撮影し、広角画像の中央部に望遠画像を合成して、様々な撮影倍率の合成画像を生成する。
特許文献1の技術により、主被写体画像に対して背景画像を拡大させた合成画像を生成する。このとき、例えば、中央部に主被写体画像を有する画像において、望遠画像の中央部の主被写体画像の代わりに、望遠画像の主被写体画像の領域内に広角画像の主被写体画像を合成する。ここで、望遠画像や広角画像の背景画像において主被写体画像が重なる領域はオクルージョン領域と呼ばれ、オクルージョン領域は背景に相当する画素情報が存在しない。例えば、望遠画像の主被写体画像は上記広角画像の主被写体画像より大きい。これにより、望遠画像の主被写体画像の領域、つまり、上記望遠画像のオクルージョン領域に広角画像の主被写体画像を合成すると、望遠画像のオクルージョン領域のうち広角画像の主被写体画像の領域を除く領域は画素情報が存在しない。
画素情報が存在しない領域は、オクルージョン領域の周辺の背景画像の画素情報に基づいて生成された画像で補間される。例えば、特許文献2の技術では、他フレームの画素情報や自フレームの画素情報からオクルージョン領域の画像に対応する画素情報を推測し、推測された画素情報に基づいて生成された画像でオクルージョン領域が補間される。
特開2003−319231号公報 特開2005−204066号公報
しかしながら、画素情報が存在しない領域を補間することが困難な場合がある。例えば、当該領域に主被写体画像の輪郭が含まれた場合に、オクルージョン領域の周辺の背景画像の情報だけでは、画素情報が存在しない領域における主被写体画像の輪郭近傍を示す画像を推測することが困難となる。その結果、上記オクルージョン領域の補間において補間エラーが発生する可能性がある。
本発明の目的は、補間エラーの発生を抑制しながらオクルージョン領域の画像を補間することができる画像処理装置及びその制御方法、並びにプログラムを提供することにある。
上記目的を達成するために、本発明の画像処理装置は、主被写体画像及び前記主被写体画像と異なる第1の背景画像を含む画像を変形パラメータを用いて画像処理する画像処理装置であって、前記第1の背景画像から前記変形パラメータを用いて前記第1の背景画像を変形した第2の背景画像を生成する背景画像生成手段と、前記第1の背景画像又は前記主被写体画像、及び前記変形パラメータに基づいて第1の補間領域を検出する補間領域検出手段と、前記第2の背景画像のうち前記第1の補間領域から所定範囲内にある画像の画像情報に基づいて前記第2の背景画像の移動量を算出する移動量算出手段と、前記算出された移動量に基づいて前記第2の背景画像を移動させる画像移動手段と、前記移動された第2の背景画像及び前記主被写体画像から決まる第2の補間領域を補間する補間画像を生成する補間画像生成手段と、前記主被写体画像、前記移動された第2の背景画像、及び前記補間画像を合成して合成画像を生成する合成画像生成手段とを備えることを特徴とする。
本発明によれば、主被写体画像及び背景画像を変形して仮想的な視点の画像又は仮想的な撮影条件の画像を生成する画像処理方法において、補間エラーの発生を抑制しながらオクルージョン領域の画像を補間することができる。
本発明の実施の形態に係る画像処理装置の構成を概略的に示すブロック図である。 図1の画像処理装置で生成される画像を説明するために用いられる図である。 図1における画像情報入力部が取得する撮影時のカメラ位置から各被写体までの距離Sw1,Sw2を説明するために用いられる図である。 図1におけるパラメータ算出部で算出される変形パラメータを説明するために用いられる図である。 図1におけるパラメータ算出部で算出される変形パラメータの特性を説明するために用いられる図である。 図1における画像移動補間部の構成を概略的に示すブロック図である。 図1の画像処理装置によって実行される画像生成処理の手順を示すフローチャートである。 図7の画像生成処理における補間画像生成処理の手順を示すフローチャートである。
以下、本発明の実施の形態を図面を参照しながら詳述する。
図1は、本発明の実施の形態に係る画像処理装置100の構成を概略的に示すブロック図である。
図1の画像処理装置100は、画像入力部101、領域分割部102、画像変形部103、画像合成部104、画像情報入力部105、操作入力部106、パラメータ算出部107、画像出力部108、及び画像移動補間部109を備える。
画像処理装置100は、例えば、外部PC等の情報処理装置やカメラ等の撮像装置に設けられる。画像処理装置100は、カメラ等から出力された、撮影画像、撮影時のカメラの焦点距離を示す情報、及びカメラから被写体までの距離を示す情報等に基づいて画像処理を行う。
画像入力部101は、カメラ等から取得した図2(a)で示される撮影画像201を領域分割部102に出力する。撮影画像201では、人物の画像202が主被写体を示し、家等の画像203が背景を示し、画像202,203以外の領域は空等の被写体を示す。
領域分割部102は、画像入力部101から出力される撮影画像201及び画像情報入力部105から出力される後述する各被写体までの距離情報に基づいて主被写体を示す画像202及び背景を示す画像203を分離する。本実施の形態では、主被写体を示す画像202及び背景を示す画像203を分離する際に、各被写体までの距離情報の他に画像の色、輝度、エッジ等の特徴情報を用いてもよい。さらに、領域分割部102は、撮影画像201から画像203や画像202,203以外の領域の画像を除いた主被写体画像204(図2(b)参照。)及び撮影画像201から画像202を除いた背景画像206(図2(c)参照。)を夫々生成する。主被写体画像204は画像合成部104及び画像移動補間部109に夫々出力され、背景画像206は画像変形部103に出力される。
画像情報入力部105は、カメラ等から取得した、撮影時のカメラ位置の焦点距離f、撮影時のカメラ位置から各被写体までの距離Sw1,Sw2、及び撮影画像201に対応した後述する画像情報を夫々出力する。図3において、Sw1がカメラ301から主被写体302までの距離を示し、Sw2がカメラ301から背景303までの距離を示す。操作入力部106は、撮影者が設定した背景画像の倍率を示す信号をパラメータ算出部107に出力する。
パラメータ算出部107は、撮影時のカメラ位置の焦点距離f、撮影時のカメラ位置から各被写体までの距離Sw1,Sw2、及び背景画像の倍率を示す信号に基づいて背景画像の変形パラメータを算出する。算出された変形パラメータは画像変形部103に出力される。変形パラメータは、図4における、仮想カメラ位置の焦点距離(以下、「仮想焦点距離」という)f及びカメラの移動量tに相当するST1−SW1からなる。変形パラメータの仮想焦点距離f及びカメラの移動量ST1−SW1は、下記式(1)及び下記式(2)によって導き出される。下記式(1)及び下記式(2)では、撮影時のカメラ位置の焦点距離f、仮想カメラ位置から主被写体までの距離ST1、撮影時のカメラ位置から主被写体までの距離SW1が用いられる。さらに、下記式(1)及び下記式(2)において、撮影者が設定する背景画像の倍率NはyT2/yW2と定義され、被写体距離比DはSW1/SW2と定義される。
式(1)の仮想焦点距離f及び式(2)のカメラの移動量ST1−SW1は撮影者によって設定された倍率Nに応じて図5で示されるような特性を有する。
式(1)は、三角形の相似関係及びレンズの公式により、図4におけるyt2,yW2,f,f,Sw1,SW2を用いて示される下記式(3)から導き出され、式(2)は、式(1)及び下記式(4)から導き出される。
図4において、yは主被写体の大きさを示し、yは背景の大きさを示し、yw1,yw2は撮影時の主被写体及び背景の像面上の大きさを示し、yT1,yT2は仮想カメラ位置における主被写体及び背景の像面上の大きさを示す。ここで、本実施の形態では、算出された変形パラメータに基づいて主被写体の大きさを変更せずに背景画像のみ変形を行うので、yw1をyT1と定義する。なお、主被写体の大きさを変更する場合であっても、主被写体の大きさの比に応じてyw1をk×yT1と定義すると、同様に式(1)及び式(2)を導出することができる。
画像変形部103は、変形パラメータに基づいて背景画像206を幾何的に変形して図2(d)で示される拡大背景画像208を生成し、拡大背景画像208を画像移動補間部109に出力する。画像変形部103は、下記式(5)及び下記式(6)によって算出された値を用いて背景画像206を幾何的に変形する。式(5)及び式(6)において、(X、Y、Z)は3次元座標を示し、(x、y)は正規化座標面上に投影された点の座標を示し、(x’、y’)は撮像画面上に投影された点の座標を示す。wはZ+tで示される。f,fyは撮影時の焦点距離をピクセル単位に変換した変数を示し、撮像素子を構成する各画素の画素間距離である撮像素子の画素ピッチから算出される。c,cは光学中心を示し、r11〜r33は撮影時のカメラ位置に対する回転移動量成分を示し、t〜tは撮影時のカメラ位置に対する移動量成分を示す。
式(5)において、光学中心を示すc,cは所定の値であり、設定された背景画像の倍率に相当する背景画像を生成する際には、回転成分r11,r22,r33は1、回転成分r11,r22,r33以外の回転成分は0となる。さらに、水平移動量成分t及び垂直移動量成分tは0となる。つまり、画像変形部103は、式(5)において、式(1)で算出された仮想焦点距離fをf,fに用い、式(2)で算出されたST1−SW1をtに用いて背景画像206を幾何的に変形するための値を算出する。
画像移動補間部109は、拡大背景画像208におけるオクルージョン領域209から主被写体画像204における主被写体領域205を除く画像補間領域を検出する。画像補間領域は、背景画像において画素情報が存在しない領域である。画像移動補間部109は、後述するように、検出された画像補間領域の周辺の背景画像の画像情報に基づいて拡大背景画像208の位置を変更する。さらに、画像移動補間部109は、位置が変更された拡大背景画像208及び主被写体画像204の差分に相当する画像補間領域の画素情報を補間して補間画像を生成する。
画像合成部104は、後述するように、主被写体画像204、位置が変更された拡大背景画像208、及び補間画像を合成して図2(g)で示される合成画像218を生成する。
画像出力部108は画像合成部104で生成された合成画像218を出力する。出力された合成画像218は、例えば、図示しない記録媒体に記録され、又は、図示しないディスプレイの表示部に表示される。
図6は、図1における画像移動補間部109の構成を概略的に示すブロック図である。
画像移動補間部109は、2つの入力端を有する補間領域検出部601、2つの入力端を有する補間領域判別部602、移動ベクトル算出部603、2つの入力端を有する画像移動部604、及び画像補間部605で構成される。
補間領域検出部601の入力端には領域分割部102の出力端及び画像変形部103の出力端が夫々接続されている。補間領域判別部602の入力端には画像情報入力部105の出力端及び補間領域検出部601の出力端が夫々接続され、補間領域判別部602の出力端は移動ベクトル算出部603の入力端に接続される。画像移動部604の入力端には画像変形部103の出力端及び移動ベクトル算出部603の出力端が夫々接続されている。画像移動部604の出力端は画像補間部605の入力端に接続され、画像補間部605の出力端は画像合成部104の入力端に接続される。
補間領域検出部601は、撮影画像201及び変形パラメータに基づいて画像補間領域を検出する。具体的に、補間領域検出部601は、変形パラメータに基づいて拡大された拡大背景画像208におけるオクルージョン領域209から主被写体画像204における主被写体領域205を除いた領域を画像補間領域(図2(e)で示される画像210の領域211〜領域214)として検出する。このとき、画像補間領域は、変形パラメータに基づいて拡大された拡大背景画像208の画素情報と主被写体画像204の画素情報との差や比によって検出される。また、補間領域検出部601は、変形パラメータに基づいて拡大された拡大主被写体領域(図示しない)から主被写体領域205を除いた領域を画像補間領域として検出してもよい。
補間領域判別部602は、補間領域検出部601によって検出された画像補間領域及び後述する画像情報に基づいて画像補間領域のうち、例えば、当該画像補間領域の補間において補間エラーが発生しやすい領域を判別する。
移動ベクトル算出部603は、補間領域判別部602によって判別された画像補間領域に基づいて拡大背景画像208の位置を移動させる方向及び拡大背景画像208の位置を移動させる移動量を表す移動ベクトルを算出する。画像移動部604は、算出された移動ベクトルに基づいて拡大背景画像208を幾何的に変形し、且つ拡大背景画像208の位置を移動する。また、画像補間部605は、位置が変更された拡大背景画像208及び主被写体画像204で決まる画像補間領域(図2(f)で示される画像215の領域216,217)の画素情報を補間して当該画像補間領域の補間画像を生成する。
図7は、図1の画像処理装置100によって実行される画像生成処理の手順を示すフローチャートである。
図7において、まず、画像情報入力部105が撮影時のカメラ位置の焦点距離f、撮影時のカメラ位置から各被写体までの距離Sw1,Sw2、及び後述する画像情報をカメラ301から夫々取得する。さらに、画像入力部101がカメラ301から撮影画像201を取得すると(ステップS101)、画像入力部101は領域分割部102に撮影画像201を出力する。一方、画像情報入力部105は、領域分割部102に撮影時のカメラ位置から各被写体までの距離Sw1,Sw2を出力し、画像移動補間部109に画像情報を出力する。さらに、画像情報入力部105は、パラメータ算出部107に撮影時のカメラ位置の焦点距離f及び撮影時のカメラ位置から各被写体までの距離Sw1,Sw2を夫々出力する(ステップS102)。
次いで、領域分割部102は、ステップS102で出力された撮影時のカメラ位置から各被写体までの距離Sw1,Sw2に基づいて撮影画像201における主被写体を示す画像202及び背景を示す画像203を分割する。さらに、領域分割部102は分割した画像に基づいて主被写体画像204(202)及び背景画像206(203)を夫々生成する(ステップS103)(背景画像生成手段)。
次いで、操作入力部106を用いて撮影者によって背景画像の倍率が設定されると(ステップS104)、パラメータ算出部107は、仮想焦点距離f及びカメラの移動量tを夫々算出する(ステップS105)。仮想焦点距離f及びカメラの移動量tは、背景画像の倍率を示す信号、撮影時のカメラ位置の焦点距離f、及び撮影時のカメラ位置から各被写体までの距離Sw1,Sw2に基づいて算出される。
次いで、画像変形部103は、仮想焦点距離f及びカメラの移動量tに基づいてステップS103で生成された背景画像206を幾何的に変形して拡大背景画像208(第2の背景画像)を生成する(ステップS106)(背景画像生成手段)。次いで、後述する図8の補間画像生成処理を実行して画像移動補間部109は、主被写体画像204及び拡大背景画像208に基づいて検出された画像補間領域の周辺の背景画像の画像情報に基づいて拡大背景画像208の位置を変更する。さらに、画像移動補間部109は、当該位置が変更された拡大背景画像208及び主被写体画像204で決まる画像補間領域の補間画像を生成する(ステップS107)。
次いで、画像合成部104は、主被写体画像204、位置が変更された拡大背景画像208、及び補間画像を合成して合成画像218を生成し(ステップS108)(合成画像生成手段)、本処理を終了する。
図8は、図7の画像生成処理における補間画像生成処理の手順を示すフローチャートである。
図2における拡大背景画像208のオクルージョン領域209は主被写体画像204の主被写体領域205より大きい。そのため、オクルージョン領域209に主被写体領域205の画像を合成すると、背景画像において、図2(e)で示される画像210の領域211〜領域214のような画素情報が存在しない画像補間領域が発生する。これに対応して画像補間領域の補間画像を生成する際に、領域213,214に対応して背景画像206の家203の一部を含む主被写体領域205の輪郭近傍を示す補間画像が必要となる。しかし、画像補間領域の周辺の背景画像の画素情報だけでは情報量が不足し、主被写体領域205と家203との輪郭近傍を示す画素情報を推測することが困難な場合がある。その場合、領域213,214の画像の補間において補間エラーが発生する可能性がある。
これに対応して、図8の処理では、まず、主被写体画像204及び拡大背景画像208に基づいて検出された画像補間領域の周辺の背景画像の画像情報に基づいて拡大背景画像208の位置を変更する。その後、位置が変更された拡大背景画像208及び主被写体画像204で決まる画像補間領域の補間画像を生成する。
具体的には、まず、補間領域検出部601は、ステップS103で生成された主被写体画像204及びステップS106で生成された拡大背景画像208に基づいて画像補間領域(第1の補間領域)を検出する(ステップS201)(補間領域検出手段)。画像補間領域は、ステップS106で生成された拡大背景画像208のオクルージョン領域209からステップS103で生成された主被写体画像204の主被写体領域205を除いた領域(図2(e)で示される画像210の領域211〜領域214)である。
次いで、補間領域判別部602は、主被写体画像204及び拡大背景画像208を複数の所定の大きさのブロックに分割する。さらに、補間領域判別部602は、分割された複数のブロックのうち画像補間領域に重なるブロックから所定範囲内にある拡大背景画像208のブロックの画像情報に基づいて画像補間領域の補間の容易さを判別する(ステップS202)(判別手段)。分割されたブロックのうち画像補間領域とは、例えば、分割されたブロックのうち領域211〜領域214に重なるブロックである。
ここで、画像情報は、例えば、画像の輪郭の鮮明さを示すエッジ強度を積分して算出される平坦度、エッジ強度の他に画像のエッジ方向のランダム度を示すテクスチャ度、顔検出情報、及び人体検出情報である。画像情報は、各画素に対応する情報又は画像における所定の各領域に対応する情報である。
ステップS202において、例えば、図2(e)における領域213,214は、鮮明な主被写体領域205の輪郭近傍を示す画像、つまり、家203の一部を示す画像を含む領域であり、高い再現度の画像で補間する必要がある領域である。したがって、領域213,214の周辺の背景画像の画素情報だけでは、情報量が不足して領域213,214における主被写体領域205の輪郭近傍を示す画素情報を推測することが困難である。すなわち、画像補間領域213,214は補間エラーが発生しやすい領域であり、補間が容易でない領域に判別される。
次いで、移動ベクトル算出部603は、ステップS202の判別結果に基づいてステップS202で補間が容易でないと判別された領域が最小となるように拡大背景画像208の移動ベクトルを算出する(ステップS203)(移動量算出手段)。具体的には、主被写体領域205に対して拡大背景画像208を移動させたときにオクルージョン領域209から主被写体領域205を除いた領域に含まれる鮮明な主被写体領域205の輪郭近傍を示す画像が最小となる上記移動ベクトルを算出する。主被写体領域205の輪郭近傍を示す画像は家203の一部を示す画像である。
次いで、画像移動部604は、ステップS203で算出された移動ベクトルに基づいて拡大背景画像208を幾何的に変形して拡大背景画像208の位置を移動する(画像移動手段)。さらに、画像移動部604は、画像補間領域を画像210の領域211〜領域214(第1の補間領域)から画像215の領域216,217(第2の補間領域)に変更する(ステップS204)。領域216,217は、移動ベクトルに基づいて移動された拡大背景画像208のオクルージョン領域209から主被写体領域205を除いた領域であり、含まれる鮮明な主被写体領域205の輪郭近傍を示す画像(家203の一部)が最小となる領域である。
次いで、画像補間部605は、変更された画像補間領域216,217の周辺の背景画像の画素情報に基づいて画像補間領域216,217の画素情報を補間する。画像補間部605は、当該画像補間領域216,217の補間画像を生成し(ステップS205)(補間画像生成手段)、本処理を終了する。
図7及び図8の処理によれば、ステップS103で生成された主被写体画像204及びステップS106で生成された拡大背景画像208に基づいて画像補間領域が検出される。次いで、ステップS201で検出された画像補間領域から所定範囲内にある拡大背景画像208の画像情報に基づいて拡大背景画像208の移動ベクトルが算出される。次いで、算出された移動ベクトルに基づいて拡大背景画像208の位置が移動されて画像補間領域が図2(e)で示される領域211〜領域214から図2(f)で示される領域216,217に変更される。次いで、画像補間領域216,217の画素情報が補間されて補間画像が生成される。次いで、ステップS103で生成された主被写体画像204、ステップS107で位置が変更された拡大背景画像208、及びステップS107で生成された補間画像を合成して合成画像218が生成される(ステップS108)。これにより、拡大背景画像208のうち画像補間領域に隣接する画像の画像情報から領域211〜領域214を補間するための補間画像を生成することが困難であっても、領域211〜領域214を補間する必要がなくなる。すなわち、補間エラーの発生を抑制しながらオクルージョン領域209の画像を補間することができる。
また、図7及び図8の処理によれば、ステップS201で検出された画像補間領域に隣接する背景画像の画像情報に基づいて画像補間領域の補間の容易さを判別する。これにより、例えば、画像補間領域としての領域211〜領域214の補間が容易でないと判定された場合に、画像補間領域を領域211〜領域214から領域216,217に変更することにより、補間エラーの発生を確実に抑制することができる。
さらに、図7及び図8の処理によれば、ステップS202の判別結果に基づいてステップS202で補間が容易でないと判別された領域が最小となるように拡大背景画像208の移動ベクトルを算出する。これにより、補間エラーを完全に無くすことができない場合であっても、少なくとも補間エラーの程度を低減させることができる。
図7及び図8の処理によれば、画像補間領域の補間の容易さを判別するために用いられる画像情報がエッジ強度を積分した値である。これにより、例えば、画像補間領域に補間が容易でない鮮明な主被写体領域205の輪郭近傍を示す画像が含まれるか否かを判別することができ、もって、画像補間領域の補間の容易さの判別を確実に行うことができる。
また、図7及び図8の処理によれば、主被写体画像204及び拡大背景画像208は複数のブロックに分割される。さらに、分割された複数のブロックのうち画像補間領域に重なるブロックに隣接する拡大背景画像208のブロックの画像情報に基づいて画像補間領域の補間の容易さが判別される。ここで、拡大背景画像208が複数のブロックに分割されていないと画像補間領域に隣接する領域を特定するのが困難であり、その結果、画像補間領域の補間の容易さの判別の効率が悪くなる。これに対して、拡大背景画像208が複数のブロックに分割されていれば、ブロック単位で画像補間領域に隣接する領域を特定することができる。これにより、効率的に画像補間領域の補間の容易さを判別することができる。
本実施の形態では、例えば、拡大背景画像208の位置を変更すると共に主被写体画像204を拡大して画像補間領域を変更してもよい。さらに、主被写体画像204の拡大率に上限を設定して主被写体画像204の大きさの変更に制限を設けてもよい。
本実施の形態では、合成画像218に対応させてステップS203で算出された移動ベクトルの情報を出力しても良い。これにより、例えば、カメラ301で上述した処理を行って生成した合成画像218において、外部PCでより高精度な補間処理をさらに行う際に、カメラ301において算出された移動ベクトルに基づいて外部PCによって補間処理を行うことができる。その結果、例えば、カメラ301の合成に用いられた拡大背景画像208の位置及び外部PCの合成に用いられた拡大背景画像208の位置との違いを低減することができる。さらに、ステップS203で算出された移動ベクトルの情報を用いて拡大背景画像208の位置を変更する前の位置に戻すことができる。
また、本実施の形態において、画像合成部104は、合成画像218を生成する際に、例えば、拡大背景画像208の輪郭近傍において、主被写体画像204の画素情報及び位置が変更された拡大背景画像208の画素情報を加重加算してもよい。これにより、例えば、主被写体画像204及び位置が変更された拡大背景画像208の輪郭の不自然さを目立ちにくくすることができる。
さらに、本実施の形態では、ローパスフィルタを用いて拡大背景画像208にぼかし処理を施してもよい。
また、本実施の形態では、画像補間領域の補間の容易さを判別するために用いられる画像情報がエッジ方向のランダム度を示す情報であってもよい。画像のエッジ方向のランダム度が高いと、テクスチャ度が高く、補間の不自然さが目立ちにくいので、ランダム度を用いることにより、画像補間領域の補間の不自然さを判別することができる。その結果、補間エラーを完全に無くすことができない場合であっても、補間の不自然さが目立つ画像補間領域を補間の対象から外すことによって視覚的に補間エラーの程度を低減させることができる。
さらに、本実施の形態では、画像補間領域の補間の容易さを判別するために用いられる画像情報が顔検出情報及び人体検出情報のうち少なくとも一方の情報であってもよい。これにより、画像補間領域に補間が容易でない顔又は人体を示す画像が含まれるか否かを判別することができ、もって、画像補間領域の補間の容易さの判別を確実に行うことができる。
なお、本発明は、上記実施の形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給してもよい。本発明は、当該システム或いは装置のコンピュータ(又はCPU,MPU等)がプログラムを読み出して実行する処理を実行することによって実現してもよい。さらに、本発明は、ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ(CPU,プロセッサ)にて実行することによって実現してもよい。
101 画像入力部
102 領域分割部
103 画像変形部
104 画像合成部
105 画像情報入力部
106 操作入力部
107 パラメータ算出部
108 画像出力部
109 画像移動補間部
601 補間領域検出部
602 補間領域判別部
603 移動ベクトル算出部
604 画像移動部
605 画像補間部

Claims (13)

  1. 主被写体画像及び前記主被写体画像と異なる第1の背景画像を含む画像を変形パラメータを用いて画像処理する画像処理装置であって、
    前記第1の背景画像から前記変形パラメータを用いて前記第1の背景画像を変形した第2の背景画像を生成する背景画像生成手段と、
    前記第1の背景画像又は前記主被写体画像、及び前記変形パラメータに基づいて第1の補間領域を検出する補間領域検出手段と、
    前記第2の背景画像のうち前記第1の補間領域から所定範囲内にある画像の画像情報に基づいて前記第2の背景画像の移動量を算出する移動量算出手段と、
    前記算出された移動量に基づいて前記第2の背景画像を移動させる画像移動手段と、
    前記移動された第2の背景画像及び前記主被写体画像から決まる第2の補間領域を補間する補間画像を生成する補間画像生成手段と、
    前記主被写体画像、前記移動された第2の背景画像、及び前記補間画像を合成して合成画像を生成する合成画像生成手段とを備えることを特徴とする画像処理装置。
  2. 前記補間領域検出手段は、前記第2の背景画像と前記主被写体画像との差分、又は前記主被写体画像及び前記変形パラメータを用いて変形された前記主被写体画像の差分に基づいて前記第1の補間領域を決定することを特徴とする請求項1記載の画像処理装置。
  3. 前記第2の背景画像のうち前記第1の補間領域に隣接する画像の画像情報に基づいて前記第1の補間領域の補間の容易さを判別する判別手段を備えることを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記移動量算出手段は、前記判別手段によって補間が容易でないと判別された前記第1の補間領域が最小となるように前記第2の背景画像の移動量を算出することを特徴とする請求項3記載の画像処理装置。
  5. 前記判別手段が前記第1の補間領域の補間の容易さの判別に用いる画像情報は、画像のエッジ強度を積分した値であることを特徴とする請求項3又は4記載の画像処理装置。
  6. 前記判別手段が前記第1の補間領域の補間の容易さの判別に用いる画像情報は、画像のエッジ方向のランダム度を示す情報をさらに有することを特徴とする請求項5記載の画像処理装置。
  7. 前記判別手段が前記第1の補間領域の補間の容易さの判別に用いる画像情報は、顔検出情報及び人体検出情報のうち少なくとも一方であることを特徴とする請求項3乃至6のいずれか1項に記載の画像処理装置。
  8. 前記判別手段は、前記第2の背景画像を所定の大きさのブロックに分割し、前記第2の背景画像のうち前記第1の補間領域に隣接するブロックの画像情報に基づいて前記第1の補間領域の補間の容易さを判別することを特徴とする請求項3乃至7のいずれか1項に記載の画像処理装置。
  9. 前記算出された第2の背景画像の移動量を前記合成画像に出力することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記背景画像の倍率を変更する際に、前記主被写体画像の倍率を変更しないことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記第2の補間領域は、前記移動された第2の背景画像と前記主被写体画像との差分に基づいて決定されることを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 主被写体画像及び前記主被写体画像と異なる第1の背景画像を含む画像を変形パラメータを用いて画像処理する画像処理装置の制御方法であって、
    前記第1の背景画像から前記変形パラメータを用いて前記第1の背景画像を変形した第2の背景画像を生成する背景画像生成ステップと、
    前記第1の背景画像又は前記主被写体画像、及び前記変形パラメータに基づいて第1の補間領域を検出する補間領域検出ステップと、
    前記第2の背景画像のうち前記第1の補間領域から所定範囲内にある画像の画像情報に基づいて前記第2の背景画像の移動量を算出する移動量算出ステップと、
    前記算出された移動量に基づいて前記第2の背景画像を移動させる画像移動ステップと、
    前記移動された第2の背景画像及び前記主被写体画像から決まる第2の補間領域を補間する補間画像を生成する補間画像生成ステップと、
    前記主被写体画像、前記移動された第2の背景画像、及び前記補間画像を合成して合成画像を生成する合成画像生成ステップとを備えることを特徴とする画像処理装置の制御方法。
  13. 主被写体画像及び前記主被写体画像と異なる第1の背景画像を含む画像を変形パラメータを用いて画像処理する画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
    前記画像処理装置の制御方法は、
    前記第1の背景画像から前記変形パラメータを用いて前記第1の背景画像を変形した第2の背景画像を生成する背景画像生成ステップと、
    前記第1の背景画像又は前記主被写体画像、及び前記変形パラメータに基づいて第1の補間領域を検出する補間領域検出ステップと、
    前記第2の背景画像のうち前記第1の補間領域から所定範囲内にある画像の画像情報に基づいて前記第2の背景画像の移動量を算出する移動量算出ステップと、
    前記算出された移動量に基づいて前記第2の背景画像を移動させる画像移動ステップと、
    前記移動された第2の背景画像及び前記主被写体画像から決まる第2の補間領域を補間する補間画像を生成する補間画像生成ステップと、
    前記主被写体画像、前記移動された第2の背景画像、及び前記補間画像を合成して合成画像を生成する合成画像生成ステップとを備えることを特徴とするプログラム。
JP2014104333A 2014-05-20 2014-05-20 画像処理装置及びその制御方法、並びにプログラム Active JP6320165B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014104333A JP6320165B2 (ja) 2014-05-20 2014-05-20 画像処理装置及びその制御方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014104333A JP6320165B2 (ja) 2014-05-20 2014-05-20 画像処理装置及びその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2015220662A JP2015220662A (ja) 2015-12-07
JP6320165B2 true JP6320165B2 (ja) 2018-05-09

Family

ID=54779710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014104333A Active JP6320165B2 (ja) 2014-05-20 2014-05-20 画像処理装置及びその制御方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP6320165B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142794A1 (ja) * 2018-01-22 2019-07-25 シャープ株式会社 画像生成装置、表示処理装置、画像再生システム、画像生成方法、制御プログラム、及び記録媒体
JP6878736B2 (ja) * 2018-07-13 2021-06-02 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、移動体、制御方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2007281843A (ja) * 2006-04-06 2007-10-25 Matsushita Electric Ind Co Ltd 撮像装置及び画像処理方法
JP2008282077A (ja) * 2007-05-08 2008-11-20 Nikon Corp 撮像装置および画像処理方法並びにそのプログラム
JP5613991B2 (ja) * 2009-03-31 2014-10-29 株式会社ニコン 再生演出プログラムおよび再生演出装置

Also Published As

Publication number Publication date
JP2015220662A (ja) 2015-12-07

Similar Documents

Publication Publication Date Title
JP6395423B2 (ja) 画像処理装置、制御方法及びプログラム
JP5818514B2 (ja) 画像処理装置および画像処理方法、プログラム
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
EP3048787B1 (en) Image processing apparatus, image pickup apparatus, image processing method, program, and storage medium
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JP2011060216A (ja) 画像処理装置および画像処理方法
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
US20160078598A1 (en) Image processor and image processing method
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6635764B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP6494402B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
WO2012169174A1 (ja) 画像処理装置および画像処理方法
JP4198536B2 (ja) 物体撮影装置、物体撮影方法及び物体撮影プログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2009258005A (ja) 三次元測定装置及び三次元測定方法
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP2017028606A (ja) 撮像装置
JP6381212B2 (ja) 撮像装置及びその制御方法
JP2014049895A (ja) 画像処理方法
JP7161865B2 (ja) 映像解析装置及びそのプログラム
JP2016024490A (ja) 画像処理装置、画像処理方法およびプログラム
JP6089549B2 (ja) 情報処理装置、情報処理システム、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180403

R151 Written notification of patent or utility model registration

Ref document number: 6320165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151