JP4990876B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP4990876B2
JP4990876B2 JP2008324525A JP2008324525A JP4990876B2 JP 4990876 B2 JP4990876 B2 JP 4990876B2 JP 2008324525 A JP2008324525 A JP 2008324525A JP 2008324525 A JP2008324525 A JP 2008324525A JP 4990876 B2 JP4990876 B2 JP 4990876B2
Authority
JP
Japan
Prior art keywords
composition
data
image processing
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008324525A
Other languages
English (en)
Other versions
JP2010147937A (ja
Inventor
竜二 北浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2008324525A priority Critical patent/JP4990876B2/ja
Publication of JP2010147937A publication Critical patent/JP2010147937A/ja
Application granted granted Critical
Publication of JP4990876B2 publication Critical patent/JP4990876B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置に関する。
入力された奥行き情報に基づいて画像情報中の特定領域を抽出し、特定領域の質感強調処理として、照明光源の位置および被写体の反射率の変更や、また、奥行き情報の勾配量に基づいて、コントラストやシャープネスを行なう技術が特許文献1に開示されている。
また、カメラからの距離情報毎に画像を分割し、分割した領域に先鋭化もしくはぼかし処理を行なう技術が特許文献2に開示されている。
特開2002−329198号公報 特開2006−67521号公報
引用文献1の技術では、質感強調を行う対象である特定領域を抽出する際に、エッジや奥行き情報のみから抽出を行なうため、撮影者が注目させるつもりの無い被写体にまで質感強調処理を行い、目立たせてしまうことにより、撮影者が意図して撮影した画像の構図のバランスを損ねてしまう可能性が生じるという問題があった。
また、特許文献2の技術においても、カメラからの距離毎に、先鋭化もしくはぼかし処理を行うため、画像の構図を考慮して画像処理を行うといった、撮影者の意図を反映するような処理ができないという問題があった。
本発明は、このような実情に鑑みてなされたものであり、撮影者の意図する構図に合わせた画像処理を行うことができる画像処理装置を提供する。
本発明の画像処理装置は、画像のエッジ情報や奥行き情報から、画像を物体のある領域と、背景の領域と、奥行きがなだらかに変化する奥行き変化領域に分割した領域データを作成し、前記エッジ情報と、前記奥行き情報、前記領域データと、あらかじめ本画像処理装置に備えられた構図のテーブルを参照して、画像全体の構図を類推し、構図の骨格となる構図骨格領域を求め、構図の骨格領域とそうでない領域のそれぞれにあわせて異なる画像処理を行うことを特徴とする。
本発明の他の態様の画像処理装置は、濃淡情報及び/又はカラー情報からなる画像データからエッジ情報を算出し、前記エッジ情報と、前記画像データに対応した奥行き情報からなる奥行き情報データとを用いて、前記画像データを、物体のある物体領域と、背景のある背景領域と、奥行きがなだらかに変化する奥行き変化領域とに分けた奥行き領域分割データを作成する領域分割手段と、構図の注目すべき領域の情報を含む構図テーブルデータを記憶する構図記憶手段と、前記エッジ情報と、前記奥行き情報データと、前記奥行き領域分割データとのうちの少なくとも1つと、前記構図記憶手段から参照した構図テーブルデータとの類似度を計算し、前記類似度に基づいて選択された構図テーブルデータから前記画像データの構図を判定し、判定した前記構図の骨格となる骨格領域を示す構図骨格領域分割データを作成する構図判定手段と、前記構図骨格領域分割データから、前記構図の骨格領域とそうでない領域とに、それぞれどのような画像処理を行うのかを指定する構図画像処理指定データを作成する構図画像処理指定手段と、前記構図画像処理指定データに従って前記画像データに画像処理を行う画像処理手段とを備えることを特徴とする。
前記構図テーブルデータは、画像内における構図の特徴となる注目領域の位置と形状を記録したデータであってもよい。
前記構図判定手段は、前記構図テーブルデータにおける前記注目領域と、前記奥行き領域分割データにおける前記物体領域との類似度を、パターンマッチングにより算出してもよい。
前記構図判定手段は、前記構図テーブルデータにおける前記注目領域と、前記奥行き領域分割データにおける前記物体領域との類似度を、前記注目領域内に含まれる前記物体領域の割合により算出してもよい。
前記画像処理手段は、前記構図画像処理指定データに従って構図の骨格領域の鮮鋭度を上げるようにしてもよい。
前記画像処理手段は、前記構図画像処理指定データに従って構図の骨格領域でない領域に対してぼかし処理を行うようにしてもよい。
前記構図判定手段は、選択された構図テーブルデータを判定結果として記録してもよい。
本発明によれば、撮影者の意図する構図に合わせた画像処理を行うことができる。
以下に添付図面を参照して、本発明にかかる画像処理装置の好適な実施の形態を詳細に説明する。また、以下の説明において、異なる図面においても同じ符号を付した構成は同様のものであるとして、その説明を省略することとする。
はじめに、本発明の実施の形態にかかる画像処理装置の機能的構成について説明する。
図1は、本発明の画像処理装置の構成の一例を示すブロック図である。画像処理装置1は、領域分割手段2と、構図判定手段3と、構図記憶手段4と、構図画像処理指定手段5と、画像処理手段6とを備える。
領域分割手段2は、濃淡情報あるいはカラー情報からなる画像データと、前記画像データに対応した奥行き情報からなる奥行き情報データとを入力とし、前記画像データからエッジ情報を算出し、前記エッジ情報と前記奥行き情報データとを用いて、前記画像データを、物体のある物体領域と、背景のある背景領域と、奥行きがなだらかに変化する奥行き変化領域とに分けた奥行き領域分割データを作成し、前記エッジ情報と、前記奥行き情報データと、前記奥行き領域分割データとを出力する。
構図記憶手段4は、構図の注目すべき領域の情報を含む構図テーブルデータを記憶し、外部からの呼び出しに応じて前記構図テーブルデータを出力する。
構図判定手段3は、領域分割手段2が出力した前記エッジ情報と、前記奥行き情報データと、前記奥行き領域分割データとを入力とし、前記エッジ情報と、前記奥行き情報データと、前記奥行き領域分割データと、前記構図記憶手段3から参照した構図テーブルデータとを用いて、構図テーブルデータとの類似度を計算することによって前記画像データの構図を判定し、判定した前記構図の骨格となる骨格領域を示す構図骨格領域分割データを作成し、出力する。
構図画像処理指定手段5は、構図判定手段3が出力した前記構図骨格領域分割データを入力とし、構図の骨格領域と、そうでない領域とに、それぞれどのような画像処理を行うかを指定する構図画像処理指定データを作成し、出力する。
画像処理手段6は、前記画像データと、構図画像処理指定手段5が出力した前記構図画像処理指定データとを入力とし、前記構図画像処理指定データに従って前記画像データに対して画像処理を行い、前記画像処理を行った画像データを出力する。
ここで、前記画像データと前記奥行き情報データについて説明する。図2は、画像処理装置1に入力される画像データと奥行き情報データの一例を示す図である。図2(a)は、通常の画像データの例であり、一般的に、画像データの取得には、カメラやCCDなどで取得することができる。図2(b)は奥行き情報データの例であり、図2(a)の画像データに対応して、カメラからどのぐらいの距離が離れているかを示す奥行き方向の情報を前記画像データの画素毎にもったデータであり、一般的に奥行き情報データの取得には、赤外線やレーザなどを照射して測距するアクティブ型のものや、複数視点からの画像のマッチングから距離画像を得るパッシブ型のものなどが、それぞれ例として挙げられる。
前記奥行き情報データは、例えば、カメラから遠いほど小さい値として、計測した奥行きの値にあわせ、0から255の値にサンプリングした画像データとして扱うことも可能であり、以下ではそのように取り扱うものとする。
また、領域分割手段2に入力される情報として、CGなどで作成した画像データと、それに対応した奥行き情報データであってもかまわない。
またここで、画像処理手段6は、画像をぼかしたり、逆に輝度や色の鮮鋭度を上げたり、コントラストを変更したり、明度をあげる画像処理を行う画像処理手段である。
次に、画像処理装置1の動作について、フローチャートに沿ってその動作について説明する。図3は、画像処理装置1の動作を説明するフローチャートである。
画像処理装置1の電源がオンになった後、ステップS101において、画像データと奥行き情報データが領域分割手段2に入力される。
ステップS102において、領域分割手段2は、入力された画像データと奥行き情報データから、入力された画像データを、そこに含まれるオブジェクトと背景、奥行きがなだらかに変化する領域の3種類に領域を分割した奥行き領域分割データを作成し、前記奥行き情報データと前記奥行き領域分割データを出力する。ステップS102における処理の詳細については後述する。
ステップS103において、エッジ画像データ13と、奥行きエッジ画像データ16と、奥行き領域分割データが、構図判定手段3に入力され、構図判定手段3は、入力された情報と、構図記憶手段4から参照した構図テーブルデータを用いて構図の判定を行ない、奥行きエッジ画像データ16から、構図の骨格となる骨格領域を抽出した構図骨格領域分割データを作成し、出力する。ステップS103における処理の詳細については後述する。
ステップS104において、構図画像処理指定手段5に構図骨格領域分割データと、画像データ、奥行き情報データが入力され、入力されたデータから、特定の画像処理を行うように指定する領域を抽出し、抽出した領域と、そこで行なうべき画像処理を示す構図画像処理指定データを作成し、構図画像処理指定データと画像データを出力する。ステップS104における処理の詳細については後述する。
ステップS105において、画像処理手段6は、構図画像処理指定データに沿って、領域ごとに、画像をぼかしたり、輝度や色の鮮鋭度を上げたり、コントラストを変更したり、彩度を変更したり、明度を変更したり、輝度や色のダイナミックレンジを広げたりするなどの画像処理を行う画像処理を行う。
構図の骨格領域に対して、上記のような画像処理を行うことによって、構図を損なわずに被写体のある物体領域の強調を行なったり、構図自体の強調を行なったりすることができる。
また、構図の骨格領域以外の領域のうち、構図の骨格領域に含まれる領域の中で最も撮影したカメラから遠くなる位置よりも、さらに所定の距離以上離れて奥に位置するような、領域に対して、背景にぼかし処理を行うことにより、構図を損なわずに、奥行き感の強調を行なうことができる。また、同時に奥行き感の強調とともに、構図の強調も行なうことができる。
ステップS106において、画像処理手段6で画像処理された画像データを出力し、本装置の処理を終了する。
図3のステップS102における処理の詳細を説明する。例として、図2(a)及び(b)で示したような画像データ7と奥行き情報データ22が入力された場合の領域分割手段2の動作について説明する。ここで、図2(a)は、画像7内に、カメラから異なる距離離れた位置に人物8と木9が道路10の脇に配置されて撮影された図である。また、図2(b)は、図2(a)に対応する奥行き情報データ22であり、奥行き情報データ22内に、カメラからの異なる距離離れた位置に人物8に相当する位置に領域11が、木9に相当する位置に領域12が存在している。
図4は、図3のステップS102における領域分割手段2の動作を説明するフローチャートである。まず、ステップS201において、領域分割手段2に入力された画像データの輝度情報から輝度勾配を検出する。
図5は、領域分割手段2で作成される画像データの一例を示す図である。検出した輝度勾配の情報から、図5(a)に示すようなエッジ画像データ13を作成する。エッジ画像データ13内には、領域14と領域15が存在している。輝度勾配とはエッジとも呼ばれ、画素近傍での輝度変化の度合いを示すものであり、画像中の物体や物体内の構造の境界領域で大きな値となる。この輝度勾配を求める方法としては、例えばSobelオペレータのようなフィルタを画像に重畳する方法がある。Sobelオペレータを用いて単に画像縦方向の輝度勾配を求めるのであれば、画像(x,y)における輝度値をI(x,y)とした場合、縦方向の輝度勾配値D(x,y)は、フィルタのサイズを2M+1として、
Figure 0004990876
で求めることができる。この絶対値|D(x,y)|の値の大きい画素(x,y)から任意数の画素を右画像での特徴点とする。あるいは、ある閾値Thについて|D(x,y)|>Thを満たす画素(x,y)を右画像での特徴点とする等により、右画像での特徴点を求めることができる。他の輝度勾配を求めるフィルタとしては、Laplacian、Robinson、Canny等様々なものがあり、どれを用いてもかまわない。公知の輝度勾配算出方法を含め、画像の特徴量を算出する方法は数多くあり、例えば非特許文献1(高木、下田監修、画像解析ハンドブック、東京大学出版会、ISBN4−13−061107−0)に詳細に述べられている。
次に、ステップS202において、図2(b)の奥行き情報データ22を画像データとして扱い、これに対して、ステップS201と同様にして、輝度勾配を求め、図5(b)に示すような奥行きエッジ画像データ16を作成する。このとき、一定の閾値を超える点を3次元情報の空間的な不連続点とし、その点をつないだ線で奥行きエッジ画像データ16を領域分割しておく。例えば、ここでは領域17、18、19の3つの領域に分割される。
ステップS203において、奥行き情報データ22を参照して最も遠い領域にある領域を求め、この領域に対応する奥行きエッジ画像データ16の領域を背景として、図5(c)のように領域分割または領域統合する。ここで、図5(c)は、図5(b)の領域19を背景領域20と、領域21に領域分割した結果を示す図である。この際の領域分割または統合の方法は、閾値TBを設け、閾値TBより低い部分を背景となるように領域分割または領域統合する。
ステップS204において、奥行きエッジ画像データ16の、背景領域20をのぞく領域である領域17、18、21のそれぞれの領域内において、平均と標準偏差から各領域の分散の値を求め、閾値より小さいものは、物体の領域とする。ここでは、図5(c)の領域17と18が物体の領域として抽出される。
ステップS205において、領域21を奥行きがなだらかに変化する奥行き変化領域として抽出する。ここで、図5(d)は、図5(c)から領域21のみを抽出した画像データである。
ステップS206において、エッジ画像データ13と、図5(c)のように、奥行きエッジ画像データ16に対して、物体領域17と18、背景領域20、奥行き変化領域21の4つの領域に分割された奥行きエッジ画像データ16と、奥行きエッジ画像データ16の各領域が、物体領域か、背景領域か、奥行き変化領域かを示す情報である奥行き領域分割データを出力し、領域分割処理を終了する。
図3のステップS103における処理の詳細を説明する。図6は、図3のステップS103における構図判定手段3の動作を説明するフローチャートである。
ステップS301において、構図判定手段3に、エッジ画像データ13と、奥行きエッジ画像データ16と、奥行き領域分割データが入力され、構図判定手段3は構図の判定を開始する。
ステップS302において、すべての構図について参照を行なったか否かについて判定を行い、行なった場合は判定ステップS308に、そうでない場合はステップS303に進む。
ステップS303において、構図判定手段3は、構図記憶手段4から構図テーブルデータを呼び出す。ここで、構図テーブルデータについて説明を行なう。図7から図10は構図テーブルデータの一例である。構図テーブルデータとは、構図の特徴となる注目領域と、類似度の計算方法を記録したデータである。
例えば、図7(a)は、日の丸構図の構図テーブルデータであり、構図パターン100の中央にある領域101が注目領域であることを示すデータである。
ステップS304において、構図判定手段3は、上記の構図テーブルデータを参照し、構図テーブルデータの示す注目領域における条件から、その類似度を求める。例えば、エッジ画像データ13と、奥行きエッジ画像データ16と、奥行き領域分割データのうち、奥行き領域分割データを参照して、物体領域がこの注目領域内に何%含まれるかを計算し、100が最も似ており、0が最も似ていないとして、類似度を算出してもよい。また、このとき、物体の領域データの重心位置がこの注目領域に含まれている場合は、類似度の計算に、この類似度の数値が高くなるような重み付けを行なってもよい。
上記のように、構図テーブルデータを、画像内における構図の特徴となる注目領域の位置と形状を記録したデータとして記録することにより、簡易な構成での構図の判定が可能であり、また、構図テーブルデータのサイズも大きくならない。
類似度が所定の閾値以上であれば、上記注目領域に含まれた物体の領域データを構図の骨格領域として、構図骨格領域候補データを作成する。
図7(b)は、三分割法の構図テーブルデータであり、構図パターン102の注目領域は、領域103、104、105、106となっている。注目領域が複数ある場合は、それぞれの注目領域において算出された類似度の中で最もよい類似度を、類似度として算出してもよいし、所定の閾値以上の類似度について平均を取ったものを最終の類似度として算出してもよい。類似度が所定の閾値以上であれば、上記注目領域に含まれた物体の領域データを構図の骨格領域として、構図骨格領域候補データを作成する。
図7(c)は、水平線構図の構図テーブルデータであり、構図パターン107の注目領域は、水平線108となっている。
エッジ画像データに対して、一般的な直線検出法であるHough変換を用いて、水平線の有無と位置を検出し、水平線がない場合は、類似度を0に、ある場合は、水平線の長さが、画面の水平サイズの何%占めるか求め、その数値を類似度として算出してもよい。また、水平線の位置が画面の、垂直方向に関して、中心近傍に近いほど、類似度が大きくなるような重み付けを行なってもよい。類似度が所定の閾値以上であれば、上記で検出した水平線の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図7(d)は、垂直線構図の構図テーブルデータであり、構図パターン109の注目領域は、垂直線110となっている。この場合は、図7(c)で述べたHough変換で線検出する方法において、検出する線を、水平線ではなく、垂直線に限定すればよい。類似度が所定の閾値以上であれば、上記で検出した垂直線の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図8(a)、(b)は、対角線構図の構図テーブルデータであり、構図パターン111の注目領域は対角線112に、構図パターン113の注目領域は対角線114となっている。この場合も、図7(c)、(d)で述べたHough変換で直線検出する方法において、検出する線を、対角線に限定すればよい。また、上記では、注目領域として、対角線112と114を例としてあげたが、対角線から所定の範囲の傾きをもった斜めの直線であっても、注目領域として取り扱ってもよい。その場合、検出した斜めの直線が、上記注目領域の対角線もしくは、上記斜めの直線に対して何%を占めるか求め、その数値を類似度として算出してもよい。類似度が所定の閾値以上であれば、上記で検出した直線の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
ここで、Hough変換で直線検出する方法において、複数の直線が検出された場合は、図8(c)または図8(d)で示す構図テーブルデータを参照し、類似度を求める。
図8(c)は、斜線構図の構図テーブルデータであり、構図パターン115内に存在する複数の斜線が注目領域となる。この場合は、各斜線の傾きの平均を求め、平均の傾きに平行であれば100、直交していれば0として、各斜線について平均との類似度を求め、最終的にそれらの平均をとったものを、構図の類似度として算出してもよい。
図8(d)は、放射線構図の構図テーブルデータであり、構図パターン116内に存在する複数の斜線が注目領域となる。この場合は、各斜線を延ばした交点が、所定の領域内に収まる点の数から構図の類似度を算出してもよい。例えば、所定の領域内に収まる点の数nが、全斜線の本数mから1を引いた数である場合を100、0である場合を0として、構図の類似度を算出してもよい(nとmは整数であり、m≧0,m−1≧n≧0とする)。類似度が所定の閾値以上であれば、上記で検出した直線の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図9(a)、(b)、(c)は、三角構図の構図テーブルデータであり、構図パターン117内の注目領域は、領域118に、構図パターン119内の注目領域は、領域120に、構図パターン121内の注目領域は、領域122となる。この場合、例えば、エッジ画像に対して、Hough変換で直線検出する方法を用いて直線を検出し、そのうち3本の直線を選択して、エッジ画像内に存在する各直線の交点が存在しているかを求めることにより、三角形を検出する。また、例えば、抽出した三角形の内部において、物体の領域の占める割合を類似度として算出してもよい。さらにまた、抽出した三角形の内部における物体領域の重心の有無に応じた重み付けや、物体領域が三角形内部にある場は物体領域の重心と三角形の重心の距離に応じて、その距離が近いほど類似度が上がるような重み付けをして、類似度を算出してもよい。類似度が所定の閾値以上であれば、上記で検出した三角形の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図10(a)は、S字構図の構図テーブルデータであり、構図パターン123内の注目領域は、領域124となる。この場合、一般的な文字認識である、パターンマッチングや、ゾンデ法などの手法を利用することにより、類似度を算出する。例えば、エッジ画像データ内を文字データとして、S字のパターンが存在するかについて検出する。類似度は、例えば、存在している場合を100、存在しない場合を0として、類似度を算出する。また、上記では、S字の構図で検出を行なったが、他の文字のパターンを用意し、同様に文字認識を行なうことにより、類似度を算出してもよい。類似度が所定の閾値以上であれば、上記で検出した文字の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図10(b)は、繰り返し構造の構図テーブルデータであり、構図パターン125内の注目領域は、領域126、127となる。この場合、例えば複数の物体の領域どうしで、画像データに対しブロックマッチングを行い、差分を求めて、差分が小さいほど類似度が大きくなるようにして、類似度を算出してもよい。類似度が所定の閾値以上であれば、上記の複数の物体の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図10(c)は、対比構造の構図テーブルデータであり、構図パターン128内の注目領域は、領域129、130となる。この場合、例えば、複数の物体領域どうしで、その大きさを比較し、所定の大きさ以下である場合は類似度が大きくなるようにして、類似度を算出してもよい。類似度が所定の閾値以上であれば、上記の複数の物体の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
図10(d)は、トンネル構造の構図テーブルデータであり、構図パターン131内の注目領域は、領域132となる。この場合、例えば、奥行き情報データを参照して、注目領域132の外部の領域に含まれるデータのうち、奥行きの値が一定であり、かつ、奥行き情報データ内でもっとも手前にあるようなデータの数が所定の値以上である場合、類似度が大きくなるようにして、類似度を算出してもよい。類似度が所定の閾値以上であれば、上記の注目領域132の内部領域に含まれる物体の領域を構図の骨格領域として、構図骨格領域候補データを作成する。
以上のようにして、各構図テーブルデータを参照し、構図テーブルデータごとに類似度を算出する。
図6に戻って説明を続ける。判定ステップS305において、構図判定手段3は、算出した類似度のうち、所定の値より高い構図は該当しているものとして構図が存在していると判定し、ステップS306に進み、そうでない場合はステップS302に戻る。ここで、該当する構図が複数ある場合は、該当する構図の中から、最も類似度の高い構図を選択してもよいし、また、すべての構図に対し、優先度を儲け、該当する構図の中から、優先度の順に選択するようにしてもよい。また、すべて該当する構図であるとして、複数の構図が該当するものとしてもよい。
ステップS306において、該当する構図テーブルデータと、それに対応する構図骨格領域候補データから構図骨格領域を抽出し、構図骨格領域分割データを作成する。ここで、複数の構図が該当する場合は、構図骨格領域を合成して、一つの構図骨格領域分割データを作成してもよいし、該当する複数の構図ごとに構図骨格領域分割データを作成してもよい。
ステップS307において、構図判定手段3は、構図骨格領域分割データと、画像データ、奥行き情報データを出力して、構図の判定を終了し、図3のステップS104に進む。
ステップS302において、すべての構図テーブルデータについて参照を行なったと判定した場合、判定ステップS308において、該当する構図テーブルデータがない場合にその画像データの構図を構図記憶手段4に新たな構図テーブルデータとして記憶するか否かを判定し、記憶する場合はステップS309に進み、そうでない場合はステップS306に進む。
ここで、構図記憶手段4に記憶するか否かは、ユーザーが外部入力により指示を行なうようにしてもよいし、新しい構図はすべて構図記憶手段4に記憶するようにするモードや、記憶しないようにするモードを設けて、それらのモードをユーザーが設定できるようにしてもよい。
構図テーブルデータの記憶の方法として、画像データ内のどこを注目領域とするかを記憶するようにしてもよい。例えば、物体の領域と、背景の領域、奥行き変化領域に分割された奥行き領域分割データから物体の領域を注目領域として記憶してもよい。この場合の新規記録された構図テーブルデータを用いて構図の類似度を算出する場合は、注目領域内に、物体の領域と、背景の領域、奥行き変化領域のどの領域が含まれているか、どのぐらいの割合が含まれているかにより、類似度を算出すればよい。
また、エッジ画像データから、エッジ部分を注目領域として記憶してもよい。この場合の新規記録された構図テーブルデータを用いて構図の類似度を算出する場合は、注目領域とされたエッジと同じエッジが存在するかをパターンマッチングなどにより、類似度を算出すればよい。
また、奥行き情報データから特定の奥行きをもつ領域を注目領域として記憶してもよい。の場合の新規記録された構図テーブルデータを用いて構図の類似度を算出する場合は、注目領域とされた領域に特定の奥行きをもつ領域が存在するかにより、類似度を算出すればよい。
ステップS309において、構図記憶手段4に構図を記憶する。ここで、どの構図パターンに類似しているかの判定の結果を別のデータとして記録してもよい。このように構図の判定結果のデータを保存し記録することにより、画像の検索に用いることが可能である。また、映像であれば構図の判定結果の変化からシーンチェンジを検出することができる。
以上のようにして、構図判定手段3は、構図の判定を行い、構図骨格領域分割データと、画像データ、奥行き情報データを出力する。
図3のステップS104における処理の詳細を説明する。図11は、図3のステップS104における構図画像処理指定手段5の動作を説明するフローチャートである。構図画像処理指定手段5は、画素毎にラスタスキャンを行い、スキャンした画素ごとに、どのような画像処理を行うかを指定する構図画像処理指定データを作成する手段である。
まず、判定ステップS401において、構図画像処理指定手段5に入力された構図骨格領域分割データから、現在の画素が構図の骨格となる領域であるか否かを判定し、構図の骨格となる領域である場合は、ステップS402に、そうでない場合は判定ステップS405に進む。
ステップS402において、構図画像処理指定手段5は、現在の画素を鮮鋭化処理領域とし、その輝度や色の鮮鋭度を上げる画像処理をする領域として抽出し、その位置を構図画像処理指定データに記録する。このときの指定する画像処理を、コントラストを上げる画像処理としてもよいし、明度を上げる画像処理としてもよいし、彩度を上げる画像処理としてもよいし、輝度や色のダイナミックレンジを広げるなどの画像処理としてもよい。
判定ステップS403において、現在の画素が最後の画素か否かを判定し、最後の画素であればステップS404に進み、そうでなければステップS401に戻る。
ステップS404において、作成した構図画像処理指定データを出力し、領域抽出を終了し、図3のステップS105に進む。
ステップS401において現在の画素が構図の骨格となる領域でないと判定した場合、ステップS405において、奥行き情報データから、骨格領域の中で最も遠い距離の値最遠骨格領域距離DBを求める。
ステップS406において、現在の画素の奥行き情報と、最遠骨格領域距離DBの差分dを求める。
判定ステップS407において、差分dが閾値DT以上であればステップS408に進み、そうでなければステップS403に進む。
ステップS408において、現在の画素を、ぼかし処理を行う領域として抽出し、その位置を構図画像処理指定データに記録する。このときの指定する画像処理を、コントラストを下げる画像処理としてもよいし、明度を下げる画像処理としてもよいし、彩度を下げる画像処理としてもよいし、輝度や色のダイナミックレンジを狭めるなどの画像処理としてもよい。
以上のようにして、図画像処理指定手段5は、構図骨格領域分割データと、画像データ、奥行き情報データを用いて、画素毎にどのような画像処理を行うかを指定する構図画像処理指定データを作成する。
構図画像処理指定データとして、構図の骨格領域に対して指定する画像処理の情報と、構図の骨格領域以外に対して指定する画像処理の情報を記録するようにしたが、少なくともどちらか一方の情報であってもかまわない。
以上説明したように、本発明の画像処理装置によれば、画像のエッジ情報や奥行き情報から、画像を物体のある領域と、背景の領域と、奥行きがなだらかに変化する奥行き変化領域に分割した領域データを作成し、前記エッジ情報と、前記奥行き情報、前記領域データと、あらかじめ本画像処理装置に備えられた構図のテーブルを参照して、画像全体の構図を類推し、構図の骨格となる構図骨格領域を求め、構図の骨格領域とそうでない領域のそれぞれにあわせて異なる画像処理を行うことにより、撮影者の意図する構図に合わせた画像処理を行うことができる。
また、本発明の画像処理装置によれば、入力された画像データに対して、画像の構図の骨格となる骨格領域の輝度や色の鮮鋭度を上げることにより、構図の強調を行なうことができる。
また、本発明の画像処理装置によれば、構図の骨格領域と、そうでない領域のうち、その奥行きの差が所定の距離以上である領域に対しては、ぼかし処理を行い、奥行き感の強調を行なうことができ、それと同時に構図の強調も行なうことができる。
さらに、構図の判定結果のデータを保存し記録することにより、画像の検索や、映像であれば構図の変化からシーンチェンジを検出することができる。
尚、本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は画像処理装置に利用可能である。
本発明の画像処理装置の構成の一例を示すブロック図である。 (a)は画像処理装置1に入力される画像データの一例を示す図であり、(b)は奥行き情報データの一例を示す図である。 画像処理装置1の動作を説明するフローチャートである。 図3のステップS102における領域分割手段2の動作を説明するフローチャートである。 領域分割手段2で作成される画像データの一例を示す図であり、(a)はエッジ画像データを示す図であり、(b)は奥行きエッジ画像データを示す図であり、(c)は(b)の領域19を背景領域20と領域21とに領域分割した結果を示す図であり、(d)は(c)から領域21のみを抽出した画像データを示す図である。 図3のステップS103における構図判定手段3の動作を説明するフローチャートである。 (a)は日の丸構図の構図テーブルデータを示す図であり、(b)は三分割法の構図テーブルデータを示す図であり、(c)は水平線構図の構図テーブルデータを示す図であり、(d)は垂直線構図の構図テーブルデータを示す図である。 (a)、(b)は対角線構図の構図テーブルデータを示す図であり、(c)は斜線構図の構図テーブルデータを示す図であり、(d)は放射線構図の構図テーブルデータを示す図である。 (a)、(b)、(c)は三角構図の構図テーブルデータを示す図である。 (a)はS字構図の構図テーブルデータを示す図であり、(b)は繰り返し構造の構図テーブルデータを示す図であり、(c)は対比構造の構図テーブルデータを示す図であり、(d)はトンネル構造の構図テーブルデータを示す図である。 図3のステップS104における構図画像処理指定手段5の動作を説明するフローチャートである。
符号の説明
1 画像処理装置
2 領域分割手段
3 構図判定手段
4 構図記憶手段
5 構図画像処理指定手段
6 画像処理手段

Claims (8)

  1. 画像のエッジ情報や奥行き情報から、画像を物体のある領域と、背景の領域と、奥行きがなだらかに変化する奥行き変化領域に分割した領域データを作成し、前記エッジ情報と、前記奥行き情報、前記領域データと、あらかじめ本画像処理装置に備えられた構図のテーブルを参照して、画像全体の構図を類推し、構図の骨格となる構図骨格領域を求め、構図の骨格領域とそうでない領域のそれぞれにあわせて異なる画像処理を行うことを特徴とする画像処理装置。
  2. 濃淡情報及び/又はカラー情報からなる画像データからエッジ情報を算出し、前記エッジ情報と、前記画像データに対応した奥行き情報からなる奥行き情報データとを用いて、前記画像データを、物体のある物体領域と、背景のある背景領域と、奥行きがなだらかに変化する奥行き変化領域とに分けた奥行き領域分割データを作成する領域分割手段と、
    構図の注目すべき領域の情報を含む構図テーブルデータを記憶する構図記憶手段と、
    前記エッジ情報と、前記奥行き情報データと、前記奥行き領域分割データとのうちの少なくとも1つと、前記構図記憶手段から参照した構図テーブルデータとの類似度を計算し、前記類似度に基づいて選択された構図テーブルデータから前記画像データの構図を判定し、判定した前記構図の骨格となる骨格領域を示す構図骨格領域分割データを作成する構図判定手段と、
    前記構図骨格領域分割データから、前記構図の骨格領域とそうでない領域とに、それぞれどのような画像処理を行うのかを指定する構図画像処理指定データを作成する構図画像処理指定手段と、
    前記構図画像処理指定データに従って前記画像データに画像処理を行う画像処理手段とを備えることを特徴とする画像処理装置。
  3. 前記構図テーブルデータは、画像内における構図の特徴となる注目領域の位置と形状を記録したデータであることを特徴とする請求項2記載の画像処理装置。
  4. 前記構図判定手段は、前記構図テーブルデータにおける前記注目領域と、前記奥行き領域分割データにおける前記物体領域との類似度を、パターンマッチングにより算出することを特徴とする請求項3記載の画像処理装置。
  5. 前記構図判定手段は、前記構図テーブルデータにおける前記注目領域と、前記奥行き領域分割データにおける前記物体領域との類似度を、前記注目領域内に含まれる前記物体領域の割合により算出することを特徴とする請求項3記載の画像処理装置。
  6. 前記画像処理手段は、前記構図画像処理指定データに従って構図の骨格領域の鮮鋭度を上げることを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
  7. 前記画像処理手段は、前記構図画像処理指定データに従って構図の骨格領域でない領域に対してぼかし処理を行うことを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。
  8. 前記構図判定手段は、選択された構図テーブルデータを判定結果として記録することを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。
JP2008324525A 2008-12-19 2008-12-19 画像処理装置 Expired - Fee Related JP4990876B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008324525A JP4990876B2 (ja) 2008-12-19 2008-12-19 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008324525A JP4990876B2 (ja) 2008-12-19 2008-12-19 画像処理装置

Publications (2)

Publication Number Publication Date
JP2010147937A JP2010147937A (ja) 2010-07-01
JP4990876B2 true JP4990876B2 (ja) 2012-08-01

Family

ID=42567874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008324525A Expired - Fee Related JP4990876B2 (ja) 2008-12-19 2008-12-19 画像処理装置

Country Status (1)

Country Link
JP (1) JP4990876B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5254297B2 (ja) * 2010-09-27 2013-08-07 株式会社東芝 画像処理装置
JP5047381B1 (ja) * 2011-06-10 2012-10-10 シャープ株式会社 映像生成装置、映像表示装置、テレビ受像装置、映像生成方法及びコンピュータプログラム
WO2013111415A1 (ja) * 2012-01-26 2013-08-01 ソニー株式会社 画像処理装置および画像処理方法
JP5884520B2 (ja) * 2012-01-31 2016-03-15 ブラザー工業株式会社 画像処理装置、画像処理プログラム
WO2017007048A1 (ko) * 2015-07-08 2017-01-12 재단법인 다차원 스마트 아이티 융합시스템 연구단 에지의 깊이 전파 방향을 이용한 이미지에서의 깊이 결정 방법 및 장치
WO2017007047A1 (ko) * 2015-07-08 2017-01-12 재단법인 다차원 스마트 아이티 융합시스템 연구단 불규칙 비교를 이용하는 공간적 깊이 불균일성 보상 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06233165A (ja) * 1993-02-04 1994-08-19 Hitachi Ltd 半自動合焦方法およびそれによる装置
JP2008092046A (ja) * 2006-09-29 2008-04-17 Nikon Corp 自動構図抽出が可能なカメラおよび構図抽出プログラム

Also Published As

Publication number Publication date
JP2010147937A (ja) 2010-07-01

Similar Documents

Publication Publication Date Title
JP6216871B2 (ja) 文書バウンダリ検知方法
KR101036787B1 (ko) 움직임 벡터 연산 방법과 이 방법을 이용한 손 떨림 보정장치, 촬상 장치, 및 동영상 생성 장치
EP1984892B1 (en) Foreground/background segmentation in digital images
JP3684017B2 (ja) 画像処理装置及び方法
JP4990876B2 (ja) 画像処理装置
KR101747216B1 (ko) 표적 추출 장치와 그 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록 매체
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
JP5975598B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5777367B2 (ja) パターン識別装置、パターン識別方法及びプログラム
JP4518139B2 (ja) 画像処理装置
CN101009755B (zh) 带水印图像的生成装置及方法、和分析装置
US20150310585A1 (en) Method and apparatus for identifying a representative area of an image
JP5939962B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2005309560A (ja) 画像処理方法および装置並びにプログラム
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
KR101799143B1 (ko) 타깃 사이즈를 추정하기 위한 시스템 및 방법
JP5662890B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム、並びに、画像処理による放射線量推定方法
JP6754717B2 (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
KR101000859B1 (ko) 어안렌즈를 이용한 hdri파노라마 영상 생성장치 및 방법
EP2966613A1 (en) Method and apparatus for generating a super-resolved image from an input image
JP2016053763A (ja) 画像処理装置、画像処理方法及びプログラム
JP6661082B2 (ja) 画像認識装置、及び画像認識プログラム
JP3860540B2 (ja) エントロピーフィルタ及び該フィルタを用いた領域抽出法
JP4966080B2 (ja) 対象物検出装置
US20140368701A1 (en) Cloning image data patch in hole of pixel array (patch and clone)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees