JP6068895B2 - 画像処理装置およびプログラム - Google Patents

画像処理装置およびプログラム Download PDF

Info

Publication number
JP6068895B2
JP6068895B2 JP2012208501A JP2012208501A JP6068895B2 JP 6068895 B2 JP6068895 B2 JP 6068895B2 JP 2012208501 A JP2012208501 A JP 2012208501A JP 2012208501 A JP2012208501 A JP 2012208501A JP 6068895 B2 JP6068895 B2 JP 6068895B2
Authority
JP
Japan
Prior art keywords
image
region
image processing
processing unit
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012208501A
Other languages
English (en)
Other versions
JP2014063376A (ja
Inventor
修二 元吉
修二 元吉
健太郎 森屋
健太郎 森屋
優司 茂藤
優司 茂藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Systems Inc
Original Assignee
Nikon Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Systems Inc filed Critical Nikon Systems Inc
Priority to JP2012208501A priority Critical patent/JP6068895B2/ja
Publication of JP2014063376A publication Critical patent/JP2014063376A/ja
Application granted granted Critical
Publication of JP6068895B2 publication Critical patent/JP6068895B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置およびプログラムに関する。
従来から、画像の領域分割のために画像のエッジを検出する技術が種々提案されている。また、類似した特徴量をもち空間的に隣接した領域に画像を分割する手法として、例えば領域統合法(region unification method)が公知である(例えば、非特許文献1参照)。
Wei-Ying Ma, et al. "EdgeFlow: A Technique for Boundary Detection and Image Segmentation" IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL9, NO.8, AUGUST 2000
ところで、エッジで分割された複数の領域を統合するとき、例えば、境界近傍でパターンの違いがある場合や繰り返しのパターンを含む場合には、ユーザの認識に近い領域の統合を行うことがなお困難である。
本発明の一例としての画像処理装置は、入力画像を取得する取得部と、入力画像を複数の領域に分割する領域分割部と、統合処理部とを備える。統合処理部は、領域内の画像の特徴を用いて領域を統合する。また、統合処理部は、入力画像上で離散的に分布し、特徴がそれぞれ類似する複数の第1領域をグループ化する。そして、統合処理部は、複数の第1領域をグループ単位で第1領域とは異なる第2領域に統合する。
本発明によれば、ユーザの認識に近い領域の統合を行うことが比較的容易となる。
一の実施形態での画像処理装置の構成例を示す図 (a):入力画像の例を示す図、(b):領域情報の例を示す図、(c):出力画像の例を示す図 一の実形態における領域分割処理の例を示す流れ図 統合処理のサブルーチンの例を示す流れ図 (a)〜(c):#207での処理例を示す図 (a)〜(c):#208〜#211での処理例を示す図 (a),(b):色成分による統合処理の例を示す図 繰り返しパターンの領域の探索例を示す図 (a),(b):#214での処理例を示す図 (a)〜(c):#215の第1処理の概要を示す図 (a),(b):#215の第2処理の概要を示す図 (a),(b):#215の第3処理の概要を示す図 画像処理の一例(注目領域の削除)を示す図 画像処理の一例(注目領域の移動)を示す図 画像処理の一例(注目領域へのフィルタ処理)を示す図 タグ情報の付与の例を示す図 認識対象の抽出処理の一例を示す図 立体画像復元時の対応点の探索例を示す図 画像の類否判定の例を示す図 画像の圧縮処理の例を示す図 動きベクトルの演算例を示す図 他の実施形態での撮像装置の構成例を示す図
<一の実施形態での画像処理装置の構成例>
図1は、一の実施形態での画像処理装置の構成例を示す図である。一の実施形態では、画像処理装置の一例として、入力画像の領域分割処理を行うコンピュータを説明する。
画像処理装置11は、入出力I/F12と、画像蓄積部13と、バンドパス処理部14と、領域分割部16と、統合処理部17と、領域情報蓄積部18と、画像処理部19と、CPU20と、プログラム記憶部21を備える。
画像処理装置11の入出力I/F12には、入力デバイス22(キーボード、ポインティングデバイスなど)と、出力デバイス23(モニタ、プリンタなど)と、データ読込部24とが接続されている。データ読込部24は、領域分割処理の対象となる入力画像のデータや、プログラムを外部から読み込むときに用いられる。データ読込部24は、例えば、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部装置と通信を行う通信デバイス(USBインターフェース、LANモジュール、無線LANモジュールなど)である。
入出力I/F12は、入力デバイス22やデータ読込部24からのデータを受け付けるとともに、出力デバイス23に対して画像のデータを出力する。
画像蓄積部13は、入力画像のデータを記憶する記憶媒体である。なお、図2(a)は入力画像の一例を示す図である。画像蓄積部13の入力画像のデータは、CPU20の制御により、バンドパス処理部14および画像処理部19に出力される。
バンドパス処理部14は、入力画像に対してバンドパスフィルタ処理を施す。なお、バンドパス処理部14の出力は領域分割部16に接続されている。
領域分割部16は、入力画像を複数の領域に分割し、入力画像のエッジ画素を検出する。そして、領域分割部16は、入力画像からエッジ画素に囲まれた閉空間(部分領域)を抽出する。なお、領域分割部16の出力は統合処理部17に接続されている。
統合処理部17は、入力画像から抽出された複数の部分領域のうち、画像の特徴が類似する領域を統合する。そして、統合処理部17は、入力画像の領域分割結果を示すエッジ画像(領域情報)を出力する。なお、図2(b)は、図2(a)に対応する領域情報の一例を示す図である。
領域情報蓄積部18は、上記の領域情報を記憶する記憶媒体である。なお、領域情報蓄積部18の領域情報は、CPU20の制御により画像処理部19に出力される。
画像処理部19は、領域情報による境界線を入力画像に重畳して出力画像を生成する。また、画像処理部19は、領域情報を用いて、入力画像の部分領域ごとに各種の画像処理(例えば、領域別のぼかし処理、領域別のタグ情報の付与、画像分割、被写体抽出を伴う画像合成など)を施すこともできる。なお、図2(c)は、図2(a),(b)に対応する出力画像の一例を示す図である。
CPU20は、プログラムの実行により画像処理装置11の動作を統括的に制御するプロセッサである。
プログラム記憶部21は、CPU20の実行するプログラムや、プログラムの実行に必要となる各種のデータを記憶する。例えば、プログラム記憶部21は、ハードディスクや不揮発性の半導体メモリなどの記憶媒体である。
ここで、図1に示す画像処理装置11内の機能ブロックは、ハードウェア的には任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムによって実現される。例えば、バンドパス処理部14、ベクトル生成部、領域分割部16、統合処理部17、画像処理部19は、ASIC(Application Specific Integrated Circuit)であってもよく、またはCPU20によって処理されるプログラムモジュールであってもよい。なお、画像蓄積部13および領域情報蓄積部18は、同一のメモリ上に確保されている複数の記憶領域であってもよい。
<領域分割処理の説明>
図3は、一の実施形態における領域分割処理の例を示す流れ図である。図3の流れ図の処理は、ユーザからの指示を受け付けたときに、CPU20がプログラムを実行することによって開始される。
ステップ#101:画像処理装置11は、データ読込部24を介して入力画像を取得する。入力画像のデータは、CPU20の制御により画像蓄積部13に記録される。
ステップ#102:バンドパス処理部14は、バンドパスフィルタにより、入力画像のノイズ成分を除去する。例えば、#102のバンドパス処理部14は、入力画像にローパスフィルタ処理を施す。
ステップ#103:領域分割部16は、入力画像の領域分割処理を施す。一例として、領域分割部16はエッジ検出処理を実行する。まず、領域分割部16は、例えば公知の微分フィルタにより入力画像のエッジ画素を検出する。次に、領域分割部16は、入力画像からエッジ画素で囲まれた閉空間(部分領域)を抽出する。このとき、領域分割部16は、必要に応じて閉空間を形成していないエッジを、近傍のエッジ画素に連結されるように補間する。
なお、#103でのエッジ画素の検出は上記の例に限定されない。例えば、領域分割部16は、入力画像の各位置で求めたエッジフロー(EdgeFlow)ベクトルを用いてエッジ画素を検出してもよい(非特許文献1参照)。なお、エッジフローベクトルによるエッジ画素の検出では、エッジフローベクトルを各ベクトルの方向に伝搬させて合成し、合成後のエッジフローベクトルが画像内で対向する位置からエッジ画素が検出される。
また、領域分割部16による領域分割処理は、エッジ検出以外の他の公知の手法によるものであってもよい。
ステップ#104:統合処理部17は、部分領域の統合処理を実行する。そして、統合処理部17は、入力画像の領域分割結果を示す領域情報を出力する。なお、一の実施形態における統合処理の動作については後述する。
ステップ#105:画像処理部19は、領域分割処理の結果を出力する。
例えば、画像処理部19は、領域情報による境界線を入力画像に重畳して出力画像を生成する。そして、CPU20は、出力画像を出力デバイス23に表示させる。また、画像処理部19は、領域情報を用いて、入力画像の部分領域ごとに選択的に画像処理を施してもよい。なお、#105での画像処理の例は後述する。以上で、図3の流れ図の説明を終了する。
<統合処理の説明>
次に、図4の流れ図を参照しつつ、統合処理(図3の#104)のサブルーチンの例を説明する。
ステップ#201:統合処理部17は、入力画像の部分領域を、面積の大きさに応じて昇順または降順でソートする。
ステップ#202:統合処理部17は、ソートの結果(#201)を用いて、面積が小さい順に処理対象となる部分領域(注目領域)を指定する。なお、注目領域について、全ての隣接領域との間で色成分による統合処理の判定(後述の#204〜#211)が終了している場合、統合処理部17は次に面積が大きい部分領域を注目領域に指定する。
ステップ#203:統合処理部17は、現在の注目領域の面積が閾値以上であるか否かを判定する。上記要件を満たす場合(YES側)には#212に処理が移行する。一方、上記要件を満たさない場合(NO側)には#204に処理が移行する。#203の処理により、面積が閾値以上となる領域については、色成分による統合処理の判定が打ち切られることとなる。
ステップ#204:統合処理部17は、現在の注目領域(#202)に隣接する全ての部分領域で色成分による統合処理の判定が完了しているか否かを判定する。
上記要件を満たす場合(YES側)には#202に戻って、統合処理部17は新たな注目領域を指定する。一方、上記要件を満たさない場合(NO側)には、#205に処理が移行する。
ステップ#205:統合処理部17は、注目領域(#202)に隣接する部分領域(隣接領域)を指定する。なお、#205での統合処理部17は、色成分による統合処理の判定が行われていない部分領域を隣接領域として指定する。
ステップ#206:統合処理部17は、#205で指定された隣接領域と、注目領域(#202)との間で画像の特徴量のマッチングを行う。#206での統合処理部17は、注目領域全体から抽出した特徴量と、隣接領域全体から抽出した特徴量とをマッチングする。
例えば、#206での統合処理部17は、注目領域全体の色成分ヒストグラムと、隣接領域全体の色成分ヒストグラムとを特徴量とし、2つの色成分ヒストグラムの特徴量距離を求めることでマッチングを行う。
ここで、#206の特徴量として、例えばHSLヒストグラムを用いることができる。勿論、他の色成分によるヒストグラムを特徴量に用いてもよい。また、ヒストグラムの特徴量距離は、例えばBhattachayya距離を用いて算出できる。なお、特徴量距離の算出には、例えば、相関、カイ二乗、ヒストグラム交差、Minkowskyなどの他の距離関数を用いてもよい。また、各領域の面積が相違する場合が多いため、マッチングのときには、領域の面積に応じてヒストグラムを正規化してもよい。
ステップ#207:統合処理部17は、注目領域および隣接領域の領域全体で特徴が類似するか否かを判定する。一例として、Bhattachayya距離を用いて色成分ヒストグラムのマッチングを行った場合、統合処理部17は、#206で求めた特徴量距離が閾値以下となるときに、各領域全体で特徴が類似すると判定する。
上記要件を満たす場合(YES側)には、統合処理部17は、#203で指定されている隣接領域を注目領域との統合候補領域として抽出する。その後、#208に処理が移行する。一方、上記要件を満たさない場合(NO側)には#204に戻って、統合処理部17は上記動作を繰り返す。なお、#207のNO側の場合、注目領域と隣接領域との統合は行われない。
ここで、図5(a)〜(c)は、#207での判定例を示す図である。図5では、各領域の外縁(エッジ)は太線で示し、領域内のパターンは無地またはハッチングで示す。#207では、各領域全体で特徴が類似するか否かを判定する。図5(a)〜(c)の例では、各領域において無地の部分とハッチングの部分がほぼ同じ比率であり、領域全体における色成分のヒストグラムを比較すると特徴量距離(Bhattachayya距離)が非常に近くなる。よって、図5(a)〜(c)の例では、隣接領域がいずれも統合候補領域として抽出される。
ステップ#208:統合処理部17は、統合候補領域と注目領域との境界を検出する。そして、統合処理部17は、統合候補領域および注目領域の境界部分近傍に一定面積の局所領域を設定する。上記の局所領域は、統合候補領域および注目領域に跨って設定される(図6参照)。
ステップ#209:統合処理部17は、それぞれ局所領域内から抽出した統合候補領域の特徴量と、注目領域との特徴量とをマッチングする。#209でのマッチング処理は、#206の処理と同様であるので重複説明を省略する。なお、以下の説明においても、画像の特徴の類否は、色成分ヒストグラムの特徴量距離を算出して求めるものとする。
ステップ#210:統合処理部17は、統合候補領域および注目領域の局所領域で特徴が類似するか否かを判定する。
上記要件を満たす場合(YES側)には、#211に処理が移行する。一方、上記要件を満たさない場合(NO側)には#204に戻って、統合処理部17は上記動作を繰り返す。なお、#210のNO側の場合、統合候補領域と注目領域との統合は行われない。
ステップ#211:統合処理部17は、統合候補領域および注目領域を1つの領域に統合する。その後、統合処理部17は、#201に戻って上記動作を繰り返す。
ここで、図6(a)〜(c)は、#208〜#211での処理例を示す図である。図6(a)〜(c)は、図5(a)〜(c)にそれぞれ対応している。#208で設定された局所領域に注目すると、図6(c)の例では局所領域内がいずれも無地の部分のみとなるので、色成分のヒストグラムを比較すると特徴量距離(Bhattachayya距離)が非常に近くなる。よって、図6(c)の例は、#210において局所領域での特徴が類似する(YES側)と判定され、#211において領域が統合される。
一方、図6(a),(b)の例では統合候補領域側の局所領域にハッチングの部分が存在し、注目領域側の局所領域は無地の部分のみとなる。よって、図6(a),(b)の例は、#210において局所領域での特徴が類似しない(NO側)と判定される。
上記の#208〜#211の処理により、領域全体では画像の特徴が類似しているが、境界近傍で画像の特徴が異なっている場合には領域が統合されないので、ユーザに違和感を与えるような領域の統合処理が抑制される。よって、ユーザの認識に近い領域の統合を行うことができる。
なお、図7は、色成分による統合処理の例を示す図である。図7(a)は、薔薇の花を撮影した画像に対してエッジ検出処理を施した状態を示している。図7(a)では、個々の薔薇の花びらがそれぞれ独立した部分領域として抽出されている。一方、図7(b)は、図7(a)の画像に対して色成分による統合処理を施した状態を示している。図7(b)では、色の類似する薔薇の花びらの部分領域が統合され、薔薇の花全体が1つの領域として抽出されている。
ステップ#212:統合処理部17は、色成分による統合処理後に離散的な繰り返し領域の統合処理を行う。まず、#212での統合処理部17は、各部分領域の重心を求める。なお、L字型の領域やコ字状の領域のように領域内に重心が存在しない場合には、領域内で重心に最も近い位置を重心とみなせばよい。
ステップ#213:統合処理部17は、繰り返しパターンの領域を探索してグループ化を行う。ここで、繰り返しパターンは、入力画像上で離散的に分布し、画像の特徴がそれぞれ類似する複数の領域で構成される。
図8は、繰り返しパターンの領域の探索例を示す図である。図8において、A1〜A4は特徴の類似する領域を示している。
まず、統合処理部17は、注目する領域(探索基準の領域)を設定する。次に、統合処理部17は、注目する領域の重心から所定距離の範囲内で、境界が隣接しておらず、かつ画像の特徴が類似する部分領域を探索する。そして、統合処理部17は、探索で検出された部分領域と、注目する領域とをグループ化する。その後、統合処理部17は、探索で検出された部分領域を新たに注目する領域に設定し、上記動作を繰り返す。
例えば、図8の例で注目する領域がA1のとき、A1の重心から所定範囲内のA2,A3が探索で検出され、A1〜A3がグループ化される。次に、注目する領域がA2に変更され、A2の重心から所定範囲内のA1,A3が探索で検出される。A1〜A3は既にグループ化されているので、注目する領域がA2のとき新たにグループに追加される領域はない。その後、注目する領域がA3に変更され、A3の重心から所定範囲内のA1,A2,A4が探索で検出される。このとき、新たに検出されたA4がグループに追加されることとなる。したがって、A1〜A4がグループ化される。上記の処理により、入力画像上で離散的に分布し、画像の特徴がそれぞれ類似する複数の部分領域が繰り返しパターンの領域としてグループ化される。
ステップ#214:統合処理部17は、繰り返しパターンの各領域が同じ背景領域のみに囲繞されている場合、繰り返しパターンの各領域をグループ単位で背景領域に統合する。一般的に繰り返しパターンは、微細な構造や模様などに由来する場合が多い。したがって、繰り返しパターンをより広い領域に同化させることで、ユーザの認識に近い領域の統合を行うことができるようになる。
図9(a),(b)は、#214での処理例を示す図である。図9(a)は#214の処理前の状態を示し、図9(b)は#214の処理後の状態を示す。また、図9において、A1〜A3,B1〜B3はグループ化された繰り返しパターンの領域を示し、Cは背景領域を示している。繰り返しパターンの領域A1〜A3,領域B1〜B3はいずれも背景領域Cにのみ接しているため、これらの領域はいずれもグループ単位で背景領域Cに統合される。
ステップ#215:統合処理部17は、複数種類の領域に接している繰り返しパターンの領域を統合する。#215での統合処理部17は、以下の第1処理から第3処理のいずれかによって繰り返しパターンの領域を統合すればよい。第1処理から第3処理によっても、繰り返しパターンがより広い領域に同化するので、ユーザの認識に近い領域の統合を行うことができるようになる。
(第1処理)
図10(a)〜(c)は、#215の第1処理の概要を示す図である。第1処理での統合処理部17は、繰り返しパターンの領域を段階的に統合する。
図10(a)は第1処理の開始前の状態を示している。図10において、A1〜A13は特徴が類似する繰り返しパターンの領域を示し、B,C,Dはそれぞれ互いに特徴が類似しない領域を示している。領域A1〜A6は背景領域Dのみに接している。領域A7〜A10は領域Bと背景領域Dに接している。また、領域A11〜A13は領域Cと背景領域Dに接している。なお、領域A1〜A13は、接している領域の種類に応じて3つの異なるグループ(A1〜A6,A7〜A10,A11〜A13)に予め分類されているものとする。
まず、統合処理部17は、背景領域Dのみに接しているA1〜A6をグループ単位で背景領域Dに統合する(図10(b)参照)。このとき、統合処理部17は、背景領域Dに領域Aを統合したことを示す履歴情報を保持する。次に、統合処理部17は、上記の履歴情報に基づいて、領域A7〜A10と領域A11〜A13とをそれぞれグループ単位で、領域A1〜A6を統合させた背景領域Dにさらに統合する(図10(c)参照)。上記の第1処理により、それぞれ特徴が類似し、異なるグループに属する領域A1〜A13をいずれも同じ領域(背景領域D)に統合できる。
(第2処理)
図11(a),(b)は、#215の第2処理の概要を示す図である。第2処理での統合処理部17は、グループ化された繰り返しパターンの領域が特徴の異なる複数の領域に隣接するときに、隣接する領域の個数の多さに応じて統合先を設定する。
図11(a)は第2処理の開始前の状態を示している。図11において、10個の領域Aは特徴が類似する繰り返しパターンの領域を示し、B,Cはそれぞれ互いに特徴が類似しない領域を示している。なお、領域Aはグループ化されているものとする。
図11(a)の例では、繰り返しパターンの領域Aは、領域Bには8個接しており、背景領域Cには10個接している。このとき、統合処理部17は、領域Aがより多く接している背景領域Cに、繰り返しパターンの領域Aをグループ単位で統合する(図11(b)参照)。上記の第2処理により、繰り返しパターンの領域Aをより広い領域に統合できる。
(第3処理)
図12(a),(b)は、#215の第3処理の概要を示す図である。第3処理での統合処理部17は、グループ化された繰り返しパターンの領域が特徴の異なる複数の領域に隣接するときに、境界の接している長さに応じて統合先の領域を設定する。
図12(a)は第3処理の開始前の状態を示している。図12において、4個の領域Aは特徴が類似する繰り返しパターンの領域を示し、B,Cはそれぞれ互いに特徴が類似しない領域を示している。なお、領域Aは1グループ化されているものとする。
図12(a)の例では、繰り返しパターンの領域Aは、領域B,Cに境界が接しており、領域Bの方に境界がより長く接している。このとき、統合処理部17は、領域Aの境界がより長く接している領域Bに、繰り返しパターンの領域Aをグループ単位で統合する(図12(b)参照)。上記の第3処理により、繰り返しパターンの領域Aをより相関が高い領域と統合できる。
ステップ#216:統合処理部17は、統合すべき繰り返し領域が存在するか否かを判定する。上記要件を満たす場合(YES側)には、#213に戻って、統合処理部17は上記動作を繰り返す。一方、上記要件を満たさない場合(NO側)には、CPU20は、図3の#105の処理に復帰する。以上で、図4の流れ図の説明を終了する。
<領域情報を用いた画像処理の例>
次に、領域情報を用いた画像処理(#105)について詳述する。例えば、#105でのCPU20は、以下の(1)〜(8)の画像処理を画像処理部19に実行させることができる。
(1:塗り絵用の元画像の生成)
例えば、CPU20は、領域情報(エッジ画像)を塗り絵用の元画像として出力してもよい。なお、画像処理部19は、必要に応じて線幅の正規化やスパイクノイズ除去などの処理をエッジ画像に施して塗り絵用の元画像を生成してもよい。
(2:注目領域のレタッチ)
画像処理部19は、入力画像の注目領域に対してレタッチを施してもよい。
一例として、画像処理部19は、注目領域の被写体を削除するとともに、削除で欠損した部分を補間する処理を行ってもよい(図13参照)。ここで、画像の補間は、周囲の領域の画素値で単純に補間してもよいが、例えば、河合紀彦 他,「パターン類似度に基づくエネルギー最小化による画像修復」 電子情報通信学会 技術研究報告,PRMU2006-106,Dec.2006に開示の手法を適用してもよい。上記の処理により、領域分割の結果を用いて後処理工程で入力画像の被写体を選択的に削除できるので、ユーザにとって好ましい画像を得ることができる。
また、他の一例として、画像処理部19は、注目領域の被写体の位置を移動させる処理を行ってもよい(図14参照)。この場合、画像処理部19は、注目領域の被写体の位置をユーザの操作に応じて画像内で移動させる。そして、画像処理部19は、注目領域の被写体を移動先の位置に合成するとともに、画像の欠損部分(注目領域の移動元)を補間する。上記の処理により、領域分割の結果を用いて後処理工程で入力画像上の被写体の位置を調整できるので、ユーザにとって好ましい画像を得ることができる。
また、他の一例として、画像処理部19は、注目領域の被写体に対して選択的にフィルタ処理を施してもよい。図15は、注目領域の被写体(人物)にぼかしフィルタをかけた例を示している。なお、注目領域に施すフィルタは、例えばノイズ除去フィルタ、エッジ強調フィルタ、モザイクフィルタなどであってもよい。上記の処理により、領域分割の結果を用いて後処理工程で入力画像上の任意の部分に所望の画像効果を付与できるので、ユーザにとって好ましい画像を得ることができる。
(3:注目領域へのタグ情報の付与)
画像処理部19は、ユーザの指定した注目領域に対してタグ情報(メタデータ)を付与してもよい(図16参照)。タグ情報は、例えば、注目領域の属性(人名、山、建物等)やユーザのコメントを記述したテキスト情報や、領域の画像サイズ、画像のデータ量、色情報、入力画像上での領域の位置、などの画像情報を含む概念である。タグ情報のうち、テキスト情報は例えばユーザによって入力され、画像情報は例えば画像処理装置11によって生成される。なお、上記のタグ情報は、例えば、画像検索のツールや、ユーザのメモとして使用することができる。
一の実施形態では、領域分割の結果を用いて注目領域を簡単に指定できるので、ユーザは所望の被写体の領域に効率よくタグ情報を付与できる。
(4:認識対象の抽出処理)
画像処理部19は、領域分割の結果を用いて、入力画像から所定の認識対象を抽出する処理を実行してもよい。この場合、画像の特徴により認識対象か否かを判別する識別器を画像処理部19に予め準備する。上記の識別器は、例えば、ニューラルネットワークによる識別モデルや、サポートベクターマシンなどの公知のパターン認識手段で構成される。そして、画像処理部19は、入力画像の各領域をそれぞれ識別器に入力し、領域毎に認識対象であるか否かを判定する。そして、画像処理部19は、認識対象と判定された領域を示す表示を入力画像に重畳させて表示装置に表示させる。なお、画像内での認識対象の有無や認識対象の位置の情報は、例えば、画像のシーン認識や、類似画像の検索に用いることもできる。
図17は、認識対象の抽出処理の一例を示す図である。図17では、看板を認識対象とする識別器を用いて、入力画像から看板に対応する領域を抽出し、その抽出結果の画像を表示する例を示している。なお、識別器による認識対象は上記に限定されることなく適宜変更することができる。例えば、識別器は、文字、バーコードや、特定種類の被写体(金網など)を認識対象とするものであってもよい。
一の実施形態では、領域分割の結果を用いて領域毎に認識対象を判定することで、効率よく認識対象の抽出を行うことができる。
(5:立体画像復元時の対応点の探索)
各々の撮影位置が異なる複数の画像から立体画像を復元するときに、画像処理部19は、領域分割の結果を用いて画像間の対応点を探索してもよい。
図18は、立体画像復元時の対応点の探索例を示す図である。一般に立体画像を復元するときには、撮影位置の異なる画像間でそれぞれ対応点を求め、対応点間の位置変化から被写体の三次元形状を推定する。図18の例では、画像処理部19は、例えば色成分ヒストグラムのマッチング等の公知の手法によって、2画像間で同じ物体の領域を探索する。そして、画像処理部19は、2画像間の同じ物体の領域から対応点を探索する。一の実施形態では、領域分割の結果を用いて、対応する物体の範囲内から対応点を探索するので、画像全体から対応点を探索する場合と比べて、効率よく対応点を探索できる。
(6:画像の類否判定)
また、画像処理部19は、領域分割の結果を用いて2画像間の類否を判定してもよい。
図19は、画像の類否判定の例を示す図である。ここで、類否判定の基準となる入力画像を基準画像と称し、類否を判定される入力画像を処理対象画像と称する。なお、基準画像および処理対象画像には、それぞれ領域分割処理が施されることを前提とする。
図19の例では、まず、基準画像の注目領域を、処理対象画像の各領域とマッチングするマッチング処理を画像処理部19が実行する。このマッチング処理では、画像処理部19は、対比する2領域の相関の高さを示す評価値を求めるものとする。基準画像の注目領域と処理対象画像の領域とが合致する場合、画像処理部19は相対的に高い評価値を算出する。例えば、上記の領域間のマッチング処理は、例えばコーナーを特徴量とするマッチングや、色成分ヒストグラムによるマッチングなどの公知の手法を適用できる。
ここで、画像処理部19は、領域のサイズや画像の差違に応じて、上記の評価値を重み付けする。例えば、面積の大きい領域ほど画像の類否に大きな影響を与えるため、画像処理部19は、マッチングする領域の面積が大きいほど評価値の重み係数を大きくする。また、基準画像の注目領域の位置と、処理対象画像で対応する領域の位置とが画像上で乖離している場合、物体の位置ズレを画像の類否に反映させるため、画像処理部19は領域位置の乖離量の大きさに応じて評価値の重み係数を小さくする。
また、画像処理部19は、マッチング処理のときに、比較する領域の一方に対して、拡大、縮小、回転などの幾何学的変換を行ってもよい。上記の幾何学的変換により領域のマッチングが成功した場合、物体のサイズや向きの違いを画像の類否に反映させるため、画像処理部19は幾何学的変換の度合いの大きさに応じて評価値の重み係数を小さくする。
画像処理部19は、基準画像の全ての領域を順次注目領域に指定し、処理対象画像の領域とのマッチング処理で算出された評価値をそれぞれ求める。そして、画像処理部19は、求めた評価値による演算結果(例えば、領域ごとに算出した評価値の積算値をパラメータとする値)が閾値以上の場合には処理対象画像が基準画像に類似すると判定し、求めた評価値による演算結果が閾値未満の場合には処理対象画像が基準画像に類似しないと判定する。
図19の例において、処理対象画像1のように基準画像と類似する画像は、基準画像と多くの領域が合致するため評価値の演算結果は高い値を示す。一方、処理対象画像2のように、基準画像と大きく異なる画像は、基準画像とほとんどの領域が合致しないため、評価値の演算結果は低い値を示す。よって、一の実施形態では、上記の評価値の演算結果により、基準画像との総合的な類否を判定できる。
(7:画像圧縮)
また、画像処理部19は、領域分割の結果を用いて、分割された領域単位で画像の圧縮率を変化させてもよい。例えば、画像処理部19は注目領域の画像の圧縮率を低くし、注目領域以外の画像の圧縮率を高くしてもよい(図20参照)。上記の場合には、ユーザが注目する主要被写体の情報を保持しつつ、画像全体のデータ量を効率よく削減することができる。なお、画像の圧縮率は、ユーザの指定や、ROI(Region of Interest)の領域内での注目度の平均値や、領域内での高周波数成分の量に応じて変更してもよい。
(8:動きベクトルの演算)
また、画像処理部19は、領域分割の結果を用いて、動画撮影時に分割された領域単位で被写体の動きベクトルを求めてもよい(図21参照)。上記の場合には、通常のブロックよりも大きなサイズの領域単位でマッチングを行うことでマッチングの回数を少なくできる。また、領域の面積や形状の特徴を考慮してマッチングを行うことで、フレーム間で大きな動きがある場合にも誤検出のおそれを低減させることができる。
<他の実施形態の説明>
図22は、他の実施形態での撮像装置の構成例を示す図である。他の実施形態は、上記の一の実施形態の画像処理装置11を電子カメラ31に実装した例であって、電子カメラ31の撮像部33から画像処理装置が入力画像を取得する。
電子カメラ31は、撮影レンズ32と、撮像部33と、画像処理エンジン34と、第1メモリ35および第2メモリ36と、記録I/F37と、操作部38とを備えている。ここで、撮像部33、第1メモリ35、第2メモリ36、記録I/F37および操作部38は、それぞれ画像処理エンジン34と接続されている。
撮像部33は、撮影レンズ32によって結像された被写体の像を撮像(撮影)するモジュールである。例えば、撮像部33は、光電変換を行う撮像素子と、アナログ信号処理を行うアナログフロントエンド回路と、A/D変換およびデジタル信号処理を行うデジタルフロントエンド回路とを含んでいる。
画像処理エンジン34は、電子カメラ31の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン34は、撮影モードにおいて、ユーザの撮影指示入力に応じて、画像を撮像部33に撮像させる。また、画像処理エンジン34は、プログラムの実行により、一の実施形態の画像処理装置11におけるバンドパス処理部14、領域分割部16、統合処理部17、画像処理部19、CPU20として動作する。
第1メモリ35は、画像のデータ等を一時的に記憶するメモリであって、例えば揮発性の記憶媒体であるSDRAMである。この第1メモリ35は、一の実施形態の画像処理装置11における画像蓄積部13、領域情報蓄積部18として動作する。
第2メモリ36は、画像処理エンジン34の実行するプログラム等を記憶するメモリであって、例えばフラッシュメモリ等の不揮発性メモリである。この第2メモリ36は、一の実施形態の画像処理装置11におけるプログラム記憶部21として動作する。
記録I/F37は、不揮発性の記憶媒体39を接続するためのコネクタを有している。そして、記録I/F37は、コネクタに接続された記憶媒体39に対して画像のデータの書き込み/読み込みを実行する。上記の記憶媒体39は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。なお、図22では記憶媒体39の一例としてメモリカードを図示する。
操作部38は、ユーザの操作を受け付ける複数のスイッチを有している。この操作部38は、例えば、記録用の静止画像の撮影指示を受け付けるレリーズ釦などを含む。
以下、他の実施形態での電子カメラ31の動作例を簡単に説明する。一例として、他の実施形態での領域分割処理は、被写体検出や、オートフォーカス(AF)のAF領域検出の前処理として実行される。
他の実施形態の電子カメラ31では、撮像部33が画像を撮影する。これにより、図3の#101の処理に相当する入力画像の取得が行われる。なお、入力画像は、ユーザの撮影指示に応じて取得された静止画像であってもよく、撮影モード下で所定の時間間隔ごとに取得される観測用の画像(スルー画像)であってもよい。
そして、画像処理エンジン34は、図3の#102〜#105の処理を実行し、入力画像の領域分割を行う。なお、画像処理エンジン34は、#104の部分領域の統合処理において、図4の#201〜#216の処理を実行する。かかる他の実施形態においても、上記の一の実施形態とほぼ同様の効果を得ることができる。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図する。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。
11…画像処理装置、12…入出力I/F、13…画像蓄積部、14…バンドパス処理部、16…領域分割部、17…統合処理部、18…領域情報蓄積部、19…画像処理部、20…CPU、21…プログラム記憶部、22…入力デバイス、23…出力デバイス、24…データ読込部

Claims (16)

  1. 入力画像を取得する取得部と、
    前記入力画像を複数の領域に分割する領域分割部と、
    領域内の画像の特徴を用いて前記領域を統合する統合処理部と、を備え、
    前記統合処理部は、前記入力画像上で離散的に分布し、前記特徴がそれぞれ類似する複数の第1領域をグループ化し、複数の前記第1領域をグループ単位で前記第1領域とは異なる第2領域に統合する画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記統合処理部は、前記第1領域と前記特徴が類似するとともに前記第1領域に隣接していない領域を注目する前記第1領域から所定範囲内で探索し、前記探索で検出された領域を前記第1領域としてグループ化する処理を繰り返す画像処理装置。
  3. 請求項1または請求項2に記載の画像処理装置において、
    前記統合処理部は、前記第1領域を囲繞する背景領域を前記第2領域に設定し、複数の前記第1領域をグループ単位で前記背景領域に統合する画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記統合処理部は、複数の前記第1領域をグループ単位で前記背景領域に統合した後、前記背景領域および他の第3領域に隣接するとともに、異なるグループに属する第1領域をさらに前記背景領域に統合する画像処理装置。
  5. 請求項1または請求項2に記載の画像処理装置において、
    前記統合処理部は、グループ化された複数の前記第1領域がそれぞれ前記特徴の異なる複数の領域に隣接するときに、グループ内の前記第1領域のうちで隣接する個数がより多い領域を前記第2領域に設定する画像処理装置。
  6. 請求項1または請求項2に記載の画像処理装置において、
    前記統合処理部は、グループ化された複数の前記第1領域がそれぞれ前記特徴の異なる複数の領域に隣接するときに、グループ内の前記第1領域の境界がより長く接している領域を前記第2領域に設定する画像処理装置。
  7. 請求項1から請求項のいずれか1項に記載の画像処理装置において、
    前記統合処理部によって領域が統合された画像に対して、画像処理を施す画像処理部をさらに備える画像処理装置。
  8. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像を用いて塗り絵用の元画像を生成する画像処理装置。
  9. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像に対して、注目領域の被写体の削除、注目領域の被写体の移動、注目領域への局所的なフィルタ処理の少なくとも1つを行う画像処理装置。
  10. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像の注目領域に対して、タグ情報を付与する画像処理装置。
  11. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像を用いて、所定の認識対象を抽出する画像処理装置。
  12. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像を用いて、立体画像を復元するときの対応点を探索する画像処理装置。
  13. 請求項に記載の画像処理装置において、
    前記画像処理部は、それぞれ領域分割された基準画像および処理対象画像を領域単位でマッチングして、前記基準画像に対する前記処理対象画像の類否を判定する画像処理装置。
  14. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像に対して、領域単位で圧縮率を変化させた画像圧縮を行う画像処理装置。
  15. 請求項に記載の画像処理装置において、
    前記画像処理部は、前記領域分割された画像を用いて、領域単位で動きベクトルを求める画像処理装置。
  16. 入力画像を取得する処理と、
    前記入力画像を複数の領域に分割する領域分割処理と、
    領域内の画像の特徴を用いて前記領域を統合する統合処理と、をコンピュータに実行させ、
    前記統合処理では、前記入力画像上で離散的に分布し、前記特徴がそれぞれ類似する複数の第1領域をグループ化し、複数の前記第1領域をグループ単位で前記第1領域とは異なる第2領域に統合するプログラム。
JP2012208501A 2012-09-21 2012-09-21 画像処理装置およびプログラム Active JP6068895B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012208501A JP6068895B2 (ja) 2012-09-21 2012-09-21 画像処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012208501A JP6068895B2 (ja) 2012-09-21 2012-09-21 画像処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2014063376A JP2014063376A (ja) 2014-04-10
JP6068895B2 true JP6068895B2 (ja) 2017-01-25

Family

ID=50618547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012208501A Active JP6068895B2 (ja) 2012-09-21 2012-09-21 画像処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6068895B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6840968B2 (ja) 2016-09-20 2021-03-10 富士通株式会社 形状推定方法、形状推定装置および形状推定プログラム
CN107680109A (zh) * 2017-09-15 2018-02-09 盐城禅图智能科技有限公司 一种引用逆注意力与像素相似度学习的图像语义分割方法
JP6958395B2 (ja) 2018-01-31 2021-11-02 富士通株式会社 記憶制御プログラム、記憶制御方法および記憶制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08116540A (ja) * 1994-10-14 1996-05-07 Sanyo Electric Co Ltd 領域分割を用いた画像符号化装置及び画像復号化装置
JPH11224337A (ja) * 1998-02-05 1999-08-17 Fuji Xerox Co Ltd 領域分割統合装置および領域分割統合方法
JP2006208339A (ja) * 2005-01-31 2006-08-10 Olympus Corp 領域抽出装置、顕微鏡システムおよび領域抽出プログラム
JP4859025B2 (ja) * 2005-12-16 2012-01-18 株式会社リコー 類似画像検索装置、類似画像検索処理方法、プログラム及び情報記録媒体
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
JP5439277B2 (ja) * 2010-05-11 2014-03-12 日本電信電話株式会社 位置姿勢計測装置及び位置姿勢計測プログラム

Also Published As

Publication number Publication date
JP2014063376A (ja) 2014-04-10

Similar Documents

Publication Publication Date Title
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
KR101468351B1 (ko) 대상물 추적 장치, 대상물 추적 방법 및 제어 프로그램
KR101709380B1 (ko) 화상처리장치, 화상처리방법 및 프로그램
JP6023058B2 (ja) 画像処理装置、画像処理方法、プログラム、集積回路
JP5210318B2 (ja) 画像処理装置、方法、および記憶媒体
CN111583097A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN110428399B (zh) 用于检测图像的方法、装置、设备和存储介质
JP2018092610A (ja) 画像認識装置、画像認識方法及びプログラム
CN107944403B (zh) 一种图像中的行人属性检测方法及装置
KR102559859B1 (ko) 적응적 전경 마스크 업샘플링에 기초한 컬러 이미지 프레임들의 시퀀스에서의 객체 분할
JP4911191B2 (ja) 画像処理装置および画像処理プログラム
JP6456031B2 (ja) 画像認識装置、画像認識方法およびプログラム
US20180122097A1 (en) Apparatus, method, and non-transitory computer-readable storage medium for storing program for position and orientation estimation
JP6157165B2 (ja) 視線検出装置及び撮像装置
KR20130120175A (ko) 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP2016505185A (ja) エッジ選択機能を有するイメージプロセッサ
JP6068895B2 (ja) 画像処理装置およびプログラム
JP6068896B2 (ja) 画像処理装置およびプログラム
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP6150419B2 (ja) カメラおよびプログラム
KR101829386B1 (ko) 표적 검출 장치 및 방법
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
KR101223857B1 (ko) 얼굴의 좌우 대칭도 산출 방법 및 장치
JP2017016592A (ja) 主被写体検出装置、主被写体検出方法及びプログラム
JP5487126B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20150730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161226

R150 Certificate of patent or registration of utility model

Ref document number: 6068895

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250