JP5878924B2 - 画像処理装置、撮像装置および画像処理方法 - Google Patents
画像処理装置、撮像装置および画像処理方法 Download PDFInfo
- Publication number
- JP5878924B2 JP5878924B2 JP2013518622A JP2013518622A JP5878924B2 JP 5878924 B2 JP5878924 B2 JP 5878924B2 JP 2013518622 A JP2013518622 A JP 2013518622A JP 2013518622 A JP2013518622 A JP 2013518622A JP 5878924 B2 JP5878924 B2 JP 5878924B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- segment
- region
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 16
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000011218 segmentation Effects 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 27
- 230000005484 gravity Effects 0.000 claims description 18
- 238000000605 extraction Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 9
- 239000003086 colorant Substances 0.000 claims description 8
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011549 displacement method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
本発明は、第1画像に含まれる被写体を第1画像よりも後に撮影された第2画像内において追尾する画像処理装置、撮像装置および画像処理方法に関する。
リアルタイムに画像を表示するタッチパネルを備えるカメラ(デジタルスチルカメラまたはデジタルビデオカメラなど)が広く普及している。ユーザは、タッチパネルに表示された画像を確認しながら、写真あるいはビデオを撮影することができる。また、ユーザは、タッチパネルをタッチすることにより、タッチパネルに表示された画像内の注目している被写体の位置を指示することができる。
注目している被写体の位置が指示された場合、カメラは、当該位置の周辺領域から抽出される特徴量を利用して、オートフォーカス(AF:Autofocus)あるいは自動露出(AE:Automatic Exposure)などを実行する。その結果、カメラは、ユーザが注目している被写体に適した写真あるいはビデオを撮影することできる。
ここで、例えばAFが実行された後に被写体あるいはカメラが動いた場合、被写体に合っていた焦点がずれてしまう。そこで、タッチパネルに表示されている画像内の被写体を自動で追尾する技術が提案されている(例えば、特許文献1を参照)。
このように追尾された被写体の領域から抽出される特徴量を利用して、再度AFを実行することにより、カメラは、被写体あるいはカメラが動いた場合であっても、自動で被写体にピントを合わせることができる。
しかしながら、上記従来の方法では、特徴量が抽出される領域が予め定められた形状(矩形あるいは楕円形など)であるため、被写体の形状が予め定められた形状と異なる場合に、カメラは被写体の特徴量を適切に抽出することができない。その結果、カメラは、被写体を正しく追尾することが難しい。
そこで、本発明は、第1画像に含まれる被写体を第1画像よりも後に撮影された第2画像内において正確に追尾することができる画像処理装置、撮像装置および画像処理方法を提供する。
本発明の一態様に係る画像処理装置は、第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において追尾する画像処理装置であって、画素値の類似性に基づいて、前記第1画像を複数のセグメントに分割するセグメンテーション部と、前記第1画像における被写体の位置を指示する指示部と、指示された前記位置に存在するセグメントである指示セグメントを含むセグメント集合を対象領域と設定する領域設定部と、設定された前記対象領域から特徴量を抽出する抽出部と、抽出された前記特徴量を用いて、前記対象領域に類似する領域を前記第2画像内で探索することにより、前記被写体を追尾する追尾部とを備える。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の一態様に係る画像処理装置によれば、第1画像に含まれる被写体を第1画像よりも後に撮影された第2画像内において正確に追尾することができる。
本発明の一態様に係る画像処理装置は、第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において追尾する画像処理装置であって、画素値の類似性に基づいて、前記第1画像を複数のセグメントに分割するセグメンテーション部と、前記第1画像における被写体の位置を指示する指示部と、指示された前記位置に存在するセグメントである指示セグメントを含むセグメント集合を対象領域と設定する領域設定部と、設定された前記対象領域から特徴量を抽出する抽出部と、抽出された前記特徴量を用いて、前記対象領域に類似する領域を前記第2画像内で探索することにより、前記被写体を追尾する追尾部とを備える。
この構成によれば、画素値の類似性に基づいて第1画像を分割することにより得られる複数のセグメントを利用して、対象領域が設定される。したがって、複雑な幾何形状を有する被写体であっても、その複雑な幾何形状に適した形状の対象領域を設定することが可能となる。その結果、予め定められた形状の対象領域から特徴量を抽出する場合よりも、適切に被写体の特徴量を抽出することができるので、被写体を正確に追尾することが可能となる。
また、前記セグメンテーション部は、色の類似性に基づいて、前記第1画像を複数のセグメントに分割することが好ましい。
この構成によれば、色の類似性に基づいて第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントに分割することが可能となる。その結果、被写体の境界がセグメント内に含まれる可能性を低減することができるので、被写体の形状により適した形状の対象領域を設定することが可能となる。
また、前記セグメンテーション部は、色および画素位置を用いて定義された類似性に基づくクラスタリングにより、前記第1画像を複数のセグメントに分割することが好ましい。
この構成によれば、色および画素位置を用いて定義された類似性に基づくクラスタリングにより、第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントに高精度に分割することが可能となる。
また、前記クラスタリングは、k平均法(k−means clustering)であることが好ましい。
この構成によれば、k平均法により第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントにさらに高精度に分割することが可能となる。さらに、比較的簡易な処理によりセグメンテーションが可能となるので、被写体を追尾するための処理負荷を軽減することも可能となる。
また、前記領域設定部は、前記指示セグメントと、前記指示セグメントに対する画像の類似性を示す値が閾値より大きい類似セグメントとを含むセグメント集合であって1つの連続した領域を形成するセグメント集合を前記対象領域と設定することが好ましい。
この構成によれば、指示セグメントと類似セグメントとを含むセグメント集合を対象領域と設定することができる。したがって、1つの被写体の領域が複数のセグメントにまたがっている場合であっても、被写体の形状に適した形状の対象領域を設定することが可能となる。
また、前記追尾部は、前記対象領域を囲む予め定められた形状の枠を前記第2画像内で走査することにより、走査された前記第2画像内の各位置において、前記枠内の領域のうち前記対象領域に対応する領域のみから特徴量を抽出し、各位置において抽出された特徴量と、前記対象領域から抽出された特徴量とを比較することにより、前記対象領域に類似する領域を探索することが好ましい。
この構成によれば、対象領域を囲む予め定められた形状の枠を走査することにより、対象領域に類似する領域を探索することが可能となる。このとき、第2画像において、枠内の領域のうち対象領域に対応する領域のみから特徴量を抽出するので、特徴量の類似性だけではなく、形状の類似性も考慮して、対象領域に類似する領域を探索することができる。したがって、より正確に被写体を追尾することが可能となる。
また、前記抽出部は、前記対象領域に含まれるセグメントごとに特徴量を抽出し、前記追尾部は、前記対象領域に含まれるセグメントごとに、当該セグメントから抽出された特徴量を用いて当該セグメントと類似する領域を前記第2画像内で探索することにより、前記対象領域と類似する領域を探索することが好ましい。
この構成によれば、セグメントごとに、特徴量を用いて当該セグメントに類似する領域を探索することができる。したがって、被写体の形状が大きく変化した場合であっても被写体を追尾することが可能となる。
また、前記追尾部は、当該セグメントから抽出された特徴量に加えて、当該セグメントと、対象領域の重心に最も近いセグメントとの位置関係を用いて、当該セグメントと類似する領域を第2画像内で探索することが好ましい。
この構成によれば、セグメント間の位置関係を用いて、セグメントに類似する領域を探索することができるので、より正確に被写体を追尾することが可能となる。
また、前記画像処理装置は、集積回路として構成されてもよい。
また、本発明の一態様に係る撮像装置は、上記画像処理装置と、前記第1画像および前記第2画像を撮影する撮像部とを備える。
この構成によれば、上記画像処理装置と同様の効果を奏することができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を用いて詳細に説明する。なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示す。つまり、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置および接続形態、ステップ、ステップの順序などは、一例であり、請求の範囲を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
図1は、実施の形態に係る画像処理装置10の機能構成を示すブロック図である。画像処理装置10は、第1画像に含まれる被写体を当該第1画像よりも後に撮影された第2画像内において追尾する。
図1は、実施の形態に係る画像処理装置10の機能構成を示すブロック図である。画像処理装置10は、第1画像に含まれる被写体を当該第1画像よりも後に撮影された第2画像内において追尾する。
図1に示すように、本実施の形態に係る画像処理装置10は、セグメンテーション部11と、指示部12と、領域設定部13と、抽出部14と、追尾部15とを備える。
セグメンテーション部11は、画素値の類似性に基づいて、第1画像を複数のセグメントに分割する。つまり、セグメンテーション部11は、画素値が互いに類似する画素が1つのセグメントに含まれるように、第1画像を複数のセグメントに分割する。
ここで、セグメントとは、第1画像内の一部の領域に相当する。また、複数のセグメントに分割する処理を、以下においてセグメンテーションともいう。
また、画素値とは、画像を構成する画素が有する値である。画素値は、例えば、画素の輝度、色、明度、色相もしくは彩度、またはそれらの組合せを示す値である。
本実施の形態では、セグメンテーション部11は、色の類似性に基づいて、第1画像を複数のセグメントに分割する。例えば、セグメンテーション部11は、色および画素位置を用いて定義された類似性に基づくクラスタリングにより、第1画像を複数のセグメントに分割する。
指示部12は、第1画像における被写体の位置を指示する。例えば、指示部12は、第1画像における被写体の位置を指示するためのユーザからの入力を入力装置(タッチパネルなど)を介して受け付ける。そして、指示部12は、受け付けた入力に基づいて、被写体の位置を指示する。また例えば、指示部12は、第1画像内の予め定められた位置(例えば中心位置など)を被写体の位置として指示してもよい。以下において、指示部12によって指示された位置を指示位置と呼ぶ。
領域設定部13は、指示セグメントを含むセグメント集合を対象領域と設定する。指示セグメントとは、指示部12によって指示された位置に存在するセグメントである。また、セグメント集合とは、少なくとも1つのセグメントを含む集合である。本実施の形態では、領域設定部13は、指示セグメントと、当該指示セグメントに対する画像の類似性を示す値が閾値より大きい類似セグメントとを含むセグメント集合であって1つの連続した領域を形成するセグメント集合を対象領域と設定する。
なお、領域設定部13は、必ずしも指示セグメントと類似セグメントとを含むセグメント集合を対象領域と設定する必要はない。例えば、領域設定部13は、指示セグメントのみを含むセグメント集合を対象領域と設定しても構わない。
抽出部14は、設定された対象領域から特徴量を抽出する。特徴量とは、対象領域の画像の特徴を定量的に示す値である。本実施の形態では、抽出部14は、対象領域の色ヒストグラムを特徴量として抽出する。色ヒストグラムとは、予め定められた複数の色の種類の各々に対応する度数を表す。複数の色の種類は、例えば、HSV色空間におけるH(色相)成分値の範囲を用いて予め定められる。
なお、複数の色の種類は、必ずしもHSV色空間におけるH成分値の範囲を用いて定められる必要はない。例えば、複数の色の種類は、H成分値と、V(明度)成分値およびS(彩度)成分値の少なくとも一方とから得られる値の範囲を用いて定められてもよい。また、複数の色の種類は、HSV色空間における成分値ではなく、他の色空間(例えば、RGB色空間、YUV色空間、Lab色空間など)における成分値を用いて定められてもよい。
追尾部15は、抽出された特徴量を用いて、対象領域に類似する領域を第2画像内で探索することにより、被写体を追尾する。つまり、追尾部15は、対象領域から抽出された特徴量と最も類似する特徴量が抽出される第2画像内の領域を探索することにより、被写体を追尾する。
本実施の形態では、特徴量として色ヒストグラムが用いられる。つまり、追尾部15は、対象領域から抽出された色ヒストグラムと最も類似する色ヒストグラムが抽出される領域を第2画像内で探索する。ここで、2つの色ヒストグラムの類似度合いは、2つの色ヒストグラムの重なり度合いで表される。2つの色ヒストグラムの重なり度合いとは、2つの色ヒストグラムの各色の種類において重複している度数の大きさを示す。
なお、2つの色ヒストグラムは、度数の和が互いに等しくなるように、それぞれ正規化された色ヒストグラムであることが好ましい。これにより、追尾部15は、各色の種類における2つ度数のうち小さい方の度数をすべての色の種類について加算することにより、2つの色ヒストグラムの類似度合いを示す値を容易に算出することができる。
次に、以上のように構成された画像処理装置10の処理動作を説明する。
図2は、実施の形態に係る画像処理装置10の処理動作を示すフローチャートである。
まず、セグメンテーション部11は、画素値の類似性に基づいて、第1画像を複数のセグメントに分割する(S101)。指示部12は、第1画像における被写体の位置を指示する(S102)。
領域設定部13は、指示位置に存在するセグメントを少なくとも含む領域を対象領域として設定する(S103)。抽出部14は、対象領域から特徴量を抽出する(S104)。追尾部15は、抽出された特徴量を用いて、対象領域に類似する領域を第2画像内で探索することにより、被写体を追尾する(S105)。
このように画像処理装置10は、第1画像に含まれる被写体を当該第1画像よりも後に撮影された第2画像内において追尾することができる。
なお、画像処理装置10は、必ずしも図2に示すステップの順番で処理を行う必要はない。例えば、画像処理装置10は、ステップS102の後にステップS101を実行しても構わない。また例えば、画像処理装置10は、ステップS101とステップS102とを並行で実行してもよい。
以下に、このような画像処理装置10の処理動作の詳細について図面を参照しながら説明する。まず、セグメンテーション処理(S101)の詳細について図3〜図6を用いて説明する。なお、ここでは、セグメンテーションの一例として、k平均法(k−means clustering)に基づくセグメンテーションについて説明する。
図3は、実施の形態に係るセグメンテーション部11の処理動作の詳細を示すフローチャートである。図4は、実施の形態に係るセグメンテーション部11の処理動作の一例を説明するための図である。図5は、実施の形態に係るセグメンテーション部11の処理動作の一例を説明するための図である。図6は、実施の形態に係るセグメンテーション結果の一例を示す図である。
図3に示すように、セグメンテーション部11は、まず、第1画像および第2画像の色空間を変換する(S201)。具体的には、セグメンテーション部11は、第1画像および第2画像を、RGB色空間からLab色空間に変換する。
このLab色空間は、知覚的に均等な色空間である。つまり、Lab色空間では、色の値が同じだけ変化したとき、人間がそれを見たときに感じられる変化も等しい。したがって、セグメンテーション部11は、Lab色空間において第1画像のセグメンテーションを行うことにより、人間が知覚する被写体の境界に沿って第1画像を分割することが可能となる。
次に、セグメンテーション部11は、k個(k:2以上の整数)の初期クラスタの重心を設定する(S202)。これらのk個の初期クラスタの重心は、例えば、第1画像上において均等に配置されるように設定される。ここでは、隣り合う重心間の間隔がS(画素)となるように、k個の初期クラスタの重心が設定される。
続いて、第1画像内の各画素に対してステップS203、S204の処理が行われる。具体的には、セグメンテーション部11は、各クラスタの重心に対する距離Dsを算出する(S203)。この距離Dsは、画素値および画素位置を用いて定義された類似性を示す値に相当する。ここでは、距離Dsが小さいほど、クラスタの重心に対する画素の類似性が高いことを示す。
なお、図4に示すように、セグメンテーション部11は、距離算出対象範囲内に位置する重心Ckに対してのみ対象画素iの距離Dsを算出する。ここでは、水平方向および垂直方向において、対象画素iの位置から初期クラスタの重心間隔S以下となる位置を距離算出対象範囲と設定する。つまり、セグメンテーション部11は、対象画素iについては、重心C2、C3、C6、C7の各々に対する距離を算出する。このように、距離算出対象範囲が設定されることにより、すべての重心に対して距離を算出する場合よりも、計算負荷を軽減することが可能となる。
重心Ck(画素位置(xk,yk)、画素値(lk,ak,bk))に対する対象画素i(画素位置(xi,yi)、画素値(li,ai,bi))の距離Dsは、以下の式1によって算出される。
ここで、mは、画素値に基づく距離dlabと、画素位置に基づく距離dxyとが距離Dsに及ぼす影響のバランスを図るための係数である。この係数mは、実験的あるは経験的に予め定められればよい。
次に、セグメンテーション部11は、このように対象画素iの各重心に対する距離Dsを用いて、対象画素iが所属するクラスタを決定する(S204)。具体的には、セグメンテーション部11は、距離Dsが最も小さい重心を有するクラスタを対象画素iの所属クラスタと決定する。
このようなステップS203、S204の処理を第1画像に含まれる画素ごとに繰り返すことにより、各画素の所属クラスタが決定される。
次に、セグメンテーション部11は、各クラスタの重心を更新する(S205)。例えば、ステップS204において各画素の所属クラスタが決定された結果、図5に示すように、矩形状のクラスタが六角形状のクラスタに変化した場合に重心C6の画素値および画素位置を更新する。
具体的には、セグメンテーション部11は、以下の式2に従って、新たな重心の画素値(lk_new,ak_new、bk_new)および画素位置(xk_new,yk_new)を算出する。
ここで、各クラスタの重心が収束している場合(S206のYes)、セグメンテーション部11は、処理を終了する。つまり、ステップS205の更新前後において各クラスタの重心に変化がない場合に、セグメンテーション部11は、セグメンテーションを終了する。一方、各クラスタの重心が収束していない場合(S206のNo)、セグメンテーション部11は、ステップS203〜S205の処理を繰り返す。
このように、セグメンテーション部11は、画素値および画素位置を用いて定義された類似度に基づくクラスタリング(ここではk平均法)により、第1画像を複数のセグメントに分割することができる。したがって、図6に示すように、セグメンテーション部11は、第1画像に含まれる被写体領域の特徴に応じて、第1画像を複数のセグメントに分割することができる。
つまり、セグメンテーション部11は、1つのセグメントに同一の被写体が含まれるように第1画像を複数のセグメントに分割することが可能となる。その結果、各セグメント内の画素の視差値が類似するので、セグメントごとに特定される視差値の正確度を向上させることができる。つまり、デプスデータはより正確に生成されうる。さらに、k平均法は、比較的簡易なクラスタリングであるので、デプスデータを生成するための処理負荷を軽減することも可能となる。
次に、指示処理(S102)の詳細について図7を用いて説明する。
図7は、実施の形態に係る指示部12の処理動作の一例を説明するための図である。図7では、指示部12は、ユーザがタッチしたタッチパネル上の位置を、被写体の位置として指示する。タッチパネルは、例えば抵抗膜方式あるいは静電容量方式などにより、ユーザがタッチした位置を検出する。
このように、指示部12が、ユーザがタッチしたタッチパネル上の位置を、被写体の位置として指示することにより、ユーザは、タッチパネルをタッチするだけで容易に被写体の位置を指示することができる。
なお、タッチした位置とは、ユーザが接触した位置だけではなく、ユーザが接触した位置によって描かれる軌跡によって囲まれた領域を表す位置であってもよい。
また、指示部12は、必ずしもタッチパネルを介してユーザが入力した位置を取得する必要はない。例えば、指示部12は、ユーザが操作ボタンなどを介して入力したディスプレイ上の位置を被写体の位置として指示しても構わない。
次に、対象領域の設定処理(S103)の詳細について図8および図9を用いて説明する。
図8は、実施の形態に係る領域設定部13の処理動作の詳細を示すフローチャートである。図9は、実施の形態に係る領域設定部13の処理動作の一例を説明するための図である。
図8に示すように、まず、領域設定部13は、指示セグメントを選択する(S301)。続いて、領域設定部13は、指示セグメントと、ステップS301またはステップS304で選択されたセグメント(以下、「選択セグメント」という)に隣接するセグメント(以下、「隣接セグメント」という)との画像の類似性を示す値(以下、「類似値」という)を算出する(S302)。具体的には、領域設定部13は、例えば、指示セグメントの色ヒストグラムと隣接セグメントの色ヒストグラムとの重なり度合いを示す値を類似値として算出する。
類似値が閾値より大きい場合(S303のYes)、領域設定部13は、隣接セグメントを類似セグメントとして選択し(S304)、再び、ステップS302の処理に戻る。一方、類似値が閾値より小さい場合(S303のNo)、領域設定部13は、選択セグメントを含む領域を対象領域と設定する(S305)。つまり、領域設定部13は、ステップS301およびステップS304で選択されたセグメントを対象領域と設定する。
以上のような処理を行うことで、領域設定部13は、指示セグメントと、指示セグメントに対する画像の類似性を示す値が閾値より大きい類似セグメントとを含むセグメント集合を対象領域と設定することができる。例えば、図9の(a)に示すように被写体の位置が指示された場合、領域設定部13は、図9の(b)に示すように、指示セグメントと類似セグメントとを含む領域を対象領域と設定することができる。
なお、隣接セグメントが複数ある場合には、領域設定部13は、隣接セグメントごとに、ステップS302〜ステップS304の処理を実行すればよい。
また、類似値は、必ずしも色ヒストグラムの重なり度合いを示す値である必要はない。例えば、類似値は、2つのセグメント間の平均色の差分を示す値であってもよい。また、類似値は、色ではなく、輝度、明度あるいは彩度の類似性を示す値であってもよい。
また、類似値は、画像の類似性に加えて、位置の類似性も示す値であってもよい。この場合、指示セグメントからの距離が大きいセグメントほど類似値が小さくなる。
次に、追尾処理(S105)の詳細について図10を用いて説明する。図10は、実施の形態に係る追尾部15の処理動作の一例を説明するための図である。
ここでは、追尾部15は、対象領域を囲む予め定められた形状の枠を第2画像内で走査する。例えば、追尾部15は、図10の(a)および(b)に示すように、対象領域に外接する矩形の枠を第2画像内で走査する。
このとき、追尾部15は、走査された第2画像内の各位置において、枠内の領域のうち対象領域に対応する領域のみから特徴量を抽出する。例えば、追尾部15は、図10の(b)に示すように、枠内の領域のうち空白領域を除く領域のみから特徴量を抽出する。
追尾部15は、このように第2画像内の各位置において抽出された特徴量と、対象領域から抽出された特徴量とを比較することにより、対象領域に類似する領域を第2画像内で探索する。
以上のように、本実施の形態に係る画像処理装置によれば、画素値の類似性に基づいて第1画像を分割することにより得られる複数のセグメントを利用して、対象領域が設定される。したがって、複雑な幾何形状を有する被写体であっても、その複雑な幾何形状に適した形状の対象領域を設定することが可能となる。その結果、予め定められた形状の対象領域から特徴量を抽出する場合よりも、適切に被写体の特徴量を抽出することができるので、被写体を正確に追尾することが可能となる。
また、本実施の形態に係る画像処理装置によれば、色の類似性に基づいて第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントに分割することが可能となる。その結果、被写体の境界がセグメント内に含まれる可能性を低減することができるので、被写体の形状により適した形状の対象領域を設定することが可能となる。
また、本実施の形態に係る画像処理装置によれば、色および画素位置を用いて定義された類似性に基づくクラスタリングにより、第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントに高精度に分割することが可能となる。
また、本実施の形態に係る画像処理装置によれば、k平均法により第1画像を複数のセグメントに分割することができる。したがって、1つのセグメントに互いに異なる複数の被写体が含まれないように、第1画像を複数のセグメントにさらに高精度に分割することが可能となる。さらに、比較的簡易な処理によりセグメンテーションが可能となるので、被写体を追尾するための処理負荷を軽減することも可能となる。
また、本実施の形態に係る画像処理装置によれば、指示セグメントと類似セグメントとを含むセグメント集合を対象領域と設定することができる。したがって、1つの被写体の領域が複数のセグメントにまたがっている場合であっても、被写体の形状に適した形状の対象領域を設定することが可能となる。
また、本実施の形態に係る画像処理装置によれば、対象領域を囲む予め定められた形状の枠を走査することにより、対象領域に類似する領域を探索することが可能となる。このとき、第2画像において、枠内の領域のうち対象領域に対応する領域のみから特徴量を抽出するので、特徴量の類似性だけではなく、形状の類似性も考慮して、対象領域に類似する領域を探索することができる。したがって、より正確に被写体を追尾することが可能となる。
(変形例)
次に、上記実施の形態の変形例について説明する。本変形例では、本変形例では、抽出部14および追尾部15の処理動作が上記実施の形態と異なる。図11は、実施の形態の変形例に係る追尾部15の処理動作の一例を説明するための図である。
次に、上記実施の形態の変形例について説明する。本変形例では、本変形例では、抽出部14および追尾部15の処理動作が上記実施の形態と異なる。図11は、実施の形態の変形例に係る追尾部15の処理動作の一例を説明するための図である。
本変形例に係る抽出部14は、対象領域に含まれるセグメントごとに特徴量を抽出する。
本変形例に係る追尾部15は、対象領域に含まれるセグメントごとに、当該セグメントから抽出された特徴量を用いて当該セグメントに類似する領域を第2画像内で探索することにより、対象領域と類似する領域を探索する。
このとき、追尾部15は、当該セグメントから抽出された特徴量に加えて、対象領域の重心に対する当該セグメントの位置関係も用いて、当該セグメントと類似する領域を第2画像内で探索する。具体的には、追尾部15は、対象領域の重心に対するセグメントの位置関係の類似性と、特徴量の類似性との両方に基づいて、セグメントに類似する領域を第2画像内で探索する。
例えば、追尾部15は、図11に示すように、重心とセグメントとを結ぶベクトルを利用して、当該セグメントと類似する領域を第2画像内で探索する。具体的には、追尾部15は、対象領域内の各セグメントに類似する領域を第2画像内で探索する場合に、対象領域の重心と当該セグメントとの代表点とを結ぶベクトルと、第2画像内の対象領域の重心に対応する位置と探索の対象となる領域の代表点とを結ぶベクトルとの類似性を示す値を算出する。さらに、追尾部15は、当該セグメントから抽出される特徴量と、探索の対象となる領域から抽出される特徴量との類似性を示す値を算出する。追尾部15は、このように算出された2つの類似性を示す値を用いて、探索の対象となる領域が当該セグメントに類似しているか否かを判定する。
以上のように、本変形例に係る画像処理装置によれば、セグメントごとに、特徴量を用いて当該セグメントに類似する領域を探索することができる。したがって、被写体の形状が大きく変化した場合であっても被写体を追尾することが可能となる。
また、本変形例に係る画像処理装置によれば、セグメント間の位置関係を用いて、セグメントに類似する領域を探索することができるので、より正確に被写体を追尾することが可能となる。
以上、1つまたは複数の態様に係る画像処理装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものも、1つまたは複数の範囲内に含まれる。
例えば、上記実施の形態において、セグメンテーション部11は、k平均法に基づいてセグメンテーションを行なっていたが、他のクラスタリング手法に基づいてセグメンテーションを行なってもよい。例えば、セグメンテーション部11は、平均変位法(mean−shift clustering)に基づいてセグメンテーションを行なってもよい。
また、上記実施の形態において、追尾部15は、第2画像内の全領域において対象領域に類似する領域の探索を行なっていたが、必ずしも全領域において探索を行う必要はない。例えば、追尾部15は、第2画像内の対象領域に対応する位置の近傍領域内において、対象領域に類似する領域の探索を行なってもよい。これにより、探索領域を小さくすることができるので、処理負荷を軽減することが可能となる。
また、上記実施の形態における画像処理装置10が備える構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、画像処理装置10は、セグメンテーション部11と、指示部12と、領域設定部13と、抽出部14と、追尾部15とを有するシステムLSIから構成されてもよい。
システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
また、このような画像処理装置は、撮像装置に備えられてもよい。図10は、一実施形態に係る撮像装置30の機能構成を示すブロック図である。撮像装置30は、例えば、デジタルスチルカメラまたはデジタルビデオカメラである。図10に示すように、撮像装置30は、互いに異なる視点から第1画像および第2画像を撮影する撮像部31と、上記実施の形態に係る画像処理装置10とを備える。
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の画像復号化装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において追尾する画像処理方法であって、画素値の類似性に基づいて、前記第1画像を複数のセグメントに分割するセグメンテーションステップと、前記第1画像における被写体の位置を指示する指示ステップと、指示された前記位置に存在するセグメントである指示セグメントを含むセグメント集合を対象領域と設定する領域設定ステップと、設定された前記対象領域から特徴量を抽出する抽出ステップと、抽出された前記特徴量を用いて、前記対象領域に類似する領域を前記第2画像内で探索することにより、前記被写体を追尾する追尾ステップとを含む画像処理方法を実行させる。
本発明は、第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において正確に追尾することができる画像処理装置、およびその画像処理装置を備える、デジタルスチルカメラまたはデジタルビデオカメラなどの撮像装置として利用可能である。
10 画像処理装置
11 セグメンテーション部
12 指示部
13 領域設定部
14 抽出部
15 追尾部
30 撮像装置
31 撮像部
11 セグメンテーション部
12 指示部
13 領域設定部
14 抽出部
15 追尾部
30 撮像装置
31 撮像部
Claims (11)
- 第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において追尾する画像処理装置であって、
画素値の類似性に基づいて、前記第1画像を複数のセグメントに分割するセグメンテーション部と、
前記第1画像における被写体の位置を指示する指示部と、
指示された前記位置に存在するセグメントである指示セグメントを含むセグメント集合を対象領域と設定する領域設定部と、
設定された前記対象領域から特徴量を抽出する抽出部と、
抽出された前記特徴量を用いて、前記対象領域に類似する領域を前記第2画像内で探索することにより、前記被写体を追尾する追尾部とを備え、
前記領域設定部は、前記指示セグメントと、前記指示セグメントに対する画像の類似性を示す値が閾値より大きい類似セグメントとを含むセグメント集合であって1つの連続した領域を形成するセグメント集合を前記対象領域と設定する
画像処理装置。 - 前記セグメンテーション部は、色の類似性に基づいて、前記第1画像を複数のセグメントに分割する
請求項1に記載の画像処理装置。 - 前記セグメンテーション部は、色および画素位置を用いて定義された類似性に基づくクラスタリングにより、前記第1画像を複数のセグメントに分割する
請求項2に記載の画像処理装置。 - 前記クラスタリングは、k平均法(k−means clustering)である
請求項3に記載の画像処理装置。 - 前記追尾部は、
前記対象領域を囲む予め定められた形状の枠を前記第2画像内で走査することにより、走査された前記第2画像内の各位置において、前記枠内の領域のうち前記対象領域に対応する領域のみから特徴量を抽出し、
各位置において抽出された特徴量と、前記対象領域から抽出された特徴量とを比較することにより、前記対象領域に類似する領域を探索する
請求項1〜4のいずれか1項に記載の画像処理装置。 - 前記抽出部は、前記対象領域に含まれるセグメントごとに特徴量を抽出し、
前記追尾部は、前記対象領域に含まれるセグメントごとに、当該セグメントから抽出された特徴量を用いて当該セグメントと類似する領域を前記第2画像内で探索することにより、前記対象領域と類似する領域を探索する
請求項1〜4のいずれか1項に記載の画像処理装置。 - 前記追尾部は、当該セグメントから抽出された特徴量に加えて、当該セグメントと、対象領域の重心に最も近いセグメントとの位置関係を用いて、当該セグメントと類似する領域を第2画像内で探索する
請求項6に記載の画像処理装置。 - 前記画像処理装置は、集積回路として構成されている
請求項1〜7のいずれか1項に記載の画像処理装置。 - 請求項1〜8のいずれか1項に記載の画像処理装置と、
前記第1画像および前記第2画像を撮影する撮像部とを備える
撮像装置。 - 第1画像に含まれる被写体を前記第1画像よりも後に撮影された第2画像内において追尾する画像処理方法であって、
画素値の類似性に基づいて、前記第1画像を複数のセグメントに分割するセグメンテーションステップと、
前記第1画像における被写体の位置を指示する指示ステップと、
指示された前記位置に存在するセグメントである指示セグメントを含むセグメント集合を対象領域と設定する領域設定ステップと、
設定された前記対象領域から特徴量を抽出する抽出ステップと、
抽出された前記特徴量を用いて、前記対象領域に類似する領域を前記第2画像内で探索することにより、前記被写体を追尾する追尾ステップとを含み、
前記領域設定ステップでは、前記指示セグメントと、前記指示セグメントに対する画像の類似性を示す値が閾値より大きい類似セグメントとを含むセグメント集合であって1つの連続した領域を形成するセグメント集合を前記対象領域と設定する
画像処理方法。 - 請求項10に記載の画像処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013518622A JP5878924B2 (ja) | 2011-11-17 | 2012-11-13 | 画像処理装置、撮像装置および画像処理方法 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011251943 | 2011-11-17 | ||
JP2011251943 | 2011-11-17 | ||
JP2013518622A JP5878924B2 (ja) | 2011-11-17 | 2012-11-13 | 画像処理装置、撮像装置および画像処理方法 |
PCT/JP2012/007271 WO2013073168A1 (ja) | 2011-11-17 | 2012-11-13 | 画像処理装置、撮像装置および画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2013073168A1 JPWO2013073168A1 (ja) | 2015-04-02 |
JP5878924B2 true JP5878924B2 (ja) | 2016-03-08 |
Family
ID=48429264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013518622A Expired - Fee Related JP5878924B2 (ja) | 2011-11-17 | 2012-11-13 | 画像処理装置、撮像装置および画像処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9171222B2 (ja) |
EP (1) | EP2782330A4 (ja) |
JP (1) | JP5878924B2 (ja) |
CN (1) | CN103299613B (ja) |
WO (1) | WO2013073168A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9386908B2 (en) * | 2013-01-29 | 2016-07-12 | Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) | Navigation using a pre-acquired image |
JP5834253B2 (ja) | 2013-03-27 | 2015-12-16 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP5849206B2 (ja) | 2013-03-27 | 2016-01-27 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP5899475B2 (ja) | 2013-04-05 | 2016-04-06 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP6463101B2 (ja) * | 2014-12-01 | 2019-01-30 | キヤノン株式会社 | 領域分割装置及び方法 |
CN106033601B (zh) * | 2015-03-09 | 2019-01-18 | 株式会社理光 | 检测异常情形的方法和装置 |
US10810539B1 (en) * | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
CN106303195A (zh) * | 2015-05-28 | 2017-01-04 | 中兴通讯股份有限公司 | 拍摄设备及跟踪拍摄方法和系统 |
GB2549940A (en) * | 2016-04-29 | 2017-11-08 | Kudan Ltd | Discovering points of interest and identifying reference images in video processing and efficient search and storage therefor |
US10089721B2 (en) * | 2016-09-08 | 2018-10-02 | Sony Corporation | Image processing system and method for object boundary smoothening for image segmentation |
CN107872614A (zh) * | 2016-09-27 | 2018-04-03 | 中兴通讯股份有限公司 | 一种拍摄方法及拍摄装置 |
JP7018001B2 (ja) * | 2018-09-20 | 2022-02-09 | 株式会社日立製作所 | 情報処理システム、情報処理システムを制御する方法及びプログラム |
TWI739203B (zh) * | 2019-11-08 | 2021-09-11 | 大猩猩科技股份有限公司 | 一種評估影像有效分析區域之方法與系統 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08167028A (ja) * | 1994-12-13 | 1996-06-25 | Toppan Printing Co Ltd | 画像処理方法 |
US6400831B2 (en) * | 1998-04-02 | 2002-06-04 | Microsoft Corporation | Semantic video object segmentation and tracking |
US6917692B1 (en) * | 1999-05-25 | 2005-07-12 | Thomson Licensing S.A. | Kalman tracking of color objects |
US6774908B2 (en) * | 2000-10-03 | 2004-08-10 | Creative Frontier Inc. | System and method for tracking an object in a video and linking information thereto |
US20050228849A1 (en) * | 2004-03-24 | 2005-10-13 | Tong Zhang | Intelligent key-frame extraction from a video |
CN101180523A (zh) * | 2005-05-05 | 2008-05-14 | 纳幕尔杜邦公司 | 用于匹配修补漆的颜色集技术 |
US7925112B2 (en) * | 2007-02-28 | 2011-04-12 | Honeywell International Inc. | Video data matching using clustering on covariance appearance |
US7898576B2 (en) * | 2007-02-28 | 2011-03-01 | Honeywell International Inc. | Method and system for indexing and searching objects of interest across a plurality of video streams |
JP4872834B2 (ja) * | 2007-07-04 | 2012-02-08 | 株式会社ニコン | 画像認識装置、焦点調節装置および撮像装置 |
US8331667B2 (en) * | 2007-09-28 | 2012-12-11 | Samsung Electronics Co., Ltd. | Image forming system, apparatus and method of discriminative color features extraction thereof |
JP2009141475A (ja) | 2007-12-04 | 2009-06-25 | Nikon Corp | カメラ |
JP5151472B2 (ja) | 2007-12-27 | 2013-02-27 | 株式会社豊田中央研究所 | 距離画像生成装置、環境認識装置、及びプログラム |
CN101939980B (zh) * | 2008-02-06 | 2012-08-08 | 松下电器产业株式会社 | 电子摄像机和图像处理方法 |
WO2009125596A1 (ja) | 2008-04-11 | 2009-10-15 | パナソニック株式会社 | 画像処理装置、方法、および記憶媒体 |
JP4926116B2 (ja) * | 2008-04-16 | 2012-05-09 | 株式会社日立ハイテクノロジーズ | 画像検査装置 |
JP5120238B2 (ja) * | 2008-08-15 | 2013-01-16 | 富士ゼロックス株式会社 | オブジェクト領域抽出装置及びオブジェクト領域抽出プログラム |
US8406515B2 (en) * | 2009-06-24 | 2013-03-26 | Hewlett-Packard Development Company, L.P. | Method for automatically cropping digital images |
JP5395650B2 (ja) * | 2009-12-24 | 2014-01-22 | キヤノン株式会社 | 被写体領域抽出装置およびその制御方法、被写体追跡装置、並びにプログラム |
US8509482B2 (en) * | 2009-12-21 | 2013-08-13 | Canon Kabushiki Kaisha | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor |
JP5849206B2 (ja) * | 2013-03-27 | 2016-01-27 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
-
2012
- 2012-11-13 EP EP12849347.5A patent/EP2782330A4/en not_active Withdrawn
- 2012-11-13 CN CN201280005118.2A patent/CN103299613B/zh not_active Expired - Fee Related
- 2012-11-13 WO PCT/JP2012/007271 patent/WO2013073168A1/ja active Application Filing
- 2012-11-13 JP JP2013518622A patent/JP5878924B2/ja not_active Expired - Fee Related
- 2012-11-13 US US13/979,175 patent/US9171222B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN103299613B (zh) | 2017-08-15 |
EP2782330A4 (en) | 2015-03-11 |
US20130287259A1 (en) | 2013-10-31 |
EP2782330A1 (en) | 2014-09-24 |
JPWO2013073168A1 (ja) | 2015-04-02 |
CN103299613A (zh) | 2013-09-11 |
US9171222B2 (en) | 2015-10-27 |
WO2013073168A1 (ja) | 2013-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5878924B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
JP6043293B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
US9363499B2 (en) | Method, electronic device and medium for adjusting depth values | |
JP5923713B2 (ja) | 画像処理装置、撮像装置および画像処理方法 | |
CA2557122C (en) | A system and method for toboggan based object segmentation using divergent gradient field response in images | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
US10824895B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6339872B2 (ja) | 画像処理装置、内視鏡システム及び画像処理方法 | |
US10748023B2 (en) | Region-of-interest detection apparatus, region-of-interest detection method, and recording medium | |
JP5830295B2 (ja) | 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム | |
JPWO2009125596A1 (ja) | 画像処理装置、方法、および記憶媒体 | |
EP3093822B1 (en) | Displaying a target object imaged in a moving picture | |
US20130322720A1 (en) | Apparatus and method for parsing human body image | |
US20230334235A1 (en) | Detecting occlusion of digital ink | |
EP2639743A2 (en) | Image processing device, image processing program, and image processing method | |
JP2021108193A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5656768B2 (ja) | 画像特徴量抽出装置およびそのプログラム | |
JP5310485B2 (ja) | 画像処理方法及び装置並びにプログラム | |
JP2011170554A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP2013120504A (ja) | オブジェクト抽出装置、オブジェクト抽出方法、及びプログラム | |
Kiran et al. | A Robust Oversegmentation Algorithm using Colour and Geometric Cues | |
JP2016181182A (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5878924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |