JP3638845B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP3638845B2 JP3638845B2 JP36814899A JP36814899A JP3638845B2 JP 3638845 B2 JP3638845 B2 JP 3638845B2 JP 36814899 A JP36814899 A JP 36814899A JP 36814899 A JP36814899 A JP 36814899A JP 3638845 B2 JP3638845 B2 JP 3638845B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- extracting
- original image
- differentiation
- shadow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像処理装置及び方法並びに記録媒体に関し、特に原画像から空間微分値を用いて物体の輪郭を抽出する処理に関する。
【0002】
【従来の技術】
従来より、画像から物体、具体的には物体の輪郭(エッジ)を抽出するための種々の方法が提案されている。例えば、原画像の輝度の空間微分より勾配を求め、非極大値抑制(局所的に極大となる点以外を削除する)によりエッジを抽出する方法、物体の濃淡パターンを想定したテンプレートを予め用意し、原画像との相関演算を行ってエッジを抽出する(テンプレートマッチング)方法、原画像の輝度の空間微分の2階微分値が0となる点を抽出する方法、等である。
【0003】
【発明が解決しようとする課題】
しかしながら、テンプレートマッチング法では、予め抽出すべき物体の濃淡パターンが既知であることが前提となり、テンプレート以外の物体のエッジを抽出することができない、あるいはエッジ抽出精度がテンプレートの精度に大きく影響される問題がある。
【0004】
また、原画像の空間微分からエッジを抽出する方法では、輝度レベルが急峻に変化するエッジ、いわゆるステップエッジは精度良く抽出できるものの、輝度レベルが穏やかに変化する陰影領域の境界はエッジとして抽出することができない問題があった。物体、特に自由曲面からなる物体の場合には、ステップエッジのみならず陰影領域が存在する場合がほとんどであり、この陰影領域の境界を抽出できないと物体の全体形状が明らかとならず、その物体の種類を特定することも困難となる。
【0005】
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、物体のエッジ、特に陰影領域の境界を確実に抽出することができる装置及び方法並びに記録媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明は、画像内の物体を抽出する画像処理装置であって、原画像の輝度を2階空間微分する微分手段と、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、前記ステップエッジと前記陰影領域の境界を統合する統合手段とを有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出手段で抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする。
【0008】
また、本発明は、画像内の物体を抽出する画像処理装置であって、原画像の輝度を2階空間微分する微分手段と、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、前記ステップエッジと前記陰影領域の境界を統合する統合手段とを有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、前記エッジ抽出手段は、前記陰影領域抽出手段で抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする。
【0013】
また、本発明は、画像内の物体を抽出する画像処理方法であって、原画像の輝度を2階空間微分する微分ステップと、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、前記ステップエッジと前記陰影領域の境界を統合する統合ステップとを有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出ステップで抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする。
【0014】
また、本発明は、画像内の物体を抽出する画像処理方法であって、原画像の輝度を2階空間微分する微分ステップと、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、前記ステップエッジと前記陰影領域の境界を統合する統合ステップとを有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、前記エッジ抽出ステップでは、前記陰影領域抽出ステップで抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする。
【0019】
【発明の実施の形態】
以下、図面に基づき本発明の実施形態について説明する。
【0020】
図1には、本実施形態にかかる画像処理装置の全体構成ブロック図が示されている。イメージセンサ10は画像を取得するもので、例えばCCDカメラで構成することができる。イメージセンサ10で取得した画像データはA/D変換器12でデジタル化され、フレームメモリ14に記憶される。フレームメモリ14に記憶されたデジタル画像データ、すなわち原画像データはメインメモリ16に記憶され、適宜CPU18に読み出されて後述の処理が行われ、ステップエッジや陰影領域が抽出される。抽出されたステップエッジデータや陰影領域データはメインメモリ16に記憶され、表示制御部20に供給されてCRTや液晶などのディスプレイに表示される。A/D12、フレームメモリ14、メインメモリ16、CPU18及び表示制御部20はコンピュータで構成することができる。
【0021】
図2には、図1におけるCPU18の全体処理フローチャートが示されている。CPU18は、メインメモリ16に記憶された原画像データを読み出し、まず勾配を算出する(S101)。次に、しきい値処理を行い、エッジ点の候補を求め、非極大値抑制処理により局所的に極大点となる点のみを残す。さらに、細線化処理により1画素幅のエッジを抽出する(S102)。なお、必要に応じて、求めたエッジ点を延長し、境界を求める処理を施すことも好適である。
【0022】
図3には、輝度が急峻に変化するステップエッジ部分(a)及び輝度が穏やかに変化する陰影部分(b)における空間微分により算出された勾配が模式的に示されている。ステップエッジ部分では、ピーク値が明瞭に現れるため、しきい値処理によりピーク値を抽出することができるが、陰影領域ではピーク値は出現しないため、しきい値を用いてその境界を抽出することが困難である。
【0023】
そこで、CPU18は、S101及びS102でステップエッジを抽出した後、原画像から陰影領域の境界を抽出するか否かを判定する(S103)。この判定は、物体によってはステップエッジのみで十分全体のエッジを抽出でき、陰影領域の境界を抽出する必要性が低い場合もあり得ることに鑑みたものである。具体的には、抽出されたステップエッジが閉じていて欠落部分が存在しないと思われる場合には、陰影領域の抽出処理は不要と考えられる。
【0024】
陰影領域抽出が必要と判定した場合、CPU18はS101で算出した勾配データを用い、勾配の方向が略等しい画素を抽出し、それらの画素をグループ化する(S104)。陰影領域は、物体に一方向から光を照射したときに影の部分にできる輝度の変化であるから、その勾配は一定の方向になる。逆に言えば、勾配が一定の方向にある画素群を抽出することで、陰影領域を抽出することができる。具体的には、隣接する画素の勾配の方向の差が所定値(例えば±5度)以内の画素群を勾配の方向が略同一の画素群とグループ化することができる。グループ化は、例えば略同一の勾配方向を有する画素群に対して同一フラグを設定すればよい。
【0025】
陰影領域を抽出した後、S101及びS102で抽出したステップエッジとS103で抽出した陰影領域とを統合させ、物体の完全な全体エッジを抽出する(S105)。統合の方法としては、ステップエッジと陰影領域のエッジを単純加算する、ステップエッジと陰影領域のエッジを重み付け加算する等がある。重み付け加算する場合、ステップエッジと陰影領域のエッジが相互に重複する部分においてステップエッジの算出精度と陰影領域の算出精度とを考慮し、精度の高い方に大きな重みを付けることが好適である。なお、陰影領域のエッジは、例えば同一フラグが付された画素群の境界画素を選択することで抽出できる。ステップエッジと陰影領域のエッジを統合して得られた物体の全体エッジは表示制御部20に供給され、ディスプレイに表示される。統合して得られる全体エッジから物体の種類を特定し、その物体の種類をディスプレイに表示することも好適である。このためには、予め全体エッジと物体の種類との関係を記憶するデータベースを備えておけばよい。
【0026】
図4には、以上述べた処理が模式的に示されている。(a)は原画像であり、立体物体100及び平面状物体102が存在するとする。(b)は原画像を空間微分して勾配を算出し、しきい値処理をしてステップエッジを抽出した図である。平面状物体102については、ステップエッジ102aは閉じたものとなり、ステップエッジ102aを抽出することで物体の全体形状を得ることができるが、立体物体100の場合は一部分のみがステップエッジ100aとして抽出され、図中右下の部分は輝度が穏やかに変化する陰影領域であるためエッジが欠落してしまう。そこで、立体物体100の全体エッジを抽出するために、立体物体100の陰影領域を抽出する。(c)は原画像の勾配方向を矢印で模式的に示したものであり、略同一方向を有する勾配、すなわち隣接する画素で勾配方向の差分が所定値以下の画素群が図中符号103で示されている。
【0027】
なお、勾配の方向が略同一か否かを判定する際に、原画像のすべての画素について判定を行うのではなく、陰影領域と考えられる領域のみに限定して判定することも好適である。具体的には、抽出した物体のステップエッジが欠落している部分を陰影領域とみなし、この欠落部分近傍に処理ウィンドウを設定して、そのウィンドウ内に存在する画素が略同一の勾配方向を有するか否かを判定する。(b)において、ウィンドウ104がエッジの欠落した部分に設定された処理ウィンドウを示している。ウィンドウを設定することで処理を効率化し、グループ化に要する時間を短縮することができる。
【0028】
(d)は、勾配方向が略同一の画素群をグループ化し(ウィンドウは設定せず)、その他の部分を削除したものであり、立体物体100の陰影領域に相当する。(e)は(d)で抽出された陰影領域の境界を抽出したものである。図では、立体物体100のほぼ全体輪郭が抽出されているが、物体によっては輪郭の一部のみが抽出される場合もあり得る。物体表面の凹凸度あるいは曲面度に応じて陰影領域が形成されるから、凹凸度の大きい物体の場合には、陰影領域の境界は全体輪郭の中で大きな比重を占めることになる。
【0029】
(f)は、(e)で抽出した陰影領域の境界と、(b)で抽出したステップエッジとを統合したものであり、平面状物体のみならず、立体物体100についても完全な輪郭が得られている。統合は、(b)のステップエッジと(e)の陰影領域境界との重み付け加算で行われ、具体的には(b)のステップエッジと(e)の境界とが重複する部分ではステップエッジを選択し(ステップエッジの重みを1とし陰影領域境界の重みを0とする)、ステップエッジが欠落している部分では陰影領域境界を選択する。ステップエッジと陰影領域境界とが重複する部分でステップエッジを優先させるのは、陰影領域を抽出する場合のグループ化における誤差を考慮したものである。
【0030】
このように、本実施形態では、ステップエッジを抽出し、ステップエッジが欠落している場合に勾配方向が略同一であるという条件の下で陰影領域を抽出し、ステップエッジと陰影領域境界とを統合することで、従来では抽出することが困難であった、複雑な背景からなるシーン中の人物の手や指といった陰影領域となり易い滑らかな曲面を有する物体を類似色の背景から抽出することも可能となり、
物体認識率を向上させることができる。
【0031】
なお、本実施形態において、陰影領域を抽出するために勾配の方向(空間微分)が略同一の領域を抽出したが、原画像の輝度の2階微分(2次微分)を用いて抽出することもできる。勾配方向が略同一であることと、2階微分値が実質的に0であることは等価である。
【0032】
図5には、この場合の処理フローチャートが示されている。まず、原画像の1階微分(1次微分)あるいは空間微分を算出する(S201)。空間微分を算出した後、しきい値処理や非極大値抑制処理、さらには細線化処理を施すことによりステップエッジを抽出することができる。
【0033】
次に、勾配の方向が略同一である画素群を抽出するのではなく、空間微分をさらにもう一度微分し、2階微分を算出する(S202)。但し、2階微分を算出するのは、1階微分、すなわち空間微分の値が0でない領域に限定する。これは、本来的に陰影領域でない領域においても、空間微分が0の領域は2階微分の値も0となってしまい、2階微分の値のみでは両者を識別することができないからである。2階微分を算出した後、2階微分の値が実質的に0、具体的には2階微分の絶対値が0近傍の所定値εより小さい画素を抽出し、これらの画素に同一フラグを付してグループ化する(S203)。グループ化した画素群は、陰影領域を現しており、その境界を抽出してステップエッジと統合することで(S204)、物体の全輪郭を抽出することができる。
【0034】
また、本実施形態では、まずステップエッジを抽出し、そのステップエッジが欠落して閉じていない場合に陰影領域を抽出する処理を行って両者を統合しているが、例えば図4に示されるように、陰影領域が物体の輪郭の大部分を占めるような場合には、まず陰影領域を抽出し、その結果に基づいてステップエッジ領域を抽出することも可能である。
【0035】
図6には、この場合の概略処理フローチャートが示されている。まず、原画像から陰影領域を抽出する(S301)。この処理は上述した処理と同様に、原画像を一回微分(空間微分)してその勾配方向が略同一の画素をグループ化することで抽出でき、あるいは1階微分の値が0でない画素に対する2階微分値が実質的に0である画素をグループ化することで抽出することができる。陰影領域を抽出した後、その陰影領域境界の延長線上に処理ウィンドウを設定し、処理ウィンドウ内で1階微分値をしきい値処理してステップエッジを抽出する(S302)。ステップエッジを抽出する際に、非極大値抑制処理や細線化処理を施しても良いことは言うまでもない。
【0036】
なお、この実施形態では、2階微分値を用いた後で再び1階微分値を用いることになるので、1階微分値を算出した後に2階微分値を算出する際には、算出した2階微分値を1階微分値とはメモリの別の領域に格納しておくことが好適である。また、陰影領域境界の欠落部分に対して処理ウィンドウを設定する際に、グループ化に伴う誤差を考慮し、処理ウィンドウを十分大きく設定しておくことも好適である。
【0037】
また、ステップエッジを抽出した後に陰影領域を抽出し、両者を統合する場合においても、陰影領域の抽出結果をステップエッジ抽出にフィードバックし、ステップエッジ抽出を修正してより高精度化することも可能である。
【0038】
図7には、この場合の処理フローチャートが示されている。まず、S101及びS102と同様の処理を行って原画像からステップエッジを抽出する(S401)。次に、ステップエッジは十分抽出できたか否か、すなわちS103と同様に陰影領域の境界を抽出する必要があるか否かを判定し(S402)、陰影領域を抽出する必要がある場合には、S104と同様に勾配方向が略同一の画素をグループ化して陰影領域を抽出し、さらにその境界を抽出する(S403)。もちろん、2階微分値を用いて陰影領域を抽出してもよい。
【0039】
陰影領域及びその境界を抽出した後、S401で抽出したステップエッジとS403で抽出した陰影領域境界との同一性を判定する。同一性とは、ステップエッジと引例領域境界とが同一物体に属するものか否かを判定するもので、具体的にはステップエッジの延長線上に陰影領域境界が存在するか否か、あるいは逆に陰影領域の延長線上にステップエッジが存在するか否かで判定する。そして、例えばステップエッジよりも陰影領域境界の方が抽出された割合が大きく、あるいはグループ化における勾配方向の同一度も高く、陰影領域境界の延長線上にステップエッジが存在していない場合には、ステップエッジの抽出精度が十分でないと判定し、再びS401の処理に戻ってステップエッジの抽出処理を繰り返す。ステップエッジの抽出処理を再度行う際には、陰影領域境界の延長線上に処理ウィンドウを設定するとともに、しきい値処理におけるしきい値を高めに修正するなど、より高精度な処理を行うことが好適である。これにより、ステップエッジの抽出精度を上げ、より的確に物体の輪郭を抽出することができる。
【0040】
以上、本発明の実施形態について説明したが、本実施形態で示した各種処理、具体的には図2、図5〜図7の処理は、処理プログラムを記録した媒体からコンピュータにインストールし、CPUが逐次実行することで実現することができる。処理プログラムは、例えば図2の場合においては原画像の隣接画素データ(輝度データ)の差分を演算するルーチン、算出した差分値、すなわち空間微分値をメモリの所定アドレスに格納するルーチン、予め記憶された所定のしきい値をメモリから読み出して差分値と比較しステップエッジを抽出するルーチン、抽出したステップエッジデータをメモリに格納するルーチン、ステップエッジデータが閉曲線を構成しているか否かを演算するルーチン、メモリに格納した差分値、すなわち空間微分値を読み出し、隣接する画素のデータでそのなす角が一定値以下であるか否かを判定し、一定値以下である場合に該画素に対してフラグを設定するルーチン、フラグが設定された画素群の境界に位置する画素に別のフラグを設定して境界を画定するルーチン、及びメモリに記憶されたステップエッジデータと陰影領域の境界データを統合して表示制御部に出力するルーチンを含むことができる。処理プログラムを記憶する媒体には、CD−ROMやDVD、ハードディスク、半導体メモリなど、電磁気的、光学的、あるいは化学的に情報を保持できる任意の媒体が含まれる。
【0041】
【発明の効果】
本発明によれば、画像中のエッジ、特に穏やかな輝度変化を有する陰影領域を確実に抽出することができる。これにより、従来では検出することが困難であった物体、例えば複雑な背景からなるシーン中の人物の手や指なども容易に抽出することができ、物体認識の精度を向上させることができる。
【図面の簡単な説明】
【図1】 実施形態の構成ブロック図である。
【図2】 実施形態の処理フローチャートである。
【図3】 輝度変化と輝度勾配との関係を示す説明図である。
【図4】 図2の処理フローチャートの模式的説明図である。
【図5】 他の実施形態の処理フローチャートである。
【図6】 さらに他の実施形態の処理フローチャートである。
【図7】 さらに他の実施形態の処理フローチャートである。
【符号の説明】
10 イメージセンサ、12 A/D、14 フレームメモリ、16 メインメモリ、18 CPU、20 表示制御部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, and a recording medium, and more particularly, to a process for extracting an outline of an object from an original image using a spatial differential value.
[0002]
[Prior art]
Conventionally, various methods for extracting an object, specifically, an outline (edge) of an object from an image have been proposed. For example, a gradient is obtained from the spatial differentiation of the luminance of the original image, and a method for extracting edges by suppressing non-maximum values (removing points other than those that are locally maximal), and a template that assumes an object shade pattern are prepared in advance. A method of extracting an edge by performing a correlation operation with the original image (template matching), a method of extracting a point at which the second-order differential value of the spatial differentiation of the luminance of the original image is zero, and the like.
[0003]
[Problems to be solved by the invention]
However, in the template matching method, it is premised that the shade pattern of the object to be extracted in advance is known, and the edge of the object other than the template cannot be extracted, or the edge extraction accuracy is greatly influenced by the template accuracy. There's a problem.
[0004]
In addition, in the method of extracting edges from the spatial differentiation of the original image, edges with sharply changing brightness levels, that is, so-called step edges, can be extracted with high precision, but the boundaries of shadow areas where the brightness level changes gently are extracted as edges. There was a problem that could not be done. In the case of an object, particularly an object composed of a free-form surface, there is almost always a shadow area as well as a step edge. If the boundary of this shadow area cannot be extracted, the overall shape of the object will not be clear, and the object It is also difficult to specify the type.
[0005]
The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide an apparatus, a method, and a recording medium that can reliably extract an edge of an object, particularly a boundary of a shadow area. is there.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is an image processing apparatus for extracting an object in an image, wherein the second-order spatial differential value is substantially equal to a differentiation means for second-order spatial differentiation of the luminance of the original image. Integrating the boundary between the step edge and the shadow area, the shadow area extraction means for extracting the shadow area of the object by grouping zero areas, the edge extraction means for extracting the step edge of the object in the original image have a an integrated unit that, the differentiating means is assumed by the second order spatial derivative by further spatial differentiation only area spatial differential value of the luminance of the original image is not 0 as the processing target, and, When the step edge of the object extracted by the edge extraction means does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the processing window is set in the processing window. And characterized in that the floor space differential.
[0008]
The present invention is also an image processing apparatus for extracting an object in an image, and groups differentiation means for differentiating the luminance of an original image by second-order space, and regions where the second-order spatial differential value is substantially zero. A shadow area extracting means for extracting the shadow area of the object, an edge extracting means for extracting the step edge of the object in the original image, and an integrating means for integrating the boundary between the step edge and the shadow area. The differential means performs the second-order spatial differentiation by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and the edge extraction means A processing window is set on an extension line of the shadow region boundary of the object extracted by the region extraction means, and the step edge is extracted in the processing window .
[0013]
The present invention is also an image processing method for extracting an object in an image, wherein a differentiation step for second-order spatial differentiation of the luminance of the original image and a region where the second-order spatial differential value is substantially zero are grouped. A shadow region extraction step for extracting a shadow region of the object, an edge extraction step for extracting a step edge of the object in the original image, and an integration step of integrating the boundary between the step edge and the shadow region. In the differentiation step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and extracted in the edge extraction step. When the step edge of the selected object does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the object falls within the processing window. Characterized by differentiating the second floor space.
[0014]
The present invention is also an image processing method for extracting an object in an image, wherein a differentiation step for second-order spatial differentiation of the luminance of the original image and a region where the second-order spatial differential value is substantially zero are grouped. A shadow region extraction step for extracting a shadow region of the object, an edge extraction step for extracting a step edge of the object in the original image, and an integration step of integrating the boundary between the step edge and the shadow region. In the differentiating step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and in the edge extracting step, the shadowing is performed. A processing window is set on an extension line of the shadow region boundary of the object extracted in the region extraction step, and the step edge is set in the processing window. Characterized in that it out.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to this embodiment. The
[0021]
FIG. 2 shows an overall process flowchart of the
[0022]
FIG. 3 schematically shows gradients calculated by spatial differentiation in the step edge portion (a) where the luminance changes sharply and the shadow portion (b) where the luminance changes gently. Since the peak value appears clearly at the step edge part, the peak value can be extracted by threshold processing. However, since the peak value does not appear in the shadow area, the boundary is extracted using the threshold value. Is difficult.
[0023]
Therefore, after extracting the step edge in S101 and S102, the
[0024]
When it is determined that shadow area extraction is necessary, the
[0025]
After extracting the shadow area, the step edge extracted in S101 and S102 and the shadow area extracted in S103 are integrated to extract a complete whole edge of the object (S105). As an integration method, there are simple addition of the step edge and the shadow area edge, weight addition of the step edge and the shadow area edge, and the like. In the case of performing weighted addition, it is preferable to give a higher weight to the higher accuracy in consideration of the calculation accuracy of the step edge and the calculation accuracy of the shadow region in a portion where the step edge and the shadow region edge overlap each other. Note that the edge of the shadow area can be extracted by selecting, for example, a boundary pixel of a pixel group with the same flag. The entire edge of the object obtained by integrating the step edge and the shadow area edge is supplied to the
[0026]
FIG. 4 schematically shows the processing described above. (A) is an original image, and it is assumed that a
[0027]
Note that when determining whether or not the gradient directions are substantially the same, it is also preferable to make a determination only for an area that is considered to be a shadow area, instead of making a determination for all the pixels of the original image. Specifically, a part where the extracted step edge of the object is missing is regarded as a shadow area, a processing window is set near the missing part, and pixels existing in the window have substantially the same gradient direction. It is determined whether or not. In (b), the
[0028]
(D) is a group of pixels having substantially the same gradient direction (no window is set), and other portions are deleted, and corresponds to a shaded area of the three-
[0029]
(F) is obtained by integrating the boundary of the shadow area extracted in (e) and the step edge extracted in (b), and a complete contour is obtained not only for the planar object but also for the three-
[0030]
As described above, in this embodiment, the step edge is extracted, and when the step edge is missing, the shadow area is extracted under the condition that the gradient directions are substantially the same, and the step edge and the shadow area boundary are extracted. By integrating, it is also possible to extract objects with smooth curved surfaces such as human hands and fingers in scenes consisting of complicated backgrounds that have been difficult to extract, from backgrounds of similar colors. Enabled,
The object recognition rate can be improved.
[0031]
In this embodiment, in order to extract a shadow area, an area having substantially the same gradient direction (spatial differentiation) is extracted, but extraction is performed using the second-order derivative (secondary differentiation) of the luminance of the original image. You can also. It is equivalent that the gradient directions are substantially the same and the second-order differential value is substantially zero.
[0032]
FIG. 5 shows a processing flowchart in this case. First, first-order differentiation (first-order differentiation) or spatial differentiation of the original image is calculated (S201). After calculating the spatial differentiation, a step edge can be extracted by performing threshold processing, non-maximum value suppression processing, and further thinning processing.
[0033]
Next, instead of extracting a pixel group having substantially the same gradient direction, the spatial differentiation is further differentiated to calculate a second-order differentiation (S202). However, the second-order differentiation is limited to the first-order differentiation, that is, the region where the value of the spatial differentiation is not zero. This is because even in a region that is not originally a shaded region, a region having a spatial differential of 0 has a second-order differential value of 0, and the second-order differential value alone cannot identify both. After calculating the second derivative, pixels whose second derivative value is substantially 0, specifically, the absolute value of the second derivative is smaller than a predetermined value ε near 0, and the same flag is set to these pixels. And grouping (S203). The grouped pixel group represents a shaded area, and the entire contour of the object can be extracted by extracting the boundary and integrating it with the step edge (S204).
[0034]
In the present embodiment, step edges are first extracted, and when the step edges are missing and not closed, a shadow area is extracted and integrated, but for example, as shown in FIG. In addition, when the shadow region occupies most of the contour of the object, it is possible to first extract the shadow region and extract the step edge region based on the result.
[0035]
FIG. 6 shows a schematic processing flowchart in this case. First, a shadow area is extracted from the original image (S301). This processing can be extracted by differentiating the original image once (spatial differentiation) and grouping pixels having substantially the same gradient direction as in the above-described processing, or for pixels whose first-order differentiation value is not 0. Extraction can be performed by grouping pixels whose second-order differential values are substantially zero. After extracting the shadow region, a processing window is set on the extension line of the shadow region boundary, and the step edge is extracted by thresholding the first-order differential value in the processing window (S302) . When extracting scan Teppuejji, it may of course be subjected to non-maximum value suppression processing and thinning processing.
[0036]
In this embodiment, since the first-order differential value is used again after the second-order differential value is used, when calculating the second-order differential value after calculating the first-order differential value, the calculated 2 It is preferable to store the first order differential value in a different area of the memory from the first order differential value. It is also preferable to set the processing window sufficiently large in consideration of errors due to grouping when setting the processing window for the missing part of the shadow area boundary.
[0037]
In addition, when extracting the shadow area after extracting the step edge and integrating both, it is also possible to feed back the extraction result of the shadow area to the step edge extraction and correct the step edge extraction for higher accuracy. It is.
[0038]
FIG. 7 shows a processing flowchart in this case. First, processing similar to S101 and S102 is performed to extract step edges from the original image (S401). Next, it is determined whether or not the step edge has been sufficiently extracted, that is, whether or not the boundary of the shadow area needs to be extracted as in S103 (S402), and if the shadow area needs to be extracted, Similar to S104, pixels having substantially the same gradient direction are grouped to extract a shadow region, and the boundary is extracted (S403). Of course, the shadow area may be extracted using the second-order differential value.
[0039]
After extracting the shadow area and its boundary, the identity of the step edge extracted in S401 and the shadow area boundary extracted in S403 is determined. The identity is to determine whether the step edge and the reference area boundary belong to the same object. Specifically, whether the shadow area boundary exists on the extension line of the step edge or vice versa. Judgment is made based on whether or not a step edge exists on the extension line of the shadow area. And, for example, if the ratio of the shadow region boundary extracted is larger than the step edge, or the degree of gradient direction in grouping is high, and if the step edge does not exist on the extension line of the shadow region boundary, It is determined that the extraction accuracy of the step edge is not sufficient, and the process returns to S401 again to repeat the step edge extraction process. When performing step edge extraction processing again, it is possible to perform processing with higher accuracy, such as setting a processing window on the extended line of the shadow area boundary and correcting the threshold value to a higher value in threshold processing. Is preferred. Thereby, the extraction precision of a step edge can be raised and the outline of an object can be extracted more accurately.
[0040]
Although the embodiment of the present invention has been described above, the various processes shown in the present embodiment, specifically, the processes of FIGS. 2 and 5 to 7 are installed in a computer from a medium on which a processing program is recorded. Can be realized by sequentially executing. For example, in the case of FIG. 2, the processing program is stored in advance as a routine for calculating a difference between adjacent pixel data (luminance data) of the original image, a routine for storing the calculated difference value, that is, a spatial differential value at a predetermined address in the memory. A routine for reading out a predetermined threshold value from the memory and comparing it with the difference value to extract a step edge, a routine for storing the extracted step edge data in the memory, and calculating whether or not the step edge data constitutes a closed curve Routine, the difference value stored in the memory, that is, the spatial differential value is read, and it is determined whether or not the angle formed by the adjacent pixel data is below a certain value. Routine for setting a flag, demarcating the boundary by setting another flag for the pixel located at the boundary of the pixel group for which the flag is set Routine, and the boundary data of the stored step edge data and shaded area in the memory may include a routine for outputting to the display control unit integrated. The medium for storing the processing program includes any medium that can hold information electromagnetically, optically, or chemically, such as a CD-ROM, DVD, hard disk, or semiconductor memory.
[0041]
【The invention's effect】
According to the present invention, it is possible to reliably extract an edge in an image, particularly a shadow region having a gentle luminance change. This makes it possible to easily extract an object that has been difficult to detect in the past, such as a human hand or finger in a scene having a complicated background, and improve the accuracy of object recognition.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram of an embodiment.
FIG. 2 is a processing flowchart of the embodiment.
FIG. 3 is an explanatory diagram showing a relationship between a luminance change and a luminance gradient.
FIG. 4 is a schematic explanatory diagram of the processing flowchart of FIG. 2;
FIG. 5 is a processing flowchart of another embodiment.
FIG. 6 is a processing flowchart of still another embodiment.
FIG. 7 is a processing flowchart of still another embodiment.
[Explanation of symbols]
10 image sensor, 12 A / D, 14 frame memory, 16 main memory, 18 CPU, 20 display control unit.
Claims (4)
原画像の輝度を2階空間微分する微分手段と、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、
前記ステップエッジと前記陰影領域の境界を統合する統合手段と、
を有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出手段で抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする画像処理装置。An image processing apparatus for extracting an object in an image,
Differentiating means for differentiating the brightness of the original image by the second order space,
A shadow area extracting means for grouping areas where the second-order spatial differential value is substantially 0 to extract a shadow area of the object;
Edge extraction means for extracting a step edge of the object in the original image;
Integration means for integrating the boundary between the step edge and the shaded area;
And the differential means performs the second-order spatial differentiation by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0 , and the edge extraction means When the step edge of the object extracted in step 1 does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the second-order spatial differentiation is performed in the processing window. Image processing device.
原画像の輝度を2階空間微分する微分手段と、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、
前記ステップエッジと前記陰影領域の境界を統合する統合手段と、
を有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、
前記エッジ抽出手段は、前記陰影領域抽出手段で抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする画像処理装置。 An image processing apparatus for extracting an object in an image,
Differentiating means for differentiating the brightness of the original image by the second order space,
A shadow area extracting means for grouping areas where the second-order spatial differential value is substantially 0 to extract a shadow area of the object;
Edge extraction means for extracting a step edge of the object in the original image;
Integration means for integrating the boundary between the step edge and the shaded area;
And the differentiating means performs the second-order spatial differentiation by further differentiating only the region where the spatial differential value of the luminance of the original image is not 0,
The edge extracting means sets a processing window on an extension line of the shadow area boundary of the object extracted by the shadow area extracting means, and extracts the step edge in the processing window. .
原画像の輝度を2階空間微分する微分ステップと、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、
前記ステップエッジと前記陰影領域の境界を統合する統合ステップと、
を有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出ステップで抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする画像処理方法。 An image processing method for extracting an object in an image,
A differentiation step for second-order spatial differentiation of the luminance of the original image;
A shadow region extraction step of grouping regions where the second-order spatial differential value is substantially zero to extract a shadow region of the object;
An edge extraction step of extracting a step edge of the object in the original image;
An integration step of integrating a boundary between the step edge and the shaded area;
In the differentiation step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and the edge extraction step When the step edge of the object extracted in step 1 does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the second-order spatial differentiation is performed in the processing window. Image processing method .
原画像の輝度を2階空間微分する微分ステップと、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、
前記ステップエッジと前記陰影領域の境界を統合する統合ステップと、
を有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、
前記エッジ抽出ステップでは、前記陰影領域抽出ステップで抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする画像処理方法。 An image processing method for extracting an object in an image,
A differentiation step for second-order spatial differentiation of the luminance of the original image;
A shadow region extraction step of grouping regions where the second-order spatial differential value is substantially zero to extract a shadow region of the object;
An edge extraction step of extracting a step edge of the object in the original image;
An integration step of integrating a boundary between the step edge and the shaded area;
In the differentiating step, the second-order spatial differentiation is performed by further spatially differentiating only the region where the spatial differential value of the luminance of the original image is not 0,
In the edge extraction step, a processing window is set on an extension line of the shadow region boundary of the object extracted in the shadow region extraction step, and the step edge is extracted in the processing window. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36814899A JP3638845B2 (en) | 1999-12-24 | 1999-12-24 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP36814899A JP3638845B2 (en) | 1999-12-24 | 1999-12-24 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001184512A JP2001184512A (en) | 2001-07-06 |
JP3638845B2 true JP3638845B2 (en) | 2005-04-13 |
Family
ID=18491078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP36814899A Expired - Lifetime JP3638845B2 (en) | 1999-12-24 | 1999-12-24 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3638845B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005165983A (en) * | 2003-12-05 | 2005-06-23 | Seiko Epson Corp | Method for detecting jaw of human face, jaw detection system, and jaw detection program |
JP4838261B2 (en) * | 2004-11-18 | 2011-12-14 | ジェンテックス コーポレイション | Image collection and processing system for vehicle equipment control |
JP4674179B2 (en) * | 2006-03-30 | 2011-04-20 | 株式会社デンソーアイティーラボラトリ | Shadow recognition method and shadow boundary extraction method |
JP4969320B2 (en) * | 2007-05-31 | 2012-07-04 | セコム株式会社 | Image processing device |
JP5294684B2 (en) * | 2008-04-30 | 2013-09-18 | 株式会社フオトクラフト社 | Manufacturing method and apparatus for three-dimensional relief |
JP6183038B2 (en) * | 2012-11-15 | 2017-08-23 | 株式会社リコー | Region extraction apparatus, region extraction method and program |
JP6130325B2 (en) * | 2014-04-24 | 2017-05-17 | 本田技研工業株式会社 | Road environment recognition device |
-
1999
- 1999-12-24 JP JP36814899A patent/JP3638845B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2001184512A (en) | 2001-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8331619B2 (en) | Image processing apparatus and image processing method | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
KR100761641B1 (en) | Apparatus and method for correcting distortion of input image | |
US7889947B2 (en) | Image completion | |
US9049397B2 (en) | Image processing device and image processing method | |
CN102834845A (en) | Method and arrangement for multi-camera calibration | |
CN102750538B (en) | A kind of weiqi game interpretation of result method based on image processing techniques | |
JP6307873B2 (en) | Object line detection apparatus, method, and program | |
CN111754536B (en) | Image labeling method, device, electronic equipment and storage medium | |
CN111220235B (en) | Water level monitoring method and device | |
JP3078166B2 (en) | Object recognition method | |
KR20190080388A (en) | Photo Horizon Correction Method based on convolutional neural network and residual network structure | |
CN106651782A (en) | ViBe-oriented foreground ghosting removal method | |
JP6942566B2 (en) | Information processing equipment, information processing methods and computer programs | |
JP3638845B2 (en) | Image processing apparatus and method | |
KR101377910B1 (en) | Image processing method and image processing apparatus | |
KR101524074B1 (en) | Method for Image Processing | |
US11023706B2 (en) | Measurement system and measurement method | |
JP2005267465A5 (en) | ||
JP3772845B2 (en) | Image processing program, image processing apparatus, and photographing apparatus | |
KR100782254B1 (en) | Method for detecting word regions using camera | |
JP2008077489A (en) | Image processor, method, program, and storage medium | |
JPH06281421A (en) | Image processing method | |
CN111539970B (en) | Checkerboard angular point detection method suitable for structured light three-dimensional reconstruction | |
KR100730571B1 (en) | Object detection method using color similarity image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040514 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040514 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20040514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040914 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3638845 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090121 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100121 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110121 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110121 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120121 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120121 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130121 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130121 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |