JP3638845B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP3638845B2
JP3638845B2 JP36814899A JP36814899A JP3638845B2 JP 3638845 B2 JP3638845 B2 JP 3638845B2 JP 36814899 A JP36814899 A JP 36814899A JP 36814899 A JP36814899 A JP 36814899A JP 3638845 B2 JP3638845 B2 JP 3638845B2
Authority
JP
Japan
Prior art keywords
edge
extracting
original image
differentiation
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP36814899A
Other languages
Japanese (ja)
Other versions
JP2001184512A (en
Inventor
和英 杉本
文明 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, Sanyo Electric Co Ltd filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP36814899A priority Critical patent/JP3638845B2/en
Publication of JP2001184512A publication Critical patent/JP2001184512A/en
Application granted granted Critical
Publication of JP3638845B2 publication Critical patent/JP3638845B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置及び方法並びに記録媒体に関し、特に原画像から空間微分値を用いて物体の輪郭を抽出する処理に関する。
【0002】
【従来の技術】
従来より、画像から物体、具体的には物体の輪郭(エッジ)を抽出するための種々の方法が提案されている。例えば、原画像の輝度の空間微分より勾配を求め、非極大値抑制(局所的に極大となる点以外を削除する)によりエッジを抽出する方法、物体の濃淡パターンを想定したテンプレートを予め用意し、原画像との相関演算を行ってエッジを抽出する(テンプレートマッチング)方法、原画像の輝度の空間微分の2階微分値が0となる点を抽出する方法、等である。
【0003】
【発明が解決しようとする課題】
しかしながら、テンプレートマッチング法では、予め抽出すべき物体の濃淡パターンが既知であることが前提となり、テンプレート以外の物体のエッジを抽出することができない、あるいはエッジ抽出精度がテンプレートの精度に大きく影響される問題がある。
【0004】
また、原画像の空間微分からエッジを抽出する方法では、輝度レベルが急峻に変化するエッジ、いわゆるステップエッジは精度良く抽出できるものの、輝度レベルが穏やかに変化する陰影領域の境界はエッジとして抽出することができない問題があった。物体、特に自由曲面からなる物体の場合には、ステップエッジのみならず陰影領域が存在する場合がほとんどであり、この陰影領域の境界を抽出できないと物体の全体形状が明らかとならず、その物体の種類を特定することも困難となる。
【0005】
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、物体のエッジ、特に陰影領域の境界を確実に抽出することができる装置及び方法並びに記録媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明は、画像内の物体を抽出する画像処理装置であって、原画像の輝度を2階空間微分する微分手段と、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、前記ステップエッジと前記陰影領域の境界を統合する統合手段とを有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出手段で抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする。
【0008】
また、本発明は、画像内の物体を抽出する画像処理装置であって、原画像の輝度を2階空間微分する微分手段と、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、前記ステップエッジと前記陰影領域の境界を統合する統合手段とを有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、前記エッジ抽出手段は、前記陰影領域抽出手段で抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする。
【0013】
また、本発明は、画像内の物体を抽出する画像処理方法であって、原画像の輝度を2階空間微分する微分ステップと、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、前記ステップエッジと前記陰影領域の境界を統合する統合ステップとを有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出ステップで抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする。
【0014】
また、本発明は、画像内の物体を抽出する画像処理方法であって、原画像の輝度を2階空間微分する微分ステップと、前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、前記ステップエッジと前記陰影領域の境界を統合する統合ステップとを有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、前記エッジ抽出ステップでは、前記陰影領域抽出ステップで抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする。
【0019】
【発明の実施の形態】
以下、図面に基づき本発明の実施形態について説明する。
【0020】
図1には、本実施形態にかかる画像処理装置の全体構成ブロック図が示されている。イメージセンサ10は画像を取得するもので、例えばCCDカメラで構成することができる。イメージセンサ10で取得した画像データはA/D変換器12でデジタル化され、フレームメモリ14に記憶される。フレームメモリ14に記憶されたデジタル画像データ、すなわち原画像データはメインメモリ16に記憶され、適宜CPU18に読み出されて後述の処理が行われ、ステップエッジや陰影領域が抽出される。抽出されたステップエッジデータや陰影領域データはメインメモリ16に記憶され、表示制御部20に供給されてCRTや液晶などのディスプレイに表示される。A/D12、フレームメモリ14、メインメモリ16、CPU18及び表示制御部20はコンピュータで構成することができる。
【0021】
図2には、図1におけるCPU18の全体処理フローチャートが示されている。CPU18は、メインメモリ16に記憶された原画像データを読み出し、まず勾配を算出する(S101)。次に、しきい値処理を行い、エッジ点の候補を求め、非極大値抑制処理により局所的に極大点となる点のみを残す。さらに、細線化処理により1画素幅のエッジを抽出する(S102)。なお、必要に応じて、求めたエッジ点を延長し、境界を求める処理を施すことも好適である。
【0022】
図3には、輝度が急峻に変化するステップエッジ部分(a)及び輝度が穏やかに変化する陰影部分(b)における空間微分により算出された勾配が模式的に示されている。ステップエッジ部分では、ピーク値が明瞭に現れるため、しきい値処理によりピーク値を抽出することができるが、陰影領域ではピーク値は出現しないため、しきい値を用いてその境界を抽出することが困難である。
【0023】
そこで、CPU18は、S101及びS102でステップエッジを抽出した後、原画像から陰影領域の境界を抽出するか否かを判定する(S103)。この判定は、物体によってはステップエッジのみで十分全体のエッジを抽出でき、陰影領域の境界を抽出する必要性が低い場合もあり得ることに鑑みたものである。具体的には、抽出されたステップエッジが閉じていて欠落部分が存在しないと思われる場合には、陰影領域の抽出処理は不要と考えられる。
【0024】
陰影領域抽出が必要と判定した場合、CPU18はS101で算出した勾配データを用い、勾配の方向が略等しい画素を抽出し、それらの画素をグループ化する(S104)。陰影領域は、物体に一方向から光を照射したときに影の部分にできる輝度の変化であるから、その勾配は一定の方向になる。逆に言えば、勾配が一定の方向にある画素群を抽出することで、陰影領域を抽出することができる。具体的には、隣接する画素の勾配の方向の差が所定値(例えば±5度)以内の画素群を勾配の方向が略同一の画素群とグループ化することができる。グループ化は、例えば略同一の勾配方向を有する画素群に対して同一フラグを設定すればよい。
【0025】
陰影領域を抽出した後、S101及びS102で抽出したステップエッジとS103で抽出した陰影領域とを統合させ、物体の完全な全体エッジを抽出する(S105)。統合の方法としては、ステップエッジと陰影領域のエッジを単純加算する、ステップエッジと陰影領域のエッジを重み付け加算する等がある。重み付け加算する場合、ステップエッジと陰影領域のエッジが相互に重複する部分においてステップエッジの算出精度と陰影領域の算出精度とを考慮し、精度の高い方に大きな重みを付けることが好適である。なお、陰影領域のエッジは、例えば同一フラグが付された画素群の境界画素を選択することで抽出できる。ステップエッジと陰影領域のエッジを統合して得られた物体の全体エッジは表示制御部20に供給され、ディスプレイに表示される。統合して得られる全体エッジから物体の種類を特定し、その物体の種類をディスプレイに表示することも好適である。このためには、予め全体エッジと物体の種類との関係を記憶するデータベースを備えておけばよい。
【0026】
図4には、以上述べた処理が模式的に示されている。(a)は原画像であり、立体物体100及び平面状物体102が存在するとする。(b)は原画像を空間微分して勾配を算出し、しきい値処理をしてステップエッジを抽出した図である。平面状物体102については、ステップエッジ102aは閉じたものとなり、ステップエッジ102aを抽出することで物体の全体形状を得ることができるが、立体物体100の場合は一部分のみがステップエッジ100aとして抽出され、図中右下の部分は輝度が穏やかに変化する陰影領域であるためエッジが欠落してしまう。そこで、立体物体100の全体エッジを抽出するために、立体物体100の陰影領域を抽出する。(c)は原画像の勾配方向を矢印で模式的に示したものであり、略同一方向を有する勾配、すなわち隣接する画素で勾配方向の差分が所定値以下の画素群が図中符号103で示されている。
【0027】
なお、勾配の方向が略同一か否かを判定する際に、原画像のすべての画素について判定を行うのではなく、陰影領域と考えられる領域のみに限定して判定することも好適である。具体的には、抽出した物体のステップエッジが欠落している部分を陰影領域とみなし、この欠落部分近傍に処理ウィンドウを設定して、そのウィンドウ内に存在する画素が略同一の勾配方向を有するか否かを判定する。(b)において、ウィンドウ104がエッジの欠落した部分に設定された処理ウィンドウを示している。ウィンドウを設定することで処理を効率化し、グループ化に要する時間を短縮することができる。
【0028】
(d)は、勾配方向が略同一の画素群をグループ化し(ウィンドウは設定せず)、その他の部分を削除したものであり、立体物体100の陰影領域に相当する。(e)は(d)で抽出された陰影領域の境界を抽出したものである。図では、立体物体100のほぼ全体輪郭が抽出されているが、物体によっては輪郭の一部のみが抽出される場合もあり得る。物体表面の凹凸度あるいは曲面度に応じて陰影領域が形成されるから、凹凸度の大きい物体の場合には、陰影領域の境界は全体輪郭の中で大きな比重を占めることになる。
【0029】
(f)は、(e)で抽出した陰影領域の境界と、(b)で抽出したステップエッジとを統合したものであり、平面状物体のみならず、立体物体100についても完全な輪郭が得られている。統合は、(b)のステップエッジと(e)の陰影領域境界との重み付け加算で行われ、具体的には(b)のステップエッジと(e)の境界とが重複する部分ではステップエッジを選択し(ステップエッジの重みを1とし陰影領域境界の重みを0とする)、ステップエッジが欠落している部分では陰影領域境界を選択する。ステップエッジと陰影領域境界とが重複する部分でステップエッジを優先させるのは、陰影領域を抽出する場合のグループ化における誤差を考慮したものである。
【0030】
このように、本実施形態では、ステップエッジを抽出し、ステップエッジが欠落している場合に勾配方向が略同一であるという条件の下で陰影領域を抽出し、ステップエッジと陰影領域境界とを統合することで、従来では抽出することが困難であった、複雑な背景からなるシーン中の人物の手や指といった陰影領域となり易い滑らかな曲面を有する物体を類似色の背景から抽出することも可能となり、
物体認識率を向上させることができる。
【0031】
なお、本実施形態において、陰影領域を抽出するために勾配の方向(空間微分)が略同一の領域を抽出したが、原画像の輝度の2階微分(2次微分)を用いて抽出することもできる。勾配方向が略同一であることと、2階微分値が実質的に0であることは等価である。
【0032】
図5には、この場合の処理フローチャートが示されている。まず、原画像の1階微分(1次微分)あるいは空間微分を算出する(S201)。空間微分を算出した後、しきい値処理や非極大値抑制処理、さらには細線化処理を施すことによりステップエッジを抽出することができる。
【0033】
次に、勾配の方向が略同一である画素群を抽出するのではなく、空間微分をさらにもう一度微分し、2階微分を算出する(S202)。但し、2階微分を算出するのは、1階微分、すなわち空間微分の値が0でない領域に限定する。これは、本来的に陰影領域でない領域においても、空間微分が0の領域は2階微分の値も0となってしまい、2階微分の値のみでは両者を識別することができないからである。2階微分を算出した後、2階微分の値が実質的に0、具体的には2階微分の絶対値が0近傍の所定値εより小さい画素を抽出し、これらの画素に同一フラグを付してグループ化する(S203)。グループ化した画素群は、陰影領域を現しており、その境界を抽出してステップエッジと統合することで(S204)、物体の全輪郭を抽出することができる。
【0034】
また、本実施形態では、まずステップエッジを抽出し、そのステップエッジが欠落して閉じていない場合に陰影領域を抽出する処理を行って両者を統合しているが、例えば図4に示されるように、陰影領域が物体の輪郭の大部分を占めるような場合には、まず陰影領域を抽出し、その結果に基づいてステップエッジ領域を抽出することも可能である。
【0035】
図6には、この場合の概略処理フローチャートが示されている。まず、原画像から陰影領域を抽出する(S301)。この処理は上述した処理と同様に、原画像を一回微分(空間微分)してその勾配方向が略同一の画素をグループ化することで抽出でき、あるいは1階微分の値が0でない画素に対する2階微分値が実質的に0である画素をグループ化することで抽出することができる。陰影領域を抽出した後、その陰影領域境界の延長線上に処理ウィンドウを設定し、処理ウィンドウ内で1階微分値をしきい値処理してステップエッジを抽出する(S302)。ステップエッジを抽出する際に、非極大値抑制処理や細線化処理を施しても良いことは言うまでもない。
【0036】
なお、この実施形態では、2階微分値を用いた後で再び1階微分値を用いることになるので、1階微分値を算出した後に2階微分値を算出する際には、算出した2階微分値を1階微分値とはメモリの別の領域に格納しておくことが好適である。また、陰影領域境界の欠落部分に対して処理ウィンドウを設定する際に、グループ化に伴う誤差を考慮し、処理ウィンドウを十分大きく設定しておくことも好適である。
【0037】
また、ステップエッジを抽出した後に陰影領域を抽出し、両者を統合する場合においても、陰影領域の抽出結果をステップエッジ抽出にフィードバックし、ステップエッジ抽出を修正してより高精度化することも可能である。
【0038】
図7には、この場合の処理フローチャートが示されている。まず、S101及びS102と同様の処理を行って原画像からステップエッジを抽出する(S401)。次に、ステップエッジは十分抽出できたか否か、すなわちS103と同様に陰影領域の境界を抽出する必要があるか否かを判定し(S402)、陰影領域を抽出する必要がある場合には、S104と同様に勾配方向が略同一の画素をグループ化して陰影領域を抽出し、さらにその境界を抽出する(S403)。もちろん、2階微分値を用いて陰影領域を抽出してもよい。
【0039】
陰影領域及びその境界を抽出した後、S401で抽出したステップエッジとS403で抽出した陰影領域境界との同一性を判定する。同一性とは、ステップエッジと引例領域境界とが同一物体に属するものか否かを判定するもので、具体的にはステップエッジの延長線上に陰影領域境界が存在するか否か、あるいは逆に陰影領域の延長線上にステップエッジが存在するか否かで判定する。そして、例えばステップエッジよりも陰影領域境界の方が抽出された割合が大きく、あるいはグループ化における勾配方向の同一度も高く、陰影領域境界の延長線上にステップエッジが存在していない場合には、ステップエッジの抽出精度が十分でないと判定し、再びS401の処理に戻ってステップエッジの抽出処理を繰り返す。ステップエッジの抽出処理を再度行う際には、陰影領域境界の延長線上に処理ウィンドウを設定するとともに、しきい値処理におけるしきい値を高めに修正するなど、より高精度な処理を行うことが好適である。これにより、ステップエッジの抽出精度を上げ、より的確に物体の輪郭を抽出することができる。
【0040】
以上、本発明の実施形態について説明したが、本実施形態で示した各種処理、具体的には図2、図5〜図7の処理は、処理プログラムを記録した媒体からコンピュータにインストールし、CPUが逐次実行することで実現することができる。処理プログラムは、例えば図2の場合においては原画像の隣接画素データ(輝度データ)の差分を演算するルーチン、算出した差分値、すなわち空間微分値をメモリの所定アドレスに格納するルーチン、予め記憶された所定のしきい値をメモリから読み出して差分値と比較しステップエッジを抽出するルーチン、抽出したステップエッジデータをメモリに格納するルーチン、ステップエッジデータが閉曲線を構成しているか否かを演算するルーチン、メモリに格納した差分値、すなわち空間微分値を読み出し、隣接する画素のデータでそのなす角が一定値以下であるか否かを判定し、一定値以下である場合に該画素に対してフラグを設定するルーチン、フラグが設定された画素群の境界に位置する画素に別のフラグを設定して境界を画定するルーチン、及びメモリに記憶されたステップエッジデータと陰影領域の境界データを統合して表示制御部に出力するルーチンを含むことができる。処理プログラムを記憶する媒体には、CD−ROMやDVD、ハードディスク、半導体メモリなど、電磁気的、光学的、あるいは化学的に情報を保持できる任意の媒体が含まれる。
【0041】
【発明の効果】
本発明によれば、画像中のエッジ、特に穏やかな輝度変化を有する陰影領域を確実に抽出することができる。これにより、従来では検出することが困難であった物体、例えば複雑な背景からなるシーン中の人物の手や指なども容易に抽出することができ、物体認識の精度を向上させることができる。
【図面の簡単な説明】
【図1】 実施形態の構成ブロック図である。
【図2】 実施形態の処理フローチャートである。
【図3】 輝度変化と輝度勾配との関係を示す説明図である。
【図4】 図2の処理フローチャートの模式的説明図である。
【図5】 他の実施形態の処理フローチャートである。
【図6】 さらに他の実施形態の処理フローチャートである。
【図7】 さらに他の実施形態の処理フローチャートである。
【符号の説明】
10 イメージセンサ、12 A/D、14 フレームメモリ、16 メインメモリ、18 CPU、20 表示制御部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, and a recording medium, and more particularly, to a process for extracting an outline of an object from an original image using a spatial differential value.
[0002]
[Prior art]
Conventionally, various methods for extracting an object, specifically, an outline (edge) of an object from an image have been proposed. For example, a gradient is obtained from the spatial differentiation of the luminance of the original image, and a method for extracting edges by suppressing non-maximum values (removing points other than those that are locally maximal), and a template that assumes an object shade pattern are prepared in advance. A method of extracting an edge by performing a correlation operation with the original image (template matching), a method of extracting a point at which the second-order differential value of the spatial differentiation of the luminance of the original image is zero, and the like.
[0003]
[Problems to be solved by the invention]
However, in the template matching method, it is premised that the shade pattern of the object to be extracted in advance is known, and the edge of the object other than the template cannot be extracted, or the edge extraction accuracy is greatly influenced by the template accuracy. There's a problem.
[0004]
In addition, in the method of extracting edges from the spatial differentiation of the original image, edges with sharply changing brightness levels, that is, so-called step edges, can be extracted with high precision, but the boundaries of shadow areas where the brightness level changes gently are extracted as edges. There was a problem that could not be done. In the case of an object, particularly an object composed of a free-form surface, there is almost always a shadow area as well as a step edge. If the boundary of this shadow area cannot be extracted, the overall shape of the object will not be clear, and the object It is also difficult to specify the type.
[0005]
The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide an apparatus, a method, and a recording medium that can reliably extract an edge of an object, particularly a boundary of a shadow area. is there.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the present invention is an image processing apparatus for extracting an object in an image, wherein the second-order spatial differential value is substantially equal to a differentiation means for second-order spatial differentiation of the luminance of the original image. Integrating the boundary between the step edge and the shadow area, the shadow area extraction means for extracting the shadow area of the object by grouping zero areas, the edge extraction means for extracting the step edge of the object in the original image have a an integrated unit that, the differentiating means is assumed by the second order spatial derivative by further spatial differentiation only area spatial differential value of the luminance of the original image is not 0 as the processing target, and, When the step edge of the object extracted by the edge extraction means does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the processing window is set in the processing window. And characterized in that the floor space differential.
[0008]
The present invention is also an image processing apparatus for extracting an object in an image, and groups differentiation means for differentiating the luminance of an original image by second-order space, and regions where the second-order spatial differential value is substantially zero. A shadow area extracting means for extracting the shadow area of the object, an edge extracting means for extracting the step edge of the object in the original image, and an integrating means for integrating the boundary between the step edge and the shadow area. The differential means performs the second-order spatial differentiation by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and the edge extraction means A processing window is set on an extension line of the shadow region boundary of the object extracted by the region extraction means, and the step edge is extracted in the processing window .
[0013]
The present invention is also an image processing method for extracting an object in an image, wherein a differentiation step for second-order spatial differentiation of the luminance of the original image and a region where the second-order spatial differential value is substantially zero are grouped. A shadow region extraction step for extracting a shadow region of the object, an edge extraction step for extracting a step edge of the object in the original image, and an integration step of integrating the boundary between the step edge and the shadow region. In the differentiation step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and extracted in the edge extraction step. When the step edge of the selected object does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the object falls within the processing window. Characterized by differentiating the second floor space.
[0014]
The present invention is also an image processing method for extracting an object in an image, wherein a differentiation step for second-order spatial differentiation of the luminance of the original image and a region where the second-order spatial differential value is substantially zero are grouped. A shadow region extraction step for extracting a shadow region of the object, an edge extraction step for extracting a step edge of the object in the original image, and an integration step of integrating the boundary between the step edge and the shadow region. In the differentiating step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and in the edge extracting step, the shadowing is performed. A processing window is set on an extension line of the shadow region boundary of the object extracted in the region extraction step, and the step edge is set in the processing window. Characterized in that it out.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0020]
FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus according to this embodiment. The image sensor 10 acquires an image and can be constituted by, for example, a CCD camera. Image data acquired by the image sensor 10 is digitized by the A / D converter 12 and stored in the frame memory 14. The digital image data stored in the frame memory 14, that is, the original image data, is stored in the main memory 16, and is appropriately read by the CPU 18 to perform the processing described later, thereby extracting step edges and shadow areas. The extracted step edge data and shadow area data are stored in the main memory 16, supplied to the display control unit 20, and displayed on a display such as a CRT or a liquid crystal display. The A / D 12, the frame memory 14, the main memory 16, the CPU 18, and the display control unit 20 can be configured by a computer.
[0021]
FIG. 2 shows an overall process flowchart of the CPU 18 in FIG. The CPU 18 reads the original image data stored in the main memory 16 and first calculates the gradient (S101). Next, threshold processing is performed to obtain edge point candidates, and only the points that are locally maximum are left by non-maximum value suppression processing. Further, an edge having a width of one pixel is extracted by thinning processing (S102). In addition, it is also suitable to perform the process which calculates | requires a boundary by extending the calculated | required edge point as needed.
[0022]
FIG. 3 schematically shows gradients calculated by spatial differentiation in the step edge portion (a) where the luminance changes sharply and the shadow portion (b) where the luminance changes gently. Since the peak value appears clearly at the step edge part, the peak value can be extracted by threshold processing. However, since the peak value does not appear in the shadow area, the boundary is extracted using the threshold value. Is difficult.
[0023]
Therefore, after extracting the step edge in S101 and S102, the CPU 18 determines whether or not the boundary of the shadow area is extracted from the original image (S103). This determination is based on the fact that, depending on the object, the entire edge can be extracted with only the step edge, and the necessity of extracting the boundary of the shadow region may be low. Specifically, when it is considered that the extracted step edge is closed and no missing portion exists, it is considered that the shadow area extraction processing is unnecessary.
[0024]
When it is determined that shadow area extraction is necessary, the CPU 18 uses the gradient data calculated in S101 to extract pixels having substantially the same gradient direction, and groups these pixels (S104). Since the shaded area is a change in luminance that can be formed in a shadow portion when light is irradiated on the object from one direction, the gradient is in a certain direction. In other words, a shadow region can be extracted by extracting a pixel group having a constant gradient. Specifically, pixel groups in which the difference in gradient direction between adjacent pixels is within a predetermined value (for example, ± 5 degrees) can be grouped with pixel groups having substantially the same gradient direction. For grouping, for example, the same flag may be set for pixel groups having substantially the same gradient direction.
[0025]
After extracting the shadow area, the step edge extracted in S101 and S102 and the shadow area extracted in S103 are integrated to extract a complete whole edge of the object (S105). As an integration method, there are simple addition of the step edge and the shadow area edge, weight addition of the step edge and the shadow area edge, and the like. In the case of performing weighted addition, it is preferable to give a higher weight to the higher accuracy in consideration of the calculation accuracy of the step edge and the calculation accuracy of the shadow region in a portion where the step edge and the shadow region edge overlap each other. Note that the edge of the shadow area can be extracted by selecting, for example, a boundary pixel of a pixel group with the same flag. The entire edge of the object obtained by integrating the step edge and the shadow area edge is supplied to the display control unit 20 and displayed on the display. It is also preferable to specify the type of an object from the entire edges obtained by integration and display the type of the object on a display. For this purpose, a database for storing the relationship between the entire edge and the type of object may be provided in advance.
[0026]
FIG. 4 schematically shows the processing described above. (A) is an original image, and it is assumed that a solid object 100 and a planar object 102 exist. (B) is the figure which calculated the gradient by carrying out the space differentiation of the original image, extracted the step edge by threshold processing. For the planar object 102, the step edge 102a is closed, and the entire shape of the object can be obtained by extracting the step edge 102a. However, in the case of the three-dimensional object 100, only a part is extracted as the step edge 100a. The lower right portion in the figure is a shaded area in which the luminance changes gently, so that the edge is lost. Therefore, in order to extract the entire edge of the three-dimensional object 100, the shadow area of the three-dimensional object 100 is extracted. (C) schematically shows the gradient direction of the original image with arrows. A gradient having substantially the same direction, that is, a pixel group in which the difference in gradient direction is equal to or less than a predetermined value is indicated by reference numeral 103 in the figure. It is shown.
[0027]
Note that when determining whether or not the gradient directions are substantially the same, it is also preferable to make a determination only for an area that is considered to be a shadow area, instead of making a determination for all the pixels of the original image. Specifically, a part where the extracted step edge of the object is missing is regarded as a shadow area, a processing window is set near the missing part, and pixels existing in the window have substantially the same gradient direction. It is determined whether or not. In (b), the window 104 shows the processing window set in the part where the edge is missing. By setting the window, it is possible to improve the processing efficiency and reduce the time required for grouping.
[0028]
(D) is a group of pixels having substantially the same gradient direction (no window is set), and other portions are deleted, and corresponds to a shaded area of the three-dimensional object 100. (E) is obtained by extracting the boundary of the shadow area extracted in (d). In the figure, almost the entire contour of the three-dimensional object 100 is extracted, but depending on the object, only a part of the contour may be extracted. Since the shaded area is formed according to the degree of unevenness or curved surface of the object surface, in the case of an object with a large degree of unevenness, the boundary of the shaded area occupies a large specific gravity in the entire contour.
[0029]
(F) is obtained by integrating the boundary of the shadow area extracted in (e) and the step edge extracted in (b), and a complete contour is obtained not only for the planar object but also for the three-dimensional object 100. It has been. The integration is performed by weighted addition of the step edge of (b) and the shadow area boundary of (e). Specifically, the step edge is determined at the portion where the step edge of (b) and the boundary of (e) overlap. (Step edge weight is set to 1 and shadow area boundary weight is set to 0), and a shadow area boundary is selected in a portion where a step edge is missing. The reason why the step edge is prioritized at the portion where the step edge and the shadow area boundary overlap is because of an error in grouping when extracting the shadow area.
[0030]
As described above, in this embodiment, the step edge is extracted, and when the step edge is missing, the shadow area is extracted under the condition that the gradient directions are substantially the same, and the step edge and the shadow area boundary are extracted. By integrating, it is also possible to extract objects with smooth curved surfaces such as human hands and fingers in scenes consisting of complicated backgrounds that have been difficult to extract, from backgrounds of similar colors. Enabled,
The object recognition rate can be improved.
[0031]
In this embodiment, in order to extract a shadow area, an area having substantially the same gradient direction (spatial differentiation) is extracted, but extraction is performed using the second-order derivative (secondary differentiation) of the luminance of the original image. You can also. It is equivalent that the gradient directions are substantially the same and the second-order differential value is substantially zero.
[0032]
FIG. 5 shows a processing flowchart in this case. First, first-order differentiation (first-order differentiation) or spatial differentiation of the original image is calculated (S201). After calculating the spatial differentiation, a step edge can be extracted by performing threshold processing, non-maximum value suppression processing, and further thinning processing.
[0033]
Next, instead of extracting a pixel group having substantially the same gradient direction, the spatial differentiation is further differentiated to calculate a second-order differentiation (S202). However, the second-order differentiation is limited to the first-order differentiation, that is, the region where the value of the spatial differentiation is not zero. This is because even in a region that is not originally a shaded region, a region having a spatial differential of 0 has a second-order differential value of 0, and the second-order differential value alone cannot identify both. After calculating the second derivative, pixels whose second derivative value is substantially 0, specifically, the absolute value of the second derivative is smaller than a predetermined value ε near 0, and the same flag is set to these pixels. And grouping (S203). The grouped pixel group represents a shaded area, and the entire contour of the object can be extracted by extracting the boundary and integrating it with the step edge (S204).
[0034]
In the present embodiment, step edges are first extracted, and when the step edges are missing and not closed, a shadow area is extracted and integrated, but for example, as shown in FIG. In addition, when the shadow region occupies most of the contour of the object, it is possible to first extract the shadow region and extract the step edge region based on the result.
[0035]
FIG. 6 shows a schematic processing flowchart in this case. First, a shadow area is extracted from the original image (S301). This processing can be extracted by differentiating the original image once (spatial differentiation) and grouping pixels having substantially the same gradient direction as in the above-described processing, or for pixels whose first-order differentiation value is not 0. Extraction can be performed by grouping pixels whose second-order differential values are substantially zero. After extracting the shadow region, a processing window is set on the extension line of the shadow region boundary, and the step edge is extracted by thresholding the first-order differential value in the processing window (S302) . When extracting scan Teppuejji, it may of course be subjected to non-maximum value suppression processing and thinning processing.
[0036]
In this embodiment, since the first-order differential value is used again after the second-order differential value is used, when calculating the second-order differential value after calculating the first-order differential value, the calculated 2 It is preferable to store the first order differential value in a different area of the memory from the first order differential value. It is also preferable to set the processing window sufficiently large in consideration of errors due to grouping when setting the processing window for the missing part of the shadow area boundary.
[0037]
In addition, when extracting the shadow area after extracting the step edge and integrating both, it is also possible to feed back the extraction result of the shadow area to the step edge extraction and correct the step edge extraction for higher accuracy. It is.
[0038]
FIG. 7 shows a processing flowchart in this case. First, processing similar to S101 and S102 is performed to extract step edges from the original image (S401). Next, it is determined whether or not the step edge has been sufficiently extracted, that is, whether or not the boundary of the shadow area needs to be extracted as in S103 (S402), and if the shadow area needs to be extracted, Similar to S104, pixels having substantially the same gradient direction are grouped to extract a shadow region, and the boundary is extracted (S403). Of course, the shadow area may be extracted using the second-order differential value.
[0039]
After extracting the shadow area and its boundary, the identity of the step edge extracted in S401 and the shadow area boundary extracted in S403 is determined. The identity is to determine whether the step edge and the reference area boundary belong to the same object. Specifically, whether the shadow area boundary exists on the extension line of the step edge or vice versa. Judgment is made based on whether or not a step edge exists on the extension line of the shadow area. And, for example, if the ratio of the shadow region boundary extracted is larger than the step edge, or the degree of gradient direction in grouping is high, and if the step edge does not exist on the extension line of the shadow region boundary, It is determined that the extraction accuracy of the step edge is not sufficient, and the process returns to S401 again to repeat the step edge extraction process. When performing step edge extraction processing again, it is possible to perform processing with higher accuracy, such as setting a processing window on the extended line of the shadow area boundary and correcting the threshold value to a higher value in threshold processing. Is preferred. Thereby, the extraction precision of a step edge can be raised and the outline of an object can be extracted more accurately.
[0040]
Although the embodiment of the present invention has been described above, the various processes shown in the present embodiment, specifically, the processes of FIGS. 2 and 5 to 7 are installed in a computer from a medium on which a processing program is recorded. Can be realized by sequentially executing. For example, in the case of FIG. 2, the processing program is stored in advance as a routine for calculating a difference between adjacent pixel data (luminance data) of the original image, a routine for storing the calculated difference value, that is, a spatial differential value at a predetermined address in the memory. A routine for reading out a predetermined threshold value from the memory and comparing it with the difference value to extract a step edge, a routine for storing the extracted step edge data in the memory, and calculating whether or not the step edge data constitutes a closed curve Routine, the difference value stored in the memory, that is, the spatial differential value is read, and it is determined whether or not the angle formed by the adjacent pixel data is below a certain value. Routine for setting a flag, demarcating the boundary by setting another flag for the pixel located at the boundary of the pixel group for which the flag is set Routine, and the boundary data of the stored step edge data and shaded area in the memory may include a routine for outputting to the display control unit integrated. The medium for storing the processing program includes any medium that can hold information electromagnetically, optically, or chemically, such as a CD-ROM, DVD, hard disk, or semiconductor memory.
[0041]
【The invention's effect】
According to the present invention, it is possible to reliably extract an edge in an image, particularly a shadow region having a gentle luminance change. This makes it possible to easily extract an object that has been difficult to detect in the past, such as a human hand or finger in a scene having a complicated background, and improve the accuracy of object recognition.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram of an embodiment.
FIG. 2 is a processing flowchart of the embodiment.
FIG. 3 is an explanatory diagram showing a relationship between a luminance change and a luminance gradient.
FIG. 4 is a schematic explanatory diagram of the processing flowchart of FIG. 2;
FIG. 5 is a processing flowchart of another embodiment.
FIG. 6 is a processing flowchart of still another embodiment.
FIG. 7 is a processing flowchart of still another embodiment.
[Explanation of symbols]
10 image sensor, 12 A / D, 14 frame memory, 16 main memory, 18 CPU, 20 display control unit.

Claims (4)

画像内の物体を抽出する画像処理装置であって、
原画像の輝度を2階空間微分する微分手段と、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、
前記ステップエッジと前記陰影領域の境界を統合する統合手段と、
を有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出手段で抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする画像処理装置。
An image processing apparatus for extracting an object in an image,
Differentiating means for differentiating the brightness of the original image by the second order space,
A shadow area extracting means for grouping areas where the second-order spatial differential value is substantially 0 to extract a shadow area of the object;
Edge extraction means for extracting a step edge of the object in the original image;
Integration means for integrating the boundary between the step edge and the shaded area;
And the differential means performs the second-order spatial differentiation by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0 , and the edge extraction means When the step edge of the object extracted in step 1 does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the second-order spatial differentiation is performed in the processing window. Image processing device.
画像内の物体を抽出する画像処理装置であって、
原画像の輝度を2階空間微分する微分手段と、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出手段と、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出手段と、
前記ステップエッジと前記陰影領域の境界を統合する統合手段と、
を有し、前記微分手段は、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、
前記エッジ抽出手段は、前記陰影領域抽出手段で抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする画像処理装置。
An image processing apparatus for extracting an object in an image,
Differentiating means for differentiating the brightness of the original image by the second order space,
A shadow area extracting means for grouping areas where the second-order spatial differential value is substantially 0 to extract a shadow area of the object;
Edge extraction means for extracting a step edge of the object in the original image;
Integration means for integrating the boundary between the step edge and the shaded area;
And the differentiating means performs the second-order spatial differentiation by further differentiating only the region where the spatial differential value of the luminance of the original image is not 0,
The edge extracting means sets a processing window on an extension line of the shadow area boundary of the object extracted by the shadow area extracting means, and extracts the step edge in the processing window. .
画像内の物体を抽出する画像処理方法であって、
原画像の輝度を2階空間微分する微分ステップと、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、
前記ステップエッジと前記陰影領域の境界を統合する統合ステップと、
を有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、かつ、前記エッジ抽出ステップで抽出された前記物体の前記ステップエッジが閉曲線を構成しておらず欠落している場合に、該欠落部分に処理ウィンドウを設定し該処理ウィンドウ内において前記2階空間微分することを特徴とする画像処理方法
An image processing method for extracting an object in an image,
A differentiation step for second-order spatial differentiation of the luminance of the original image;
A shadow region extraction step of grouping regions where the second-order spatial differential value is substantially zero to extract a shadow region of the object;
An edge extraction step of extracting a step edge of the object in the original image;
An integration step of integrating a boundary between the step edge and the shaded area;
In the differentiation step, the second-order spatial differentiation is performed by further spatially differentiating only a region where the spatial differential value of the luminance of the original image is not 0, and the edge extraction step When the step edge of the object extracted in step 1 does not constitute a closed curve and is missing, a processing window is set in the missing portion, and the second-order spatial differentiation is performed in the processing window. Image processing method .
画像内の物体を抽出する画像処理方法であって、
原画像の輝度を2階空間微分する微分ステップと、
前記2階空間微分値が実質的に0の領域をグループ化して前記物体の陰影領域を抽出する陰影領域抽出ステップと、
前記原画像内の前記物体のステップエッジを抽出するエッジ抽出ステップと、
前記ステップエッジと前記陰影領域の境界を統合する統合ステップと、
を有し、前記微分ステップでは、前記原画像の輝度の空間微分値が0でない領域のみを処理対象としてさらに空間微分することにより前記2階空間微分を行うものであり、
前記エッジ抽出ステップでは、前記陰影領域抽出ステップで抽出された前記物体の前記陰影領域境界の延長線上に処理ウィンドウを設定し該処理ウィンドウ内において前記ステップエッジを抽出することを特徴とする画像処理方法
An image processing method for extracting an object in an image,
A differentiation step for second-order spatial differentiation of the luminance of the original image;
A shadow region extraction step of grouping regions where the second-order spatial differential value is substantially zero to extract a shadow region of the object;
An edge extraction step of extracting a step edge of the object in the original image;
An integration step of integrating a boundary between the step edge and the shaded area;
In the differentiating step, the second-order spatial differentiation is performed by further spatially differentiating only the region where the spatial differential value of the luminance of the original image is not 0,
In the edge extraction step, a processing window is set on an extension line of the shadow region boundary of the object extracted in the shadow region extraction step, and the step edge is extracted in the processing window. .
JP36814899A 1999-12-24 1999-12-24 Image processing apparatus and method Expired - Lifetime JP3638845B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36814899A JP3638845B2 (en) 1999-12-24 1999-12-24 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36814899A JP3638845B2 (en) 1999-12-24 1999-12-24 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2001184512A JP2001184512A (en) 2001-07-06
JP3638845B2 true JP3638845B2 (en) 2005-04-13

Family

ID=18491078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36814899A Expired - Lifetime JP3638845B2 (en) 1999-12-24 1999-12-24 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3638845B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165983A (en) * 2003-12-05 2005-06-23 Seiko Epson Corp Method for detecting jaw of human face, jaw detection system, and jaw detection program
JP4838261B2 (en) * 2004-11-18 2011-12-14 ジェンテックス コーポレイション Image collection and processing system for vehicle equipment control
JP4674179B2 (en) * 2006-03-30 2011-04-20 株式会社デンソーアイティーラボラトリ Shadow recognition method and shadow boundary extraction method
JP4969320B2 (en) * 2007-05-31 2012-07-04 セコム株式会社 Image processing device
JP5294684B2 (en) * 2008-04-30 2013-09-18 株式会社フオトクラフト社 Manufacturing method and apparatus for three-dimensional relief
JP6183038B2 (en) * 2012-11-15 2017-08-23 株式会社リコー Region extraction apparatus, region extraction method and program
JP6130325B2 (en) * 2014-04-24 2017-05-17 本田技研工業株式会社 Road environment recognition device

Also Published As

Publication number Publication date
JP2001184512A (en) 2001-07-06

Similar Documents

Publication Publication Date Title
US8331619B2 (en) Image processing apparatus and image processing method
US9519968B2 (en) Calibrating visual sensors using homography operators
KR100761641B1 (en) Apparatus and method for correcting distortion of input image
US7889947B2 (en) Image completion
US9049397B2 (en) Image processing device and image processing method
CN102834845A (en) Method and arrangement for multi-camera calibration
CN102750538B (en) A kind of weiqi game interpretation of result method based on image processing techniques
JP6307873B2 (en) Object line detection apparatus, method, and program
CN111754536B (en) Image labeling method, device, electronic equipment and storage medium
CN111220235B (en) Water level monitoring method and device
JP3078166B2 (en) Object recognition method
KR20190080388A (en) Photo Horizon Correction Method based on convolutional neural network and residual network structure
CN106651782A (en) ViBe-oriented foreground ghosting removal method
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP3638845B2 (en) Image processing apparatus and method
KR101377910B1 (en) Image processing method and image processing apparatus
KR101524074B1 (en) Method for Image Processing
US11023706B2 (en) Measurement system and measurement method
JP2005267465A5 (en)
JP3772845B2 (en) Image processing program, image processing apparatus, and photographing apparatus
KR100782254B1 (en) Method for detecting word regions using camera
JP2008077489A (en) Image processor, method, program, and storage medium
JPH06281421A (en) Image processing method
CN111539970B (en) Checkerboard angular point detection method suitable for structured light three-dimensional reconstruction
KR100730571B1 (en) Object detection method using color similarity image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040514

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040514

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20040514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050112

R150 Certificate of patent or registration of utility model

Ref document number: 3638845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120121

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130121

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130121

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term