JP4009163B2 - Object detection apparatus, object detection method, and object detection program - Google Patents
Object detection apparatus, object detection method, and object detection program Download PDFInfo
- Publication number
- JP4009163B2 JP4009163B2 JP2002255886A JP2002255886A JP4009163B2 JP 4009163 B2 JP4009163 B2 JP 4009163B2 JP 2002255886 A JP2002255886 A JP 2002255886A JP 2002255886 A JP2002255886 A JP 2002255886A JP 4009163 B2 JP4009163 B2 JP 4009163B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- brightness
- images
- object detection
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知装置、物体検知方法および物体検知プログラムに関し、特に、物体の検知漏れを減らすとともに、物体の明暗の差が大きい場合にも、その詳細を正確に認識することができる物体検知装置、物体検知方法および物体検知プログラムに関する。
【0002】
【従来の技術】
従来、撮影装置を用いて撮影した映像を画像処理することによって映像中の物体を検知する物体検知装置では、まず、撮影した画像に映された物体を検出し、次に、検出した物体の詳細を認識するという二段階の処理によって物体の検知をおこなっている。
【0003】
たとえば、建物入り口付近に設置したITVカメラで侵入者を監視する物体検知装置では、まず、ITVカメラを用いて撮影した画像から監視領域に入る物体を検出し、検出した物体が人である場合には、さらに顔やネームプレート等の詳細を認識して侵入者を検知している。
【0004】
しかし、ITVカメラを使った従来の物体検知装置では、特に雨が降った夜間などは、路面に写った車の影やヘッドライトなどを侵入者と誤検知する一方で、本来検知すべき侵入者を見逃してしまうという問題があった。
【0005】
また、物体検知装置が監視する領域の明暗の差が大きい場合には、1台の撮影装置で様々な明るさの領域を明瞭に撮影することができないという問題があった。たとえば、侵入者の一部に影がかかると、影のある部分と影のない部分の明暗の差が大きく、侵入者の顔やネームプレートなどを明瞭に撮影することができない。これは、ITVカメラが撮影できるダイナミックレンジが狭く、明暗の差が大きい物体を撮影できないために起こるものである。
【0006】
このような問題に対して、特開平10−136269号公報には、撮影装置の撮像素子の偶数ラインと奇数ラインの露光時間を交互に変えることで異なる露光量の映像を生成し、それらを合成することで撮影装置のダイナミックレンジを広げる技術が開示されている。
【0007】
【発明が解決しようとする課題】
しかしながら、この従来技術では、露光時間を変えて偶数ライン、奇数ラインの2枚の映像を交互に撮影しているため、物体が動いている場合に、物体の映像に差異が生じるという問題があった。
【0008】
この発明は、上述した従来技術による問題点を解消するためになされたものであり、物体の検知漏れを減らすとともに、物体の明暗の差が大きい場合にも、その詳細を正確に認識することができる物体検知装置、物体検知方法および物体検知プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上述した課題を解決し、目的を達成するため、本発明は、撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知装置であって、露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定手段と、前記物体特定手段が特定した物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手段とを備えたことを特徴とする。
【0010】
また、本発明は、撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知方法であって、露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定工程と、前記物体特定工程において特定された物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成工程とを含んだことを特徴とする。
【0011】
また、本発明は、撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知プログラムであって、露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定手順と、前記物体特定手順において特定された物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手順とをコンピュータに実行させることを特徴とする。
【0012】
かかる発明によれば、露光量を異なるように設定した複数の撮影装置が所定の領域を撮影した複数の画像について、変換元画像の輝度と変換先画像の輝度との関係をあらわす輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から物体を特定し、特定された物体に対応する画像領域について、複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成することとしたので、物体検出処理を精度良く行う際に必要となる課題である、物体特定および広ダイナミックレンジの合成画像の取得という課題を、露光量が異なる入力画像を用いて両立することによって、物体の明暗の差が大きい場合にも、その詳細を正確に認識することができる。
【0013】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る物体検知装置、物体検知方法および物体検知プログラムの好適な実施の形態を詳細に説明する。
【0014】
(実施の形態1)
まず、本実施の形態1に係る物体検知装置の概念について説明する。図1は、本実施の形態1に係る物体検知装置の概念を説明するための説明図である。なお、この物体検知装置は、建物の入り口等に設置され、建物への不審者の侵入を検知するために使われる。
【0015】
同図に示すように、この物体検知装置では、露光量が異なる2台のカメラで監視領域を撮影し、2台のカメラが撮影した二つの画像から、それぞれ露光量が適正な画像部分を取り出して一つの全体画像を合成し、あたかもダイナミックレンジの広い一つのカメラで撮影したかのような画像を得ることとしている。
【0016】
すなわち、2台のカメラの露光量を異なる値に設定し、明るさの異なる二つ画像を撮影する。たとえば、図1において、一方のカメラは日陰の部分が明瞭に撮影できるように露光量を設定し、他方のカメラは日向の部分が明瞭に撮影できるように露光量を設定する。
【0017】
そして、明るさの異なる二つの画像からダイナミックレンジの広い合成画像を生成し、生成した合成画像を用いて物体の詳細を認識することとしている。なお、ここでは、2台のカメラを用いた場合について説明したが、カメラの台数を増やすことによって、よりダイナミックレンジの広い合成画像を得ることができる。
【0018】
このように、本実施の形態1では、露光量が異なる複数のカメラで監視領域を撮影し、撮影した複数の画像から、それぞれ露光量が適正な画像部分を取りだして一つのダイナミックレンジの広い画像を合成し、この合成画像を用いて物体の詳細を認識することとしたので、監視領域の明暗の差が大きい場合にも、不審者の侵入を正しく検知することができる。
【0019】
次に、本実施の形態1に係る物体検知装置の構成について説明する。図2は、本実施の形態1に係る物体検知装置の構成を示す機能ブロック図である。同図に示すように、この物体検知装置200は、n台のカメラ201と、画像取込部202と、物体検出部203と、画像合成部204と、詳細認識部205と、画像データ記憶部206と、設置条件記憶部207と、表示装置208と、撮像素子駆動部209と、制御部210とを有する。
【0020】
カメラ201は、露光量を調節することができる撮影装置であり、光学レンズ、CCD、CMOSセンサなどの撮像素子と、撮像素子の露光量を制御する絞り(アイリス)と、電子式シャッタを少なくとも有する。
【0021】
また、この物体検知装置200では、図3に示すように、n台のカメラ201の露光量を、1番目のカメラ201からn番目のカメラ201にいくほど露光量が少なくなるように、絞りあるいはシャッタースピードを調整する。すなわち、1番目のカメラ201からn番目のカメラ201にいくほどより明るい対象物体を撮影できるように、絞りあるいはシャッタースピードを調整する。
【0022】
画像取込部202は、各カメラ201の出力するアナログ映像信号を増幅し、増幅したアナログ映像信号をデジタル映像信号へ変換する処理部であり、デジタル映像信号から得られる画像データを画像データ記憶部208に格納する。
【0023】
物体検出部203は、画像データ記憶部208に格納された画像データを用いて、監視領域に入る物体を検出する処理部である。具体的には、ステレオ画像処理を用いてカメラ201から物体までの距離を算出し、算出した物体までの距離と事前に求めておいたカメラ201から背景までの距離とを比較することによって監視領域に入る物体を検出する。なお、ステレオ画像処理の詳細については後述する。
【0024】
画像合成部204は、n台のカメラ201が撮影したn個の画像から、それぞれ露光量が適正な画像部分を取りだしてダイナミックレンジの広い一つの画像を生成する処理部である。具体的には、この画像合成部204は、n個の画像の位置ずれを補正し、補正した画像を重ね合わせ、重なりが生じた画素については、重なった各画素の輝度の平均値をその画素の輝度とすることによって合成画像を生成する。
【0025】
このように、この画像合成部204が、n台のカメラ201が所定のダイナミックレンジでそれぞれ撮影した画像から、それぞれ露光量が適正な画像部分を取り出して一つの広ダイナミックレンジの画像を合成することとしたので、物体検知装置200は、日向部分と日陰部分が混在するような明暗の差が大きい物体でも正しく認識することができる。
【0026】
詳細認識部205は、画像合成部204が作成した広ダイナミックレンジの画像を用いて物体の詳細を認識する処理部である。この詳細認識部205は、明瞭に撮影された画像であれば、人の顔やネームプレートなどを正確に認識することができる。
【0027】
画像データ記憶部206は、各カメラ201が撮影した画像を記憶する記憶部である。また、この画像データ記憶部206は、画像処理途中の画像および合成画像などの画像も記憶する。
【0028】
設置条件記憶部207は、各カメラ201と背景との距離およびこれらの距離のカメラ201間での差など、物体検知装置200の設置条件に関するデータを記憶した記憶部である。なお、これらのデータは物体検出部203や画像合成部204などで使用される。
【0029】
表示装置208は、カメラ201が撮影した映像や画像合成部204が合成した画像などを表示する装置である。撮像素子駆動部209は、カメラ201に同期信号を与え、撮像素子の動作を制御する処理部であり、特に撮像素子の動作時間を制御する。
【0030】
制御部210は、この物体検知装置200全体の制御を行う処理部であり、各処理部および記憶部間で必要となる画像データの受け渡しや次の処理の選択などをおこなう。
【0031】
次に、ステレオ画像処理を用いた対象物体までの距離算出手法について説明する。図4は、ステレオ画像処理を用いた対象物体までの距離算出手法を説明するための説明図である。同図に示すように、ステレオ画像処理は、2台のカメラで同一物体を撮影し、この同一物体の2台のカメラからの見え方の違い(視差)に基づいて、カメラから対象物体までの距離を算出する手法である。
【0032】
図4において、2台のカメラ間の距離をb、両方のカメラの焦点距離をf、2台のカメラによる視差をuL−uRとすると、カメラから対象物体までの距離h(x,y)は、
h(x,y)=fb/(uL−uR)
となる。したがって、視差uL−uRを求めることによって、カメラから対象物体までの距離を計算することができる。
【0033】
ただし、図2に示した物体検知装置200では、カメラ201ごとに露光量が異なるために、2台のカメラ201で撮影された二つの画像では、同一物体が別の明るさとなって撮影されている。そこで、この物体検知装置200は、ステレオ画像処理で必要となる二画像中の同一物体を得るために、明るさの撮像範囲が隣り合う2台のカメラ201から得られた二つの画像のうち、露光量の少ない画像の明るさを変換する処理をおこなう。
【0034】
具体的には、この変換は、図5に一例を示すような輝度変換曲線を用いておこなう。たとえば、同図において、露光量の少ない画像のある画素の輝度が40である場合には、その画素の輝度は50に変換される。
【0035】
このように、この物体検知装置200は、図5に示した輝度変換曲線を用いて露光量の少ない画像の輝度を調整し、この輝度を調整した画像と露光量の多い画像において同一の輝度を有する物体を、ステレオ画像処理の対象物体として選定する。
【0036】
また、この物体検知装置200は、n台のカメラ201について、ダイナミックレンジが隣り合う2台のカメラ201のすべての対に対してステレオ画像処理をおこなう。そして、すべてのカメラ201の対に対してステレオ画像処理をおこなうことによって得られたn−1個の値の平均値を、カメラ201と対象物体との距離とすることとしている。
【0037】
次に、図2に示した物体検知装置200による物体検知処理の処理手順について説明する。図6は、図2に示した物体検知装置200による物体検知処理の処理手順を示すフローチャートである。なお、この物体検知装置200による物体検知処理は、一定のタイミングで繰り返し起動される。
【0038】
同図に示すように、この物体検知処理では、まず画像取込部202が、n台のカメラ201から同期のとれた画像を取り込み、画像データ記憶部206に格納する(ステップS601)。
【0039】
そして、物体検出部203が、画像データ記憶部206に記憶された画像データに対してステレオ画像処理をおこない、撮影した物体とカメラ201との距離を算出する(ステップS602)。そして、算出した距離とあらかじめ求めておいたカメラと背景との距離を比較することによって、監視領域に入った物体があるか否かを検出する(ステップS603)。
【0040】
そして、監視領域に入った物体がない場合には(ステップS603の否定)、そのまま処理を終了する。一方、監視領域に入った物体がある場合には(ステップS603の肯定)、画像合成部204が画像データ記憶部206に記憶された画像データを合成して広ダイナミックレンジの画像を生成する(ステップS604)。
【0041】
そして、生成された広ダイナミックレンジの画像を用いて、詳細認識部205が、物体の詳細な認識をおこない(ステップS605)、認識した物体が不審者であるか否かを調べる (ステップS606)。そして、認識した物体が不審者でない場合には、処理を終了する。一方、認識した物体が不審者である場合には、不審者の侵入を監視員に通知する(ステップS607)。
【0042】
このように、この物体検知処理では、画像合成部204がn台のカメラ201によって撮影された画像を用いて広ダイナミックレンジの画像を合成し、詳細認識部205が、この広ダイナミックレンジ画像を用いて物体の詳細な認識をおこなうこととしたので、不審者の侵入を精度よく検知することができる。
【0043】
次に、図2に示した画像合成部204の処理手順について説明する。図7は、図2に示した画像合成部204の処理手順を示すフローチャートである。なお、この画像合成部204の処理は、図6に示した広ダイナミックレンジ画像生成(ステップS604)に対応する。また、以下の説明では、i番目のカメラ201から得られた画像をi番目の画像と呼ぶこととする。
【0044】
図7に示すように、この画像合成部204は、まず、iを2とし(ステップS701)、i番目の画像と1番目の画像との距離の差を設置条件記憶部207から読み出し(ステップS702)、読み出した距離の差に基づいてi番目の画像をずらし、1番目の画像に重ね合わせる(ステップS703)。
【0045】
そして、二つの画像に重なる画素がある場合には、重なった画素の輝度を加算するとともに重なりの数を記憶する(ステップS704)。そして、iに1を加算し(ステップS705)、iがnより大きいか否かを調べ(ステップS706)、iがn以下である場合には、ステップS702に戻って、次の画像を1番目の画像に重ねる処理をおこなう。
【0046】
一方、n番目までの画像を重ねる処理が終了した場合には、重なりを有する画素に対して、加算された輝度と重なりの数からその画素の輝度の平均値を求め(ステップS707)、求めた平均値を合成画像の輝度とする。
【0047】
上述してきたように、本実施の形態1では、n台のカメラ201を用いて監視領域を撮影し、撮影した画像をステレオ画像処理することによって監視領域に入る物体を検出し、監視領域に入る物体を検出した場合には、露光量の異なるn個の画像から広ダイナミックレンジの合成画像を生成して物体の詳細を認識することとしたので、物体の検知漏れを減らすとともに、物体の明暗の差が大きい場合にも、その詳細を正確に認識することができる。
【0048】
なお、本実施の形態1では、n台のカメラ201の全てを用いてステレオ画像処理や画像合成処理をおこなう場合について説明したが、全てのカメラ201に物体が写らない場合もある。そのような場合には、それぞれのカメラ201が、一定時間間隔で撮影した二つの画像を比較するなどの他の手法を用いて、監視領域に入る物体を検出することができる。
【0049】
(実施の形態2)
ところで、上記実施の形態1では、カメラ201の露光量を最初に設定し、その後は露光量を変更しない場合について説明をおこなった。しかしながら、監視領域の明るさは時間によって変動するため、一日の時間帯によっては、最初に設定した撮像範囲が適当でない場合が生じる。そこで、本実施の形態2では、カメラの露光量を監視領域の明るさに応じて制御しながら撮影する場合について説明する。
【0050】
具体的には、一日のある時間帯における監視領域の一番明るい部分および一番暗い部分に着目して2台のカメラ201の露光量を設定し、残りのカメラ201の露光量は、その間の露光量を等分割するように露光量の制御を行う。また、露光量はカメラ201の絞り(アイリス)とシャッタ速度を用いて制御する。
【0051】
そして、監視領域が暗くなると露光量を増やし、逆に監視領域が明るくなると露光量を減らすようにカメラ201を制御することで、物体の検知に適正な露光量の画像が得られるようにする。この場合、日陰部分の明るさは一日を通じて変化がないので、日陰部分を撮像範囲とするカメラ201はほぼ同じ露光量を保っておく。
【0052】
図8は、本実施の形態2に係る物体検知装置の構成を示す機能ブロック図である。なお、ここでは説明の便宜上、図2に示した各部と同様な役割を果たす機能部については同一符号を付すことにしてその詳細な説明を省略する。
【0053】
同図に示すように、この物体検知装置800は、図2に示した物体検知装置200の制御部210に代えて制御部810を有し、また、新たな機能部としてアイリス駆動部801を有する。
【0054】
アイリス駆動部801は、監視領域の明るさが変化した場合にもカメラ201から得られる画像の輝度が所定の値になるように、n台のカメラ201の絞り(アイリス)を開閉する制御部である。制御部810は、図2に示した制御部210と同様に物体検知装置全体の制御を行う制御部である。
【0055】
上述してきたように、本実施の形態2では、アイリス駆動部801が監視領域の明るさの変化に対応してカメラ201の露光量を制御することとしたので、各カメラ201の露光量をその時点での監視領域の明るさの範囲に対応した最適な値に設定することができ、撮影に必要なカメラ201の数を最小限にすることができる。
【0056】
(付記1)撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知装置であって、
露光量の異なる複数の撮影装置が前記所定の領域を撮影した複数の画像から、それぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手段と、
前記画像合成手段により生成された合成画像を用いて前記物体を認識する物体認識手段と、
を備えたことを特徴とする物体検知装置。
【0057】
(付記2)前記所定の領域の明るさの範囲を少なくとも網羅して撮影するようにそれぞれの撮影装置の露光量を定めたことを特徴とする付記1に記載の物体検知装置。
【0058】
(付記3)前記画像合成手段は、前記複数の撮影装置の設置位置の違いに起因する前記複数の画像の位置ずれを補正し、補正した画像を重ね合わせて前記合成画像を生成することを特徴とする付記1または2に記載の物体検知装置。
【0059】
(付記4)前記所定の領域に入る物体と前記複数の撮影装置との距離を算出し、算出した距離に基づいて該物体を検出する物体検出手段をさらに備え、前記物体検出手段により物体が検出された場合に、前記画像合成手段は合成画像を生成することを特徴とする付記1、2または3に記載の物体検知装置。
【0060】
(付記5)ある時点での前記所定の領域の明るさの範囲を網羅して撮影するように前記複数の撮影装置の絞りを制御し、該複数の撮影装置の露光量を適応的に変える絞り制御手段をさらに備えたことを特徴とする付記1〜4のいずれか一つに記載の物体検知装置。
【0061】
(付記6)撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知方法であって、
露光量の異なる複数の撮影装置が前記所定の領域を撮影した複数の画像から、それぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成工程と、
前記画像合成工程により生成された合成画像を用いて前記物体を認識する物体認識工程と、
を含んだことを特徴とする物体検知方法。
【0062】
(付記7)前記所定の領域の明るさの範囲を少なくとも網羅して撮影するようにそれぞれの撮影装置の露光量を定めたことを特徴とする付記6に記載の物体検知方法。
【0063】
(付記8)前記画像合成工程は、前記複数の撮影装置の設置位置の違いに起因する前記複数の画像の位置ずれを補正し、補正した画像を重ね合わせて前記合成画像を生成することを特徴とする付記6または7に記載の物体検知方法。
【0064】
(付記9)前記所定の領域に入る物体と前記複数の撮影装置との距離を算出し、算出した距離に基づいて該物体を検出する物体検出工程をさらに含み、前記物体検出工程により物体が検出された場合に、前記画像合成工程は合成画像を生成することを特徴とする付記6、7または8に記載の物体検知方法。
【0065】
(付記10)撮影装置を用いて所定の領域を撮影し、撮影した映像を画像処理することによって該所定の領域に入る物体を検知する物体検知プログラムであって、
露光量の異なる複数の撮影装置が前記所定の領域を撮影した複数の画像から、それぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手順と、
前記画像合成手順により生成された合成画像を用いて前記物体を認識する物体認識手順と、
をコンピュータで実行することを特徴とする物体検知プログラム。
【0066】
【発明の効果】
以上説明したように、本発明によれば、露光量を異なるように設定した複数の撮影装置が所定の領域を撮影した複数の画像について、変換元画像の輝度と変換先画像の輝度との関係をあらわす輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から物体を特定し、特定された物体に対応する画像領域について、複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成するよう構成したので、物体検出処理を精度良く行う際に必要となる課題である、物体特定および広ダイナミックレンジの合成画像の取得という課題を、露光量が異なる入力画像を用いて両立することによって、物体の明暗の差が大きい場合にも、その詳細を正確に認識することができるという効果を奏する。
【図面の簡単な説明】
【図1】 本実施の形態1に係る物体検知装置の概念を説明するための説明図である。
【図2】 本実施の形態1に係る物体検知装置の構成を示す機能ブロック図である。
【図3】 図2に示したn台のカメラの撮像範囲を説明するための説明図である。
【図4】 ステレオ画像処理を用いた対象物体までの距離算出手法を説明するための説明図である。
【図5】 輝度変換曲線の一例を示す図である。
【図6】 図2に示した物体検知装置による物体検知処理の処理手順を示すフローチャートである。
【図7】 図2に示した画像合成部の処理手順を示すフローチャートである。
【図8】 本実施の形態2に係る物体検知装置の構成を示す機能ブロック図である。
【符号の説明】
200,800 物体検知装置
201 カメラ
202 画像取込部
203 物体検出部
204 画像合成部
205 詳細認識部
206 画像データ記憶部
207 設置条件記憶部
208 表示装置
209 撮像素子駆動部
210,810 制御部
801 アイリス駆動部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an object detection apparatus, an object detection method, and an object detection program that detect an object entering a predetermined area by imaging a predetermined area using an imaging apparatus and performing image processing on the captured video. The present invention relates to an object detection apparatus, an object detection method, and an object detection program capable of reducing the detection omission of an object and accurately recognizing the details even when the difference in brightness of the object is large.
[0002]
[Prior art]
Conventionally, in an object detection device that detects an object in a video by performing image processing on a video shot using a shooting device, first, the object reflected in the shot image is detected, and then the details of the detected object The object is detected by a two-stage process of recognizing the object.
[0003]
For example, in an object detection device that monitors an intruder with an ITV camera installed near the entrance of a building, first, an object that enters a monitoring area is detected from an image captured using the ITV camera, and the detected object is a person. Also recognizes details such as faces and nameplates to detect intruders.
[0004]
However, in the conventional object detection device using an ITV camera, especially in the night when it rains, the intruder to be detected should be detected while detecting the shadow of the car on the road or the headlight as an intruder. There was a problem of overlooking.
[0005]
In addition, when there is a large difference in brightness between the areas monitored by the object detection device, there is a problem in that it is impossible to clearly capture various brightness regions with a single imaging device. For example, when a shadow is applied to a part of an intruder, the difference in brightness between a shadowed part and a part without a shadow is large, and the intruder's face and name plate cannot be clearly photographed. This occurs because the dynamic range that can be captured by the ITV camera is narrow and an object with a large difference in brightness cannot be captured.
[0006]
In order to solve such a problem, Japanese Patent Application Laid-Open No. 10-136269 generates images with different exposure amounts by alternately changing the exposure times of the even and odd lines of the image sensor of the photographing apparatus, and synthesizes them. Thus, a technique for expanding the dynamic range of the photographing apparatus is disclosed.
[0007]
[Problems to be solved by the invention]
However, this conventional technique has a problem that when the object is moving, there is a difference in the image of the object because the two images of the even line and the odd line are alternately photographed by changing the exposure time. It was.
[0008]
The present invention has been made to solve the above-mentioned problems caused by the prior art, and can reduce the omission of detection of an object and accurately recognize the details even when the difference in brightness of the object is large. An object detection device, an object detection method, and an object detection program are provided.
[0009]
[Means for Solving the Problems]
In order to solve the above-described problems and achieve the object, the present invention captures a predetermined area using an imaging apparatus, and detects an object that enters the predetermined area by performing image processing on the captured video. A plurality of images obtained by photographing the predetermined area by a plurality of photographing devices having different exposure amounts.Of the two images captured by the two imaging devices having the same brightness imaging range, the brightness of one image is converted to the brightness of the other image.Using the brightness conversion curve, brightness adjustment between images is performed, an object specifying unit that specifies the object from the image after brightness adjustment, and an image area corresponding to the object specified by the object specifying unit, from the plurality of images Image combining means for extracting an image portion with an appropriate exposure amount and generating a composite image is provided.
[0010]
In addition, the present invention is an object detection method for detecting an object entering a predetermined area by imaging a predetermined area using an imaging device and performing image processing on the captured video so that the exposure amount is different. A plurality of images obtained by photographing the predetermined area by a plurality of set photographing devicesOf the two images captured by the two imaging devices having the same brightness imaging range, the brightness of one image is converted to the brightness of the other image.A plurality of images for adjusting the brightness between images using a brightness conversion curve, specifying the object from the image after brightness adjustment, and an image area corresponding to the object specified in the object specifying process And an image synthesizing step of generating a synthesized image by taking out image portions each having an appropriate exposure amount.
[0011]
Further, the present invention is an object detection program for detecting an object entering a predetermined area by imaging a predetermined area using an imaging apparatus and performing image processing on the captured video so that the exposure amount is different. A plurality of images obtained by photographing the predetermined area by a plurality of set photographing devicesOf the two images captured by the two imaging devices having the same brightness imaging range, the brightness of one image is converted to the brightness of the other image.The plurality of images for an object specifying procedure for performing brightness adjustment between images using a brightness conversion curve, specifying the object from the image after brightness adjustment, and an image region corresponding to the object specified in the object specifying procedure The computer is caused to execute an image composition procedure for extracting an image part with an appropriate exposure amount and generating a composite image.
[0012]
According to this invention,Luminance between images using a luminance conversion curve that represents the relationship between the luminance of the conversion source image and the luminance of the conversion destination image for a plurality of images obtained by photographing a predetermined area with a plurality of imaging devices set with different exposure amounts Since the adjustment is performed, the object is specified from the image after the brightness adjustment, and the image area corresponding to the specified object is extracted from each of the plurality of images with the appropriate exposure amount, and a composite image is generated. By using both input images with different exposure amounts, it is necessary to perform both object identification and acquisition of a composite image with a wide dynamic range, which are necessary when performing object detection processing with high accuracy. Even when the difference is large, the details can be accurately recognized.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of an object detection device, an object detection method, and an object detection program according to the present invention will be described below in detail with reference to the accompanying drawings.
[0014]
(Embodiment 1)
First, the concept of the object detection device according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining the concept of the object detection device according to the first embodiment. This object detection device is installed at the entrance of a building or the like and is used to detect the intrusion of a suspicious person into the building.
[0015]
As shown in the figure, in this object detection apparatus, a monitoring area is photographed by two cameras with different exposure amounts, and image portions with appropriate exposure amounts are extracted from two images taken by the two cameras. The whole image is synthesized to obtain an image as if it were taken with one camera with a wide dynamic range.
[0016]
That is, the exposure amounts of the two cameras are set to different values, and two images with different brightness are taken. For example, in FIG. 1, the exposure amount is set so that one camera can clearly capture the shaded portion, and the exposure amount is set so that the other camera can clearly capture the sunny portion.
[0017]
Then, a composite image with a wide dynamic range is generated from two images with different brightness, and the details of the object are recognized using the generated composite image. Although the case where two cameras are used has been described here, a composite image with a wider dynamic range can be obtained by increasing the number of cameras.
[0018]
As described above, in the first embodiment, a monitoring region is captured by a plurality of cameras having different exposure amounts, and an image portion having an appropriate exposure amount is extracted from each of the captured images, and an image having a wide dynamic range is obtained. Since the details of the object are recognized using this synthesized image, the intrusion of a suspicious person can be correctly detected even when the difference in brightness of the monitoring area is large.
[0019]
Next, the configuration of the object detection device according to the first embodiment will be described. FIG. 2 is a functional block diagram showing the configuration of the object detection apparatus according to the first embodiment. As shown in the figure, the
[0020]
The
[0021]
Further, in this
[0022]
The
[0023]
The
[0024]
The
[0025]
In this way, the
[0026]
The
[0027]
The image
[0028]
The installation
[0029]
The
[0030]
The
[0031]
Next, a method for calculating the distance to the target object using stereo image processing will be described. FIG. 4 is an explanatory diagram for explaining a method for calculating a distance to a target object using stereo image processing. As shown in the figure, in stereo image processing, the same object is photographed by two cameras, and based on the difference (parallax) in how the same object is seen from the two cameras, This is a method for calculating the distance.
[0032]
In FIG. 4, the distance between two cameras is b, the focal length of both cameras is f, and the parallax between the two cameras is u.L-URThen, the distance h (x, y) from the camera to the target object is
h (x, y) = fb / (uL-UR)
It becomes. Therefore, parallax uL-URIs obtained, the distance from the camera to the target object can be calculated.
[0033]
However, in the
[0034]
Specifically, this conversion is performed using a luminance conversion curve as shown in FIG. For example, in the figure, when the luminance of a pixel of an image with a small exposure amount is 40, the luminance of the pixel is converted to 50.
[0035]
As described above, the
[0036]
In addition, the
[0037]
Next, a processing procedure of object detection processing by the
[0038]
As shown in the figure, in this object detection process, first, the
[0039]
The
[0040]
If there is no object that has entered the monitoring area (No in step S603), the process is terminated as it is. On the other hand, if there is an object that has entered the monitoring area (Yes in step S603), the
[0041]
Then, using the generated wide dynamic range image, the
[0042]
As described above, in this object detection processing, the
[0043]
Next, the processing procedure of the
[0044]
As shown in FIG. 7, the
[0045]
If there are overlapping pixels in the two images, the luminance of the overlapping pixels is added and the number of overlaps is stored (step S704). Then, 1 is added to i (step S705), and it is checked whether i is larger than n (step S706). If i is equal to or smaller than n, the process returns to step S702 to display the next image as the first image. Process to overlay the image.
[0046]
On the other hand, when the process of overlapping the nth image is completed, the average value of the luminance of the pixel is obtained from the added luminance and the number of overlaps for the overlapping pixels (step S707). Let the average value be the brightness of the composite image.
[0047]
As described above, in the first embodiment, a monitoring area is photographed using
[0048]
In the first embodiment, the case where stereo image processing and image composition processing are performed using all of the
[0049]
(Embodiment 2)
In the first embodiment, the case where the exposure amount of the
[0050]
Specifically, the exposure amounts of the two
[0051]
Then, the exposure amount is increased when the monitoring area becomes dark, and conversely, the
[0052]
FIG. 8 is a functional block diagram illustrating a configuration of the object detection device according to the second embodiment. Here, for convenience of explanation, functional units that play the same functions as the respective units shown in FIG.
[0053]
As shown in the figure, this object detection device 800 has a
[0054]
The
[0055]
As described above, in the second embodiment, the
[0056]
(Supplementary note 1) An object detection apparatus that detects an object entering a predetermined area by imaging a predetermined area using an imaging apparatus and performing image processing on the captured video image.
Image synthesizing means for generating a composite image by taking out image portions each having an appropriate exposure amount from a plurality of images obtained by photographing a plurality of the predetermined areas by a plurality of photographing devices having different exposure amounts;
Object recognition means for recognizing the object using the composite image generated by the image composition means;
An object detection device comprising:
[0057]
(Supplementary note 2) The object detection device according to supplementary note 1, wherein an exposure amount of each photographing apparatus is determined so as to photograph at least the brightness range of the predetermined region.
[0058]
(Additional remark 3) The said image synthetic | combination means correct | amends the position shift of the said some image resulting from the difference in the installation position of these imaging | photography apparatuses, and produces | generates the said synthesized image by superimposing the corrected image. The object detection apparatus according to Supplementary Note 1 or 2.
[0059]
(Additional remark 4) It further has an object detection part which calculates the distance of the object which enters into the predetermined field, and the plurality of photographing devices, and detects the object based on the calculated distance, and an object is detected by the object detection part In such a case, the image synthesizing unit generates a synthesized image.
[0060]
(Supplementary Note 5) A diaphragm that controls apertures of the plurality of imaging devices so as to cover a range of brightness of the predetermined region at a certain time point and adaptively changes an exposure amount of the plurality of imaging devices The object detection device according to any one of appendices 1 to 4, further comprising a control unit.
[0061]
(Appendix 6) An object detection method for detecting an object entering a predetermined area by imaging a predetermined area using an imaging device and performing image processing on the captured image,
An image synthesis step of generating a composite image by taking out image portions each having an appropriate exposure amount from a plurality of images obtained by photographing a plurality of the predetermined regions by a plurality of imaging devices having different exposure amounts;
An object recognition step for recognizing the object using a composite image generated by the image composition step;
The object detection method characterized by including.
[0062]
(Supplementary note 7) The object detection method according to supplementary note 6, wherein an exposure amount of each photographing apparatus is determined so as to photograph at least the brightness range of the predetermined region.
[0063]
(Additional remark 8) The said image synthetic | combination process correct | amends the position shift of the said several image resulting from the difference in the installation position of these imaging | photography apparatuses, and produces | generates the said synthesized image by superimposing the corrected image. The object detection method according to appendix 6 or 7.
[0064]
(Additional remark 9) It further includes the object detection process which calculates the distance of the object which enters the said predetermined | prescribed area | region, and these imaging devices, and detects this object based on the calculated distance, and an object is detected by the said object detection process In this case, the object detection method according to appendix 6, 7 or 8, wherein the image combining step generates a combined image.
[0065]
(Additional remark 10) An object detection program for detecting an object entering a predetermined area by imaging a predetermined area using an imaging device and performing image processing on the captured video,
An image composition procedure for generating a composite image by taking out image portions each having an appropriate exposure amount from a plurality of images obtained by photographing a plurality of the predetermined regions with a plurality of photographing devices having different exposure amounts;
An object recognition procedure for recognizing the object using a composite image generated by the image composition procedure;
Is executed by a computer.
[0066]
【The invention's effect】
As explained above, according to the present invention,Luminance between images using a luminance conversion curve that represents the relationship between the luminance of the conversion source image and the luminance of the conversion destination image for a plurality of images obtained by photographing a predetermined area with a plurality of imaging devices set with different exposure amounts Since the adjustment is performed, the object is specified from the image after the brightness adjustment, and the image area corresponding to the specified object is extracted from the plurality of images, each of which has an appropriate exposure amount, and a composite image is generated. By using both input images with different exposure amounts, it is necessary to perform both object identification and acquisition of a composite image with a wide dynamic range, which are necessary when performing object detection processing with high accuracy. Even when the difference is large, the details can be accurately recognized.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram for explaining a concept of an object detection device according to a first embodiment.
FIG. 2 is a functional block diagram illustrating a configuration of the object detection device according to the first embodiment.
3 is an explanatory diagram for describing an imaging range of n cameras shown in FIG. 2; FIG.
FIG. 4 is an explanatory diagram for explaining a method for calculating a distance to a target object using stereo image processing;
FIG. 5 is a diagram illustrating an example of a luminance conversion curve.
6 is a flowchart showing a processing procedure of object detection processing by the object detection device shown in FIG. 2;
7 is a flowchart showing a processing procedure of an image composition unit shown in FIG. 2;
FIG. 8 is a functional block diagram illustrating a configuration of an object detection device according to a second embodiment.
[Explanation of symbols]
200,800 object detection device
201 camera
202 Image capture unit
203 Object detection unit
204 Image composition unit
205 Detailed recognition unit
206 Image data storage unit
207 Installation condition storage unit
208 display device
209 Image sensor drive unit
210,810 control unit
801 Iris drive unit
Claims (5)
露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定手段と、
前記物体特定手段が特定した物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手段と
を備えたことを特徴とする物体検知装置。An object detection device that detects an object that enters a predetermined region by photographing a predetermined region using a photographing device and performing image processing on the captured image,
Among the plurality of images obtained by photographing the predetermined area by the plurality of photographing devices set to have different exposure amounts , one of the two images photographed by the two photographing devices having overlapping imaging ranges of brightness An object specifying means for performing brightness adjustment between images using a brightness conversion curve for converting the brightness of the image to the brightness of the other image, and specifying the object from the image after brightness adjustment;
Object detection comprising: an image composition unit that extracts an image part with an appropriate exposure amount from each of the plurality of images and generates a composite image for an image region corresponding to the object identified by the object identification unit apparatus.
露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定工程と、
前記物体特定工程において特定された物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成工程と
を含んだことを特徴とする物体検知方法。An object detection method for capturing an image of a predetermined area using an imaging device and detecting an object that enters the predetermined area by performing image processing on the captured image.
Among the plurality of images obtained by photographing the predetermined area by the plurality of photographing devices set to have different exposure amounts , one of the two images photographed by the two photographing devices having overlapping imaging ranges of brightness An object specifying step of performing brightness adjustment between images using a brightness conversion curve for converting the brightness of an image to the brightness of the other image, and specifying the object from the image after brightness adjustment;
An image composition step of extracting an image portion with an appropriate exposure amount from each of the plurality of images and generating a composite image for an image region corresponding to the object identified in the object identification step. Detection method.
露光量を異なるように設定した複数の撮影装置が前記所定の領域を撮影した複数の画像のうち、明るさの撮像範囲が重なる二台の前記撮影装置によって撮影された二つの画像について、一方の画像の明るさを他方の画像の明るさへ変換する輝度変換曲線を用いて画像間の輝度調整を行い、輝度調整後の画像から前記物体を特定する物体特定手順と、
前記物体特定手順において特定された物体に対応する画像領域について、前記複数の画像からそれぞれ露光量が適正な画像部分を取り出して合成画像を生成する画像合成手順と
をコンピュータに実行させることを特徴とする物体検知プログラム。An object detection program that detects an object that enters a predetermined area by imaging a predetermined area using an imaging device and performing image processing on the captured image.
Among the plurality of images obtained by photographing the predetermined area by the plurality of photographing devices set to have different exposure amounts , one of the two images photographed by the two photographing devices having overlapping imaging ranges of brightness An object specifying procedure for performing brightness adjustment between images using a brightness conversion curve for converting the brightness of the image to the brightness of the other image, and specifying the object from the image after brightness adjustment;
An image composition procedure for generating a composite image by extracting an image part with an appropriate exposure amount from each of the plurality of images for an image region corresponding to the object specified in the object specification procedure, Object detection program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002255886A JP4009163B2 (en) | 2002-08-30 | 2002-08-30 | Object detection apparatus, object detection method, and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002255886A JP4009163B2 (en) | 2002-08-30 | 2002-08-30 | Object detection apparatus, object detection method, and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004096488A JP2004096488A (en) | 2004-03-25 |
JP4009163B2 true JP4009163B2 (en) | 2007-11-14 |
Family
ID=32061265
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002255886A Expired - Fee Related JP4009163B2 (en) | 2002-08-30 | 2002-08-30 | Object detection apparatus, object detection method, and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4009163B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4706466B2 (en) * | 2005-12-16 | 2011-06-22 | 株式会社日立製作所 | Imaging device |
JP4683339B2 (en) | 2006-07-25 | 2011-05-18 | 富士フイルム株式会社 | Image trimming device |
JP4970516B2 (en) | 2009-09-30 | 2012-07-11 | 日立オートモティブシステムズ株式会社 | Surrounding confirmation support device |
JP4709309B2 (en) * | 2009-10-20 | 2011-06-22 | 株式会社パスコ | Road surface image capturing / editing device and road surface image capturing / editing program |
JP5644097B2 (en) * | 2009-12-08 | 2014-12-24 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
US8885067B2 (en) * | 2009-12-24 | 2014-11-11 | Sharp Kabushiki Kaisha | Multocular image pickup apparatus and multocular image pickup method |
JP5367640B2 (en) * | 2010-05-31 | 2013-12-11 | パナソニック株式会社 | Imaging apparatus and imaging method |
JP5283667B2 (en) * | 2010-07-07 | 2013-09-04 | パナソニック株式会社 | Image processing apparatus, image processing method, and program |
JP5411842B2 (en) * | 2010-12-07 | 2014-02-12 | シャープ株式会社 | Imaging device |
KR101439013B1 (en) | 2013-03-19 | 2014-09-05 | 현대자동차주식회사 | Apparatus and method for stereo image processing |
JP2014203114A (en) * | 2013-04-01 | 2014-10-27 | 株式会社デンソー | Object recognition device |
WO2018235256A1 (en) * | 2017-06-23 | 2018-12-27 | 株式会社日立製作所 | Stereo measurement device and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3571828B2 (en) * | 1995-10-27 | 2004-09-29 | 本田技研工業株式会社 | Environment recognition device for vehicles |
JP3570198B2 (en) * | 1998-01-07 | 2004-09-29 | オムロン株式会社 | Image processing method and apparatus |
-
2002
- 2002-08-30 JP JP2002255886A patent/JP4009163B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004096488A (en) | 2004-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5367640B2 (en) | Imaging apparatus and imaging method | |
US8149280B2 (en) | Face detection image processing device, camera device, image processing method, and program | |
US7995852B2 (en) | Imaging device and imaging method | |
US8135270B2 (en) | Imaging device and imaging method | |
JP6319340B2 (en) | Movie imaging device | |
JP4869795B2 (en) | Imaging control apparatus, imaging system, and imaging control method | |
US20080199051A1 (en) | Motion detecting device, motion detecting method, imaging device, and monitoring system | |
US8497932B2 (en) | Photographing apparatus and method having at least two photographing devices and exposure synchronization | |
JP4009163B2 (en) | Object detection apparatus, object detection method, and object detection program | |
US8195042B2 (en) | Imaging apparatus and control method | |
JP5860663B2 (en) | Stereo imaging device | |
US7834908B2 (en) | Imaging device | |
US20110012991A1 (en) | Moving image recording method and apparatus, and moving image coding method and moving image coder | |
US7495692B2 (en) | Image processing device and electronic camera | |
JP2010147786A (en) | Imaging device and image processing method | |
US7982783B2 (en) | System for and method of image processing and computer program for causing computer to execute the method | |
US8947556B2 (en) | Image pickup apparatus, control method therefor, and storage medium storing control program therefor | |
US8325997B2 (en) | Image processing device | |
KR100561449B1 (en) | Digital zoom out processing apparatus | |
JP4898151B2 (en) | Imaging apparatus and imaging method | |
JP2829801B2 (en) | Vehicle dynamics measurement device in tunnel | |
JP4797441B2 (en) | Image processing apparatus for vehicle | |
JPS60249477A (en) | Automatic tracking focus detector | |
JP4871664B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JPH08205021A (en) | Image input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070831 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100907 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100907 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110907 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120907 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120907 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130907 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |