JP4155252B2 - Vehicle detection device - Google Patents
Vehicle detection device Download PDFInfo
- Publication number
- JP4155252B2 JP4155252B2 JP2004261106A JP2004261106A JP4155252B2 JP 4155252 B2 JP4155252 B2 JP 4155252B2 JP 2004261106 A JP2004261106 A JP 2004261106A JP 2004261106 A JP2004261106 A JP 2004261106A JP 4155252 B2 JP4155252 B2 JP 4155252B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- captured image
- feature point
- vehicle detection
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、自車両の周囲に存在する車両を検出する装置に関する。 The present invention relates to an apparatus for detecting a vehicle existing around a host vehicle.
カメラの撮像画像を用いて自車両の周囲に存在する車両を検出する装置が知られている。このような装置では、検出対象とする車両の明るさや形状が変化したときにも安定して検出できるようにする必要がある。特許文献1に開示される装置では、検出結果を用いて検出対象のパターンを更新して次のパターンマッチングを行うことで、明るさや形状の変化に対して安定した車両検出を行うようにしている。
There is known an apparatus for detecting a vehicle existing around a host vehicle using a captured image of a camera. In such an apparatus, it is necessary to enable stable detection even when the brightness or shape of a vehicle to be detected changes. In the apparatus disclosed in
特許文献1に開示される装置では、パターンマッチング以外の車両検出方法を選択できない。そこで、状況に応じて適切な車両検出方法を選択することにより、安定した車両検出を行うことができる車両検出装置が求められている。
In the device disclosed in
本発明による車両検出装置は、自車両の周囲の撮像画像を取得する撮像手段と、撮像画像において自車両の周囲に存在する他車両の一部分を表す特徴点の候補としての候補点を撮像画像より抽出する候補点抽出手段と、候補点抽出手段により抽出された候補点の位置または移動速度に基づいて、他車両を検出するための車両検出方法を選択する選択手段と、撮像画像に基づいて、選択手段により選択された車両検出方法を用いて、他車両を検出する車両検出手段とを備えるものである。 The vehicle detection device according to the present invention includes an imaging unit that acquires a captured image around the host vehicle, and candidate points as candidate feature points representing a part of another vehicle existing around the host vehicle in the captured image from the captured image. A candidate point extracting means for extracting; a selecting means for selecting a vehicle detection method for detecting other vehicles based on the position or moving speed of the candidate point extracted by the candidate point extracting means; and Vehicle detection means for detecting another vehicle using the vehicle detection method selected by the selection means.
本発明によれば、車両検出方法を選択し、撮像画像に基づいて、その選択された車両検出方法を用いて自車両の周囲の他車両を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。 According to the present invention, a vehicle detection method is selected, and other vehicles around the host vehicle are detected using the selected vehicle detection method based on the captured image. Since it did in this way, the suitable vehicle detection method can be selected according to a condition, and the stable vehicle detection can be performed.
本発明の一実施形態による車両検出装置の構成を図1に示す。この車両検出装置は車両に搭載されて使用されるものであり、自車両の後方を撮像した撮像画像から他車両を検出することにより、自車両後方の他車両の存在を運転者に報知するものである。この車両検出装置は、カメラ1、画像メモリ2、マイコン3、およびモニタ4を備えている。
A configuration of a vehicle detection apparatus according to an embodiment of the present invention is shown in FIG. This vehicle detection device is mounted on a vehicle and used to notify the driver of the presence of the other vehicle behind the host vehicle by detecting the other vehicle from a captured image obtained by imaging the rear of the host vehicle. It is. The vehicle detection device includes a
カメラ1は自車両後方を撮像するように自車両の後部に設置されており、撮像した画像を画像信号として画像メモリ2へ出力する。カメラ1には、たとえばCCDカメラ等が用いられる。画像メモリ2は、カメラ1から入力された画像信号を画像データとして記憶保持するためのフレームメモリである。画像メモリ2に記憶された画像データは、マイコン3の制御により画像フレーム単位でマイコン3に出力される。
The
マイコン3は、画像メモリ2からの画像データに基づいて後で説明するような処理を実行することにより、撮像画像から他車両を抽出して、その他車両の自車両に対する実空間上の距離や速度を算出する。算出された距離や速度が所定の条件を満たす場合には、マイコン3よりモニタ4を制御して、モニタ4において障害物の存在を示すためのマーカーを表示する。モニタ4は運転席付近の見やすい場所に設置されており、マーカーを表示することで他車両を障害物として運転者に認識させる。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。 The microcomputer 3 performs processing as will be described later based on the image data from the image memory 2, thereby extracting another vehicle from the captured image, and the distance and speed of the other vehicle in the real space with respect to the own vehicle. Is calculated. When the calculated distance or speed satisfies a predetermined condition, the monitor 4 is controlled by the microcomputer 3 and a marker for indicating the presence of an obstacle is displayed on the monitor 4. The monitor 4 is installed in an easy-to-view place near the driver's seat, and displays a marker to make the driver recognize the other vehicle as an obstacle. In this way, the driver of the host vehicle is notified of the presence of another vehicle traveling behind the host vehicle.
マイコン3において撮像画像から他車両を抽出する方法について説明する。このときマイコン3では、新規車両検出と車両追跡の各処理が実行される。新規車両検出処理は、新たに撮像画像中に捉えられた他車両を抽出するための処理であり、車両追跡処理は、既に撮像画像中に捉えられている他車両を追跡して抽出するための処理である。すなわち、各他車両は初めに新規車両検出処理によって撮像画像から抽出され、その後は車両追跡処理によって撮像画像から抽出される。 A method for extracting another vehicle from the captured image in the microcomputer 3 will be described. At this time, the microcomputer 3 executes new vehicle detection and vehicle tracking processes. The new vehicle detection process is a process for extracting other vehicles newly captured in the captured image, and the vehicle tracking process is for tracking and extracting other vehicles already captured in the captured image. It is processing. That is, each other vehicle is first extracted from the captured image by the new vehicle detection process, and thereafter extracted from the captured image by the vehicle tracking process.
新規車両検出処理の内容より先に説明する。新規車両検出処理では、撮像画像より抽出されたエッジ交点の中から、車両の特徴を示しており他車両の一部分を表す点を検出する。このようなエッジ交点を、以下では特徴点という。このとき対象とするエッジ交点の画面上の位置に応じて、後で説明する2種類の特徴点の検出方法のいずれかが選択されて用いられる。 The contents of the new vehicle detection process will be described before. In the new vehicle detection process, a point representing the characteristics of the vehicle and representing a part of another vehicle is detected from the edge intersections extracted from the captured image. Such an edge intersection is hereinafter referred to as a feature point. At this time, according to the position of the target edge intersection point on the screen, one of two types of feature point detection methods described later is selected and used.
なお、撮像画像からのエッジ交点の抽出は、撮像画像より縦方向のエッジ(縦エッジ)と横方向のエッジ(横エッジ)を抽出し、その縦エッジと横エッジの交点を求めることによって行われる。こうして特徴点の候補として抽出されたエッジ交点の中から、実際に他車両の一部分を表しているエッジ交点を特徴点として検出する。ここでいうエッジとは、撮像画像において物体が占めている領域の境界線を示す部分である。このエッジの抽出には、ソベルフィルタと呼ばれる周知の画像フィルタを用いた画像処理手法などを用いることができる。 In addition, the extraction of the edge intersection from the captured image is performed by extracting the vertical edge (vertical edge) and the horizontal edge (horizontal edge) from the captured image and obtaining the intersection of the vertical edge and the horizontal edge. . Of the edge intersections thus extracted as feature point candidates, an edge intersection that actually represents a part of another vehicle is detected as a feature point. The edge here is a portion indicating the boundary line of the region occupied by the object in the captured image. For this edge extraction, an image processing method using a known image filter called a Sobel filter can be used.
画面上において所定の位置より上方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも遠いエッジ交点に対しては、特徴点の検出方法にパターンマッチング処理が用いられる。このパターンマッチング処理では、各エッジ交点の周囲の所定範囲内の画像パターンと、予め基本車両パターンとして記憶されている画像パターンとを比較し、その比較結果が所定のパターンマッチング条件を満たす場合には、該当するエッジ交点を特徴点として車両ごとに検出する。 Pattern matching processing is used as a feature point detection method for edge intersections located above a predetermined position on the screen, that is, edge intersections whose distance from the vehicle in the real space is longer than the predetermined distance. In this pattern matching process, an image pattern within a predetermined range around each edge intersection is compared with an image pattern stored in advance as a basic vehicle pattern, and the comparison result satisfies a predetermined pattern matching condition. The corresponding edge intersection is detected for each vehicle as a feature point.
一方、画面上において所定の位置より下方に位置するエッジ交点、すなわち実空間上で自車両からの距離が所定距離よりも近いエッジ交点に対しては、特徴点の検出方法にグルーピング処理が用いられる。このグルーピング処理では、画面上をほぼ同じ方向と速度で動いているエッジ交点同士、すなわち撮像画像における速度ベクトルの差が所定値以下であるエッジ交点同士をグルーピングすることにより、該当するエッジ交点を特徴点として車両ごとに検出する。このとき速度ベクトルの差に対して設定する所定値は、予め定めておくことができる。なお、エッジ交点の速度ベクトルを算出するためには、当該エッジ交点が少なくとも2フレーム以上に渡って抽出される必要がある。 On the other hand, a grouping process is used as a feature point detection method for an edge intersection located below a predetermined position on the screen, that is, an edge intersection whose distance from the host vehicle is closer than a predetermined distance in real space. . In this grouping process, the edge intersections moving in almost the same direction and speed on the screen, that is, the edge intersections in which the difference in the velocity vector in the captured image is equal to or smaller than a predetermined value are grouped, and the corresponding edge intersection is characterized. A point is detected for each vehicle. At this time, a predetermined value to be set for the speed vector difference can be determined in advance. In order to calculate the velocity vector of the edge intersection, the edge intersection needs to be extracted over at least two frames.
上記のパターンマッチング処理またはグルーピング処理により特徴点が検出されたら、各特徴点の画面上の位置に基づいて、各他車両に対応する領域(以下、車両領域という)を撮像画像中に設定する。さらに、特徴点の配置と、その特徴点に基づいて設定された車両領域は、車両ごとに車両パターンとして登録される。この車両パターンは、前述の基本車両パターンとは異なり、画像のパターンではなく特徴点の配置と車両領域の大きさによってのみ決定される。以上説明したようにして、新規車両検出処理が行われる。 When a feature point is detected by the pattern matching process or the grouping process, an area corresponding to each other vehicle (hereinafter referred to as a vehicle area) is set in the captured image based on the position of each feature point on the screen. Furthermore, the arrangement of feature points and the vehicle area set based on the feature points are registered as a vehicle pattern for each vehicle. Unlike the basic vehicle pattern described above, this vehicle pattern is determined only by the arrangement of feature points and the size of the vehicle area, not the pattern of the image. As described above, the new vehicle detection process is performed.
次に、車両追跡処理の内容について説明する。車両追跡処理は、撮像画像より抽出されたエッジ交点のうち、既に前回の画像フレームで特徴点として検出されているエッジ交点に対して行われる。このとき車両追跡処理では、撮像画像におけるエッジ交点の移動速度に応じて、次の2つの検出方法のいずれかが選択されて用いられる。エッジ交点の移動速度が遅い場合には図2に示すような検出方法を、また移動速度が速い場合には図3に示すような検出方法をそれぞれ使用する。以下、図2に示す検出方法より先に説明する。 Next, the contents of the vehicle tracking process will be described. The vehicle tracking process is performed on edge intersections that have already been detected as feature points in the previous image frame among edge intersections extracted from the captured image. At this time, in the vehicle tracking process, one of the following two detection methods is selected and used according to the moving speed of the edge intersection in the captured image. When the movement speed of the edge intersection is slow, a detection method as shown in FIG. 2 is used, and when the movement speed is fast, a detection method as shown in FIG. 3 is used. Hereinafter, the detection method shown in FIG. 2 will be described.
図2(a)は、時刻T1においてカメラ1により取得された撮像画像を示している。また、(b)は時刻T1の次の画像フレーム時(時刻T2とする)においてカメラ1により取得された撮像画像を示している。これらの撮像画像には、自車両の後方から接近してくる他車両100が撮像されている。(a)と(b)の撮像画像からは、それぞれ他車両100のエッジ交点21a、21b、21cおよび21dと、エッジ交点22a、22b、22cおよび22dが抽出されているものとする。なお、これらのエッジ交点の各々は、車両において同じ点を表すもの同士が互いに対応付けられている。たとえば、(a)のエッジ交点21aと(b)のエッジ交点22aが対応付けられている。
FIG. 2A shows a captured image acquired by the
上記のように対応付けられているエッジ交点間の位置変化量を求めることによって、時刻T2における各エッジ交点の撮像画像における移動速度が求められる。たとえば、エッジ交点21aからエッジ交点22aまでの位置変化量により、時刻T2におけるエッジ交点22aの移動速度が求められる。そして、同じ車両を表すエッジ交点、すなわちエッジ交点22a〜22dについて、その移動速度の平均値が算出される。ここでは、エッジ交点22a〜22dの移動速度の平均値が予め定められた所定値以下であるものとする。
By calculating the position change amount between the edge intersections associated with each other as described above, the moving speed in the captured image of each edge intersection at time T2 is obtained. For example, the moving speed of the
ここで、(a)の撮像画像のエッジ交点21a〜21dは、時刻T1において他車両100の特徴点として検出されているものとする。また、これらの特徴点21a〜21dの中心に位置して各特徴点を包含できる大きさの矩形領域が、車両領域11として設定されているものとする。時刻T1において、特徴点21a〜21dと車両領域11は、(c)のように他車両100の車両パターンとして登録されている。
Here, it is assumed that the
上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値以下の場合は、(c)の車両パターンに基づいて、(d)に示す確率分布32a、32b、32cおよび32dよりなる車両パターン存在分布を算出する。確率分布32a〜32dは、次のようにして求められる。初めに、時刻T1における特徴点21a〜21dの相互の相対的な位置と移動速度に基づいて、時刻T2における特徴点の予測位置を求める。なお、ここで求められる予測位置は、各特徴点の相対的な位置関係を定めるものである。次に、上記の予測位置に対して、時刻T2における各特徴点の相対的な存在確率を設定する。このとき、予測位置の中心部分には最も高い存在確率を設定し、その周囲にはそれより低い存在確率を設定する。このようにして予測位置に対して存在確率が設定されることにより、確率分布32a〜32dが求められる。なお、この確率分布32a〜32dは、相互の相対的な位置と存在確率の関係を定めるものとして設定されるものであり、その位置は撮像画像に対して固定されていない。
As described above, when the average value of the moving speeds of the edge intersections at time T2 is equal to or less than the predetermined value, the vehicle including the
(d)の確率分布32a〜32dは、塗りつぶされている中心部分の一定範囲において特徴点の存在確率が高く、その周辺のハッチングに示す部分では特徴点の存在確率が低いことを図示している。中心部分と周辺部分の各々における存在確率の設定値と設定範囲の大きさは、予め定められている。なお、ここでは存在分布として中心部分と周辺部分に2段階の存在確率のみが設定されている様子を図示しているが、3段階以上の存在確率を設定することにより、中心部分に近づくほど特徴点の存在確率が高く、中心部分から離れるに従って存在確率が段階的に低くなるようにしてもよい。
The
(d)の確率分布32a〜32dが求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を次のようにして検出する。初めに、(b)の撮像画像と(d)の存在分布32a〜32dを1画素ずつずらしながら重ね合わせたときの累積相関値をそれぞれ計算する。このとき、撮像画像のエッジ交点の部分を1、その他の部分を0と設定し、これに存在分布において設定された存在確率を乗算して得られる値を各画素について累積することにより、累積相関値が算出される。次に、このようにして算出される累積相関値が最大となるときの撮像画像と存在分布の重ね合わせ状態(重ね合わせ位置)を求め、その状態でエッジ交点と存在分布が重なっている点を求める。この点が特徴点として検出される。このような特徴点の検出方法を、特徴点形状パターンマッチングという。
When the
上記の特徴点形状パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点22a〜22dが特徴点として検出され、車両領域12が設定される。以上説明したようにして、エッジ交点の移動速度が遅い場合の車両追跡処理が行われる。
When a feature point at time T2 is detected by the above feature point shape pattern matching, a vehicle region is set for the feature point. As a result, as shown in (e), the
特徴点22a〜22dと車両領域12は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、他車両100が自車両に対して接近または離れることによって、その撮像画像中に占める領域が撮像画像に対して拡大または縮小しても、適切な大きさの車両パターンを用いて他車両100を撮像画像から抽出できる。
The feature points 22a to 22d and the
次に、図3に示すエッジ交点の移動速度が速い場合の車両追跡処理について説明する。図3(a)と(b)は、時刻T1と次の画像フレームの時刻T2においてカメラ1により取得された撮像画像をそれぞれ示している。これらの撮像画像には、自車両の後方から接近してくる他車両100と、道路脇に静止している物体200が撮像されている。(a)の撮像画像からは、他車両100のエッジ交点23a、23b、23cおよび23dと、物体200のエッジ交点25a、25bおよび25cが抽出されている。同様に(b)の撮像画像からは、他車両100のエッジ交点24a、24b、24c、24dおよび24eと、物体200のエッジ交点26a、26bおよび26cが抽出されている。なお、これらのエッジ交点の各々は、図2の場合と同様に、車両や物体において同じ点を表すもの同士が互いに対応付けられている。たとえば、他車両100の同じ点を表す(a)のエッジ交点23aと(b)のエッジ交点24aが対応付けられ、物体200の同じ点を表す(a)のエッジ交点25aと(b)のエッジ交点26aが対応付けられている。
Next, the vehicle tracking process when the moving speed of the edge intersection shown in FIG. 3 is fast will be described. FIGS. 3A and 3B respectively show captured images acquired by the
図2で説明したように、対応付けられているエッジ交点間の位置変化量によって、時刻T2における各エッジ交点の撮像画像における移動速度が求められ、同じ車両のエッジ交点についてその移動速度の平均値が算出される。すなわち、他車両100のエッジ交点24a〜24dについて移動速度の平均値が算出される。ここでは、エッジ交点24a〜24dの移動速度の平均値が所定値よりも大きいものとする。なお、物体200のエッジ交点26a〜26cについては、その移動速度から車両を表す点ではないと判定され、これ以降に説明するような処理は行われない。
As described with reference to FIG. 2, the moving speed in the captured image of each edge intersection at time T2 is obtained from the amount of change in position between the associated edge intersections, and the average value of the moving speeds for the edge intersections of the same vehicle. Is calculated. That is, the average value of the moving speed is calculated for the
ここで、(a)の撮像画像において、上記のエッジ交点のうち他車両100のエッジ交点23a〜23dは、時刻T1において他車両100の特徴点として検出されているものとする。また、この特徴点23a〜23dに対して車両領域13が設定されているものとする。時刻T1において、特徴点23a〜23dと車両領域13は、(c)のように他車両100の車両パターンとして登録されている。この特徴点23a〜23dは、それぞれ図に矢印で示すような速度ベクトルを有しており、その速度ベクトルによって定まる方向と速度に動いているものとする。
Here, in the captured image of (a), it is assumed that the edge intersections 23a to 23d of the
上記のように時刻T2におけるエッジ交点の移動速度の平均値が所定値よりも大きい場合は、(c)の車両パターンに基づいて、(d)に示す特徴点検出ベクトル50と車両パターン検出領域51よりなる車両パターン速度を算出する。特徴点検出ベクトル50は、特徴点23a〜23dがそれぞれ有している速度ベクトルの方向と大きさの各平均値により、その方向と大きさが求められる。車両パターン検出領域51は、特徴点23a〜23dの動きの履歴から、時刻T2における特徴点の予想位置の範囲を求めることにより設定される。なお、ここで設定される車両パターン検出領域51は、図2の(d)の確率分布32a〜32dとは異なり、撮像画像に対してその位置が固定されている。
As described above, when the average value of the moving speed of the edge intersection at time T2 is larger than the predetermined value, the feature
(d)の特徴点検出ベクトル50と車両パターン検出領域51が求められたら、次にこれと(b)の撮像画像により、時刻T2における特徴点を検出する。このとき、(b)の撮像画像において抽出されたエッジ交点のうち、車両パターン検出領域51内に存在し、さらに特徴点検出ベクトル50に対する速度ベクトルの差が予め設定された所定値以内であるエッジ交点が、特徴点として検出される。このような特徴点の検出方法を、特徴点速度パターンマッチングという。
When the feature
上記の特徴点速度パターンマッチングによって時刻T2における特徴点が検出されたら、その特徴点に対して車両領域を設定する。その結果、(e)に示すように、エッジ交点24a〜24eが特徴点として検出され、車両領域14が設定される。以上説明したようにして、エッジ交点の移動速度が速い場合の車両追跡処理が行われる。
When a feature point at time T2 is detected by the above feature point speed pattern matching, a vehicle region is set for the feature point. As a result, as shown in (e), the
特徴点24a〜24eと車両領域14は、新たな車両パターンとして登録される。これにより、(c)の車両パターンが更新される。このようにして車両パターンを更新することにより、撮像画像において他車両100の見え方が変わることによりエッジ交点の位置や数が変化した場合にも、それに応じて特徴点が追加または削除された車両パターンを用いて他車両100を撮像画像から抽出できる。
The feature points 24a to 24e and the
以上説明した処理のフローチャートを図4に示す。このフローチャートは、フレームレートごとに各画像フレームに対して実行されるものである。ステップS10では、後で説明する図5のフローチャートに示すエッジ交点抽出処理を行い、撮像画像よりエッジ交点を抽出する。ステップS20では、ステップS10で抽出されたエッジ交点に対して、後で説明する図6のフローチャートを実行することにより、前述したような新規車両検出処理を行う。ステップS30では、ステップS10で抽出されたエッジ交点のうち、既に前回の処理において特徴点として検出されているエッジ交点に対して、後で説明する図7のフローチャートを実行することにより、前述したような車両追跡処理を行う。ステップS30を実行した後は、図4のフローチャートを終了する。 A flowchart of the processing described above is shown in FIG. This flowchart is executed for each image frame for each frame rate. In step S10, edge intersection extraction processing shown in the flowchart of FIG. 5 described later is performed, and edge intersections are extracted from the captured image. In step S20, the new vehicle detection process as described above is performed by executing the flowchart of FIG. 6 described later on the edge intersection extracted in step S10. In step S30, among the edge intersections extracted in step S10, the edge intersections that have already been detected as feature points in the previous processing are executed by executing the flowchart of FIG. Vehicle tracking process. After step S30 is executed, the flowchart of FIG. 4 is terminated.
ステップS10で実行するエッジ交点抽出処理の内容を図5のフローチャートにより説明する。ステップS100では、画像メモリ2に記憶された画像を読み込むことにより、カメラ1による撮像画像を取得する。ステップS101では、ステップS100で取得された撮像画像より縦エッジと横エッジを抽出し、次のステップS102では、ステップS101で抽出された縦エッジと横エッジの交点を抽出する。ステップS103では、ステップS102で抽出されたエッジ交点の画面上の移動速度を算出する。この移動速度は、前述したように前回の撮像画像におけるエッジ交点からの位置変化量を求めることによって算出することができる。ステップS103を実行したら図4のステップS10を終了する。このようにして、エッジ交点抽出処理が行われる。
The contents of the edge intersection extraction process executed in step S10 will be described with reference to the flowchart of FIG. In step S100, an image captured by the
次に、ステップS20で実行する新規車両検出処理の内容を図6のフローチャートにより説明する。ステップS200では、エッジ交点抽出処理によって抽出されたエッジ交点の各々に対して、そのY座標値が所定値以下であるか否かを判定する。Y座標値が所定値以下ならばステップS201へ進み、所定値よりも大きければステップS204へ進む。なお、ここでは画面上におけるエッジ交点の上下方向に対する位置をY座標値によって表すこととしており、このY座標値は画面の上端から下端に向かって大きくなるように定義されている。すなわち、Y座標値が小さいほど、そのエッジ交点は画面上において撮像画像のより上方に位置し、逆にY座標値が大きいほど、画面上において撮像画像のより下方に位置していることになる。 Next, the contents of the new vehicle detection process executed in step S20 will be described with reference to the flowchart of FIG. In step S200, it is determined whether or not the Y coordinate value of each edge intersection extracted by the edge intersection extraction process is equal to or less than a predetermined value. If the Y coordinate value is less than or equal to the predetermined value, the process proceeds to step S201, and if greater than the predetermined value, the process proceeds to step S204. Here, the position of the edge intersection on the screen in the vertical direction is represented by a Y coordinate value, and this Y coordinate value is defined to increase from the upper end to the lower end of the screen. That is, as the Y coordinate value is smaller, the edge intersection is located above the captured image on the screen, and conversely, as the Y coordinate value is larger, the edge intersection is located below the captured image on the screen. .
ステップS200からステップS201へ進んだ場合は、前述のパターンマッチング処理によって特徴点が検出される。ステップS201では、予め記憶されている基本車両パターンを読み出す。次のステップS202では、この基本車両パターンを用いてパターンマッチング処理を行うことにより、特徴点を検出する。ステップS203では、ステップS202で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてパターンマッチング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において上方に位置するエッジ交点に対して新規車両検出処理が行われる。 When the process proceeds from step S200 to step S201, the feature point is detected by the pattern matching process described above. In step S201, a basic vehicle pattern stored in advance is read. In the next step S202, feature points are detected by performing pattern matching processing using this basic vehicle pattern. In step S203, a vehicle area is set for the feature point detected in step S202, and the arrangement of the feature point and the vehicle area are registered as a vehicle pattern. After the feature points are detected using the pattern matching process as described above, step S20 in FIG. 4 is terminated. In this way, the new vehicle detection process is performed on the edge intersection located above in the captured image.
一方、ステップS200からステップS204へ進んだ場合は、前述のグルーピング処理によって特徴点が検出される。ステップS204では、グルーピング処理を行うことにより特徴点を検出する。ステップS205では、ステップS204で検出された特徴点に対して、各グループにおける特徴点の速度と向きの平均値により、その特徴点のグループが自車両の方向に走行している車両を表すものであるか否かを判定する。このとき車両を表すものではないと判定されたグループに含まれる特徴点については、これ以降の処理より除外される。このステップS205の処理により、静止物体のエッジ交点から検出された特徴点などが除外される。ステップS206では、ステップS205で除外されなかった特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録する。以上説明したようにしてグルーピング処理を用いて特徴点を検出した後は、図4のステップS20を終了する。このようにして、撮像画像において下方に位置するエッジ交点に対して新規車両検出処理が行われる。 On the other hand, when the process proceeds from step S200 to step S204, the feature points are detected by the grouping process described above. In step S204, feature points are detected by performing grouping processing. In step S205, for the feature points detected in step S204, the average value of the speed and direction of the feature points in each group represents a vehicle in which the feature point group is traveling in the direction of the host vehicle. It is determined whether or not there is. At this time, the feature points included in the group determined not to represent the vehicle are excluded from the subsequent processing. By the processing in step S205, feature points detected from the edge intersections of the stationary object are excluded. In step S206, a vehicle area is set for the feature points not excluded in step S205, and the arrangement of the feature points and the vehicle area are registered as a vehicle pattern. After the feature points are detected using the grouping process as described above, step S20 in FIG. 4 is terminated. In this way, the new vehicle detection process is performed on the edge intersection located below in the captured image.
次に、ステップS30で実行する車両追跡処理の内容を図7のフローチャートにより説明する。ステップS300では、エッジ交点の移動速度が所定値以下であるか否かを判定する。なお、ここで判定の対象とするエッジ交点は、前述のように既に前回の処理において特徴点として検出されているエッジ交点である。エッジ交点の移動速度が所定値以下ならばステップS301へ進み、所定値よりも大きければステップS304へ進む。 Next, the contents of the vehicle tracking process executed in step S30 will be described with reference to the flowchart of FIG. In step S300, it is determined whether or not the moving speed of the edge intersection is below a predetermined value. Note that the edge intersections to be determined here are edge intersections that have already been detected as feature points in the previous processing as described above. If the moving speed of the edge intersection is less than or equal to a predetermined value, the process proceeds to step S301, and if greater than the predetermined value, the process proceeds to step S304.
ステップS300からステップS301へ進んだ場合は、図2で説明したような特徴点形状パターンマッチング処理によって特徴点が検出される。ステップS301では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図2(d)に示す確率分布32a〜32dのように車両パターン存在分布を算出する。ステップS302では、ステップS301で算出された車両パターン存在分布を用いて、特徴点形状パターンマッチングを行うことにより特徴点を検出する。ステップS303では、ステップS302で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点形状パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が遅いエッジ交点に対して車両追跡処理が行われる。
When the process proceeds from step S300 to step S301, the feature points are detected by the feature point shape pattern matching process as described with reference to FIG. In step S301, based on the vehicle pattern registered in step S203 or S206 of FIG. 6 or step S303 or S306 of the previous process, vehicle patterns exist as shown in
一方、ステップS300からステップS304へ進んだ場合は、図3で説明したような特徴点速度パターンマッチング処理によって特徴点が検出される。ステップS304では、図6のステップS203またはS206、あるいは前回の処理のステップS303またはS306において登録されている車両パターンに基づいて、図3(d)に示す特徴点検出ベクトル50および車両パターン検出領域51のように車両パターン速度を算出する。ステップS305では、ステップS304で算出された車両パターン速度を用いて、特徴点速度パターンマッチングを行うことにより特徴点を検出する。ステップS306では、ステップS305で検出された特徴点に対して車両領域を設定し、その特徴点の配置と車両領域を車両パターンとして登録することにより、車両パターンの更新を行う。以上説明したようにして特徴点速度パターンマッチング処理を用いて特徴点を検出した後は、図4のステップS30を終了する。このようにして、移動速度が速いエッジ交点に対して車両追跡処理が行われる。
On the other hand, when the process proceeds from step S300 to step S304, the feature point is detected by the feature point speed pattern matching process as described with reference to FIG. In step S304, based on the vehicle pattern registered in step S203 or S206 of FIG. 6 or step S303 or S306 of the previous process, the feature
以上説明したような処理が撮像画像の各画像フレームに対して行われることにより、他車両の車両領域が検出される。こうして検出された車両領域の画面上の位置に基づいて、他車両の自車両に対する実空間上の距離が算出される。また、異なる時間で取得された撮像画像間における車両領域の位置変化量に基づいて、他車両の自車両に対する実空間上の速度が算出される。そして、算出された距離や速度が所定の条件を満たす場合には、障害物の存在を示すためのマーカーがモニタ4に表示される。たとえば、距離が所定値以下であり、かつ速度が所定値以上である他車両に対して、マーカーが表示される。このようにして、自車両の後方を走行している他車両の存在が自車両の運転者に報知される。 By performing the processing as described above for each image frame of the captured image, the vehicle area of the other vehicle is detected. Based on the position of the vehicle area thus detected on the screen, the distance in real space of the other vehicle to the host vehicle is calculated. Moreover, the speed in real space with respect to the own vehicle of the other vehicle is calculated based on the positional change amount of the vehicle region between the captured images acquired at different times. When the calculated distance or speed satisfies a predetermined condition, a marker for indicating the presence of an obstacle is displayed on the monitor 4. For example, a marker is displayed for other vehicles whose distance is equal to or less than a predetermined value and whose speed is equal to or greater than a predetermined value. In this way, the driver of the host vehicle is notified of the presence of another vehicle traveling behind the host vehicle.
以上説明した実施の形態によれば、次の作用効果が得られる。
(1)カメラ1によって自車両後方の撮像画像を取得し、さらに車両検出方法を選択して、その撮像画像に基づいて、選択された車両検出方法を用いて自車両後方の他車両100を検出することとした。このようにしたので、状況に応じて適切な車両検出方法を選択し、安定した車両検出を行うことができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) A captured image behind the host vehicle is acquired by the
(2)新規車両検出処理において、車両検出方法としてパターンマッチング処理(ステップS201〜203)とグルーピング処理(ステップS204〜206)のいずれかを選択して行うこととしたので、新たに撮像画像中に捉えられた他車両を確実に検出することができる。 (2) In the new vehicle detection process, since one of the pattern matching process (steps S201 to 203) and the grouping process (steps S204 to 206) is selected as the vehicle detection method, a new captured image is displayed. The captured other vehicle can be reliably detected.
(3)エッジ交点の撮像画像における画面上の位置に基づいて車両検出方法を選択することとし、具体的には、画面上においてエッジ交点が所定位置より上方に位置する場合はパターンマッチング処理を、また所定位置より下方に位置する場合はグルーピング処理を選択することとした(ステップS200)。このようにしたので、自車両に対する他車両の実空間上の距離に応じて、他車両の見え方が異なるときにも適切な車両検出方法を選択することができる。 (3) The vehicle detection method is selected based on the position on the screen in the captured image of the edge intersection. Specifically, when the edge intersection is located above a predetermined position on the screen, pattern matching processing is performed. If the position is below the predetermined position, the grouping process is selected (step S200). Since it did in this way, according to the distance in the real space of the other vehicle with respect to the own vehicle, an appropriate vehicle detection method can be selected also when the other vehicle's appearance differs.
(4)車両追跡処理において、車両検出方法として特徴点形状パターンマッチング処理(ステップS301〜303)と特徴点速度パターンマッチング処理(ステップS304〜306)のいずれかを選択して行うこととしたので、既に撮像画像中に捉えられている他車両を追跡して検出するときにも、確実に検出できる。 (4) In the vehicle tracking process, as the vehicle detection method, one of the feature point shape pattern matching process (steps S301 to 303) and the feature point speed pattern matching process (steps S304 to 306) is selected and performed. Even when another vehicle that has already been captured in the captured image is tracked and detected, it can be reliably detected.
(5)エッジ交点の撮像画像における移動速度に基づいて車両検出方法を選択することとし、具体的には、同じ車両を表すエッジ交点の移動速度の平均値が所定値以下である場合は特徴点形状パターンマッチング処理を、またその平均値が所定値より大きい場合は特徴点速度パターンマッチング処理を選択することとした(ステップS300)。このようにしたので、自車両に対する他車両の実空間上の移動速度に応じて、他車両の見え方が変化する様子が異なるときにも適切な車両検出方法を選択することができる。 (5) The vehicle detection method is selected based on the moving speed in the captured image of the edge intersection. Specifically, when the average value of the moving speed of the edge intersection representing the same vehicle is equal to or less than a predetermined value, the feature point The shape pattern matching process is selected, and if the average value is larger than the predetermined value, the feature point speed pattern matching process is selected (step S300). Since it did in this way, according to the moving speed in the real space of the other vehicle with respect to the own vehicle, when a mode that the appearance of the other vehicle changes changes, an appropriate vehicle detection method can be selected.
なお、上記の実施形態では、カメラ1を用いて自車両の後方を撮像し、その撮像画像に基づいて自車両の後方より接近してくる他車両を検出する例について説明した。しかし、本発明はこの内容に限定されるものではなく、自車両周囲の他の方向、たとえば前方や側方などを撮像し、撮像画像に基づいてその方向に存在する他車両を検出する場合にも適用できる。
In the above-described embodiment, an example has been described in which the rear side of the host vehicle is imaged using the
上記の実施形態では、撮像手段をカメラ1によって実現し、その他の各手段をマイコン3の処理によって実現しているが、これはあくまで一例であって、本発明の特徴が損なわれない限り、各構成要素は上記実施の形態に限定されない。
In the above embodiment, the imaging means is realized by the
1:カメラ
2:画像メモリ
3:マイコン
4:モニタ
100:他車両
1: Camera 2: Image memory 3: Microcomputer 4: Monitor 100: Other vehicle
Claims (4)
前記撮像画像において前記自車両の周囲に存在する他車両の一部分を表す特徴点の候補としての候補点を前記撮像画像より抽出する候補点抽出手段と、
前記候補点抽出手段により抽出された候補点の位置または移動速度に基づいて、前記他車両を検出するための車両検出方法を選択する選択手段と、
前記撮像画像に基づいて、前記選択手段により選択された車両検出方法を用いて、前記他車両を検出する車両検出手段とを備えることを特徴とする車両検出装置。 Imaging means for acquiring a captured image around the host vehicle;
Candidate point extraction means for extracting candidate points as candidate feature points representing a part of another vehicle existing around the host vehicle in the captured image from the captured image;
Selection means for selecting a vehicle detection method for detecting the other vehicle based on the position or moving speed of the candidate point extracted by the candidate point extraction means ;
A vehicle detection apparatus comprising: vehicle detection means for detecting the other vehicle using a vehicle detection method selected by the selection means based on the captured image .
前記選択手段は、画面上において前記候補点が所定位置よりも上方に位置する場合は、前記車両検出方法としてパターンマッチング処理を選択し、画面上において前記候補点が前記所定位置よりも下方に位置する場合は、前記車両検出方法としてグルーピング処理を選択し、
前記車両検出手段は、
(1)前記選択手段によりパターンマッチング処理が選択された場合、前記候補点の周囲の所定範囲内の画像パターンと予め記憶されている画像パターンとの比較結果に基づいて、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
(2)前記選択手段によりグルーピング処理が選択された場合、前記候補点のうち前記撮像画像における速度ベクトルの差が予め定められた所定値以下である候補点同士をグルーピングすることにより、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。 The vehicle detection device according to claim 1 ,
The selection means selects a pattern matching process as the vehicle detection method when the candidate point is positioned above a predetermined position on the screen, and the candidate point is positioned below the predetermined position on the screen. If so, select the grouping process as the vehicle detection method,
The vehicle detection means includes
(1) When a pattern matching process is selected by the selection unit, based on a comparison result between an image pattern within a predetermined range around the candidate point and an image pattern stored in advance, the candidate point is selected from the candidate points. Detecting the feature points;
Detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point;
(2) When the grouping process is selected by the selection unit, the candidate points are grouped with each other among the candidate points that have a velocity vector difference in the captured image that is equal to or less than a predetermined value. Detecting the feature points from
A vehicle detection device that detects the other vehicle by setting the vehicle region in the captured image based on the position of the detected feature point.
前記選択手段は、同じ車両を表す候補点の移動速度の平均値が所定値以下である場合は、前記車両検出方法として特徴点形状パターンマッチング処理を選択し、前記平均値が前記所定値よりも大きい場合は、前記車両検出方法として特徴点速度パターンマッチング処理を選択し、
前記車両検出手段は、
(1)前記選択手段により特徴点形状パターンマッチング処理が選択された場合、過去に検出された複数の特徴点の相互の相対的な位置と移動速度に基づいて、前記複数の特徴点の現在における相互の相対的な存在確率を設定し、
設定された存在確率に基づいて前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出し、
(2)前記選択手段により特徴点速度パターンマッチング処理が選択された場合、過去に検出された複数の特徴点がそれぞれ有する前記撮像画像における速度ベクトルの方向と大きさの各平均値に基づいて、特徴点検出ベクトルを算出し、
前記複数の特徴点の現在における予想位置の範囲に基づいて、車両パターン検出領域を前記撮像画像中に設定し、
前記車両パターン検出領域内に存在し、さらに前記特徴点検出ベクトルに対する速度ベクトルの差が予め設定された所定値以内である候補点を求めることにより、前記候補点の中から前記特徴点を検出し、
検出された特徴点の位置に基づいて前記他車両に対応する車両領域を前記撮像画像中に設定することにより、前記他車両を検出することを特徴とする車両検出装置。 In the vehicle detection device according to claim 1 or 2 ,
When the average value of the moving speeds of candidate points representing the same vehicle is equal to or less than a predetermined value, the selection unit selects a feature point shape pattern matching process as the vehicle detection method, and the average value is less than the predetermined value. If larger, select the feature point speed pattern matching process as the vehicle detection method,
The vehicle detection means includes
(1) When the feature point shape pattern matching process is selected by the selection unit, based on the relative positions and movement speeds of the plurality of feature points detected in the past, Set the relative existence probability of each other,
Detecting the feature point from the candidate points based on a set existence probability;
Detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point;
(2) When the feature point speed pattern matching process is selected by the selection unit, based on each average value of the direction and the size of the speed vector in the captured image respectively possessed by a plurality of feature points detected in the past , Calculate feature point detection vector,
Based on the current expected position range of the plurality of feature points, a vehicle pattern detection area is set in the captured image,
The feature point is detected from the candidate points by obtaining a candidate point that exists in the vehicle pattern detection region and that has a velocity vector difference with respect to the feature point detection vector within a predetermined value. ,
A vehicle detection apparatus for detecting the other vehicle by setting a vehicle area corresponding to the other vehicle in the captured image based on the position of the detected feature point.
前記選択手段は、新たに前記撮像画像中に捉えられた他車両を検出する際には、前記候補点の位置に基づいて、前記車両検出方法としてパターンマッチング処理またはグルーピング処理のいずれかを選択し、既に前記撮像画像中に捉えられている他車両を追跡する際には、前記候補点の移動速度に基づいて、前記車両検出方法として特徴点形状パターンマッチング処理または特徴点速度パターンマッチング処理のいずれかを選択することを特徴とする車両検出装置。When the selection unit newly detects another vehicle captured in the captured image, the selection unit selects either the pattern matching process or the grouping process as the vehicle detection method based on the position of the candidate point. When tracking other vehicles already captured in the captured image, either the feature point shape pattern matching process or the feature point speed pattern matching process is used as the vehicle detection method based on the moving speed of the candidate point. A vehicle detection device characterized by selecting the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004261106A JP4155252B2 (en) | 2004-09-08 | 2004-09-08 | Vehicle detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004261106A JP4155252B2 (en) | 2004-09-08 | 2004-09-08 | Vehicle detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006080761A JP2006080761A (en) | 2006-03-23 |
JP4155252B2 true JP4155252B2 (en) | 2008-09-24 |
Family
ID=36159867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004261106A Expired - Fee Related JP4155252B2 (en) | 2004-09-08 | 2004-09-08 | Vehicle detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4155252B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533936B2 (en) * | 2008-02-01 | 2010-09-01 | 日立オートモティブシステムズ株式会社 | Image processing apparatus and vehicle detection apparatus including the same |
JP4702569B2 (en) * | 2008-09-30 | 2011-06-15 | マツダ株式会社 | Image processing apparatus for vehicle |
JP4840472B2 (en) * | 2009-04-15 | 2011-12-21 | トヨタ自動車株式会社 | Object detection device |
CN102396002B (en) | 2009-04-15 | 2015-07-08 | 丰田自动车株式会社 | Object detection device |
JP5772321B2 (en) * | 2011-07-12 | 2015-09-02 | アイシン精機株式会社 | Vehicle detection device, vehicle detection method, and program |
JP7192229B2 (en) | 2018-03-26 | 2022-12-20 | 株式会社デンソー | DETECTION APPARATUS, DETECTION METHOD, AND COMPUTER PROGRAM |
CN115667988A (en) | 2020-05-20 | 2023-01-31 | 京瓷株式会社 | Electronic device, control method for electronic device, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3307335B2 (en) * | 1998-07-22 | 2002-07-24 | 日本電気株式会社 | Vehicle region detection device and vehicle region verification method |
JP3920535B2 (en) * | 2000-06-12 | 2007-05-30 | 株式会社日立製作所 | Vehicle detection method and vehicle detection device |
JP2003317106A (en) * | 2002-04-26 | 2003-11-07 | Nissan Motor Co Ltd | Travel path recognition device |
JP2004007174A (en) * | 2002-05-31 | 2004-01-08 | Toshiba Corp | Image processing system, image processing method and image processing program |
-
2004
- 2004-09-08 JP JP2004261106A patent/JP4155252B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006080761A (en) | 2006-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102202343B1 (en) | Method for capturing objects in the surrounding area of a vehicle by predicting the motion of an object, a camera system, and a vehicle | |
JP4957807B2 (en) | Moving object detection apparatus and moving object detection program | |
JP6390671B2 (en) | Image processing apparatus and image processing method | |
JP5258859B2 (en) | Runway estimation apparatus and program | |
JP5267596B2 (en) | Moving body detection device | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
JP6139465B2 (en) | Object detection device, driving support device, object detection method, and object detection program | |
JP5146446B2 (en) | MOBILE BODY DETECTION DEVICE, MOBILE BODY DETECTING PROGRAM, AND MOBILE BODY DETECTING METHOD | |
CN108352070B (en) | Moving object tracking method, moving object tracking device, and program | |
CN112078571B (en) | Automatic parking method, automatic parking equipment, storage medium and automatic parking device | |
CN111417960B (en) | Information processing device, information processing method, and program | |
US11776277B2 (en) | Apparatus, method, and computer program for identifying state of object, and controller | |
JP2008262333A (en) | Road surface discrimination device and road surface discrimination method | |
JP6439757B2 (en) | Image processing apparatus and image processing method | |
JP6152261B2 (en) | Car parking frame recognition device | |
JP4155252B2 (en) | Vehicle detection device | |
CN108629225A (en) | A kind of vehicle checking method based on several subgraphs and saliency analysis | |
JP2014106739A (en) | In-vehicle image processing device | |
JP5407920B2 (en) | Lighting color identification device and program | |
JP6299651B2 (en) | Image processing device | |
JP2018092354A (en) | Object detection apparatus and method for detecting objects | |
JP2017182139A (en) | Determination apparatus, determination method, and determination program | |
CN110619254B (en) | Target tracking method and device based on disparity map and terminal | |
JP5176523B2 (en) | Moving body detection apparatus, moving body detection method, and moving body detection program | |
JP2012108665A (en) | Lane mark recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080401 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080617 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080630 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110718 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4155252 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120718 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130718 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |