JP2011248830A - Moving body behavior detection device and method - Google Patents
Moving body behavior detection device and method Download PDFInfo
- Publication number
- JP2011248830A JP2011248830A JP2010124171A JP2010124171A JP2011248830A JP 2011248830 A JP2011248830 A JP 2011248830A JP 2010124171 A JP2010124171 A JP 2010124171A JP 2010124171 A JP2010124171 A JP 2010124171A JP 2011248830 A JP2011248830 A JP 2011248830A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- moving body
- feature
- moving
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動体挙動検出装置及び方法に関する。 The present invention relates to a moving body behavior detection apparatus and method.
従来より、自車両の挙動の変化を検出する技術としては、下記の特許文献1に記載された車両挙動検出装置が知られている。
Conventionally, as a technique for detecting a change in behavior of the host vehicle, a vehicle behavior detection device described in
この車両挙動検出装置は、車両前方を撮像した画像を用いて、自車両から遠方に離れた特徴点を特徴点として検出する。この車両挙動検出装置は、当該遠方の特徴点の動きを監視して、自車両の挙動の変化を検出する。この車両挙動検出装置は、遠方の特徴点が、自車両の前進する方向における挙動変化の影響を受けないことを利用し、遠方特徴点の動きに基づいて自車両のヨー方向の挙動を検出している。 This vehicle behavior detection apparatus detects a feature point far away from the host vehicle as a feature point using an image obtained by imaging the front of the vehicle. This vehicle behavior detection device monitors the movement of the distant feature point and detects a change in the behavior of the host vehicle. This vehicle behavior detection device detects the behavior of the host vehicle in the yaw direction based on the movement of the remote feature point by utilizing the fact that the feature point in the distance is not affected by the behavior change in the forward direction of the host vehicle. ing.
上述した車両挙動検出装置は、充分に遠方の特徴点が検出できない場合には、画像内の特徴点の全てが自車両の挙動の影響を受けて画像内で移動する。このため、上述した車両挙動検出装置は、自車両のヨー方向と横方向の挙動が区別できないという問題があった。 When the above-described vehicle behavior detection device cannot detect feature points far away, all the feature points in the image are affected by the behavior of the host vehicle and move in the image. For this reason, the vehicle behavior detection device described above has a problem that the behavior of the host vehicle in the yaw direction and the lateral direction cannot be distinguished.
そこで、本発明は、上述した実情に鑑みて提案されたものであり、移動体のヨー方向と横方向の挙動を高い精度で区別できる移動体挙動検出装置及び方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and an object of the present invention is to provide a moving body behavior detection apparatus and method capable of distinguishing the behavior of a moving body in the yaw direction and the lateral direction with high accuracy. .
本発明は、移動体に対して異なる方向に含まれる第1特徴点及び第2特徴点の移動方向を比較して、当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別する。 The present invention compares the moving directions of the first feature point and the second feature point included in different directions with respect to the moving body, and when the moving directions of the both are different, the moving body moves in the lateral direction. If both moving directions are the same, it is determined that the moving body is moving in the yaw direction.
本発明によれば、移動体に対して異なる方向に含まれる特徴点の移動方向が異なるか同じかによって移動体の移動方向を判別できるので、移動体のヨー方向と横方向の挙動を高い精度で区別できる。 According to the present invention, the moving direction of the moving object can be determined based on whether the moving direction of the feature points included in different directions with respect to the moving object is different or the same. Can be distinguished.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
本発明の第1実施形態として示す車両挙動検出システムは、移動体の挙動を検出する。この車両挙動検出システムは、例えば、自車両の挙動を検出する。この車両挙動検出システムは、例えば、自車両の挙動に基づいて運転者に警告を行うために、自車両の挙動を検出する。
[First Embodiment]
The vehicle behavior detection system shown as the first embodiment of the present invention detects the behavior of a moving object. This vehicle behavior detection system detects the behavior of the host vehicle, for example. For example, the vehicle behavior detection system detects the behavior of the host vehicle in order to warn the driver based on the behavior of the host vehicle.
この車両挙動検出システムは、図1に示すように、自車両1の前方に設けられた前方撮像カメラ12と、自車両1の後方に設けられた後方撮像カメラ13とを有する。この車両挙動検出システムは、図2に示すように、演算装置11と、前方撮像カメラ12と、後方撮像カメラ13と、周囲特徴記憶部14とを含む。
As shown in FIG. 1, the vehicle behavior detection system includes a
前方撮像カメラ12は、自車両1の前方を撮像方向として取り付けられている。前方撮像カメラ12は、所定の時間毎に時間的に連続する前方撮像画像を撮像して、演算装置11に供給する。前方撮像カメラ12は、自車両1に取り付けられ、時間的に連続的した第1画像を撮像する第1撮像手段に相当する。
The
後方撮像カメラ13は、自車両1の後方を撮像方向として取り付けられている。後方撮像カメラ13は、所定の時間毎に時間的に連続する後方撮像画像を撮像して、演算装置11に供給する。後方撮像カメラ13は、第1撮像手段の撮像方向に対して反対の撮像方向となるよう自車両1に取り付けられ、時間的に連続的した第2画像を撮像する第2撮像手段に相当する。
The
前方撮像カメラ12及び後方撮像カメラ13は、当該前方撮像カメラ12の光軸方向と、当該後方撮像カメラ13の光軸方向とが180度の角度を以て取り付けられている。
The
周囲特徴記憶部14は、自車両1周囲の特徴点と当該特徴点の位置情報とを対応付けて記憶している。この周囲特徴記憶部14は、例えば予め計測された特徴点と位置情報とが登録された地図データベースを備えている。特徴点としては、物体のエッジやコーナー等の周囲画像に対してエッジ検出処理をしてエッジが得られた部分画像等が挙げられる。周囲特徴記憶部14は、ハードディスク等の記録媒体に対して情報を記録再生ができる情報記録再生装置である。
The surrounding
なお、周囲特徴記憶部14には、自車両1が移動中にMotion Stereoなどの既存手法によりオンラインで逐次的に特徴点及び位置情報を保存していく処理を行っても良い。
It should be noted that the surrounding
演算装置11は、前方特徴検出部21、前方位置取得部22、前方撮像範囲取得部23、前方特徴選択部24、前方移動計測部25、後方特徴検出部26、後方位置取得部27、後方撮像範囲取得部28、後方特徴選択部29、後方移動計測部30、及び、移動体挙動判定部31を備える。
The
なお、演算装置11は、実際にはROM、RAM、CPU等にて構成されているが、当該CPUがROMに格納された車両挙動検出用のプログラムに従って処理をすることによって実現できる機能をブロックとして説明する。すなわち、以下では、演算装置11の物理的な構成は単一であるものの、プログラムによって演算装置11が実行できる処理内容に対応して、演算装置11の各機能部21〜31を説明する。
The
前方特徴検出部21は、前方撮像カメラ12により撮像された前方撮像画像が供給される。前方特徴検出部21は、前方撮像画像に対してエッジ検出処理等を行って、前方撮像画像に含まれる前方特徴点を検出する。この前方特徴点としては、周囲特徴記憶部14に記憶されたエッジやコーナー等と同様に、実際の前方撮像画像から検出した部分画像である。
The front
同様に、後方撮像範囲取得部28は、後方撮像カメラ13により撮像された後方撮像画像が供給される。後方撮像範囲取得部28は、後方撮像画像に対してエッジ検出処理等を行って、後方撮像画像に含まれる後方特徴点を検出する。この後方特徴点としては、周囲特徴記憶部14に記憶されたエッジやコーナー等と同様に、実際の後方撮像画像から検出した部分画像である。
Similarly, the rear imaging
前方位置取得部22は、前方撮像カメラ12により撮像される前方撮像画像内における前方特徴点の位置を推定する。
The front
同様に、後方位置取得部27は、後方撮像カメラ13により撮像される後方撮像画像内における後方特徴点の位置を推定する。
Similarly, the rear
前方位置取得部22及び後方位置取得部27は、実際に前方撮像カメラ12及び後方撮像カメラ13によって撮像して特徴点を検出するよりも事前に、自車両1の位置を推定しておく。自車両1の位置の事前推定値は、様々な手法により取得することができる。例えば、GPS(Global Positioning System)等のインフラを利用して自車両1の位置を推定しても良く、自車両1の車輪の回転量から直接的に自車両1の位置を推定しても良い。
The front
前方撮像範囲取得部23、前方特徴選択部24及び前方移動計測部25は、前方特徴検出部21により検出された前方特徴点の移動方向を検出する。
The forward imaging
前方撮像範囲取得部23は、前方位置取得部22により推定された自車両1の位置と、前方撮像カメラ12の取付位置とに基づいて、前方撮像カメラ12の前方撮像範囲を取得する。前方特徴選択部24は、周囲特徴記憶部14により取得された位置情報と前方撮像範囲とを比較して、当該前方撮像範囲に含まれる前方特徴点を選択する。前方移動計測部25は、前方撮像カメラ12により撮像された前方撮像画像に含まれる前方特徴点と、前方特徴選択部24により選択された前方特徴点とのズレから、前方特徴点の移動方向を算出する。
The front imaging
すなわち、前方移動計測部25は、周囲特徴記憶部14に記憶された特徴点のうち前方撮像カメラ12の撮像範囲に現れると推定される前方特徴点の位置と、当該推定された前方特徴点の位置に対する実際の前方特徴点の移動方向を計測する。
That is, the forward
同様に、後方撮像範囲取得部28、後方特徴選択部29及び後方移動計測部30は、後方特徴検出部26により検出された後方特徴点の移動方向を検出する。
Similarly, the rear imaging
後方撮像範囲取得部28は、後方位置取得部27により推定された自車両1の位置と、後方撮像カメラ13の取付位置とに基づいて、後方撮像カメラ13の後方撮像範囲を取得する。後方特徴選択部29は、周囲特徴記憶部14により取得された位置情報と後方撮像範囲とを比較して、当該後方撮像範囲に含まれる後方特徴点を選択する。後方移動計測部30は、後方撮像カメラ13により撮像された後方撮像画像に含まれる後方特徴点と、後方特徴選択部29により選択された後方特徴点とのズレから、後方特徴点の移動方向を算出する。
The rear imaging
すなわち、後方移動計測部30は、周囲特徴記憶部14に記憶された特徴点のうち後方撮像カメラ13の撮像範囲に現れると推定される後方特徴点の位置と、当該推定された後方特徴点の位置に対する実際の後方特徴点の移動方向を計測する。
That is, the backward
前方撮像範囲取得部23及び後方撮像範囲取得部28が撮像範囲を取得するとき、前方位置取得部22及び後方位置取得部27により取得された自車両位置の事前推定値を用いる。これにより、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方撮像カメラ12及び後方撮像カメラ13から観測できる領域を計算する。このとき、前方撮像範囲取得部23及び後方撮像範囲取得部28は、予め周囲特徴記憶部14に記憶されている世界座標上での特徴点の位置と、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置とに基づいて、前方撮像範囲及び後方撮像範囲内における特徴点の位置を推定する。また、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方撮像カメラ12及び後方撮像カメラ13の取り付け方向、カメラ内部パラメータ(画角、ゆがみ)も考慮して、より高い精度で前方撮像範囲及び後方撮像範囲内における特徴点の位置を推定することもできる。
When the front imaging
移動体挙動判定部31は、前方移動計測部25により計測された前方特徴点の移動方向と後方移動計測部30により計測された後方特徴点の移動方向とを比較する。移動体挙動判定部31は、当該双方の移動方向が異なる場合には、自車両1が横方向に移動していると判別する。移動体挙動判定部31は、当該双方の移動方向が同じである場合には、自車両1がヨー方向に移動していると判別する。
The moving body
ここで、図3に示すように、自車両1のヨー方向における特徴点の挙動と、自車両1の横方向における特徴点の挙動は、前方特徴点の移動方向と後方特徴点の移動方向とが異なる動きとして現れる。
Here, as shown in FIG. 3, the behavior of the feature point in the yaw direction of the
自車両1が横方向に移動したとき、図3(A)の(a)に示すように、前方撮像範囲40fにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、自車両1が横方向に移動したとき、図3(A)の(b)に示すように、後方撮像範囲40bにおける事前推定位置の特徴点P’は、実際には右方向に移動した特徴点Pの位置に現れる。このように、自車両1が横方向に移動したとき、前方と後方とで“異なる”移動方向に特徴点Pがずれる。
When the
自車両1が回転方向に移動したとき、図3(B)の(a)に示すように、前方撮像範囲40fにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、自車両1が回転方向に移動したとき、図3(A)の(b)に示すように、後方撮像範囲40bにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。このように、自車両1が回転方向に移動したとき、前方と後方とで“同じ”移動方向に特徴点がずれる。
When the
このことを利用して、車両挙動検出システムは、自車両1のヨー方向の挙動と自車両1の横方向の挙動とを判別することができる。
By utilizing this, the vehicle behavior detection system can discriminate between the behavior of the
つぎに、上述した車両挙動検出システムにおいて、自車両1の挙動を推定する処理手順について、図4及び図5のフローチャート等を参照して説明する。なお、車両挙動検出システムは、所定時間ごとにステップS1以降の処理を実行することによって、所定時間ごとに自車両1の挙動を推定する。
Next, a processing procedure for estimating the behavior of the
先ず、ステップS1において、前方撮像カメラ12によって前方撮像画像を取得すると共に、ステップS4において、後方撮像カメラ13によって後方撮像範囲を取得する。ここで、前方撮像カメラ12による前方撮像画像の取得タイミングと、後方撮像カメラ13による後方撮像画像との取得タイミングとは同期している。
First, in step S1, a front captured image is acquired by the
次に、ステップS2において、前方特徴点の前方撮像画像内位置を推定すると共に、ステップS5において、後方特徴点の後方撮像画像内位置を推定する。 Next, in step S2, the position in the front captured image of the front feature point is estimated, and in step S5, the position in the rear captured image of the rear feature point is estimated.
このステップS2及びステップS5は、図5に示す処理を行う。先ずステップS11において、前方位置取得部22及び後方位置取得部27は、自車両1(移動体)の位置を事前に推定する。この自車両位置の事前推定とは、前方撮像カメラ12及び後方撮像カメラ13による撮像画像を用いない。前方位置取得部22及び後方位置取得部27は、例えば、自車両1の運動モデル、自車両1が移動するトルクを発生させるための制御指令値、GPS等の他のセンサーを用いて、世界座標系に対して自車両1の重心位置Eを求める。ここで自車両1の重心位置Eとは、下記の式1に示すように表現される。
この式1において、Rは3×3の回転行列、tは3次の移動ベクトルを表す。なお、この自車両1の位置の推定は、他にもさまざまな手法で実施することが可能である。
In
前方位置取得部22及び後方位置取得部27は、例えば、自車両1の制御指令値を用いて、事前に自車両1の位置推定を行う。自車両1の制御前における自車両1の重心位置Et−1は求められているとし、自車両1の制御指令値としての直進制御指令値VZ[m/s],回転制御指令値ω[rad/s]による制御が実施されたとする。ただし、自車両1の制御には誤差が伴い、また、制御どおりに自車両1が制御されたとしても、自車両1に対する路面とのフリクションなどにより、制御通りに自車両1が移動するとは限らない。したがって、制御が実施された後の自車両位置の期待値を、
Eprior=Mc・Et−1
とし、これを自車両1の事前推定値Epriorとする。ここで、Mcは、下記の式2により表現される。
E prior = M c · E t−1
This is set as the prior estimated value E prior of the host
次のステップS12において、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方位置取得部22及び後方位置取得部27により取得された自車両位置の事前推定値と、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置とから、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲を取得する。
In the next step S12, the front imaging
ここで、自車両1の重心位置Eに対する前方撮像カメラ12及び後方撮像カメラ13の取り付け位置をCfとする。このとき、世界座標系における前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値は、
Cfprior=Cf・Eprior
として表すことができる。このとき、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値Cfpriorから撮像した撮像範囲は、世界座標を前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値Cfpriorを中心とした座標に変換することによって表される。この前方撮像カメラ12及び後方撮像カメラ13の撮像範囲は、世界座標系(x,y,z)において、zがある値以上であり、x/zとy/zの絶対値が、ある値を下回っている範囲として表すことができる。
Here, the attachment position of the
C fprior = C f · E prior
Can be expressed as At this time, the imaging range imaged from the pre-estimated value C fprior of the attachment positions of the
次のステップS13において、前方特徴選択部24及び後方特徴選択部29は、周囲特徴記憶部14に記憶されている特徴点のうち、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲に入っていると考えられる特徴点を選択する。ここで、特徴点は、予め周辺地図内に世界座標系としての位置情報Piとして表されているとする。この世界座標系の位置情報Piをカメラ座標系で表すと、カメラ座標系の位置情報Picは、
Pic=Cfprior −1・Pi
として表すことができる。前方特徴選択部24及び後方特徴選択部29は、当該カメラ座標系の位置情報Picを用いて、カメラ座標系の位置情報Pic34の移動ベクトルz成分がある値以上、Pic14/Pic34,Pic24/Pic34の絶対値がある値を下回っていることを条件として、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲に入っていると考えられる特徴点を選択する。ここで、Pic14は、カメラ座標系の位置情報Picの移動ベクトルx成分であり、Pic24は、カメラ座標系の位置情報Picの移動ベクトルy成分である。
In the next step S <b> 13, the front
P ic = C fprior −1 · P i
Can be expressed as The front
図4に戻り、ステップS3において、前方移動計測部25によって、ステップS2にて推定した前方撮像画像内における前方特徴点の推定位置と、実際に撮像された前方撮像画像内における前方特徴点の位置とのズレdpを計測する。このとき、前方移動計測部25は、前方特徴検出部21により検出された実際の前方撮像画像から検出された前方特徴点及び画像内位置を取得しておく。同様に、ステップS6において、後方移動計測部30によって、ステップS5にて推定した後方撮像画像内における後方特徴点の推定位置と、実際に撮像された後方撮像画像内における後方特徴点の位置とのズレdpを計測する。このとき、後方移動計測部30は、後方特徴検出部26により検出された実際の後方撮像画像から検出された後方特徴点及び画像内位置を取得しておく。
Returning to FIG. 4, in step S <b> 3, the estimated position of the forward feature point in the forward captured image estimated in step S <b> 2 by the forward
次のステップS7においては、移動体挙動判定部31によって、ステップS3及びステップS6にて計測されたズレdpから、自車両1の挙動を推定する。このとき、移動体挙動判定部31は、ステップS3にて計測された前方特徴点におけるズレdpによって表される移動方向と、ステップS6にて計測された後方特徴点におけるズレdpによって表される移動方向とを比較する。移動体挙動判定部31は、前方特徴点の移動方向と後方特徴点の移動方向とが同じ場合には、自車両1がヨー方向に移動していると判別する。移動体挙動判定部31は、前方特徴点の移動方向と後方特徴点の移動方向とが異なる場合には、自車両1が横方向に移動していると判別する。これにより、車両挙動検出システムは、自車両1の挙動を推定できる。
In the next step S7, the behavior of the
ステップS7は、ステップS3,ステップS6にて得られた前方特徴点及び後方特徴点のズレdpから、自車両1の運動量が、事前に推定した自車両1の運動量に対してどの程度ずれていたのかの推定を行う。
In step S7, the amount of movement of the
つぎに、車両挙動検出システムによって自車両1の挙動を推定する処理について具体的に説明する。
Next, a process for estimating the behavior of the
先ず、上述したように、前方撮像カメラ12の前方撮像範囲と、後方撮像カメラ13の後方撮像範囲とが反対となっており、移動体挙動判定部31が、前方撮像カメラ12により撮像された前方撮像画像内における前方特徴点の動きと、後方撮像カメラ13より撮像された後方撮像画像内における後方特徴点の動きとの差分に基づいて、自車両1の回転量を算出することについて説明する。
First, as described above, the front imaging range of the
図6に示す三次元座標系において、自車両1の重心位置Eが41’であるときの自車両位置の事前推定値Eprior(40’)と、自車両1の重心位置Eが41であるときの自車両位置の実際値(40)とのズレについて、x方向のズレをMx、z方向のズレをMz、回転方向のズレをMθとして表すとする。図6において、自車両1の事前の向きを42’で表し、実際の自車両1の向きを42で表している。
In the three-dimensional coordinate system shown in FIG. 6, the prior estimated value E prior (40 ′) of the host vehicle position when the center of gravity position E of the
また、図7に示すように、ステップS13において選択された複数の特徴点のうち任意の特徴点を選択し、当該選択された特徴点を注目特徴点P1とし、カメラ座標系において注目特徴点P1が存在するx方向位置をP1x、z方向位置をP1zとする。このとき、注目特徴点P1の画像内におけるx方向のズレdP1xは、
dP1x=−aMθ−f(Mx,Mz,Px,Pz) (式3)
として表すことができる。上記式3における関数fは、回転方向におけるズレMθ以外の自車両1のズレによる画像内での移動量を示す。上記式におけるaは、前方撮像カメラ12及び後方撮像カメラ13の画角により決定される定数である。
Further, as shown in FIG. 7, select any feature point of the plurality of feature points selected in step S13, the selected feature points and feature point P 1, feature point in the camera coordinate system The position in the x direction where P 1 exists is P 1x , and the position in the z direction is P 1z . In this case, deviation d P1x in the x direction in the image of the target feature point P 1 is
d P1x = −aM θ −f (M x , M z , P x , P z ) (Formula 3)
Can be expressed as Function f in the above formula 3 indicates the amount of movement in the image by the own displacement of the
ここで、自車両1の挙動計算を容易にするために、図8に示すように、自車両1の重心位置Eを中心とし、注目特徴点P1の中心軸がz軸方向になるような座標変換を実施する。座標変換の回転角度が十分小さいとき、座標変換後の画像内における注目特徴点P1のズレdpx1’は、図7に示した変換前の画像内における注目特徴点P1のズレdpx1とほぼ等しく、
dpx1’≒dpx1 (式4)
となる。自車両1の回転方向のズレ(−Mθ)は、自車両1の回転による座標変換の影響を受けない。注目特徴点P1の変換後のx方向位置P1x’、z方向位置P1z’は、z軸方向に注目特徴点P1が存在するため、
P1x’=0 (式5)
P1z’={((P1x)2 +(P1z)2)}1/2 (式6)
として表される。変換後の注目特徴点P1の位置が式5のようにP1x’=0の場合、画像上では、自車両1のズレMz’の動きの影響は受けず、画像上のズレdpは、自車両1の回転方向におけるズレMθと、自車両1のx方向における変換後のズレMx’によってのみ決定される。自車両1のx方向における変換後のズレMx’による画像の動きは、自車両1からz方向における注目特徴点P1までの距離(P1z’)に反比例するので、
−Mx’/P1z’ (式7)
として表される。結果として、画像内のx方向における注目特徴点P1のズレdP1xは、式7を利用して、
dP1x=−aMθ−Mx’/P1z’ (式8)
として表される。
Here, in order to facilitate the behavior calculation of the
d px1 ' ≈d px1 (Formula 4)
It becomes. The deviation (−M θ ) in the rotation direction of the
P 1x '= 0 (Formula 5)
P 1z ′ = {((P 1x ) 2 + (P 1z ) 2 )} 1/2 (Formula 6)
Represented as: When the position of the feature point P 1 after conversion is P 1x ′ = 0 as shown in Equation 5, on the image, the movement of the displacement M z ′ of the
-M x '/ P 1z ' (Formula 7)
Represented as: As a result, the deviation dP 1x of the feature point of interest P 1 in the x direction in the image is expressed as
d P1x = -aM θ -M x ' / P 1z' ( Eq. 8)
Represented as:
自車両1の回転方向θにおける変換後のズレMθ’と、自車両1のx方向における変換後のズレMx’を求めるため、注目特徴点P1とは異なる位置の注目特徴点P2を選択する。この注目特徴点P2は、前方特徴点及び後方特徴点の移動方向を計測する精度向上の観点から、変換後のz軸の近傍にあり、注目特徴点P1からなるべく離れていることが望ましい。
'And the self displacement M x after the conversion in the x direction of the vehicle 1' deviation M theta converted in the rotation direction theta of the
これは、変換後のz軸上に注目特徴点P2が存在すれば、変換後のz軸と平行な自車両1の移動があっても、画像内においては注目特徴点P2は動かない。このため、自車両1が移動しても、画像内における注目特徴点P2のz方向の動きを無視して考えることが可能となる。一方、変換後のz軸から注目特徴点P2がずれていると、変換後のz軸と平行に自車両1が移動したときに、注目特徴点P2の画像内位置がx方向又はy方向にずれてしまう。このため、前方特徴点及び後方特徴点の移動方向を計測する精度が低下してしまう。
This, if there is a current feature point P 2 on the z axis after the conversion, even if the movement of the z-axis parallel to the
上述のステップS7において、自車両1の挙動は、画像内における注目特徴点P1のx方向のズレdP1xに基づいて、ヨー方向移動か、横方向移動かの判別がされる。この判別は、前方撮像カメラ12及び後方撮像カメラ13の双方に対し、自車両1の回転方向の移動は同じように作用することを利用している。このため、自車両1の回転方向θにおける変換後のズレMθ’の項には、前方特徴点と後方特徴点とで差異がない。したがって、自車両1の回転方向θにおける変換後のズレMθ’及び自車両1のx方向における変換後のズレMx’を計算するためには、式7,8におけるMx’/P1z’の項に差が発生する必要があり、この差が大きいほど、自車両1の挙動を精度よく求めることが可能となる。したがって、注目特徴点P1からなるべく距離が大きい特徴点を、注目特徴点P2としてを選択することが望ましい。
In step S7 described above, the behavior of the
この場合、注目特徴点P1が前方撮像カメラ12により撮像された前方撮像画像内に存在するとき、注目特徴点P2は自車両1に対して、前方撮像カメラ12の逆方向に存在していることが望ましい。例えば図9に示すように、後方撮像カメラ13により撮像される特徴点のうち、変換後のz’軸の近傍に位置する特徴点を注目特徴点P2として選択する。この注目特徴点P2のズレ量dp2xは、下記の式9に示すように、
dP2x=−aMθ−Mx’/P2z’ (式9)
として表される。式8、式9に関して、注目特徴点P1の画像内におけるx方向のズレdp1x、注目特徴点P1が存在するx方向位置P1x、注目特徴点P1が存在するz方向位置P1z、前方撮像カメラ12及び後方撮像カメラ13の画角により決定される定数a、注目特徴点P2のx方向のズレ量dP2x、注目特徴点P2が存在するz方向位置P2zは既知である。したがって、式8により求められた画像内のx方向における注目特徴点P1のズレdP1xと、式9により求められた画像内のx方向における注目特徴点P2のズレdP2xとの差分から、自車両1の回転方向の移動量Mθ、自車両1のx方向の移動量Mx’を求めることが可能となる。また、自車両1のx方向の移動量Mx’は、変換前座標系におけるx方向の移動量Mx、z方向の移動量Mzとの合成成分となっているので、座標変換前の座標軸に射影することで、変換前座標系におけるx方向の移動量Mx、z方向の移動量Mzを求めることが可能となる。
In this case, when the feature point of interest P 1 is present in the front captured image captured by the
d P2x = -aM θ -M x ' / P 2z' ( Equation 9)
Represented as: Formula 8, with respect to formula 9, x-direction of the deviation d p1x in the image of the target feature point P 1, x direction position P 1x the feature point P 1 is present, z direction position P 1z which feature point P 1 is present , the constant a is determined by the angle of the
以上のように、この車両挙動検出システムによれば、自車両1が横方向に移動した場合、図10(A)の(a)に示すように、前方撮像範囲50fにおける事前推定位置の特徴点事前に推定した特徴点Pf’は、実際には左方向に移動した特徴点Pfの位置に現れる。これに対し、図10(A)の(b)に示すように、後方撮像範囲50bにおける事前に推定した特徴点Pb’は、実際には右方向に移動した特徴点Pbの位置に現れる。このように、自車両1が横方向に移動したとき、前方と後方とで“異なる”移動方向に事前特徴点P’と実際の特徴点Pとがずれる。
As described above, according to this vehicle behavior detection system, when the
自車両1が回転方向に移動したとき、図10(B)の(a)に示すように、前方撮像範囲50fにおける事前に推定した特徴点Pf’は、実際には左方向に移動した特徴点Pfの位置に現れる。これに対し、図10(A)の(b)に示すように、後方撮像範囲50bにおける事前に推定した特徴点Pb’は、実際には左方向に移動した特徴点Pbの位置に現れる。このように、自車両1が回転方向に移動したとき、前方と後方とで“同じ”移動方向に特徴点がずれる。
When the
このように車両挙動検出システムは、予め記憶した周囲の特徴点と、前方撮像カメラ12及び後方撮像カメラ13によって撮像した撮像画像に現れる特徴点との移動方向が同じであるか異なるかによって、自車両1の挙動を検出できる。
As described above, the vehicle behavior detection system automatically determines whether the surrounding feature points stored in advance and the feature points appearing in the captured images captured by the
以上詳細に説明したように、第1実施形態として示した車両挙動検出システムによれば、前方特徴点の移動方向と後方特徴点の移動方向とを比較して、当該双方の移動方向が異なる場合には自車両1が横方向に移動している判別し、当該双方の移動方向が同じである場合には自車両1がヨー方向に移動していると判別できる。これにより、車両挙動検出システムによれば、自車両1のヨー方向の挙動と横方向の挙動とを、高い精度で区別でき、自車両1の位置を求めることが可能となる。
As described above in detail, according to the vehicle behavior detection system shown as the first embodiment, when the movement direction of the front feature point and the movement direction of the rear feature point are compared, the movement directions of the two feature points are different. It can be determined that the
例えば、自車両1の駐車操作の支援機能などを実現する場合、自車両位置が目的位置に対してどのような位置関係にあるのか(Localization)を取得することはきわめて重要である。例えば、以前に自車両1を駐車した位置に同じように駐車するときには、以前に駐車した位置と、現在の自車両1の位置とを正確に把握する必要がある。これに対し、車両挙動検出システムは、自車両1の挙動を検出して、自車両1の位置を精度良く検出できる。また、常に位置検出を実施しながら移動すれば、移動軌跡を得ることが可能となる。次回以降この軌跡をたどれば、複雑な経路計算を行うことなく、自車両1の制御を行うことが可能となる。
For example, when realizing a parking operation support function of the
また、車両挙動検出システムによれば、事前に特徴点を記憶しておき、事前に求めた特徴点と実際に得られた特徴点とから、前方特徴点の移動方向及び後方特徴点の移動方向を得ることができ、自車両1のヨー方向の挙動と横方向の挙動とを、高い精度で区別でき、自車両1の位置を求めることが実現できる。
In addition, according to the vehicle behavior detection system, the feature points are stored in advance, and the movement direction of the front feature point and the movement direction of the rear feature point are determined from the feature points obtained in advance and the actually obtained feature points. Thus, the behavior of the
更に、この車両挙動検出システムによれば、前方撮像カメラ12の前方撮像範囲と、後方撮像カメラ13の後方撮像範囲とが反対となっているので、自車両1が横方向に移動したとき前方と後方とで異なる移動方向に特徴点がずれ、自車両1が回転方向に移動したとき前方と後方とで同じ移動方向に特徴点がずれることを利用して、精度良く自車両1の挙動を検出できる。
Furthermore, according to this vehicle behavior detection system, since the front imaging range of the
更に、この車両挙動検出システムによれば、前方撮像カメラ12により撮像された前方撮像画像内における前方特徴点の動きと、後方撮像カメラ13より撮像された後方撮像画像内における後方特徴点の動きとの差分に基づいて、自車両1の回転量を算出するので、自車両1の運動状態にかかわらず、代数的に自車両1の横方向移動とヨー方向回転を切り分けることができる。これにより、車両挙動検出システムは、低い計算負荷で自車両1の挙動を求めることができる。
Furthermore, according to this vehicle behavior detection system, the movement of the front feature point in the front captured image captured by the
[第2実施形態]
つぎに、第2実施形態の車両挙動検出システムとして、自車両1の挙動を推定する他の処理について具体的に説明する。
[Second Embodiment]
Next, another process for estimating the behavior of the
この車両挙動検出システムは、後方撮像カメラ13によって、前方撮像カメラ12の撮像方向に対して90度方向の画像を撮像する。具体的には、図11に示すように、前方撮像カメラ12の光軸方向は、自車両1の前方となっている。これに対して、後方撮像カメラ13の光軸方向は、前方撮像カメラ12の光軸方向とは180度だけずれているが、後方撮像カメラ13の撮像範囲は、前方撮像カメラ12の光軸方向に対して90度の広がりを有する。
In this vehicle behavior detection system, the
この車両挙動検出システムは、移動体挙動判定部31によって、後方撮像カメラ13により撮像された後方撮像画像に含まれる特徴点の動きに基づいて、自車両1の回転量を算出する。
In this vehicle behavior detection system, the moving body
このような車両挙動検出システムにおいて、後方撮像カメラ13の後方撮像範囲に含まれると推定される後方特徴点と、実際に後方撮像画像に含まれた後方特徴点とのズレは、回転方向におけるズレMθのみによると考えられる。したがって、この場合、後方撮像カメラ13によって観測されるズレdP1xは、
dP1x=−Mθ (式10)
となり、当該式10によって、自車両1の回転量を求めることが可能となる。
In such a vehicle behavior detection system, the deviation between the rear feature point estimated to be included in the rear imaging range of the
d P1x = −M θ (Formula 10)
Thus, the rotation amount of the
ここで、自車両1を駐車枠に停車させる駐車操作において、駐車枠内の停止位置と予想される位置に自車両1を停止した状況を考える。このとき、演算装置11は、自車両1の車輪回転量等を検出することにより、自車両1が直進方向に進行していないことが認識できる。また、前方撮像カメラ12及び後方撮像カメラ13により撮像された特徴点群より、自車両1の直進方向に関しての停止位置が正しいことを確認できるとする。
Here, in the parking operation for stopping the
この状況において、車両挙動検出システムは、停止位置に対して自車両1が横方向にずれているのか、又は、停止位置に対して自車両1が回転方向にずれているのか正確に判別できる。これにより、車両挙動検出システムは、駐車操作をやり直す経路計画を正確に立てるために、車両挙動を検出できる。
In this situation, the vehicle behavior detection system can accurately determine whether the
以上説明したように、第2実施形態として示した車両挙動検出システムによれば、第1実施形態と同様に、前方特徴点の移動方向と後方特徴点の移動方向とを比較して、自車両1の横方向移動とヨー方向移動とを判別でき、自車両1のヨー方向の挙動と横方向の挙動とを高い精度で区別でき、自車両1の位置を求めることが可能となる。
As described above, according to the vehicle behavior detection system shown as the second embodiment, as in the first embodiment, the moving direction of the front feature point and the moving direction of the rear feature point are compared, and the
また、この車両挙動検出システムによれば、後方撮像カメラ13が、前方撮像カメラ12の撮像方向に対して90度方向の後方撮像画像を撮像するように構成している。これにより、車両挙動検出システムによれば、後方撮像カメラ13を用いて自車両1の位置を推定することができるため、自車両1が停止しているときに高い精度で自車両1の位置を求めることが可能となる。
Further, according to this vehicle behavior detection system, the
更に、この車両挙動検出システムによれば、後方撮像カメラ13により撮像された後方撮像画像に含まれる特徴点の動きに基づいて、移動体挙動判定部31によって自車両1の回転量を算出できる。これにより、車両挙動検出システムは、低い計算負荷で自車両1の挙動を求めることができる。
Furthermore, according to this vehicle behavior detection system, the amount of rotation of the
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
すなわち、上述した車両挙動検出システムは、自車両1の挙動を検出するものについて説明したが、他の移動体、例えばロボット等の挙動を検出するものであっても良い。
That is, although the above-described vehicle behavior detection system has been described for detecting the behavior of the
1 自車両
11 演算装置
12 前方撮像カメラ
13 後方撮像カメラ
14 周囲特徴記憶部
21 前方特徴検出部
22 前方位置取得部
23 前方撮像範囲取得部
24 前方特徴選択部
25 前方移動計測部
26 後方特徴検出部
27 後方位置取得部
28 後方撮像範囲取得部
29 後方特徴選択部
30 後方移動計測部
31 移動体挙動判定部
DESCRIPTION OF
Claims (6)
前記第1撮像手段の撮像方向に対して反対の撮像方向となるよう移動体に取り付けられ、時間的に連続的した第2画像を撮像する第2撮像手段と、
前記第1撮像手段により撮像された第1画像から第1特徴点を検出する第1特徴検出手段と、
前記第2撮像手段により撮像された第2画像から第2特徴量を検出する第2特徴検出手段と、
前記第1特徴検出手段により検出された第1特徴点の移動方向を計測する第1移動計測手段と、
前記第2特徴検出手段により検出された第2特徴点の移動方向を計測する第2移動計測手段と、
前記第1移動計測手段により計測された第1特徴点の移動方向と前記第2移動計測手段により計測された第2特徴点の移動方向とを比較して、当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別する移動体挙動判別手段と
を備えることを特徴とする移動体挙動検出装置。 A first imaging means attached to the moving body and capturing a first image that is temporally continuous;
A second imaging unit that is attached to the moving body so as to be in an imaging direction opposite to the imaging direction of the first imaging unit, and that captures a second image that is temporally continuous;
First feature detection means for detecting a first feature point from a first image imaged by the first imaging means;
Second feature detection means for detecting a second feature amount from the second image imaged by the second imaging means;
First movement measuring means for measuring a moving direction of the first feature point detected by the first feature detecting means;
Second movement measuring means for measuring the moving direction of the second feature point detected by the second feature detecting means;
When the moving direction of the first feature point measured by the first movement measuring unit and the moving direction of the second feature point measured by the second movement measuring unit are compared, and the two moving directions are different Comprises a moving body behavior determining means for determining whether the moving body is moving in the lateral direction, and determining that the moving body is moving in the yaw direction when both moving directions are the same. A moving body behavior detection device.
前記移動体の位置を推定する位置推定手段と、
前記位置推定手段により推定された移動体の位置と、前記第1撮像手段の取付位置とに基づいて、前記第1撮像手段の第1撮像範囲を取得する第1撮像範囲取得手段と、
前記位置推定手段により推定された移動体の位置と、前記第2撮像部の取付位置に基づいて、前記第2撮像部の第2撮像範囲を取得する第2撮像範囲取得手段と、
前記周囲特徴取得手段により取得された位置情報と前記第1撮像範囲とを比較して、当該第1撮像範囲に含まれる特徴点を選択する第1特徴選択手段と、
前記周囲特徴取得手段により取得された位置情報と前記第2撮像範囲とを比較して、当該第2撮像範囲に含まれる特徴点を選択する第2特徴選択手段と、
前記第1移動計測手段は、前記第1撮像手段により撮像された第1画像に含まれる特徴点と、前記第1特徴選択手段により選択された特徴点とから、前記第1特徴点の移動方向を算出し、
前記第2移動計測手段は、前記第2撮像手段により撮像された第2画像に含まれる特徴点と、前記第2特徴択手段により選択された特徴点とから前記第2特徴点の移動方向を算出することを
を特徴とする請求項1に記載の移動体挙動検出装置。 Surrounding feature acquisition means for acquiring feature points around the preset moving body and position information of the feature points;
Position estimating means for estimating the position of the moving body;
First imaging range acquisition means for acquiring a first imaging range of the first imaging means based on the position of the moving body estimated by the position estimation means and the mounting position of the first imaging means;
Second imaging range acquisition means for acquiring the second imaging range of the second imaging section based on the position of the moving body estimated by the position estimation means and the mounting position of the second imaging section;
A first feature selection unit that compares the position information acquired by the surrounding feature acquisition unit with the first imaging range and selects a feature point included in the first imaging range;
A second feature selection unit that compares the position information acquired by the surrounding feature acquisition unit with the second imaging range and selects a feature point included in the second imaging range;
The first movement measuring means is a moving direction of the first feature point from a feature point included in the first image picked up by the first image pickup means and a feature point selected by the first feature selection means. To calculate
The second movement measuring means determines a moving direction of the second feature point from a feature point included in the second image picked up by the second image pickup means and a feature point selected by the second feature selection means. The mobile body behavior detection device according to claim 1, wherein the mobile body behavior detection device is calculated.
移動体の第1方向に含まれる第1特徴点の移動方向と、移動体の第2方向に含まれる第2特徴点の移動方向とを比較して、
当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別すること
を特徴とする移動体挙動検出方法。 Measuring a first feature point included in the first direction of the moving body and a second feature point included in a second direction different from the first direction;
The moving direction of the first feature point included in the first direction of the moving body is compared with the moving direction of the second feature point included in the second direction of the moving body,
If the two moving directions are different, it is determined that the moving body is moving in the lateral direction, and if both moving directions are the same, it is determined that the moving body is moving in the yaw direction. A moving body behavior detection method characterized.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010124171A JP5604987B2 (en) | 2010-05-31 | 2010-05-31 | Moving body behavior detecting apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010124171A JP5604987B2 (en) | 2010-05-31 | 2010-05-31 | Moving body behavior detecting apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011248830A true JP2011248830A (en) | 2011-12-08 |
JP5604987B2 JP5604987B2 (en) | 2014-10-15 |
Family
ID=45413967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010124171A Active JP5604987B2 (en) | 2010-05-31 | 2010-05-31 | Moving body behavior detecting apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5604987B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140134351A (en) * | 2013-05-13 | 2014-11-24 | 한국전자통신연구원 | Movement path extraction devices of mutual geometric relations fixed camera group and the method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004032528A (en) * | 2002-06-27 | 2004-01-29 | Nissan Motor Co Ltd | Image recognition device |
JP2006308319A (en) * | 2005-04-26 | 2006-11-09 | Advics:Kk | Device and method for detecting slip angle of car body, and motion controller unit for car equipped with same |
JP2009074859A (en) * | 2007-09-19 | 2009-04-09 | Toyota Central R&D Labs Inc | Motion measuring device and position measuring device |
JP2009181492A (en) * | 2008-01-31 | 2009-08-13 | Konica Minolta Holdings Inc | Analyzer |
-
2010
- 2010-05-31 JP JP2010124171A patent/JP5604987B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004032528A (en) * | 2002-06-27 | 2004-01-29 | Nissan Motor Co Ltd | Image recognition device |
JP2006308319A (en) * | 2005-04-26 | 2006-11-09 | Advics:Kk | Device and method for detecting slip angle of car body, and motion controller unit for car equipped with same |
JP2009074859A (en) * | 2007-09-19 | 2009-04-09 | Toyota Central R&D Labs Inc | Motion measuring device and position measuring device |
JP2009181492A (en) * | 2008-01-31 | 2009-08-13 | Konica Minolta Holdings Inc | Analyzer |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140134351A (en) * | 2013-05-13 | 2014-11-24 | 한국전자통신연구원 | Movement path extraction devices of mutual geometric relations fixed camera group and the method |
KR102077498B1 (en) * | 2013-05-13 | 2020-02-17 | 한국전자통신연구원 | Movement path extraction devices of mutual geometric relations fixed camera group and the method |
Also Published As
Publication number | Publication date |
---|---|
JP5604987B2 (en) | 2014-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6107081B2 (en) | Image processing apparatus, image processing method, and program | |
JP5782708B2 (en) | Driving support device | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP2018512593A (en) | Object position measurement with in-vehicle camera using vehicle movement data | |
JP2014034251A (en) | Vehicle traveling control device and method thereof | |
JP5699670B2 (en) | Travel route generation device and travel route generation method | |
JP2024025803A (en) | Vehicle utilizing space information acquired using sensor, sensing device utilizing space information acquired using sensor, and server | |
JP6171593B2 (en) | Object tracking method and system from parallax map | |
JP2009041972A (en) | Image processing device and method therefor | |
JP2009180536A (en) | Image processing apparatus, image processing method, and program | |
CN109443348A (en) | It is a kind of based on the underground garage warehouse compartment tracking for looking around vision and inertial navigation fusion | |
US10110822B2 (en) | Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera | |
JP7067574B2 (en) | Distance estimation device and computer program for distance estimation | |
JP2011141221A (en) | Positioning device and positioning method | |
KR20150112536A (en) | Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same | |
JP5652239B2 (en) | Motion estimation apparatus and program | |
JP7145770B2 (en) | Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor | |
JP6699323B2 (en) | Three-dimensional measuring device and three-dimensional measuring method for train equipment | |
JP5604987B2 (en) | Moving body behavior detecting apparatus and method | |
JP2012517055A (en) | Method and apparatus for operating a vehicle driver assistance system based on video | |
JP6988873B2 (en) | Position estimation device and computer program for position estimation | |
JP2013186718A (en) | Mobile object position attitude estimation device and method | |
Buczko et al. | Self-validation for automotive visual odometry | |
JP2019007739A (en) | Self position estimation method and self position estimation device | |
JP2021017073A (en) | Position estimation apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130327 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140811 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5604987 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |