JP2013003110A - Vehicle state detection apparatus - Google Patents
Vehicle state detection apparatus Download PDFInfo
- Publication number
- JP2013003110A JP2013003110A JP2011137698A JP2011137698A JP2013003110A JP 2013003110 A JP2013003110 A JP 2013003110A JP 2011137698 A JP2011137698 A JP 2011137698A JP 2011137698 A JP2011137698 A JP 2011137698A JP 2013003110 A JP2013003110 A JP 2013003110A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- optical flow
- host vehicle
- speed
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置に関するものである。 The present invention relates to a vehicle state detection device that detects the state of a host vehicle based on image data captured by an imaging device installed in the vehicle.
従来、車両に設置された撮像装置で撮像された画像データに基づいて自車両の状態を検出する技術の一例として、特許文献1に開示された運転支援システムがあった。 Conventionally, there has been a driving support system disclosed in Patent Document 1 as an example of a technique for detecting the state of the host vehicle based on image data captured by an imaging device installed in the vehicle.
この運転支援システムは、車速センサ及び舵角センサを必要とすることなく自車両の状態(車両速度及び回転角)を検出(推定)するものである。具体的には、車両に設置された撮像装置(カメラ)による画像データから特徴点を抽出する。そして、時系列で並ぶ画像データ間における特徴点の追跡処理を行うことで、オプティカルフロー(移動ベクトル)を導出する。そして、このオプティカルフローに基づいて自車両の状態を検出する。 This driving support system detects (estimates) the state of the host vehicle (vehicle speed and rotation angle) without requiring a vehicle speed sensor and a steering angle sensor. Specifically, feature points are extracted from image data obtained by an imaging device (camera) installed in the vehicle. Then, an optical flow (movement vector) is derived by performing a feature point tracking process between image data arranged in time series. And the state of the own vehicle is detected based on this optical flow.
ところで、この運転支援システムでは、抽出されるべき特徴点は、例えば、路面上に描かれた白線の交点又は端点などの不動点(すなわち静止物(路面に固定又は描かれるなどによって、路面に対して静止している物)の一部)が想定されている。 By the way, in this driving support system, the feature points to be extracted are fixed points such as intersections or end points of white lines drawn on the road surface (that is, stationary objects (fixed or drawn on the road surface, etc.). Part of a stationary object) is assumed.
しかしながら、撮像装置の撮像領域内には、静止物だけでなく、路面に対して移動する物(移動物)が存在することもありうる。この場合、撮像装置は、静止物とともに移動物を撮像することになる。このように、撮像装置が静止物とともに移動物を撮像した場合、運転支援システムは、静止物(すなわち静止物の一部)と移動物(すなわち移動物の一部)とを特徴点として抽出してしまう。よって、運転支援システムは、静止物から抽出された特徴点に関してオプティカルフロー(以下、静止物のオプティカルフローとも称する)を導出するだけではなく、移動物から抽出された特徴点に関してもオプティカルフロー(以下、移動物のオプティカルフローとも称する)を導出することになる。つまり、運転支援システムが導出したオプティカルフローには、静止物のオプティカルフローと移動物のオプティカルフローとが含まれることになる。これによって、運転支援システムは、静止物のオプティカルフローと移動物のオプティカルフローとに基づいて自車両の状態を検出することになる。 However, not only a stationary object but also an object that moves relative to the road surface (moving object) may exist in the imaging region of the imaging device. In this case, the imaging device images a moving object together with a stationary object. In this way, when the imaging device images a moving object together with a stationary object, the driving support system extracts the stationary object (that is, a part of the stationary object) and the moving object (that is, a part of the moving object) as feature points. End up. Therefore, the driving support system not only derives an optical flow (hereinafter also referred to as an optical flow of a stationary object) with respect to a feature point extracted from a stationary object, but also applies an optical flow (hereinafter referred to as a feature point extracted from a moving object). , Also referred to as an optical flow of a moving object). That is, the optical flow derived by the driving support system includes an optical flow of a stationary object and an optical flow of a moving object. Thus, the driving support system detects the state of the host vehicle based on the optical flow of the stationary object and the optical flow of the moving object.
本来、運転支援システムは、静止物から抽出された特徴点のオプティカルフローに基づいて自車両の状態を検出するものであるため、このように静止物のオプティカルフローと移動物のオプティカルフローとに基づいて自車両の状態を検出してしまうと、検出精度が低下する可能性がある。 Originally, the driving support system detects the state of the vehicle based on the optical flow of the feature points extracted from the stationary object, and thus based on the optical flow of the stationary object and the optical flow of the moving object. If the state of the host vehicle is detected, the detection accuracy may be reduced.
本発明は、上記問題点に鑑みなされたものであり、車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置であって、検出精度を向上させることを目的とする。 The present invention has been made in view of the above problems, and is a vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle, and has detection accuracy. The purpose is to improve.
上記目的を達成するために請求項1に記載の発明は、
車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置であって、
撮像装置で所定の撮像間隔Δt毎に撮像された複数の画像データを取得する画像データ取得手段(S10)と、
複数の画像データの夫々において特徴点を抽出する特徴点抽出手段(S20)と、
時間的に連続する画像データにおいて、特徴点の位置を追跡処理することによって複数のオプティカルフローを導出するオプティカルフロー導出手段(S30)と、
導出された複数のオプティカルフローにおいて、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する分類手段(S50)と、
オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する選択手段(S60)と、
選択された自車オプティカルフローに基づいて自車両の状態を検出する第1検出手段(S70)と、を備えることを特徴とする。
In order to achieve the above object, the invention described in claim 1
A vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle,
Image data acquisition means (S10) for acquiring a plurality of image data captured at predetermined imaging intervals Δt by the imaging device;
Feature point extraction means (S20) for extracting feature points in each of the plurality of image data;
Optical flow deriving means (S30) for deriving a plurality of optical flows by tracking the positions of feature points in temporally continuous image data;
Classification means (S50) for classifying optical flows having the same direction and size in a plurality of derived optical flows into one group;
Selecting means (S60) for selecting the optical flow of the group including the most optical flows as the own vehicle optical flow corresponding to the own vehicle;
First detection means (S70) for detecting the state of the host vehicle based on the selected host vehicle optical flow.
このように、時間的に連続する画像データにおける特徴点に基づいて導出した複数のオプティカルフローには、路面に対して静止している静止物から抽出された特徴点のオプティカルフロー(すなわち、特徴点として抽出された静止物の部位のオプティカルフロー)と、路面に対して移動している移動物から抽出された特徴点のオプティカルフロー(すなわち、特徴点として抽出された移動物の部位のオプティカルフロー)とが含まれることがある。なお、移動物には、対向車(自車両が走行している車線の反対車線を走行している前方車両)や、先行車(自車両と同一の車線を走行している前方車両)が含まれる。一方、静止物には、路面上に描かれた白線や、地面に固定された標識、ガードレールなどが含まれる。 As described above, the plurality of optical flows derived based on the feature points in temporally continuous image data include optical flows of feature points extracted from stationary objects that are stationary with respect to the road surface (that is, feature points). And the optical flow of the feature point extracted from the moving object moving with respect to the road surface (that is, the optical flow of the part of the moving object extracted as the feature point) May be included. The moving objects include oncoming vehicles (front vehicles traveling in the opposite lane of the lane in which the host vehicle is traveling) and preceding vehicles (front vehicles traveling in the same lane as the host vehicle). It is. On the other hand, the stationary object includes a white line drawn on the road surface, a sign fixed to the ground, a guardrail, and the like.
この移動物のオプティカルフローは、移動物の進行方向と自車両の進行方向との相対的な関係、及び移動物の速さと自車両の速さとの相対的な関係に伴って変化するものである。また、移動物としての対向車や先行車は、それぞれ進行する方向や速さが異なることが多い。従って、各移動物のオプティカルフローは夫々異なることが多い。 The optical flow of the moving object changes in accordance with the relative relationship between the moving direction of the moving object and the traveling direction of the own vehicle, and the relative relationship between the speed of the moving object and the speed of the own vehicle. . Also, oncoming vehicles and preceding vehicles as moving objects often have different traveling directions and speeds. Accordingly, the optical flow of each moving object is often different.
これに対して、静止物のオプティカルフローは、静止物に対する自車両の相対的な進行方向、及び静止物に対する自車両の相対的な速さとの関係に伴って変化するものである。従って、各静止物のオプティカルフローは、方向及び大きさが同じとなることが多い。また、各静止物のオプティカルフローは、各移動物のオプティカルフローと異なることが多い。そこで、本発明においては、方向と大きさが同じであるオプティカルフローの数が最も多いオプティカルフローは、静止物のオプティカルフローとみなす。 On the other hand, the optical flow of a stationary object changes with the relationship between the relative traveling direction of the host vehicle relative to the stationary object and the relative speed of the host vehicle relative to the stationary object. Therefore, the optical flow of each stationary object often has the same direction and size. In addition, the optical flow of each stationary object is often different from the optical flow of each moving object. Therefore, in the present invention, an optical flow having the largest number of optical flows having the same direction and size is regarded as an optical flow of a stationary object.
従って、本発明の車両状態検出装置では、オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する。つまり、オプティカルフローが最も多く含まれるグループ(クラスタ)のオプティカルフローを、自車両の車両速度VW(速度V(ベクトル)+角速度W(ベクトル))として選択する。このように、便宜上、自車両の車両速度VW(速度V+角速度W)を自車オプティカルフローと称している。そして、この自車オプティカルフローに基づいて自車両の状態を検出するので、画像データに移動物と静止物の両方が含まれていた場合であっても、移動物のオプティカルフローに影響されることを抑制でき、検出精度を向上させることができる。 Therefore, in the vehicle state detection device of the present invention, the optical flow of the group including the most optical flows is selected as the own vehicle optical flow corresponding to the own vehicle. That is, the optical flow of the group (cluster) including the most optical flows is selected as the vehicle speed VW (speed V (vector) + angular speed W (vector)) of the host vehicle. Thus, for convenience, the vehicle speed VW (speed V + angular speed W) of the host vehicle is referred to as the host vehicle optical flow. And since the state of the own vehicle is detected based on this own vehicle optical flow, even if both moving and stationary objects are included in the image data, it is affected by the optical flow of the moving object. And the detection accuracy can be improved.
また、請求項2に示すように、第1検出手段(S70)は、自車オプティカルフローに含まれる特徴点の自車両進行方向における変化量と、画像データの撮像間隔Δtとによって、自車両の進行方向における速度Vを検出する速度検出手段(S71)を含むようにしてもよい。 Further, as shown in claim 2, the first detection means (S70) determines the vehicle's own vehicle based on the amount of change in the traveling direction of the feature point included in the vehicle's optical flow and the imaging interval Δt of the image data. You may make it include the speed detection means (S71) which detects the speed V in the advancing direction.
つまり、自車両の状態として、自車両の進行方向における速度Vを検出するようにしてもよい。このように、画像データの処理によって、自車両進行方向における速度Vを検出することができるので、車速センサを用いる必要がない。 That is, the speed V in the traveling direction of the host vehicle may be detected as the state of the host vehicle. As described above, since the speed V in the traveling direction of the host vehicle can be detected by processing the image data, it is not necessary to use a vehicle speed sensor.
なお、自車オプティカルフローは、自車両の速度Vと角速度Wとの合成である。そこで、請求項3に示すように、第1検出手段(S70)は、自車オプティカルフローから速度Vを減算することによって、自車両の角速度Wを検出する角速度検出手段(S72)を含むようにしてもよい。
The own vehicle optical flow is a combination of the speed V and the angular velocity W of the own vehicle. Therefore, as shown in
つまり、自車両の状態として、自車両の角速度Wを検出するようにしてもよい。このように、画像データの処理によって、自車両の角速度Wを検出することができるので、ジャイロセンサを用いる必要がない。 That is, the angular velocity W of the host vehicle may be detected as the state of the host vehicle. As described above, since the angular velocity W of the host vehicle can be detected by processing the image data, it is not necessary to use a gyro sensor.
また、この角速度Wは、自車両のヨー角及びピッチング角を示す平行成分と、自車両のロール角を示す回転成分が合成されたものである。 The angular velocity W is a combination of a parallel component indicating the yaw angle and pitching angle of the host vehicle and a rotation component indicating the roll angle of the host vehicle.
そこで、請求項4に示すように、角速度検出手段(S72)は、自車オプティカルフローから前記速度Vを減算した差分オプティカルフローから、撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、この選択された各差分オプティカルフロー同士を加算して2で除算した値を、差分オプティカルフローから回転成分を取り除いた平行成分とし、この平行成分から自車両のヨー角及びピッチング角を検出するヨー・ピッチング検出手段(S721)を含むようにしてもよい。つまり、自車両の状態として、自車両のヨー角及びピッチング角を検出するようにしてもよい。 Therefore, as shown in claim 4, the angular velocity detection means (S 72) has two points symmetrical with respect to the center position of the imaging screen coordinates in the imaging device from the difference optical flow obtained by subtracting the velocity V from the own vehicle optical flow. Each difference optical flow at one feature point is selected, and each selected difference optical flow is added together and divided by 2 to obtain a parallel component obtained by removing the rotation component from the difference optical flow. You may make it include the yaw / pitching detection means (S721) which detects the yaw angle and pitching angle of a vehicle. That is, the yaw angle and pitching angle of the host vehicle may be detected as the state of the host vehicle.
また、請求項5に示すように、角速度検出手段(S72)は、自車オプティカルフローから速度Vを減算した差分オプティカルフローから、撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、この選択された各差分オプティカルフロー同士の差分を2で除算した値を、差分オプティカルフローから平行成分を取り除いた回転成分とし、この回転成分を自車両のロール角として検出するロール検出手段(S722)を含むようにしてもよい。つまり、自車両の状態として、自車両のロール角を検出するようにしてもよい。 Further, as shown in claim 5, the angular velocity detection means (S72) includes two points symmetrical with respect to the center position of the imaging screen coordinates in the imaging device from the difference optical flow obtained by subtracting the velocity V from the own vehicle optical flow. Each difference optical flow at the feature point is selected, and a value obtained by dividing the difference between the selected difference optical flows by 2 is defined as a rotation component obtained by removing the parallel component from the difference optical flow. You may make it include the roll detection means (S722) detected as a roll angle. That is, the roll angle of the host vehicle may be detected as the state of the host vehicle.
また、請求項6に示すように、オプティカルフロー導出手段(S30)にて導出された複数のオプティカルフローから、自車オプティカルフローより大きいオプティカルフローを選択し、このオプティカルフローから自車オプティカルフローを減算することで、対向車両に対応する対向車オプティカルフローを検出する第2検出手段(S60)と、対向車オプティカルフローの方向が、自車両に向いているか否かを判定する第1判定手段(S80,S81)と、を含むようにしてもよい。 Further, as shown in claim 6, an optical flow larger than the own vehicle optical flow is selected from the plurality of optical flows derived by the optical flow deriving means (S30), and the own vehicle optical flow is subtracted from this optical flow. Thus, the second detection means (S60) for detecting the oncoming vehicle optical flow corresponding to the oncoming vehicle, and the first determination means (S80) for judging whether the direction of the oncoming vehicle optical flow is directed to the host vehicle. , S81).
このようにすることによって、画像データの処理によって、自車両に向かって走行している対向車が存在する状態であるか否かを判定することができる。 By doing so, it is possible to determine whether or not there is an oncoming vehicle traveling toward the host vehicle by processing the image data.
また、請求項7に示すように、ロール検出手段(S722)にて検出されたロール角と閾値とを比較し、このロール角が閾値に達した場合に自車両の走行状態が不安定であると判定し、ロール角が閾値に達していない場合に自車両の走行状態が安定していると判定する第2判定手段(S90,S91)を備えるようにしてもよい。 Further, as shown in claim 7, the roll angle detected by the roll detection means (S722) is compared with a threshold value, and when the roll angle reaches the threshold value, the traveling state of the host vehicle is unstable. The second determination means (S90, S91) for determining that the traveling state of the host vehicle is stable when the roll angle has not reached the threshold value may be provided.
このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出することができる。 By doing so, it is possible to detect whether or not the traveling state of the host vehicle is stable by processing the image data.
また、請求項8に示すように、ヨー・ピッチング検出手段(S721)にて検出されたヨー角と閾値とを比較し、このヨー角が閾値に達した場合に自車両の走行状態が不安定であると判定し、ヨー角が閾値に達していない場合に自車両の走行状態が安定していると判定する第3判定手段(S90,S91)を備えるようにしてもよい。 Further, as shown in claim 8, the yaw angle detected by the yaw / pitching detection means (S721) is compared with a threshold value, and when the yaw angle reaches the threshold value, the traveling state of the host vehicle is unstable. If the yaw angle has not reached the threshold value, third determination means (S90, S91) for determining that the traveling state of the host vehicle is stable may be provided.
このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出することができる。 By doing so, it is possible to detect whether or not the traveling state of the host vehicle is stable by processing the image data.
以下、本発明の実施の形態を図1〜図8に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to FIGS.
図1に示す、制御装置10は、本発明の車両状態検出装置に相当するものである。この制御装置10(車両状態検出装置)は、車両に設置されるとともに自身(制御装置10)に電気的に接続された車載カメラ(撮像装置)20(以下の説明及び図面では、単にカメラと記載する)からの画像データを取得して、取得した画像データを用いて画像処理を行う。つまり、カメラ20は、車両に設置されるとともに、制御装置10に電気的に接続されている。そして、制御装置10は、この画像処理によって、カメラの状態(速度、角速度など)を検出することで、自車両(自身が搭載されている車両)の状態(速度V、角速度Wなど)を検出するものである。このようにして、車両状態検出装置は、複数のセンサ(車速センサやジャイロセンサなど)を用いることなく自車両の状態(速度V、角速度Wなど)を検出するものである。
A
また、この制御装置10は、例えば、車載LAN(Local Area Network)に接続されて、第1ECU(Electronic Control Unit)30、第2ECU40、第3ECU50などの制御装置と通信可能な構成とすることができる。そして、制御装置10は、この第1ECU30、第2ECU40、第3ECU50を用いて各種車両制御を行うようにしてもよい。
In addition, the
制御装置10は、図1に示すように、CPU(CentralProcessing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、I/F(interface)14などを含むマイクロコンピュータを主体として構成されている。この制御装置10は、CPU11が予めROM13などに格納されたプログラムをRAM12に読出して実行することによって、カメラ20で撮像された画像データの取得など所定の処理動作を実行する。
As shown in FIG. 1, the
ここで、図2〜図8に基づいて、制御装置10(車両状態検出装置)の処理動作に関して説明する。制御装置10は、自車両に搭載された電源(図示省略、例えば、バッテリー)から電源供給されている間、所定時間毎に図2に示すアルゴリズムを実行する。
Here, based on FIGS. 2-8, the processing operation of the control apparatus 10 (vehicle state detection apparatus) is demonstrated. The
まず、ステップS10では、画像データ取得処理を実行する。制御装置10(CPU11)は、カメラ20で所定の撮像間隔Δt毎に撮像された複数の画像データを取得する(画像データ取得手段)。換言すると、一定時間Δt毎に、カメラ20からの画像データ(画像信号)を取り入れる。なお、CPU11は、この画像データを時系列でRAM12などに記憶する。また、カメラ20は、制御装置10とともに車両に搭載されており、自車両の前方などの所定範囲(所定の撮像範囲)を撮像するものである。つまり、カメラ20は、所定の撮像間隔Δt毎に自車両前方などを撮像し、その画像データ(撮像画像情報)を制御装置10に出力する。よって、制御装置10で取得する画像データは、一定時間毎のフレームの画像である。
First, in step S10, an image data acquisition process is executed. The control device 10 (CPU 11) acquires a plurality of image data captured by the
図3(a)に、画像データの一例を示す。この図3(a)に示すように、画像データには、静止物60(路面に固定又は描かれるなどによって、路面に対して静止している物)と移動物70(路面に対して移動している物)とが混在することがある。つまり、カメラ20の撮像領域内には、静止物だけでなく、移動物が存在することもありうる。この場合、カメラ20は、静止物とともに移動物を撮像することになる。
FIG. 3A shows an example of image data. As shown in FIG. 3A, the image data includes a stationary object 60 (an object that is stationary relative to the road surface by being fixed or drawn on the road surface) and a moving object 70 (the object that moves relative to the road surface). May be mixed). That is, not only a stationary object but also a moving object may exist in the imaging region of the
なお、静止物60には、路面上に描かれた白線や、地面に固定された標識、ガードレール(図示省略)、建屋(図示省略)などが含まれる。一方、移動物70には、対向車(自車両が走行している車線の反対車線を走行している前方車両)や、先行車(図示省略、自車両と同一の車線を走行している前方車両)が含まれる。
The
次に、ステップS20では、特徴点抽出処理を実行する。制御装置10(CPU11)は、カメラ20で撮像された複数の画像データの夫々において特徴点を抽出する(特徴点抽出手段)。換言すると、制御装置10(CPU11)は、カメラ20で撮像された各画像データにおいて特徴点を抽出する。
Next, in step S20, feature point extraction processing is executed. The control device 10 (CPU 11) extracts a feature point in each of a plurality of image data captured by the camera 20 (feature point extraction means). In other words, the control device 10 (CPU 11) extracts a feature point from each image data captured by the
画像データに静止物60と移動物70とが混在する場合、静止物60と移動物70とから特徴点が抽出されることになる。例えば、図3(a)に示す画像データの場合、静止物60から特徴点81が抽出され、移動物70から特徴点82が抽出される。つまり、特徴点81は、静止物60から抽出された特徴点であり、特徴点82は、移動物70から抽出された特徴点である。
When the
なお、この特徴点の抽出する際には、特徴点には公知のSIFT(Scale-Invariant Feature Transform)特徴量を用い、特徴点の密度が一様となるように、特定の画像範囲内で特徴量の個数を1つと決める。換言すると、この特徴点の抽出には、公知のSIFTを利用する。また、画像データにおける特徴点の密度が一様になるように、この画像データを同じ広さの複数の領域に区分けして、各領域から特徴点を一つ抽出する(つまり、画像データの全範囲から満遍なく特徴点を抽出する)。具体的には、まず、キーポイント検出し、スケール決定する。このとき、平滑化パラメータ極大値をスケールとする(スケール不変)。次に、特徴量記述(特徴ベクトル)する。このとき、多次元特徴ベクトルにより記述することで、照明変化に頑健な特徴量となる。従って、スケール変化に不変で照明変化に頑健な特徴点を抽出することができる。 When extracting the feature points, a known SIFT (Scale-Invariant Feature Transform) feature amount is used for the feature points, and the feature points are featured within a specific image range so that the density of the feature points is uniform. Decide the number of quantities as one. In other words, a known SIFT is used for extracting the feature points. In addition, the image data is divided into a plurality of regions having the same area so that the density of the feature points in the image data is uniform, and one feature point is extracted from each region (that is, all of the image data is extracted). Extract feature points evenly from the range). Specifically, first, key points are detected and the scale is determined. At this time, the smoothing parameter maximum is used as a scale (scale invariant). Next, feature amount description (feature vector) is described. At this time, the feature amount is robust against a change in illumination by describing with a multidimensional feature vector. Therefore, it is possible to extract feature points that are invariant to scale changes and robust to illumination changes.
次に、ステップS30では、オプティカルフロー導出処理を実行する。制御装置10(CPU11)は、時間的に連続する画像データにおいて、特徴点81,82の位置を追跡処理することによって複数のオプティカルフローを導出する(オプティカルフロー導出手段)。つまり、制御装置10(CPU11)は、例えば現時刻(t)の画像データと前時刻(t−1)の画像データ間の画像全体からオプティカルフローを導出する。このオプティカルフローによって、画像データ全体における各点(特徴点81,82)の動きをベクトルとして取得できる。上述のように、画像データに静止物60と移動物70とが混在する場合、画像データ全体を対象としてオプティカルフローを求めることにより、図3(b)に示すように、静止物60から抽出された特徴点81のオプティカルフローOP1(以下、静止物60のオプティカルフローOP1とも称する)と移動物70から抽出された特徴点82のオプティカルフローOP2(以下、移動物70のオプティカルフローOP2とも称する)とをそれぞれ導出することができる。なお、オプティカルフローを導出する場合、前時刻(t−1)よりも更に過去の画像データを用いてもよい。また、オプティカルフローとは、時間的に連続するデジタル画像の中で物体(特徴点)の動きをベクトルで表したものである。
Next, in step S30, an optical flow derivation process is executed. The control device 10 (CPU 11) derives a plurality of optical flows by tracking the positions of the feature points 81 and 82 in temporally continuous image data (optical flow deriving means). That is, the control device 10 (CPU 11) derives an optical flow from the entire image between, for example, image data at the current time (t) and image data at the previous time (t-1). With this optical flow, the motion of each point (feature points 81 and 82) in the entire image data can be acquired as a vector. As described above, when the
この静止物60のオプティカルフローOP1は、静止物60に対する自車両の相対的な進行方向、及び静止物60に対する自車両の相対的な速さとの関係に伴って変化するものである。これに対して、移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。
The optical flow OP <b> 1 of the
次に、ステップS40では、オプティカルフロー正規化処理を実行する。制御装置10(CPU11)は、ステレオマッチングにより自車両(カメラ)から各特徴点までの距離を求める(正規化手段)。そして、特徴点までの距離と消失点との方向によりオプティカルフローを正規化する(正規化手段)。例えば、図3(c)に示すように、特徴点81の一つであるa1と特徴点81の一つであるb1とを採用して説明する。なお、求めたa1までの距離は2mであり、a1でのオプティカルフローの大きさは10である。一方、求めたb1までの距離は10mであり、b1でのオプティカルフローの大きさは2である。このa1とb1とに関して、特徴点までの距離と消失点との方向によりオプティカルフローを正規化すると、a1のオプティカルフロー及びb1のオプティカルフローは、両方とも、方向は垂直であり、大きさは20となる。このように正規化することで、図3(d)に示すように、静止物60から抽出された特徴点のオプティカルフローOP1は、全て同じ方向と大きさとなる。
Next, in step S40, an optical flow normalization process is executed. The control device 10 (CPU 11) obtains the distance from the own vehicle (camera) to each feature point by stereo matching (normalization means). Then, the optical flow is normalized by the distance to the feature point and the direction of the vanishing point (normalization means). For example, as shown in FIG. 3C, description will be made by adopting a1 which is one of the feature points 81 and b1 which is one of the feature points 81. The obtained distance to a1 is 2 m, and the size of the optical flow at a1 is 10. On the other hand, the obtained distance to b1 is 10 m, and the magnitude of the optical flow at b1 is 2. When the optical flow is normalized by the distance to the feature point and the direction of the vanishing point with respect to a1 and b1, the optical flow of a1 and the optical flow of b1 are both perpendicular to each other and have a magnitude of 20 It becomes. By normalizing in this way, as shown in FIG. 3D, the optical flows OP1 of feature points extracted from the
同様に、移動物70(ここでは、対向車)から抽出された特徴点のオプティカルフローOP2に関しても正規化処理を行うことになる。なお、上述のように、移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。従って、図3(d)からも明らかなように、移動物70(ここでは、対向車)から抽出された特徴点のオプティカルフローOP2を正規化すると、a1やb2よりも大きさが大きくなる。なお、正規化後のオプティカルフローOP2の方向は、移動物70の進行方向と自車両の進行方向との相対的な関係によって、a1やb2と同じになることもあるし、異なることもある。なお、本発明の請求項に記載のオプティカルフローは、正規化後のオプティカルフローを示すものである。
Similarly, the normalization process is also performed on the optical flow OP2 of the feature points extracted from the moving object 70 (here, the oncoming vehicle). As described above, the optical flow OP2 of the moving
次に、ステップS50では、クラスタリング処理を実行する。つまり、制御装置10(CPU11)は、導出された複数のオプティカルフロー(正規化後)において、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する(分類手段)。換言すると、導出された複数のオプティカルフロー(正規化後)において、方向と大きさの両方が同じであるか否かによってクラスタリングする。よって、同じグループ(クラスタ)に分類されたオプティカルフロー(正規化後)は、方向と大きさが同じものである。 Next, in step S50, clustering processing is executed. That is, the control device 10 (CPU 11) classifies optical flows having the same direction and size in a plurality of derived optical flows (after normalization) into one group (classification means). In other words, clustering is performed depending on whether both the direction and the magnitude are the same in the derived optical flows (after normalization). Therefore, the optical flows (after normalization) classified into the same group (cluster) have the same direction and size.
次に、ステップS60では、クラスタリングした結果において、静止物と移動物との分離処理を実行する。これまで説明したように、時間的に連続する画像データにおける特徴点に基づいて導出した複数のオプティカルフローには、静止物60のオプティカルフローOP1と、移動物70のオプティカルフローOP2とが含まれることがある。
Next, in step S60, a separation process between a stationary object and a moving object is executed based on the clustering result. As described above, the plurality of optical flows derived based on the feature points in temporally continuous image data include the optical flow OP1 of the
この移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。また、移動物70としての対向車や先行車は、それぞれ進行する方向や速さが異なることが多い。従って、各移動物70のオプティカルフローOP2は夫々異なることが多い。
The optical flow OP2 of the moving
これに対して、静止物60のオプティカルフローは、静止物60に対する自車両の相対的な進行方向、及び静止物に対する自車両の相対的な速さとの関係に伴って変化するものである。従って、各静止物60のオプティカルフローは、方向及び大きさが同じとなることが多い。また、各静止物60のオプティカルフローは、各移動物70のオプティカルフローと異なることが多い。そこで、方向と大きさが同じであるオプティカルフローの数が最も多いオプティカルフローは、静止物60のオプティカルフローとみなす。
On the other hand, the optical flow of the
そこで、制御装置10(CPU11)は、オプティカルフローが最も多く含まれるグループ(クラスタ)のオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する(選択手段)。この自車オプティカルフローは、自車両の車両速度VW(速度V+角速度W)を示すものである。なお、便宜上、自車両の車両速度VW(速度V+角速度W)を自車オプティカルフローと称している。また、この車両速度VW(速度V+角速度W)は、自車両状態、又は自車両の走行状態、又は自車両の運動量とも称することができる。 Therefore, the control device 10 (CPU 11) selects the optical flow of the group (cluster) including the most optical flows as the own vehicle optical flow corresponding to the own vehicle (selection means). The own vehicle optical flow indicates the vehicle speed VW (speed V + angular speed W) of the own vehicle. For convenience, the vehicle speed VW (speed V + angular speed W) of the host vehicle is referred to as the host vehicle optical flow. The vehicle speed VW (speed V + angular speed W) can also be referred to as the own vehicle state, the traveling state of the own vehicle, or the momentum of the own vehicle.
例えば、図3(e)に示すように、グループ91には、9個のオプティカルフロー(正規化後のオプティカルフロー)が含まれるのに対して、グループ92には、1個のオプティカルフロー(正規化後のオプティカルフロー)しか含まれていない。従って、この例においては、グループ91に含まれるオプティカルフローが自車オプティカルフローとして選択される。つまり、静止物のオプティカルフローOP1が自車オプティカルフロー(すなわち、自車両の車両速度VW(速度V+角速度W))として選択されることになる。このように、正規化されたオプティカルフローを方向・大きさでクラスタリングしたときの最大クラスタを静止物として選択する。
For example, as shown in FIG. 3E, the
また、移動物70から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度(速度V+角速度W)と移動物70の車両速度(他車両速度(他車の速度+他車の角速度))とが合成されたものである。従って、移動物70としての対向車から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度(速度V+角速度W)と移動物(対向車)70の対向車両速度MV(対向車速度V1(ベクトル)+対向車角速度W1(ベクトル))とが合成されたものである。また、この対向車両速度MV(速度V1+角速度W1)は、対向車状態、又は対向車両の走行状態、又は対向車の運動量とも称することができる。
The optical flow OP2 of the feature points extracted from the moving
従って、上述のように選択された自車オプティカルフローより大きさが大きいオプティカルフローは、対向車から抽出された特徴点のオプティカルフローとみなすことができる。そこで、制御装置10(CPU11)は、自車オプティカルフローよりも大きさが大きいオプティカルフローを移動物(対向車)70から抽出された特徴点のオプティカルフローとして選択する。例えば、図3(e)に示すように、グループ92に含まれるオプティカルフロー(正規化後のオプティカルフロー)は、自車オプティカルフローよりも大きい。よって、グループ92に含まれるオプティカルフロー(正規化後)を移動物(対向車)70から抽出された特徴点のオプティカルフローとして選択する。なお、上述のように、ここで選択された移動物(対向車)70から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度と対向車の対向車両速度とが合成されたものであるため、合成車両速度VVと記載する。
Therefore, an optical flow having a size larger than that of the own vehicle optical flow selected as described above can be regarded as an optical flow of feature points extracted from the oncoming vehicle. Therefore, the control device 10 (CPU 11) selects an optical flow having a size larger than that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (oncoming vehicle) 70. For example, as shown in FIG. 3E, the optical flow included in the group 92 (optical flow after normalization) is larger than the own vehicle optical flow. Therefore, the optical flow (after normalization) included in the
なお、自車オプティカルフローよりも大きさが小さいオプティカルフロー(正規化後)は、先行車から抽出された特徴点のオプティカルフローとみなすことができる。よって、制御装置10(CPU11)は、自車オプティカルフローよりも大きさが小さいオプティカルフローを移動物(先行車)70から抽出された特徴点のオプティカルフローとして選択することもできる。すなわち、制御装置10(CPU11)は、自車オプティカルフローと大きさが異なるオプティカルフローを移動物(対向車または先行車)70から抽出された特徴点のオプティカルフローとして選択すると言い換えることもできる。 An optical flow (after normalization) having a smaller size than the own vehicle optical flow can be regarded as an optical flow of feature points extracted from the preceding vehicle. Therefore, the control device 10 (CPU 11) can also select an optical flow having a size smaller than that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (preceding vehicle) 70. In other words, the control device 10 (CPU 11) can be paraphrased as selecting an optical flow having a size different from that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (oncoming vehicle or preceding vehicle) 70.
このようにして、導出したオプティカルフローから静止物のオプティカルフローと移動物のオプティカルフローとを分離する。 In this way, the optical flow of the stationary object and the optical flow of the moving object are separated from the derived optical flow.
次に、ステップS70では、車両状態検出処理を実行する。制御装置10(CPU11)は、上述のように選択された自車オプティカルフロー(車両速度(速度V+角速度W)に基づいて自車両の状態を検出する(第1検出手段)。このように、この自車オプティカルフローに基づいて自車両の状態を検出するので、画像データに移動物と静止物の両方が含まれていた場合であっても、移動物のオプティカルフローに影響されることを抑制でき、検出精度を向上させることができる。なお、この自車両の状態としては、自車両の進行方向における速度Vと自車両の角速度Wと自車両の加速度A(ベクトル)とを検出することができる。 Next, in step S70, vehicle state detection processing is executed. The control device 10 (CPU 11) detects the state of the host vehicle based on the host vehicle optical flow (vehicle speed (speed V + angular speed W)) selected as described above (first detection means). Since the state of the host vehicle is detected based on the host vehicle optical flow, even if both moving and stationary objects are included in the image data, it can be suppressed from being affected by the optical flow of the moving object. As the state of the host vehicle, the speed V in the traveling direction of the host vehicle, the angular velocity W of the host vehicle, and the acceleration A (vector) of the host vehicle can be detected. .
ここで、車両状態検出処理に関しては、図3に加えて、図4〜図8を参照しつつ説明する。まず、ステップS71では、速度Vの検出処理を実行する。制御装置10(CPU11)は、自車オプティカルフローに含まれる特徴点の自車両進行方向(消失点方向)における変化量と、画像データの撮像間隔Δtとによって、自車両の進行方向における速度Vを検出(算出)する(速度検出手段)。なお、この消失点は、周知技術で算出することができる。 Here, the vehicle state detection process will be described with reference to FIGS. 4 to 8 in addition to FIG. 3. First, in step S71, speed V detection processing is executed. The control device 10 (CPU 11) determines the velocity V in the traveling direction of the host vehicle based on the amount of change in the traveling direction (vanishing point direction) of the feature point included in the host vehicle optical flow and the imaging interval Δt of the image data. Detect (calculate) (speed detection means). This vanishing point can be calculated by a known technique.
より具体的には、世界座標系において自車両の進行方向における速度Vを算出する。このとき、自車両の進行方向における速度Vを数式1のように仮定する(車輪方向にのみ移動)。
Vz=撮影対象との距離(Zs)の時間変化ということから、Vz=dZs/dtとすることができる。撮影対象との距離(Zs)は公知のステレオマッチングを用い求めることができる。つまり、2台のカメラの中心と計測点からなる三角形を利用した三角測量で求めることができる。よって、左右の画像中の対応点決定に基づいて3次元計測を行う。 Since Vz = time change of the distance (Zs) from the object to be imaged, Vz = dZs / dt can be obtained. The distance (Zs) from the object to be imaged can be obtained using known stereo matching. That is, it can be obtained by triangulation using a triangle composed of the center of two cameras and a measurement point. Therefore, three-dimensional measurement is performed based on determination of corresponding points in the left and right images.
このようにすることで、画像データの処理によって、自車両の進行方向における速度Vを検出することができるので、車速センサを用いる必要がない。つまり、自車両の車輪の回転速度に対応した信号を検出することで自車両の速度を逐次検出するセンサを用いる必要がない。 In this way, the speed V in the traveling direction of the host vehicle can be detected by processing the image data, and therefore it is not necessary to use a vehicle speed sensor. That is, it is not necessary to use a sensor that sequentially detects the speed of the host vehicle by detecting a signal corresponding to the rotational speed of the wheel of the host vehicle.
次に、ステップS72では、角速度Wの検出処理を実行する。具体的には、数式2に示すように、世界座標系において角速度Wを検出(算出)する。
上述のように、自車オプティカルフローは、自車両の進行方向における速度Vと角速度Wとの合成である。そこで、制御装置10(CPU11)は、自車オプティカルフロー(すなわち、自車両の車両速度VW(速度V+角速度W)であり、静止物のオプティカルフロー(正規化後のオプティカルフロー))から自車両の進行方向における速度V(換言すると速度成分)を減算することによって、自車両の角速度W(換言すると角速度成分)を検出する(角速度検出手段)。換言すると、自車オプティカルフローから自車両の進行方向における速度Vの差分をとることによって、自車両の角速度W(換言すると角速度成分)を検出する。例えば、図4(a)に示す自車両の車両速度VW(速度V+角速度W)から自車両の進行方向における速度Vを減算することで、図4(b)に示すように、自車両の角速度Wを検出することができる。 As described above, the own vehicle optical flow is a combination of the velocity V and the angular velocity W in the traveling direction of the own vehicle. Therefore, the control device 10 (CPU 11) determines the vehicle's optical flow from the own vehicle's optical flow (that is, the vehicle's vehicle speed VW (speed V + angular velocity W), the stationary object's optical flow (normalized optical flow)). By subtracting the speed V (in other words, the speed component) in the traveling direction, the angular speed W (in other words, the angular speed component) of the host vehicle is detected (angular speed detecting means). In other words, the angular velocity W (in other words, the angular velocity component) of the host vehicle is detected by taking the difference of the speed V in the traveling direction of the host vehicle from the host vehicle optical flow. For example, by subtracting the speed V in the traveling direction of the host vehicle from the vehicle speed VW (speed V + angular speed W) of the host vehicle shown in FIG. 4A, as shown in FIG. W can be detected.
このようにすることで、画像データの処理によって、自車両の角速度Wを検出することができるので、ジャイロセンサを用いる必要がない。つまり、振動子などを用いるジャイロセンサを用いる必要がない。 In this way, the angular velocity W of the host vehicle can be detected by processing the image data, so there is no need to use a gyro sensor. That is, it is not necessary to use a gyro sensor using a vibrator or the like.
なお、この角速度Wは、図5に示すように、平行成分、回転成分が含まれている。この図5は、角速度Wのイメージ図である。よって、この角速度Wを用いて、平行成分(自車両のヨー角及びピッチング角)の検出処理(S721)と回転成分(自車両のロール角)の検出処理(S722)を実行するようにしてもよい。なお、この平行成分(自車両のヨー角及びピッチング角)と回転成分(自車両のロール角)の検出処理に関しては後ほど説明する。また、以下の説明、及び図面においては、ヨー角をYaw、ピッチング角をPitch、ロール角をRollとも記載する。 The angular velocity W includes a parallel component and a rotation component as shown in FIG. FIG. 5 is an image diagram of the angular velocity W. Therefore, the parallel component (the yaw angle and pitching angle of the host vehicle) detection process (S721) and the rotation component (roll angle of the host vehicle) detection process (S722) may be executed using the angular velocity W. Good. The detection processing of the parallel component (the yaw angle and the pitching angle of the host vehicle) and the rotation component (the roll angle of the host vehicle) will be described later. In the following description and drawings, the yaw angle is also referred to as Yaw, the pitching angle as Pitch, and the roll angle as Roll.
このように、車両状態検出装置(制御装置10)は、自車オプティカルフローから自車両の運動量(速度V、角速度W(ピッチング角、ロール角、ヨー角))を検出(推定)すると言い換えることができる。ちなみに、この検出(推定)される運動量は、厳密には画像データを撮像したカメラ20の運動量であるが、カメラ20が自車両に搭載(設置)され、自車両と一体でカメラ20も動くので、自車両の運動量に相当することになる。
In this way, the vehicle state detection device (control device 10) may be paraphrased as detecting (estimating) the momentum (speed V, angular velocity W (pitching angle, roll angle, yaw angle)) of the host vehicle from the host vehicle optical flow. it can. Incidentally, the momentum to be detected (estimated) is strictly the momentum of the
次に、ステップS72では、加速度Aの検出処理を実行する。制御装置10(CPU11)は、図4(c)に示すように、自車両の進行方向における速度Vの時系列データを差分することで加速度を求める。なお、この図4(c)は、同じ特徴点における速度Vの時間的な変化を示すものである。 Next, in step S72, acceleration A detection processing is executed. As shown in FIG. 4C, the control device 10 (CPU 11) obtains the acceleration by subtracting the time series data of the speed V in the traveling direction of the host vehicle. FIG. 4C shows the temporal change in the velocity V at the same feature point.
ここで、図6〜図8を参照しつつ、角速度Wにおける平行成分(自車両のヨー角及びピッチング角)と回転成分(自車両のロール角)の検出処理に関して説明する。換言すると、角速度Wの各成分(Yaw,Pitch,Roll)を求める。なお、上述の数式2は、数式3と展開することができる。また、この数式3を数式4及び図8に基づいて、撮像画面座標系から世界座標系へ座標変換する。
まず、ステップS721では、平行成分(自車両のヨー角及びピッチング角)の検出処理を実行する。 First, in step S721, parallel component (yaw angle and pitching angle of own vehicle) detection processing is executed.
図6(a)は、自車両のヨー角、ピッチング角、ロール角が合成されたオプティカルフローのイメージ図である。つまり、自車オプティカルフローから速度Vを減算した差分オプティカルフローである。 FIG. 6A is an image view of an optical flow in which the yaw angle, pitching angle, and roll angle of the host vehicle are combined. That is, the difference optical flow is obtained by subtracting the speed V from the own vehicle optical flow.
制御装置10(CPU11)は、図6(a)に示す自車オプティカルフローから速度Vを減算した差分オプティカルフローから、図6(b)に示すように、カメラ20における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択する。なお、図6(b)に示す二つの差分オプティカルフローは、方向及び大きさが異なるものである。
As shown in FIG. 6B, the control device 10 (CPU 11) sets the center position of the imaging screen coordinates in the
そして、制御装置10(CPU11)は、図6(c)に示すように、この選択された各差分オプティカルフロー同士を加算して2で除算した値を、差分オプティカルフローから回転成分を取り除いた平行成分とする。換言すると、選択された各差分オプティカルフロー同士を加算して2で除算することによって、角速度Wから回転成分がキャンセルされ、角速度Wの平行成分が求められる。さらに、制御装置10(CPU11)は、この平行成分を水平成分と垂直成分とに分解することによって、図6(d)に示す自車両のヨー角及び図6(e)に示すピッチング角を検出(算出)する(ヨー・ピッチング検出手段)。なお、このヨー角及びピッチング角を上述の座標変換によって、世界座標系のヨー角及びピッチング角として検出する。このよう、自車両の状態として、自車両のヨー角及びピッチング角を検出するようにしてもよい。 Then, as shown in FIG. 6C, the control device 10 (CPU 11) adds the selected differential optical flows to each other and divides them by 2, and then removes the rotational component from the differential optical flow. Ingredients. In other words, by adding the selected difference optical flows to each other and dividing by 2, the rotational component is canceled from the angular velocity W, and the parallel component of the angular velocity W is obtained. Furthermore, the control device 10 (CPU 11) detects the yaw angle of the host vehicle shown in FIG. 6 (d) and the pitching angle shown in FIG. 6 (e) by decomposing the parallel component into a horizontal component and a vertical component. (Calculate) (yaw / pitching detection means). The yaw angle and pitching angle are detected as the yaw angle and pitching angle of the world coordinate system by the above-described coordinate conversion. In this way, the yaw angle and pitching angle of the host vehicle may be detected as the state of the host vehicle.
なお、撮像画面座標の中心位置に対して点対称な二つの特徴点が無い場合は、候補点の角度、半径Rを変更して特徴点を探索する。さらに、候補点を変えても点対称となる特徴点がない場合は、カメラ20における画角、向きを変更して図2に示すアルゴリズムを開始するようにしてもよい。この場合、カメラ20の画角、向きを変更するための変更手段が必要になる。
If there are no two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates, the feature point is searched by changing the angle and radius R of the candidate point. Further, when there is no feature point that is point-symmetric even if the candidate point is changed, the angle of view and orientation of the
次に、ステップS722では、回転成分(自車両のロール角)の検出処理を実行する。 Next, in step S722, detection processing of a rotation component (roll angle of the host vehicle) is executed.
図7(a)は、自車両のヨー角、ピッチング角、ロール角が合成されたオプティカルフローのイメージ図である。つまり、自車オプティカルフローから速度Vを減算した差分オプティカルフローである。 FIG. 7A is an image view of an optical flow in which the yaw angle, pitching angle, and roll angle of the host vehicle are combined. That is, the difference optical flow is obtained by subtracting the speed V from the own vehicle optical flow.
制御装置10(CPU11)は、図7(a)に示す自車オプティカルフローから速度Vを減算した差分オプティカルフローから、図7(b)に示すように、カメラ20における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択する。なお、図7(b)に示す二つの差分オプティカルフローは、方向及び大きさが異なるものである。
As shown in FIG. 7B, the control device 10 (CPU 11) sets the center position of the imaging screen coordinates in the
そして、制御装置10(CPU11)は、図7(c)に示すように、この選択された各差分オプティカルフロー同士の差分を2で除算した値を、差分オプティカルフローから平行成分を取り除いた回転成分とする。換言すると、選択された各差分オプティカルフロー同士を減算して2で除算することによって、図7(d)に示すように、角速度Wから平行成分がキャンセルされ、角速度Wの回転成分が求められる。つまり、制御装置10(CPU11)は、この回転成分を自車両のロール角として検出(算出)する(ロール検出手段)。なお、このロール角を上述の座標変換によって、世界座標系のロール角として検出する。このよう、自車両の状態として、自車両のロール角を検出するようにしてもよい。 Then, as shown in FIG. 7C, the control device 10 (CPU 11) obtains a rotation component obtained by removing the parallel component from the difference optical flow by dividing the difference between the selected difference optical flows by 2. And In other words, by subtracting each selected difference optical flow and dividing by 2, the parallel component is canceled from the angular velocity W and the rotational component of the angular velocity W is obtained as shown in FIG. That is, the control device 10 (CPU 11) detects (calculates) this rotational component as the roll angle of the host vehicle (roll detection means). This roll angle is detected as a roll angle in the world coordinate system by the above-described coordinate transformation. Thus, the roll angle of the host vehicle may be detected as the state of the host vehicle.
なお、撮像画面座標の中心位置に対して点対称な二つの特徴点が無い場合は、候補点の角度、半径Rを変更して特徴点を探索する。さらに、候補点を変えても点対称となる特徴点がない場合は、カメラ20における画角、向きを変更して図2に示すアルゴリズムを開始するようにしてもよい。この場合、カメラ20の画角、向きを変更するための変更手段が必要になる。
If there are no two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates, the feature point is searched by changing the angle and radius R of the candidate point. Further, when there is no feature point that is point-symmetric even if the candidate point is changed, the angle of view and orientation of the
以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に何ら制限されることはなく、本発明の趣旨を逸脱しない範囲において、種々の変形が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not restrict | limited to the embodiment mentioned above at all, and various deformation | transformation are possible in the range which does not deviate from the meaning of this invention.
(変形例1)
上述の実施形態では、自車オプティカルフロー(車両速度(速度V+角速度W)に基づいて自車両の状態を検出する例を採用したが、本発明はこれに限定されるものではない。変形例1として、対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)を用いて、自車両に向かって走行している対向車が存在する状態であるか否かを判定するようにしてもよい(第1判定手段)。なお、変形例1における制御装置10(CPU11)は、図2に示すステップS10〜ステップS60の処理を実行した後に、図9に示すステップS80〜S82を実行して、その後に、図2に示すステップS70を実行するものである。なので、ここでは、ステップS10〜ステップS70の処理に関しての詳しい説明は省略する。
(Modification 1)
In the above-described embodiment, the example in which the state of the host vehicle is detected based on the host vehicle optical flow (vehicle speed (speed V + angular speed W)) is adopted, but the present invention is not limited to this. As described above, using the optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle, it is determined whether or not there is an oncoming vehicle traveling toward the host vehicle. Alternatively, the control device 10 (CPU 11) according to the first modification executes steps S10 to S60 shown in Fig. 2 and then executes steps S80 to S82 shown in Fig. 9. Then, step S70 shown in Fig. 2 is executed, so that detailed description of the processing of steps S10 to S70 is omitted here.
まず、図9のステップS60(図2のステップS60と同様)では、上述のように、制御装置10(CPU11)は、導出された複数のオプティカルフロー(正規化後)から、自車オプティカルフロー(正規化後)より大きさが大きいオプティカルフロー(正規化後)を選択する(第2検出手段)。移動物70としての対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)は、自車両の車両速度(速度V+角速度W)と移動物(対向車)70の対向車両速度MV(対向車速度V1(ベクトル)+対向車角速度W1(ベクトル))とが合成されたものである。よって、ここでは、このオプティカルフローOP2(合成車両速度VV)が選択されることになる。そして、制御装置10(CPU11)は、選択したオプティカルフローOP2(合成車両速度VV)から自車オプティカルフロー(自車両の車両速度(速度V+角速度W))を減算することで、対向車両に対応する対向車オプティカルフローを検出する(第2検出手段)。つまり、図10(a)に示すように、この対向車オプティカルフローとして、対向車両速度MV(対向車速度V1+対向車角速度W1)が検出される。この対向車オプティカルフローは、対向車両速度MV(対向車速度V1+対向車角速度W1)を示すものである。なお、便宜上、対向車両速度MV(対向車速度V1+対向車角速度W1)を対向車オプティカルフローと称している。
First, in step S60 of FIG. 9 (similar to step S60 of FIG. 2), as described above, the control device 10 (CPU 11) determines the optical flow of the host vehicle (after normalization) from a plurality of derived optical flows (after normalization). An optical flow (after normalization) having a larger size than (after normalization) is selected (second detection means). The optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle as the moving
次に、図9のステップS80では、対向車状態の監視処理を実行する。このとき、制御装置10(CPU11)は、対向車オプティカルフロー(対向車両速度MV)を監視する。次に、図9のステップS81では、移動物70(対向車)が自車両(つまり、自車両に搭載されたカメラ20)方向に進行しているか否かを判定する(第1判定手段)。このとき、制御装置10(CPU11)は、対向車オプティカルフローの方向がカメラ20に向いているか否かによって、移動物70がカメラ20方向に進行しているか否かを判定する。
Next, in step S80 of FIG. 9, oncoming vehicle state monitoring processing is executed. At this time, the control device 10 (CPU 11) monitors the oncoming vehicle optical flow (oncoming vehicle speed MV). Next, in step S81 of FIG. 9, it is determined whether or not the moving object 70 (oncoming vehicle) is traveling in the direction of the host vehicle (that is, the
そして、対向車オプティカルフローの方向がカメラ20に向いていないと判定した場合は、移動物70がカメラ20方向に進行していないとみなしてステップS70へ進む。例えば、図10(b)に示すように、最も古いタイミングT1、次のタイミングT2、そして最新のタイミングT3の順番に対向車オプティカルフローの方向を監視した結果、対向車オプティカルフローの方向がカメラ20に向いていないと判定した場合は移動物70がカメラ20方向に進行していないとみなす。
And when it determines with the direction of an oncoming vehicle optical flow not facing the
一方、対向車オプティカルフローの方向がカメラ20に向いていると判定した場合は、移動物70がカメラ20方向に進行しているとみなしてステップS82へ進む。例えば、図10(c)に示すように、最も古いタイミングT1、次のタイミングT2、そして最新のタイミングT3の順番に対向車オプティカルフローの方向を監視した結果、対向車オプティカルフローの方向がカメラ20に向いていると判定した場合は移動物70がカメラ20方向に進行しているとみなす。このようにすることによって画像データの処理によって、自車両に向かって走行している対向車が存在する状態であるか否かを判定することができる。
On the other hand, if it is determined that the direction of the oncoming vehicle optical flow is facing the
また、図9のステップS82では、衝突判定処理を実行する。このとき、制御装置10(CPU11)は、対向車オプティカルフローの方向と大きさに基づいて衝突判定を行う。ここでは、対向車オプティカルフローの方向がカメラ20方向へ向いており、対向車オプティカルフローの大きさが所定値より大きい場合は、自車両に向かって走行している対向車との衝突の危険性が高い状態であるとみなす。また、対向車オプティカルフローの方向がカメラ20方向へ向いており、対向車オプティカルフローの大きさが所定値より小さい場合は、自車両に向かって走行している対向車との衝突の危険性が低い状態であるとみなす。
In step S82 of FIG. 9, a collision determination process is executed. At this time, the control device 10 (CPU 11) performs a collision determination based on the direction and magnitude of the oncoming vehicle optical flow. Here, when the direction of the oncoming vehicle optical flow is in the direction of the
(変形例2)
変形例2として、対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)を用いて、自車両の走行状態が安定している状態であるか否かを検出するようにしてもよい。なお、変形例2における制御装置10(CPU11)は、図2に示すステップS10〜ステップS70の処理を実行した後に、図11に示すステップS90〜S93を実行するものである。なので、ここでは、ステップS10〜ステップS70の処理に関しては説明を省略する。
(Modification 2)
As a second modification, it is possible to detect whether or not the traveling state of the host vehicle is stable using the optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle. Good. Note that the control device 10 (CPU 11) in the second modification executes steps S90 to S93 shown in FIG. 11 after executing the processes of steps S10 to S70 shown in FIG. Therefore, description of the processing in steps S10 to S70 is omitted here.
まず、図2に示すステップS70の車両状態検出処理が終了すると、図11のステップS90に示すように、角速度Wの監視処理を実行する。このとき、制御装置10(CPU11)は、ステップS70で検出したロール角、ヨー角を監視する。 First, when the vehicle state detection process of step S70 shown in FIG. 2 is completed, the monitoring process of the angular velocity W is executed as shown in step S90 of FIG. At this time, the control device 10 (CPU 11) monitors the roll angle and yaw angle detected in step S70.
そして、図11のステップS91では、閾値判定を実行する。このとき、制御装置10(CPU11)は、このロール角が閾値(ロール閾値)に達したか否か、及びヨー角が閾値(ヨー閾値)に達したか否かを判定する。そして、制御装置10(CPU11)は、ロール角とロール閾値とを比較し、このロール角がロール閾値に達した場合に自車両の走行状態が不安定であると判定してステップS92へ進む(第2判定手段)。同様に、制御装置10(CPU11)は、ヨー角とヨー閾値とを比較し、このヨー角がヨー閾値に達した場合に自車両の走行状態が不安定であると判定してステップS93へ進む(第3判定手段)。なお、制御装置10(CPU11)は、ロール角がロール閾値に達していないと判定し、且つ、ヨー角がヨー閾値に達していないと判定した場合はステップS10へ戻る。このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出(判定)することができる。 In step S91 in FIG. 11, threshold determination is executed. At this time, the control device 10 (CPU 11) determines whether or not the roll angle has reached a threshold value (roll threshold value) and whether or not the yaw angle has reached a threshold value (yaw threshold value). Then, the control device 10 (CPU 11) compares the roll angle with the roll threshold value, determines that the traveling state of the host vehicle is unstable when the roll angle reaches the roll threshold value, and proceeds to step S92 ( Second determination means). Similarly, control device 10 (CPU 11) compares the yaw angle with the yaw threshold, determines that the traveling state of the host vehicle is unstable when the yaw angle reaches the yaw threshold, and proceeds to step S93. (Third determination means). Note that the control device 10 (CPU 11) determines that the roll angle has not reached the roll threshold and returns to step S10 if it is determined that the yaw angle has not reached the yaw threshold. By doing so, it is possible to detect (determine) whether or not the traveling state of the host vehicle is stable by processing the image data.
なお、ステップS92では、横転判定処理を実行するようにしてもよい。つまり、制御装置10(CPU11)は、ロール角がとロール閾値に達した場合、自車両の走行状態が不安定であり横転する可能性があるとみなすようにしてもよい。なお、この場合、制御装置10(CPU11)は、その他のECU(第1ECU30、第2ECU40、第3ECU50)を介してユーザに注意喚起を行うようにしてもよい。
In step S92, rollover determination processing may be executed. That is, when the roll angle reaches the roll threshold, the control device 10 (CPU 11) may consider that the traveling state of the host vehicle is unstable and may roll over. In this case, the control device 10 (CPU 11) may alert the user via other ECUs (
また、ステップS93では、VSC(VehicleStability Control)制御判定を実行してもよい。つまり、制御装置10(CPU11)は、ヨー角がとヨー閾値に達した場合、自車両の走行状態が不安定であり横滑りする可能性があるとみなして、VSC制御の実行を開始すると判定してもよい。つまり、この場合、制御装置10(CPU11)は、その他のECU(第1ECU30、第2ECU40、第3ECU50)にVSC制御の開始を指示するようにしてもよい。なお、VSC制御とは、障害物回避のための急ハンドルや、滑りやすい路面でのコーナリング中などに発生する自車両の横すべりを検出すると、各車輪のブレーキやエンジン出力を自動的にコントロールすることで、不安定な挙動を抑制するシステムである。
In step S93, VSC (Vehicle Stability Control) control determination may be executed. That is, when the yaw angle reaches the yaw threshold, the control device 10 (CPU 11) determines that the traveling state of the host vehicle is unstable and may skid, and determines that the execution of the VSC control is started. May be. That is, in this case, the control device 10 (CPU 11) may instruct the other ECUs (
10 制御装置、11 CPU、12 RAM、13 ROM、14 I/F、20 カメラ、30 第1ECU、40 第2ECU、50 第3ECU
DESCRIPTION OF
Claims (8)
前記撮像装置で所定の撮像間隔Δt毎に撮像された複数の前記画像データを取得する画像データ取得手段(S10)と、
複数の前記画像データの夫々において特徴点を抽出する特徴点抽出手段(S20)と、
時間的に連続する前記画像データにおいて、前記特徴点の位置を追跡処理することによって複数のオプティカルフローを導出するオプティカルフロー導出手段(S30)と、
導出された複数の前記オプティカルフローにおいて、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する分類手段(S50)と、
オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する選択手段(S60)と、
選択された自車オプティカルフローに基づいて自車両の状態を検出する第1検出手段(S70)と、
を備えることを特徴とする車両状態検出装置。 A vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle,
Image data acquisition means (S10) for acquiring a plurality of the image data captured at predetermined imaging intervals Δt by the imaging device;
Feature point extraction means (S20) for extracting feature points in each of the plurality of image data;
Optical flow deriving means (S30) for deriving a plurality of optical flows by tracking the positions of the feature points in the temporally continuous image data;
In the plurality of derived optical flows, classification means (S50) for classifying optical flows having the same direction and size into one group;
Selecting means (S60) for selecting the optical flow of the group including the most optical flows as the own vehicle optical flow corresponding to the own vehicle;
First detection means (S70) for detecting the state of the host vehicle based on the selected host vehicle optical flow;
A vehicle state detection device comprising:
前記自車オプティカルフローから前記速度を減算した差分オプティカルフローから、前記撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、
選択された各差分オプティカルフロー同士を加算して2で除算した値を、前記差分オプティカルフローから回転成分を取り除いた平行成分とし、当該平行成分から自車両のヨー角及びピッチング角を検出するヨー・ピッチング検出手段(S721)を含むことを特徴とする請求項3に記載の車両状態検出装置。 The angular velocity detection means (S72)
From the difference optical flow obtained by subtracting the speed from the own vehicle optical flow, select each difference optical flow at two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates in the imaging device,
A value obtained by adding the respective differential optical flows to each other and dividing by 2 is defined as a parallel component obtained by removing the rotation component from the differential optical flow, and the yaw angle and pitching angle of the host vehicle are detected from the parallel component The vehicle state detection device according to claim 3, further comprising pitching detection means (S721).
前記自車オプティカルフローから前記速度を減算した差分オプティカルフローから、前記撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、
選択された各差分オプティカルフロー同士の差分を2で除算した値を、前記差分オプティカルフローから平行成分を取り除いた回転成分とし、当該回転成分を自車両のロール角として検出するロール検出手段(S722)を含むことを特徴とする請求項3に記載の車両状態検出装置。 The angular velocity detection means (S72)
From the difference optical flow obtained by subtracting the speed from the own vehicle optical flow, select each difference optical flow at two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates in the imaging device,
Roll detection means for detecting a value obtained by dividing the difference between the selected difference optical flows by 2 as a rotation component obtained by removing a parallel component from the difference optical flow, and detecting the rotation component as a roll angle of the host vehicle (S722). The vehicle state detection device according to claim 3, comprising:
前記対向車オプティカルフローの方向が、自車両に向いているか否かを判定する第1判定手段(S80,S81)と、
を含むことを特徴とする請求項2乃至5のいずれか一項に記載の車両状態検出装置。 By selecting an optical flow larger than the own vehicle optical flow from the plurality of optical flows derived by the optical flow deriving means (S30), and subtracting the own vehicle optical flow from the optical flow, Second detection means (S60) for detecting a corresponding oncoming vehicle optical flow;
First determination means (S80, S81) for determining whether the direction of the oncoming vehicle optical flow is toward the host vehicle;
The vehicle state detection device according to any one of claims 2 to 5, wherein the vehicle state detection device includes:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011137698A JP5556748B2 (en) | 2011-06-21 | 2011-06-21 | Vehicle state detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011137698A JP5556748B2 (en) | 2011-06-21 | 2011-06-21 | Vehicle state detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013003110A true JP2013003110A (en) | 2013-01-07 |
JP5556748B2 JP5556748B2 (en) | 2014-07-23 |
Family
ID=47671806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011137698A Expired - Fee Related JP5556748B2 (en) | 2011-06-21 | 2011-06-21 | Vehicle state detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5556748B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014172875A1 (en) * | 2013-04-25 | 2014-10-30 | Harman International Industries, Incorporated | Moving object detection |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
WO2016016959A1 (en) * | 2014-07-30 | 2016-02-04 | 株式会社日立製作所 | Optical velocity measurement device and moving body |
JP2016060463A (en) * | 2014-09-22 | 2016-04-25 | 富士重工業株式会社 | Vehicle behavior determination device |
JP2016217844A (en) * | 2015-05-19 | 2016-12-22 | 株式会社小野測器 | Rotation velocity measurement device |
JP2017102832A (en) * | 2015-12-04 | 2017-06-08 | 株式会社Soken | Vehicle pitch angle estimation device |
JP2017117386A (en) * | 2015-12-25 | 2017-06-29 | 学校法人千葉工業大学 | Self-motion estimation system, control method and program of self-motion estimation system |
WO2017145541A1 (en) * | 2016-02-23 | 2017-08-31 | 株式会社日立製作所 | Mobile object |
JP2017163374A (en) * | 2016-03-10 | 2017-09-14 | 株式会社デンソー | Traffic situation analyzer, traffic situation analyzing method, and traffic situation analysis program |
WO2018138414A1 (en) * | 2017-01-30 | 2018-08-02 | Konecranes Global Corporation | Movable hoisting apparatus, arrangement and method |
WO2018225480A1 (en) * | 2017-06-05 | 2018-12-13 | 日立オートモティブシステムズ株式会社 | Position estimating device |
US10325161B2 (en) | 2015-10-26 | 2019-06-18 | Fujitsu Ten Limited | Vehicle state determining device, display processing device, and vehicle state determining method |
EP3591613A4 (en) * | 2017-02-28 | 2020-11-25 | NEC Solution Innovators, Ltd. | Mobile entity detector, mobile entity detection method, and computer-readable recording medium |
JP2021189156A (en) * | 2020-05-29 | 2021-12-13 | 芯鼎科技股▲ふん▼有限公司 | Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366937A (en) * | 2001-06-08 | 2002-12-20 | Fuji Heavy Ind Ltd | Monitor outside vehicle |
JP2005258936A (en) * | 2004-03-12 | 2005-09-22 | Mitsubishi Fuso Truck & Bus Corp | Vehicle travelling state judging apparatus |
JP2011209825A (en) * | 2010-03-29 | 2011-10-20 | Panasonic Corp | Navigation device |
-
2011
- 2011-06-21 JP JP2011137698A patent/JP5556748B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366937A (en) * | 2001-06-08 | 2002-12-20 | Fuji Heavy Ind Ltd | Monitor outside vehicle |
JP2005258936A (en) * | 2004-03-12 | 2005-09-22 | Mitsubishi Fuso Truck & Bus Corp | Vehicle travelling state judging apparatus |
JP2011209825A (en) * | 2010-03-29 | 2011-10-20 | Panasonic Corp | Navigation device |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014172875A1 (en) * | 2013-04-25 | 2014-10-30 | Harman International Industries, Incorporated | Moving object detection |
JP2015225366A (en) * | 2014-05-26 | 2015-12-14 | 株式会社リコー | Accident prevention system, accident prevention device, and accident prevention method |
US9977044B2 (en) | 2014-07-30 | 2018-05-22 | Hitachi Ltd. | Optical velocity measuring apparatus and moving object |
WO2016016959A1 (en) * | 2014-07-30 | 2016-02-04 | 株式会社日立製作所 | Optical velocity measurement device and moving body |
JPWO2016016959A1 (en) * | 2014-07-30 | 2017-04-27 | 株式会社日立製作所 | Optical speed measuring device and moving body |
JP2016060463A (en) * | 2014-09-22 | 2016-04-25 | 富士重工業株式会社 | Vehicle behavior determination device |
JP2016217844A (en) * | 2015-05-19 | 2016-12-22 | 株式会社小野測器 | Rotation velocity measurement device |
US10325161B2 (en) | 2015-10-26 | 2019-06-18 | Fujitsu Ten Limited | Vehicle state determining device, display processing device, and vehicle state determining method |
JP2017102832A (en) * | 2015-12-04 | 2017-06-08 | 株式会社Soken | Vehicle pitch angle estimation device |
JP2017117386A (en) * | 2015-12-25 | 2017-06-29 | 学校法人千葉工業大学 | Self-motion estimation system, control method and program of self-motion estimation system |
JPWO2017145541A1 (en) * | 2016-02-23 | 2018-11-08 | 株式会社日立製作所 | Moving body |
WO2017145541A1 (en) * | 2016-02-23 | 2017-08-31 | 株式会社日立製作所 | Mobile object |
US10740908B2 (en) | 2016-02-23 | 2020-08-11 | Hitachi, Ltd. | Moving object |
JP2017163374A (en) * | 2016-03-10 | 2017-09-14 | 株式会社デンソー | Traffic situation analyzer, traffic situation analyzing method, and traffic situation analysis program |
WO2018138414A1 (en) * | 2017-01-30 | 2018-08-02 | Konecranes Global Corporation | Movable hoisting apparatus, arrangement and method |
EP3591613A4 (en) * | 2017-02-28 | 2020-11-25 | NEC Solution Innovators, Ltd. | Mobile entity detector, mobile entity detection method, and computer-readable recording medium |
US11062174B2 (en) | 2017-02-28 | 2021-07-13 | Nec Solution Innovators, Ltd. | Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium |
WO2018225480A1 (en) * | 2017-06-05 | 2018-12-13 | 日立オートモティブシステムズ株式会社 | Position estimating device |
JP2018205142A (en) * | 2017-06-05 | 2018-12-27 | 日立オートモティブシステムズ株式会社 | Position estimation device |
US11346670B2 (en) | 2017-06-05 | 2022-05-31 | Hitachi Astemo, Ltd. | Position estimating device |
JP2021189156A (en) * | 2020-05-29 | 2021-12-13 | 芯鼎科技股▲ふん▼有限公司 | Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5556748B2 (en) | 2014-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5556748B2 (en) | Vehicle state detection device | |
US11209284B2 (en) | System and method for creating driving route of vehicle | |
US9836657B2 (en) | System and method for periodic lane marker identification and tracking | |
JP6519262B2 (en) | Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system | |
JP5197679B2 (en) | Object detection apparatus and program | |
JP5939357B2 (en) | Moving track prediction apparatus and moving track prediction method | |
JP5938569B2 (en) | Advanced driver support system considering azimuth information and operation method thereof | |
CN107845290B (en) | Intersection warning method, processing system, intersection warning system and vehicle | |
JP6021689B2 (en) | Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP6679152B1 (en) | Accident analysis device, accident analysis method and program | |
JP5754470B2 (en) | Road surface shape estimation device | |
CN109074742B (en) | Peripheral recognition device, peripheral recognition method, and computer-readable recording medium | |
JP5482672B2 (en) | Moving object detection device | |
JP2007188417A (en) | Image recognition device, image recognition method, and image recognition program | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
CN111497741B (en) | Collision early warning method and device | |
JP5482323B2 (en) | Driving support device and program | |
JP2012221162A (en) | Object detection device and program | |
KR20180047149A (en) | Apparatus and method for risk alarming of collision | |
US10982967B2 (en) | Method and device for fast detection of repetitive structures in the image of a road scene | |
JP5832850B2 (en) | Lane monitoring system and lane monitoring method | |
US20230245323A1 (en) | Object tracking device, object tracking method, and storage medium | |
JP6171608B2 (en) | Object detection device | |
KR20170138842A (en) | System and Method for Tracking Vehicle on the basis on Template Matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140520 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5556748 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |