JP2013003110A - Vehicle state detection apparatus - Google Patents

Vehicle state detection apparatus Download PDF

Info

Publication number
JP2013003110A
JP2013003110A JP2011137698A JP2011137698A JP2013003110A JP 2013003110 A JP2013003110 A JP 2013003110A JP 2011137698 A JP2011137698 A JP 2011137698A JP 2011137698 A JP2011137698 A JP 2011137698A JP 2013003110 A JP2013003110 A JP 2013003110A
Authority
JP
Japan
Prior art keywords
vehicle
optical flow
host vehicle
speed
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011137698A
Other languages
Japanese (ja)
Other versions
JP5556748B2 (en
Inventor
Satoshi Takada
諭 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011137698A priority Critical patent/JP5556748B2/en
Publication of JP2013003110A publication Critical patent/JP2013003110A/en
Application granted granted Critical
Publication of JP5556748B2 publication Critical patent/JP5556748B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve detection accuracy in a vehicle state detection apparatus for detecting a state of its own vehicle based on image data imaged by a camera 20 installed in the vehicle.SOLUTION: A control device 10 (a CPU 11) acquires a plurality of image data imaged by the camera 20, extracts a feature point of each of the plurality of image data and derives a plurality of optical flows by tracking positions of respective feature points in the image data continued with the lapse of time (S10 to S30). Optical flows having the same direction and the same size are classified as one group out of the plurality of derived optical flows, the optical flows in the group including most optical flows are selected as own-vehicle optical flows corresponding to the own vehicle and the state of the own vehicle is detected based on the selected own-vehicle optical flows (S50 to S70).

Description

本発明は、車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置に関するものである。   The present invention relates to a vehicle state detection device that detects the state of a host vehicle based on image data captured by an imaging device installed in the vehicle.

従来、車両に設置された撮像装置で撮像された画像データに基づいて自車両の状態を検出する技術の一例として、特許文献1に開示された運転支援システムがあった。   Conventionally, there has been a driving support system disclosed in Patent Document 1 as an example of a technique for detecting the state of the host vehicle based on image data captured by an imaging device installed in the vehicle.

この運転支援システムは、車速センサ及び舵角センサを必要とすることなく自車両の状態(車両速度及び回転角)を検出(推定)するものである。具体的には、車両に設置された撮像装置(カメラ)による画像データから特徴点を抽出する。そして、時系列で並ぶ画像データ間における特徴点の追跡処理を行うことで、オプティカルフロー(移動ベクトル)を導出する。そして、このオプティカルフローに基づいて自車両の状態を検出する。   This driving support system detects (estimates) the state of the host vehicle (vehicle speed and rotation angle) without requiring a vehicle speed sensor and a steering angle sensor. Specifically, feature points are extracted from image data obtained by an imaging device (camera) installed in the vehicle. Then, an optical flow (movement vector) is derived by performing a feature point tracking process between image data arranged in time series. And the state of the own vehicle is detected based on this optical flow.

特開2009−17462号公報JP 2009-17462 A

ところで、この運転支援システムでは、抽出されるべき特徴点は、例えば、路面上に描かれた白線の交点又は端点などの不動点(すなわち静止物(路面に固定又は描かれるなどによって、路面に対して静止している物)の一部)が想定されている。   By the way, in this driving support system, the feature points to be extracted are fixed points such as intersections or end points of white lines drawn on the road surface (that is, stationary objects (fixed or drawn on the road surface, etc.). Part of a stationary object) is assumed.

しかしながら、撮像装置の撮像領域内には、静止物だけでなく、路面に対して移動する物(移動物)が存在することもありうる。この場合、撮像装置は、静止物とともに移動物を撮像することになる。このように、撮像装置が静止物とともに移動物を撮像した場合、運転支援システムは、静止物(すなわち静止物の一部)と移動物(すなわち移動物の一部)とを特徴点として抽出してしまう。よって、運転支援システムは、静止物から抽出された特徴点に関してオプティカルフロー(以下、静止物のオプティカルフローとも称する)を導出するだけではなく、移動物から抽出された特徴点に関してもオプティカルフロー(以下、移動物のオプティカルフローとも称する)を導出することになる。つまり、運転支援システムが導出したオプティカルフローには、静止物のオプティカルフローと移動物のオプティカルフローとが含まれることになる。これによって、運転支援システムは、静止物のオプティカルフローと移動物のオプティカルフローとに基づいて自車両の状態を検出することになる。   However, not only a stationary object but also an object that moves relative to the road surface (moving object) may exist in the imaging region of the imaging device. In this case, the imaging device images a moving object together with a stationary object. In this way, when the imaging device images a moving object together with a stationary object, the driving support system extracts the stationary object (that is, a part of the stationary object) and the moving object (that is, a part of the moving object) as feature points. End up. Therefore, the driving support system not only derives an optical flow (hereinafter also referred to as an optical flow of a stationary object) with respect to a feature point extracted from a stationary object, but also applies an optical flow (hereinafter referred to as a feature point extracted from a moving object). , Also referred to as an optical flow of a moving object). That is, the optical flow derived by the driving support system includes an optical flow of a stationary object and an optical flow of a moving object. Thus, the driving support system detects the state of the host vehicle based on the optical flow of the stationary object and the optical flow of the moving object.

本来、運転支援システムは、静止物から抽出された特徴点のオプティカルフローに基づいて自車両の状態を検出するものであるため、このように静止物のオプティカルフローと移動物のオプティカルフローとに基づいて自車両の状態を検出してしまうと、検出精度が低下する可能性がある。   Originally, the driving support system detects the state of the vehicle based on the optical flow of the feature points extracted from the stationary object, and thus based on the optical flow of the stationary object and the optical flow of the moving object. If the state of the host vehicle is detected, the detection accuracy may be reduced.

本発明は、上記問題点に鑑みなされたものであり、車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置であって、検出精度を向上させることを目的とする。   The present invention has been made in view of the above problems, and is a vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle, and has detection accuracy. The purpose is to improve.

上記目的を達成するために請求項1に記載の発明は、
車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置であって、
撮像装置で所定の撮像間隔Δt毎に撮像された複数の画像データを取得する画像データ取得手段(S10)と、
複数の画像データの夫々において特徴点を抽出する特徴点抽出手段(S20)と、
時間的に連続する画像データにおいて、特徴点の位置を追跡処理することによって複数のオプティカルフローを導出するオプティカルフロー導出手段(S30)と、
導出された複数のオプティカルフローにおいて、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する分類手段(S50)と、
オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する選択手段(S60)と、
選択された自車オプティカルフローに基づいて自車両の状態を検出する第1検出手段(S70)と、を備えることを特徴とする。
In order to achieve the above object, the invention described in claim 1
A vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle,
Image data acquisition means (S10) for acquiring a plurality of image data captured at predetermined imaging intervals Δt by the imaging device;
Feature point extraction means (S20) for extracting feature points in each of the plurality of image data;
Optical flow deriving means (S30) for deriving a plurality of optical flows by tracking the positions of feature points in temporally continuous image data;
Classification means (S50) for classifying optical flows having the same direction and size in a plurality of derived optical flows into one group;
Selecting means (S60) for selecting the optical flow of the group including the most optical flows as the own vehicle optical flow corresponding to the own vehicle;
First detection means (S70) for detecting the state of the host vehicle based on the selected host vehicle optical flow.

このように、時間的に連続する画像データにおける特徴点に基づいて導出した複数のオプティカルフローには、路面に対して静止している静止物から抽出された特徴点のオプティカルフロー(すなわち、特徴点として抽出された静止物の部位のオプティカルフロー)と、路面に対して移動している移動物から抽出された特徴点のオプティカルフロー(すなわち、特徴点として抽出された移動物の部位のオプティカルフロー)とが含まれることがある。なお、移動物には、対向車(自車両が走行している車線の反対車線を走行している前方車両)や、先行車(自車両と同一の車線を走行している前方車両)が含まれる。一方、静止物には、路面上に描かれた白線や、地面に固定された標識、ガードレールなどが含まれる。   As described above, the plurality of optical flows derived based on the feature points in temporally continuous image data include optical flows of feature points extracted from stationary objects that are stationary with respect to the road surface (that is, feature points). And the optical flow of the feature point extracted from the moving object moving with respect to the road surface (that is, the optical flow of the part of the moving object extracted as the feature point) May be included. The moving objects include oncoming vehicles (front vehicles traveling in the opposite lane of the lane in which the host vehicle is traveling) and preceding vehicles (front vehicles traveling in the same lane as the host vehicle). It is. On the other hand, the stationary object includes a white line drawn on the road surface, a sign fixed to the ground, a guardrail, and the like.

この移動物のオプティカルフローは、移動物の進行方向と自車両の進行方向との相対的な関係、及び移動物の速さと自車両の速さとの相対的な関係に伴って変化するものである。また、移動物としての対向車や先行車は、それぞれ進行する方向や速さが異なることが多い。従って、各移動物のオプティカルフローは夫々異なることが多い。   The optical flow of the moving object changes in accordance with the relative relationship between the moving direction of the moving object and the traveling direction of the own vehicle, and the relative relationship between the speed of the moving object and the speed of the own vehicle. . Also, oncoming vehicles and preceding vehicles as moving objects often have different traveling directions and speeds. Accordingly, the optical flow of each moving object is often different.

これに対して、静止物のオプティカルフローは、静止物に対する自車両の相対的な進行方向、及び静止物に対する自車両の相対的な速さとの関係に伴って変化するものである。従って、各静止物のオプティカルフローは、方向及び大きさが同じとなることが多い。また、各静止物のオプティカルフローは、各移動物のオプティカルフローと異なることが多い。そこで、本発明においては、方向と大きさが同じであるオプティカルフローの数が最も多いオプティカルフローは、静止物のオプティカルフローとみなす。   On the other hand, the optical flow of a stationary object changes with the relationship between the relative traveling direction of the host vehicle relative to the stationary object and the relative speed of the host vehicle relative to the stationary object. Therefore, the optical flow of each stationary object often has the same direction and size. In addition, the optical flow of each stationary object is often different from the optical flow of each moving object. Therefore, in the present invention, an optical flow having the largest number of optical flows having the same direction and size is regarded as an optical flow of a stationary object.

従って、本発明の車両状態検出装置では、オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する。つまり、オプティカルフローが最も多く含まれるグループ(クラスタ)のオプティカルフローを、自車両の車両速度VW(速度V(ベクトル)+角速度W(ベクトル))として選択する。このように、便宜上、自車両の車両速度VW(速度V+角速度W)を自車オプティカルフローと称している。そして、この自車オプティカルフローに基づいて自車両の状態を検出するので、画像データに移動物と静止物の両方が含まれていた場合であっても、移動物のオプティカルフローに影響されることを抑制でき、検出精度を向上させることができる。   Therefore, in the vehicle state detection device of the present invention, the optical flow of the group including the most optical flows is selected as the own vehicle optical flow corresponding to the own vehicle. That is, the optical flow of the group (cluster) including the most optical flows is selected as the vehicle speed VW (speed V (vector) + angular speed W (vector)) of the host vehicle. Thus, for convenience, the vehicle speed VW (speed V + angular speed W) of the host vehicle is referred to as the host vehicle optical flow. And since the state of the own vehicle is detected based on this own vehicle optical flow, even if both moving and stationary objects are included in the image data, it is affected by the optical flow of the moving object. And the detection accuracy can be improved.

また、請求項2に示すように、第1検出手段(S70)は、自車オプティカルフローに含まれる特徴点の自車両進行方向における変化量と、画像データの撮像間隔Δtとによって、自車両の進行方向における速度Vを検出する速度検出手段(S71)を含むようにしてもよい。   Further, as shown in claim 2, the first detection means (S70) determines the vehicle's own vehicle based on the amount of change in the traveling direction of the feature point included in the vehicle's optical flow and the imaging interval Δt of the image data. You may make it include the speed detection means (S71) which detects the speed V in the advancing direction.

つまり、自車両の状態として、自車両の進行方向における速度Vを検出するようにしてもよい。このように、画像データの処理によって、自車両進行方向における速度Vを検出することができるので、車速センサを用いる必要がない。   That is, the speed V in the traveling direction of the host vehicle may be detected as the state of the host vehicle. As described above, since the speed V in the traveling direction of the host vehicle can be detected by processing the image data, it is not necessary to use a vehicle speed sensor.

なお、自車オプティカルフローは、自車両の速度Vと角速度Wとの合成である。そこで、請求項3に示すように、第1検出手段(S70)は、自車オプティカルフローから速度Vを減算することによって、自車両の角速度Wを検出する角速度検出手段(S72)を含むようにしてもよい。   The own vehicle optical flow is a combination of the speed V and the angular velocity W of the own vehicle. Therefore, as shown in claim 3, the first detection means (S70) may include angular speed detection means (S72) for detecting the angular speed W of the host vehicle by subtracting the speed V from the host vehicle optical flow. Good.

つまり、自車両の状態として、自車両の角速度Wを検出するようにしてもよい。このように、画像データの処理によって、自車両の角速度Wを検出することができるので、ジャイロセンサを用いる必要がない。   That is, the angular velocity W of the host vehicle may be detected as the state of the host vehicle. As described above, since the angular velocity W of the host vehicle can be detected by processing the image data, it is not necessary to use a gyro sensor.

また、この角速度Wは、自車両のヨー角及びピッチング角を示す平行成分と、自車両のロール角を示す回転成分が合成されたものである。   The angular velocity W is a combination of a parallel component indicating the yaw angle and pitching angle of the host vehicle and a rotation component indicating the roll angle of the host vehicle.

そこで、請求項4に示すように、角速度検出手段(S72)は、自車オプティカルフローから前記速度Vを減算した差分オプティカルフローから、撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、この選択された各差分オプティカルフロー同士を加算して2で除算した値を、差分オプティカルフローから回転成分を取り除いた平行成分とし、この平行成分から自車両のヨー角及びピッチング角を検出するヨー・ピッチング検出手段(S721)を含むようにしてもよい。つまり、自車両の状態として、自車両のヨー角及びピッチング角を検出するようにしてもよい。   Therefore, as shown in claim 4, the angular velocity detection means (S 72) has two points symmetrical with respect to the center position of the imaging screen coordinates in the imaging device from the difference optical flow obtained by subtracting the velocity V from the own vehicle optical flow. Each difference optical flow at one feature point is selected, and each selected difference optical flow is added together and divided by 2 to obtain a parallel component obtained by removing the rotation component from the difference optical flow. You may make it include the yaw / pitching detection means (S721) which detects the yaw angle and pitching angle of a vehicle. That is, the yaw angle and pitching angle of the host vehicle may be detected as the state of the host vehicle.

また、請求項5に示すように、角速度検出手段(S72)は、自車オプティカルフローから速度Vを減算した差分オプティカルフローから、撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、この選択された各差分オプティカルフロー同士の差分を2で除算した値を、差分オプティカルフローから平行成分を取り除いた回転成分とし、この回転成分を自車両のロール角として検出するロール検出手段(S722)を含むようにしてもよい。つまり、自車両の状態として、自車両のロール角を検出するようにしてもよい。   Further, as shown in claim 5, the angular velocity detection means (S72) includes two points symmetrical with respect to the center position of the imaging screen coordinates in the imaging device from the difference optical flow obtained by subtracting the velocity V from the own vehicle optical flow. Each difference optical flow at the feature point is selected, and a value obtained by dividing the difference between the selected difference optical flows by 2 is defined as a rotation component obtained by removing the parallel component from the difference optical flow. You may make it include the roll detection means (S722) detected as a roll angle. That is, the roll angle of the host vehicle may be detected as the state of the host vehicle.

また、請求項6に示すように、オプティカルフロー導出手段(S30)にて導出された複数のオプティカルフローから、自車オプティカルフローより大きいオプティカルフローを選択し、このオプティカルフローから自車オプティカルフローを減算することで、対向車両に対応する対向車オプティカルフローを検出する第2検出手段(S60)と、対向車オプティカルフローの方向が、自車両に向いているか否かを判定する第1判定手段(S80,S81)と、を含むようにしてもよい。   Further, as shown in claim 6, an optical flow larger than the own vehicle optical flow is selected from the plurality of optical flows derived by the optical flow deriving means (S30), and the own vehicle optical flow is subtracted from this optical flow. Thus, the second detection means (S60) for detecting the oncoming vehicle optical flow corresponding to the oncoming vehicle, and the first determination means (S80) for judging whether the direction of the oncoming vehicle optical flow is directed to the host vehicle. , S81).

このようにすることによって、画像データの処理によって、自車両に向かって走行している対向車が存在する状態であるか否かを判定することができる。   By doing so, it is possible to determine whether or not there is an oncoming vehicle traveling toward the host vehicle by processing the image data.

また、請求項7に示すように、ロール検出手段(S722)にて検出されたロール角と閾値とを比較し、このロール角が閾値に達した場合に自車両の走行状態が不安定であると判定し、ロール角が閾値に達していない場合に自車両の走行状態が安定していると判定する第2判定手段(S90,S91)を備えるようにしてもよい。   Further, as shown in claim 7, the roll angle detected by the roll detection means (S722) is compared with a threshold value, and when the roll angle reaches the threshold value, the traveling state of the host vehicle is unstable. The second determination means (S90, S91) for determining that the traveling state of the host vehicle is stable when the roll angle has not reached the threshold value may be provided.

このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出することができる。   By doing so, it is possible to detect whether or not the traveling state of the host vehicle is stable by processing the image data.

また、請求項8に示すように、ヨー・ピッチング検出手段(S721)にて検出されたヨー角と閾値とを比較し、このヨー角が閾値に達した場合に自車両の走行状態が不安定であると判定し、ヨー角が閾値に達していない場合に自車両の走行状態が安定していると判定する第3判定手段(S90,S91)を備えるようにしてもよい。   Further, as shown in claim 8, the yaw angle detected by the yaw / pitching detection means (S721) is compared with a threshold value, and when the yaw angle reaches the threshold value, the traveling state of the host vehicle is unstable. If the yaw angle has not reached the threshold value, third determination means (S90, S91) for determining that the traveling state of the host vehicle is stable may be provided.

このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出することができる。   By doing so, it is possible to detect whether or not the traveling state of the host vehicle is stable by processing the image data.

本発明の実施の形態における車両状態検出装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the vehicle state detection apparatus in embodiment of this invention. 本発明の実施の形態における車両状態検出装置の処理動作を示すアルゴリズムである。It is an algorithm which shows the processing operation of the vehicle state detection apparatus in embodiment of this invention. (a)〜(e)は、本発明の実施の形態における車両状態検出装置の処理動作を示すイメージ図である。(A)-(e) is an image figure which shows the processing operation of the vehicle state detection apparatus in embodiment of this invention. (a)〜(c)は、本発明の実施の形態における車両状態検出装置の状態検出処理動作を示すイメージ図である。(A)-(c) is an image figure which shows the state detection process operation | movement of the vehicle state detection apparatus in embodiment of this invention. 角速度を示すイメージ図である。It is an image figure which shows angular velocity. (a)〜(e)は、角速度からヨー角及びピッチング角を検出する検出処理動作を示すイメージ図である。(A)-(e) is an image figure which shows the detection process operation | movement which detects a yaw angle and a pitching angle from angular velocity. (a)〜(d)は、角速度からロール角を検出する検出処理動作を示すイメージ図である。(A)-(d) is an image figure which shows the detection process operation | movement which detects a roll angle from angular velocity. 撮像画面座標系から世界座標系への座標変換を説明するための図面である。It is drawing for demonstrating the coordinate transformation from an imaging screen coordinate system to a world coordinate system. 変形例1における車両状態検出装置の衝突判定処理動作を示すアルゴリズムである。10 is an algorithm showing a collision determination processing operation of the vehicle state detection device in Modification 1. (a)〜(c)は、変形例1における車両状態検出装置の衝突判定処理動作を示すイメージ図である。(A)-(c) is an image figure which shows the collision determination processing operation | movement of the vehicle state detection apparatus in the modification 1. FIG. 変形例2における車両状態検出装置の横転判定処理動作及び横滑り判定処理動を示すアルゴリズムである。10 is an algorithm showing a rollover determination processing operation and a skid determination processing operation of the vehicle state detection device in Modification 2.

以下、本発明の実施の形態を図1〜図8に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to FIGS.

図1に示す、制御装置10は、本発明の車両状態検出装置に相当するものである。この制御装置10(車両状態検出装置)は、車両に設置されるとともに自身(制御装置10)に電気的に接続された車載カメラ(撮像装置)20(以下の説明及び図面では、単にカメラと記載する)からの画像データを取得して、取得した画像データを用いて画像処理を行う。つまり、カメラ20は、車両に設置されるとともに、制御装置10に電気的に接続されている。そして、制御装置10は、この画像処理によって、カメラの状態(速度、角速度など)を検出することで、自車両(自身が搭載されている車両)の状態(速度V、角速度Wなど)を検出するものである。このようにして、車両状態検出装置は、複数のセンサ(車速センサやジャイロセンサなど)を用いることなく自車両の状態(速度V、角速度Wなど)を検出するものである。   A control device 10 shown in FIG. 1 corresponds to the vehicle state detection device of the present invention. This control device 10 (vehicle state detection device) is installed in a vehicle and electrically connected to itself (control device 10) 20 (imaging device) 20 (in the following description and drawings, simply referred to as a camera) The image data is acquired from the image data, and image processing is performed using the acquired image data. That is, the camera 20 is installed in the vehicle and is electrically connected to the control device 10. And the control apparatus 10 detects the state (speed V, angular velocity W, etc.) of the own vehicle (vehicle in which it is mounted) by detecting the state (speed, angular velocity, etc.) of the camera by this image processing. To do. Thus, the vehicle state detection device detects the state (speed V, angular speed W, etc.) of the host vehicle without using a plurality of sensors (vehicle speed sensor, gyro sensor, etc.).

また、この制御装置10は、例えば、車載LAN(Local Area Network)に接続されて、第1ECU(Electronic Control Unit)30、第2ECU40、第3ECU50などの制御装置と通信可能な構成とすることができる。そして、制御装置10は、この第1ECU30、第2ECU40、第3ECU50を用いて各種車両制御を行うようにしてもよい。   In addition, the control device 10 can be configured to be connected to an in-vehicle LAN (Local Area Network) and to be able to communicate with a control device such as a first ECU (Electronic Control Unit) 30, a second ECU 40, and a third ECU 50, for example. . Then, the control device 10 may perform various vehicle controls using the first ECU 30, the second ECU 40, and the third ECU 50.

制御装置10は、図1に示すように、CPU(CentralProcessing Unit)11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、I/F(interface)14などを含むマイクロコンピュータを主体として構成されている。この制御装置10は、CPU11が予めROM13などに格納されたプログラムをRAM12に読出して実行することによって、カメラ20で撮像された画像データの取得など所定の処理動作を実行する。   As shown in FIG. 1, the control device 10 is mainly composed of a microcomputer including a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, an I / F (interface) 14, and the like. It is configured. In the control device 10, the CPU 11 reads out a program stored in advance in the ROM 13 or the like to the RAM 12 and executes it, thereby executing a predetermined processing operation such as acquisition of image data captured by the camera 20.

ここで、図2〜図8に基づいて、制御装置10(車両状態検出装置)の処理動作に関して説明する。制御装置10は、自車両に搭載された電源(図示省略、例えば、バッテリー)から電源供給されている間、所定時間毎に図2に示すアルゴリズムを実行する。   Here, based on FIGS. 2-8, the processing operation of the control apparatus 10 (vehicle state detection apparatus) is demonstrated. The control device 10 executes the algorithm shown in FIG. 2 every predetermined time while power is supplied from a power source (not shown, for example, a battery) mounted on the host vehicle.

まず、ステップS10では、画像データ取得処理を実行する。制御装置10(CPU11)は、カメラ20で所定の撮像間隔Δt毎に撮像された複数の画像データを取得する(画像データ取得手段)。換言すると、一定時間Δt毎に、カメラ20からの画像データ(画像信号)を取り入れる。なお、CPU11は、この画像データを時系列でRAM12などに記憶する。また、カメラ20は、制御装置10とともに車両に搭載されており、自車両の前方などの所定範囲(所定の撮像範囲)を撮像するものである。つまり、カメラ20は、所定の撮像間隔Δt毎に自車両前方などを撮像し、その画像データ(撮像画像情報)を制御装置10に出力する。よって、制御装置10で取得する画像データは、一定時間毎のフレームの画像である。   First, in step S10, an image data acquisition process is executed. The control device 10 (CPU 11) acquires a plurality of image data captured by the camera 20 at a predetermined imaging interval Δt (image data acquisition means). In other words, the image data (image signal) from the camera 20 is taken in every fixed time Δt. The CPU 11 stores the image data in the RAM 12 or the like in time series. The camera 20 is mounted on the vehicle together with the control device 10 and captures a predetermined range (predetermined imaging range) such as the front of the host vehicle. That is, the camera 20 captures the front of the host vehicle at predetermined imaging intervals Δt and outputs the image data (captured image information) to the control device 10. Therefore, the image data acquired by the control device 10 is an image of a frame every certain time.

図3(a)に、画像データの一例を示す。この図3(a)に示すように、画像データには、静止物60(路面に固定又は描かれるなどによって、路面に対して静止している物)と移動物70(路面に対して移動している物)とが混在することがある。つまり、カメラ20の撮像領域内には、静止物だけでなく、移動物が存在することもありうる。この場合、カメラ20は、静止物とともに移動物を撮像することになる。   FIG. 3A shows an example of image data. As shown in FIG. 3A, the image data includes a stationary object 60 (an object that is stationary relative to the road surface by being fixed or drawn on the road surface) and a moving object 70 (the object that moves relative to the road surface). May be mixed). That is, not only a stationary object but also a moving object may exist in the imaging region of the camera 20. In this case, the camera 20 images a moving object together with a stationary object.

なお、静止物60には、路面上に描かれた白線や、地面に固定された標識、ガードレール(図示省略)、建屋(図示省略)などが含まれる。一方、移動物70には、対向車(自車両が走行している車線の反対車線を走行している前方車両)や、先行車(図示省略、自車両と同一の車線を走行している前方車両)が含まれる。   The stationary object 60 includes white lines drawn on the road surface, signs fixed to the ground, guardrails (not shown), buildings (not shown), and the like. On the other hand, the moving object 70 includes an oncoming vehicle (a forward vehicle traveling in a lane opposite to the lane in which the host vehicle is traveling) and a preceding vehicle (not shown, traveling in the same lane as the host vehicle). Vehicle).

次に、ステップS20では、特徴点抽出処理を実行する。制御装置10(CPU11)は、カメラ20で撮像された複数の画像データの夫々において特徴点を抽出する(特徴点抽出手段)。換言すると、制御装置10(CPU11)は、カメラ20で撮像された各画像データにおいて特徴点を抽出する。   Next, in step S20, feature point extraction processing is executed. The control device 10 (CPU 11) extracts a feature point in each of a plurality of image data captured by the camera 20 (feature point extraction means). In other words, the control device 10 (CPU 11) extracts a feature point from each image data captured by the camera 20.

画像データに静止物60と移動物70とが混在する場合、静止物60と移動物70とから特徴点が抽出されることになる。例えば、図3(a)に示す画像データの場合、静止物60から特徴点81が抽出され、移動物70から特徴点82が抽出される。つまり、特徴点81は、静止物60から抽出された特徴点であり、特徴点82は、移動物70から抽出された特徴点である。   When the stationary object 60 and the moving object 70 coexist in the image data, feature points are extracted from the stationary object 60 and the moving object 70. For example, in the case of the image data shown in FIG. 3A, feature points 81 are extracted from the stationary object 60 and feature points 82 are extracted from the moving object 70. That is, the feature point 81 is a feature point extracted from the stationary object 60, and the feature point 82 is a feature point extracted from the moving object 70.

なお、この特徴点の抽出する際には、特徴点には公知のSIFT(Scale-Invariant Feature Transform)特徴量を用い、特徴点の密度が一様となるように、特定の画像範囲内で特徴量の個数を1つと決める。換言すると、この特徴点の抽出には、公知のSIFTを利用する。また、画像データにおける特徴点の密度が一様になるように、この画像データを同じ広さの複数の領域に区分けして、各領域から特徴点を一つ抽出する(つまり、画像データの全範囲から満遍なく特徴点を抽出する)。具体的には、まず、キーポイント検出し、スケール決定する。このとき、平滑化パラメータ極大値をスケールとする(スケール不変)。次に、特徴量記述(特徴ベクトル)する。このとき、多次元特徴ベクトルにより記述することで、照明変化に頑健な特徴量となる。従って、スケール変化に不変で照明変化に頑健な特徴点を抽出することができる。   When extracting the feature points, a known SIFT (Scale-Invariant Feature Transform) feature amount is used for the feature points, and the feature points are featured within a specific image range so that the density of the feature points is uniform. Decide the number of quantities as one. In other words, a known SIFT is used for extracting the feature points. In addition, the image data is divided into a plurality of regions having the same area so that the density of the feature points in the image data is uniform, and one feature point is extracted from each region (that is, all of the image data is extracted). Extract feature points evenly from the range). Specifically, first, key points are detected and the scale is determined. At this time, the smoothing parameter maximum is used as a scale (scale invariant). Next, feature amount description (feature vector) is described. At this time, the feature amount is robust against a change in illumination by describing with a multidimensional feature vector. Therefore, it is possible to extract feature points that are invariant to scale changes and robust to illumination changes.

次に、ステップS30では、オプティカルフロー導出処理を実行する。制御装置10(CPU11)は、時間的に連続する画像データにおいて、特徴点81,82の位置を追跡処理することによって複数のオプティカルフローを導出する(オプティカルフロー導出手段)。つまり、制御装置10(CPU11)は、例えば現時刻(t)の画像データと前時刻(t−1)の画像データ間の画像全体からオプティカルフローを導出する。このオプティカルフローによって、画像データ全体における各点(特徴点81,82)の動きをベクトルとして取得できる。上述のように、画像データに静止物60と移動物70とが混在する場合、画像データ全体を対象としてオプティカルフローを求めることにより、図3(b)に示すように、静止物60から抽出された特徴点81のオプティカルフローOP1(以下、静止物60のオプティカルフローOP1とも称する)と移動物70から抽出された特徴点82のオプティカルフローOP2(以下、移動物70のオプティカルフローOP2とも称する)とをそれぞれ導出することができる。なお、オプティカルフローを導出する場合、前時刻(t−1)よりも更に過去の画像データを用いてもよい。また、オプティカルフローとは、時間的に連続するデジタル画像の中で物体(特徴点)の動きをベクトルで表したものである。   Next, in step S30, an optical flow derivation process is executed. The control device 10 (CPU 11) derives a plurality of optical flows by tracking the positions of the feature points 81 and 82 in temporally continuous image data (optical flow deriving means). That is, the control device 10 (CPU 11) derives an optical flow from the entire image between, for example, image data at the current time (t) and image data at the previous time (t-1). With this optical flow, the motion of each point (feature points 81 and 82) in the entire image data can be acquired as a vector. As described above, when the stationary object 60 and the moving object 70 are mixed in the image data, the optical flow is obtained from the entire image data, and is extracted from the stationary object 60 as shown in FIG. The optical flow OP1 of the feature point 81 (hereinafter also referred to as the optical flow OP1 of the stationary object 60) and the optical flow OP2 of the feature point 82 extracted from the moving object 70 (hereinafter also referred to as the optical flow OP2 of the moving object 70). Can be derived respectively. In addition, when deriving an optical flow, past image data may be used further than the previous time (t−1). The optical flow is a vector representing the motion of an object (feature point) in a temporally continuous digital image.

この静止物60のオプティカルフローOP1は、静止物60に対する自車両の相対的な進行方向、及び静止物60に対する自車両の相対的な速さとの関係に伴って変化するものである。これに対して、移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。   The optical flow OP <b> 1 of the stationary object 60 changes according to the relationship between the relative traveling direction of the host vehicle relative to the stationary object 60 and the relative speed of the host vehicle relative to the stationary object 60. On the other hand, the optical flow OP2 of the moving object 70 is a relative relationship between the traveling direction of the moving object 70 and the traveling direction of the host vehicle, and a relative relationship between the speed of the moving object 70 and the speed of the host vehicle. It will change with.

次に、ステップS40では、オプティカルフロー正規化処理を実行する。制御装置10(CPU11)は、ステレオマッチングにより自車両(カメラ)から各特徴点までの距離を求める(正規化手段)。そして、特徴点までの距離と消失点との方向によりオプティカルフローを正規化する(正規化手段)。例えば、図3(c)に示すように、特徴点81の一つであるa1と特徴点81の一つであるb1とを採用して説明する。なお、求めたa1までの距離は2mであり、a1でのオプティカルフローの大きさは10である。一方、求めたb1までの距離は10mであり、b1でのオプティカルフローの大きさは2である。このa1とb1とに関して、特徴点までの距離と消失点との方向によりオプティカルフローを正規化すると、a1のオプティカルフロー及びb1のオプティカルフローは、両方とも、方向は垂直であり、大きさは20となる。このように正規化することで、図3(d)に示すように、静止物60から抽出された特徴点のオプティカルフローOP1は、全て同じ方向と大きさとなる。   Next, in step S40, an optical flow normalization process is executed. The control device 10 (CPU 11) obtains the distance from the own vehicle (camera) to each feature point by stereo matching (normalization means). Then, the optical flow is normalized by the distance to the feature point and the direction of the vanishing point (normalization means). For example, as shown in FIG. 3C, description will be made by adopting a1 which is one of the feature points 81 and b1 which is one of the feature points 81. The obtained distance to a1 is 2 m, and the size of the optical flow at a1 is 10. On the other hand, the obtained distance to b1 is 10 m, and the magnitude of the optical flow at b1 is 2. When the optical flow is normalized by the distance to the feature point and the direction of the vanishing point with respect to a1 and b1, the optical flow of a1 and the optical flow of b1 are both perpendicular to each other and have a magnitude of 20 It becomes. By normalizing in this way, as shown in FIG. 3D, the optical flows OP1 of feature points extracted from the stationary object 60 all have the same direction and size.

同様に、移動物70(ここでは、対向車)から抽出された特徴点のオプティカルフローOP2に関しても正規化処理を行うことになる。なお、上述のように、移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。従って、図3(d)からも明らかなように、移動物70(ここでは、対向車)から抽出された特徴点のオプティカルフローOP2を正規化すると、a1やb2よりも大きさが大きくなる。なお、正規化後のオプティカルフローOP2の方向は、移動物70の進行方向と自車両の進行方向との相対的な関係によって、a1やb2と同じになることもあるし、異なることもある。なお、本発明の請求項に記載のオプティカルフローは、正規化後のオプティカルフローを示すものである。   Similarly, the normalization process is also performed on the optical flow OP2 of the feature points extracted from the moving object 70 (here, the oncoming vehicle). As described above, the optical flow OP2 of the moving object 70 is the relative relationship between the traveling direction of the moving object 70 and the traveling direction of the host vehicle, and the relative speed between the moving object 70 and the speed of the host vehicle. Changes with the relationship. Therefore, as is clear from FIG. 3D, when the optical flow OP2 of the feature points extracted from the moving object 70 (here, the oncoming vehicle) is normalized, the size becomes larger than a1 and b2. Note that the direction of the normalized optical flow OP2 may be the same as or different from a1 and b2 depending on the relative relationship between the traveling direction of the moving object 70 and the traveling direction of the host vehicle. The optical flow described in the claims of the present invention indicates the optical flow after normalization.

次に、ステップS50では、クラスタリング処理を実行する。つまり、制御装置10(CPU11)は、導出された複数のオプティカルフロー(正規化後)において、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する(分類手段)。換言すると、導出された複数のオプティカルフロー(正規化後)において、方向と大きさの両方が同じであるか否かによってクラスタリングする。よって、同じグループ(クラスタ)に分類されたオプティカルフロー(正規化後)は、方向と大きさが同じものである。   Next, in step S50, clustering processing is executed. That is, the control device 10 (CPU 11) classifies optical flows having the same direction and size in a plurality of derived optical flows (after normalization) into one group (classification means). In other words, clustering is performed depending on whether both the direction and the magnitude are the same in the derived optical flows (after normalization). Therefore, the optical flows (after normalization) classified into the same group (cluster) have the same direction and size.

次に、ステップS60では、クラスタリングした結果において、静止物と移動物との分離処理を実行する。これまで説明したように、時間的に連続する画像データにおける特徴点に基づいて導出した複数のオプティカルフローには、静止物60のオプティカルフローOP1と、移動物70のオプティカルフローOP2とが含まれることがある。   Next, in step S60, a separation process between a stationary object and a moving object is executed based on the clustering result. As described above, the plurality of optical flows derived based on the feature points in temporally continuous image data include the optical flow OP1 of the stationary object 60 and the optical flow OP2 of the moving object 70. There is.

この移動物70のオプティカルフローOP2は、移動物70の進行方向と自車両の進行方向との相対的な関係、及び移動物70の速さと自車両の速さとの相対的な関係に伴って変化するものである。また、移動物70としての対向車や先行車は、それぞれ進行する方向や速さが異なることが多い。従って、各移動物70のオプティカルフローOP2は夫々異なることが多い。   The optical flow OP2 of the moving object 70 changes in accordance with the relative relationship between the traveling direction of the moving object 70 and the traveling direction of the host vehicle, and the relative relationship between the speed of the moving object 70 and the speed of the host vehicle. To do. Further, the oncoming vehicle and the preceding vehicle as the moving object 70 often have different traveling directions and speeds. Therefore, the optical flow OP2 of each moving object 70 is often different.

これに対して、静止物60のオプティカルフローは、静止物60に対する自車両の相対的な進行方向、及び静止物に対する自車両の相対的な速さとの関係に伴って変化するものである。従って、各静止物60のオプティカルフローは、方向及び大きさが同じとなることが多い。また、各静止物60のオプティカルフローは、各移動物70のオプティカルフローと異なることが多い。そこで、方向と大きさが同じであるオプティカルフローの数が最も多いオプティカルフローは、静止物60のオプティカルフローとみなす。   On the other hand, the optical flow of the stationary object 60 changes with the relationship between the relative traveling direction of the host vehicle relative to the stationary object 60 and the relative speed of the host vehicle relative to the stationary object. Accordingly, the optical flow of each stationary object 60 often has the same direction and size. In addition, the optical flow of each stationary object 60 is often different from the optical flow of each moving object 70. Therefore, the optical flow with the largest number of optical flows having the same direction and size is regarded as the optical flow of the stationary object 60.

そこで、制御装置10(CPU11)は、オプティカルフローが最も多く含まれるグループ(クラスタ)のオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する(選択手段)。この自車オプティカルフローは、自車両の車両速度VW(速度V+角速度W)を示すものである。なお、便宜上、自車両の車両速度VW(速度V+角速度W)を自車オプティカルフローと称している。また、この車両速度VW(速度V+角速度W)は、自車両状態、又は自車両の走行状態、又は自車両の運動量とも称することができる。   Therefore, the control device 10 (CPU 11) selects the optical flow of the group (cluster) including the most optical flows as the own vehicle optical flow corresponding to the own vehicle (selection means). The own vehicle optical flow indicates the vehicle speed VW (speed V + angular speed W) of the own vehicle. For convenience, the vehicle speed VW (speed V + angular speed W) of the host vehicle is referred to as the host vehicle optical flow. The vehicle speed VW (speed V + angular speed W) can also be referred to as the own vehicle state, the traveling state of the own vehicle, or the momentum of the own vehicle.

例えば、図3(e)に示すように、グループ91には、9個のオプティカルフロー(正規化後のオプティカルフロー)が含まれるのに対して、グループ92には、1個のオプティカルフロー(正規化後のオプティカルフロー)しか含まれていない。従って、この例においては、グループ91に含まれるオプティカルフローが自車オプティカルフローとして選択される。つまり、静止物のオプティカルフローOP1が自車オプティカルフロー(すなわち、自車両の車両速度VW(速度V+角速度W))として選択されることになる。このように、正規化されたオプティカルフローを方向・大きさでクラスタリングしたときの最大クラスタを静止物として選択する。   For example, as shown in FIG. 3E, the group 91 includes nine optical flows (normalized optical flows), whereas the group 92 includes one optical flow (normal). Only the optical flow after conversion). Therefore, in this example, the optical flow included in the group 91 is selected as the own vehicle optical flow. That is, the optical flow OP1 of the stationary object is selected as the own vehicle optical flow (that is, the vehicle speed VW (speed V + angular velocity W) of the own vehicle). In this way, the maximum cluster when the normalized optical flows are clustered by direction and size is selected as a stationary object.

また、移動物70から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度(速度V+角速度W)と移動物70の車両速度(他車両速度(他車の速度+他車の角速度))とが合成されたものである。従って、移動物70としての対向車から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度(速度V+角速度W)と移動物(対向車)70の対向車両速度MV(対向車速度V1(ベクトル)+対向車角速度W1(ベクトル))とが合成されたものである。また、この対向車両速度MV(速度V1+角速度W1)は、対向車状態、又は対向車両の走行状態、又は対向車の運動量とも称することができる。   The optical flow OP2 of the feature points extracted from the moving object 70 includes the vehicle speed (speed V + angular speed W) of the own vehicle and the vehicle speed of the moving object 70 (another vehicle speed (another vehicle speed + another vehicle angular velocity)). ) And are synthesized. Therefore, the optical flow OP2 of the feature points extracted from the oncoming vehicle as the moving object 70 is the vehicle speed (speed V + angular speed W) of the host vehicle and the oncoming vehicle speed MV (oncoming vehicle speed V1) of the moving object (oncoming vehicle) 70. (Vector) + opposite vehicle angular velocity W1 (vector)). The oncoming vehicle speed MV (speed V1 + angular speed W1) can also be referred to as an oncoming vehicle state, an oncoming vehicle running state, or an oncoming vehicle momentum.

従って、上述のように選択された自車オプティカルフローより大きさが大きいオプティカルフローは、対向車から抽出された特徴点のオプティカルフローとみなすことができる。そこで、制御装置10(CPU11)は、自車オプティカルフローよりも大きさが大きいオプティカルフローを移動物(対向車)70から抽出された特徴点のオプティカルフローとして選択する。例えば、図3(e)に示すように、グループ92に含まれるオプティカルフロー(正規化後のオプティカルフロー)は、自車オプティカルフローよりも大きい。よって、グループ92に含まれるオプティカルフロー(正規化後)を移動物(対向車)70から抽出された特徴点のオプティカルフローとして選択する。なお、上述のように、ここで選択された移動物(対向車)70から抽出された特徴点のオプティカルフローOP2は、自車両の車両速度と対向車の対向車両速度とが合成されたものであるため、合成車両速度VVと記載する。   Therefore, an optical flow having a size larger than that of the own vehicle optical flow selected as described above can be regarded as an optical flow of feature points extracted from the oncoming vehicle. Therefore, the control device 10 (CPU 11) selects an optical flow having a size larger than that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (oncoming vehicle) 70. For example, as shown in FIG. 3E, the optical flow included in the group 92 (optical flow after normalization) is larger than the own vehicle optical flow. Therefore, the optical flow (after normalization) included in the group 92 is selected as the optical flow of the feature points extracted from the moving object (oncoming vehicle) 70. As described above, the optical flow OP2 of the feature points extracted from the moving object (oncoming vehicle) 70 selected here is a combination of the vehicle speed of the host vehicle and the oncoming vehicle speed of the oncoming vehicle. Therefore, it is described as a composite vehicle speed VV.

なお、自車オプティカルフローよりも大きさが小さいオプティカルフロー(正規化後)は、先行車から抽出された特徴点のオプティカルフローとみなすことができる。よって、制御装置10(CPU11)は、自車オプティカルフローよりも大きさが小さいオプティカルフローを移動物(先行車)70から抽出された特徴点のオプティカルフローとして選択することもできる。すなわち、制御装置10(CPU11)は、自車オプティカルフローと大きさが異なるオプティカルフローを移動物(対向車または先行車)70から抽出された特徴点のオプティカルフローとして選択すると言い換えることもできる。   An optical flow (after normalization) having a smaller size than the own vehicle optical flow can be regarded as an optical flow of feature points extracted from the preceding vehicle. Therefore, the control device 10 (CPU 11) can also select an optical flow having a size smaller than that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (preceding vehicle) 70. In other words, the control device 10 (CPU 11) can be paraphrased as selecting an optical flow having a size different from that of the own vehicle optical flow as an optical flow of feature points extracted from the moving object (oncoming vehicle or preceding vehicle) 70.

このようにして、導出したオプティカルフローから静止物のオプティカルフローと移動物のオプティカルフローとを分離する。   In this way, the optical flow of the stationary object and the optical flow of the moving object are separated from the derived optical flow.

次に、ステップS70では、車両状態検出処理を実行する。制御装置10(CPU11)は、上述のように選択された自車オプティカルフロー(車両速度(速度V+角速度W)に基づいて自車両の状態を検出する(第1検出手段)。このように、この自車オプティカルフローに基づいて自車両の状態を検出するので、画像データに移動物と静止物の両方が含まれていた場合であっても、移動物のオプティカルフローに影響されることを抑制でき、検出精度を向上させることができる。なお、この自車両の状態としては、自車両の進行方向における速度Vと自車両の角速度Wと自車両の加速度A(ベクトル)とを検出することができる。   Next, in step S70, vehicle state detection processing is executed. The control device 10 (CPU 11) detects the state of the host vehicle based on the host vehicle optical flow (vehicle speed (speed V + angular speed W)) selected as described above (first detection means). Since the state of the host vehicle is detected based on the host vehicle optical flow, even if both moving and stationary objects are included in the image data, it can be suppressed from being affected by the optical flow of the moving object. As the state of the host vehicle, the speed V in the traveling direction of the host vehicle, the angular velocity W of the host vehicle, and the acceleration A (vector) of the host vehicle can be detected. .

ここで、車両状態検出処理に関しては、図3に加えて、図4〜図8を参照しつつ説明する。まず、ステップS71では、速度Vの検出処理を実行する。制御装置10(CPU11)は、自車オプティカルフローに含まれる特徴点の自車両進行方向(消失点方向)における変化量と、画像データの撮像間隔Δtとによって、自車両の進行方向における速度Vを検出(算出)する(速度検出手段)。なお、この消失点は、周知技術で算出することができる。   Here, the vehicle state detection process will be described with reference to FIGS. 4 to 8 in addition to FIG. 3. First, in step S71, speed V detection processing is executed. The control device 10 (CPU 11) determines the velocity V in the traveling direction of the host vehicle based on the amount of change in the traveling direction (vanishing point direction) of the feature point included in the host vehicle optical flow and the imaging interval Δt of the image data. Detect (calculate) (speed detection means). This vanishing point can be calculated by a known technique.

より具体的には、世界座標系において自車両の進行方向における速度Vを算出する。このとき、自車両の進行方向における速度Vを数式1のように仮定する(車輪方向にのみ移動)。

Figure 2013003110
More specifically, the speed V in the traveling direction of the host vehicle is calculated in the world coordinate system. At this time, the speed V in the traveling direction of the host vehicle is assumed as in Expression 1 (moving only in the wheel direction).
Figure 2013003110

Vz=撮影対象との距離(Zs)の時間変化ということから、Vz=dZs/dtとすることができる。撮影対象との距離(Zs)は公知のステレオマッチングを用い求めることができる。つまり、2台のカメラの中心と計測点からなる三角形を利用した三角測量で求めることができる。よって、左右の画像中の対応点決定に基づいて3次元計測を行う。   Since Vz = time change of the distance (Zs) from the object to be imaged, Vz = dZs / dt can be obtained. The distance (Zs) from the object to be imaged can be obtained using known stereo matching. That is, it can be obtained by triangulation using a triangle composed of the center of two cameras and a measurement point. Therefore, three-dimensional measurement is performed based on determination of corresponding points in the left and right images.

このようにすることで、画像データの処理によって、自車両の進行方向における速度Vを検出することができるので、車速センサを用いる必要がない。つまり、自車両の車輪の回転速度に対応した信号を検出することで自車両の速度を逐次検出するセンサを用いる必要がない。   In this way, the speed V in the traveling direction of the host vehicle can be detected by processing the image data, and therefore it is not necessary to use a vehicle speed sensor. That is, it is not necessary to use a sensor that sequentially detects the speed of the host vehicle by detecting a signal corresponding to the rotational speed of the wheel of the host vehicle.

次に、ステップS72では、角速度Wの検出処理を実行する。具体的には、数式2に示すように、世界座標系において角速度Wを検出(算出)する。

Figure 2013003110
Next, in step S72, an angular velocity W detection process is executed. Specifically, as shown in Formula 2, the angular velocity W is detected (calculated) in the world coordinate system.
Figure 2013003110

上述のように、自車オプティカルフローは、自車両の進行方向における速度Vと角速度Wとの合成である。そこで、制御装置10(CPU11)は、自車オプティカルフロー(すなわち、自車両の車両速度VW(速度V+角速度W)であり、静止物のオプティカルフロー(正規化後のオプティカルフロー))から自車両の進行方向における速度V(換言すると速度成分)を減算することによって、自車両の角速度W(換言すると角速度成分)を検出する(角速度検出手段)。換言すると、自車オプティカルフローから自車両の進行方向における速度Vの差分をとることによって、自車両の角速度W(換言すると角速度成分)を検出する。例えば、図4(a)に示す自車両の車両速度VW(速度V+角速度W)から自車両の進行方向における速度Vを減算することで、図4(b)に示すように、自車両の角速度Wを検出することができる。   As described above, the own vehicle optical flow is a combination of the velocity V and the angular velocity W in the traveling direction of the own vehicle. Therefore, the control device 10 (CPU 11) determines the vehicle's optical flow from the own vehicle's optical flow (that is, the vehicle's vehicle speed VW (speed V + angular velocity W), the stationary object's optical flow (normalized optical flow)). By subtracting the speed V (in other words, the speed component) in the traveling direction, the angular speed W (in other words, the angular speed component) of the host vehicle is detected (angular speed detecting means). In other words, the angular velocity W (in other words, the angular velocity component) of the host vehicle is detected by taking the difference of the speed V in the traveling direction of the host vehicle from the host vehicle optical flow. For example, by subtracting the speed V in the traveling direction of the host vehicle from the vehicle speed VW (speed V + angular speed W) of the host vehicle shown in FIG. 4A, as shown in FIG. W can be detected.

このようにすることで、画像データの処理によって、自車両の角速度Wを検出することができるので、ジャイロセンサを用いる必要がない。つまり、振動子などを用いるジャイロセンサを用いる必要がない。   In this way, the angular velocity W of the host vehicle can be detected by processing the image data, so there is no need to use a gyro sensor. That is, it is not necessary to use a gyro sensor using a vibrator or the like.

なお、この角速度Wは、図5に示すように、平行成分、回転成分が含まれている。この図5は、角速度Wのイメージ図である。よって、この角速度Wを用いて、平行成分(自車両のヨー角及びピッチング角)の検出処理(S721)と回転成分(自車両のロール角)の検出処理(S722)を実行するようにしてもよい。なお、この平行成分(自車両のヨー角及びピッチング角)と回転成分(自車両のロール角)の検出処理に関しては後ほど説明する。また、以下の説明、及び図面においては、ヨー角をYaw、ピッチング角をPitch、ロール角をRollとも記載する。   The angular velocity W includes a parallel component and a rotation component as shown in FIG. FIG. 5 is an image diagram of the angular velocity W. Therefore, the parallel component (the yaw angle and pitching angle of the host vehicle) detection process (S721) and the rotation component (roll angle of the host vehicle) detection process (S722) may be executed using the angular velocity W. Good. The detection processing of the parallel component (the yaw angle and the pitching angle of the host vehicle) and the rotation component (the roll angle of the host vehicle) will be described later. In the following description and drawings, the yaw angle is also referred to as Yaw, the pitching angle as Pitch, and the roll angle as Roll.

このように、車両状態検出装置(制御装置10)は、自車オプティカルフローから自車両の運動量(速度V、角速度W(ピッチング角、ロール角、ヨー角))を検出(推定)すると言い換えることができる。ちなみに、この検出(推定)される運動量は、厳密には画像データを撮像したカメラ20の運動量であるが、カメラ20が自車両に搭載(設置)され、自車両と一体でカメラ20も動くので、自車両の運動量に相当することになる。   In this way, the vehicle state detection device (control device 10) may be paraphrased as detecting (estimating) the momentum (speed V, angular velocity W (pitching angle, roll angle, yaw angle)) of the host vehicle from the host vehicle optical flow. it can. Incidentally, the momentum to be detected (estimated) is strictly the momentum of the camera 20 that has captured the image data. However, since the camera 20 is mounted (installed) on the own vehicle and the camera 20 also moves together with the own vehicle. This corresponds to the momentum of the host vehicle.

次に、ステップS72では、加速度Aの検出処理を実行する。制御装置10(CPU11)は、図4(c)に示すように、自車両の進行方向における速度Vの時系列データを差分することで加速度を求める。なお、この図4(c)は、同じ特徴点における速度Vの時間的な変化を示すものである。   Next, in step S72, acceleration A detection processing is executed. As shown in FIG. 4C, the control device 10 (CPU 11) obtains the acceleration by subtracting the time series data of the speed V in the traveling direction of the host vehicle. FIG. 4C shows the temporal change in the velocity V at the same feature point.

ここで、図6〜図8を参照しつつ、角速度Wにおける平行成分(自車両のヨー角及びピッチング角)と回転成分(自車両のロール角)の検出処理に関して説明する。換言すると、角速度Wの各成分(Yaw,Pitch,Roll)を求める。なお、上述の数式2は、数式3と展開することができる。また、この数式3を数式4及び図8に基づいて、撮像画面座標系から世界座標系へ座標変換する。

Figure 2013003110
Figure 2013003110
Here, the detection processing of the parallel component (the yaw angle and the pitching angle of the host vehicle) and the rotation component (the roll angle of the host vehicle) in the angular velocity W will be described with reference to FIGS. In other words, each component (Yaw, Pitch, Roll) of the angular velocity W is obtained. Note that Equation 2 described above can be expanded as Equation 3. Further, the mathematical expression 3 is coordinate-converted from the imaging screen coordinate system to the world coordinate system based on the mathematical expressions 4 and 8.
Figure 2013003110
Figure 2013003110

まず、ステップS721では、平行成分(自車両のヨー角及びピッチング角)の検出処理を実行する。   First, in step S721, parallel component (yaw angle and pitching angle of own vehicle) detection processing is executed.

図6(a)は、自車両のヨー角、ピッチング角、ロール角が合成されたオプティカルフローのイメージ図である。つまり、自車オプティカルフローから速度Vを減算した差分オプティカルフローである。   FIG. 6A is an image view of an optical flow in which the yaw angle, pitching angle, and roll angle of the host vehicle are combined. That is, the difference optical flow is obtained by subtracting the speed V from the own vehicle optical flow.

制御装置10(CPU11)は、図6(a)に示す自車オプティカルフローから速度Vを減算した差分オプティカルフローから、図6(b)に示すように、カメラ20における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択する。なお、図6(b)に示す二つの差分オプティカルフローは、方向及び大きさが異なるものである。   As shown in FIG. 6B, the control device 10 (CPU 11) sets the center position of the imaging screen coordinates in the camera 20 from the difference optical flow obtained by subtracting the speed V from the own vehicle optical flow shown in FIG. Each differential optical flow at two feature points that are point-symmetric with respect to each other is selected. Note that the two differential optical flows shown in FIG. 6B are different in direction and size.

そして、制御装置10(CPU11)は、図6(c)に示すように、この選択された各差分オプティカルフロー同士を加算して2で除算した値を、差分オプティカルフローから回転成分を取り除いた平行成分とする。換言すると、選択された各差分オプティカルフロー同士を加算して2で除算することによって、角速度Wから回転成分がキャンセルされ、角速度Wの平行成分が求められる。さらに、制御装置10(CPU11)は、この平行成分を水平成分と垂直成分とに分解することによって、図6(d)に示す自車両のヨー角及び図6(e)に示すピッチング角を検出(算出)する(ヨー・ピッチング検出手段)。なお、このヨー角及びピッチング角を上述の座標変換によって、世界座標系のヨー角及びピッチング角として検出する。このよう、自車両の状態として、自車両のヨー角及びピッチング角を検出するようにしてもよい。   Then, as shown in FIG. 6C, the control device 10 (CPU 11) adds the selected differential optical flows to each other and divides them by 2, and then removes the rotational component from the differential optical flow. Ingredients. In other words, by adding the selected difference optical flows to each other and dividing by 2, the rotational component is canceled from the angular velocity W, and the parallel component of the angular velocity W is obtained. Furthermore, the control device 10 (CPU 11) detects the yaw angle of the host vehicle shown in FIG. 6 (d) and the pitching angle shown in FIG. 6 (e) by decomposing the parallel component into a horizontal component and a vertical component. (Calculate) (yaw / pitching detection means). The yaw angle and pitching angle are detected as the yaw angle and pitching angle of the world coordinate system by the above-described coordinate conversion. In this way, the yaw angle and pitching angle of the host vehicle may be detected as the state of the host vehicle.

なお、撮像画面座標の中心位置に対して点対称な二つの特徴点が無い場合は、候補点の角度、半径Rを変更して特徴点を探索する。さらに、候補点を変えても点対称となる特徴点がない場合は、カメラ20における画角、向きを変更して図2に示すアルゴリズムを開始するようにしてもよい。この場合、カメラ20の画角、向きを変更するための変更手段が必要になる。   If there are no two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates, the feature point is searched by changing the angle and radius R of the candidate point. Further, when there is no feature point that is point-symmetric even if the candidate point is changed, the angle of view and orientation of the camera 20 may be changed to start the algorithm shown in FIG. In this case, a changing means for changing the angle of view and orientation of the camera 20 is required.

次に、ステップS722では、回転成分(自車両のロール角)の検出処理を実行する。   Next, in step S722, detection processing of a rotation component (roll angle of the host vehicle) is executed.

図7(a)は、自車両のヨー角、ピッチング角、ロール角が合成されたオプティカルフローのイメージ図である。つまり、自車オプティカルフローから速度Vを減算した差分オプティカルフローである。   FIG. 7A is an image view of an optical flow in which the yaw angle, pitching angle, and roll angle of the host vehicle are combined. That is, the difference optical flow is obtained by subtracting the speed V from the own vehicle optical flow.

制御装置10(CPU11)は、図7(a)に示す自車オプティカルフローから速度Vを減算した差分オプティカルフローから、図7(b)に示すように、カメラ20における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択する。なお、図7(b)に示す二つの差分オプティカルフローは、方向及び大きさが異なるものである。   As shown in FIG. 7B, the control device 10 (CPU 11) sets the center position of the imaging screen coordinates in the camera 20 from the difference optical flow obtained by subtracting the speed V from the own vehicle optical flow shown in FIG. Each differential optical flow at two feature points that are point-symmetric with respect to each other is selected. Note that the two differential optical flows shown in FIG. 7B are different in direction and size.

そして、制御装置10(CPU11)は、図7(c)に示すように、この選択された各差分オプティカルフロー同士の差分を2で除算した値を、差分オプティカルフローから平行成分を取り除いた回転成分とする。換言すると、選択された各差分オプティカルフロー同士を減算して2で除算することによって、図7(d)に示すように、角速度Wから平行成分がキャンセルされ、角速度Wの回転成分が求められる。つまり、制御装置10(CPU11)は、この回転成分を自車両のロール角として検出(算出)する(ロール検出手段)。なお、このロール角を上述の座標変換によって、世界座標系のロール角として検出する。このよう、自車両の状態として、自車両のロール角を検出するようにしてもよい。   Then, as shown in FIG. 7C, the control device 10 (CPU 11) obtains a rotation component obtained by removing the parallel component from the difference optical flow by dividing the difference between the selected difference optical flows by 2. And In other words, by subtracting each selected difference optical flow and dividing by 2, the parallel component is canceled from the angular velocity W and the rotational component of the angular velocity W is obtained as shown in FIG. That is, the control device 10 (CPU 11) detects (calculates) this rotational component as the roll angle of the host vehicle (roll detection means). This roll angle is detected as a roll angle in the world coordinate system by the above-described coordinate transformation. Thus, the roll angle of the host vehicle may be detected as the state of the host vehicle.

なお、撮像画面座標の中心位置に対して点対称な二つの特徴点が無い場合は、候補点の角度、半径Rを変更して特徴点を探索する。さらに、候補点を変えても点対称となる特徴点がない場合は、カメラ20における画角、向きを変更して図2に示すアルゴリズムを開始するようにしてもよい。この場合、カメラ20の画角、向きを変更するための変更手段が必要になる。   If there are no two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates, the feature point is searched by changing the angle and radius R of the candidate point. Further, when there is no feature point that is point-symmetric even if the candidate point is changed, the angle of view and orientation of the camera 20 may be changed to start the algorithm shown in FIG. In this case, a changing means for changing the angle of view and orientation of the camera 20 is required.

以上、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に何ら制限されることはなく、本発明の趣旨を逸脱しない範囲において、種々の変形が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not restrict | limited to the embodiment mentioned above at all, and various deformation | transformation are possible in the range which does not deviate from the meaning of this invention.

(変形例1)
上述の実施形態では、自車オプティカルフロー(車両速度(速度V+角速度W)に基づいて自車両の状態を検出する例を採用したが、本発明はこれに限定されるものではない。変形例1として、対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)を用いて、自車両に向かって走行している対向車が存在する状態であるか否かを判定するようにしてもよい(第1判定手段)。なお、変形例1における制御装置10(CPU11)は、図2に示すステップS10〜ステップS60の処理を実行した後に、図9に示すステップS80〜S82を実行して、その後に、図2に示すステップS70を実行するものである。なので、ここでは、ステップS10〜ステップS70の処理に関しての詳しい説明は省略する。
(Modification 1)
In the above-described embodiment, the example in which the state of the host vehicle is detected based on the host vehicle optical flow (vehicle speed (speed V + angular speed W)) is adopted, but the present invention is not limited to this. As described above, using the optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle, it is determined whether or not there is an oncoming vehicle traveling toward the host vehicle. Alternatively, the control device 10 (CPU 11) according to the first modification executes steps S10 to S60 shown in Fig. 2 and then executes steps S80 to S82 shown in Fig. 9. Then, step S70 shown in Fig. 2 is executed, so that detailed description of the processing of steps S10 to S70 is omitted here.

まず、図9のステップS60(図2のステップS60と同様)では、上述のように、制御装置10(CPU11)は、導出された複数のオプティカルフロー(正規化後)から、自車オプティカルフロー(正規化後)より大きさが大きいオプティカルフロー(正規化後)を選択する(第2検出手段)。移動物70としての対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)は、自車両の車両速度(速度V+角速度W)と移動物(対向車)70の対向車両速度MV(対向車速度V1(ベクトル)+対向車角速度W1(ベクトル))とが合成されたものである。よって、ここでは、このオプティカルフローOP2(合成車両速度VV)が選択されることになる。そして、制御装置10(CPU11)は、選択したオプティカルフローOP2(合成車両速度VV)から自車オプティカルフロー(自車両の車両速度(速度V+角速度W))を減算することで、対向車両に対応する対向車オプティカルフローを検出する(第2検出手段)。つまり、図10(a)に示すように、この対向車オプティカルフローとして、対向車両速度MV(対向車速度V1+対向車角速度W1)が検出される。この対向車オプティカルフローは、対向車両速度MV(対向車速度V1+対向車角速度W1)を示すものである。なお、便宜上、対向車両速度MV(対向車速度V1+対向車角速度W1)を対向車オプティカルフローと称している。   First, in step S60 of FIG. 9 (similar to step S60 of FIG. 2), as described above, the control device 10 (CPU 11) determines the optical flow of the host vehicle (after normalization) from a plurality of derived optical flows (after normalization). An optical flow (after normalization) having a larger size than (after normalization) is selected (second detection means). The optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle as the moving object 70 is the vehicle speed (speed V + angular speed W) of the host vehicle and the oncoming vehicle speed MV ( The oncoming vehicle speed V1 (vector) + the oncoming vehicle angular speed W1 (vector)) is combined. Therefore, here, this optical flow OP2 (synthetic vehicle speed VV) is selected. And the control apparatus 10 (CPU11) respond | corresponds to an oncoming vehicle by subtracting the own vehicle optical flow (vehicle speed (speed V + angular velocity W) of the own vehicle) from the selected optical flow OP2 (synthetic vehicle speed VV). An oncoming vehicle optical flow is detected (second detection means). That is, as shown in FIG. 10A, the oncoming vehicle speed MV (oncoming vehicle speed V1 + oncoming vehicle angular speed W1) is detected as the oncoming vehicle optical flow. This oncoming vehicle optical flow indicates the oncoming vehicle speed MV (oncoming vehicle speed V1 + oncoming vehicle angular speed W1). For convenience, the oncoming vehicle speed MV (oncoming vehicle speed V1 + oncoming vehicle angular speed W1) is referred to as an oncoming vehicle optical flow.

次に、図9のステップS80では、対向車状態の監視処理を実行する。このとき、制御装置10(CPU11)は、対向車オプティカルフロー(対向車両速度MV)を監視する。次に、図9のステップS81では、移動物70(対向車)が自車両(つまり、自車両に搭載されたカメラ20)方向に進行しているか否かを判定する(第1判定手段)。このとき、制御装置10(CPU11)は、対向車オプティカルフローの方向がカメラ20に向いているか否かによって、移動物70がカメラ20方向に進行しているか否かを判定する。   Next, in step S80 of FIG. 9, oncoming vehicle state monitoring processing is executed. At this time, the control device 10 (CPU 11) monitors the oncoming vehicle optical flow (oncoming vehicle speed MV). Next, in step S81 of FIG. 9, it is determined whether or not the moving object 70 (oncoming vehicle) is traveling in the direction of the host vehicle (that is, the camera 20 mounted on the host vehicle) (first determination unit). At this time, the control device 10 (CPU 11) determines whether or not the moving object 70 is traveling in the direction of the camera 20 depending on whether or not the direction of the oncoming vehicle optical flow is facing the camera 20.

そして、対向車オプティカルフローの方向がカメラ20に向いていないと判定した場合は、移動物70がカメラ20方向に進行していないとみなしてステップS70へ進む。例えば、図10(b)に示すように、最も古いタイミングT1、次のタイミングT2、そして最新のタイミングT3の順番に対向車オプティカルフローの方向を監視した結果、対向車オプティカルフローの方向がカメラ20に向いていないと判定した場合は移動物70がカメラ20方向に進行していないとみなす。   And when it determines with the direction of an oncoming vehicle optical flow not facing the camera 20, it considers that the moving body 70 is not advancing to the camera 20 direction, and progresses to step S70. For example, as shown in FIG. 10B, the direction of the oncoming vehicle optical flow is monitored in the order of the oldest timing T1, the next timing T2, and the latest timing T3. When it is determined that the moving object 70 is not suitable for the camera 20, it is considered that the moving object 70 does not travel in the direction of the camera 20.

一方、対向車オプティカルフローの方向がカメラ20に向いていると判定した場合は、移動物70がカメラ20方向に進行しているとみなしてステップS82へ進む。例えば、図10(c)に示すように、最も古いタイミングT1、次のタイミングT2、そして最新のタイミングT3の順番に対向車オプティカルフローの方向を監視した結果、対向車オプティカルフローの方向がカメラ20に向いていると判定した場合は移動物70がカメラ20方向に進行しているとみなす。このようにすることによって画像データの処理によって、自車両に向かって走行している対向車が存在する状態であるか否かを判定することができる。   On the other hand, if it is determined that the direction of the oncoming vehicle optical flow is facing the camera 20, the moving object 70 is regarded as traveling in the direction of the camera 20, and the process proceeds to step S82. For example, as shown in FIG. 10C, the direction of the oncoming vehicle optical flow is monitored in the order of the oldest timing T1, the next timing T2, and the latest timing T3. If it is determined that the moving object 70 is moving in the direction of the camera 20, the moving object 70 is considered to be traveling in the direction of the camera 20. By doing so, it is possible to determine whether or not there is an oncoming vehicle traveling toward the host vehicle by processing the image data.

また、図9のステップS82では、衝突判定処理を実行する。このとき、制御装置10(CPU11)は、対向車オプティカルフローの方向と大きさに基づいて衝突判定を行う。ここでは、対向車オプティカルフローの方向がカメラ20方向へ向いており、対向車オプティカルフローの大きさが所定値より大きい場合は、自車両に向かって走行している対向車との衝突の危険性が高い状態であるとみなす。また、対向車オプティカルフローの方向がカメラ20方向へ向いており、対向車オプティカルフローの大きさが所定値より小さい場合は、自車両に向かって走行している対向車との衝突の危険性が低い状態であるとみなす。   In step S82 of FIG. 9, a collision determination process is executed. At this time, the control device 10 (CPU 11) performs a collision determination based on the direction and magnitude of the oncoming vehicle optical flow. Here, when the direction of the oncoming vehicle optical flow is in the direction of the camera 20 and the size of the oncoming vehicle optical flow is larger than a predetermined value, there is a risk of a collision with the oncoming vehicle that is traveling toward the host vehicle. Is considered high. In addition, when the direction of the oncoming vehicle optical flow is directed toward the camera 20 and the size of the oncoming vehicle optical flow is smaller than a predetermined value, there is a risk of a collision with the oncoming vehicle traveling toward the host vehicle. Consider low.

(変形例2)
変形例2として、対向車から抽出された特徴点のオプティカルフローOP2(合成車両速度VV)を用いて、自車両の走行状態が安定している状態であるか否かを検出するようにしてもよい。なお、変形例2における制御装置10(CPU11)は、図2に示すステップS10〜ステップS70の処理を実行した後に、図11に示すステップS90〜S93を実行するものである。なので、ここでは、ステップS10〜ステップS70の処理に関しては説明を省略する。
(Modification 2)
As a second modification, it is possible to detect whether or not the traveling state of the host vehicle is stable using the optical flow OP2 (synthetic vehicle speed VV) of the feature points extracted from the oncoming vehicle. Good. Note that the control device 10 (CPU 11) in the second modification executes steps S90 to S93 shown in FIG. 11 after executing the processes of steps S10 to S70 shown in FIG. Therefore, description of the processing in steps S10 to S70 is omitted here.

まず、図2に示すステップS70の車両状態検出処理が終了すると、図11のステップS90に示すように、角速度Wの監視処理を実行する。このとき、制御装置10(CPU11)は、ステップS70で検出したロール角、ヨー角を監視する。   First, when the vehicle state detection process of step S70 shown in FIG. 2 is completed, the monitoring process of the angular velocity W is executed as shown in step S90 of FIG. At this time, the control device 10 (CPU 11) monitors the roll angle and yaw angle detected in step S70.

そして、図11のステップS91では、閾値判定を実行する。このとき、制御装置10(CPU11)は、このロール角が閾値(ロール閾値)に達したか否か、及びヨー角が閾値(ヨー閾値)に達したか否かを判定する。そして、制御装置10(CPU11)は、ロール角とロール閾値とを比較し、このロール角がロール閾値に達した場合に自車両の走行状態が不安定であると判定してステップS92へ進む(第2判定手段)。同様に、制御装置10(CPU11)は、ヨー角とヨー閾値とを比較し、このヨー角がヨー閾値に達した場合に自車両の走行状態が不安定であると判定してステップS93へ進む(第3判定手段)。なお、制御装置10(CPU11)は、ロール角がロール閾値に達していないと判定し、且つ、ヨー角がヨー閾値に達していないと判定した場合はステップS10へ戻る。このようにすることによって、画像データの処理によって、自車両の走行状態が安定している状態であるか否かを検出(判定)することができる。   In step S91 in FIG. 11, threshold determination is executed. At this time, the control device 10 (CPU 11) determines whether or not the roll angle has reached a threshold value (roll threshold value) and whether or not the yaw angle has reached a threshold value (yaw threshold value). Then, the control device 10 (CPU 11) compares the roll angle with the roll threshold value, determines that the traveling state of the host vehicle is unstable when the roll angle reaches the roll threshold value, and proceeds to step S92 ( Second determination means). Similarly, control device 10 (CPU 11) compares the yaw angle with the yaw threshold, determines that the traveling state of the host vehicle is unstable when the yaw angle reaches the yaw threshold, and proceeds to step S93. (Third determination means). Note that the control device 10 (CPU 11) determines that the roll angle has not reached the roll threshold and returns to step S10 if it is determined that the yaw angle has not reached the yaw threshold. By doing so, it is possible to detect (determine) whether or not the traveling state of the host vehicle is stable by processing the image data.

なお、ステップS92では、横転判定処理を実行するようにしてもよい。つまり、制御装置10(CPU11)は、ロール角がとロール閾値に達した場合、自車両の走行状態が不安定であり横転する可能性があるとみなすようにしてもよい。なお、この場合、制御装置10(CPU11)は、その他のECU(第1ECU30、第2ECU40、第3ECU50)を介してユーザに注意喚起を行うようにしてもよい。   In step S92, rollover determination processing may be executed. That is, when the roll angle reaches the roll threshold, the control device 10 (CPU 11) may consider that the traveling state of the host vehicle is unstable and may roll over. In this case, the control device 10 (CPU 11) may alert the user via other ECUs (first ECU 30, second ECU 40, third ECU 50).

また、ステップS93では、VSC(VehicleStability Control)制御判定を実行してもよい。つまり、制御装置10(CPU11)は、ヨー角がとヨー閾値に達した場合、自車両の走行状態が不安定であり横滑りする可能性があるとみなして、VSC制御の実行を開始すると判定してもよい。つまり、この場合、制御装置10(CPU11)は、その他のECU(第1ECU30、第2ECU40、第3ECU50)にVSC制御の開始を指示するようにしてもよい。なお、VSC制御とは、障害物回避のための急ハンドルや、滑りやすい路面でのコーナリング中などに発生する自車両の横すべりを検出すると、各車輪のブレーキやエンジン出力を自動的にコントロールすることで、不安定な挙動を抑制するシステムである。   In step S93, VSC (Vehicle Stability Control) control determination may be executed. That is, when the yaw angle reaches the yaw threshold, the control device 10 (CPU 11) determines that the traveling state of the host vehicle is unstable and may skid, and determines that the execution of the VSC control is started. May be. That is, in this case, the control device 10 (CPU 11) may instruct the other ECUs (first ECU 30, second ECU 40, third ECU 50) to start VSC control. Note that VSC control automatically controls the brakes and engine output of each wheel when it detects a sudden steering to avoid an obstacle or a side slip of the host vehicle that occurs during cornering on a slippery road surface. It is a system that suppresses unstable behavior.

10 制御装置、11 CPU、12 RAM、13 ROM、14 I/F、20 カメラ、30 第1ECU、40 第2ECU、50 第3ECU   DESCRIPTION OF SYMBOLS 10 Control apparatus, 11 CPU, 12 RAM, 13 ROM, 14 I / F, 20 Camera, 30 1st ECU, 40 2ECU, 50 3ECU

Claims (8)

車両に設置された撮像装置で撮像された画像データに基づいて、自車両の状態を検出する車両状態検出装置であって、
前記撮像装置で所定の撮像間隔Δt毎に撮像された複数の前記画像データを取得する画像データ取得手段(S10)と、
複数の前記画像データの夫々において特徴点を抽出する特徴点抽出手段(S20)と、
時間的に連続する前記画像データにおいて、前記特徴点の位置を追跡処理することによって複数のオプティカルフローを導出するオプティカルフロー導出手段(S30)と、
導出された複数の前記オプティカルフローにおいて、方向と大きさの両方が同じであるオプティカルフロー同士を一つのグループに分類する分類手段(S50)と、
オプティカルフローが最も多く含まれるグループのオプティカルフローを、自車両に対応する自車オプティカルフローとして選択する選択手段(S60)と、
選択された自車オプティカルフローに基づいて自車両の状態を検出する第1検出手段(S70)と、
を備えることを特徴とする車両状態検出装置。
A vehicle state detection device that detects the state of the host vehicle based on image data captured by an imaging device installed in the vehicle,
Image data acquisition means (S10) for acquiring a plurality of the image data captured at predetermined imaging intervals Δt by the imaging device;
Feature point extraction means (S20) for extracting feature points in each of the plurality of image data;
Optical flow deriving means (S30) for deriving a plurality of optical flows by tracking the positions of the feature points in the temporally continuous image data;
In the plurality of derived optical flows, classification means (S50) for classifying optical flows having the same direction and size into one group;
Selecting means (S60) for selecting the optical flow of the group including the most optical flows as the own vehicle optical flow corresponding to the own vehicle;
First detection means (S70) for detecting the state of the host vehicle based on the selected host vehicle optical flow;
A vehicle state detection device comprising:
前記第1検出手段(S70)は、前記自車オプティカルフローに含まれる特徴点の自車両進行方向における変化量と、前記画像データの撮像間隔Δtとによって、自車両の進行方向における速度を検出する速度検出手段(S71)を含むことを特徴とする請求項1に記載の車両状態検出装置。   The first detection means (S70) detects the speed in the traveling direction of the host vehicle based on the amount of change in the traveling direction of the feature point included in the host vehicle optical flow and the imaging interval Δt of the image data. The vehicle state detection device according to claim 1, further comprising speed detection means (S71). 前記第1検出手段(S70)は、前記自車オプティカルフローから前記速度を減算することによって、自車両の角速度を検出する角速度検出手段(S72)を含むことを特徴とする請求項2に記載の車両状態検出装置。   The said 1st detection means (S70) includes the angular velocity detection means (S72) which detects the angular velocity of the own vehicle by subtracting the said speed from the said own vehicle optical flow. Vehicle state detection device. 前記角速度検出手段(S72)は、
前記自車オプティカルフローから前記速度を減算した差分オプティカルフローから、前記撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、
選択された各差分オプティカルフロー同士を加算して2で除算した値を、前記差分オプティカルフローから回転成分を取り除いた平行成分とし、当該平行成分から自車両のヨー角及びピッチング角を検出するヨー・ピッチング検出手段(S721)を含むことを特徴とする請求項3に記載の車両状態検出装置。
The angular velocity detection means (S72)
From the difference optical flow obtained by subtracting the speed from the own vehicle optical flow, select each difference optical flow at two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates in the imaging device,
A value obtained by adding the respective differential optical flows to each other and dividing by 2 is defined as a parallel component obtained by removing the rotation component from the differential optical flow, and the yaw angle and pitching angle of the host vehicle are detected from the parallel component The vehicle state detection device according to claim 3, further comprising pitching detection means (S721).
前記角速度検出手段(S72)は、
前記自車オプティカルフローから前記速度を減算した差分オプティカルフローから、前記撮像装置における撮像画面座標の中心位置に対して点対称な二つの特徴点における各差分オプティカルフローを選択し、
選択された各差分オプティカルフロー同士の差分を2で除算した値を、前記差分オプティカルフローから平行成分を取り除いた回転成分とし、当該回転成分を自車両のロール角として検出するロール検出手段(S722)を含むことを特徴とする請求項3に記載の車両状態検出装置。
The angular velocity detection means (S72)
From the difference optical flow obtained by subtracting the speed from the own vehicle optical flow, select each difference optical flow at two feature points that are point-symmetric with respect to the center position of the imaging screen coordinates in the imaging device,
Roll detection means for detecting a value obtained by dividing the difference between the selected difference optical flows by 2 as a rotation component obtained by removing a parallel component from the difference optical flow, and detecting the rotation component as a roll angle of the host vehicle (S722). The vehicle state detection device according to claim 3, comprising:
前記オプティカルフロー導出手段(S30)にて導出された複数のオプティカルフローから、前記自車オプティカルフローより大きいオプティカルフローを選択し、当該オプティカルフローから当該自車オプティカルフローを減算することで、対向車両に対応する対向車オプティカルフローを検出する第2検出手段(S60)と、
前記対向車オプティカルフローの方向が、自車両に向いているか否かを判定する第1判定手段(S80,S81)と、
を含むことを特徴とする請求項2乃至5のいずれか一項に記載の車両状態検出装置。
By selecting an optical flow larger than the own vehicle optical flow from the plurality of optical flows derived by the optical flow deriving means (S30), and subtracting the own vehicle optical flow from the optical flow, Second detection means (S60) for detecting a corresponding oncoming vehicle optical flow;
First determination means (S80, S81) for determining whether the direction of the oncoming vehicle optical flow is toward the host vehicle;
The vehicle state detection device according to any one of claims 2 to 5, wherein the vehicle state detection device includes:
前記ロール検出手段(S722)にて検出されたロール角と閾値とを比較し、当該ロール角が当該閾値に達した場合に自車両の走行状態が不安定であると判定し、当該ロール角が当該閾値に達していない場合に自車両の走行状態が安定していると判定する第2判定手段(S90,S91)を備えることを特徴とする請求項5に記載の車両状態検出装置。   The roll angle detected by the roll detection means (S722) is compared with a threshold, and when the roll angle reaches the threshold, it is determined that the traveling state of the host vehicle is unstable, and the roll angle is The vehicle state detection device according to claim 5, further comprising second determination means (S90, S91) for determining that the traveling state of the host vehicle is stable when the threshold value is not reached. 前記ヨー・ピッチング検出手段(S721)にて検出されたヨー角と閾値とを比較し、当該ヨー角が当該閾値に達した場合に自車両の走行状態が不安定であると判定し、当該ヨー角が当該閾値に達していない場合に自車両の走行状態が安定していると判定する第3判定手段(S90,S91)を備えることを特徴とする請求項4に記載の車両状態検出装置。   The yaw angle detected by the yaw / pitching detection means (S721) is compared with a threshold value, and when the yaw angle reaches the threshold value, it is determined that the traveling state of the host vehicle is unstable, and the yaw angle The vehicle state detection device according to claim 4, further comprising third determination means (S90, S91) for determining that the traveling state of the host vehicle is stable when the angle does not reach the threshold value.
JP2011137698A 2011-06-21 2011-06-21 Vehicle state detection device Expired - Fee Related JP5556748B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011137698A JP5556748B2 (en) 2011-06-21 2011-06-21 Vehicle state detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011137698A JP5556748B2 (en) 2011-06-21 2011-06-21 Vehicle state detection device

Publications (2)

Publication Number Publication Date
JP2013003110A true JP2013003110A (en) 2013-01-07
JP5556748B2 JP5556748B2 (en) 2014-07-23

Family

ID=47671806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011137698A Expired - Fee Related JP5556748B2 (en) 2011-06-21 2011-06-21 Vehicle state detection device

Country Status (1)

Country Link
JP (1) JP5556748B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014172875A1 (en) * 2013-04-25 2014-10-30 Harman International Industries, Incorporated Moving object detection
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
WO2016016959A1 (en) * 2014-07-30 2016-02-04 株式会社日立製作所 Optical velocity measurement device and moving body
JP2016060463A (en) * 2014-09-22 2016-04-25 富士重工業株式会社 Vehicle behavior determination device
JP2016217844A (en) * 2015-05-19 2016-12-22 株式会社小野測器 Rotation velocity measurement device
JP2017102832A (en) * 2015-12-04 2017-06-08 株式会社Soken Vehicle pitch angle estimation device
JP2017117386A (en) * 2015-12-25 2017-06-29 学校法人千葉工業大学 Self-motion estimation system, control method and program of self-motion estimation system
WO2017145541A1 (en) * 2016-02-23 2017-08-31 株式会社日立製作所 Mobile object
JP2017163374A (en) * 2016-03-10 2017-09-14 株式会社デンソー Traffic situation analyzer, traffic situation analyzing method, and traffic situation analysis program
WO2018138414A1 (en) * 2017-01-30 2018-08-02 Konecranes Global Corporation Movable hoisting apparatus, arrangement and method
WO2018225480A1 (en) * 2017-06-05 2018-12-13 日立オートモティブシステムズ株式会社 Position estimating device
US10325161B2 (en) 2015-10-26 2019-06-18 Fujitsu Ten Limited Vehicle state determining device, display processing device, and vehicle state determining method
EP3591613A4 (en) * 2017-02-28 2020-11-25 NEC Solution Innovators, Ltd. Mobile entity detector, mobile entity detection method, and computer-readable recording medium
JP2021189156A (en) * 2020-05-29 2021-12-13 芯鼎科技股▲ふん▼有限公司 Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366937A (en) * 2001-06-08 2002-12-20 Fuji Heavy Ind Ltd Monitor outside vehicle
JP2005258936A (en) * 2004-03-12 2005-09-22 Mitsubishi Fuso Truck & Bus Corp Vehicle travelling state judging apparatus
JP2011209825A (en) * 2010-03-29 2011-10-20 Panasonic Corp Navigation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366937A (en) * 2001-06-08 2002-12-20 Fuji Heavy Ind Ltd Monitor outside vehicle
JP2005258936A (en) * 2004-03-12 2005-09-22 Mitsubishi Fuso Truck & Bus Corp Vehicle travelling state judging apparatus
JP2011209825A (en) * 2010-03-29 2011-10-20 Panasonic Corp Navigation device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014172875A1 (en) * 2013-04-25 2014-10-30 Harman International Industries, Incorporated Moving object detection
JP2015225366A (en) * 2014-05-26 2015-12-14 株式会社リコー Accident prevention system, accident prevention device, and accident prevention method
US9977044B2 (en) 2014-07-30 2018-05-22 Hitachi Ltd. Optical velocity measuring apparatus and moving object
WO2016016959A1 (en) * 2014-07-30 2016-02-04 株式会社日立製作所 Optical velocity measurement device and moving body
JPWO2016016959A1 (en) * 2014-07-30 2017-04-27 株式会社日立製作所 Optical speed measuring device and moving body
JP2016060463A (en) * 2014-09-22 2016-04-25 富士重工業株式会社 Vehicle behavior determination device
JP2016217844A (en) * 2015-05-19 2016-12-22 株式会社小野測器 Rotation velocity measurement device
US10325161B2 (en) 2015-10-26 2019-06-18 Fujitsu Ten Limited Vehicle state determining device, display processing device, and vehicle state determining method
JP2017102832A (en) * 2015-12-04 2017-06-08 株式会社Soken Vehicle pitch angle estimation device
JP2017117386A (en) * 2015-12-25 2017-06-29 学校法人千葉工業大学 Self-motion estimation system, control method and program of self-motion estimation system
JPWO2017145541A1 (en) * 2016-02-23 2018-11-08 株式会社日立製作所 Moving body
WO2017145541A1 (en) * 2016-02-23 2017-08-31 株式会社日立製作所 Mobile object
US10740908B2 (en) 2016-02-23 2020-08-11 Hitachi, Ltd. Moving object
JP2017163374A (en) * 2016-03-10 2017-09-14 株式会社デンソー Traffic situation analyzer, traffic situation analyzing method, and traffic situation analysis program
WO2018138414A1 (en) * 2017-01-30 2018-08-02 Konecranes Global Corporation Movable hoisting apparatus, arrangement and method
EP3591613A4 (en) * 2017-02-28 2020-11-25 NEC Solution Innovators, Ltd. Mobile entity detector, mobile entity detection method, and computer-readable recording medium
US11062174B2 (en) 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium
WO2018225480A1 (en) * 2017-06-05 2018-12-13 日立オートモティブシステムズ株式会社 Position estimating device
JP2018205142A (en) * 2017-06-05 2018-12-27 日立オートモティブシステムズ株式会社 Position estimation device
US11346670B2 (en) 2017-06-05 2022-05-31 Hitachi Astemo, Ltd. Position estimating device
JP2021189156A (en) * 2020-05-29 2021-12-13 芯鼎科技股▲ふん▼有限公司 Velocity measuring apparatus and velocity measuring method using velocity measuring apparatus

Also Published As

Publication number Publication date
JP5556748B2 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
JP5556748B2 (en) Vehicle state detection device
US11209284B2 (en) System and method for creating driving route of vehicle
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP5197679B2 (en) Object detection apparatus and program
JP5939357B2 (en) Moving track prediction apparatus and moving track prediction method
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
CN107845290B (en) Intersection warning method, processing system, intersection warning system and vehicle
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP6679152B1 (en) Accident analysis device, accident analysis method and program
JP5754470B2 (en) Road surface shape estimation device
CN109074742B (en) Peripheral recognition device, peripheral recognition method, and computer-readable recording medium
JP5482672B2 (en) Moving object detection device
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
US8160300B2 (en) Pedestrian detecting apparatus
CN111497741B (en) Collision early warning method and device
JP5482323B2 (en) Driving support device and program
JP2012221162A (en) Object detection device and program
KR20180047149A (en) Apparatus and method for risk alarming of collision
US10982967B2 (en) Method and device for fast detection of repetitive structures in the image of a road scene
JP5832850B2 (en) Lane monitoring system and lane monitoring method
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP6171608B2 (en) Object detection device
KR20170138842A (en) System and Method for Tracking Vehicle on the basis on Template Matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R151 Written notification of patent or utility model registration

Ref document number: 5556748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees