JP2016016751A - Curve detection device - Google Patents

Curve detection device Download PDF

Info

Publication number
JP2016016751A
JP2016016751A JP2014140806A JP2014140806A JP2016016751A JP 2016016751 A JP2016016751 A JP 2016016751A JP 2014140806 A JP2014140806 A JP 2014140806A JP 2014140806 A JP2014140806 A JP 2014140806A JP 2016016751 A JP2016016751 A JP 2016016751A
Authority
JP
Japan
Prior art keywords
curve
vehicle
distance
start point
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014140806A
Other languages
Japanese (ja)
Inventor
卓永 山本
Takahisa Yamamoto
卓永 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2014140806A priority Critical patent/JP2016016751A/en
Publication of JP2016016751A publication Critical patent/JP2016016751A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a curve detection device for detecting a curve in a front direction of a vehicle stably, before approaching to the curve.SOLUTION: A fuzzy inference determines whether or not, a candidate of a curve start point Cc in a front direction of a vehicle, detected by images 60, 61 obtained by image processing to images including a lane mark imaged by a camera 16, is the curve start point Cc. More particularly, approach distance Di from distance Dp of the curve start point Cc in a past frame to distance Dn of the curve start point Cc in a present frame, is determined, and the approach distance Di and movement distance Dr of a vehicle 12 determined based on time ΔT between both frames and vehicle speed v, are compared. When distance difference |Di-Dr| is large, it is estimated that, probability that detection is correctly performed is low, and when the distance difference |Di-Dr| is small, it is estimated that, probability that detection is correctly performed is high, and then determined.SELECTED DRAWING: Figure 6

Description

この発明は、車両に搭載された撮像装置によって撮像された車線境界線(車線区画線ともいう。)を含む画像に基づいて車両前方のカーブを検出するカーブ検出装置に関し、例えば、電動パワーステアリング装置を備える自動操舵車両あるいは自動操舵アシスト車両等に搭載して好適なカーブ検出装置に関する。   The present invention relates to a curve detection device that detects a curve ahead of a vehicle based on an image including a lane boundary line (also referred to as a lane marking) imaged by an imaging device mounted on the vehicle, for example, an electric power steering device. The present invention relates to a curve detection device suitable for being mounted on an automatic steering vehicle or an automatic steering assist vehicle including

特許文献1には、操舵補助モータの実モータ駆動電流と実モータ駆動電圧から算出した回転角速度等及び検出車速に基づきファジールールに従ってファジー推論を行うことで車両の走行状態を推定し、走行状態の推定値に基づいて前記操舵補助モータの駆動電流を補正し、車両の実際の走行状態に適合した操舵力になるよう前記操舵補助モータを制御する電動パワーステアリング装置が開示されている(特許文献1の要約)。   In Patent Document 1, the running state of the vehicle is estimated by performing fuzzy inference according to the fuzzy rule based on the rotational angular velocity calculated from the actual motor driving current and the actual motor driving voltage of the steering assist motor and the detected vehicle speed. An electric power steering device is disclosed that corrects the drive current of the steering assist motor based on the estimated value and controls the steering assist motor so that the steering force is adapted to the actual running state of the vehicle (Patent Document 1). Summary).

特許文献1に開示された技術によれば、例えば長距離を長時間走行する走行状態のときには操舵力を軽くし、山道等の屈曲路では操舵力を少し重くして手応えを大きくしたいという要求のある走行状態のときにはその要求にスムーズに応えることができるとされている。   According to the technique disclosed in Patent Document 1, for example, in a traveling state where a long distance is traveled for a long time, the steering force is lightened, and on a curved road such as a mountain road, the steering force is slightly increased to increase the response. It is said that the demand can be smoothly met in a certain running state.

特開平5−213217号公報JP-A-5-213217

しかしながら、上記従来技術に係るファジー推論を用いた電動パワーステアリング装置では、車両の実際の走行状態に適合した操舵力に制御するために、操舵補助モータの実モータ駆動電流と実モータ駆動電圧を検出する必要がある(特許文献1の[0011]、[0012])ので、カーブ進入前の車両に対しては適用することができない。   However, in the electric power steering apparatus using fuzzy inference according to the above-described prior art, the actual motor drive current and the actual motor drive voltage of the steering assist motor are detected in order to control the steering force in accordance with the actual running state of the vehicle. ([0011], [0012] of Patent Document 1), it cannot be applied to a vehicle before entering a curve.

つまり、上記従来技術では、カーブ進入前に車両前方のカーブを安定的に検出することができないので、特に、カーブ進入時における操舵アシスト制御について改良の余地がある。   In other words, in the above-described conventional technology, the curve ahead of the vehicle cannot be detected stably before entering the curve, so there is room for improvement in particular regarding steering assist control when entering the curve.

この発明はこのような課題を考慮してなされたものであり、カーブ進入前に車両前方のカーブ(カーブ開始点を含む。)を安定的に検出することを可能とするカーブ検出装置を提供することを目的とする。   The present invention has been made in consideration of such problems, and provides a curve detection device that can stably detect a curve ahead of a vehicle (including a curve start point) before entering the curve. For the purpose.

この発明に係るカーブ検出装置は、車両に搭載された撮像装置によって撮像された車線境界線を含む画像に基づいて車両前方のカーブを検出するカーブ検出装置において、前記車線境界線を含む画像に対して画像処理を行うことによって前記車両前方のカーブの可能性があるカーブ候補を検出するカーブ候補検出部と、前記カーブ候補検出部にて検出された前記カーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するカーブ決定部と、を備えている。   The curve detection device according to the present invention is a curve detection device that detects a curve ahead of a vehicle based on an image including a lane boundary line imaged by an imaging device mounted on the vehicle. A curve candidate detection unit that detects a curve candidate that may be a curve ahead of the vehicle by performing image processing, and whether or not the curve candidate detected by the curve candidate detection unit is a curve. And a curve determination unit that determines using fuzzy inference.

この発明によれば、車線境界線を含む画像に対して画像処理を行うことによって検出された車両前方のカーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するようにしたので、前記カーブを安定的に検出することができる。   According to the present invention, whether the curve candidate in front of the vehicle detected by performing image processing on the image including the lane boundary line is a curve is determined using fuzzy inference. The curve can be detected stably.

この場合、前記ファジー推論は、前記撮像装置によって撮像された異なるフレームの画像から算出される前記カーブ候補の前記車両への接近距離と、前記異なるフレーム間の時間と車速から算出される前記車両の移動距離とが略等しい場合、という前件部を有するルールからなる新規なメンバーシップ関数を含むことで、前記カーブを安定的に検出する、それなりに妥当な結果が得られる。   In this case, the fuzzy inference is calculated based on the approach distance of the curve candidate calculated from the images of different frames captured by the imaging device, the time between the different frames, and the vehicle speed. By including a new membership function consisting of a rule having an antecedent part in the case where the moving distance is substantially equal, a reasonable result for detecting the curve stably can be obtained.

より好ましくは、前記カーブ決定部は、前記ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択して前記カーブ中、カーブ開始点候補の正誤を決定するものであり、前記4つのルールは、現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする第1ルール、現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする第2ルール、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離との間に大きな隔たりがある場合には、誤とする第3ルール、及び、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離とが略同一である場合には、正とする第4ルールからなるように構成する。   More preferably, the curve determination unit selects at least two rules among the four rules used for the fuzzy inference, and determines the correctness of the curve start point candidate in the curve. The four rules Is the first rule that is erroneous if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is too far or too close A second rule that is positive if the distance from the vehicle to the curve start point candidate calculated from the image is an intermediate distance between the distance too far and the distance too close, Calculated from the approach distance of the curve start point candidate calculated from the image of the frame and the past frame to the vehicle, the time between the current frame and the past frame, and the vehicle speed. If there is a large gap between the moving distance of the vehicle and the third rule to be erroneous, and the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle When the moving distance of the vehicle calculated from the time between the current frame and the past frame and the vehicle speed is substantially the same, the fourth rule is set to be positive.

このように、カーブ決定部が、ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択してカーブ開始点候補の正誤を決定するようにしたので、カーブ開始点である確からしさを高くすることができる。4つのルール全てを選択することでよりロバスト性の高いカーブ開始点を検出することができる。   In this way, the curve determination unit selects at least two of the four rules used for fuzzy inference and determines whether the curve start point candidate is correct or not. Therefore, the probability of being the curve start point is increased. can do. By selecting all four rules, a more robust curve start point can be detected.

なお、前記カーブ決定部は、選択した前記2つのルールの各メンバーシップ関数の合成出力重心と閾値とを比較してカーブを決定する際に、前記閾値を、撮像された前記画像の前記車線境界線を表す画像信号の大小に応じて増減することとすれば、車線境界線を表す画像信号の大小は、レーンマークの擦れ、天候等の道路周囲環境により変化するので、道路周囲環境によらず、カーブ候補からカーブを一定の確からしさで決定することができる。   The curve determining unit compares the threshold of the combined output centroid of each membership function of the two selected rules with a threshold to determine the threshold, and the threshold is used as the lane boundary of the captured image. If the image signal representing the line increases or decreases according to the size of the image signal representing the lane boundary line, the size of the image signal representing the lane boundary line changes depending on the surrounding environment of the road such as lane marks and weather. The curve can be determined with certain certainty from the curve candidates.

また、前記カーブ決定部が、前記カーブ又はカーブ開始点を決定した場合、前記カーブ又は前記カーブ開始点の手前から車両走行支援開始信号をさらに生成することが好ましい。カーブ開始点手前からの車両走行支援開始信号の生成により、好適な車両走行支援、例えば確実な自動操舵、違和感のない操舵アシスト、適時のアクセルペダル反力の付与等を実行することができる。   Moreover, when the said curve determination part determines the said curve or a curve start point, it is preferable to further generate | occur | produce a vehicle travel assistance start signal from before the said curve or the said curve start point. By generating a vehicle travel support start signal from before the curve start point, it is possible to execute suitable vehicle travel support, for example, reliable automatic steering, steering assistance without a sense of incongruity, timely application of accelerator pedal reaction force, and the like.

この発明によれば、カーブ進入前に車両前方のカーブ(カーブ開始点を含む。)を安定的に検出することができるという効果が達成される。   According to the present invention, the effect of being able to stably detect the curve ahead of the vehicle (including the curve start point) before entering the curve is achieved.

この発明の一実施形態に係るカーブ検出装置を備えるレーンマーク認識装置が搭載された車両の概略的構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a vehicle on which a lane mark recognition device including a curve detection device according to an embodiment of the present invention is mounted. ファジー推論部と脱ファジー化部とからなるカーブ決定部の構成の概要を説明する模式図である。It is a schematic diagram explaining the outline | summary of a structure of the curve determination part which consists of a fuzzy inference part and a defuzzification part. 一実施形態に係るカーブ検出装置の動作説明に供されるフローチャートである。It is a flowchart with which operation | movement description of the curve detection apparatus which concerns on one Embodiment is provided. 図4Aは、2フレーム前の過去の平面視エッジ画像の説明図、図4Bは、1フレーム前の過去フレームの平面視エッジ画像の説明図、図4Cは、現在フレームの平面視エッジ画像の説明図である。FIG. 4A is an explanatory diagram of a planar edge image in the past two frames before, FIG. 4B is an explanatory diagram of a planar edge image in the past frame one frame before, and FIG. 4C is an explanatory diagram of a planar edge image in the current frame. FIG. 平面視エッジ画像からカーブ開始点候補を検出する処理例の説明図である。It is explanatory drawing of the example of a process which detects a curve start point candidate from a planar view edge image. 平面視エッジ画像の例を示す説明図である。It is explanatory drawing which shows the example of a planar view edge image. 図7Aは第1ルールによるメンバーシップ関数の説明図、図7Bは第2ルールによるメンバーシップ関数の説明図である。FIG. 7A is an explanatory diagram of the membership function according to the first rule, and FIG. 7B is an explanatory diagram of the membership function according to the second rule. 図8Aは第3ルールによるメンバーシップ関数の説明図、図8Bは第4ルールによるメンバーシップ関数の説明図である。FIG. 8A is an explanatory diagram of the membership function according to the third rule, and FIG. 8B is an explanatory diagram of the membership function according to the fourth rule. 変形例に係るルールの説明図である。It is explanatory drawing of the rule which concerns on a modification.

以下、この発明に係るカーブ検出装置について好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。   Hereinafter, preferred embodiments of a curve detection device according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、実施形態に係るカーブ検出装置10を備えるレーンマーク認識装置11が搭載された車両12の概略的構成を示している。   FIG. 1 shows a schematic configuration of a vehicle 12 on which a lane mark recognition device 11 including a curve detection device 10 according to the embodiment is mounted.

レーンマーク認識装置11は、走行路上に設けられた車線境界線(以下、レーンマークという。)に沿って走行する車両12の運転者によるステアリングの操舵操作やブレーキペダル等による制動操作等を支援するために車両12に搭載された運転支援装置14の機能の一部として構成されている。   The lane mark recognizing device 11 supports a steering operation by a driver of a vehicle 12 traveling along a lane boundary line (hereinafter referred to as a lane mark) provided on a traveling road, a braking operation by a brake pedal, and the like. Therefore, it is configured as a part of the function of the driving support device 14 mounted on the vehicle 12.

なお、この実施形態では、カーブ検出装置10を備えるレーンマーク認識装置11を運転支援装置14に適用した例を示しているが、自動運転装置に適用してもよい。   In this embodiment, an example in which the lane mark recognition device 11 including the curve detection device 10 is applied to the driving support device 14 is shown, but the embodiment may be applied to an automatic driving device.

レーンマークは、車線境界(車線区画)を示すマークであり、レーンマークには、間隔を持って設けられた破線の白線(線分)からなる連続線(みなし連続線ともいう。)、実線の白線等の連続線の他、ボッツドットやキャッツアイ等からなる連続マーク(みなし連続線と考えることもできる。)も含まれる。   The lane mark is a mark indicating a lane boundary (lane division), and the lane mark is a continuous line (also referred to as a deemed continuous line) composed of broken white lines (segments) provided at intervals. In addition to continuous lines such as white lines, continuous marks made up of bots dots, cat's eyes, etc. (also considered as continuous lines) are also included.

この実施形態に係るカーブ検出装置10を備えるレーンマーク認識装置11は、基本的には、車両12の前方を撮像するカメラ16(撮像装置)と、カメラ16により撮像された画像からレーンマークを認識し、レーンマークからカーブ(カーブ開始点を含む)を検出する電子制御ユニット20(Electronic Control Unit:以下、ECU20という。)とから構成される。   A lane mark recognition device 11 including the curve detection device 10 according to this embodiment basically recognizes a lane mark from a camera 16 (imaging device) that images the front of the vehicle 12 and an image captured by the camera 16. And an electronic control unit 20 (Electronic Control Unit: hereinafter referred to as ECU 20) that detects a curve (including a curve start point) from the lane mark.

カメラ16は、車両12内のフロントウインドシールド上部に搭載され、車両12の前方を、前記フロントウインドシールドを通して撮像し、車両前方の走行路を含む画像を撮像する。カメラ16は、例えば、デジタルビデオカメラであり、1秒間に、例えば数枚乃至数十枚の画像(一例としては、15フレームの画像)を撮像し画像信号(映像信号)Siを出力する。この場合、カメラ16には、その取付部を原点とし、車両12の車幅方向(水平方向)をX軸、車軸方向(進行方向、前方方向)をY軸、車高方向(垂直方向、鉛直方向)をZ軸とする実空間座標系が定義されている。   The camera 16 is mounted on the upper part of the front windshield in the vehicle 12 and images the front of the vehicle 12 through the front windshield, and images an image including a traveling path ahead of the vehicle. The camera 16 is, for example, a digital video camera and captures, for example, several to several tens of images (for example, an image of 15 frames) per second and outputs an image signal (video signal) Si. In this case, the camera 16 has its mounting portion as the origin, the vehicle width direction (horizontal direction) of the vehicle 12 is the X axis, the axle direction (traveling direction, forward direction) is the Y axis, and the vehicle height direction (vertical direction, vertical direction). A real space coordinate system with the (direction) as the Z axis is defined.

レーンマーク認識装置11は、上記したカメラ16及びECU20の他に、速度センサ22を備える。速度センサ22は、車両12の速度信号である車速v[m/s]を出力する。   The lane mark recognition device 11 includes a speed sensor 22 in addition to the camera 16 and the ECU 20 described above. The speed sensor 22 outputs a vehicle speed v [m / s] that is a speed signal of the vehicle 12.

ECU20は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、メモリであるROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置、計時部としてのタイマ等を有しており、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部(機能実現手段)として機能する。   The ECU 20 is a computer including a microcomputer, and includes a CPU (Central Processing Unit), a ROM (including EEPROM) as a memory, a RAM (Random Access Memory), an A / D converter, a D / A converter, and the like. Input / output device, a timer as a timer, and the like, and the CPU functions as various function realization units (function realization means) by reading and executing a program recorded in the ROM.

この実施形態において、ECU20は、レーンマーク認識部36、カーブ候補検出部42、及びカーブ決定部44等として機能する。   In this embodiment, the ECU 20 functions as a lane mark recognition unit 36, a curve candidate detection unit 42, a curve determination unit 44, and the like.

また、ECU20は、記憶装置として、画像メモリ30と、レーンマークメモリ34と、カーブ候補メモリ40とを備える。   The ECU 20 also includes an image memory 30, a lane mark memory 34, and a curve candidate memory 40 as storage devices.

運転支援装置14は、上記したカーブ検出装置10及びレーンマーク認識装置11に、舵角センサ26を備えて構成される。   The driving support device 14 includes the steering angle sensor 26 in the curve detection device 10 and the lane mark recognition device 11 described above.

舵角センサ26は、車両12の操向装置(ステアリング)の舵角信号である操舵角[deg]を出力する。   The steering angle sensor 26 outputs a steering angle [deg] that is a steering angle signal of the steering device (steering) of the vehicle 12.

ECU20は、舵角センサ26の出力から車両12の進行方向{車両12の車幅方向をX軸とし、車両12の前方のY軸方向を0[deg](基準)とするXY平面上のX軸方向への傾き、すなわち舵角}を計算する。舵角センサ26をヨーレートセンサ(不図示)に代替してもよい。   The ECU 20 determines the traveling direction of the vehicle 12 from the output of the steering angle sensor 26 {the vehicle width direction of the vehicle 12 is the X axis, and the Y axis direction in front of the vehicle 12 is 0 [deg] (reference) X on the XY plane. The inclination in the axial direction, that is, the steering angle} is calculated. The steering angle sensor 26 may be replaced with a yaw rate sensor (not shown).

運転支援装置14は、レーンマーク認識装置11により認識されたレーンマーク及びカーブ検出装置10により検出されたカーブ(カーブ開始点、曲率半径、カーブ終了点を含む。)に基づき、運転者がステアリング(不図示)を把持している等の所定条件下に、操舵装置50と制動装置52と加速装置54を制御することにより、車両12が、車両12の幅方向の両側のレーンマークに挟まれる走行路、すなわち車線から逸脱しないように、換言すれば車両12が車線の概ね中心を走れるよう、且つカーブ(カーブ開始点)の手前で制動装置52や図示しないアクセルペダル反力付与機構を働かせる等、運転者の走行支援を実行する。   Based on the lane mark recognized by the lane mark recognition device 11 and the curve detected by the curve detection device 10 (including the curve start point, the radius of curvature, and the curve end point), the driving support device 14 performs steering ( The vehicle 12 is sandwiched between lane marks on both sides in the width direction of the vehicle 12 by controlling the steering device 50, the braking device 52, and the acceleration device 54 under predetermined conditions such as gripping (not shown). In order not to deviate from the road, that is, the lane, in other words, the vehicle 12 can run substantially in the center of the lane, and the braking device 52 or an accelerator pedal reaction force applying mechanism (not shown) is operated before the curve (curve start point). Carry out driving assistance for the driver.

図2に概要を示すように、この実施形態の要部に係るカーブ決定部44は、ファジー推論に用いる第1、第2、第3、及び第4ルール(各ルールは、前件部と後件部とを有する。)からなる4つのルールを有するファジー推論部70と、脱ファジー化部(非ファジー化部)72とを備える。   As schematically shown in FIG. 2, the curve determination unit 44 according to the main part of this embodiment includes the first, second, third, and fourth rules used for fuzzy inference (each rule is an antecedent part and a rear part). A fuzzy inference unit 70 having four rules, and a defuzzification unit (non-fuzzification unit) 72.

ここで、ファジー推論部70の第1、第2、第3、及び4ルールについて概要を説明する。   Here, an outline of the first, second, third, and fourth rules of the fuzzy inference unit 70 will be described.

第1ルールは、カメラ16で撮像される現在フレームの画像から算出されるカーブ開始点候補までの車両12からの距離Dnが、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤(誤検出:グレード「0」〜「−1」)とするルールである。   The first rule is that the distance Dn from the vehicle 12 to the curve start point candidate calculated from the image of the current frame imaged by the camera 16 is too far or too close. This is a rule for erroneous (false detection: grade “0” to “−1”).

第2ルールは、カメラ16で撮像される現在フレームの画像から算出されるカーブ開始点候補までの車両12からの距離Dnが、余りにも遠い距離と余りにも近い距離との間の中間の距離である場合、正(正検出:グレード「0」〜「1」)とするルールである。   The second rule is that the distance Dn from the vehicle 12 to the curve start point candidate calculated from the image of the current frame imaged by the camera 16 is an intermediate distance between the distance too far and the distance too close. In some cases, the rule is positive (positive detection: grade “0” to “1”).

第3ルールは、カメラ16で撮像される現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTに車速vを乗算して算出される車両12の移動距離Dr(Dr=ΔT×v)との間に大きな隔たりがある場合には、誤(誤検出:グレード「0」〜[−1])とする。   The third rule is that the vehicle speed v is determined by the approach distance Di of the candidate curve start point calculated from the images of the current frame and the past frame captured by the camera 16 and the time ΔT between the current frame and the past frame. When there is a large gap between the travel distance Dr (Dr = ΔT × v) of the vehicle 12 calculated by multiplication, it is determined as an error (false detection: grade “0” to [−1]).

なお、この実施形態において、過去フレームは、1フレーム前のフレームにしており、現在フレームと過去フレーム間の時間ΔT(以下、1フレーム時間、基準フレーム時間、経過時間あるいは単に時間という。)は、ΔT=0.066[sec]になる。従って、この第3ルールでは、画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、直近の2フレーム間の時間ΔTと車速v(2フレーム間の平均車速、あるいは現在フレームの車速v、又は過去フレームの車速v)とから算出される車両12の移動距離Dr(Dr=ΔT×v)との間に大きな隔たりがある場合には、誤(誤検出:グレード「0」〜「−1」)とする。   In this embodiment, the past frame is a frame one frame before, and the time ΔT between the current frame and the past frame (hereinafter referred to as one frame time, reference frame time, elapsed time, or simply time) is ΔT = 0.066 [sec]. Therefore, in the third rule, the approach distance Di of the curve start point candidate calculated from the image to the vehicle 12, the time ΔT between the two most recent frames and the vehicle speed v (the average vehicle speed between the two frames or the current frame) If there is a large gap between the travel distance Dr (Dr = ΔT × v) of the vehicle 12 calculated from the vehicle speed v of the vehicle or the vehicle speed v of the past frame, the error (false detection: grade “0”). To “−1”).

なお、車速vが36[km/h]であれば、車両12は、1秒[sec]間に10[m]進み、1フレーム間に6.6[m]進むことになるので、カーブ開始点の手前で減速を促すのに適当なタイミングとすることができる。また、6.6[m]は、車両12から近い距離であるのでカメラ16による前方距離の検出精度も高い。車速vに応じて過去フレームまでのフレーム数を変更して時間ΔTを変更するようにしてもよく、基準フレーム時間ΔT(ΔT=0.066[sec])を可変可能とし、時間ΔTを車速vに対して段階的又は連続的に可変するように変更してもよい。   If the vehicle speed v is 36 [km / h], the vehicle 12 advances 10 [m] in 1 second [sec], and advances 6.6 [m] in 1 frame. An appropriate timing can be set to prompt deceleration before the point. Moreover, since 6.6 [m] is a close distance from the vehicle 12, the detection accuracy of the front distance by the camera 16 is also high. The time ΔT may be changed by changing the number of frames up to the past frame according to the vehicle speed v, the reference frame time ΔT (ΔT = 0.066 [sec]) can be made variable, and the time ΔT is set to the vehicle speed v. However, it may be changed so as to vary stepwise or continuously.

第4ルールは、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとが略同一である場合には、正(正検出:グレード「0」〜「1」)とする。   The fourth rule is that the vehicle 12 calculated from the approach distance Di to the vehicle 12 of the curve start point candidate calculated from the images of the current frame and the past frame, the time ΔT between the current frame and the past frame, and the vehicle speed v. When the movement distance Dr is substantially the same, it is positive (positive detection: grade “0” to “1”).

カーブ決定部44は、第1、第2、第3、及び第4ルール中、少なくとも2つのルールを選択した後、脱ファジー化部72にて、重心法により重心を求めて、車両カーブ開始点までの距離Dnが正しいか否かを決定する。   The curve determination unit 44 selects at least two rules among the first, second, third, and fourth rules, and then obtains the center of gravity by the center of gravity method in the defuzzification unit 72, and the vehicle curve start point It is determined whether or not the distance Dn is correct.

次に、基本的には、以上のように構成される車両12の動作について、カーブ決定部44を含むカーブ検出装置10のファジー推論部70の動作を中心として、図3のフローチャートを参照しながらより詳しく説明する。   Next, basically, with respect to the operation of the vehicle 12 configured as described above, the operation of the fuzzy inference unit 70 of the curve detection device 10 including the curve determination unit 44 is mainly described with reference to the flowchart of FIG. This will be described in more detail.

ステップS1にて、ECU20は、所定時間である基準フレーム時間ΔT(ΔT=0.066[sec])毎に、つまり、カメラ16による車両前方の画像の撮像毎に、撮像された画像(多値画像であるグレースケール画像)を画像メモリ30に取り込む(記憶する。)。   In step S <b> 1, the ECU 20 captures an image (multi-valued image) every reference frame time ΔT (ΔT = 0.066 [sec]) that is a predetermined time, that is, every time an image of the vehicle front is captured by the camera 16. A gray scale image, which is an image, is captured (stored) in the image memory 30.

次いで、ステップS2にて、レーンマーク認識部36によるレーンマーク認識処理を伴う画像処理が実行される。この場合、エッジ抽出部32は、カメラ16にて撮像された画像から所定輝度以上(路面上の明度が所定明度以上)の画像を取り込んで2値化処理を行った上で、画像全体を1ラインずつ水平方向に走査しながら微分処理を行って画像全体のエッジ(エッジ画像)を抽出する。   Next, in step S2, image processing involving lane mark recognition processing by the lane mark recognition unit 36 is executed. In this case, the edge extraction unit 32 takes in an image having a predetermined luminance or higher (brightness on the road surface is higher than the predetermined lightness) from the image captured by the camera 16 and performs binarization processing, and then adds the entire image to 1 Differentiating is performed while scanning line by line in the horizontal direction to extract edges (edge images) of the entire image.

また、このステップS2で、レーンマーク認識部36は、エッジ抽出部32で抽出された画像全体のエッジから、レーンマークとしての特徴を持つ画像を抽出し、レーンマークとして、レーンマークメモリ34に取り込む(記憶する。)。さらに、後述するように、カーブの開始点(変曲点)の特徴を持つと判定したレーンマークは、カーブ開始点候補として、カーブ候補メモリ40に取り込む(記憶する。)。レーンマークメモリ34及びカーブ候補メモリ40は、現在フレームで抽出されたレーンマークの他、所定数の過去フレームで抽出されたレーンマークを記憶する。   In step S2, the lane mark recognizing unit 36 extracts an image having characteristics as a lane mark from the entire edge extracted by the edge extracting unit 32, and takes it into the lane mark memory 34 as a lane mark. (Remember.). Further, as will be described later, the lane mark determined to have the characteristics of the start point (inflection point) of the curve is captured (stored) in the curve candidate memory 40 as a curve start point candidate. The lane mark memory 34 and the curve candidate memory 40 store lane marks extracted in a predetermined number of past frames in addition to lane marks extracted in the current frame.

なお、レーンマークメモリ34及びカーブ候補メモリ40にレーンマークとしての特徴を持つ画像を取り込む(記憶する)際には、鉛直上方から見たような平面視エッジ(平面視エッジ画像)に画像変換して取り込み、取り込んだ後は、平面視エッジ画像により処理を行うようにしている。   When an image having a feature as a lane mark is captured (stored) in the lane mark memory 34 and the curve candidate memory 40, the image is converted into a planar view edge (plan view edge image) as seen from above. Then, after the capture, the processing is performed using the planar view edge image.

図4A、図4B、及び図4Cは、それぞれレーンマークメモリ34に取り込んだ平面視エッジ画像59、60、61を示している。図4A、図4B、及び図4Cにおいて、それぞれ縦方向に並列的に延びる2本の太い破線は、車両12が走行する車線の左右に存するレーンマークを示しており、図4Bは、1フレーム前の過去の時点t0の過去フレームの平面視エッジ画像60、図4Cは、現在の時点t1の現在フレームの平面視エッジ画像61、図4Aは、2フレーム前の過去の時点(−t1)の平面視エッジ画像59をそれぞれ示している。   4A, FIG. 4B, and FIG. 4C show planar view edge images 59, 60, and 61 captured in the lane mark memory 34, respectively. In FIG. 4A, FIG. 4B, and FIG. 4C, the two thick broken lines that extend in parallel in the vertical direction indicate lane marks that exist on the left and right sides of the lane in which the vehicle 12 travels, and FIG. 4C is a plane edge image 61 of the current frame at the current time point t1, and FIG. 4A is a plane at the past time point (−t1) two frames before. Visual edge images 59 are shown respectively.

図4A、図4B、及び図4C中、横軸の細い実線は、縦軸(距離軸)上でのカメラ16の取付位置、すなわち車両12の位置(前方距離=ゼロ値)を表している。   4A, 4B, and 4C, the thin solid line on the horizontal axis represents the mounting position of the camera 16 on the vertical axis (distance axis), that is, the position of the vehicle 12 (front distance = zero value).

現在フレームよりも2フレーム前の過去の時点(−t1)の平面視エッジ画像59には、カーブ開始点Ccが撮像されていなく、過去フレームの平面視エッジ画像60には、カーブ開始点Ccが撮像され、現在フレームの平面視エッジ画像61では、カーブ開始点Ccがカメラ16の取付位置、すなわちカメラ16を搭載した車両12に接近している状態が撮像されていることが分かる。   The curve start point Cc is not captured in the planar view edge image 59 at the past time point (−t1) two frames before the current frame, and the curve start point Cc is included in the plan view edge image 60 of the past frame. In the plan view edge image 61 of the current frame, it can be seen that the curve start point Cc is captured where the camera 16 is attached, that is, the vehicle 12 on which the camera 16 is mounted.

次に、ステップS3にて、平面視エッジ画像59、60、61のそれぞれが、レーンマークメモリ34に取り込まれる都度、カーブ候補検出部42により平面視エッジ画像59、60、61中にカーブ開始点Ccの候補(カーブ開始点Cc候補)が存在するか否か、換言すれば、カーブ開始点Cc候補の有無が判定される。   Next, every time each of the planar view edge images 59, 60, 61 is taken into the lane mark memory 34 in step S 3, the curve start point is included in the planar view edge images 59, 60, 61 by the curve candidate detection unit 42. It is determined whether there is a Cc candidate (curve start point Cc candidate), in other words, whether there is a curve start point Cc candidate.

カーブ開始点Ccの候補(カーブ開始点Cc候補)が存在するか否か(カーブ開始点Cc候補の有無)の判定は、カーブ候補(カーブ開始点候補)検出部42により、平面視エッジ画像59、60、61中、車線(左右のレーンマークの間の間隔・距離)の左側又は右側のいずれかの予め特定されたレーンマークに基づき判定する。この実施形態では、図4A、図4B、及び図4Cに、2点鎖線で囲んだ右側のレーンマークLMを特定して、カーブ開始点Cc候補を検出している。なお、車線の左右両側のレーンマークを利用してカーブ開始点Cc候補を検出してもよい。   It is determined by the curve candidate (curve start point candidate) detection unit 42 whether or not a candidate for the curve start point Cc (curve start point Cc candidate) exists (the presence or absence of the curve start point Cc candidate). , 60, 61, based on a predetermined lane mark on either the left side or the right side of the lane (the distance / distance between the left and right lane marks). In this embodiment, a lane mark LM on the right side surrounded by a two-dot chain line is specified in FIGS. 4A, 4B, and 4C, and a curve start point Cc candidate is detected. Note that the curve start point Cc candidate may be detected using lane marks on both the left and right sides of the lane.

図5は、カーブ候補検出部42により平面視エッジ画像Ieからカーブ開始点Cc候補を検出する処理例の説明図である。   FIG. 5 is an explanatory diagram of a processing example in which the curve candidate detection unit 42 detects a curve start point Cc candidate from the planar view edge image Ie.

カーブ開始点Cc候補の検出処理では、車両12の手前側で検出されているレーンマークLm1を奥側に延長した延長線Lpと、奥側で検出されているレーンマークLm2、Lm3、Lm4(必要であれば、前後のレーンマークの端点同士を接続した線も含める。)と、の横方向(車幅方向)の差(距離Ds)が0値から大きくなる位置を検出したら、その位置がカーブ開始点Cc候補であると検出(認識)する(ステップS3:YES)。カーブ開始点Cc候補が検出されたレーンマークLMが撮像されている平面視エッジ画像Ieを、カーブ候補メモリ40に取り込む(記憶する。)。   In the detection process of the curve start point Cc candidate, an extension line Lp obtained by extending the lane mark Lm1 detected on the front side of the vehicle 12 to the back side, and lane marks Lm2, Lm3, and Lm4 detected on the back side (necessary) If it detects a position where the difference (distance Ds) in the lateral direction (vehicle width direction) from the zero value increases, the line that connects the end points of the front and rear lane marks is also included. It is detected (recognized) as a starting point Cc candidate (step S3: YES). The planar view edge image Ie in which the lane mark LM where the curve start point Cc candidate is detected is captured (stored) in the curve candidate memory 40.

図6は、カーブ候補メモリ40に取り込まれた時点t0(過去フレーム)と、時点t1(現在フレーム)のレーンマークLMの平面視エッジ画像60、61(以下、単に、画像60、61ともいう。)を示している。   FIG. 6 shows planar view edge images 60 and 61 of the lane mark LM at the time point t0 (past frame) and the time point t1 (current frame) taken into the curve candidate memory 40 (hereinafter also simply referred to as images 60 and 61). ).

次いで、ステップS4にて、カーブ決定部44は、先ず、図6中、現在フレームの画像61に基づき車両12からのカーブ開始点Cc候補までの距離Dnを算出すると共に、過去フレームの画像60に基づき車両12からカーブ開始点Cc候補までの距離Dpを算出する。次に、現在フレームと過去フレームの画像61、60の距離Dn、Dpの差から求められるカーブ開始点Cc候補の1フレーム(ΔT=0.066[sec])の間での車両12への接近距離Di(Di=Dp−Dn)を算出する。   Next, in step S4, the curve determination unit 44 first calculates the distance Dn from the vehicle 12 to the curve start point Cc candidate based on the image 61 of the current frame in FIG. Based on this, a distance Dp from the vehicle 12 to the curve start point Cc candidate is calculated. Next, approach to the vehicle 12 during one frame (ΔT = 0.066 [sec]) of the curve start point Cc candidate obtained from the difference between the distances Dn and Dp between the images 61 and 60 of the current frame and the past frame. The distance Di (Di = Dp−Dn) is calculated.

次に、ステップS5にて、カーブ決定部44は、現在フレームと過去フレーム間の時間ΔTと、車速vと、から車両12の移動距離DrをDr=ΔT×v=0.066vとして算出する。   Next, in step S5, the curve determination unit 44 calculates the moving distance Dr of the vehicle 12 as Dr = ΔT × v = 0.066v from the time ΔT between the current frame and the past frame and the vehicle speed v.

次いで、ステップS6にて、カーブ決定部44は、第1、第2、第3、及び第4ルールのファジー推論を実行する。なお、ファジー推論は、第1、第2、第3、及び第4ルール中、少なくとも2つのルールを実行することで、それなりに妥当な結果が得られる。   Next, in step S6, the curve determination unit 44 executes fuzzy inference of the first, second, third, and fourth rules. In the fuzzy inference, a reasonable result can be obtained by executing at least two rules among the first, second, third, and fourth rules.

図7Aは、実験(実走テスト)乃至シミュレーション(機械学習等)を含む経験則により生成した第1ルールのメンバーシップ関数fm1(Dn)を図形で示している。   FIG. 7A graphically shows the membership function fm1 (Dn) of the first rule generated by empirical rules including experiments (actual running tests) or simulations (machine learning, etc.).

横軸は、現在フレームの距離Dn[m](図6参照)が入力とされ、縦軸は、グレードG1(適合度、確率)とされている。実際上、グレードG1は、「誤(誤検出)」を表す0〜−1の値を採る。このため、入力である距離Dnに対して、他のルールとの比較・理解の便宜のために正負を逆にして描いた図7Aに示すメンバーシップ関数fm1(Dn)から返されるグレードG1には、負号を付ける。例えば、負号が付けられたグレードG1=−1は、−1のグレードで正しく検出(実際には、誤検出)された、と解釈する。   The horizontal axis is the current frame distance Dn [m] (see FIG. 6), and the vertical axis is the grade G1 (goodness of fit, probability). In practice, the grade G1 takes a value of 0 to −1 representing “false (false detection)”. For this reason, the grade G1 returned from the membership function fm1 (Dn) shown in FIG. 7A drawn with the positive and negative signs reversed for the convenience of comparison and understanding with other rules with respect to the input distance Dn. , Put a negative sign. For example, a grade G1 = −1 with a negative sign is interpreted as being correctly detected (actually a false detection) with a grade of −1.

図7A中、距離Dn[m]が0〜D1[m]の範囲ではG1=1(余りにも近い距離なので誤検出)、D1〜D2[m]の範囲ではy=−a11x+b11(yは関数、xは変数)の関数でグレードG1は1から0まで減少し、D2〜D3[m]の範囲ではG1=0が維持され、D3〜D5[m]の範囲では、y=a12x−b12の関数でグレードG1は0から1まで増加し、D5[m]を上回る範囲では、G1=1(余りにも遠い距離なので誤検出)に設定されている。距離D5は、例えば数十mに設定する。   In FIG. 7A, when the distance Dn [m] is in the range of 0 to D1 [m], G1 = 1 (false detection because the distance is too close), and in the range of D1 to D2 [m], y = −a11x + b11 (y is a function, x is a variable) and grade G1 decreases from 1 to 0, G1 = 0 is maintained in the range of D2 to D3 [m], and y = a12x−b12 in the range of D3 to D5 [m]. The grade G1 increases from 0 to 1, and in the range exceeding D5 [m], G1 = 1 is set (false detection because it is too far). The distance D5 is set to several tens of meters, for example.

上述したように、メンバーシップ関数fm1(Dn)から脱ファジー化部72に返される(出力される)グレードG1は、0〜D1[m]の範囲では、余りにも近い距離なので誤検出のG1=−1とされ、D1〜D2[m]の範囲では、G1は−1から誤検出なしの0まで増加し、D2〜D3[m]の範囲では、G1=0とされ、D3〜D5[m]の範囲では、G1は、0から−1まで減少し、D5[m]を上回ると、余りにも遠い距離なので誤検出のG1=−1になる。   As described above, the grade G1 returned (output) from the membership function fm1 (Dn) to the defuzzification unit 72 is too close in the range of 0 to D1 [m], so that the misdetected G1 = In the range of D1 to D2 [m], G1 increases from -1 to 0 without false detection, and in the range of D2 to D3 [m], G1 = 0 and D3 to D5 [m ], G1 decreases from 0 to −1, and when it exceeds D5 [m], G1 = −1 because of a false detection because it is too far away.

図7Bは、実験乃至シミュレーションを含む経験則により生成した第2ルールのメンバーシップ関数fm2(Dn)を図形で示している。   FIG. 7B graphically shows the membership function fm2 (Dn) of the second rule generated by an empirical rule including experiment or simulation.

横軸は、第1ルールと同様に、現在フレームの距離Dn[m]が入力とされ、縦軸は、グレードG2(適合度、確率)とされている。グレードG2は、「正(正検出)」を表す0〜1の値を採る。例えば、グレードG2=1は、1のグレードで正しく検出された、と解釈する。   As in the first rule, the horizontal axis is the current frame distance Dn [m], and the vertical axis is the grade G2 (compliance, probability). The grade G2 takes a value of 0 to 1 representing “positive (positive detection)”. For example, the grade G2 = 1 is interpreted as being correctly detected in the first grade.

図7B中、メンバーシップ関数fm2(Dn)から脱ファジー化部72に返される(出力される)グレードG2は、Dn[m]が0〜D1[m]の範囲ではG2=0とされ、D1〜D2[m]の範囲ではy=a21x−b21の関数でG2は0から1まで増加し、D2〜D4[m]の範囲ではG2=1(中間の距離なので正検出)とされ、D4〜D6[m]の範囲ではy=−a22x+b22の関数でG2は1から0まで減少し、D6[m]を上回る範囲では、G2=0に設定されている(0<D1<D2<D3<D4<D5<D6)。   In FIG. 7B, the grade G2 returned (output) from the membership function fm2 (Dn) to the defuzzification unit 72 is set to G2 = 0 when Dn [m] is in the range of 0 to D1 [m]. In the range of D2 [m], G2 increases from 0 to 1 by a function of y = a21x-b21, and in the range of D2 to D4 [m], G2 = 1 (positive detection because of intermediate distance), and D4 to In the range of D6 [m], G2 decreases from 1 to 0 by a function of y = −a22x + b22, and in the range exceeding D6 [m], G2 = 0 is set (0 <D1 <D2 <D3 <D4 <D5 <D6).

次に、図8Aは、第3ルールのメンバーシップ関数fm3(Dr)の図形を示している。   Next, FIG. 8A shows a figure of the membership function fm3 (Dr) of the third rule.

メンバーシップ関数fm3(Dr)の横軸は、現在フレームと過去フレーム間の時間ΔT{この実施形態では、現在フレームと1フレーム前のフレーム(過去フレーム)間の時間とされ、ΔT=0.066[sec]と車速vとから算出される車両12の移動距離Dr(Dr=ΔT×v=0.066v[m])で、メンバーシップ関数fm3(Dr)の関数値がゼロ値(グレードG3=0)とされる。   The horizontal axis of the membership function fm3 (Dr) is the time ΔT between the current frame and the past frame (in this embodiment, the time between the current frame and the previous frame (past frame), ΔT = 0.066). With the movement distance Dr of the vehicle 12 calculated from [sec] and the vehicle speed v (Dr = ΔT × v = 0.066 v [m]), the function value of the membership function fm3 (Dr) is zero (grade G3 = 0).

縦軸は、グレードG3(適合度、確率)とされている。メンバーシップ関数fm3(Dr)の形状が、1フレーム時間ΔTと車速vに依存していることに留意する。   The vertical axis is grade G3 (compliance, probability). Note that the shape of the membership function fm3 (Dr) depends on one frame time ΔT and the vehicle speed v.

上述したように、メンバーシップ関数fm3(Dr)は、移動距離Drが、Dr=0.066vで関数値fm3(0.066v)=0とされる。そして、実験乃至シミュレーションを含む経験則により生成した係数αをα=数倍(例示)として、メンバーシップ関数fm3(Dr)は、より具体的には、移動距離Drの正側に、0.066vからα×v×0.066=0.066αvまでy=a32x−b32の関数でグレードG3が0から1まで増加し、0.066αvを上回るとG3=1に設定される。また、移動距離Drの負側に向かって、0.066vから−α×v×0.066=−0.066αvまでy=−a31x+b31の関数でグレードG3が0から1まで増加し、−0.066αvを下回るとG3=1に設定される。   As described above, the membership function fm3 (Dr) has the movement distance Dr of Dr = 0.066v and the function value fm3 (0.066v) = 0. The coefficient α generated by an empirical rule including experiment or simulation is α = several times (exemplary), and more specifically, the membership function fm3 (Dr) is 0.066v on the positive side of the moving distance Dr. From grade .alpha..times.v.times.0.066 = 0.066.alpha.v, the grade G3 increases from 0 to 1 with the function y = a32x-b32, and when it exceeds 0.066.alpha.v, G3 = 1 is set. Further, toward the negative side of the moving distance Dr, the grade G3 increases from 0 to 1 with a function of y = −a31x + b31 from 0.066v to −α × v × 0.066 = −0.066αv, and −0. If it falls below 066αv, G3 = 1 is set.

このメンバーシップ関数fm3(Dr)に対する横軸の入力は、カメラ16で撮像される現在フレームの画像61(図6参照)と1フレーム前(0.066[sec])の過去フレームの画像60(図6参照)から算出されるカーブ開始点Cc候補の車両12への接近距離Di(Di=Dp−Dn)(図6参照)とされる。   The horizontal axis input to the membership function fm3 (Dr) is the current frame image 61 (see FIG. 6) captured by the camera 16 and the past frame image 60 (0.066 [sec]) one frame ahead (0.066 [sec]). The approach distance Di (Di = Dp−Dn) (see FIG. 6) of the curve start point Cc candidate calculated from FIG.

実際上、メンバーシップ関数fm3(Dr)のグレードG3は、距離差が大きい誤(誤検出)を表す0〜−1の値を採るので、移動距離Drに対して、他のルールとの比較・理解の便宜のために正負を逆にして描いた図8Aに示すメンバーシップ関数fm3(Dr)に、接近距離Diを入力として返されるグレードG3には、負号を付ける。例えば、負号が付けられたグレードG3=−1は、−1のグレードで正しく検出(実際には、誤検出)された、と解釈する。   In practice, the grade G3 of the membership function fm3 (Dr) takes a value of 0 to −1 representing a false (false detection) with a large distance difference, so that the moving distance Dr is compared with other rules. For the convenience of understanding, a negative sign is attached to the grade G3 that is returned with the approach distance Di as an input to the membership function fm3 (Dr) shown in FIG. For example, a grade G3 = −1 with a negative sign is interpreted as being correctly detected (actually a false detection) with a grade of −1.

この場合、メンバーシップ関数fm3(Dr)から脱ファジー化部72に返される(出力される)グレードG3は、画像61、60から算出された入力である接近距離Di[m]が、メンバーシップ関数fm3(Dr)の、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vと同値(Di=Dr)である場合には、G3=0(誤検知された確率が一番低いと考える。)とされる。   In this case, the grade G3 returned (output) from the membership function fm3 (Dr) to the defuzzification unit 72 has an approach distance Di [m] calculated from the images 61 and 60 as the membership function. When fm3 (Dr) has the same value (Di = Dr) as the travel distance Dr = 0.066v calculated from one frame time ΔT and the vehicle speed v, G3 = 0 (the probability of erroneous detection being the lowest) ).

画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vよりも長いα倍のDr=0.066αvになるまで、距離差が大きくなるので、グレードG3は、0から−1まで減少し、Dr=0.066αvを上回ると、グレードG3は、G3=−1(−1のグレードで正しく検出されたと解釈する。実際には、誤検出)になる。   The distance until the approach distance Di [m] calculated from the images 61 and 60 becomes Dr = 0.066αv which is α times longer than the moving distance Dr = 0.066v calculated from the one frame time ΔT and the vehicle speed v. As the difference becomes larger, grade G3 decreases from 0 to −1, and if Dr = 0.066αv is exceeded, grade G3 is interpreted as G3 = −1 (-1 grade was detected correctly. Is false detection).

画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vよりも短いDr=−0.066αvになるまで、距離差が大きくなるので、グレードG3は、0から−1まで減少し、Dr=−0.066αvを下回ると、グレードG3は、G3=−1(−1のグレードで正しく検出されたと解釈する。実際には、誤検出)になる。   The distance difference is until the approach distance Di [m] calculated from the images 61 and 60 becomes Dr = −0.066αv, which is shorter than the moving distance Dr = 0.066v calculated from one frame time ΔT and the vehicle speed v. As grade G3 decreases from 0 to −1 and falls below Dr = −0.066αv, it is interpreted that grade G3 was correctly detected with a grade of G3 = −1 (−1. , False detection).

図8Bは、第4ルールのメンバーシップ関数fm4(Dr)を示している。   FIG. 8B shows the membership function fm4 (Dr) of the fourth rule.

メンバーシップ関数fm4(Dr)の横軸は、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離DrがDr=ΔT×v=0.066v[m]で、メンバーシップ関数fm4(Dr)の関数値が1値(グレードG4=1)とされる。   The horizontal axis of the membership function fm4 (Dr) indicates that the moving distance Dr of the vehicle 12 calculated from the time ΔT and the vehicle speed v between the current frame and the past frame is Dr = ΔT × v = 0.066v [m]. The function value of the membership function fm4 (Dr) is 1 (grade G4 = 1).

縦軸は、グレードG4(適合度、確率)とされている。この場合にも、メンバーシップ関数fm4(Dr)の形状が、1フレーム時間ΔTと車速vに依存していることに留意する。   The vertical axis is grade G4 (compliance, probability). Also in this case, it should be noted that the shape of the membership function fm4 (Dr) depends on the one frame time ΔT and the vehicle speed v.

より具体的に、メンバーシップ関数fm4(Dr)は、係数βを例えば(0<β<1)として、Dr=(1−β)0.066vとDr=(1+β)0.066vとの間で関数値fm4((1−β)0.066v)=1とされ、実験乃至シミュレーションを含む経験則により生成した係数αをα=数倍として、移動距離Drの正側にα×v×0.066=0.066αvまで、y=−a42x+b42の関数でグレードG4が1から0まで減少し、0.066αvを上回るとG4=0に設定される。また、移動距離Drの負側に向かって−α×v×0.066=−0.066αvまで、y=a41x+b41の関数でグレードG4が1から0まで減少し、−0.066αvを下回るとG4=0に設定される。   More specifically, the membership function fm4 (Dr) has a coefficient β of (0 <β <1), for example, between Dr = (1−β) 0.066v and Dr = (1 + β) 0.066v. The function value fm4 ((1-β) 0.066v) = 1 is set, and the coefficient α generated by an empirical rule including experiment or simulation is set to α = several times, and α × v × 0. The grade G4 decreases from 1 to 0 by a function of y = −a42x + b42 until 066 = 0.066αv, and when it exceeds 0.066αv, G4 = 0 is set. Further, toward the negative side of the moving distance Dr, the grade G4 decreases from 1 to 0 with a function of y = a41x + b41 until −α × v × 0.066 = −0.066αv, and when it falls below −0.066αv, G4 = 0 is set.

このメンバーシップ関数fm4(Dr)に対する横軸の入力は、第3ルールと同様に、カメラ16で撮像される現在フレームの画像61(図6参照)と1フレーム(0.066[sec])前の過去フレームの画像60(図6参照)から算出されるカーブ開始点Cc候補の車両12への接近距離Di(Di=Dp−Dn)(図6参照)とされる。   Similar to the third rule, the horizontal axis for this membership function fm4 (Dr) is the current frame image 61 (see FIG. 6) captured by the camera 16 and one frame (0.066 [sec]) before. The approach distance Di (Di = Dp−Dn) (see FIG. 6) of the candidate curve start point Cc calculated from the past frame image 60 (see FIG. 6).

メンバーシップ関数fm4(Dr)のグレードG4は、距離差が小さい正(正検出)を表す0〜1の値を採るので、グレードG4=1は、1のグレードで正しく検出(正検出)されたとする。   Since the grade G4 of the membership function fm4 (Dr) takes a value of 0 to 1 indicating a positive (positive detection) with a small distance difference, it is assumed that the grade G4 = 1 is correctly detected (positive detection) in the first grade. To do.

すなわち、メンバーシップ関数fm4(Dr)から脱ファジー化部72に返される(出力される)グレードG4は、画像61、60から算出された入力である接近距離Di[m]が、メンバーシップ関数fm4(Dr)の、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vに対し、Di=(1−β)0.066vからDi=(1+β)0.066vの間にある場合には、G4=1、すなわち、正検知された確率が一番高い、つまり正しく検知されたとする。   That is, the grade G4 returned (output) from the membership function fm4 (Dr) to the defuzzification unit 72 has an approach distance Di [m] calculated from the images 61 and 60 as the membership function fm4. When (Dr) is between Di = (1-β) 0.066v and Di = (1 + β) 0.066v with respect to the travel distance Dr = 0.066v calculated from one frame time ΔT and the vehicle speed v. , It is assumed that G4 = 1, that is, the probability that the positive detection is the highest, that is, the detection is correct.

画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=(1+β)0.066vよりも長いα倍のDr=0.066αvになるまで、距離差が小さくなくなるので、グレードG4は、1から0まで減少し、Dr=0.066αvを上回る範囲では、グレードG4は、G4=0(距離差が小さいとは言えない。)になる。   The approach distance Di [m] calculated from the images 61 and 60 becomes Dr = 0.066αv which is α times longer than the moving distance Dr = (1 + β) 0.066v calculated from one frame time ΔT and the vehicle speed v. Thus, the grade G4 decreases from 1 to 0 and the grade G4 becomes G4 = 0 (it cannot be said that the distance difference is small) in the range exceeding Dr = 0.068αv. .

画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=(1−β)0.066vよりも短い移動距離Dr=−0.066αvになるまで、距離差が小さくなくなるので、グレードG4は、1から0まで減少し、移動距離DrがDr=−0.066αvを下回ると、グレードG4は、G4=0(距離差が小さいとは言えない。)になる。   The approach distance Di [m] calculated from the images 61 and 60 is shorter than the travel distance Dr = (1-β) 0.066v calculated from the one frame time ΔT and the vehicle speed v = 0.068αv. Since the distance difference becomes smaller until grade G4 decreases from 1 to 0, and the travel distance Dr falls below Dr = −0.066αv, grade G4 becomes G4 = 0 (the distance difference is small) I can't say that.)

このようにしてファジー推論が実行されると、次いで、ステップS7にて、カーブ決定部44は、脱ファジー化部72にて脱ファジー化処理、ここではカーブ開始点の決定処理を行う。   When the fuzzy inference is thus performed, in step S7, the curve determination unit 44 performs a defuzzification process, here, a curve start point determination process in the defuzzification unit 72.

この脱ファジー化処理では、第1、第2、第3、及び第4ルールで求められた各グレードG1〜G4の合成値の平均(合成出力重心)Gmeanと閾値Thとを比較し、平均Gmeanが閾値Th以上(Gmean≧Th)であれば、現在フレームの画像61からカーブ開始点Cc候補までの車両12からの距離Dnは、正しい値であると同定し、カーブ開始点Cc候補をカーブ開始点Ccであると同定する。   In this defuzzification process, the average (synthetic output center of gravity) Gmean of the grades G1 to G4 obtained by the first, second, third, and fourth rules is compared with the threshold Th, and the average Gmean is compared. Is equal to or greater than the threshold Th (Gmean ≧ Th), the distance Dn from the vehicle 12 from the current frame image 61 to the curve start point Cc candidate is identified as a correct value, and the curve start point Cc candidate is set to the curve start. It is identified as point Cc.

なお、ステップS6のファジー推論は、ステップS7にて、平均Gmeanを求めるために、少なくとも2つのルールを用いればよく、用いたルール毎に適合する閾値Thを予め設定しておく。   Note that the fuzzy inference in step S6 may use at least two rules in order to obtain the average Gmean in step S7, and a threshold Th that matches each rule used is set in advance.

また、平均Gmeanと閾値Thとを比較して、平均Gmeanが閾値Th以上(Gmean≧Th)であれば、現在フレームの画像61からカーブ開始点Cc候補までの車両12からの距離Dnは、正しい値であると同定し、カーブ開始点Cc候補をカーブ開始点C1であると同定する際に、レーンマークを表す画像信号Siの振幅(エッジの強度)が、晴天時やレーンマークが擦れていなくて境界が際だって見える等くっきりしている場合には、道路面画像とレーンマーク画像(車線境界線の画像)との輝度差(反射輝度差)が大きくなるので、距離Dnや接近距離Diをより確実に算出できることを考慮して、閾値Thを低下させるようにしてもよい。このように閾値Thを増減することにより、カーブ開始点Cc候補からカーブ開始点Ccを道路環境によらず、一定の確からしさで決定することができる。   If the average Gmean is compared with the threshold Th and the average Gmean is equal to or greater than the threshold Th (Gmean ≧ Th), the distance Dn from the vehicle 12 from the current frame image 61 to the curve start point Cc candidate is correct. When identifying the curve start point Cc candidate as the curve start point C1, the amplitude (edge strength) of the image signal Si representing the lane mark is not rubbed in fine weather or when the lane mark is not rubbed. If the boundary is clearly visible, the brightness difference (reflection brightness difference) between the road surface image and the lane mark image (lane boundary line image) increases, so the distance Dn and the approach distance Di are The threshold Th may be decreased in consideration of the fact that it can be calculated more reliably. Thus, by increasing / decreasing the threshold Th, the curve start point Cc can be determined from the curve start point Cc candidates with a certain certainty regardless of the road environment.

ステップS8にて、カーブ開始点C1を決定した(ステップS8:YES)とき、ステップS9にて、カーブ決定部44は、車両走行支援開始信号とカーブ開始点C1までの距離Dnを運転支援装置14に出力する。   When the curve start point C1 is determined in step S8 (step S8: YES), in step S9, the curve determination unit 44 determines the distance Dn between the vehicle travel support start signal and the curve start point C1 as the driving support device 14. Output to.

これにより、運転支援装置14は、レーンマークメモリ34に格納されているレーンマークに沿って、車両12がレーンマーク間の車線から逸脱しないように、換言すれば、車両12がカーブ車線の中心を走れるように操舵装置50、制動装置52及び加速装置54等を制御して運転者の走行支援を実行する。また、車両12がカーブ開始点C1の手前で十分に減速してないと判断したときには、制動装置52を作動させアシストする。あるいは制動装置52を作動させることを促すために、アクセルペダル(不図示)に反力を付与する。   Accordingly, the driving support device 14 prevents the vehicle 12 from departing from the lane between the lane marks along the lane mark stored in the lane mark memory 34, in other words, the vehicle 12 moves to the center of the curve lane. The steering device 50, the braking device 52, the acceleration device 54, and the like are controlled so that the vehicle can run, and the driver's driving assistance is executed. When it is determined that the vehicle 12 has not sufficiently decelerated before the curve start point C1, the braking device 52 is operated to assist. Alternatively, a reaction force is applied to an accelerator pedal (not shown) in order to urge the braking device 52 to operate.

[実施形態のまとめ及び変形例]
(1)概要説明
以上説明したように、上述した実施形態に係るカーブ検出装置10は、車載のカメラ16の画像信号Siを画像処理して、カーブ開始点Ccの検出を行う。その際にカーブ開始点Ccを正しくできたか否かの判定を以下の、ファジー推論を使用する第1及び第2手法を用いている。
[Summary of Embodiment and Modifications]
(1) Outline Description As described above, the curve detection device 10 according to the above-described embodiment performs image processing on the image signal Si of the vehicle-mounted camera 16 and detects the curve start point Cc. At this time, the following first and second methods using fuzzy inference are used to determine whether or not the curve start point Cc has been correctly made.

先ず、時点t1での現在フレームの画像61から、車両12からカーブ開始点Ccの位置(図6の破線で示す補間線が交差する位置)を求めた後、画像61上で、車両12(カメラ16の取付位置)からカーブ開始点Ccまでの距離Dnを算出する。この場合、算出した距離Dnが余りにも遠方の場合、撮像画像の分解能(遠くは低く、近くは高い)との関係で正しく検出された可能性が低いと考える(第1ルール)。また、算出した距離Dnが余りにも近い場合、ノイズ等により正しく検出された可能性が低いと考える(第1ルール)。さらに、算出した距離Dnが中間の距離である場合、正しく検出された可能性が高いと考える(第2ルール)。以上、第1手法という。   First, from the image 61 of the current frame at the time point t1, the position of the curve start point Cc (position where the interpolation line indicated by the broken line in FIG. 6 intersects) is obtained from the vehicle 12, and then the vehicle 12 (camera The distance Dn from the 16 attachment positions) to the curve start point Cc is calculated. In this case, if the calculated distance Dn is too far, it is considered that there is a low possibility that the detected image is correctly detected in relation to the resolution of the captured image (low in the distance and high in the vicinity) (first rule). Further, when the calculated distance Dn is too close, it is considered that there is a low possibility of being correctly detected due to noise or the like (first rule). Further, when the calculated distance Dn is an intermediate distance, it is considered that there is a high possibility that the calculated distance Dn is correctly detected (second rule). This is referred to as the first method.

次に、画像60上で算出される過去フレーム(時点t0)のカーブ開始点Ccの距離Dpから、画像61上で算出される現在フレーム(時点t1)のカーブ開始点Ccの距離Dnまでの接近距離Di(Di=Dp−Dn)を求め、この接近距離Diと、車速vと両フレーム間の時間(1フレーム時間)ΔTとから求まる車両12の移動距離Dr(Dr=v×ΔT)とを比較し、距離差|Di−Dr|が大きい場合には正しく検出された可能性が低いと考え(第3ルール)、距離差|Di−Dr|が小さい場合には正しく検出された可能性が高いと考える(第4ルール)。以上、第2手法という。   Next, the approach from the distance Dp of the curve start point Cc of the past frame (time t0) calculated on the image 60 to the distance Dn of the curve start point Cc of the current frame (time t1) calculated on the image 61 is performed. The distance Di (Di = Dp−Dn) is obtained, and the approach distance Di and the moving distance Dr (Dr = v × ΔT) of the vehicle 12 obtained from the vehicle speed v and the time (one frame time) ΔT between both frames are obtained. In comparison, when the distance difference | Di−Dr | is large, it is considered that the possibility of being correctly detected is low (third rule), and when the distance difference | Di−Dr | I think it is expensive (4th rule). This is referred to as the second method.

上記の第1及び第2手法に関して、ファジー推論を用いて、カーブ開始点Ccを安定的に検出する。   With respect to the first and second methods, the curve start point Cc is stably detected using fuzzy inference.

(2)詳細説明
上述した実施形態に係るカーブ検出装置10は、車両12に搭載されたカメラ16によって撮像されたレーンマークを含む画像に基づいて車両前方のカーブ開始点Ccを検出する。
(2) Detailed Description The curve detection device 10 according to the above-described embodiment detects a curve start point Cc in front of the vehicle based on an image including a lane mark imaged by the camera 16 mounted on the vehicle 12.

このカーブ検出装置10は、カーブ候補検出部42が、前記レーンマークを含む画像に対して画像処理を行った画像59、60、61から車両12前方のカーブ開始点Ccの可能性があるカーブ開始点Cc候補を検出し、カーブ決定部44が、カーブ候補検出部42にて検出された前記カーブ開始点Cc候補が、正しいカーブ開始点Ccであるか否かを、ファジー推論を用いて決定している。   In the curve detection device 10, the curve candidate detection unit 42 starts a curve that may be a curve start point Cc ahead of the vehicle 12 from the images 59, 60, 61 obtained by performing image processing on the image including the lane mark. The point Cc candidate is detected, and the curve determination unit 44 determines whether the curve start point Cc candidate detected by the curve candidate detection unit 42 is the correct curve start point Cc by using fuzzy inference. ing.

このように、レーンマークを含む画像に対して画像処理を行うことによって検出された車両12の前方のカーブ開始点Cc候補が、正しいカーブ開始点Ccであるか否かを、ファジー推論を用いて決定するようにしたので、カーブ開始点Ccを安定的に検出することができる。   Thus, whether or not the curve start point Cc candidate ahead of the vehicle 12 detected by performing image processing on the image including the lane mark is the correct curve start point Cc is determined using fuzzy inference. Since it is determined, the curve start point Cc can be stably detected.

この場合、前記ファジー推論は、カメラ16によって撮像された異なるフレーム(時点t1の現在フレームと、例えば、その1フレーム前の時点t0の過去フレーム)の画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、前記異なるフレーム(現在フレームと過去フレーム)間の時間ΔTと車速vから算出される車両12の移動距離Drとが略等しい場合、という前件部を有するルール(第3ルール及び/又は第4ルール)を含むことで、この新規なメンバーシップ関数{fm3(Dr)及び/又はfm4(Dr)}を含むことで、カーブ開始点Ccを安定的に検出する、それなりに妥当な結果が得られる。   In this case, the fuzzy inference is based on the curve start point Cc calculated from the images 61 and 60 of different frames (current frame at time t1 and, for example, past frame at time t0 one frame before) captured by the camera 16. The antecedent part has a case where the approach distance Di to the candidate vehicle 12 is approximately equal to the time ΔT between the different frames (current frame and past frame) and the moving distance Dr of the vehicle 12 calculated from the vehicle speed v. By including the rule (the third rule and / or the fourth rule), it is possible to stably detect the curve start point Cc by including this new membership function {fm3 (Dr) and / or fm4 (Dr)}. A reasonable result can be obtained.

カーブ決定部44は、ファジー推論に用いる第1、第2、第3、及び第4の4つのルールの内、少なくとも2つのルールを選択してカーブ開始点Cc候補の正誤を決定するようにすることで、カーブ開始点Ccである確からしさを高くすることができる。   The curve determination unit 44 selects at least two of the first, second, third, and fourth rules used for fuzzy inference to determine the correctness of the curve start point Cc candidate. Thus, it is possible to increase the probability of being the curve start point Cc.

前記4つのルールは、第1ルールが、現在フレームの画像61から算出されるカーブ開始点Cc候補までの車両12からの距離Dnが、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする、メンバーシップ関数fm1(Dn)等で表されるルールにしている。   In the four rules, when the distance Dn from the vehicle 12 to the curve start point Cc candidate calculated from the image 61 of the current frame is too far or too close, the first rule is the distance that is too close. In this case, the rule is expressed as a membership function fm1 (Dn) or the like.

第2ルールは、現在フレームの画像61から算出されるカーブ開始点Cc候補までの車両12からの距離Dnが、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする、メンバーシップ関数fm2(Dn)等で表されるルールにしている。   The second rule is that the distance Dn from the vehicle 12 to the curve start point Cc candidate calculated from the image 61 of the current frame is an intermediate distance between the distance too far and the distance too close. The rule is expressed as a membership function fm2 (Dn) or the like.

第3ルールは、現在フレームと過去フレームの画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとの間に大きな隔たりがある場合には、誤とする、メンバーシップ関数fm3(Dr)等で表されるルールにしている。   The third rule is calculated from the approach distance Di of the curve start point Cc candidate calculated from the images 61 and 60 of the current frame and the past frame to the vehicle 12, the time ΔT between the current frame and the past frame, and the vehicle speed v. If there is a large gap between the vehicle 12 and the moving distance Dr of the vehicle 12, the rule expressed by the membership function fm3 (Dr) is assumed to be erroneous.

第4ルールは、現在フレームと過去フレームの画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとが略同一である場合には、正とする、メンバーシップ関数fm4(Dr)等で表されるルールにしている。   The fourth rule is calculated from the approach distance Di of the curve start point Cc candidate calculated from the images 61 and 60 of the current frame and the past frame to the vehicle 12, the time ΔT between the current frame and the past frame, and the vehicle speed v. If the moving distance Dr of the vehicle 12 is substantially the same, the rule is expressed as a positive membership function fm4 (Dr) or the like.

なお、カーブ決定部44は、選択した前記2つのルールの各メンバーシップ関数{fm1(Dn)、fm2(Dn)、fm3(Dr)、fm4(Dr)のうちの2つ}の合成出力重心Gmeanと閾値Thとを比較してカーブ開始点Ccを決定する際に、閾値Thを、撮像された画像の前記レーンマークを表す画像信号Siの大小に応じて増減するようにしてもよい。前記レーンマークを表す画像信号Siの振幅の大小が、前記レーンマークの擦れ、天候等の道路周囲環境により変化するので、画像信号Siの大小に応じて閾値Thを増減すれば、道路周囲環境によらず、カーブ開始点Cc候補からカーブ開始点Ccを一定の確からしさで決定することができる。   Note that the curve determination unit 44 determines the combined output centroid Gmean of each membership function {two of fm1 (Dn), fm2 (Dn), fm3 (Dr), fm4 (Dr)} of the selected two rules. When the curve start point Cc is determined by comparing the threshold Th with the threshold Th, the threshold Th may be increased or decreased according to the size of the image signal Si representing the lane mark of the captured image. Since the magnitude of the amplitude of the image signal Si representing the lane mark changes depending on the surrounding environment of the road, such as rubbing of the lane mark, weather, etc., if the threshold value Th is increased or decreased according to the magnitude of the image signal Si, Regardless, the curve start point Cc can be determined with certain certainty from the curve start point Cc candidates.

そして、カーブ決定部44は、カーブ開始点Ccを決定した場合、カーブ開始点Ccの手前から車両走行支援開始信号をさらに生成することで、好適な車両12の走行支援、例えば確実な自動操舵、違和感のない操舵アシスト、適時のアクセルペダル反力の付与等を実行することができる。   When the curve determination unit 44 determines the curve start point Cc, the curve determination unit 44 further generates a vehicle travel support start signal from the front of the curve start point Cc, so that a suitable vehicle 12 travel support, for example, reliable automatic steering, It is possible to execute steering assist without a sense of incongruity, timely application of accelerator pedal reaction force, and the like.

(3)変形例
図9に示すように、ファジー推論の新たなルールとして、地図情報から得られるカーブ104の曲率半径Rと、画像上のカーブ104の曲線と、カーブ104のカーブ開始点Ccの手前の直線路100の延長線102との間の水平方向の乖離距離106、108、110が正しく対応していれば、カーブ104が正しく検知されたとするルールを導入してもよい。新たなルールを導入することによりカーブ開始点Cc及びカーブ検出のロバスト性をさらに向上させることができる。
(3) Modification As shown in FIG. 9, as a new rule for fuzzy inference, the curvature radius R of the curve 104 obtained from the map information, the curve 104 of the curve 104 on the image, and the curve start point Cc of the curve 104 A rule that the curve 104 is correctly detected may be introduced if the horizontal divergence distances 106, 108, and 110 with respect to the extension line 102 of the straight path 100 on the near side correspond correctly. By introducing a new rule, the curve start point Cc and the robustness of curve detection can be further improved.

また、この発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。   Further, the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the contents described in this specification.

10…カーブ検出装置 11…レーンマーク認識装置
12…車両 14…運転支援装置
16…カメラ 20…ECU
22…速度センサ 26…舵角センサ
36…レーンマーク認識部 40…カーブ候補メモリ
42…カーブ候補検出部 44…カーブ決定部
50…操舵装置 52…制動装置
54…加速装置
59…2フレーム前の過去の平面視エッジ画像
60…1フレーム前の過去フレームの平面視エッジ画像
61…現在フレームの平面視エッジ画像 70…ファジー推論部
72…脱ファジー化部
DESCRIPTION OF SYMBOLS 10 ... Curve detection apparatus 11 ... Lane mark recognition apparatus 12 ... Vehicle 14 ... Driving assistance apparatus 16 ... Camera 20 ... ECU
DESCRIPTION OF SYMBOLS 22 ... Speed sensor 26 ... Steering angle sensor 36 ... Lane mark recognition part 40 ... Curve candidate memory 42 ... Curve candidate detection part 44 ... Curve determination part 50 ... Steering device 52 ... Braking device 54 ... Acceleration device 59 ... Past two frames ago Plane view edge image 60 ... Plane view edge image 61 of the previous frame one frame before ... Plane view edge image 70 of the current frame 70 ... Fuzzy inference unit 72 ... Dephasing unit

Claims (5)

車両に搭載された撮像装置によって撮像された車線境界線を含む画像に基づいて車両前方のカーブを検出するカーブ検出装置において、
前記車線境界線を含む画像に対して画像処理を行うことによって前記車両前方のカーブの可能性があるカーブ候補を検出するカーブ候補検出部と、
前記カーブ候補検出部にて検出された前記カーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するカーブ決定部と、
を備えることを特徴とするカーブ検出装置。
In a curve detection device for detecting a curve ahead of a vehicle based on an image including a lane boundary line imaged by an imaging device mounted on the vehicle,
A curve candidate detection unit for detecting a curve candidate that may be a curve ahead of the vehicle by performing image processing on an image including the lane boundary;
A curve determination unit that determines whether or not the curve candidate detected by the curve candidate detection unit is a curve, using fuzzy inference;
A curve detection device comprising:
請求項1に記載のカーブ検出装置において、
前記ファジー推論は、前記撮像装置によって撮像された異なるフレームの画像から算出される前記カーブ候補の前記車両への接近距離と、前記異なるフレーム間の時間と車速から算出される前記車両の移動距離とが略等しい場合、という前件部を有するルールを含む
ことを特徴とするカーブ検出装置。
The curve detection device according to claim 1,
The fuzzy inference includes an approach distance to the vehicle of the curve candidate calculated from images of different frames imaged by the imaging device, a moving distance of the vehicle calculated from a time between the different frames and a vehicle speed. A curve detection device comprising a rule having an antecedent part when the two are substantially equal.
請求項1に記載のカーブ検出装置において、
前記カーブ決定部は、
前記ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択して前記カーブ中、カーブ開始点候補の正誤を決定するものであり、
前記4つのルールは、
現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする第1ルール、
現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする第2ルール、
現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離との間に大きな隔たりがある場合には、誤とする第3ルール、
及び、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離とが略同一である場合には、正とする第4ルール
からなることを特徴とするカーブ検出装置。
The curve detection device according to claim 1,
The curve determination unit
Among the four rules used for the fuzzy inference, at least two rules are selected to determine whether the curve start point candidate is correct or incorrect in the curve.
The four rules are:
A first rule that is false if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is too far or too close;
A second rule that is positive if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is an intermediate distance between the distance too far and the distance too close ,
There is a large difference between the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle, and the moving distance of the vehicle calculated from the time and the vehicle speed between the current frame and the past frame. If there is a gap, the third rule is false,
Further, the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle, and the moving distance of the vehicle calculated from the time between the current frame and the past frame and the vehicle speed are approximately. A curve detecting device comprising a fourth rule that is positive if they are the same.
請求項3に記載のカーブ検出装置において、
前記カーブ決定部は、
選択した前記2つのルールの各メンバーシップ関数の合成出力重心と閾値とを比較してカーブを決定する際に、前記閾値を、撮像された前記画像の前記車線境界線を表す画像信号の大小に応じて増減する
ことを特徴とするカーブ検出装置。
In the curve detection device according to claim 3,
The curve determination unit
When the curve is determined by comparing the composite output centroid of each membership function of the two selected rules and the threshold value, the threshold value is set to the magnitude of the image signal representing the lane boundary line of the captured image. A curve detection device characterized by increasing or decreasing in response.
請求項1〜4のいずれか1項に記載のカーブ検出装置において、
前記カーブ決定部は、
前記カーブ又はカーブ開始点を決定した場合、前記カーブ又は前記カーブ開始点の手前から車両走行支援開始信号をさらに生成する
ことを特徴とするカーブ検出装置。
In the curve detection apparatus according to any one of claims 1 to 4,
The curve determination unit
When the curve or the curve start point is determined, a vehicle travel support start signal is further generated from before the curve or the curve start point.
JP2014140806A 2014-07-08 2014-07-08 Curve detection device Pending JP2016016751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014140806A JP2016016751A (en) 2014-07-08 2014-07-08 Curve detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014140806A JP2016016751A (en) 2014-07-08 2014-07-08 Curve detection device

Publications (1)

Publication Number Publication Date
JP2016016751A true JP2016016751A (en) 2016-02-01

Family

ID=55232317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014140806A Pending JP2016016751A (en) 2014-07-08 2014-07-08 Curve detection device

Country Status (1)

Country Link
JP (1) JP2016016751A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151110A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Road surface information acquisition method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019151110A1 (en) * 2018-01-31 2019-08-08 パイオニア株式会社 Road surface information acquisition method
JPWO2019151110A1 (en) * 2018-01-31 2021-01-28 パイオニア株式会社 Road surface information acquisition method
JP2022068242A (en) * 2018-01-31 2022-05-09 パイオニア株式会社 Road surface information acquisition method

Similar Documents

Publication Publication Date Title
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
US9245188B2 (en) Lane detection system and method
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
KR101517181B1 (en) System and method for warning lane departure
JP3925488B2 (en) Image processing apparatus for vehicle
JP5716443B2 (en) Lane boundary detection device and lane boundary detection method
JP6512920B2 (en) Lane detection device and method thereof, lane display device and method thereof
WO2013136878A1 (en) Object detection device
US9352746B2 (en) Lane relative position estimation method and system for driver assistance systems
JP2018180663A (en) Road parameter estimation device
JPWO2020090251A1 (en) Object recognition device, object recognition method and object recognition program
JP2009237776A (en) Vehicle drive supporting apparatus
JP5884635B2 (en) Driving environment detection device, driving environment detection program, and light control device
JP2007220013A (en) Device for detecting white line for vehicle
JP6189816B2 (en) Traveling line recognition device
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
JP2009143546A (en) Vehicular travel speed controller and control method
JP6408935B2 (en) Traveling line recognition device
JP5538098B2 (en) Vehicle white line recognition device
JP2016016751A (en) Curve detection device
JP5125214B2 (en) Obstacle detection method and obstacle detection device
CN106355152A (en) Method and system for identifying current road vehicles as well as car video recorder
JP6299171B2 (en) Driving assistance device
EP3944141A1 (en) Lane keeping assist system of vehicle and lane keeping method using the same
JP4847303B2 (en) Obstacle detection method, obstacle detection program, and obstacle detection apparatus