JP5747787B2 - Lane recognition device - Google Patents

Lane recognition device Download PDF

Info

Publication number
JP5747787B2
JP5747787B2 JP2011242274A JP2011242274A JP5747787B2 JP 5747787 B2 JP5747787 B2 JP 5747787B2 JP 2011242274 A JP2011242274 A JP 2011242274A JP 2011242274 A JP2011242274 A JP 2011242274A JP 5747787 B2 JP5747787 B2 JP 5747787B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
recognition
information
white line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011242274A
Other languages
Japanese (ja)
Other versions
JP2013097714A (en
Inventor
正裕 岩崎
正裕 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011242274A priority Critical patent/JP5747787B2/en
Publication of JP2013097714A publication Critical patent/JP2013097714A/en
Application granted granted Critical
Publication of JP5747787B2 publication Critical patent/JP5747787B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、道路上の車線を認識する車線認識装置に関する。   The present invention relates to a lane recognition device that recognizes a lane on a road.

車線維持制御(レーンキープ)や車線逸脱警報等の運転支援を行う場合、車線(左右一対の白線等)を認識することが重要となる。特許文献1に記載の車線認識画像処理装置では、撮像手段で画像を撮像し、その撮像した画像を記憶し、記憶した画像に対してレーンマーキング探索範囲を設定し、その探索範囲からレーンマーキング候補点を抽出し、そのレーンマーキング候補点の座標を収差補正した座標に変換し、変換したレーンマーキング候補点の集合を数学的モデル式で近似してレーンマーキング数学モデル式を導出し、レーンマーキング数学モデル式から得られる車線認識結果を出力する。   When performing driving support such as lane keeping control (lane keeping) or lane departure warning, it is important to recognize a lane (a pair of left and right white lines). In the lane recognition image processing apparatus described in Patent Literature 1, an image is captured by an imaging unit, the captured image is stored, a lane marking search range is set for the stored image, and a lane marking candidate is determined from the search range. The points are extracted, the coordinates of the lane marking candidate points are converted to the aberration corrected coordinates, the lane marking mathematical model formula is derived by approximating the converted set of lane marking candidate points with a mathematical model formula, and the lane marking mathematical model formula is derived. Outputs the lane recognition result obtained from the model formula.

特開2006−99541号公報JP 2006-99541 A

上記のような車線認識では、探索範囲にある程度の幅を持たせており、その幅に余裕のある探索範囲から車線を認識する。これは、走行場所によっては道路の幅が異なるので、最小幅から最大幅までをカバーして車線を確実に認識するためである。このように幅に余裕がある探索範囲で車線を認識する場合、走行シーンによって車線を誤認識する可能性がある。例えば、路側に存在する壁等に白線が引かれており、車線の壁側の白線がかすれて認識困難になっている場合、中央分離帯等に存在するポール上部に反射テープがあり、車線のポール側の白線がかすれて認識困難な場合がある。このような壁に引かれた白線や反射テープ等が車線に平行して存在し、それが探索範囲内に入っていると、走行中の車線の実際の白線の位置と異なっている場合でも、それを白線と誤認識する可能性がある。このように車線を誤認識した場合、壁に引かれた白線や反射テープ等が車線に平行して存在し続けている間は、誤認識かどうかを判断できない。このように片方の白線を誤認識した場合、実際よりも車線幅が広く算出され、車線の中心位置もそれに応じて誤認識側の位置として算出される。その結果、例えば、その誤認識した車線の情報を車線維持制御や車線逸脱警報等の運転支援に利用した場合、運転支援の精度が低下する。   In the lane recognition as described above, a certain range is given to the search range, and the lane is recognized from the search range with a sufficient margin. This is because the road width varies depending on the travel location, so that the lane can be reliably recognized by covering the minimum width to the maximum width. When the lane is recognized in such a search range having a margin, the lane may be erroneously recognized depending on the traveling scene. For example, when a white line is drawn on the wall on the roadside and the white line on the wall side of the lane is faint and difficult to recognize, there is a reflective tape on the top of the pole that exists in the median strip, etc. The white line on the pole side may be faint and difficult to recognize. If such a white line drawn on the wall or reflective tape exists in parallel to the lane, and it is within the search range, even if it is different from the actual white line position of the running lane, There is a possibility of misrecognizing it as a white line. When the lane is erroneously recognized in this way, it cannot be determined whether or not the lane is erroneously recognized while a white line drawn on the wall, a reflective tape, or the like continues to exist in parallel with the lane. When one of the white lines is erroneously recognized as described above, the lane width is calculated wider than the actual one, and the center position of the lane is also calculated as a position on the erroneous recognition side accordingly. As a result, for example, when the misrecognized lane information is used for driving support such as lane keeping control or lane departure warning, the accuracy of driving support decreases.

そこで、本発明は、車線認識の誤検出を防止する車線認識装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a lane recognition device that prevents erroneous detection of lane recognition.

本発明に係る車線認識装置は、道路上の車線を認識する車線認識装置であって、自車両が走行中の車線を認識し、車線の情報を取得する車線認識手段と、自車両が走行中の車線の構造情報を取得する構造情報取得手段と、車線認識手段で認識した車線の情報と構造情報取得手段で取得した車線の構造情報とを比較し、車線認識手段による認識が誤認識か否かを判定する判定手段とを備えることを特徴とする。   A lane recognition device according to the present invention is a lane recognition device that recognizes a lane on a road, recognizes a lane in which the host vehicle is traveling, and acquires lane information, and the host vehicle is traveling. Compare the lane information recognized by the lane recognition means with the lane recognition information obtained by the lane recognition means and the lane recognition information obtained by the lane recognition means. Determining means for determining whether or not.

この車線認識装置では、車線認識手段によって、自車両が走行している車線を認識し、車線の情報を取得する。車線は、左右一対の区画線(白線、黄線等)からなる。車線の情報は、例えば、車線の幅、曲率(カーブ半径)がある。この車線の情報には、運転支援装置等で利用する情報も含まれ、例えば、車線維持制御の場合には目標横位置、車線逸脱警報の場合には左側と右側の区画線の各位置がある。車線認識装置では、構造情報取得手段によって、自車両が走行している車線の構造情報を取得する。車線の構造情報は、車線固有の情報であり、例えば、車線の幅、曲率(カーブ半径)がある。そして、車線認識装置では、判定手段によって、認識した車線の情報と車線の構造情報(車線の情報としては真値)とを比較し、認識した車線の情報が間違っているか否か(車線認識手段による認識が誤認識か否か)を判定する。このように、車線認識装置では、認識した車線の情報と真値である車線の構造情報とを比較することにより、車線認識が誤認識か否かを高精度に判定でき、車線の誤認識を防止できる。その結果、車線の情報を利用して各種運転支援を行う場合、誤認識した車線の情報を用いて運転支援を行うことを防止できる。   In this lane recognition device, the lane recognition means recognizes the lane in which the host vehicle is traveling, and acquires lane information. A lane consists of a pair of left and right lane markings (white line, yellow line, etc.). The lane information includes, for example, the lane width and curvature (curve radius). This lane information includes information used by the driving support device, for example, the target lateral position in the case of lane keeping control, and the left and right lane marking positions in the case of lane departure warning. . In the lane recognition device, the structure information acquisition means acquires the structure information of the lane in which the host vehicle is traveling. The lane structure information is lane-specific information, and includes, for example, the lane width and curvature (curve radius). In the lane recognition device, the determination means compares the recognized lane information with the lane structure information (true value as lane information), and determines whether the recognized lane information is incorrect (lane recognition means). Whether or not the recognition by is a misrecognition). In this way, the lane recognition device can determine whether or not the lane recognition is misrecognized with high accuracy by comparing the recognized lane information with the true lane structure information. Can be prevented. As a result, when various types of driving assistance are performed using lane information, it is possible to prevent driving assistance using misrecognized lane information.

本発明の上記車線認識装置では、自車両に対する先行車両又は/及び後続車両を認識し、先行車両又は/及び後続車両の自車両に対する横位置を取得する他車両認識手段と、判定手段で車線認識手段による認識が誤認識と判定した場合、他車両認識手段で認識した先行車両又は/及び後続車両の横位置に基づいて車線の右側の区画線と左側の区画線のうちのいずれの側の区画線を誤認識したかを判別し、該判別結果に応じて車線認識手段で認識した車線の情報を修正する修正手段とを備える構成としてよい。   In the lane recognition device according to the present invention, the preceding vehicle or / and the following vehicle with respect to the own vehicle is recognized, the other vehicle recognition means for acquiring the lateral position of the preceding vehicle or / and the following vehicle with respect to the own vehicle, and the lane recognition by the determination means. If it is determined that the recognition by the means is a misrecognition, the lane on either side of the lane line on the right side and the lane line on the left side of the lane based on the lateral position of the preceding vehicle and / or the following vehicle recognized by the other vehicle recognition unit It is good also as a structure provided with the correction means which discriminate | determines whether the line was recognized incorrectly and corrects the information of the lane recognized by the lane recognition means according to this discrimination | determination result.

この車線認識装置では、他車両認識手段によって、自車両の先行車両や後続車両を認識し、先行車両や後続車両の自車両に対する横位置を取得する。車両は、通常、運転者による操作あるいは運転支援による車両制御によって車線の中心付近(少なくとも車線内)を走行している。そこで、車線認識装置では、判定手段で誤認識と判定している場合、修正手段によって、認識した先行車両や後続車両の自車両に対する横位置(少なくとも一方の横位置又は両方の横位置)に基づいて車線の左右一対の区画線のうちのいずれの側の区画線を誤認識したかを判別し、その判別結果に基づいて認識した車線の情報を修正する。このように、車線認識装置では、先行車両や後続車両と自車両との相対的な横位置関係を利用することにより、誤認識している側の区画線を高精度に判別できるとともに車線の情報を高精度に修正することができる。この修正した車線の情報を利用して各種運転支援を行う場合、高精度な運転支援を行うことができ、車両のユーザに対する信頼性も向上する。   In this lane recognition device, the other vehicle recognition means recognizes the preceding vehicle and the following vehicle of the own vehicle, and acquires the lateral position of the preceding vehicle and the following vehicle with respect to the own vehicle. The vehicle normally travels near the center of the lane (at least in the lane) by a driver's operation or vehicle control by driving assistance. Therefore, in the lane recognition device, when the determination unit determines that the recognition error is incorrect, the correction unit determines whether the preceding vehicle or the following vehicle recognized by the correction unit is based on the lateral position (at least one lateral position or both lateral positions). Then, it is determined which side of the pair of left and right lane lines of the lane is erroneously recognized, and the recognized lane information is corrected based on the determination result. Thus, in the lane recognition device, by using the relative lateral positional relationship between the preceding vehicle and the succeeding vehicle and the host vehicle, it is possible to determine the lane marking on the side that has been erroneously recognized with high accuracy and the lane information. Can be corrected with high accuracy. When various types of driving assistance are performed using the corrected lane information, high-precision driving assistance can be performed, and the reliability of the vehicle user is improved.

本発明の上記車線認識装置では、自車両が走行している車線の位置を取得する車線位置取得手段と、判定手段で車線認識手段による認識が誤認識と判定した場合、車線位置取得手段で取得した車線の位置が最も左側の車線のときには車線の左側の区画線を誤認識したと判別し、車線位置取得手段で取得した車線の位置が最も右側の車線のときには車線の右側の区画線を誤認識したと判別し、該判別結果に応じて車線認識手段で認識した車線の情報を修正する修正手段とを備える構成としてもよい。   In the lane recognition device according to the present invention, when the lane position acquisition means for acquiring the position of the lane in which the host vehicle is traveling and the determination means determines that the recognition by the lane recognition means is erroneous recognition, the lane position acquisition means acquires If the left lane is the leftmost lane, it is determined that the left lane is misrecognized. If the lane obtained by the lane position acquisition means is the right lane, the right lane It is good also as a structure provided with the correction means which discriminate | determines that it recognized and corrects the information of the lane recognized by the lane recognition means according to this discrimination | determination result.

この車線認識装置では、車線位置取得手段によって、自車両が走行している車線の位置を取得する。ここでは、走行路に複数の車線が存在する場合、自車両が走行中の車線が右側の車線か左側の車線かあるいはそれ以外の車線かの位置情報を取得する。車線を誤認識するのは、車線の外側の道路脇に白線に似た特徴を持つものが存在する場合であり、自車両が最も左側の車線かあるいは最も右側の車線を走行中に誤認識する確率が高い。そこで、車線認識装置では、判定手段で誤認識と判定している場合、修正手段によって、自車両が走行中の車線の位置が最も左側の車線のときには車線の左側の区画線を誤認識したと判別し、自車両が走行中の車線の位置が最も右側の車線のときには車線の右側の区画線を誤認識したと判別し、その判別結果に応じて認識した車線の情報を修正する。このように、車線認識装置では、自車両が走行中の車線の位置を利用することにより、誤認識している側の区画線を高精度に判別できるとともに車線の情報を高精度に修正することができる。   In this lane recognition device, the lane position acquisition means acquires the position of the lane in which the host vehicle is traveling. Here, when there are a plurality of lanes on the road, position information is acquired as to whether the lane in which the host vehicle is traveling is the right lane, the left lane, or any other lane. A lane is misrecognized when there is something similar to a white line on the roadside outside the lane, and the vehicle misrecognizes the left lane or the right lane while driving Probability is high. Therefore, in the lane recognition device, if the determination means determines that the vehicle is misrecognized, the correction means erroneously recognizes the left lane line of the lane when the position of the lane in which the host vehicle is traveling is the leftmost lane. When the position of the lane in which the host vehicle is traveling is the rightmost lane, it is determined that the right lane line is erroneously recognized, and the recognized lane information is corrected according to the determination result. Thus, in the lane recognition device, by using the position of the lane in which the host vehicle is traveling, the lane marking on the side that is erroneously recognized can be determined with high accuracy and the lane information can be corrected with high accuracy. Can do.

本発明によれば、認識した車線の情報と真値である車線の構造情報とを比較することにより、車線認識が誤認識か否かを高精度に判定でき、車線の誤認識を防止できる。   According to the present invention, by comparing the recognized lane information with the true lane structure information, it is possible to determine with high accuracy whether or not the lane recognition is erroneous recognition, and prevent erroneous recognition of the lane.

第1の実施の形態に係る車線維持制御装置の構成図である。It is a lineblock diagram of the lane maintenance control device concerning a 1st embodiment. 第1の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane keeping control apparatus which concerns on 1st Embodiment. 第2の実施の形態に係る車線維持制御装置の構成図である。It is a block diagram of the lane keeping control apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane keeping control apparatus which concerns on 2nd Embodiment. 第3の実施の形態に係る車線維持制御装置の構成図である。It is a block diagram of the lane keeping control apparatus which concerns on 3rd Embodiment. 第3の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in the lane keeping control apparatus which concerns on 3rd Embodiment.

以下、図面を参照して、本発明に係る車線認識装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。   Embodiments of a lane recognition device according to the present invention will be described below with reference to the drawings. In addition, the same code | symbol is attached | subjected about the element which is the same or it corresponds in each figure, and the overlapping description is abbreviate | omitted.

本実施の形態では、本発明を、車両に搭載される車線維持制御装置(レーンキープ装置)に組み込まれる車線認識機能に適用する。本実施の形態に係る車線維持制御装置は、カメラで撮像した画像から車線(左右一対の白線)を認識し、制御目標(自車両と車線中央とのずれ量)に基づいて操舵制御(電動パワーステアリング装置に目標操舵制御量を出力)する。特に、本実施の形態に係る車線維持制御装置は、画像による車線認識が誤認識か否かを判定し、誤認識と判定した場合には左右どちらの側の白線を誤認識しているかを判別し、その判別結果に応じて制御目標を修正する。本実施の形態には、誤認識側の判別方法と制御目標の修正方法が異なる3つの形態があり、第1の実施の形態が先行車両の横位置情報を用いる形態であり、第2の実施の形態が先行車両と後続車両の横位置情報を用いる形態であり、第3の実施の形態が自車両の高精度な位置情報と車線数に基づく車線の位置を用いる形態である。   In the present embodiment, the present invention is applied to a lane recognition function incorporated in a lane keeping control device (lane keeping device) mounted on a vehicle. The lane keeping control device according to the present embodiment recognizes a lane (a pair of left and right white lines) from an image captured by a camera, and performs steering control (electric power) based on a control target (deviation amount between the host vehicle and the lane center). The target steering control amount is output to the steering device). In particular, the lane keeping control device according to the present embodiment determines whether or not the lane recognition by the image is misrecognition, and if it is determined as misrecognition, determines whether the white line on the left or right side is misrecognized. Then, the control target is corrected according to the determination result. In the present embodiment, there are three forms in which the determination method on the misrecognition side and the control target correction method are different. The first embodiment is a form using the lateral position information of the preceding vehicle. Is a form using the lateral position information of the preceding vehicle and the following vehicle, and the third embodiment is a form using the position information of the host vehicle and the position of the lane based on the number of lanes.

図1を参照して、第1の実施の形態に係る車線維持制御装置1について説明する。図1は、第1の実施の形態に係る車線維持制御装置の構成図である。   A lane keeping control device 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram of a lane keeping control device according to the first embodiment.

車線維持制御装置1は、車載カメラの画像から認識した車線の車線幅と地図情報から取得した自車両走行中の車線の車線幅(車線の構造情報)とを比較し、画像による車線認識が誤認識か否かを判定する。画像による車線認識が誤認識の場合、車線維持制御装置1は、自車両前方を撮像するカメラの画像から認識した先行車両の横位置を利用して、誤認識した側の白線を判別し、その判別結果に応じて車線維持のための制御目標(目標横位置)を修正する。車両は、通常、運転者による操作あるいは運転支援による車両制御によって車線の中心付近を走行しているので、先行車両等の横位置を利用することによって誤認識している側の判別や修正ができる。なお、自車両前方を撮像するカメラを用いて白線認識や先行車両認識を行うが、自車両後方を撮像するカメラを用いて白線認識や後続車両認識を行い、後続車両の横位置を用いて判別や修正を行ってもよい。   The lane keeping control device 1 compares the lane width of the lane recognized from the image of the in-vehicle camera and the lane width of the lane during travel of the host vehicle (lane structure information) acquired from the map information, and the lane recognition by the image is incorrect. It is determined whether or not it is recognized. When the lane recognition by the image is misrecognition, the lane keeping control device 1 determines the white line on the erroneously recognized side using the lateral position of the preceding vehicle recognized from the image of the camera that images the front of the host vehicle, The control target (target lateral position) for maintaining the lane is corrected according to the determination result. Since the vehicle normally travels in the vicinity of the center of the lane by the driver's operation or vehicle control by driving assistance, the misrecognized side can be identified and corrected by using the lateral position of the preceding vehicle or the like. . Note that white line recognition and preceding vehicle recognition are performed using a camera that captures the front of the host vehicle, but white line recognition and subsequent vehicle recognition are performed using a camera that captures the rear of the host vehicle, and discrimination is performed using the lateral position of the subsequent vehicle. And may make corrections.

車線維持制御装置1は、GPS[Global Positioning System]受信機10、前方カメラ11、地図データベース20、走路情報出力手段30、白線認識手段31、車両認識手段32、白線誤認識検出手段33、制御目標修正手段34、車両制御手段35を備えている。各手段30,31,32,33,34,35は、マイクロコンピュータ等のコンピュータによって各手段用のアプリケーションプログラムを実行することによって構成される。また、地図データベース20及び各手段30,31,32,33,34,35は、複数個あるいは1個のECU[Electronic Control Unit]に組み込まれる。   The lane keeping control device 1 includes a GPS [Global Positioning System] receiver 10, a front camera 11, a map database 20, a runway information output means 30, a white line recognition means 31, a vehicle recognition means 32, a white line misrecognition detection means 33, a control target. Correction means 34 and vehicle control means 35 are provided. Each means 30, 31, 32, 33, 34, 35 is configured by executing an application program for each means by a computer such as a microcomputer. Moreover, the map database 20 and each means 30, 31, 32, 33, 34, 35 are incorporated in plural or one ECU [Electronic Control Unit].

なお、第1の実施の形態では、前方カメラ11及び白線認識手段31が特許請求の範囲に記載する車線認識手段に相当し、前方カメラ11及び車両認識手段32が特許請求の範囲に記載する他車両認識手段に相当し、GPS受信機10、地図データベース20及び走路情報出力手段30が特許請求の範囲に記載する構造情報取得手段に相当し、白線誤認識検出手段33が特許請求の範囲に記載する判定手段に相当し、制御目標修正手段34が特許請求の範囲に記載する修正手段に相当する。   In the first embodiment, the front camera 11 and the white line recognizing means 31 correspond to the lane recognizing means described in the claims, and the front camera 11 and the vehicle recognizing means 32 are described in the claims. Corresponding to vehicle recognition means, the GPS receiver 10, the map database 20 and the runway information output means 30 correspond to the structure information acquisition means described in the claims, and the white line misrecognition detection means 33 described in the claims. The control target correction means 34 corresponds to the correction means described in the claims.

GPS受信機10は、GPSアンテナや処理装置等を備えている。GPS受信機10では、GPSアンテナで各GPS衛星からのGPS信号を受信する。そして、GPS受信機10では、処理装置でその各GPS信号を復調し、その復調した各GPS情報に基づいて自車両の現在位置(緯度、経度)等を算出する。そして、GPS受信機10では、自車両の現在位置の情報を走路情報出力手段30に出力する。なお、GPS受信機10は、低コストの汎用のものでよく、現在位置の検出精度についても低精度(例えば、数10m程度)なものでよい。   The GPS receiver 10 includes a GPS antenna, a processing device, and the like. The GPS receiver 10 receives a GPS signal from each GPS satellite with a GPS antenna. In the GPS receiver 10, each GPS signal is demodulated by the processing device, and the current position (latitude, longitude) of the host vehicle is calculated based on the demodulated GPS information. Then, the GPS receiver 10 outputs information on the current position of the host vehicle to the road information output means 30. The GPS receiver 10 may be a low-cost general-purpose device, and the current position detection accuracy may be low (for example, about several tens of meters).

前方カメラ11は、車両の前方に取り付けられる。前方カメラ11では、車両の前方の道路を含む領域を撮像し、その撮像した画像(カラー画像でも、白黒画像でもよい)を取得する。前方カメラ11では、その撮像画像の情報を白線認識手段31と車両認識手段32に出力する。前方カメラ11は、左右方向に撮像範囲が広く、走行している車線の左右一対の白線を十分に撮像可能である。なお、前方カメラ11は、他のシステムと共用されるカメラでもよい。また、前方カメラは、複数台のカメラからなるステレオカメラでもよい。   The front camera 11 is attached in front of the vehicle. The front camera 11 captures an area including a road ahead of the vehicle, and acquires the captured image (either a color image or a monochrome image). The front camera 11 outputs information of the captured image to the white line recognition unit 31 and the vehicle recognition unit 32. The front camera 11 has a wide imaging range in the left-right direction, and can sufficiently capture a pair of left and right white lines in a running lane. Note that the front camera 11 may be a camera shared with other systems. The front camera may be a stereo camera composed of a plurality of cameras.

地図データベース20は、地図情報を格納するデータベースである。地図情報としては、道路の形状情報、道路の構造情報等がある。道路の構造情報としては、道路幅、車線幅、車線数、道路(車線)の曲率(カーブ半径)がある。道路(車線)の構造情報は、道路(車線)固有の情報であり、道路(車線)の情報の真値である。   The map database 20 is a database that stores map information. Map information includes road shape information, road structure information, and the like. The road structure information includes road width, lane width, number of lanes, and curvature (curve radius) of the road (lane). The structure information of the road (lane) is information unique to the road (lane) and is the true value of the information of the road (lane).

走路情報出力手段30では、GPS受信機10から入力した自車両の現在位置の情報を用いて、地図データベース20から現在位置周辺の地図情報を取得する。そして、走路情報出力手段30では、現在位置周辺の地図情報から自車両走行中の道路の車線幅Wmの情報を取得し、その車線幅Wmの情報を白線誤認識検出手段33に出力する。   The runway information output means 30 acquires map information around the current position from the map database 20 using information on the current position of the host vehicle input from the GPS receiver 10. Then, the lane information output means 30 acquires information on the lane width Wm of the road on which the host vehicle is traveling from the map information around the current position, and outputs the information on the lane width Wm to the white line misrecognition detection means 33.

白線認識手段31では、前方カメラ11から入力した自車両前方の画像から、エッジ処理によって白線の候補点を抽出する。その候補点から自車両に対して左側の白線の形状及び右側の白線の形状を推定する。この際、処理負荷を軽減するために、候補点を抽出する範囲を設定し、その範囲内でのみ処理を行う。そして、白線認識手段31では、自車両の横方向の中央位置から左側の白線までの距離及び右側の白線までの距離をそれぞれ算出し、その左側の白線までの距離と右側の白線までの距離を用いて車線幅Ws、左右一対の白線の中央を通る線(車線中央)、その車線中央と自車両中央とのずれ量(目標横位置)を算出する。また、必要に応じて、白線認識手段31では、車線中央のカーブ半径を算出し、カーブ半径から道路曲率を算出する。そして、白線認識手段31では、認識した左右一対の白線の構造情報(車線幅Ws、車線中央、曲率)や制御目標(目標横位置)を白線誤認識検出手段33及び制御目標修正手段34に出力する。なお、白線を認識する処理としては、上記のエッジ処理以外の他の処理でもよい。   The white line recognition means 31 extracts white line candidate points from the image ahead of the host vehicle input from the front camera 11 by edge processing. From the candidate points, the shape of the white line on the left side and the shape of the white line on the right side are estimated for the host vehicle. At this time, in order to reduce the processing load, a range for extracting candidate points is set, and processing is performed only within the range. The white line recognizing means 31 calculates the distance from the lateral center position of the host vehicle to the left white line and the distance to the right white line, and calculates the distance to the left white line and the distance to the right white line. The lane width Ws, the line passing through the center of the pair of left and right white lines (lane center), and the deviation amount (target lateral position) between the center of the lane and the center of the host vehicle are calculated. Further, if necessary, the white line recognition means 31 calculates a curve radius at the center of the lane and calculates a road curvature from the curve radius. The white line recognizing means 31 outputs the recognized paired white line structure information (lane width Ws, lane center, curvature) and control target (target lateral position) to the white line misrecognition detecting means 33 and the control target correcting means 34. To do. Note that processing for recognizing a white line may be processing other than the edge processing described above.

車両認識手段32では、前方カメラ11から入力した自車両前方の画像から、車両のテンプレートを用いたパターンマッチングによって自車両前方を走行する先行車両を認識する。車両認識手段32では、先行車両を認識できた場合、自車両から先行車両までの相対距離Lc及び自車両中央に対する先行車両中央の相対横位置Xcを算出する。そして、車両認識手段32では、先行車両に関する情報(先行車両の有無、先行車両を存在する場合には相対距離Lc、相対横位置Xc等)を制御目標修正手段34に出力する。なお、車両を認識する処理としては、上記のパターンマッチング処理以外の他の処理でもよい。   The vehicle recognition means 32 recognizes a preceding vehicle traveling ahead of the host vehicle from the image ahead of the host vehicle input from the front camera 11 by pattern matching using a vehicle template. When the preceding vehicle can be recognized, the vehicle recognition means 32 calculates a relative distance Lc from the own vehicle to the preceding vehicle and a relative lateral position Xc of the preceding vehicle center with respect to the own vehicle center. Then, the vehicle recognition unit 32 outputs information related to the preceding vehicle (presence / absence of the preceding vehicle, relative distance Lc, relative lateral position Xc when there is a preceding vehicle, etc.) to the control target correcting unit 34. In addition, as a process which recognizes a vehicle, processes other than said pattern matching process may be sufficient.

白線誤認識検出手段33では、走路情報出力手段30から入力した地図情報の車線幅Wm及び白線認識手段31から入力した認識した車線幅Wsを用いて、車線幅Wsから車線幅Wmを減算し、その減算値の絶対値が閾値αより大きいか否かを判定する。車線幅Wmは、車線固有の値であり、真値である。一方、車線幅Wsは、画像から認識した値であり、正しい値か否かは判らない。したがって、車線幅Wsが真値の車線幅Wmに対して誤差範囲以上に異なっていれば、車線を構成する左右一対の白線を間違って認識しており、画像による車線認識を誤認識と判定できる。閾値αは、車線幅Wmや車線の誤差範囲等を考慮して設定される。減算値の絶対値が閾値αより大きい場合、白線誤認識検出手段33では、白線認識手段31で行った認識を誤認識と判定する。一方、減算値の絶対値が閾値α以下の場合、白線誤認識検出手段33では、白線認識手段31で行った認識を正常な認識と判定する。正常な認識の場合、白線認識手段31で算出した目標横位置を制御目標としてそのまま用いる。   The white line misrecognition detection means 33 subtracts the lane width Wm from the lane width Ws using the lane width Wm of the map information input from the runway information output means 30 and the recognized lane width Ws input from the white line recognition means 31. It is determined whether or not the absolute value of the subtraction value is greater than the threshold value α. The lane width Wm is a value unique to the lane and is a true value. On the other hand, the lane width Ws is a value recognized from the image, and it is not known whether it is a correct value. Therefore, if the lane width Ws is different from the true lane width Wm by an error range or more, the pair of left and right white lines constituting the lane is erroneously recognized, and the lane recognition based on the image can be determined to be erroneous recognition. . The threshold value α is set in consideration of the lane width Wm, the lane error range, and the like. When the absolute value of the subtraction value is larger than the threshold value α, the white line misrecognition detection unit 33 determines that the recognition performed by the white line recognition unit 31 is misrecognition. On the other hand, when the absolute value of the subtraction value is equal to or less than the threshold value α, the white line misrecognition detection unit 33 determines that the recognition performed by the white line recognition unit 31 is normal recognition. In the case of normal recognition, the target lateral position calculated by the white line recognition means 31 is used as it is as a control target.

制御目標修正手段34では、白線誤認識検出手段33で誤認識と判定した場合、車両認識手段32で先行車両の情報を取得できているか否かを判定する。車両認識手段32で先行車両の情報を取得できていない場合(例えば、先行車両が存在しない場合、先行車両は存在するが、先行車両との相対距離Lcや相対横位置Xcを正常に取得できなかった場合)、制御目標修正手段34では、先行車両の情報を用いて誤認識した車線に基づく目標横位置を修正できないので、車線維持制御を中断する。一方、車両認識手段32で先行車両の情報を取得できた場合、制御目標修正手段34では、自車両から先行車両までの相対距離Lcが閾値βより長いか否かを判定する。閾値βは、先行車両が追従対象の車両として信頼できる程度に離れていないことを判定するための閾値であり、予め設定される。この閾値βは、自車両の車速等に応じて可変としてもよい。   In the control target correcting means 34, when the white line misrecognition detecting means 33 determines that the recognition is erroneous, the vehicle recognizing means 32 determines whether or not the preceding vehicle information can be acquired. When the vehicle recognition unit 32 cannot acquire the information on the preceding vehicle (for example, when there is no preceding vehicle, the preceding vehicle exists, but the relative distance Lc and the relative lateral position Xc with the preceding vehicle cannot be acquired normally. ), The control target correction means 34 interrupts the lane keeping control because the target lateral position based on the lane misrecognized using the preceding vehicle information cannot be corrected. On the other hand, when the information on the preceding vehicle can be acquired by the vehicle recognition means 32, the control target correction means 34 determines whether or not the relative distance Lc from the host vehicle to the preceding vehicle is longer than the threshold value β. The threshold value β is a threshold value for determining that the preceding vehicle is not separated as far as the vehicle to be followed reliably. The threshold value β may be variable according to the vehicle speed of the host vehicle.

先行車両までの相対距離Lcが閾値β以下の場合、先行車両を信頼できるので(先行車両に追従して走行してもよい)、制御目標修正手段34では、先行車両の相対横位置Xcを目標横位置として設定する。一方、先行車両までの相対距離Lcが閾値βより長い場合、先行車両を信頼できるほどではないので、制御目標修正手段34では、先行車両の相対横位置Xcが白線認識手段31で認識している車線中央に対して右側かあるいは左側かを判定する。先行車両の相対横位置Xcが車線中央に対して右側と判定した場合、白線認識手段31で認識した左右一対の白線のうち左側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が左側に寄っていると判断できるので、制御目標修正手段34では、白線認識手段31で認識した右側の白線を基準にし、その右白線からWm/2(真値の車線幅の2分の1)分左側の位置を目標横位置として設定する。一方、先行車両の相対横位置Xcが車線中央に対して左側と判定した場合、白線認識手段31で認識した左右一対の白線のうち右側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が右側に寄っていると判断できるので、制御目標修正手段34では、白線認識手段31で認識した左側の白線を基準にし、その左白線からWm/2分右側の位置を目標横位置として設定する。そして、制御目標修正手段34では、設定した目標横位置を制御目標として車両制御手段35に出力する。なお、白線誤認識検出手段33において白線認識手段31で行った認識を正常な認識と判定している場合、白線認識手段31で算出した目標横位置を制御目標としてそのまま出力する。   When the relative distance Lc to the preceding vehicle is equal to or less than the threshold value β, the preceding vehicle can be trusted (the vehicle may travel following the preceding vehicle), so the control target correcting means 34 sets the relative lateral position Xc of the preceding vehicle as the target. Set as horizontal position. On the other hand, when the relative distance Lc to the preceding vehicle is longer than the threshold value β, the preceding vehicle is not so reliable that the control target correcting means 34 recognizes the relative lateral position Xc of the preceding vehicle by the white line recognition means 31. Determine whether the vehicle is on the right or left side of the lane center. When the relative lateral position Xc of the preceding vehicle is determined to be the right side with respect to the center of the lane, the white line on the left side of the pair of left and right white lines recognized by the white line recognition unit 31 is erroneously recognized, and the white line recognition unit 31 accordingly Since it can be determined that the recognized lane center is on the left side, the control target correcting means 34 uses the white line on the right side recognized by the white line recognizing means 31 as a reference and Wm / 2 (the true lane width of the true lane width). The position on the left side of 1/2) is set as the target lateral position. On the other hand, when the relative lateral position Xc of the preceding vehicle is determined to be the left side with respect to the center of the lane, the white line on the right side of the pair of left and right white lines recognized by the white line recognition unit 31 is erroneously recognized, and the white line recognition unit accordingly Since it can be determined that the center of the lane recognized at 31 is on the right side, the control target correction means 34 uses the white line on the left recognized by the white line recognition means 31 as a reference, and sets the position on the right side of the left white line by Wm / 2. Set as the target lateral position. Then, the control target correcting means 34 outputs the set target lateral position to the vehicle control means 35 as a control target. If the white line misrecognition detection means 33 determines that the recognition performed by the white line recognition means 31 is normal recognition, the target lateral position calculated by the white line recognition means 31 is output as it is as a control target.

車両制御手段35では、制御目標修正手段34から入力した目標横位置(制御目標)を用いて、目標横位置が零になるような目標操舵制御量を算出する。そして、車両制御手段35では、その目標操舵制御量を電動パワーステアリング装置に出力する。   The vehicle control unit 35 uses the target lateral position (control target) input from the control target correction unit 34 to calculate a target steering control amount that makes the target lateral position zero. Then, the vehicle control means 35 outputs the target steering control amount to the electric power steering device.

図1を参照し、図2のフローチャートに沿って、車線維持制御装置1の動作について説明する。図2は、第1の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。車線維持制御装置1では、以下に説明する動作を一定時間毎に繰り返し行う。   With reference to FIG. 1, the operation of the lane keeping control device 1 will be described along the flowchart of FIG. 2. FIG. 2 is a flowchart showing a flow of processing in the lane keeping control device according to the first embodiment. In the lane keeping control device 1, the operation described below is repeated at regular intervals.

GPS受信機10では、受信可能なGPS信号を受信し、受信できたGPS信号を用いて自車両の現在位置を算出し、その現在位置情報を走路情報出力手段30に出力している。また、前方カメラ11では、自車両前方を撮像し、その画像情報を白線認識手段31と車両認識手段32に出力している。   The GPS receiver 10 receives a receivable GPS signal, calculates the current position of the host vehicle using the received GPS signal, and outputs the current position information to the runway information output means 30. Further, the front camera 11 images the front of the host vehicle and outputs the image information to the white line recognition unit 31 and the vehicle recognition unit 32.

白線認識手段31では、前方カメラ11の画像から左右一対の白線(車線)を認識し、車線幅Wsや目標横位置等を算出する(S10)。また、走路情報出力手段30では、GPS受信機10による現在位置に基づいて地図データベース20から現在位置周辺の地図情報を取得し、その地図情報から車線幅Wmを取得する(S11)。そして、白線誤認識検出手段33では、車線幅Wsから車線幅Wmを減算し、その減算値の絶対値が閾値αより大きいか否かを判定する(S12)。S12にて減算値の絶対値が閾値α以下と判定した場合、白線認識手段31で算出した目標横位置を制御目標とする。   The white line recognition means 31 recognizes a pair of left and right white lines (lanes) from the image of the front camera 11, and calculates the lane width Ws, the target lateral position, etc. (S10). The runway information output means 30 acquires map information around the current position from the map database 20 based on the current position by the GPS receiver 10, and acquires the lane width Wm from the map information (S11). Then, the white line misrecognition detecting means 33 subtracts the lane width Wm from the lane width Ws, and determines whether or not the absolute value of the subtraction value is larger than the threshold value α (S12). When it is determined in S12 that the absolute value of the subtraction value is equal to or less than the threshold value α, the target lateral position calculated by the white line recognition unit 31 is set as the control target.

S12にて減算値の絶対値が閾値αより大きいと判定した場合、車両認識手段32では、前方カメラ11の画像から先行車両を認識し、先行車両を認識できた場合には先行車両の情報(相対距離Lc、相対横位置Xc)を算出する(S13)。そして、制御目標修正手段34では、先行車両情報を取得できているか否かを判定する(S14)。S14にて先行車両情報を取得できていないと判定した場合、車線維持制御を中断する。   When it is determined in S12 that the absolute value of the subtraction value is larger than the threshold value α, the vehicle recognition means 32 recognizes the preceding vehicle from the image of the front camera 11, and if the preceding vehicle can be recognized, information on the preceding vehicle ( The relative distance Lc and the relative lateral position Xc) are calculated (S13). Then, the control target correcting means 34 determines whether or not the preceding vehicle information has been acquired (S14). If it is determined in S14 that the preceding vehicle information has not been acquired, the lane keeping control is interrupted.

S14にて先行車両情報を取得できていると判定した場合、制御目標修正手段34では、先行車両までの相対距離Lcが閾値βよりも長いか否かを判定する(S15)。S15にて相対距離Lcが閾値βよりも長いと判定した場合、制御目標修正手段34では、先行車両の相対横位置Xcが車線中央に対して右側の場合には左白線を誤認識と判定し、正しい認識の右白線を基準にしてWm/2分左側の位置を目標横位置に設定し、先行車両の相対横位置Xcが車線中央に対して左側の場合には右白線を誤認識と判定し、正しい認識の左白線を基準にしてWm/2分右側の位置を目標横位置に設定する(S16)。一方、S15にて相対距離Lcが閾値β以下と判定した場合、制御目標修正手段34では、先行車両の相対横位置Xcを目標横位置に設定する(S17)。   When it is determined in S14 that the preceding vehicle information has been acquired, the control target correcting unit 34 determines whether or not the relative distance Lc to the preceding vehicle is longer than the threshold value β (S15). When it is determined in S15 that the relative distance Lc is longer than the threshold value β, the control target correcting unit 34 determines that the left white line is erroneously recognized when the relative lateral position Xc of the preceding vehicle is on the right side of the lane center. If the right lateral line of Wm / 2 is set as the target lateral position with respect to the right recognition right line as a reference, and the relative lateral position Xc of the preceding vehicle is on the left side with respect to the center of the lane, the right white line is determined to be misrecognized. The position on the right side of Wm / 2 with respect to the correctly recognized left white line is set as the target lateral position (S16). On the other hand, when it is determined in S15 that the relative distance Lc is equal to or less than the threshold value β, the control target correcting means 34 sets the relative lateral position Xc of the preceding vehicle as the target lateral position (S17).

そして、車両制御手段35では、設定されている目標横位置が零になるような目標操舵制御量を算出し、その目標操舵制御量を電動パワーステアリング装置に出力する(S18)。電動パワーステアリング装置では、その目標操舵制御量に応じた操舵トルクを操舵機構に作用させる。その結果、自車両は、車線中央付近を走行し、車線内を維持する。   Then, the vehicle control means 35 calculates a target steering control amount so that the set target lateral position becomes zero, and outputs the target steering control amount to the electric power steering device (S18). In the electric power steering device, a steering torque corresponding to the target steering control amount is applied to the steering mechanism. As a result, the host vehicle travels near the center of the lane and maintains the lane.

この車線維持制御装置1によれば、画像から認識した車線の車線幅と地図情報から取得した真値の車線幅とを比較することにより、画像による車線認識が誤認識か否かを高精度に判定でき、車線の誤認識を防止できる。その結果、車線の情報を利用して車線維持制御を行う場合、誤認識した車線の情報を用いて車線維持制御を行うことを防止できる。   According to this lane keeping control device 1, by comparing the lane width of the lane recognized from the image with the true lane width acquired from the map information, it is possible to determine whether or not the lane recognition by the image is erroneously recognized. It is possible to determine and prevent erroneous recognition of the lane. As a result, when the lane keeping control is performed using the lane information, the lane keeping control can be prevented from being performed using the erroneously recognized lane information.

さらに、車線維持制御装置1によれば、先行車両の相対横位置を利用することにより、誤認識している側の白線を高精度に判別できるとともに目標横位置を高精度に修正することができる。この修正した目標横位置を利用して車線維持制御を行うので、高精度な車線維持制御を行うことができ、車両のユーザに対する信頼性も向上する。   Furthermore, according to the lane keeping control device 1, by using the relative lateral position of the preceding vehicle, the white line on the erroneously recognized side can be determined with high accuracy and the target lateral position can be corrected with high accuracy. . Since the lane keeping control is performed using the corrected target lateral position, the highly accurate lane keeping control can be performed, and the reliability of the vehicle user is improved.

また、車線維持制御装置1によれば、低精度のGPS受信機10を用いて構成できるので、コストを低減できる。なお、GPS受信機10による現在位置の精度が低く、例えば、実際の現在位置から数10m程度離れた位置の車線幅の情報を地図情報から取得したとしても、その取得した車線幅は実際の現在位置での車線幅と変わらないので、そのずれた位置での車線幅を用いても高精度な誤認識の判定は可能である。   Moreover, according to the lane keeping control apparatus 1, since it can comprise using the low precision GPS receiver 10, cost can be reduced. The accuracy of the current position by the GPS receiver 10 is low. For example, even if information on the lane width at a position several tens of meters away from the actual current position is acquired from the map information, the acquired lane width is the actual current position. Since it is not different from the lane width at the position, it is possible to determine misrecognition with high accuracy even using the lane width at the shifted position.

次に、図3を参照して、第2の実施の形態に係る車線維持制御装置2について説明する。図3は、第2の実施の形態に係る車線維持制御装置の構成図である。   Next, the lane keeping control device 2 according to the second embodiment will be described with reference to FIG. FIG. 3 is a configuration diagram of a lane keeping control device according to the second embodiment.

車線維持制御装置2は、画像による車線認識が誤認識か否かの判定は第1の実施の形態に係る車線維持制御装置1と同様の判定を行う。第1の実施の形態では、先行車両(あるいは、後続車両)の1台の車両の横位置情報を用いて誤認識側の白線の判別及び修正を行うが、その1台の車両が車線中央を走行していない場合がある。そこで、画像による車線認識が誤認識の場合、車線維持制御装置2は、誤認識側の白線の判別及び修正の精度を向上させるために、自車両前方を撮像するカメラの画像から認識した先行車両の横位置及び自車両後方を撮像するカメラの画像から認識した後続車両の横位置を利用して、誤認識した側の白線を判別し、その判別結果に応じて車線維持のための制御目標(目標横位置)を修正する。   The lane keeping control device 2 performs the same judgment as the lane keeping control device 1 according to the first embodiment as to whether or not the lane recognition by the image is erroneous recognition. In the first embodiment, the white line on the erroneous recognition side is discriminated and corrected using the lateral position information of one vehicle of the preceding vehicle (or the following vehicle). You may not be traveling. Therefore, when the lane recognition based on the image is erroneous recognition, the lane keeping control device 2 recognizes the preceding vehicle recognized from the image of the camera that images the front of the host vehicle in order to improve the accuracy of discrimination and correction of the white line on the erroneous recognition side. And the lateral position of the following vehicle recognized from the image of the camera that captures the rear side of the host vehicle, the white line on the erroneously recognized side is determined, and a control target for maintaining the lane according to the determination result ( Correct the target lateral position.

車線維持制御装置2は、GPS受信機10、前方カメラ11、後方カメラ12、地図データベース20、走路情報出力手段30、白線認識手段31,36、車両認識手段32,37、白線誤認識検出手段38、制御目標修正手段39、車両制御手段35を備えている。各手段30,31,32,35,36,37,38,39は、コンピュータによって各手段用のアプリケーションプログラムを実行することによって構成される。また、地図データベース20及び各手段30,31,32,35,36,37,38,39は、複数個あるいは1個のECUに組み込まれる。   The lane keeping control device 2 includes a GPS receiver 10, a front camera 11, a rear camera 12, a map database 20, a track information output means 30, white line recognition means 31, 36, vehicle recognition means 32, 37, and a white line erroneous recognition detection means 38. , Control target correction means 39 and vehicle control means 35 are provided. Each means 30, 31, 32, 35, 36, 37, 38, 39 is configured by executing an application program for each means by a computer. Further, the map database 20 and each means 30, 31, 32, 35, 36, 37, 38, 39 are incorporated into a plurality or one ECU.

なお、第2の実施の形態では、前方カメラ11及び白線認識手段31や後方カメラ12及び白線認識手段36が特許請求の範囲に記載する車線認識手段に相当し、前方カメラ11及び車両認識手段32と後方カメラ12及び車両認識手段37が特許請求の範囲に記載する他車両認識手段に相当し、GPS受信機10、地図データベース20及び走路情報出力手段30が特許請求の範囲に記載する構造情報取得手段に相当し、白線誤認識検出手段38が特許請求の範囲に記載する判定手段に相当し、制御目標修正手段39が特許請求の範囲に記載する修正手段に相当する。   In the second embodiment, the front camera 11 and the white line recognizing means 31, the rear camera 12 and the white line recognizing means 36 correspond to the lane recognizing means described in the claims, and the front camera 11 and the vehicle recognizing means 32. The rear camera 12 and the vehicle recognizing means 37 correspond to other vehicle recognizing means described in the claims, and the GPS receiver 10, the map database 20 and the runway information output means 30 acquire the structure information described in the claims. The white line misrecognition detection means 38 corresponds to the determination means described in the claims, and the control target correction means 39 corresponds to the correction means described in the claims.

後方カメラ12は、車両の後方に取り付けられる。後方カメラ12では、車両の後方の道路を含む領域を撮像し、その撮像した画像を取得する。後方カメラ12では、その撮像画像の情報を白線認識手段36と車両認識手段37に出力する。後方カメラ12は、左右方向に撮像範囲が広く、走行している車線の左右一対の白線を十分に撮像可能である。なお、後方カメラ12は、他のシステムと共用されるカメラでもよい。   The rear camera 12 is attached to the rear of the vehicle. The rear camera 12 captures an area including a road behind the vehicle and acquires the captured image. The rear camera 12 outputs information of the captured image to the white line recognition unit 36 and the vehicle recognition unit 37. The rear camera 12 has a wide imaging range in the left-right direction, and can sufficiently capture a pair of left and right white lines in a running lane. Note that the rear camera 12 may be a camera shared with other systems.

白線認識手段36では、後方カメラ12から入力した自車両後方の画像を用いて第1の実施の形態で説明した白線認識手段31と同様の処理を行い、認識した左右一対の白線の構造情報(車線幅Ws、車線中央、曲率)や制御目標(目標横位置)を白線誤認識検出手段38及び制御目標修正手段39に出力する。なお、前方カメラ11の画像を用いる白線認識手段31と後方カメラ12の画像を用いる白線認識手段36では同様に左右一対の白線の構造情報(車線幅Ws、車線中央、曲率)や制御目標(目標横位置)を算出するが、白線認識手段31と白線認識手段36のいずれか一方の情報を用いてもよいし、あるいは、白線認識手段31と白線認識手段36の各情報の平均値等を用いてもよい。または、白線認識手段31と白線認識手段36の一方だけで認識処理を行ってもよい。   The white line recognizing means 36 performs the same processing as the white line recognizing means 31 described in the first embodiment using the image behind the host vehicle input from the rear camera 12, and recognizes the structure information ( The lane width Ws, lane center, curvature) and control target (target lateral position) are output to the white line misrecognition detection means 38 and the control target correction means 39. Similarly, the white line recognizing means 31 using the image of the front camera 11 and the white line recognizing means 36 using the image of the rear camera 12 are similarly structured information (lane width Ws, lane center, curvature) of a pair of left and right white lines and a control target (target). (Horizontal position) is calculated. Information of either one of the white line recognition unit 31 and the white line recognition unit 36 may be used, or an average value of each information of the white line recognition unit 31 and the white line recognition unit 36 is used. May be. Alternatively, the recognition process may be performed by only one of the white line recognition unit 31 and the white line recognition unit 36.

車両認識手段37では、後方カメラ12から入力した自車両後方の画像から、車両のテンプレートを用いたパターンマッチングによって自車両後方を走行する後続車両を認識する。車両認識手段37では、後続車両を認識できた場合、自車両から後続車両までの距離Lcr及び自車両中央に対する後続車両中央の相対横位置Xcrを算出する。そして、車両認識手段37では、後続車両に関する情報(後続車両の有無、後続車両を存在する場合には距離Lcr、相対横位置Xcr等)を制御目標修正手段39に出力する。   The vehicle recognizing unit 37 recognizes a succeeding vehicle traveling behind the host vehicle from the image behind the host vehicle input from the rear camera 12 by pattern matching using a vehicle template. When the succeeding vehicle can be recognized, the vehicle recognizing unit 37 calculates a distance Lcr from the own vehicle to the succeeding vehicle and a relative lateral position Xcr of the succeeding vehicle center with respect to the own vehicle center. Then, the vehicle recognition unit 37 outputs information related to the following vehicle (presence / absence of the following vehicle, distance Lcr, relative lateral position Xcr when there is a following vehicle) to the control target correction unit 39.

白線誤認識検出手段38では、基本的には、第1の実施の形態で説明した白線誤認識検出手段33と同様の処理を行う。但し、判定に用いる画像認識による車線幅Wsについては、白線認識手段31と白線認識手段36のいずれか一方の車線幅を用いてもよいし、あるいは、白線認識手段31と白線認識手段36の各車両幅の平均値等を用いてもよい。   The white line misrecognition detection means 38 basically performs the same processing as the white line misrecognition detection means 33 described in the first embodiment. However, as for the lane width Ws by image recognition used for the determination, one of the white line recognition unit 31 and the white line recognition unit 36 may be used, or each of the white line recognition unit 31 and the white line recognition unit 36 may be used. An average value of the vehicle width or the like may be used.

制御目標修正手段39では、白線誤認識検出手段38で誤認識と判定した場合、車両認識手段32及び車両認識手段37の両方で車両の情報を取得できているか否か(認識できた車両の台数が2台か否か)を判定する。車両認識手段32及び車両認識手段37の両方で車両の情報を取得できていない場合(認識できた車両の台数が1台以下の場合)、制御目標修正手段39では、第1の実施の形態に係る制御目標修正手段34で行った同様の処理を行う。   In the control target correcting means 39, when the white line misrecognition detecting means 38 determines that it is erroneously recognized, whether or not the vehicle information can be acquired by both the vehicle recognizing means 32 and the vehicle recognizing means 37 (the number of recognized vehicles). Whether there are two or not. When vehicle information cannot be acquired by both the vehicle recognition means 32 and the vehicle recognition means 37 (when the number of recognized vehicles is one or less), the control target correction means 39 uses the first embodiment. The same processing performed by the control target correcting means 34 is performed.

一方、車両認識手段32及び車両認識手段37の両方で車両の情報を取得できている場合(認識できた車両の台数が2台の場合)、制御目標修正手段39では、車両認識手段32で取得した先行車両までの相対距離Lcfが閾値β以下かつ車両認識手段37で取得した後続車両までの相対距離Lcrが閾値β以下か否かを判定する。先行車両までの相対距離Lcfが閾値β以下かつ後続車両までの相対距離Lcrが閾値β以下の場合、先行車両及び後続車両を信頼できるので、制御目標修正手段39では、先行車両の相対横位置Xcfと後続車両Xcrとを結ぶ線分上を自車両の目標横位置として設定する。例えば、線分における横方向の中央位置を目標横位置とする。ここでは、2台の横位置情報を利用しているので、2台の車両の横位置が車線中央に対してばらついていても平均化されるので、1台の場合よりも一方側に偏らない。   On the other hand, when the vehicle information can be acquired by both the vehicle recognition unit 32 and the vehicle recognition unit 37 (when the number of recognized vehicles is two), the control target correction unit 39 acquires the vehicle information. It is determined whether the relative distance Lcf to the preceding vehicle is equal to or less than the threshold value β and the relative distance Lcr to the subsequent vehicle acquired by the vehicle recognition unit 37 is equal to or less than the threshold value β. When the relative distance Lcf to the preceding vehicle is equal to or less than the threshold value β and the relative distance Lcr to the following vehicle is equal to or less than the threshold value β, the preceding vehicle and the following vehicle can be trusted. And a line segment connecting the following vehicle Xcr is set as a target lateral position of the host vehicle. For example, the center position in the horizontal direction in the line segment is set as the target horizontal position. Here, since the horizontal position information of the two vehicles is used, even if the horizontal positions of the two vehicles vary with respect to the center of the lane, they are averaged. .

一方、先行車両までの距離Lcfが閾値βより長い又は/及び後続車両までの距離Lcrが閾値βより長い場合、先行車両や後続車両を信頼できるほどではないので、制御目標修正手段39では、先行車両の相対横位置Xcfと後続車両の相対横位置Xcrが共に車線中央に対して右側の場合、白線認識手段31(又は白線認識手段36)で認識した左右一対の白線のうち左側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が左側に寄っていると判断できるので、白線認識手段31で認識した右側の白線を基準にし、その右白線からWm/2分左側の位置を目標横位置として設定する。また、制御目標修正手段39では、先行車両の相対横位置Xcfと後続車両の相対横位置Xcrが共に車線中央に対して左側の場合、白線認識手段31で認識した左右一対の白線のうち右側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が右側に寄っていると判断できるので、白線認識手段31で認識した左側の白線を基準にし、その左白線からWm/2分左側の位置を目標横位置として設定する。また、制御目標修正手段39では、先行車両の相対横位置Xcfと後続車両の相対横位置Xcrとが車線中央に対して逆方向と判定した場合、先行車両までの相対距離Lcfと後続車両までの相対距離Lcrのうち距離の近いほうの車両(信頼できるほうの車両)の相対横位置Xcを基準に誤認識側の白線を判別して修正する。この判別及び修正方法は、第1の実施の形態に係る制御目標修正手段34において行った先行車両までの相対距離Lcが閾値βより長い場合の処理と同様の処理を行う。そして、制御目標修正手段39では、設定した目標横位置を制御目標として車両制御手段35に出力する。   On the other hand, when the distance Lcf to the preceding vehicle is longer than the threshold value β and / or the distance Lcr to the following vehicle is longer than the threshold value β, the preceding vehicle and the following vehicle are not reliable. When the relative lateral position Xcf of the vehicle and the relative lateral position Xcr of the following vehicle are both on the right side with respect to the center of the lane, the white line on the left side of the pair of left and right white lines recognized by the white line recognition unit 31 (or the white line recognition unit 36) is mistaken. Since it can be determined that the lane center recognized by the white line recognition means 31 is shifted to the left side accordingly, the right white line recognized by the white line recognition means 31 is used as a reference, and Wm / 2 minutes from the right white line. The left position is set as the target lateral position. Further, in the control target correcting means 39, when the relative lateral position Xcf of the preceding vehicle and the relative lateral position Xcr of the following vehicle are both on the left side with respect to the lane center, the right side of the pair of left and right white lines recognized by the white line recognizing means 31 is used. Since the white line is misrecognized and it can be determined that the center of the lane recognized by the white line recognizing unit 31 is shifted to the right side accordingly, the left white line recognized by the white line recognizing unit 31 is used as a reference, and the Wm from the left white line / Set the position on the left side for 2 minutes as the target lateral position. Further, in the control target correcting means 39, when it is determined that the relative lateral position Xcf of the preceding vehicle and the relative lateral position Xcr of the following vehicle are opposite to the center of the lane, the relative distance Lcf to the preceding vehicle and the distance to the following vehicle are determined. The white line on the misrecognition side is determined and corrected based on the relative lateral position Xc of the vehicle having the shorter distance (reliable vehicle) of the relative distance Lcr. This determination and correction method performs the same processing as the processing performed when the relative distance Lc to the preceding vehicle is longer than the threshold value β performed in the control target correcting means 34 according to the first embodiment. The control target correcting means 39 outputs the set target lateral position to the vehicle control means 35 as a control target.

図3を参照し、図4のフローチャートに沿って、車線維持制御装置2の動作について説明する。図4は、第2の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。車線維持制御装置2では、以下に説明する動作を一定時間毎に繰り返し行う。   With reference to FIG. 3, the operation of the lane keeping control device 2 will be described along the flowchart of FIG. 4. FIG. 4 is a flowchart showing a process flow in the lane keeping control apparatus according to the second embodiment. The lane keeping control device 2 repeatedly performs the operations described below at regular intervals.

GPS受信機10では、受信可能なGPS信号を受信し、受信できたGPS信号を用いて現在位置を算出し、その現在位置情報を走路情報出力手段30に出力している。また、前方カメラ11では、自車両前方を撮像し、その画像情報を白線認識手段31と車両認識手段32に出力している。また、後方カメラ12では、自車両後方を撮像し、その画像情報を白線認識手段36と車両認識手段37に出力している。   The GPS receiver 10 receives a receivable GPS signal, calculates a current position using the received GPS signal, and outputs the current position information to the road information output means 30. Further, the front camera 11 images the front of the host vehicle and outputs the image information to the white line recognition unit 31 and the vehicle recognition unit 32. Further, the rear camera 12 images the rear of the host vehicle and outputs the image information to the white line recognition unit 36 and the vehicle recognition unit 37.

白線認識手段31では、前方カメラ11の画像から左右一対の白線(車線)を認識し、車線幅Wsや目標横位置等を算出する(S20)。白線認識手段36では、後方カメラ12の画像から左右一対の白線(車線)を認識し、車線幅Wsや目標横位置等を算出する(S20)。また、走路情報出力手段30では、GPS受信機10による現在位置に基づいて地図データベース20から現在位置周辺の地図情報を取得し、その地図情報から車線幅Wmを取得する(S21)。そして、白線誤認識検出手段38では、車線幅Wsから車線幅Wmを減算し、その減算値の絶対値が閾値αより大きいか否かを判定する(S22)。S22にて減算値の絶対値が閾値α以下と判定した場合、白線認識手段31(又は白線認識手段36)で算出した目標横位置を制御目標とする。   The white line recognition means 31 recognizes a pair of left and right white lines (lanes) from the image of the front camera 11, and calculates the lane width Ws, the target lateral position, etc. (S20). The white line recognition means 36 recognizes a pair of left and right white lines (lanes) from the image of the rear camera 12, and calculates the lane width Ws, the target lateral position, etc. (S20). Further, the runway information output means 30 acquires map information around the current position from the map database 20 based on the current position by the GPS receiver 10, and acquires the lane width Wm from the map information (S21). Then, the white line misrecognition detection means 38 subtracts the lane width Wm from the lane width Ws, and determines whether or not the absolute value of the subtraction value is larger than the threshold value α (S22). When it is determined in S22 that the absolute value of the subtraction value is equal to or less than the threshold value α, the target lateral position calculated by the white line recognition unit 31 (or the white line recognition unit 36) is set as the control target.

S22にて減算値の絶対値が閾値αより大きいと判定した場合、車両認識手段32では、前方カメラ11の画像から先行車両を認識し、先行車両を認識できた場合には先行車両の情報(相対距離Lcf、相対横位置Xcf)を算出する(S23)。車両認識手段37では、後方カメラ12の画像から後続車両を認識し、後続車両を認識できた場合には後続車両の情報(相対距離Lcr、相対横位置Xcr)を算出する(S24)。そして、制御目標修正手段39では、先行車両情報及び後続車両情報を取得できているか否かを判定する(S25)。S25にて両方の車両情報を取得できていないと判定した場合(認識できている車両台数が1台以下の場合)、図2のフローチャートにおけるS14以降の処理を行う。なお、S14の処理では「先行車両情報を取得できているか否か」ではなく、「先行車両情報又は後続車両情報を取得できているか否か」を判定する。そして、S15、S16、S17の処理では、取得できている車両の情報を用いて処理を行う。   When it is determined in S22 that the absolute value of the subtraction value is larger than the threshold value α, the vehicle recognition means 32 recognizes the preceding vehicle from the image of the front camera 11, and if the preceding vehicle can be recognized, information on the preceding vehicle ( Relative distance Lcf and relative lateral position Xcf) are calculated (S23). The vehicle recognition unit 37 recognizes the following vehicle from the image of the rear camera 12, and if the following vehicle can be recognized, information (relative distance Lcr, relative lateral position Xcr) of the following vehicle is calculated (S24). Then, the control target correcting means 39 determines whether or not the preceding vehicle information and the following vehicle information can be acquired (S25). When it is determined in S25 that both pieces of vehicle information have not been acquired (when the number of recognized vehicles is one or less), the processing after S14 in the flowchart of FIG. 2 is performed. In the process of S14, it is determined not “whether or not preceding vehicle information can be acquired” but “whether or not preceding vehicle information or subsequent vehicle information can be acquired”. And in the process of S15, S16, S17, it processes using the information of the vehicle which can be acquired.

S25にて先行車両情報及び後続車両情報を取得できていると判定した場合(認識できている車両台数が2台の場合)、制御目標修正手段39では、先行車両までの相対距離Lcfが閾値β以下かつ後続車両までの相対距離Lcrが閾値β以下か否かを判定する(S26)。S26にて相対距離Lcfが閾値β以下かつ相対距離Lcrが閾値β以下と判定した場合、制御目標修正手段39では、先行車両の相対横位置Xcfと後続車両の相対横位置Xcrとを結ぶ線分上を自車両の目標横位置に設定する(S27)。一方、S26にて相対距離Lcfが閾値βより長い又は/及び相対距離Lcrが閾値βより長いと判定した場合、制御目標修正手段39では、先行車両、後続車両の相対横位置Xcf,Xcrが共に車線中央に対して右側の場合には左白線を誤認識と判定し、正しい認識の右白線を基準にしてWm/2分左側の位置を目標横位置に設定し、相対横位置Xcf,Xcrが共に車線中央に対して左側の場合には右白線を誤認識と判定し、正しい認識の左白線を基準にしてWm/2分右側の位置を目標横位置に設定し、相対横位置Xcfと相対横位置Xcrとが車線中央に対して逆方向の場合には相対距離Lcが短いほうの車両の相対横位置Xcに基づいて誤認識側の白線を判定し、正しい認識の白線を基準にしてWm/2分の位置を目標横位置に設定する(S28)。   When it is determined in S25 that the preceding vehicle information and the following vehicle information can be acquired (when the number of recognized vehicles is two), the control target correcting unit 39 determines that the relative distance Lcf to the preceding vehicle is a threshold value β It is then determined whether or not the relative distance Lcr to the following vehicle is equal to or less than the threshold value β (S26). When it is determined in S26 that the relative distance Lcf is equal to or less than the threshold value β and the relative distance Lcr is equal to or less than the threshold value β, the control target correcting unit 39 connects the relative lateral position Xcf of the preceding vehicle and the relative lateral position Xcr of the subsequent vehicle. The top is set as the target lateral position of the host vehicle (S27). On the other hand, when it is determined in S26 that the relative distance Lcf is longer than the threshold value β or / and the relative distance Lcr is longer than the threshold value β, the control target correcting means 39 determines that the relative lateral positions Xcf and Xcr of the preceding vehicle and the following vehicle are both In the case of the right side with respect to the center of the lane, the left white line is determined to be misrecognized, the position on the left side by Wm / 2 with respect to the right white line of correct recognition is set as the target lateral position, and the relative lateral positions Xcf and Xcr are If both are on the left side of the center of the lane, the right white line is determined to be misrecognized, and the position on the right side of Wm / 2 minutes is set as the target lateral position based on the correctly recognized left white line, and relative to the relative lateral position Xcf. When the lateral position Xcr is opposite to the center of the lane, the white line on the erroneous recognition side is determined based on the relative lateral position Xc of the vehicle having the shorter relative distance Lc, and Wm is determined based on the correctly recognized white line. / Set the position of 2 minutes to the target lateral position (S28).

そして、車両制御手段35では、設定されている目標横位置が零になるような目標操舵制御量を算出し、その目標操舵制御量を電動パワーステアリング装置に出力する(S29)。電動パワーステアリング装置では、その目標操舵制御量に応じた操舵トルクを操舵機構に作用させる。その結果、自車両は、車線中央付近を走行し、車線内を維持する。   Then, the vehicle control means 35 calculates a target steering control amount such that the set target lateral position becomes zero, and outputs the target steering control amount to the electric power steering device (S29). In the electric power steering device, a steering torque corresponding to the target steering control amount is applied to the steering mechanism. As a result, the host vehicle travels near the center of the lane and maintains the lane.

この車線維持制御装置2によれば、第1の実施の形態に係る車線維持制御装置1と同様の効果を有する上に以下の効果も有している。車線維持制御装置2によれば、自車両の前後の先行車両と後続車両を共に認識し、先行車両の情報と後続車両の情報を利用することにより、誤認識している側の白線をより高精度に判別できるとともに目標横位置をより高精度に修正することができる。また、先行車両と後続車両のうちの1台しか存在しない場合でも、第1の実施の形態に係る車線維持制御装置1と同程度の判別及び修正が可能である。   The lane keeping control device 2 has the same effects as the lane keeping control device 1 according to the first embodiment, and also has the following effects. According to the lane keeping control device 2, the preceding vehicle and the following vehicle before and after the host vehicle are both recognized, and the information on the preceding vehicle and the information on the following vehicle is used to make the white line on the erroneously recognized side higher. The target lateral position can be corrected with higher accuracy while being able to discriminate with accuracy. Further, even when only one of the preceding vehicle and the following vehicle exists, determination and correction similar to those of the lane keeping control device 1 according to the first embodiment are possible.

次に、図5を参照して、第3の実施の形態に係る車線維持制御装置3について説明する。図5は、第3の実施の形態に係る車線維持制御装置の構成図である。   Next, a lane keeping control device 3 according to a third embodiment will be described with reference to FIG. FIG. 5 is a configuration diagram of a lane keeping control device according to the third embodiment.

車線維持制御装置3は、画像による車線認識が誤認識か否かの判定は第1の実施の形態に係る車線維持制御装置1と同様の判定を行う。第1の実施の形態及び第2の実施の形態では、自車両の前後に車両が存在していない場合あるいは車両を認識するセンサを備えていない場合、誤認識している側の白線の判別や目標横位置の修正ができない。そこで、画像による車線認識が誤認識の場合、車線維持制御装置3は、高精度な自車両の位置と走行路の道路構造情報(車線数)から自車両が走行中の車線位置を推定し、その車線位置を利用して、誤認識した側の白線を判別し、その判別結果に応じて車線維持のための制御目標(目標横位置)を修正する。つまり、車線を誤認識するのは、車線の外側の道路脇に白線に似た特徴を持つもの(例えば、道路に平行な壁に描かれた線、中央分離帯のポールに貼り付けられた反射テープ)が存在する場合であり、左端の車線又は右端の車線を自車両が走行中の場合には左側の白線又は右側の白線を誤認識する確率が高いので、自車両走行中の車線位置での判別及び修正が可能である。   The lane keeping control device 3 makes the same determination as the lane keeping control device 1 according to the first embodiment as to whether or not the lane recognition by the image is erroneous recognition. In the first embodiment and the second embodiment, when a vehicle does not exist before or after the host vehicle or when a sensor for recognizing the vehicle is not provided, the white line on the erroneously recognized side is identified. The target lateral position cannot be corrected. Therefore, when the lane recognition by the image is misrecognized, the lane keeping control device 3 estimates the lane position where the own vehicle is traveling from the highly accurate position of the own vehicle and the road structure information (number of lanes) of the traveling road, Using the lane position, the misrecognized white line is discriminated, and the control target (target lateral position) for maintaining the lane is corrected according to the discrimination result. In other words, lanes may be misrecognized if they have characteristics similar to white lines on the roadside outside the lane (for example, lines drawn on walls parallel to the road, reflections attached to the median pole) If the vehicle is traveling in the left lane or right lane, there is a high probability of misrecognizing the white line on the left side or the white line on the right side. Can be determined and corrected.

車線維持制御装置3は、GPS受信機10、前方カメラ11、慣性センサ13、車輪速センサ14、地図データベース21、走路情報出力手段40、白線認識手段31、白線誤認識検出手段33、高精度自車位置推定手段41、自車走行車線推定手段42、制御目標修正手段43、車両制御手段35を備えている。各手段40,31,33,41,42,43,35は、コンピュータによって各手段用のアプリケーションプログラムを実行することによって構成される。また、地図データベース21及び各手段40,31,33,41,42,43,35は、複数個あるいは1個のECUに組み込まれる。   The lane keeping control device 3 includes a GPS receiver 10, a front camera 11, an inertial sensor 13, a wheel speed sensor 14, a map database 21, a lane information output means 40, a white line recognition means 31, a white line misrecognition detection means 33, a high-precision self A vehicle position estimation unit 41, a host vehicle traveling lane estimation unit 42, a control target correction unit 43, and a vehicle control unit 35 are provided. Each means 40, 31, 33, 41, 42, 43, 35 is configured by executing an application program for each means by a computer. Further, the map database 21 and each means 40, 31, 33, 41, 42, 43, 35 are incorporated into a plurality or one ECU.

なお、第3の実施の形態では、前方カメラ11及び白線認識手段31が特許請求の範囲に記載する車線認識手段に相当し、GPS受信機10、地図データベース21及び走路情報出力手段40が特許請求の範囲に記載する構造情報取得手段に相当し、GPS受信機10、慣性センサ13、車輪速センサ14、地図データベース21、走路情報出力手段40、高精度自車位置推定手段41及び自車走行車線推定手段42が特許請求の範囲に記載する車線位置取得手段に相当し、白線誤認識検出手段33が特許請求の範囲に記載する判定手段に相当し、制御目標修正手段43が特許請求の範囲に記載する修正手段に相当する。   In the third embodiment, the front camera 11 and the white line recognizing means 31 correspond to the lane recognizing means described in the claims, and the GPS receiver 10, the map database 21, and the runway information output means 40 are claimed. The GPS receiver 10, the inertial sensor 13, the wheel speed sensor 14, the map database 21, the road information output means 40, the high-accuracy own vehicle position estimation means 41, and the own vehicle travel lane The estimation means 42 corresponds to the lane position acquisition means described in the claims, the white line misrecognition detection means 33 corresponds to the determination means described in the claims, and the control target correction means 43 corresponds to the claims. It corresponds to the correction means described.

慣性センサ13は、例えば、ジャイロセンサである。慣性センサ13では、自車両の旋回方向の角速度を検出する。そして、慣性センサ13では、角速度の情報を高精度自車位置推定手段41に出力する。   The inertial sensor 13 is, for example, a gyro sensor. The inertial sensor 13 detects the angular velocity in the turning direction of the host vehicle. Then, the inertial sensor 13 outputs angular velocity information to the high-accuracy own vehicle position estimating means 41.

車輪速センサ14は、各車輪に設けられる。車輪速センサ14では、車輪の回転速度(車輪速)を検出する。そして、車輪速センサ14では、車輪速の情報を高精度自車位置推定手段41に出力する。   The wheel speed sensor 14 is provided on each wheel. The wheel speed sensor 14 detects the rotational speed (wheel speed) of the wheel. The wheel speed sensor 14 outputs the wheel speed information to the high-accuracy own vehicle position estimating means 41.

地図データベース21は、地図情報を格納するデータベースである。地図情報としては、第1の実施の形態に係る地図データベース20が格納する地図情報の他にマップマッチング用の地図情報も含む。   The map database 21 is a database that stores map information. The map information includes map information for map matching in addition to the map information stored in the map database 20 according to the first embodiment.

走路情報出力手段40では、GPS受信機10から入力した自車両の現在位置の情報を用いて、地図データベース21から現在位置周辺の地図情報を取得する。そして、走路情報出力手段40では、現在位置周辺の地図情報から自車両走行中の道路の車線幅Wm及び車線数の情報を取得し、その車線幅Wmの情報を白線誤認識検出手段33に出力し、車線数の情報を自車走行車線推定手段42する。   The runway information output means 40 acquires map information around the current position from the map database 21 using information on the current position of the host vehicle input from the GPS receiver 10. Then, the lane information output means 40 acquires information on the lane width Wm and the number of lanes of the road on which the vehicle is traveling from the map information around the current position, and outputs the information on the lane width Wm to the white line misrecognition detection means 33. Then, the information on the number of lanes is used as the vehicle lane estimation means 42.

高精度自車位置推定手段41では、慣性センサ13から入力した自車両の旋回方向の角速度を時間積分して自車両の旋回角度を推定する。また、高精度自車位置推定手段41では、各車輪の車輪速センサ14から入力した車輪速から自車両の車体速を算出し、その車体速を時間積分して自車両の移動距離を算出する。そして、高精度自車位置推定手段41では、その自車両の旋回角度と移動距離に基づいて自車両の相対的な位置を推定する。さらに、高精度自車位置推定手段41では、その自車両の相対的な位置とGPS受信機10からの絶対的な位置を用いてハイブリッド航法による位置を推定する。さらに、高精度自車位置推定手段41では、地図データベース21から現在位置周辺のマップマッチング用地図情報を取得し、ハイブリッド航法による推定位置とマップマッチング用地図情報を用いてマップマッチングを行い、自車両の現在位置を推定する。この推定される自車位置は、高精度(例えば、1m程度)であり、走行路に複数の車線が存在する場合には自車両が走行している車線位置を判別できる程度の精度を有する。なお、上記の高精度な自車位置の推定方法は一例であり、他の方法でもよい。また、自車両が高性能なナビゲーション装置を搭載している場合にはナビゲーション装置が高精度自車位置推定手段41として機能する。   The high-accuracy own vehicle position estimating means 41 estimates the turning angle of the own vehicle by time-integrating the angular velocity in the turning direction of the own vehicle inputted from the inertial sensor 13. The high-accuracy own vehicle position estimating means 41 calculates the vehicle speed of the host vehicle from the wheel speed input from the wheel speed sensor 14 of each wheel, and calculates the travel distance of the host vehicle by integrating the vehicle body speed over time. . Then, the high-accuracy own vehicle position estimating means 41 estimates the relative position of the own vehicle based on the turning angle and the movement distance of the own vehicle. Further, the high-accuracy own vehicle position estimating means 41 estimates the position by hybrid navigation using the relative position of the own vehicle and the absolute position from the GPS receiver 10. Further, the high-accuracy own vehicle position estimating means 41 acquires map information for map matching around the current position from the map database 21 and performs map matching using the estimated position by hybrid navigation and the map information for map matching. Estimate the current position of. The estimated own vehicle position is highly accurate (for example, about 1 m), and has an accuracy sufficient to determine the lane position in which the own vehicle is traveling when a plurality of lanes exist on the travel path. Note that the above-described high-accuracy vehicle position estimation method is merely an example, and other methods may be used. Further, when the host vehicle is equipped with a high-performance navigation device, the navigation device functions as the high-accuracy host vehicle position estimating means 41.

自車走行車線推定手段42では、走路情報出力手段40から入力した自車両の走行路における車線数と高精度自車位置推定手段41から入力した高精度な自車両の現在位置に基づいて、自車両が走行している車線の位置を判別する。例えば、1車線の場合には判別無し、2車線の場合には右側車線か左側車線か、3車線の場合には右端車線か左端車線か中央車線か、4車線の場合には右端車線か左端車線かそれ以外の車線かを判別する。そして、自車走行車線推定手段42では、その判別した車線位置を制御目標修正手段43に出力する。   The own vehicle travel lane estimation means 42 is based on the number of lanes in the travel route of the host vehicle input from the travel path information output means 40 and the current position of the host vehicle with high accuracy input from the high accuracy vehicle position estimation means 41. The position of the lane in which the vehicle is traveling is determined. For example, there is no distinction in the case of 1 lane, right lane or left lane in the case of 2 lanes, right end lane, left end lane or center lane in case of 3 lanes, right end lane or left end in case of 4 lanes Discriminate between lanes and other lanes. Then, the host vehicle travel lane estimating unit 42 outputs the determined lane position to the control target correcting unit 43.

制御目標修正手段43では、白線誤認識検出手段33で誤認識と判定した場合、自車走行車線推定手段42から入力した自車両が走行中の車線の位置が左端の車線か右端の車線かあるいはそれ以外の車線かを判定する。左端の車線と判定した場合(自車両の左側に白線に似た特徴を持つものが存在する可能性が高い場合)、白線認識手段31で認識した左右一対の白線のうち左側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が左側に寄っていると判断できるので、制御目標修正手段43では、白線認識手段31で認識した右側の白線を基準にし、その右白線からWm/2分左側の位置を目標横位置として設定する。右端の車線と判定した場合(自車両の右側に白線に似た特徴を持つものが存在する可能性が高い場合)、白線認識手段31で認識した左右一対の白線のうち右側の白線を誤認識しており、それに応じて白線認識手段31で認識した車線中央が右側に寄っていると判断できるので、制御目標修正手段43では、白線認識手段31で認識した左側の白線を基準にし、その左白線からWm/2分右側の位置を目標横位置として設定する。それ以外の車線と判定した場合、誤認識した側を判別できないので、制御目標修正手段43では、目標横位置を修正しない。そして、制御目標修正手段43では、設定した目標横位置を制御目標として車両制御手段35に出力する。   In the control target correcting means 43, when the white line misrecognition detecting means 33 determines that the recognition is wrong, the position of the lane in which the host vehicle that is input from the own vehicle traveling lane estimating means 42 is traveling is the left lane or the right lane, or Determine if it is a lane other than that. When the left lane is determined (when there is a high possibility that there is something similar to the white line on the left side of the host vehicle), the white line on the left side of the pair of left and right white lines recognized by the white line recognition unit 31 is erroneously recognized. Accordingly, since it can be determined that the center of the lane recognized by the white line recognition means 31 is shifted to the left side, the control target correction means 43 uses the right white line recognized by the white line recognition means 31 as a reference, and The position to the left of Wm / 2 minutes from the white line is set as the target lateral position. When it is determined that the lane is the rightmost lane (when there is a high possibility that there is something similar to the white line on the right side of the vehicle), the white line on the right side of the pair of left and right white lines recognized by the white line recognition means 31 is erroneously recognized. Accordingly, it can be determined that the center of the lane recognized by the white line recognizing means 31 is shifted to the right side. Therefore, the control target correcting means 43 uses the left white line recognized by the white line recognizing means 31 as a reference, and the left The position to the right of Wm / 2 minutes from the white line is set as the target lateral position. If the other lane is determined, the erroneously recognized side cannot be determined, so the control target correcting means 43 does not correct the target lateral position. Then, the control target correcting means 43 outputs the set target lateral position to the vehicle control means 35 as a control target.

図5を参照し、図6のフローチャートに沿って、車線維持制御装置3の動作について説明する。図6は、第3の実施の形態に係る車線維持制御装置における処理の流れを示すフローチャートである。車線維持制御装置3では、以下に説明する動作を一定時間毎に繰り返し行う。   With reference to FIG. 5, the operation of the lane keeping control device 3 will be described along the flowchart of FIG. 6. FIG. 6 is a flowchart showing a flow of processing in the lane keeping control device according to the third embodiment. In the lane keeping control device 3, the operation described below is repeated at regular intervals.

GPS受信機10では、受信可能なGPS信号を受信し、受信できたGPS信号を用いて現在位置を算出し、その現在位置情報を走路情報出力手段40及び高精度自車位置推定手段41に出力している。また、前方カメラ11では、自車両前方を撮像し、その画像情報を白線認識手段31に出力している。また、慣性センサ13では、自車両の旋回方向の角速度を検出し、その角速度を高精度自車位置推定手段41に出力している。また、各車輪の車輪速センサ14では、車輪速を検出し、その車輪速を高精度自車位置推定手段41に出力している。   The GPS receiver 10 receives a receivable GPS signal, calculates the current position using the received GPS signal, and outputs the current position information to the road information output means 40 and the high-accuracy vehicle position estimation means 41. doing. Further, the front camera 11 images the front of the host vehicle and outputs the image information to the white line recognition means 31. The inertial sensor 13 detects the angular velocity in the turning direction of the host vehicle, and outputs the angular velocity to the high-accuracy host vehicle position estimating means 41. Further, the wheel speed sensor 14 of each wheel detects the wheel speed and outputs the wheel speed to the high-accuracy own vehicle position estimating means 41.

白線認識手段31では、前方カメラ11の画像から左右一対の白線(車線)を認識し、車線幅Wsや目標横位置等を算出する(S30)。また、走路情報出力手段40では、GPS受信機10による現在位置に基づいて地図データベース21から現在位置周辺の地図情報を取得し、その地図情報から車線幅Wmを取得する(S31)。そして、白線誤認識検出手段33では、車線幅Wsから車線幅Wmを減算し、その減算値の絶対値が閾値αより大きいか否かを判定する(S32)。S32にて減算値の絶対値が閾値α以下と判定した場合、白線認識手段31で算出した目標横位置を制御目標とする。   The white line recognition means 31 recognizes a pair of left and right white lines (lanes) from the image of the front camera 11, and calculates the lane width Ws, the target lateral position, etc. (S30). Further, the runway information output means 40 acquires map information around the current position from the map database 21 based on the current position by the GPS receiver 10, and acquires the lane width Wm from the map information (S31). Then, the white line misrecognition detection means 33 subtracts the lane width Wm from the lane width Ws, and determines whether or not the absolute value of the subtraction value is larger than the threshold value α (S32). When it is determined in S32 that the absolute value of the subtraction value is equal to or less than the threshold value α, the target lateral position calculated by the white line recognition unit 31 is set as the control target.

S32にて減算値の絶対値が閾値αより大きいと判定した場合、高精度自車位置推定手段41では、慣性センサ13による自車両の旋回方向の角速度と各車輪の車輪速センサ14による車輪速に基づいて自車両の相対的な位置を推定する。そして、高精度自車位置推定手段41では、その自車両の相対的な位置とGPS受信機10による絶対的な現在位置及び地図データベース21から取得したマップマッチング用の地図情報を用いて、高精度な自車両の現在位置を推定する(S33)。また、走路情報出力手段40では、現在位置周辺の地図情報から車線数を取得する(S34)。そして、自車走行車線推定手段42では、高精度な自車両の現在位置と自車両の走行路における車線数に基づいて、自車両の走行車線を推定する(S35)。   When it is determined in S32 that the absolute value of the subtraction value is larger than the threshold value α, the high-accuracy own vehicle position estimating means 41 uses the inertial sensor 13 to determine the angular velocity of the vehicle in the turning direction and the wheel speed sensor 14 for each wheel. To estimate the relative position of the vehicle. Then, the high-accuracy own vehicle position estimating means 41 uses the relative position of the own vehicle, the absolute current position by the GPS receiver 10, and the map information for map matching acquired from the map database 21. The current position of the host vehicle is estimated (S33). Further, the runway information output means 40 acquires the number of lanes from the map information around the current position (S34). Then, the host vehicle travel lane estimation means 42 estimates the travel lane of the host vehicle based on the current position of the host vehicle and the number of lanes on the travel path of the host vehicle (S35).

そして、制御目標修正手段43では、自車両の走行車線の位置が最も左側の車線の場合には左白線を誤認識と判定し、正しい認識の右白線を基準にしてWm/2分左側の位置を目標横位置に設定し、自車両の走行車線の位置が最も右側の車線の場合には右白線を誤認識と判定し、正しい認識の左白線を基準にしてWm/2分右側の位置を目標横位置に設定し、それ以外の場合には目標横位置を修正しない(S36)。   Then, the control target correcting means 43 determines that the left white line is erroneously recognized when the position of the traveling lane of the host vehicle is the leftmost lane, and the position on the left side by Wm / 2 with respect to the right white line of correct recognition. Is set as the target lateral position, and when the position of the vehicle's lane is the rightmost lane, the right white line is determined to be misrecognized, and the position on the right side of Wm / 2 minutes is determined based on the correctly recognized left white line. The target lateral position is set, and in other cases, the target lateral position is not corrected (S36).

そして、車両制御手段35では、設定されている目標横位置が零になるような目標操舵制御量を算出し、その目標操舵制御量を電動パワーステアリング装置に出力する(S37)。電動パワーステアリング装置では、その目標操舵制御量に応じた操舵トルクを操舵機構に作用させる。その結果、自車両は、車線中央付近を走行し、車線内を維持する。   Then, the vehicle control means 35 calculates a target steering control amount so that the set target lateral position becomes zero, and outputs the target steering control amount to the electric power steering device (S37). In the electric power steering device, a steering torque corresponding to the target steering control amount is applied to the steering mechanism. As a result, the host vehicle travels near the center of the lane and maintains the lane.

この車線維持制御装置3によれば、第1の実施の形態に係る車線維持制御装置1と同様に、画像認識の車線幅と地図情報の車線幅とを比較することにより画像による車線認識が誤認識か否かを高精度に判定できる。さらに、車線維持制御装置3によれば、高精度な自車位置と車線数から推定した自車両の走行車線を利用することにより、誤認識している側の白線を高精度に判別できるとともに目標横位置を高精度に修正することができる。   According to the lane keeping control device 3, as in the lane keeping control device 1 according to the first embodiment, the lane recognition by the image is erroneously recognized by comparing the lane width of the image recognition with the lane width of the map information. Whether or not it is recognized can be determined with high accuracy. Furthermore, according to the lane keeping control device 3, by using the traveling lane of the own vehicle estimated from the highly accurate own vehicle position and the number of lanes, the erroneously recognized white line can be discriminated with high accuracy and the target The lateral position can be corrected with high accuracy.

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では車線維持制御装置に適用したが、車線の情報を用いる他の装置(車線逸脱警報装置等)に適用してもよいし、あるいは、車線認識のみを行う車線認識装置に適用してもよい。車線逸脱警報装置の場合、目標横位置を修正するのではなく、誤認識した側の白線の位置を修正する。   For example, although the present embodiment is applied to the lane keeping control device, it may be applied to other devices using lane information (such as a lane departure warning device), or to a lane recognition device that performs only lane recognition. You may apply. In the case of a lane departure warning device, the target lateral position is not corrected, but the position of the white line on the erroneously recognized side is corrected.

また、本実施の形態では車線として左右一対の白線を認識する構成としたが、白線以外にも道路面に描かれる黄線などの他の色の区画線を認識するようにしてもよい。   In the present embodiment, a pair of left and right white lines are recognized as lanes. However, in addition to the white lines, other color division lines such as yellow lines drawn on the road surface may be recognized.

また、本実施の形態では車線をカメラの画像を用いて認識する構成としたが、レーザレーダ等の他の手段を用いて車線を認識する構成としてもよい。また、本実施の形態では先行車両や後続車両をカメラの画像を用いて認識する構成としたが、レーザレーダ等の他の手段を用いて先行車両等を認識する構成としてもよい。   In the present embodiment, the lane is recognized using the camera image. However, the lane may be recognized using other means such as a laser radar. In this embodiment, the preceding vehicle and the following vehicle are recognized using the camera image. However, the preceding vehicle and the like may be recognized using other means such as a laser radar.

また、本実施の形態では車線幅を用いて誤認識か否かを判定する構成としたが、他の車線の構造情報(例えば、曲率、カーブ半径)を用いて誤認識か否かを判定してもよい。   Further, in the present embodiment, it is configured to determine whether or not erroneous recognition is performed using the lane width, but it is determined whether or not erroneous recognition is performed using structure information (for example, curvature, curve radius) of other lanes. May be.

また、第1及び第2の実施の形態では先行車両や後続車両が信頼できるか否かを判定するために車両までの相対距離を用いて判定したが、他の情報を用いて判定してもよい。例えば、車両の横方向へのふらつき度合いを検出し、ふらつき度合いを用いて判定する。   Further, in the first and second embodiments, the determination is made using the relative distance to the vehicle in order to determine whether the preceding vehicle and the following vehicle are reliable, but the determination may be made using other information. Good. For example, the degree of wobbling in the lateral direction of the vehicle is detected, and the determination is made using the degree of wobbling.

また、第3の実施の形態では自車両の高精度な位置情報と走行路の車線数に基づいて自車両走行中の車線の位置を推定する構成としたが、他の方法で自車両走行中の車線の位置を取得してよい。   In the third embodiment, the position of the lane in which the host vehicle is traveling is estimated based on the highly accurate position information of the host vehicle and the number of lanes on the travel path. The position of the lane may be acquired.

1,2,3…車線維持制御装置、10…GPS受信機、11…前方カメラ、12…後方カメラ、13…慣性センサ、14…車輪速センサ、20,21…地図データベース、30,40…走路情報出力手段、31,36…白線認識手段、32,37…車両認識手段、33,38…白線誤認識検出手段、34,39,43…制御目標修正手段、35…車両制御手段、41…高精度自車位置推定手段、42…自車走行車線推定手段。   1, 2, 3 ... Lane maintaining control device, 10 ... GPS receiver, 11 ... Front camera, 12 ... Rear camera, 13 ... Inertial sensor, 14 ... Wheel speed sensor, 20, 21 ... Map database, 30, 40 ... Runway Information output means 31, 36 ... White line recognition means, 32, 37 ... Vehicle recognition means, 33, 38 ... White line erroneous recognition detection means, 34, 39, 43 ... Control target correction means, 35 ... Vehicle control means, 41 ... High Accuracy own vehicle position estimating means, 42 ... own vehicle traveling lane estimating means.

Claims (2)

道路上の車線を認識する車線認識装置であって、
自車両が走行中の車線を認識し、車線の情報を取得する車線認識手段と、
自車両が走行中の車線の構造情報を取得する構造情報取得手段と、
前記車線認識手段で認識した車線の情報と前記構造情報取得手段で取得した車線の構造情報とを比較し、前記車線認識手段による認識が誤認識か否かを判定する判定手段と、
自車両に対する先行車両又は/及び後続車両を認識し、先行車両又は/及び後続車両の自車両に対する横位置を取得する他車両認識手段と、
前記判定手段で前記車線認識手段による認識が誤認識と判定した場合、前記他車両認識手段で認識した先行車両又は/及び後続車両の横位置に基づいて車線の右側の区画線と左側の区画線のうちのいずれの側の区画線を誤認識したかを判別し、該判別結果に応じて前記車線認識手段で認識した車線の情報を修正する修正手段と、
を備えることを特徴とする車線認識装置。
A lane recognition device for recognizing a lane on a road,
Lane recognition means for recognizing the lane in which the host vehicle is traveling and acquiring lane information;
Structure information acquisition means for acquiring structure information of the lane in which the host vehicle is traveling,
A determination unit that compares the lane information recognized by the lane recognition unit with the lane structure information acquired by the structure information acquisition unit, and determines whether the recognition by the lane recognition unit is a recognition error;
Other vehicle recognition means for recognizing a preceding vehicle or / and a following vehicle with respect to the own vehicle and acquiring a lateral position of the preceding vehicle or / and the following vehicle with respect to the own vehicle;
When the determination means determines that the recognition by the lane recognition means is a misrecognition, the right lane line and the left lane line of the lane based on the lateral position of the preceding vehicle or / and the following vehicle recognized by the other vehicle recognition means A correction means for determining which side of the lane marking is erroneously recognized, and correcting information on the lane recognized by the lane recognition means according to the determination result;
A lane recognition device comprising:
道路上の車線を認識する車線認識装置であって、
自車両が走行中の車線を認識し、車線の情報を取得する車線認識手段と、
自車両が走行中の車線の構造情報を取得する構造情報取得手段と、
前記車線認識手段で認識した車線の情報と前記構造情報取得手段で取得した車線の構造情報とを比較し、前記車線認識手段による認識が誤認識か否かを判定する判定手段と、
自車両が走行している車線の位置を取得する車線位置取得手段と、
前記判定手段で前記車線認識手段による認識が誤認識と判定した場合、前記車線位置取得手段で取得した車線の位置が最も左側の車線のときには車線の左側の区画線を誤認識したと判別し、前記車線位置取得手段で取得した車線の位置が最も右側の車線のときには車線の右側の区画線を誤認識したと判別し、該判別結果に応じて前記車線認識手段で認識した車線の情報を修正する修正手段と、
を備えることを特徴とする車線認識装置。
A lane recognition device for recognizing a lane on a road,
Lane recognition means for recognizing the lane in which the host vehicle is traveling and acquiring lane information;
Structure information acquisition means for acquiring structure information of the lane in which the host vehicle is traveling,
A determination unit that compares the lane information recognized by the lane recognition unit with the lane structure information acquired by the structure information acquisition unit, and determines whether the recognition by the lane recognition unit is a recognition error;
Lane position acquisition means for acquiring the position of the lane in which the host vehicle is traveling;
When the determination means determines that the recognition by the lane recognition means is a misrecognition, it is determined that the left lane line of the lane is erroneously recognized when the position of the lane acquired by the lane position acquisition means is the leftmost lane, When the lane position acquired by the lane position acquisition means is the rightmost lane, it is determined that the right lane marking of the lane is erroneously recognized, and the lane information recognized by the lane recognition means is corrected according to the determination result. Correction means to
A lane recognition device comprising:
JP2011242274A 2011-11-04 2011-11-04 Lane recognition device Active JP5747787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242274A JP5747787B2 (en) 2011-11-04 2011-11-04 Lane recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242274A JP5747787B2 (en) 2011-11-04 2011-11-04 Lane recognition device

Publications (2)

Publication Number Publication Date
JP2013097714A JP2013097714A (en) 2013-05-20
JP5747787B2 true JP5747787B2 (en) 2015-07-15

Family

ID=48619558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242274A Active JP5747787B2 (en) 2011-11-04 2011-11-04 Lane recognition device

Country Status (1)

Country Link
JP (1) JP5747787B2 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0848937A (en) * 1994-08-04 1996-02-20 Cosmo Oil Co Ltd New coating agent composition for plastic working
DE102013220016A1 (en) * 2013-10-02 2015-04-02 Conti Temic Microelectronic Gmbh Method and device for monitoring the function of a driver assistance system
KR101519277B1 (en) 2013-12-24 2015-05-11 현대자동차주식회사 Apparatus and Method for Recognize of Drive Way of Vehicle
JP2015217737A (en) * 2014-05-15 2015-12-07 トヨタ自動車株式会社 Drive support apparatus
KR101628547B1 (en) * 2014-11-28 2016-06-08 현대자동차주식회사 Apparatus and Method for Checking of Driving Load
JP6087969B2 (en) 2015-03-23 2017-03-01 富士重工業株式会社 Vehicle travel control device
JP6269566B2 (en) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 False recognition determination device
JP6174644B2 (en) * 2015-09-01 2017-08-02 本田技研工業株式会社 Image processing device
JP6428539B2 (en) * 2015-09-15 2018-11-28 株式会社デンソー Vehicle control apparatus and vehicle control method
DE102016209232B4 (en) * 2016-05-27 2022-12-22 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes of a roadway
JP6686760B2 (en) * 2016-07-21 2020-04-22 いすゞ自動車株式会社 Image processing apparatus and image processing method
JP6583183B2 (en) * 2016-08-04 2019-10-02 トヨタ自動車株式会社 Vehicle control device
KR101866075B1 (en) 2016-10-20 2018-06-08 현대자동차주식회사 Apparatus and method for estmating lane
JP6465319B2 (en) 2017-03-31 2019-02-06 株式会社Subaru Vehicle travel control device
JP6438516B2 (en) 2017-03-31 2018-12-12 株式会社Subaru Vehicle travel control device
JP6885781B2 (en) * 2017-05-11 2021-06-16 日立Astemo株式会社 Vehicle control device, vehicle control method and vehicle control system
EP3764060A1 (en) * 2017-06-14 2021-01-13 Mobileye Vision Technologies Ltd. Fusion framework of navigation information for autonomous navigation
US11068735B2 (en) 2017-12-05 2021-07-20 Denso Corporation Reliability calculation apparatus
JP7108916B2 (en) * 2018-03-13 2022-07-29 パナソニックIpマネジメント株式会社 vehicle controller
JP7256216B2 (en) * 2021-02-25 2023-04-11 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7203884B2 (en) * 2021-03-31 2023-01-13 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
CN113470360B (en) * 2021-07-14 2022-06-03 北京理工大学 Lane recognition method based on vehicle-road cooperation
CN114889633B (en) * 2022-06-13 2024-06-14 东风汽车集团股份有限公司 Display method for intelligent driving automobile front lane line and front automobile display

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09152348A (en) * 1995-12-01 1997-06-10 Pioneer Electron Corp Car navigation device
JP4687392B2 (en) * 2005-10-31 2011-05-25 トヨタ自動車株式会社 Vehicle that performs automatic steering control by judging the accuracy of roadside information
JP2007179386A (en) * 2005-12-28 2007-07-12 Fujitsu Ten Ltd Method and apparatus for recognizing white line
JP5233696B2 (en) * 2009-01-21 2013-07-10 株式会社デンソー Lane boundary detection device, boundary detection program, and departure warning device

Also Published As

Publication number Publication date
JP2013097714A (en) 2013-05-20

Similar Documents

Publication Publication Date Title
JP5747787B2 (en) Lane recognition device
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
RU2706763C1 (en) Vehicle localization device
US11193782B2 (en) Vehicle position estimation apparatus
US7970529B2 (en) Vehicle and lane recognizing device
JP5966747B2 (en) Vehicle travel control apparatus and method
JP7013727B2 (en) Vehicle control device
US11300415B2 (en) Host vehicle position estimation device
US20180066960A1 (en) Apparatus and method for driving assistance
CA3032068C (en) Self-position estimation method and self-position estimation device
KR101704405B1 (en) System and method for lane recognition
JP6669059B2 (en) Position calculation device
KR20200119920A (en) Appratus and method for estimating the position of an automated valet parking system
JP2007178271A (en) Own position recognition system
US9727796B2 (en) Parking assistance system and parking assistance method
JP2007178270A (en) Own position recognition system
JP2018048949A (en) Object recognition device
JP2019066193A (en) Own vehicle position detection device
JP6836446B2 (en) Vehicle lane estimation device
JP6649859B2 (en) Vehicle position estimation device and vehicle position estimation method
JP2019066445A (en) Position correction method, vehicle control method, and position correction device
JP2018017668A (en) Information processing device and information processing program
JP6790951B2 (en) Map information learning method and map information learning device
JP2020008462A (en) Own vehicle location estimation device
CN113795726B (en) Self-position correction method and self-position correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150427

R151 Written notification of patent or utility model registration

Ref document number: 5747787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151