JP4692831B2 - Peripheral situation recognition device and method - Google Patents

Peripheral situation recognition device and method Download PDF

Info

Publication number
JP4692831B2
JP4692831B2 JP2006089020A JP2006089020A JP4692831B2 JP 4692831 B2 JP4692831 B2 JP 4692831B2 JP 2006089020 A JP2006089020 A JP 2006089020A JP 2006089020 A JP2006089020 A JP 2006089020A JP 4692831 B2 JP4692831 B2 JP 4692831B2
Authority
JP
Japan
Prior art keywords
lane
feature
obstacle
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006089020A
Other languages
Japanese (ja)
Other versions
JP2007266975A (en
Inventor
正樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2006089020A priority Critical patent/JP4692831B2/en
Publication of JP2007266975A publication Critical patent/JP2007266975A/en
Application granted granted Critical
Publication of JP4692831B2 publication Critical patent/JP4692831B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、撮像装置からの画像情報とデータベースから取得した地物情報とに基づいて、自車両の周辺における障害物の存在状況を認識する周辺状況認識装置及び方法、並びにこの周辺状況認識装置を用いたナビゲーション装置及び車両制御装置に関する。   The present invention relates to a surrounding situation recognition device and method for recognizing the presence of an obstacle around a host vehicle based on image information from an imaging device and feature information acquired from a database, and the surrounding situation recognition device. The present invention relates to a navigation device and a vehicle control device used.

車両に搭載されるカメラやレーダ等を用いて自車両の周辺に存在する障害物を認識する技術が既に知られている。このような技術に関して、例えば下記の特許文献1には、以下のような障害物検出装置が開示されている。この装置は、ナビゲーション装置等から取得した情報に基づき自車両の走行路の進行方向前方あるいは予測した進行軌跡上の道路構成として、少なくとも交差道路の有無または車線数を検出する。そして、自車両の現在位置と進行方向(直進、右左折、車線変更等)に応じて、さらに、視線検出装置にて検出される運転者の視線方向に応じて、レーダの検知方向およびカメラの撮像方向を設定する。そして、制御装置はレーダやカメラにより検知した移動体や障害物が自車両の走行の支障となる可能性を算出し、この可能性に応じて制動装置や各種伝達装置やエアバッグ等の乗員保護装置を作動させる。   A technique for recognizing an obstacle existing around a host vehicle using a camera or a radar mounted on the vehicle is already known. Regarding such a technique, for example, Patent Document 1 below discloses the following obstacle detection device. This device detects at least the presence / absence of a crossing road or the number of lanes as a road configuration on the traveling direction ahead of the traveling path of the host vehicle or a predicted traveling locus based on information acquired from a navigation device or the like. Then, depending on the current position of the host vehicle and the direction of travel (straight, left / right, lane change, etc.), and further depending on the driver's gaze direction detected by the gaze detection device, the radar detection direction and the camera Set the imaging direction. Then, the control device calculates the possibility that the moving object or obstacle detected by the radar or camera will interfere with the traveling of the vehicle, and according to this possibility, occupant protection such as a braking device, various transmission devices, and an air bag Activate the device.

ここで、レーダは、レーザ光やミリ波等の発信信号を適宜の検知方向に向けて発信すると共に、この発信信号が障害物等によって反射されることで生じた反射信号を受信する。そして、これらの反射信号と発信信号とに基づいて、所定の検知エリア内の領域における障害物までの相対距離や相対速度等を算出する。また、カメラは、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラ等であって、適宜の検知方向での外界を撮影する。そして、画像処理部により、カメラから出力される画像を画像処理して、自車両周辺の他の車両、歩行者等の障害物や標識等を検出する。また、これらの検出結果と共に、自車両から認識した各障害物までの相対距離の情報等を生成して出力する。   Here, the radar transmits a transmission signal such as a laser beam or a millimeter wave in an appropriate detection direction, and receives a reflection signal generated by reflecting the transmission signal by an obstacle or the like. Then, based on these reflection signal and transmission signal, a relative distance, a relative speed, and the like to an obstacle in a region within a predetermined detection area are calculated. The camera is, for example, a CCD camera that can capture an image in the visible light region or the infrared region, and images the outside world in an appropriate detection direction. Then, the image processing unit performs image processing on the image output from the camera, and detects other vehicles around the host vehicle, obstacles such as pedestrians, signs, and the like. Further, along with these detection results, information on the relative distances from the host vehicle to each obstacle recognized is generated and output.

特開2005−231450号公報(第6−16頁、第1−12図)Japanese Patent Laying-Open No. 2005-231450 (page 6-16, FIG. 1-12)

しかし、上記の装置のように、レーダやカメラ等の撮像装置を用いた画像認識により、自車両の周辺の他の車両や歩行者等を直接的に認識する構成では、実際には誤認識が多く発生するため、実用的な装置とすることが困難であるという問題がある。すなわち、車両や歩行者等の認識対象物以外にも、現実の道路周辺には樹木、柵、歩道等の様々なものが存在し、それらがノイズ成分となるために認識対象物の正確な認識が妨げられる。また、特に画像認識を行う場合において、車両等の認識対象の形状や色彩等が様々であるため、それらの全てを正確に認識できる装置を構成することは困難である。そして、これらの問題を克服して高精度な認識を可能とするためには、高性能で高価なシステムが必要とされる。   However, as in the case of the above-described device, in a configuration that directly recognizes other vehicles, pedestrians, and the like around the host vehicle by image recognition using an imaging device such as a radar or a camera, erroneous recognition is actually performed. Since it occurs frequently, there is a problem that it is difficult to make a practical device. In other words, in addition to objects to be recognized such as vehicles and pedestrians, various objects such as trees, fences, and sidewalks exist around the actual road, and these become noise components, so that the object to be recognized is accurately recognized. Is disturbed. In particular, when performing image recognition, it is difficult to configure an apparatus that can accurately recognize all of the shapes, colors, and the like of recognition targets such as vehicles. In order to overcome these problems and enable highly accurate recognition, a high-performance and expensive system is required.

本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像認識を用いて自車両周辺に存在する障害物を認識する場合において、当該認識対象としての障害物の形状や色彩等の様々な違いによる影響、或いは周辺に存在するノイズ成分となり得るものの影響を受け難く、安定的に障害物の認識が可能な周辺状況認識装置及び周辺状況認識方法を、比較的簡易な構成により実現することにある。   The present invention has been made in view of the above problems, and its object is to recognize the shape and color of an obstacle as a recognition target when recognizing an obstacle around the host vehicle using image recognition. The surrounding situation recognition device and the surrounding situation recognition method that are not easily affected by various differences such as the above, or that can be noise components that exist in the vicinity, and that can stably recognize obstacles, have a relatively simple configuration. It is to be realized.

上記目的を達成するための本発明に係る周辺状況認識装置の特徴構成は、自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得手段と、自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得手段と、前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識手段と、その画像認識結果に基づいて、自車両の周辺における障害物の存在状況を認識する障害物認識手段と、を備え、前記地物情報取得手段は、道路に沿って配置された連続性のある地物についての地物情報を取得し、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、自車両と当該地物との間に障害物が存在すると認識し、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識手段による画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する点にある。 In order to achieve the above object, the feature configuration of the surrounding situation recognition device according to the present invention is an image information acquisition means for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle, and features on the surroundings of the host vehicle. Feature information acquisition means for acquiring feature information from the database, image recognition means for performing image recognition of the feature included in the image information based on the feature information, and based on the image recognition result Obstacle recognition means for recognizing the presence of obstacles in the vicinity of the host vehicle, wherein the feature information acquisition means obtains feature information about continuous features arranged along the road. The obstacle recognizing means acquires the feature that should be included in the image information based on the feature information, when all or part of the image of the feature cannot be recognized by the image recognizing means. , Own vehicle and this Recognizes that an obstacle exists between the feature further comprises a arrangement relative to the vehicle of the feature with the continuous based on the feature information, the based on the image recognition results by the image recognition unit The position and the size of the obstacle are recognized based on the arrangement of the unrecognizable portion of the continuous feature .

この特徴構成によれば、自車両の周辺に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成によって自車両周辺の障害物の安定的な認識を行うことが可能な装置とすることができる。   According to this characteristic configuration, the obstacle existing around the host vehicle is recognized based on the image recognition result for the feature indicated in the feature information acquired from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it can be set as the apparatus which can perform the stable recognition of the obstacle around the own vehicle by a comparatively simple structure.

また、上記のように構成すれば、当該連続性のある地物の配置に応じて、障害物の配置を道路に沿って連続的に認識することが可能となる。したがって、自車両の周囲の障害物の配置をより詳しく認識することが可能となる。 Moreover, if comprised as mentioned above , according to the arrangement | positioning of the said continuous feature, it will become possible to recognize the arrangement | positioning of an obstacle continuously along a road. Therefore, it is possible to recognize the arrangement of obstacles around the host vehicle in more detail.

また、上記のように構成すれば、地物情報に基づいて連続性のある地物が画像認識されるべき位置にも関わらず、画像認識されない部分に障害物が存在するものとして、自車両の位置を基準として障害物の位置及び大きさを演算して認識することができる。したがって、障害物の存在状況をより詳細に認識することができる。 Further, if configured as described above, it is assumed that there is an obstacle in a portion where image recognition is not performed despite the position where the continuous feature should be image-recognized based on the feature information. The position and size of the obstacle can be calculated and recognized based on the position. Therefore, the presence state of the obstacle can be recognized in more detail.

ここで、自車両が走行中の車線である自車線を認識する自車線認識手段を更に備え、前記地物情報取得手段は、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、前記自車線に隣接する車線上に障害物が存在すると認識すると好適である。 Here, the vehicle further includes a vehicle lane recognizing unit that recognizes the vehicle lane that is the lane in which the vehicle is traveling, and the feature information acquisition unit includes a feature for a feature located in the back of the lane adjacent to the vehicle lane. Object information is acquired from a database, and the obstacle recognizing means recognizes, for the feature that should be included in the image information based on the feature information, all or a part of the image of the feature. When it cannot be recognized by the means, it is preferable to recognize that there is an obstacle on the lane adjacent to the own lane .

の構成によれば、自車線に隣接する車線上に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成によって自車線に隣接する車線上の障害物の安定的な認識を行うことが可能な装置とすることができる。 According to configuration of this, the recognition of the obstacle existing on a lane adjacent to the own lane, will be performed based on the image recognition results for features shown in the feature information obtained from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it can be set as the apparatus which can perform the stable recognition of the obstruction on the lane adjacent to the own lane with a comparatively simple structure.

ここで、前記障害物認識手段による認識結果に基づいて、前記自車線に隣接する車線への車線変更の可否を判定する車線変更判定手段を更に備える構成とすると好適である。   Here, it is preferable to further include lane change determination means for determining whether or not a lane change to a lane adjacent to the own lane is possible based on a recognition result by the obstacle recognition means.

このように構成すれば、障害物認識手段による自車線に隣接する車線上における障害物の存在状況の認識結果に基づいて、自車両の車線変更の可否を判定することができる。したがって、比較的簡易な構成によって車線変更の可否の安定的な判定を行うことが可能な装置とすることができる。   According to this configuration, it is possible to determine whether or not the lane of the host vehicle can be changed based on the recognition result of the presence condition of the obstacle on the lane adjacent to the host lane by the obstacle recognition unit. Therefore, it can be set as the apparatus which can perform the stable determination of the possibility of a lane change with a comparatively simple structure.

ここで、前記連続性のある地物は、道路面上に設けられた区画線、及び道路に沿って配置された縁石の少なくとも一方を含む構成とすると特に好適である。
これらの地物は、その周囲や背後に道路面以外の雑多なものが撮像されることが少なく、また道路面との色彩の差も大きい。そのため画像認識が比較的容易であり、一層安定的な障害物の認識を行うことが可能となる。
Here, it is particularly preferable that the continuous feature includes at least one of a lane marking provided on the road surface and a curb arranged along the road.
As for these features, various things other than the road surface are rarely imaged around and behind them, and the color difference from the road surface is large. Therefore, image recognition is relatively easy, and it becomes possible to recognize obstacles more stably.

また、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記連続性のある地物についての、前記画像認識手段による当該地物の認識できた部分の割合に基づいて、前記障害物の存在状況を認識する構成とすると好適である。   Further, the obstacle recognizing means is a ratio of a portion of the feature that can be recognized by the image recognizing means with respect to the continuous features that should be included in the image information based on the feature information. It is preferable to adopt a configuration for recognizing the presence of the obstacle based on the above.

このように構成すれば、画像情報に含まれているべき連続性のある地物についての画像認識できた部分の割合に基づいて、その割合が高いほど障害物が存在する割合が少ないものとして、簡易的に障害物の存在状況を認識することが可能となる。   If constituted in this way, based on the ratio of the part that was able to recognize the image about the continuous feature that should be included in the image information, the higher the ratio, the less the ratio that the obstacle exists, It becomes possible to easily recognize the presence of an obstacle.

本発明に係るナビゲーション装置の特徴構成は、上記の構成を備えた周辺状況認識装置と、自車両の進路案内を行う進路案内手段と、を備え、前記進路案内手段は、自車両の車線変更が必要であって、且つ前記車線変更判定手段により車線変更可能と判断した場合に、車線変更の案内を行う点にある。   A characteristic configuration of the navigation device according to the present invention includes a surrounding situation recognition device having the above-described configuration, and a route guidance unit that performs route guidance of the host vehicle. The route guide unit is configured to change the lane of the host vehicle. When it is necessary and the lane change determination means determines that the lane change is possible, the lane change guidance is provided.

この特徴構成によれば、自車両の車線変更が必要な場合であっても、自車線に隣接する車線への車線変更が可能である場合にのみ車線変更の案内を行うので、車線変更の際の安全性を高めることが可能となる。また、車線変更が不可能な状況で車線変更の案内を行わないことで、運転者が案内によるわずらわしさを感じることを抑制できる。   According to this feature configuration, even when the lane change of the host vehicle is necessary, the lane change guidance is provided only when the lane change to the lane adjacent to the host lane is possible. It becomes possible to improve the safety of the machine. Moreover, it is possible to prevent the driver from feeling troublesome by not performing guidance for lane change in a situation where lane change is not possible.

本発明に係る車両制御装置の特徴構成は、上記の構成を備えた周辺状況認識装置と、自車両の各部の動作制御を行う制御手段と、を備え、前記制御手段は、前記障害物認識手段による認識結果に基づいて自車両の各部の動作制御を行う点にある。   A characteristic configuration of a vehicle control device according to the present invention includes a surrounding situation recognition device having the above-described configuration, and a control unit that performs operation control of each unit of the host vehicle, wherein the control unit is the obstacle recognition unit. The operation control of each part of the host vehicle is performed based on the recognition result of the vehicle.

この特徴構成によれば、自車両の周辺における障害物の存在状況に応じて、例えば、自車両が障害物に接近することを防止し或いは減速する等のための車両各部の制御又はそのような制御のための運転者の操作の補助等、適切な車両制御を行うことが可能となる。   According to this characteristic configuration, for example, the control of each part of the vehicle for preventing the host vehicle from approaching the obstacle or decelerating or the like according to the presence situation of the obstacle around the host vehicle or such Appropriate vehicle control, such as assisting the driver's operation for control, can be performed.

本発明に係る周辺状況認識方法の特徴構成は、自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得ステップと、自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得ステップと、前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識ステップと、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車両と当該地物との間に障害物が存在すると認識する障害物認識ステップと、を備え、前記地物情報取得ステップでは、道路に沿って配置された連続性のある地物についての地物情報を取得し、前記障害物認識ステップでは、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識ステップによる画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する点にある。 The characteristic configuration of the surrounding situation recognition method according to the present invention includes an image information acquisition step for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle, and acquires feature information about the features around the host vehicle from the database. Included in the image information based on the feature information, and an image recognition step for performing image recognition of the feature included in the image information based on the feature information. An obstacle recognition step for recognizing that there is an obstacle between the vehicle and the feature when all or a part of the image of the feature is not recognized by the image recognition step; comprising a, in the feature information acquiring step, acquires feature information about the feature that a continuous arranged along the road, in the obstacle recognition step, further, based on the feature information The position of the obstacle based on the arrangement of the continuous feature based on the own vehicle and the arrangement of the unrecognizable portion of the continuous feature based on the image recognition result of the image recognition step. And the point is to recognize the size .

この特徴構成によれば、自車両の周辺に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成の装置を用いて自車両周辺の障害物の安定的な認識を行うことができる。   According to this characteristic configuration, the obstacle existing around the host vehicle is recognized based on the image recognition result for the feature indicated in the feature information acquired from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it is possible to stably recognize obstacles around the host vehicle using an apparatus having a relatively simple configuration.

また、上記のように構成すれば、当該連続性のある地物の配置に応じて、障害物の配置を道路に沿って連続的に認識することが可能となる。したがって、自車両の周囲の障害物の配置をより詳しく認識することが可能となる。 Moreover, if comprised as mentioned above , according to the arrangement | positioning of the said continuous feature, it will become possible to recognize the arrangement | positioning of an obstacle continuously along a road. Therefore, it is possible to recognize the arrangement of obstacles around the host vehicle in more detail.

また、上記のように構成すれば、地物情報に基づいて連続性のある地物が画像認識されるべき位置にも関わらず、画像認識されない部分に障害物が存在するものとして、自車両の位置を基準として障害物の位置及び大きさを演算して認識することができる。したがって、障害物の存在状況をより詳細に認識することができる。 Further, if configured as described above, it is assumed that there is an obstacle in a portion where image recognition is not performed despite the position where the continuous feature should be image-recognized based on the feature information. The position and size of the obstacle can be calculated and recognized based on the position. Therefore, the presence state of the obstacle can be recognized in more detail.

ここで、自車両が走行中の車線である自車線を認識する自車線認識ステップを更に備え、前記地物情報取得ステップは、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、前記障害物認識ステップは、地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車線に隣接する車線上に障害物が存在すると認識する障害物認識ステップと、を備えると好適である。 Here, further comprising a self-lane recognition step recognizes the own lane on which the vehicle is in the lane during driving, the feature information acquiring step, before Symbol for feature located behind from the lane adjacent to the own lane The feature information is acquired from the database, and the obstacle recognition step is configured to recognize the image of all or a part of the feature for the feature to be included in the image information based on the feature information. It is preferable to include an obstacle recognition step of recognizing that an obstacle exists on the lane adjacent to the own lane when the step cannot be recognized .

の構成によれば、自車線に隣接する車線上に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成の装置を用いて自車線に隣接する車線上の障害物の安定的な認識を行うことができる。 According to configuration of this, the recognition of the obstacle existing on a lane adjacent to the own lane, will be performed based on the image recognition results for features shown in the feature information obtained from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it is possible to stably recognize an obstacle on the lane adjacent to the own lane using an apparatus having a relatively simple configuration.

1.第一の実施形態
まず、本発明の第一の実施形態について図面に基づいて説明する。本実施形態では、本発明に係る周辺状況認識装置1をナビゲーション装置2に適用した場合について説明する。図1は、本実施形態に係る周辺状況認識装置1の全体構成を模式的に示すブロック図である。本実施形態に係る周辺状況認識装置1は、地図データベースDBから取得した地物情報Fに基づいて、撮像装置4により撮像された画像情報Gに含まれている自車線Laの隣接車線Lbより奥に位置する区画線fa1の画像認識を行う(図7及び図8参照)。そして、画像情報Gに含まれているべき当該区画線fa1について画像認識できない部分がある場合に隣接車線Lb上に他の車両Cb等の障害物Bが存在すると認識する処理を行う。また、このような障害物Bの認識結果に基づいて、自車両Caの隣接車線Lbへの車線変更の可否を判定し、車線変更が必要な場合であって車線変更可能な場合にのみ運転者に対して車線変更を促すための案内を行う。
1. First Embodiment First, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case where the surrounding situation recognition device 1 according to the present invention is applied to a navigation device 2 will be described. FIG. 1 is a block diagram schematically showing the overall configuration of the surrounding situation recognition apparatus 1 according to the present embodiment. The surrounding situation recognition device 1 according to the present embodiment is located behind the adjacent lane Lb of the own lane La included in the image information G captured by the imaging device 4 based on the feature information F acquired from the map database DB. Image recognition of the lane marking fa1 located at is performed (see FIGS. 7 and 8). And when there exists a part which cannot recognize an image about the lane line fa1 which should be included in the image information G, a process of recognizing that an obstacle B such as another vehicle Cb exists on the adjacent lane Lb is performed. Further, based on the recognition result of the obstacle B, it is determined whether or not the lane change of the own vehicle Ca to the adjacent lane Lb is possible, and the driver only when the lane change is necessary and the lane change is possible. Guidance for urging to change lanes.

図1に示すように、この周辺状況認識装置1の各機能部、具体的には、画像情報取得部5、自車位置演算部6、地図情報取得部7、地物情報抽出部8、画像認識部9、障害物認識部10、ナビゲーション用演算部11、自車線認識部12、及び車線変更判定部13は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア(プログラム)或いはその両方により実装されて構成されている。また、地図データベースDBは、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。以下、各部の構成について詳細に説明する。   As shown in FIG. 1, each functional unit of the surrounding situation recognition device 1, specifically, an image information acquisition unit 5, a vehicle position calculation unit 6, a map information acquisition unit 7, a feature information extraction unit 8, an image The recognizing unit 9, the obstacle recognizing unit 10, the navigation calculating unit 11, the own lane recognizing unit 12, and the lane change determining unit 13 are various types of input data with an arithmetic processing unit such as a CPU as a core member. A functional unit for performing processing is implemented by hardware or software (program) or both. The map database DB is a device having a recording medium capable of storing information and its driving means, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, and a CD drive equipped with a CD-ROM. It is provided as a hardware configuration. Hereinafter, the configuration of each unit will be described in detail.

1−1.撮像装置4
撮像装置4は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置4は、自車両Caの周辺の少なくとも道路面を撮像可能に設けられている。本例では、図2に示すように、自車両Caは、撮像装置4として、その進行方向周辺を撮像可能なフロントカメラを備えている。図2中の一点鎖線は、この撮像装置4の撮像領域を示している。
1-1. Imaging device 4
The imaging device 4 includes an imaging device such as a CCD sensor or a CMOS sensor, and a lens that constitutes an optical system for guiding light to the imaging device. The imaging device 4 is provided so as to be capable of imaging at least a road surface around the host vehicle Ca. In this example, as shown in FIG. 2, the host vehicle Ca is provided with a front camera capable of imaging the periphery of the traveling direction as the imaging device 4. An alternate long and short dash line in FIG. 2 indicates an imaging region of the imaging device 4.

1−2.画像情報取得部5
画像情報取得部5は、撮像装置4により撮像した画像情報Gを取得する画像情報取得手段として機能する。ここでは、画像情報取得部5は、撮像装置4により撮像したアナログの撮像情報を所定の時間間隔で取り込み、デジタル信号の画像情報Gに変換して画像メモリ21に格納する。この際の画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部5は、自車両Caの周辺を撮像した複数フレームの画像情報Gをほぼ連続的に取得することができる。一旦画像メモリ21に格納された画像情報Gは、画像認識部9及び自車線認識部12へ出力される。
1-2. Image information acquisition unit 5
The image information acquisition unit 5 functions as an image information acquisition unit that acquires image information G captured by the imaging device 4. Here, the image information acquisition unit 5 takes in analog imaging information imaged by the imaging device 4 at a predetermined time interval, converts it into image information G of a digital signal, and stores it in the image memory 21. The time interval for capturing the image information G at this time can be set to, for example, about 10 to 50 ms. Thereby, the image information acquisition part 5 can acquire the image information G of the several frames which imaged the periphery of the own vehicle Ca substantially continuously. The image information G once stored in the image memory 21 is output to the image recognition unit 9 and the own lane recognition unit 12.

1−3.自車位置演算部6
自車位置演算部6は、自車両Caの現在位置を示す自車位置情報Sを取得する自車位置情報取得手段として機能する。ここでは、自車位置演算部6は、GPS受信機22、方位センサ23、及び車速センサ24と接続されている。ここで、GPS受信機22は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置演算部6へ出力される。自車位置演算部6では、GPS受信機22で受信されたGPS衛星からの信号を解析し、自車の位置(緯度及び経度)、進行方位、移動速度等の情報を取得することができる。方位センサ23は、自車両Caの進行方位又はその進行方位の変化を検出するセンサである。この方位センサ23は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。そして、方位センサ23は、その検出結果を自車位置演算部6へ出力する。車速センサ24は、自車両Caの車速や移動距離を検出するセンサである。この車速センサ24は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Caの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。そして、車速センサ24は、その検出結果としての車速情報を自車位置演算部6へ出力する。
1-3. Own vehicle position calculation unit 6
The own vehicle position calculation unit 6 functions as own vehicle position information acquisition means for acquiring own vehicle position information S indicating the current position of the own vehicle Ca. Here, the vehicle position calculation unit 6 is connected to the GPS receiver 22, the direction sensor 23, and the vehicle speed sensor 24. Here, the GPS receiver 22 is a device that receives GPS signals from GPS (Global Positioning System) satellites. This GPS signal is normally received every second and output to the vehicle position calculation unit 6. The own vehicle position calculation unit 6 can analyze the signal from the GPS satellite received by the GPS receiver 22 and acquire information such as the position (latitude and longitude), the traveling direction, and the moving speed of the own vehicle. The direction sensor 23 is a sensor that detects the traveling direction of the host vehicle Ca or a change in the traveling direction. The azimuth sensor 23 includes, for example, a gyro sensor, a geomagnetic sensor, an optical rotation sensor attached to the rotating part of the handle, a rotary resistance volume, an angle sensor attached to the wheel part, and the like. Then, the direction sensor 23 outputs the detection result to the vehicle position calculation unit 6. The vehicle speed sensor 24 is a sensor that detects the vehicle speed and movement distance of the host vehicle Ca. The vehicle speed sensor 24 is, for example, a vehicle speed pulse sensor that outputs a pulse signal every time a drive shaft or wheel of the vehicle rotates by a certain amount, a yaw / G sensor that detects the acceleration of the host vehicle Ca, and an integration of the detected acceleration. Configured by a circuit or the like. Then, the vehicle speed sensor 24 outputs vehicle speed information as the detection result to the vehicle position calculation unit 6.

そして、自車位置演算部6は、これらのGPS受信機22、方位センサ23及び車速センサ24からの出力に基づいて、公知の方法により自車両Caの現在位置を特定する演算を行う。また、自車位置演算部6は、地図データベースDBから自車位置周辺の地図情報Eを取得し、それに基づいて公知のマップマッチングを行うことにより自車両Caの現在位置を地図情報Eに示される道路上とする補正も行う。そして、この自車位置演算部6は、演算結果である自車両Caの現在位置の情報を自車位置情報Sとして地図情報取得部7、地物情報抽出部8、自車線認識部12、及びナビゲーション用演算部11へ出力する。この際、自車位置情報Sは、例えば、緯度及び経度で表された位置の情報として表される。なお、自車位置情報Sは、道路に沿った方向の自車両Caの位置を示しているが、道路が複数車線を有する場合に、自車両Caが走行している自車線Laを特定することができるほど詳細な情報とはなっていない。   And the own vehicle position calculating part 6 performs the calculation which pinpoints the present position of the own vehicle Ca by a well-known method based on the output from these GPS receiver 22, the direction sensor 23, and the vehicle speed sensor 24. FIG. In addition, the vehicle position calculation unit 6 acquires the map information E around the vehicle position from the map database DB, and performs the known map matching based on the map information E to indicate the current position of the vehicle vehicle Ca in the map information E. Correction on the road is also performed. And the own vehicle position calculation unit 6 uses the current position information of the own vehicle Ca as the calculation result as the own vehicle position information S, the map information acquisition unit 7, the feature information extraction unit 8, the own lane recognition unit 12, and It outputs to the calculation part 11 for navigation. At this time, the vehicle position information S is represented as position information represented by latitude and longitude, for example. The own vehicle position information S indicates the position of the own vehicle Ca in the direction along the road, but when the road has a plurality of lanes, the own vehicle La that the own vehicle Ca is traveling is specified. It's not as detailed as it can.

1−4.地図データベースDB
地図データベースDBは、各地の地図情報を格納したデータベースである。図3は、地図データベースDBに格納されている地図情報Eの内容を示す説明図である。この図に示すように、地図データベースDBには、道路ネットワークレイヤX1、道路形状レイヤX2、地物レイヤX3が格納されており、これらにより地図情報Eが構成されている。
1-4. Map database DB
The map database DB is a database that stores map information of various locations. FIG. 3 is an explanatory diagram showing the contents of the map information E stored in the map database DB. As shown in this figure, the map database DB stores a road network layer X1, a road shape layer X2, and a feature layer X3, and these constitute map information E.

道路ネットワークレイヤX1は、道路間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。   The road network layer X1 is a layer indicating connection information between roads. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L constituting the road by connecting the two nodes N. It is configured. Each link L includes information such as the type of road (type of highway, toll road, national road, prefectural road, etc.) and link length as link information.

道路形状レイヤX2は、道路ネットワークレイヤX1に関連付けられて格納され、道路の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。   The road shape layer X2 is stored in association with the road network layer X1 and indicates the shape of the road. Specifically, information on a number of road shape complementary points S that are located between two nodes N (on the link L) and have position information on the map expressed in latitude and longitude, and each road shape complementary point Information of the road width W in S.

地物レイヤX3は、道路ネットワークレイヤX1及び道路形状レイヤX2に関連付けられて格納され、道路上及び道路の周辺に設けられた各種地物fの情報、すなわち地物情報Fが記録されているレイヤである。この地物レイヤX3に地物情報Fが格納される地物fは、ペイント系の地物fと立体系の地物fとに大別される。ペイント系の地物fとしては、例えば、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示、横断歩道、停止線、速度表示、ゼブラゾーン等の道路面上に設けられる各種の道路標示が含まれる。また、立体系の地物fとしては、例えば、道路の両側に沿って設けられる縁石、ガードレール、各種の標識、信号機等の道路上又は道路の周辺に設けられる各種の立体物が含まれる。   The feature layer X3 is stored in association with the road network layer X1 and the road shape layer X2, and is a layer in which information of various features f provided on the road and in the vicinity of the road, that is, the feature information F is recorded. It is. The feature f in which the feature information F is stored in the feature layer X3 is roughly classified into a paint-type feature f and a three-dimensional feature f. Examples of the paint features f include, for example, lane lines that divide the lane along the road (including various lane lines such as a solid line, a broken line, and a double line), and traffic according to the traveling direction that specifies the traveling direction of each lane. Various road markings provided on the road surface such as section markings, pedestrian crossings, stop lines, speed indications, and zebra zones are included. The three-dimensional feature f includes, for example, various solid objects provided on or around the road such as curbs, guardrails, various signs, and traffic lights provided along both sides of the road.

また、地物情報Fは、その内容として各地物fの配置情報、種別情報、形態情報を含んでいる。ここで、配置情報は、各地物fの地図上の位置(緯度及び経度)及び方向の情報を含んでいる。種別情報は、各地物fの種別を示す情報であって、具体的には、「区画線(実線、破線、二重線等の線種も含む)」、「進行方向別通行区分標示」、「横断歩道」等の道路標示種別、「縁石」、「ガードレール」、「信号機」等の地物f自体の種別、「一時停止」、「駐車禁止標識」等の標識種別などの情報が含まれる。形態情報は、各地物fの特徴的な形状や色彩等の情報の他、立体系の地物fの場合には道路面からの高さの情報も含んでいる。   The feature information F includes the arrangement information, type information, and form information of each feature f as its contents. Here, the arrangement information includes information on the position (latitude and longitude) and direction of the feature f on the map. The type information is information indicating the type of each feature f, and specifically includes “division lines (including line types such as solid lines, broken lines, and double lines)”, “traveling direction markings according to traveling direction”, Includes information such as the type of road marking such as “pedestrian crossing”, the type of feature f itself such as “curbstone”, “guardrail”, and “traffic light”, and the type of sign such as “temporary stop” and “parking prohibition sign”. . In addition to information on the characteristic shape and color of each feature f, the form information includes height information from the road surface in the case of a three-dimensional feature f.

1−5.地図情報取得部7
地図情報取得部7は、自車位置演算部6から出力される自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する。そして、地図情報取得部7は、自車位置演算部6、地物情報抽出部8、自車線認識部12、及びナビゲーション用演算部11に地図情報Eを出力する。この際、地図情報取得部7が地図情報Eを取得する範囲は、地図情報Eの出力先により異なる。すなわち、地図情報取得部7は、出力先において必要とする地図情報Eの範囲に応じた範囲の地図情報Eを取得して出力する。例えば、自車位置演算部6でのマップマッチングや、自車線認識部12での自車線認識のためには、自車両Ca周辺の比較的狭い範囲の地図情報Eが用いられる。一方、ナビゲーション用演算部11による表示部27への地図表示のためには、表示縮尺に応じて比較的広い範囲の地図情報Eが用いられる。地図情報取得部7は、これらの用途に応じて必要な地図情報Eを取得して出力する。
1-5. Map information acquisition unit 7
The map information acquisition unit 7 acquires map information E around the host vehicle Ca from the map database DB based on the host vehicle position information S output from the host vehicle position calculation unit 6. Then, the map information acquisition unit 7 outputs the map information E to the own vehicle position calculation unit 6, the feature information extraction unit 8, the own lane recognition unit 12, and the navigation calculation unit 11. At this time, the range in which the map information acquisition unit 7 acquires the map information E differs depending on the output destination of the map information E. That is, the map information acquisition unit 7 acquires and outputs the map information E in a range corresponding to the range of the map information E required at the output destination. For example, map information E in a relatively narrow range around the host vehicle Ca is used for map matching in the host vehicle position calculation unit 6 and host lane recognition in the host lane recognition unit 12. On the other hand, for the map display on the display unit 27 by the navigation calculation unit 11, a relatively wide range of map information E is used according to the display scale. The map information acquisition unit 7 acquires and outputs necessary map information E according to these uses.

1−6.自車線認識部12
自車線認識部12は、自車両Caが走行中の車線である自車線Laを認識する自車線認識手段として機能する。ここでは、自車線認識部12は、撮像装置4により撮像された画像情報Gの画像認識を行い、その画像認識結果と自車位置情報Sに示される自車位置の周辺の地図情報Eとを対比することにより、自車線Laの認識を行う。例えば、図4に示すような画像情報Gが取得された場合において、図5に示すような自車両Ca周辺の地図情報Eが取得された場合には、自車線Laは、3車線の中の中央車線であると認識することができる。すなわち、図4に示す画像情報Gに示される画像中では、自車両Caの位置である画像の幅方向中央に対して両側に破線の区画線fa2、fa3が位置しており、更にその両外側にそれぞれ実線の区画線fa1、fa4が位置している。一方、図5に示す地図情報Eによれば、自車両Caが走行している道路は3車線であり、道路の幅方向両側には実線の区画線の地物情報Fa1、Fa4、道路の幅方向中央側には各車線を区切る破線の区画線の地物情報Fa2、Fa3が位置していることがわかる。したがって、自車線認識部12は、これらの情報を対比することにより、自車線Laが3車線の中の中央車線であると認識することができる。また、自車線認識部12は、自車両Caの走行に従ってこのような自車線Laの認識を連続的に行い、その情報を蓄積することにより、自車線Laの認識精度を高める処理も行う。自車線認識部12は、自車線Laの認識結果の情報を、地物情報抽出部8及びナビゲーション用演算部11へ出力する。
1-6. Own lane recognition unit 12
The own lane recognition unit 12 functions as own lane recognition means for recognizing the own lane La that is the lane in which the own vehicle Ca is traveling. Here, the own lane recognition unit 12 performs image recognition of the image information G imaged by the imaging device 4, and obtains the image recognition result and the map information E around the own vehicle position indicated by the own vehicle position information S. By comparing, the own lane La is recognized. For example, when the image information G as shown in FIG. 4 is acquired, and the map information E around the host vehicle Ca as shown in FIG. 5 is acquired, the host lane La is one of the three lanes. It can be recognized as a center lane. In other words, in the image shown in the image information G shown in FIG. 4, the broken lane markings fa2 and fa3 are located on both sides with respect to the center in the width direction of the image, which is the position of the host vehicle Ca, and further on both sides thereof. Solid line dividing lines fa1 and fa4 are located respectively. On the other hand, according to the map information E shown in FIG. 5, the road on which the host vehicle Ca is traveling is three lanes, and the feature information Fa1 and Fa4 of the solid line on the both sides in the width direction of the road, the width of the road It can be seen that the feature information Fa2 and Fa3 of the broken lane markings that divide each lane are located on the center side in the direction. Therefore, the own lane recognition unit 12 can recognize that the own lane La is the central lane among the three lanes by comparing these pieces of information. In addition, the own lane recognition unit 12 continuously recognizes the own lane La according to the traveling of the own vehicle Ca and accumulates the information, thereby performing a process of increasing the recognition accuracy of the own lane La. The own lane recognition unit 12 outputs information of the recognition result of the own lane La to the feature information extraction unit 8 and the navigation calculation unit 11.

1−7.地物情報抽出部8
地物情報抽出部8は、画像認識部9において画像認識を行う自車両Ca周辺の地物fについての地物情報Fを地図情報Eから抽出する地物情報抽出手段として機能する。したがって、本実施形態においては、地図情報取得部7及び地物情報抽出部8により、地物情報取得手段17が構成される。ここでは、地物情報抽出部8は、自車位置情報S、自車線認識部12による自車線Laの認識結果の情報、及び後述するナビゲーション用演算部11から出力される車線変更要求情報に基づいて、自車線Laに対して車線変更要求情報が示す車線変更方向側に隣接する隣接車線Lbより奥に位置する地物fについての地物情報Fを地図情報Eから抽出して取得する。ここで、隣接車線Lbより奥に位置する地物fとは、当該隣接車線Lbよりも更に車線変更方向側(右側又は左側)に位置する地物fとなる。この際、地物情報抽出部8は、道路に沿って配置された連続性のある地物fについての地物情報Fを抽出する。ここで、このような連続性のある地物fとしては、道路面上に設けられた実線又は破線の区画線faや道路に沿って配置された縁石fb等が好適であり、本例では、区画線faについての地物情報Fを抽出する。なお、「fa」の符号は、「fa1」〜「fa4」等の各種区画線を総称する符号として用いている。
1-7. Feature information extraction unit 8
The feature information extraction unit 8 functions as a feature information extraction unit that extracts, from the map information E, the feature information F about the feature f around the host vehicle Ca that is image-recognized by the image recognition unit 9. Therefore, in the present embodiment, the map information acquisition unit 7 and the feature information extraction unit 8 constitute a feature information acquisition unit 17. Here, the feature information extraction unit 8 is based on the own vehicle position information S, the information on the recognition result of the own lane La by the own lane recognition unit 12, and the lane change request information output from the navigation calculation unit 11 described later. Then, the feature information F about the feature f located behind the adjacent lane Lb adjacent to the lane change direction indicated by the lane change request information with respect to the own lane La is extracted from the map information E and acquired. Here, the feature f located behind the adjacent lane Lb is a feature f located further on the lane change direction side (right side or left side) than the adjacent lane Lb. At this time, the feature information extraction unit 8 extracts the feature information F about the continuous feature f arranged along the road. Here, as such a continuous feature f, a solid line or a broken demarcation line fa provided on the road surface, a curb fb arranged along the road, and the like are preferable. The feature information F about the lane marking fa is extracted. Note that the symbol “fa” is used as a generic symbol for various lane markings such as “fa1” to “fa4”.

ここでは一例として、図6に示す地図情報Eから、地物情報抽出部8により地物情報Fを抽出する処理について説明する。図6において、符号「Ca´」は、自車位置情報S及び自車線認識部12による自車線Laの認識結果の情報に示される自車両Caの位置を示している。この図に示すように、本例では、自車線Laは3車線の中の中央車線である。また、ナビゲーション用演算部11からの車線変更要求情報は、右車線への変更要求を示しているものとする。この場合、地物情報抽出部8は、自車線Laの右側の隣接車線(右車線)Lbより奥(右側)に位置する実線の区画線(車道中央線)fa1の地物情報Fa1を抽出する。本例では、地図情報取得部7から地物情報抽出部8へ出力される地図情報Eは、撮像装置4による撮像領域にほぼ一致する範囲の情報とされている。なお、撮像装置4による撮像領域は、自車両Caにおける撮像装置4の搭載位置、撮像方向、撮像画角等に基づいて予め定まっている。この地物情報抽出部8により抽出された地物情報Fは、画像認識部9へ出力される。   Here, as an example, processing for extracting the feature information F by the feature information extraction unit 8 from the map information E shown in FIG. 6 will be described. In FIG. 6, the symbol “Ca ′” indicates the position of the host vehicle Ca indicated by the host vehicle position information S and the information on the recognition result of the host lane La by the host lane recognition unit 12. As shown in this figure, in this example, the own lane La is a central lane among the three lanes. Further, it is assumed that the lane change request information from the navigation calculation unit 11 indicates a change request to the right lane. In this case, the feature information extraction unit 8 extracts the feature information Fa1 of the solid lane line (roadway center line) fa1 located behind (right side) the adjacent lane (right lane) Lb on the right side of the own lane La. . In this example, the map information E output from the map information acquisition unit 7 to the feature information extraction unit 8 is information in a range that substantially matches the imaging region of the imaging device 4. In addition, the imaging area by the imaging device 4 is determined in advance based on the mounting position of the imaging device 4 in the host vehicle Ca, the imaging direction, the imaging angle of view, and the like. The feature information F extracted by the feature information extraction unit 8 is output to the image recognition unit 9.

また、地物情報抽出部8は、地図情報Eから、自車両Ca周辺の連続性のある地物f、本例では、自車線La及び隣接車線Lbを特定するための区画線fa1〜fa4の地物情報Fa1〜Fa4を抽出し、障害物認識部10の配置認識部26へ出力する。配置認識部26では、これらの地物情報Fに基づいて、自車線Laと隣接車線Lbとの位置関係の認識を行う。   In addition, the feature information extraction unit 8 determines, from the map information E, the continuation feature f around the host vehicle Ca, in this example, the lane lines fa1 to fa4 for identifying the host lane La and the adjacent lane Lb. The feature information Fa1 to Fa4 is extracted and output to the arrangement recognition unit 26 of the obstacle recognition unit 10. The arrangement recognition unit 26 recognizes the positional relationship between the own lane La and the adjacent lane Lb based on the feature information F.

1−8.画像認識部9
画像認識部9は、地物情報抽出部8から出力された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う画像認識手段として機能する。具体的には、画像認識部9は、まず、画像情報Gに対する二値化処理やエッジ検出処理等による輪郭抽出を用いて区画線fa等の道路標示(ペイント)の画像を抽出する。その後、画像認識部9は、地物情報抽出部8から出力された地物情報Fに示される地物fの位置及び形状等の情報に基づいて、画像情報G中における当該地物fの画像の配置を特定し、当該地物fの画像認識を行う。本例では、地物情報抽出部8から出力された地物情報Fに示される地物fは、自車線Laの右側の隣接車線(右車線)Lbより奥(右側)に位置する実線の区画線(車道中央線)fa1である。図7及び図8に、各状況で取得された画像情報G及びその画像情報Gの画像認識部9による認識結果の例を示す。図7は、(a)に示すように周囲に他の車両Cb等の障害物Bが存在しない状況で撮像された(b)画像情報Gと(c)その認識結果を示している。図8は、(a)に示すように自車線Laの右側の隣接車線Lbに他の車両Cbが存在する状況で撮像された(b)画像情報Gと(c)その認識結果を示している。
1-8. Image recognition unit 9
The image recognition unit 9 functions as an image recognition unit that performs image recognition of the feature f included in the image information G based on the feature information F output from the feature information extraction unit 8. Specifically, the image recognition unit 9 first extracts an image of a road marking (paint) such as a lane marking fa using a contour extraction by binarization processing, edge detection processing, or the like on the image information G. Thereafter, the image recognizing unit 9 determines the image of the feature f in the image information G based on information such as the position and shape of the feature f indicated in the feature information F output from the feature information extracting unit 8. Is identified, and image recognition of the feature f is performed. In this example, the feature f shown in the feature information F output from the feature information extraction unit 8 is a solid line section located at the back (right side) of the adjacent lane (right lane) Lb on the right side of the own lane La. It is a line (roadway center line) fa1. 7 and 8 show examples of the image information G acquired in each situation and the recognition result of the image information G by the image recognition unit 9. FIG. 7 shows (b) image information G and (c) the recognition result taken in a situation where there is no obstacle B such as another vehicle Cb around as shown in (a). FIG. 8 shows (b) image information G and (c) the recognition result taken in a situation where another vehicle Cb exists in the adjacent lane Lb on the right side of the own lane La as shown in (a). .

図7(a)に示すように、自車線Laの右側の隣接車線Lbに障害物Bが存在しない場合には、図7(b)に示すように、画像情報Gには、この画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部(区画線fa1の画像情報Gに含まれているべき部分の内の全部)が撮像されていることになる。したがって、画像認識部9は、図7(c)に示すように、画像認識部9は、前記区画線fa1の全部の画像を認識することができる。一方、図8(a)に示すように、自車線Laの右側の隣接車線Lbに他の車両Cb等の障害物Bが存在する場合には、図8(b)に示すように、画像情報Gには、この画像情報Gに含まれているべき前記区画線fa1の一部が当該障害物Bの背後に隠れて撮像できないことになる。したがって、図8(c)に示すように、画像認識部9は、前記区画線fa1の画像の一部を認識することができず、前記区画線fa1の画像を断続的に認識することになる。そして、これら図7(c)又は図8(c)のような画像認識部9による画像認識結果の情報が、障害物認識部10へ出力される。   As shown in FIG. 7A, when there is no obstacle B in the adjacent lane Lb on the right side of the own lane La, the image information G includes the image information G as shown in FIG. That all of the solid lane line fa1 located behind the right adjacent lane Lb that should be included in the image (all of the portions that should be included in the image information G of the lane line fa1) are captured. Become. Therefore, as shown in FIG. 7C, the image recognition unit 9 can recognize all the images of the lane marking fa1. On the other hand, as shown in FIG. 8A, when there is an obstacle B such as another vehicle Cb in the adjacent lane Lb on the right side of the own lane La, the image information is displayed as shown in FIG. In G, a part of the lane marking fa1 that should be included in the image information G is hidden behind the obstacle B and cannot be imaged. Therefore, as shown in FIG. 8C, the image recognizing unit 9 cannot recognize a part of the image of the lane marking fa1, and intermittently recognizes the image of the lane marking fa1. . Then, information of the image recognition result by the image recognition unit 9 as shown in FIG. 7C or FIG. 8C is output to the obstacle recognition unit 10.

1−9.障害物認識部10
障害物認識部10は、画像認識部9による画像認識結果に基づいて、自車両Caの周辺における障害物Bの存在状況を認識する障害物認識手段として機能する。本実施形態においては、障害物認識部10は、自車線Laに隣接する隣接車線Lb上における障害物Bの存在状況を認識する。すなわち、ここでは、障害物認識部10は、地物情報抽出部8から出力された地物情報Fに基づいて画像情報Gに含まれているべき地物fについて、当該地物fの全部又は一部の画像が画像認識部9により認識できない場合に、自車線Laに隣接する車線Lb上に障害物Bが存在すると認識する。ここで、地物情報Fに基づいて画像情報Gに含まれているべき地物fとは、地物情報抽出部8により地物情報Fが抽出された地物fであって撮像装置4による画像情報Gの撮像領域内に含まれている地物f(全体又は部分)である。また、このような地物fが、画像認識部9による画像認識の対象となる。本例では、この地物fは、上記のとおり、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1である。
1-9. Obstacle recognition unit 10
The obstacle recognizing unit 10 functions as an obstacle recognizing unit that recognizes the presence state of the obstacle B around the host vehicle Ca based on the image recognition result by the image recognizing unit 9. In the present embodiment, the obstacle recognition unit 10 recognizes the presence state of the obstacle B on the adjacent lane Lb adjacent to the own lane La. In other words, here, the obstacle recognizing unit 10 selects all of the features f or the features f to be included in the image information G based on the feature information F output from the feature information extracting unit 8. When some images cannot be recognized by the image recognition unit 9, it is recognized that the obstacle B exists on the lane Lb adjacent to the own lane La. Here, the feature f to be included in the image information G based on the feature information F is the feature f from which the feature information F has been extracted by the feature information extraction unit 8, and is determined by the imaging device 4. It is the feature f (whole or part) included in the imaging region of the image information G. Such a feature f is a target of image recognition by the image recognition unit 9. In this example, the feature f is a solid lane line fa1 located behind the adjacent lane Lb on the right side of the own lane La as described above.

そして、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在する場合には、前記実線の区画線fa1の全部又は一部が当該障害物Bの背後に隠れて画像認識できないことを利用して、間接的に障害物Bの認識を行う。具体的には、図7(c)に示すように、画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部の画像を画像認識部9により認識できた場合には、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在しないと認識する。一方、図8(c)に示すように、画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部又は一部の画像を画像認識部9により認識できなかった場合には、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在すると認識する。すなわち、この障害物認識部10は、他の車両Cb等の障害物Bを直接的に画像認識して障害物Bの認識を行うのではなく、当該障害物Bが存在する場合に背後に隠れることになる区画線fa1等の画像認識が容易な地物fの画像認識結果を用いて間接的に障害物認識を行う。ここで、区画線faは、位置、形状、色彩等が予め特定されており、更に、その周囲や背後に道路面以外の雑多なものが撮像されることが少なく、また道路面との色彩の差も大きい。そのため、各種の形状や色彩を持った車両等の障害物Bを画像認識する場合と比較して画像認識が容易であり、周辺に存在するノイズ成分となり得るものの影響も受け難い。したがって、このような区画線faの画像認識結果を用いて間接的に障害物認識を行うことで、障害物認識の安定性を高めることができる。   Then, when the obstacle B is present on the adjacent lane Lb on the right side of the own lane La, the obstacle recognizing unit 10 hides all or part of the lane marking fa1 of the solid line behind the obstacle B. The obstacle B is indirectly recognized using the fact that the image cannot be recognized. Specifically, as shown in FIG. 7C, the image recognition unit 9 recognizes all images of the solid lane marking fa <b> 1 located behind the right adjacent lane Lb that should be included in the image information G. If it is possible, the obstacle recognition unit 10 recognizes that the obstacle B does not exist on the adjacent lane Lb on the right side of the own lane La. On the other hand, as shown in FIG. 8C, the image recognition unit 9 recognizes all or a part of the image of the solid lane line fa1 located behind the right adjacent lane Lb that should be included in the image information G. When the obstacle cannot be recognized, the obstacle recognition unit 10 recognizes that the obstacle B exists on the adjacent lane Lb on the right side of the own lane La. That is, the obstacle recognition unit 10 does not recognize the obstacle B by directly recognizing the obstacle B such as another vehicle Cb, but hides behind the obstacle B when the obstacle B exists. Obstacle recognition is indirectly performed using the image recognition result of the feature f that is easy to recognize, such as the lane marking fa1. Here, the position, shape, color, and the like of the lane marking fa are specified in advance, and it is unlikely that various things other than the road surface are imaged around and behind the lane line fa. The difference is also great. Therefore, image recognition is easier than in the case of recognizing an obstacle B such as a vehicle having various shapes and colors, and is less susceptible to noise components that may be present in the vicinity. Therefore, the obstacle recognition stability can be improved by indirectly performing the obstacle recognition using the image recognition result of the lane marking fa.

また、本実施形態においては、障害物認識部10は、連続性のある地物fについての認識率を判定する認識率判定部25を備えている。そして、上記のような障害物Bが存在するか否かの認識を、認識率判定部25により判定される認識率に基づいて行う。これは、区画線fa1等の画像情報Gに含まれているべき地物fの一部が画像認識できない場合であっても、それが障害物Bの存在に起因するものでない場合が有り得ることを考慮して障害物Bの認識を行うことで、その認識精度を高めるためである。すなわち、現実には、障害物Bが存在しない場合であっても、画像認識の対象となる地物fの汚れやかすれ等、或いは画像認識の際の誤差等の各種の要因により、当該地物fの全部が完全に認識できない場合があり得る。そこで、これらの要因を考慮して、障害物認識部10は、認識率判定部25により判定される認識率が所定の閾値未満である場合に、障害物Bが存在すると認識する処理を行う。   In the present embodiment, the obstacle recognition unit 10 includes a recognition rate determination unit 25 that determines a recognition rate for a continuous feature f. And recognition of whether the above obstacles B exist is performed based on the recognition rate determined by the recognition rate determination part 25. FIG. This is because even if a part of the feature f that should be included in the image information G such as the lane marking fa1 cannot be recognized, it may not be caused by the presence of the obstacle B. This is to increase the recognition accuracy by recognizing the obstacle B in consideration. That is, in reality, even if the obstacle B does not exist, the feature is affected by various factors such as dirt and faintness of the feature f to be image-recognized or an error in image recognition. There is a case where all of f cannot be completely recognized. Accordingly, in consideration of these factors, the obstacle recognition unit 10 performs a process of recognizing that the obstacle B exists when the recognition rate determined by the recognition rate determination unit 25 is less than a predetermined threshold.

ここでは、認識率は、認識対象である連続性のある地物fの画像情報Gに含まれているべき部分の内の全部が完全に画像認識されている場合を100〔%〕とし、画像認識できた部分の面積比を百分率で表すものとする。そして、例えば、地物fの汚れやかすれ等、或いは画像認識の際の誤差等の各種の要因により認識率が低下し得る範囲を10〔%〕に設定した場合、障害物Bが存在すると認識する認識率の閾値は90〔%〕となる。したがって、例えば、図7(c)に示す画像認識結果に基づく区画線fa1の認識率が95〔%〕であり、図8(c)に示す画像認識結果に基づく区画線fa1の認識率が40〔%〕である場合、障害物認識部10は、図7(c)の場合は障害物Bが存在しないと認識し、図8(c)の場合は障害物Bが存在すると認識する(図11参照)。   Here, the recognition rate is 100 [%] when all of the portions that should be included in the image information G of the continuous feature f that is the recognition target are completely recognized. The area ratio of the recognized part is expressed as a percentage. For example, when the range in which the recognition rate can be lowered due to various factors such as dirt or fading of the feature f or an error in image recognition is set to 10%, it is recognized that the obstacle B exists. The threshold for the recognition rate to be 90%. Therefore, for example, the recognition rate of the lane marking fa1 based on the image recognition result shown in FIG. 7C is 95 [%], and the recognition rate of the lane marking fa1 based on the image recognition result shown in FIG. In the case of [%], the obstacle recognition unit 10 recognizes that the obstacle B does not exist in the case of FIG. 7C, and recognizes that the obstacle B exists in the case of FIG. 11).

更に、障害物認識部10は配置認識部26を備えている。この配置認識部26は、地物情報Fに基づく連続性のある地物fの自車両Caを基準とした配置と、画像認識結果に基づく連続性のある地物fの認識できない部分の配置とに基づいて、障害物Bの位置及び大きさを認識する処理を行う。図9は、本例における配置認識部26により行う障害物Bの位置及び大きさを認識する処理の説明図である。この図では、図8(a)に示す状況と同様に、自車線Laの右側の隣接車線Lbより奥に位置する地物fが実線の区画線fa1であり、当該右側の隣接車線Lb上に他の車両Cbが存在する状況をとなっている。この場合、配置認識部26には、画像認識部9による画像認識結果の情報として、図9に示すように、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1の認識結果の情報が入力されている。また、配置認識部26には、地物情報抽出部8からの地物情報Fとして、区画線fa1〜fa4の地物情報Fa1〜Fa4が入力されている。   Further, the obstacle recognition unit 10 includes an arrangement recognition unit 26. The arrangement recognizing unit 26 arranges the continuous feature f based on the feature information F with reference to the own vehicle Ca, and the arrangement of the unrecognizable portion of the continuous feature f based on the image recognition result. Based on the above, a process for recognizing the position and size of the obstacle B is performed. FIG. 9 is an explanatory diagram of processing for recognizing the position and size of the obstacle B performed by the arrangement recognition unit 26 in this example. In this figure, as in the situation shown in FIG. 8A, the feature f located behind the adjacent lane Lb on the right side of the own lane La is a solid lane line fa1, and is on the adjacent lane Lb on the right side. The situation is that there is another vehicle Cb. In this case, the arrangement recognizing unit 26 recognizes, as the information of the image recognition result by the image recognizing unit 9, a solid line lane line fa1 located behind the adjacent lane Lb on the right side of the own lane La as shown in FIG. Result information is entered. Further, the feature information Fa1 to Fa4 of the lane markings fa1 to fa4 is input to the arrangement recognition unit 26 as the feature information F from the feature information extraction unit 8.

そして、配置認識部26は、これらの地物情報F(Fa1〜Fa4)と画像認識結果に基づいて、障害物Bが存在すると推測される位置及び大きさを示す障害物領域Bcを導出する。そのため、配置認識部26は、まず、画像認識部9による画像認識結果に基づいて、自車両Caの中央を基準位置P0として、区画線fa1の認識できない部分の始端P1と終端P2とのなす角度θ1及び区画線fa1上における自車両Caの進行方向位置P3と始点P1とのなす角度θ2を導出する。ここで、区画線fa1上における自車両Caの進行方向位置P3は、基準位置P0を通り自車両Caの進行方向に直交する線と区画線fa1との交点としている。また、ここでは、始端P1、終端P2及び進行方向位置P3は、区画線fa1の中心線上の点としている。そして、角度θ1は、基準位置P0と区画線fa1との距離W、区画線fa1の認識できない部分の始端P1から終端P2までの長さL1、及び区画線fa1上における自車両Caの進行方向位置P3から始点P1までの長さL2に基づいて、下記の式(1)により演算して導出する。
θ1=tan−1〔(W×L1)/{W×W+L2×(L1+L2)}〕・・・(1)
また、角度θ2は、下記の式(2)により演算して導出する。
θ2=tan−1(L2/W)・・・(2)
And the arrangement | positioning recognition part 26 derives | leads-out the obstruction area | region Bc which shows the position and magnitude | size estimated that the obstruction B exists based on these feature information F (Fa1-Fa4) and an image recognition result. Therefore, the arrangement recognizing unit 26 first determines the angle formed by the start end P1 and the end P2 of the unrecognizable part of the lane marking fa1 with the center of the host vehicle Ca as the reference position P0 based on the image recognition result by the image recognizing unit 9. An angle θ2 formed by θ1 and the position P3 in the traveling direction of the host vehicle Ca on the lane line fa1 and the start point P1 is derived. Here, the traveling direction position P3 of the host vehicle Ca on the lane marking fa1 is an intersection of a line passing through the reference position P0 and orthogonal to the traveling direction of the host vehicle Ca and the lane marking fa1. Here, the start end P1, the end point P2, and the traveling direction position P3 are points on the center line of the demarcation line fa1. The angle θ1 is the distance W between the reference position P0 and the lane line fa1, the length L1 from the start end P1 to the end point P2 of the unrecognizable part of the lane line fa1, and the traveling direction position of the host vehicle Ca on the lane line fa1. Based on the length L2 from P3 to the starting point P1, it is calculated and derived by the following equation (1).
θ1 = tan−1 [(W × L1) / {W × W + L2 × (L1 + L2)}] (1)
Further, the angle θ2 is calculated and derived by the following equation (2).
θ2 = tan−1 (L2 / W) (2)

そして、配置認識部26は、図9に示すように、角度θ1及び角度θ2と、区画線fa1〜fa4の地物情報Fa1〜Fa4により特定される自車線La及び隣接車線Lbの配置とに基づいて障害物領域Bcを導出する。この障害物領域Bcの導出は、例えば、角度θ1及び角度θ2の値に応じて障害物領域Bcの位置及び大きさを予め規定した障害物テーブルに基づいて行う。この障害物テーブルは、例えば、障害物Bを、隣接車線Lb上のほぼ中央付近に位置する車両と仮定すれば、各種車両の幅及び長さの統計的データを用いて規定することができる。すなわち、角度θ1と角度θ2の値、及び自車線Laと隣接車線Lbの配置関係により、角度θ1の範囲内であって且つ隣接車線Lb内が障害物Bとしての車両が存在する領域として規定される。そこで、各種車両の幅及び長さの統計的データを用いて、この領域内に収まる適切な幅及び長さの車両に相当する大きさの矩形領域を障害物領域Bcとして規定することができる。この障害物テーブルは、これを様々な角度θ1及び角度θ2について行い、予めテーブル化したものである。   Then, as shown in FIG. 9, the arrangement recognizing unit 26 is based on the angles θ1 and θ2, and the arrangement of the own lane La and the adjacent lane Lb specified by the feature information Fa1 to Fa4 of the lane markings fa1 to fa4. The obstacle region Bc is derived. The derivation of the obstacle region Bc is performed based on an obstacle table in which the position and size of the obstacle region Bc are defined in advance according to the values of the angle θ1 and the angle θ2, for example. For example, if the obstacle B is assumed to be a vehicle located approximately in the vicinity of the center on the adjacent lane Lb, the obstacle table can be defined using statistical data on the width and length of various vehicles. That is, the values of the angle θ1 and the angle θ2 and the positional relationship between the own lane La and the adjacent lane Lb are defined as an area within the range of the angle θ1 and in the adjacent lane Lb where the vehicle as the obstacle B exists. The Therefore, a rectangular area having a size corresponding to a vehicle having an appropriate width and length that falls within this area can be defined as the obstacle area Bc using statistical data of the width and length of various vehicles. This obstacle table is prepared in advance for various angles θ1 and θ2, and is formed into a table in advance.

1−10.車線変更判定部13
車線変更判定部13は、障害物認識部10による認識結果に基づいて、自車線Laに隣接する隣接車線Lbへの車線変更の可否を判定する車線変更判定手段として機能する。本実施形態においては、車線変更判定部13は、基本的には、障害物認識部10により隣接車線Lb上に障害物Bが存在しないと認識した場合には車線変更が可能であると判定し、障害物認識部10により隣接車線Lb上に障害物Bが存在すると認識した場合には車線変更が不可能であると判定する。また、本実施形態においては、障害物認識部10は配置認識部26を備えている。そこで、隣接車線Lb上に障害物Bが存在すると認識した場合であっても、配置認識部26による障害物Bの位置及び大きさの認識結果に基づいて、自車両Caが車線変更するのに十分な空間が隣接車線Lb上に存在する場合には、車線変更判定部13は、当該空間の側方位置において車線変更が可能であると判定する。
1-10. Lane change determination unit 13
The lane change determination unit 13 functions as a lane change determination unit that determines whether or not the lane change to the adjacent lane Lb adjacent to the own lane La is based on the recognition result by the obstacle recognition unit 10. In the present embodiment, the lane change determination unit 13 basically determines that the lane change is possible when the obstacle recognition unit 10 recognizes that no obstacle B exists on the adjacent lane Lb. When the obstacle recognition unit 10 recognizes that the obstacle B exists on the adjacent lane Lb, it is determined that the lane change is impossible. In the present embodiment, the obstacle recognition unit 10 includes the arrangement recognition unit 26. Therefore, even when it is recognized that the obstacle B exists on the adjacent lane Lb, the vehicle Ca changes the lane based on the recognition result of the position and size of the obstacle B by the arrangement recognition unit 26. If there is sufficient space on the adjacent lane Lb, the lane change determination unit 13 determines that the lane change is possible at the side position of the space.

1−11.ナビゲーション用演算部11
ナビゲーション用演算部11は、表示装置27を用いた自車位置の表示や、表示装置27及び音声出力装置28を用いた進路案内のための演算処理を行う。具体的には、ナビゲーション用演算部11は、地図情報取得部7により地図データベースDBから自車両Ca周辺の地図情報Eを取得して表示装置27に地図の画像を表示するとともに、当該地図の画像上に、自車位置演算部6から出力された自車位置情報Sに基づいて自車マークを重ね合わせて表示する処理を行う。また、ナビゲーション用演算部11は、公知の方法により出発地点と目的地点とを結ぶように予め設定された案内経路と自車位置情報Sとに基づいて、表示装置27及び音声出力装置28の一方又は双方を用いて進路案内を行う。よって、ナビゲーション用演算部11、表示装置27及び音声出力装置28は、自車両Caの進路案内を行う進路案内手段31として機能する。なお、図示は省略するが、ナビゲーション用演算部11は、この他にも、リモートコントローラやタッチパネルなどのユーザインタフェース等の、ナビゲーション装置として必要な公知の各種構成に接続されている。
1-11. Calculation unit 11 for navigation
The navigation calculation unit 11 performs calculation processing for displaying the vehicle position using the display device 27 and for route guidance using the display device 27 and the audio output device 28. Specifically, the calculation unit 11 for navigation acquires the map information E around the host vehicle Ca from the map database DB by the map information acquisition unit 7 and displays a map image on the display device 27, and also displays the map image. On top of this, a process for displaying the vehicle mark superimposed on the vehicle position information S output from the vehicle position calculation unit 6 is performed. Further, the navigation calculation unit 11 selects one of the display device 27 and the audio output device 28 based on the guide route and the vehicle position information S set in advance so as to connect the departure point and the destination point by a known method. Alternatively, route guidance is performed using both. Therefore, the navigation calculation unit 11, the display device 27, and the audio output device 28 function as a route guidance unit 31 that provides route guidance for the host vehicle Ca. Although not shown, the navigation calculation unit 11 is connected to various other known configurations necessary for a navigation device such as a user interface such as a remote controller and a touch panel.

また、本実施形態においては、ナビゲーション用演算部11は、案内経路に従って進行するために自車両Caの車線変更が必要な場合に車線変更要求情報を生成する車線変更要求生成部29を備えている。この車線変更要求生成部29は、自車両Caが複数車線の道路を走行中であって、設定された案内経路に従って進行するために交差点等での進路変更が必要であり、且つ自車線認識部12により認識された自車線Laが進路変更のための適切な車線でない場合に、自車両Caの車線変更が必要と判定する。そして、車線変更要求生成部29は、車線変更が必要と判定した場合には、進路変更のための適切な車線側への車線変更を要求する車線変更要求情報を生成する。ここで生成された車線変更要求情報は、地物情報抽出部8へ出力される。
そして、ナビゲーション用演算部11は、車線変更要求生成部29により車線変更要求情報が生成され、且つ車線変更判定部13により車線変更が可能であると判定された場合に、運転者に対する車線変更の案内を行う。この際の車線変更の案内は、表示装置27及び音声出力装置28の一方又は双方を用いて、進路変更のための適切な車線側への車線変更を促す図形やメッセージの表示、音声案内等により行う。
Further, in the present embodiment, the navigation calculation unit 11 includes a lane change request generation unit 29 that generates lane change request information when a lane change of the host vehicle Ca is necessary to proceed according to the guide route. . The lane change request generation unit 29 is traveling on a road with a plurality of lanes, and needs to change course at an intersection or the like in order to proceed according to the set guide route. When the own lane La recognized by 12 is not an appropriate lane for changing the course, it is determined that the lane change of the own vehicle Ca is necessary. When it is determined that the lane change is necessary, the lane change request generation unit 29 generates lane change request information for requesting the lane change to the appropriate lane side for the course change. The lane change request information generated here is output to the feature information extraction unit 8.
When the lane change request information is generated by the lane change request generation unit 29 and the lane change determination unit 13 determines that the lane change is possible, the navigation calculation unit 11 performs the lane change request for the driver. Give guidance. In this case, the lane change guidance is performed by using one or both of the display device 27 and the voice output device 28 by displaying a graphic or a message for prompting the lane change to the appropriate lane side for changing the course, voice guidance, or the like. Do.

1−12.周辺状況認識方法
次に、本実施形態に係る周辺状況認識装置1を含むナビゲーション装置2において実行される周辺状況認識方法及びそれを用いた車線変更案内方法の具体例について、図10及び図11に示すフローチャートに従って説明する。ここでは、まず、画像情報取得部5において、撮像装置14により撮像した画像情報Gを取得する(ステップ#01)。次に、自車位置演算部6において、自車位置情報Sを取得する(ステップ#02)。そして、地図情報取得部7において、ステップ#01で取得した自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する(ステップ#03)。その後、自車線認識部12において、自車両Caが走行中の車線である自車線Laを認識する(ステップ#04)。
1-12. Next, a specific example of the surrounding situation recognition method executed in the navigation device 2 including the surrounding situation recognition device 1 according to the present embodiment and the lane change guidance method using the same will be described with reference to FIGS. It demonstrates according to the flowchart shown. Here, first, the image information acquisition unit 5 acquires the image information G captured by the imaging device 14 (step # 01). Next, the vehicle position calculation unit 6 acquires the vehicle position information S (step # 02). Then, the map information acquisition unit 7 acquires map information E around the host vehicle Ca from the map database DB based on the host vehicle position information S acquired in step # 01 (step # 03). Thereafter, the own lane recognition unit 12 recognizes the own lane La, which is the lane in which the own vehicle Ca is traveling (step # 04).

そして、自車両Caの車線変更が必要でない場合であって、ナビゲーション用演算部11で設定された案内経路と自車線認識部12により認識された自車線Laとに基づいて、車線変更要求生成部29において、車線変更要求が生成されていない場合には(ステップ#05:NO)、処理はそのまま終了する。一方、車線変更要求生成部29において車線変更要求が生成された場合には(ステップ#05:YES)、地物情報抽出部8において、自車両Ca周辺の地物fについての地物情報Fを地図情報Eから抽出する(ステップ#06)。本例では、自車線Laに対して車線変更要求情報が示す車線変更方向側に隣接する隣接車線Lbより奥に位置する地物fについての地物情報Fを地図情報Eから抽出する。次に、画像認識部9において、ステップ#06で抽出された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う(ステップ#07)。そして、障害物認識部10において、ステップ#07の画像認識結果に基づいて、自車両Caの周辺における障害物Bの存在状況を認識する(ステップ#08)。この障害物認識処理については、図11のフローチャートに従って後に詳細に説明する。   The lane change request generation unit is a case where the lane change of the host vehicle Ca is not necessary and is based on the guide route set by the navigation calculation unit 11 and the host lane La recognized by the host lane recognition unit 12. If the lane change request has not been generated at 29 (step # 05: NO), the process ends as it is. On the other hand, when the lane change request is generated in the lane change request generation unit 29 (step # 05: YES), the feature information extraction unit 8 obtains the feature information F about the feature f around the host vehicle Ca. Extracted from the map information E (step # 06). In this example, the feature information F about the feature f located behind the adjacent lane Lb adjacent to the lane change direction side indicated by the lane change request information with respect to the own lane La is extracted from the map information E. Next, the image recognition unit 9 performs image recognition of the feature f included in the image information G based on the feature information F extracted in step # 06 (step # 07). Then, the obstacle recognition unit 10 recognizes the presence state of the obstacle B around the host vehicle Ca based on the image recognition result in step # 07 (step # 08). This obstacle recognition process will be described later in detail according to the flowchart of FIG.

その後、車線変更判定部13において、障害物認識部10による認識結果に基づいて、自車線Laに隣接する隣接車線Lbへの車線変更の可否判定を行う(ステップ#09)。そして、車線変更が不可能であると判定した場合には(ステップ#10:NO)、処理はそのまま終了する。一方、車線変更が可能であると判定した場合には(ステップ#10:YES)、ナビゲーション用演算部11において、表示装置27及び音声出力装置28の一方又は双方を用いて車線変更の案内を行う(ステップ#11)。以上で処理は終了する。   Thereafter, the lane change determination unit 13 determines whether or not the lane change to the adjacent lane Lb adjacent to the own lane La is possible based on the recognition result by the obstacle recognition unit 10 (step # 09). If it is determined that the lane change is impossible (step # 10: NO), the process ends as it is. On the other hand, when it is determined that the lane change is possible (step # 10: YES), the navigation calculation unit 11 guides the lane change using one or both of the display device 27 and the audio output device 28. (Step # 11). The process ends here.

次に、ステップ#08の障害物認識処理について説明する。本例では、図7及び図8に示すように、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1(連続性のある地物fの一例)の画像認識を行い、その認識結果に基づいて自車線Laに隣接する隣接車線Lb上における障害物Bの存在状況を認識する処理を行う。そこで、図11に示すように、障害物認識部10では、まず、認識率判定部25において、ステップ#07の画像認識結果に基づいて、連続性のある地物fとしての実線の区画線fa1についての認識率を判定する(ステップ#21)。ここでは、上記のとおり、障害物Bが存在すると認識する認識率の閾値は90〔%〕としている。そこで、認識率が90〔%〕未満か否かを判定し、認識率が90〔%〕未満である場合には(ステップ#22:YES)、障害物Bが存在すると認識し(ステップ#23)、配置認識部26において障害物Bの位置及び大きさを認識する(ステップ#24)。一方、認識率が90〔%〕以上である場合には(ステップ#22:NO)、障害物Bが存在しないと認識する(ステップ#25)。以上で障害物認識処理は終了する。   Next, the obstacle recognition process in step # 08 will be described. In this example, as shown in FIG. 7 and FIG. 8, image recognition is performed on a solid lane line fa1 (an example of a continuous feature f) located behind the adjacent lane Lb on the right side of the own lane La, Based on the recognition result, a process of recognizing the presence state of the obstacle B on the adjacent lane Lb adjacent to the own lane La is performed. Therefore, as shown in FIG. 11, in the obstacle recognition unit 10, first, in the recognition rate determination unit 25, based on the image recognition result in step # 07, a solid lane line fa <b> 1 as the continuous feature f is obtained. The recognition rate is determined for (step # 21). Here, as described above, the threshold of the recognition rate for recognizing that the obstacle B exists is 90 [%]. Therefore, it is determined whether or not the recognition rate is less than 90 [%]. If the recognition rate is less than 90 [%] (step # 22: YES), it is recognized that the obstacle B exists (step # 23). ) The position recognition unit 26 recognizes the position and size of the obstacle B (step # 24). On the other hand, when the recognition rate is 90% or more (step # 22: NO), it is recognized that the obstacle B does not exist (step # 25). Thus, the obstacle recognition process ends.

2.第二の実施形態
次に、本発明の第二の実施形態について説明する。本実施形態では、本発明に係る周辺状況認識装置1を、車両制御装置3も兼ねたナビゲーション装置2に適用した場合について説明する。図12は、本実施形態に係る周辺状況認識装置1の全体構成を模式的に示すブロック図である。本実施形態に係る周辺状況認識装置1は、地図データベースDBから取得した地物情報Fに基づいて、撮像装置4により撮像された画像情報Gに含まれている自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された区画線faの画像認識を行う(図14及び図16参照)。そして、画像情報Gに含まれているべき当該区画線faについて画像認識できない部分がある場合に交差点Kの通行に影響を与える障害物Bが存在すると認識する処理を行う。また、このような障害物Bの認識結果に基づいて、自車両Caの運転者に対して減速を促す案内を行い、或いは自車両Caの減速制御を行う。
2. Second Embodiment Next, a second embodiment of the present invention will be described. This embodiment demonstrates the case where the surrounding condition recognition apparatus 1 which concerns on this invention is applied to the navigation apparatus 2 which also served as the vehicle control apparatus 3. FIG. FIG. 12 is a block diagram schematically showing the overall configuration of the surrounding situation recognition apparatus 1 according to the present embodiment. The surrounding situation recognition device 1 according to the present embodiment exists in the traveling direction of the host vehicle Ca included in the image information G captured by the imaging device 4 based on the feature information F acquired from the map database DB. Image recognition of the lane marking fa arranged on the road R1 intersecting the intersection K is performed (see FIGS. 14 and 16). And when there exists a part which cannot recognize an image about the division line fa which should be included in the image information G, the process which recognizes that the obstruction B which affects the passage of the intersection K exists is performed. Further, based on the recognition result of the obstacle B, guidance for prompting the driver of the host vehicle Ca to decelerate is performed, or deceleration control of the host vehicle Ca is performed.

図12に示すように、この周辺状況認識装置1の各機能部、具体的には、画像情報取得部5、自車位置演算部6、地図情報取得部7、地物情報抽出部8、画像認識部9、障害物認識部10、ナビゲーション用演算部11、交差点認識部14、走行状態判定部15、及び車両制御部16は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア(プログラム)或いはその両方により実装されて構成されている。また、地図データベースDBは、上記第一の実施形態と同様に、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。以下、各部の構成について、上記第一の実施形態と相違する点を中心として説明する。   As shown in FIG. 12, each functional unit of the surrounding situation recognition device 1, specifically, an image information acquisition unit 5, a vehicle position calculation unit 6, a map information acquisition unit 7, a feature information extraction unit 8, an image The recognizing unit 9, the obstacle recognizing unit 10, the navigation calculating unit 11, the intersection recognizing unit 14, the traveling state determining unit 15, and the vehicle control unit 16 are configured to input data using a calculation processing device such as a CPU as a core member. On the other hand, a functional unit for performing various processes is implemented by hardware or software (program) or both. In addition, the map database DB is a record capable of storing information, such as a hard disk drive, a DVD drive equipped with a DVD-ROM, a CD drive equipped with a CD-ROM, as in the first embodiment. A device having a medium and its driving means is provided as a hardware configuration. Hereinafter, the configuration of each part will be described focusing on differences from the first embodiment.

本実施形態においては、画像情報取得部5で取得された画像情報Gは画像認識部9へ出力される。車速センサ24の検出結果としての車速情報は、自車位置演算部6及び走行状態判定部15へ出力される。自車位置演算部6は、演算結果である自車位置情報Sを地図情報取得部7、地物情報抽出部8、交差点認識部14、及びナビゲーション用演算部11へ出力する。地図情報取得部7は、自車位置演算部6、地物情報抽出部8、交差点認識部14、及びナビゲーション用演算部11に地図情報Eを出力する。   In the present embodiment, the image information G acquired by the image information acquisition unit 5 is output to the image recognition unit 9. Vehicle speed information as a detection result of the vehicle speed sensor 24 is output to the vehicle position calculation unit 6 and the traveling state determination unit 15. The own vehicle position calculation unit 6 outputs the own vehicle position information S as a calculation result to the map information acquisition unit 7, the feature information extraction unit 8, the intersection recognition unit 14, and the navigation calculation unit 11. The map information acquisition unit 7 outputs the map information E to the own vehicle position calculation unit 6, the feature information extraction unit 8, the intersection recognition unit 14, and the navigation calculation unit 11.

2−1.交差点認識部14
交差点認識部14は、自車両Caの進行方向に存在する交差点Kを認識する交差点認識手段として機能する。ここでは、交差点認識部14は、地図情報取得部7により取得された地図情報Eと、自車位置演算部6から出力された自車位置情報Sとに基づいて、自車両Caの進行方向の所定距離Lk内に交差点Kが存在するか否かの認識を行う。ここで、交差点Kの情報を取得する自車両Caからの所定距離Lkは、撮像装置4により交差点K内の地物fを画像認識可能な範囲内に定めると好適であり、例えば100〔m〕等とすることができる。例えば、図13に示すような自車両Ca周辺の地図情報Eが取得された場合であって、自車両Caの位置から交差点Kの中心までの距離が所定距離Lk以下である場合には、交差点認識部14は、自車両Caの進行方向に交差点Kが存在すると認識する。交差点認識部14は、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には、走行状態判定部15へ自車両Caの位置から当該交差点Kまでの距離を示す距離情報を出力する。よって、この交差点認識部14は、交差点Kまでの距離情報を取得する距離情報取得手段としても機能する。また、交差点認識部14は、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には、地図情報取得部7により取得された地図情報Eを地物情報抽出部8へ出力する。
2-1. Intersection recognition unit 14
The intersection recognition unit 14 functions as an intersection recognition unit that recognizes an intersection K existing in the traveling direction of the host vehicle Ca. Here, the intersection recognition unit 14 determines the traveling direction of the host vehicle Ca based on the map information E acquired by the map information acquisition unit 7 and the host vehicle position information S output from the host vehicle position calculation unit 6. It is recognized whether or not the intersection K exists within the predetermined distance Lk. Here, it is preferable that the predetermined distance Lk from the host vehicle Ca that acquires the information of the intersection K is determined within a range in which the feature f in the intersection K can be recognized by the imaging device 4, for example, 100 [m]. Etc. For example, when map information E around the host vehicle Ca as shown in FIG. 13 is acquired, and the distance from the position of the host vehicle Ca to the center of the intersection K is equal to or less than a predetermined distance Lk, the intersection The recognition unit 14 recognizes that the intersection K exists in the traveling direction of the host vehicle Ca. When the intersection recognition unit 14 recognizes that the intersection K exists within the predetermined distance Lk in the traveling direction of the host vehicle Ca, the distance indicating the distance from the position of the host vehicle Ca to the intersection K to the traveling state determination unit 15. Output information. Therefore, this intersection recognition unit 14 also functions as a distance information acquisition unit that acquires distance information to the intersection K. When the intersection recognition unit 14 recognizes that the intersection K exists within the predetermined distance Lk in the traveling direction of the host vehicle Ca, the feature information extraction unit 8 uses the map information E acquired by the map information acquisition unit 7. Output to.

2−2.走行状態判定部15
走行状態判定部15は、交差点Kまでの距離に対して車速が高いか否かを判定する走行状態判定手段として機能する。ここでは、走行状態判定部15は、車速センサ24により取得された自車両Caの走行速度を示す車速情報と、交差点認識部14から出力された交差点Kまでの距離情報とに基づいて自車両Caの走行状態の判定を行う。具体的には、走行状態判定部15は、自車両Caが交差点Kの手前に停止することを基準とした場合に、自車両Caの現在の車速での制動距離が、自車両Caから交差点Kまでの距離に対して十分に短い場合には、交差点Kまでの距離に対して車速が低いと判定する。一方、自車両Caの現在の車速での制動距離が、自車両Caから交差点Kまでの距離に近い場合やこれを超えている場合には、交差点Kまでの距離に対して車速が高いと判定する。なお、自車両Caの各速度での制動距離は、天候や路面状態等によって変化するものである。したがって、判定の基準としては悪条件での制動距離を用いるのが好適である。また、天候や路面状態等の情報を取得し、これらの情報に基づいて基準として用いる制動距離を変化させる構成としても好適である。この走行状態判定部15における判定は、自車両Caの位置から交差点Kまでの距離との関係で自車両Caの車速が高いと判定する閾値車速を規定したテーブル等を用いて行うことができる。そして、走行状態判定部15は、交差点Kまでの距離に対して車速が高いか低いかを示す走行状態情報をナビゲーション用演算部11へ出力する。
2-2. Traveling state determination unit 15
The traveling state determination unit 15 functions as a traveling state determination unit that determines whether the vehicle speed is high with respect to the distance to the intersection K. Here, the traveling state determination unit 15 is based on the vehicle speed information indicating the traveling speed of the host vehicle Ca acquired by the vehicle speed sensor 24 and the distance information to the intersection K output from the intersection recognition unit 14. The running state is determined. Specifically, the traveling state determination unit 15 determines that the braking distance at the current vehicle speed of the host vehicle Ca is from the host vehicle Ca to the intersection K when the host vehicle Ca is based on stopping before the intersection K. If the distance to the intersection is sufficiently short, it is determined that the vehicle speed is low with respect to the distance to the intersection K. On the other hand, if the braking distance at the current vehicle speed of the host vehicle Ca is close to or exceeds the distance from the host vehicle Ca to the intersection K, it is determined that the vehicle speed is higher than the distance to the intersection K. To do. Note that the braking distance at each speed of the host vehicle Ca varies depending on the weather, road surface conditions, and the like. Therefore, it is preferable to use a braking distance under bad conditions as a criterion for determination. Moreover, it is suitable also as a structure which acquires information, such as a weather and a road surface state, and changes the braking distance used as a reference | standard based on such information. The determination in the traveling state determination unit 15 can be performed using a table that defines a threshold vehicle speed that determines that the vehicle speed of the host vehicle Ca is high in relation to the distance from the position of the host vehicle Ca to the intersection K. Then, the traveling state determination unit 15 outputs traveling state information indicating whether the vehicle speed is high or low with respect to the distance to the intersection K to the navigation calculation unit 11.

2−3.地物情報抽出部8
地物情報抽出部8は、自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された地物fについての地物情報Fを地図情報Eから抽出する地物情報抽出手段として機能する。したがって、本実施形態においては、地図情報取得部7及び地物情報抽出部8により、地物情報取得手段17が構成される。ここでは、地物情報抽出部8は、自車位置情報S及びナビゲーション用演算部11から出力される減速要求情報に基づいて、交差点Kに交差する道路R1に沿って配置された連続性のある地物fについての地物情報Fを地図情報Eから抽出して取得する。ここで、このような連続性のある地物fとしては、道路面上に設けられた実線又は破線の区画線faや道路に沿って配置された縁石等が好適であり、本例では、区画線faについての地物情報Fを抽出する。
2-3. Feature information extraction unit 8
The feature information extraction unit 8 is a feature information extraction unit that extracts, from the map information E, the feature information F about the feature f arranged on the road R1 that intersects the intersection K existing in the traveling direction of the host vehicle Ca. Function. Therefore, in the present embodiment, the map information acquisition unit 7 and the feature information extraction unit 8 constitute a feature information acquisition unit 17. Here, the feature information extraction unit 8 has continuity arranged along the road R1 intersecting the intersection K based on the own vehicle position information S and the deceleration request information output from the navigation calculation unit 11. The feature information F about the feature f is extracted from the map information E and acquired. Here, as such a continuous feature f, a solid line or a broken lane line fa provided on the road surface, a curb arranged along the road, and the like are preferable. The feature information F about the line fa is extracted.

ここでは一例として、図13に示す地図情報Eから、地物情報抽出部8により地物情報Fを抽出する処理について説明する。図13において、符号「Ca´」は、自車位置情報Sに示される自車両Caの位置を示している。この図に示すように、本例では、自車両Caの進行方向にT字路の交差点Kが存在している。そして、自車両Caが走行中の道路R0は1車線の一方通行道路であり、交差点Kで道路R0と交差する道路R1は片側1車線の2車線道路である。また、ナビゲーション用演算部11からは減速要求情報が出力されているものとする。この場合、地物情報抽出部8は、道路R1の手前側に配置された実線の区画線(車道外側線)fa5の地物情報Fa5、道路R1の幅方向中央部に配置された実線の区画線(車道中央線)fa6の地物情報Fa6、道路R1の奥側に配置された実線の区画線(車道外側線)fa7の地物情報Fa7を抽出する(fa5〜fa7については図14参照)。本例では、地図情報取得部7から地物情報抽出部8へ出力される地図情報Eは、撮像装置4による撮像領域(図14参照)にほぼ一致する範囲の情報とされている。なお、撮像装置4による撮像領域は、自車両Caにおける撮像装置4の搭載位置、撮像方向、撮像画角等に基づいて予め定まっている。この地物情報抽出部8により抽出された地物情報Fは、画像認識部9へ出力される。   Here, as an example, a process for extracting the feature information F by the feature information extraction unit 8 from the map information E shown in FIG. 13 will be described. In FIG. 13, the symbol “Ca ′” indicates the position of the host vehicle Ca indicated in the host vehicle position information S. As shown in this figure, in this example, there is a T-junction intersection K in the traveling direction of the host vehicle Ca. The road R0 on which the host vehicle Ca is traveling is a one-lane one-way road, and the road R1 that intersects the road R0 at the intersection K is a one-lane two-lane road. Further, it is assumed that deceleration request information is output from the navigation calculation unit 11. In this case, the feature information extraction unit 8 includes the feature information Fa5 of the solid line (the roadway outer line) fa5 arranged on the near side of the road R1 and the solid line of the solid line arranged in the center in the width direction of the road R1. The feature information Fa6 of the line (roadway center line) fa6 and the feature information Fa7 of the solid line (roadway outer line) fa7 arranged on the back side of the road R1 are extracted (see FIG. 14 for fa5 to fa7). . In this example, the map information E output from the map information acquisition unit 7 to the feature information extraction unit 8 is information in a range that substantially matches the imaging region (see FIG. 14) by the imaging device 4. In addition, the imaging area by the imaging device 4 is determined in advance based on the mounting position of the imaging device 4 in the host vehicle Ca, the imaging direction, the imaging angle of view, and the like. The feature information F extracted by the feature information extraction unit 8 is output to the image recognition unit 9.

2−4.画像認識部9
画像認識部9は、地物情報抽出部8から出力された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う画像認識手段として機能する。具体的には、画像認識部9は、まず、画像情報Gに対する二値化処理やエッジ検出処理等による輪郭抽出を用いて区画線fa等の道路標示(ペイント)の画像を抽出する。その後、画像認識部9は、地物情報抽出部8から出力された地物情報Fに示される地物fの位置及び形状等の情報に基づいて、画像情報G中における当該地物fの画像の配置を特定し、当該地物fの画像認識を行う。本例では、地物情報抽出部8から出力された地物情報Fに示される地物fは、自車両Caの進行方向の交差点Kで交差する道路R1に沿って配置された3本の実線の区画線fa5〜fa7である。図14及び図16に、自車両Ca及び交差点Kの周辺の状況の例をそれぞれ示す。また、図15及び図17に、各状況で取得された画像情報G及びその画像情報Gの画像認識部9による認識結果の例を示す。ここで、図14は、交差点Kの周辺に障害物Bが存在しない状況を示しており、図16は、交差点Kの通行に影響を与える障害物Bが存在する状況を示している。そして、図15は、図14に示される状況で撮像された(a)画像情報Gと(b)その画像認識結果を示している。また、図17は、図16に示される状況で撮像された(a)画像情報Gと(b)その画像認識結果を示している。なお、図14及び図16は、図13に示される地図情報Eの内容と同様に、いずれも自車両Caの進行方向にT字路の交差点Kが存在している状況を示している。また、自車両Caが走行中の道路R0は1車線の一方通行道路であり、交差点Kで道路R0と交差する道路R1は片側1車線の2車線道路である。そして、自車両Caの進行方向には停止線fc1が存在している。
2-4. Image recognition unit 9
The image recognition unit 9 functions as an image recognition unit that performs image recognition of the feature f included in the image information G based on the feature information F output from the feature information extraction unit 8. Specifically, the image recognition unit 9 first extracts an image of a road marking (paint) such as a lane marking fa using a contour extraction by binarization processing, edge detection processing, or the like on the image information G. Thereafter, the image recognizing unit 9 determines the image of the feature f in the image information G based on information such as the position and shape of the feature f indicated in the feature information F output from the feature information extracting unit 8. Is identified, and image recognition of the feature f is performed. In this example, the feature f shown in the feature information F output from the feature information extraction unit 8 is three solid lines arranged along the road R1 that intersects at the intersection K in the traveling direction of the host vehicle Ca. The lane markings are fa5 to fa7. 14 and 16 show examples of the situation around the host vehicle Ca and the intersection K, respectively. 15 and 17 show examples of the image information G acquired in each situation and the recognition result of the image information G by the image recognition unit 9. Here, FIG. 14 shows a situation where the obstacle B does not exist around the intersection K, and FIG. 16 shows a situation where the obstacle B that affects the traffic at the intersection K exists. FIG. 15 shows (a) image information G captured in the situation shown in FIG. 14 and (b) the image recognition result. FIG. 17 shows (a) image information G and (b) the image recognition result captured in the situation shown in FIG. 14 and 16 show a situation where a T-junction intersection K exists in the traveling direction of the host vehicle Ca, similarly to the contents of the map information E shown in FIG. The road R0 on which the host vehicle Ca is traveling is a one-lane one-way road, and the road R1 that intersects the road R0 at the intersection K is a one-lane two-lane road. A stop line fc1 exists in the traveling direction of the host vehicle Ca.

図14に示すように、交差点Kの周辺に障害物Bが存在しない場合には、図15(a)に示すように、画像情報Gには、この画像情報Gに含まれているべき道路R1に沿って配置された区画線fa5〜fa7の全部(区画線fa5〜fa7の画像情報Gに含まれているべき部分の内の全部)が撮像されることになる。したがって、画像認識部9は、図15(b)に示すように、画像認識部9は、前記区画線fa5〜fa7の全部の画像を認識することができる。一方、図16に示す状況では、交差点Kの通行に影響を与える障害物Bとして、交差点Kの手前の左側の角部に建物fdが存在し、道路R1の手前側の車線には他の車両Cbが存在している。このため、図17(a)に示すように、画像情報Gには、この画像情報Gに含まれているべき道路R1に沿って配置された区画線fa5〜fa7の一部が、これらの障害物Bの背後に隠れて撮像できないことになる。したがって、画像認識部9は、図17(b)に示すように、画像認識部9は、前記区画線fa5〜fa7の一部の画像を認識することができない。この際、建物fdは、道路R1より手前側に位置するため、建物fdの背後には区画線fa5、fa6、及びfa7の3本ともが隠れて撮像されない。したがって、当該領域では画像認識部9は3本の区画線fa5、fa6、及びfa7の画像を認識できないことになる。これに対して、他の車両Cbは、道路R1の手前側の車線上に位置するため、他の車両Cbの背後には区画線fa6及びa7の2本が隠れて撮像されない。したがって、当該領域では画像認識部9は2本の区画線fa6及びa7の画像を認識できないことになる。なお、図14及び図16中のハッチングを施した区画線fa5〜fa7の領域は、画像認識部9により認識できた区画線fa5〜fa7の部分を示している。また、図14及び図16中の一点鎖線は、この撮像装置4の撮像領域を示している。そして、これら図15(b)又は図17(b)のような画像認識部9による画像認識結果の情報が、障害物認識部10へ出力される。   As shown in FIG. 14, when there is no obstacle B around the intersection K, as shown in FIG. 15A, the image information G includes a road R1 that should be included in the image information G. All of the division lines fa5 to fa7 arranged along the line (all of the parts that should be included in the image information G of the division lines fa5 to fa7) are captured. Therefore, as shown in FIG. 15B, the image recognition unit 9 can recognize all the images of the lane markings fa5 to fa7. On the other hand, in the situation shown in FIG. 16, the building fd exists at the left corner before the intersection K as an obstacle B that affects the traffic at the intersection K, and other vehicles are in the lane on the front side of the road R1. Cb is present. For this reason, as shown in FIG. 17A, the image information G includes part of the lane lines fa5 to fa7 arranged along the road R1 that should be included in the image information G. It is impossible to capture the image behind the object B. Therefore, as shown in FIG. 17B, the image recognizing unit 9 cannot recognize a part of the lane markings fa5 to fa7. At this time, since the building fd is located on the near side of the road R1, the three division lines fa5, fa6, and fa7 are hidden behind the building fd and are not imaged. Therefore, in this area, the image recognition unit 9 cannot recognize the images of the three lane markings fa5, fa6, and fa7. On the other hand, since the other vehicle Cb is located on the lane on the near side of the road R1, the two lane lines fa6 and a7 are hidden behind the other vehicle Cb and are not imaged. Therefore, in this area, the image recognition unit 9 cannot recognize the images of the two lane markings fa6 and a7. 14 and 16, the hatched lane markings fa5 to fa7 indicate portions of the lane markings fa5 to fa7 that can be recognized by the image recognition unit 9. 14 and 16 indicate an imaging region of the imaging device 4. The information of the image recognition result by the image recognition unit 9 as shown in FIG. 15B or FIG. 17B is output to the obstacle recognition unit 10.

2−5.障害物認識部10
障害物認識部10は、画像認識部9による画像認識結果に基づいて、自車両Caの進行方向の交差点Kの通行に影響を与える障害物Bの存在状況を認識する障害物認識手段として機能する。本実施形態においては、障害物認識部10は、地物情報抽出部8から出力された地物情報Fに基づいて画像情報Gに含まれているべき地物fについて、当該地物fの全部又は一部の画像が画像認識部9により認識できない場合に、交差点Kの通行に影響を与える障害物Bが存在すると認識する。ここで、交差点Kの通行に影響を与える障害物Bとしては、例えば、交差点Kの見通しを妨げる建物fd、樹木、駐車車両等の障害物B、又は交差点Kに交差する道路R1上を移動する車両Cbや歩行者等の障害物B等が含まれる。また、地物情報Fに基づいて画像情報Gに含まれているべき地物fとは、地物情報抽出部8により地物情報Fが抽出された地物fであって撮像装置4による画像情報Gの撮像領域内に含まれている地物f(全体又は部分)である。また、このような地物fが、画像認識部9による画像認識の対象となる。本例では、この地物fは、上記のとおり、自車両Caの進行方向の交差点Kで交差する道路R1に沿って配置された3本の実線の区画線fa5〜fa7である。
2-5. Obstacle recognition unit 10
The obstacle recognizing unit 10 functions as an obstacle recognizing unit for recognizing the presence state of the obstacle B that affects the passage of the intersection K in the traveling direction of the host vehicle Ca based on the image recognition result by the image recognizing unit 9. . In the present embodiment, the obstacle recognizing unit 10 determines all the features f for the feature f to be included in the image information G based on the feature information F output from the feature information extracting unit 8. Alternatively, when some images cannot be recognized by the image recognition unit 9, it is recognized that there is an obstacle B that affects the traffic at the intersection K. Here, as the obstacle B that affects the traffic at the intersection K, for example, the obstacle B such as a building fd, a tree, a parked vehicle, or the like that obstructs the prospect of the intersection K, or the road R1 that intersects the intersection K moves. An obstacle B such as a vehicle Cb or a pedestrian is included. Further, the feature f to be included in the image information G based on the feature information F is the feature f from which the feature information F has been extracted by the feature information extraction unit 8, and is an image by the imaging device 4. It is the feature f (whole or part) included in the imaging region of the information G. Such a feature f is a target of image recognition by the image recognition unit 9. In this example, the feature f is three solid dividing lines fa5 to fa7 arranged along the road R1 intersecting at the intersection K in the traveling direction of the host vehicle Ca as described above.

そして、障害物認識部10は、自車両Caの進行方向の交差点Kで交差する道路R1の手前又は道路R1上に障害物Bが存在する場合には、道路R1に沿って配置された3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部が当該障害物Bの背後に隠れて画像認識できないことを利用して、間接的に障害物Bの認識を行う。具体的には、図15(b)に示すように、画像情報Gに含まれているべき3本の区画線fa5〜fa7の全部の画像を画像認識部9により認識できた場合には、障害物認識部10は、交差点Kの見通しを妨げる建物fdや道路R1上を移動する車両Cb等の交差点Kの通行に影響を与える障害物Bが存在しないと認識する。一方、図17(b)に示すように、画像情報Gに含まれているべき3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部の画像を画像認識部9により認識できなかった場合には、障害物認識部10は、交差点Kの通行に影響を与える障害物Bが存在すると認識する。すなわち、この障害物認識部10は、上記第一の実施形態と同様に、建物fdや他の車両Cb等の障害物Bを直接的に画像認識して障害物Bの認識を行うのではなく、当該障害物Bが存在する場合に背後に隠れることになる区画線fa5〜fa7等の画像認識が容易な地物fの画像認識結果を用いて間接的に障害物認識を行う。   The obstacle recognition unit 10 is arranged along the road R1 when there is an obstacle B before or on the road R1 intersecting at the intersection K in the traveling direction of the host vehicle Ca. Obstacle B is indirectly recognized by making use of the fact that all or a part of one or more of the lane markings fa5 to fa7 is hidden behind the obstacle B and cannot be recognized. Specifically, as shown in FIG. 15B, when all the images of the three lane markings fa5 to fa7 that should be included in the image information G can be recognized by the image recognition unit 9, the failure The object recognition unit 10 recognizes that there is no obstacle B that affects the passage of the intersection K such as the building fd that obstructs the prospect of the intersection K or the vehicle Cb that moves on the road R1. On the other hand, as shown in FIG. 17B, the image recognition unit 9 can recognize all or a part of one or more of the three lane markings fa5 to fa7 that should be included in the image information G. If not, the obstacle recognition unit 10 recognizes that there is an obstacle B that affects the traffic at the intersection K. That is, the obstacle recognizing unit 10 does not recognize the obstacle B by directly recognizing the obstacle B such as the building fd or another vehicle Cb as in the first embodiment. The obstacle recognition is indirectly performed using the image recognition result of the feature f that is easy to recognize the image such as the lane markings fa5 to fa7 that are hidden behind the obstacle B.

また、障害物認識部10は、3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部の画像が画像認識部9により認識できなかった場合に、当該認識できなかった区画線faの手前側に障害物Bが存在すると認識する。これにより、障害物認識部10は、自車両Caの進行方向に平行は方向における障害物Bの位置を概略的に認識することができる。すなわち、例えば図16に示すように、交差点Kの手前の左側の角部に建物fdは、3本の区画線fa5〜fa7よりも自車両Ca側に位置するため、3本の区画線fa5〜fa7の3本ともがこの建物fdの背後に隠れて画像認識できないことになる。したがって、障害物認識部10は、図17(b)の左側部分に示されるように、3本の区画線fa5〜fa7の3本ともの画像が認識できない場合には、最も手前の区画線fa5よりも手前側に障害物Bが存在すると認識する。一方、道路R1の手前側の車線上の他の車両Cbは、3本の区画線fa5〜fa7のうちの2本の区画線fa6及びfa7よりも自車両Ca側に位置するため、これら2本の区画線fa6及びfa7がこの車両Cbの背後に隠れて画像認識できないことになる。したがって、障害物認識部10は、図17(b)の右側部分に示されるように、3本の区画線fa5〜fa7のうちの2本の区画線fa6及びfa7の画像が認識できない場合には、それらのうちの手前側の区画線fa6よりも手前側に障害物Bが存在すると認識する。   The obstacle recognizing unit 10 can recognize the lane markings that could not be recognized when all or a part of one or more of the three lane markings fa5 to fa7 could not be recognized by the image recognition unit 9. It is recognized that the obstacle B exists on the near side of fa. Thereby, the obstacle recognition unit 10 can roughly recognize the position of the obstacle B in the direction parallel to the traveling direction of the host vehicle Ca. That is, for example, as shown in FIG. 16, the building fd is located on the left side corner before the intersection K and is closer to the host vehicle Ca than the three lane markings fa5 to fa7. All three of fa7 are hidden behind the building fd and cannot be recognized. Therefore, as shown in the left part of FIG. 17B, the obstacle recognizing unit 10 cannot recognize the three lane lines fa5 to fa7, and the frontmost lane line fa5. It is recognized that there is an obstacle B on the near side. On the other hand, the other vehicles Cb on the lane on the near side of the road R1 are located on the own vehicle Ca side of the two lane markings fa6 and fa7 out of the three lane markings fa5 to fa7. The lane markings fa6 and fa7 are hidden behind the vehicle Cb and cannot be recognized. Therefore, when the obstacle recognizing unit 10 cannot recognize the images of the two lane markings fa6 and fa7 among the three lane markings fa5 to fa7, as shown in the right part of FIG. , It is recognized that the obstacle B is present on the near side of the lane marking fa6 on the near side.

また、本実施形態においては、障害物認識部10は、自車両Caの進行方向に向かって交差点Kより右側の領域A1と左側の領域A2とに分けて、障害物Bの存在状況の認識を行う。ここでは、図14及び図16に示すように、自車両Caから進行方向に延びる境界線aを境に右側の領域A1と左側の領域A2とに分けている。そして、障害物認識部10は、右側の領域A1と左側の領域A2とのそれぞれについて、個別に障害物Bが存在するか否かの認識を行う。このように障害物Bの認識を行うことにより、交差点Kでの自車両Caの進行方向に応じて障害物Bの存在状況の認識結果を適切に利用することが可能となる。すなわち、例えば、自車両Caが交差点Kで左折する場合には右側の領域A1についての障害物Bの存在状況の情報が重要となり、自車両Caが交差点Kで直進又は右折する場合には右側の領域A1及び左側の領域A2の双方についての障害物Bの存在状況の情報が重要となる。   In the present embodiment, the obstacle recognition unit 10 recognizes the presence state of the obstacle B by dividing the area A1 on the right side and the area A2 on the left side from the intersection K toward the traveling direction of the host vehicle Ca. Do. Here, as shown in FIGS. 14 and 16, the vehicle is divided into a right region A <b> 1 and a left region A <b> 2 on the boundary line a extending in the traveling direction from the host vehicle Ca. Then, the obstacle recognizing unit 10 recognizes whether or not the obstacle B exists for each of the right area A1 and the left area A2. By recognizing the obstacle B in this way, it becomes possible to appropriately use the recognition result of the presence state of the obstacle B according to the traveling direction of the host vehicle Ca at the intersection K. That is, for example, when the host vehicle Ca makes a left turn at the intersection K, information on the presence state of the obstacle B for the right region A1 is important, and when the host vehicle Ca makes a straight or right turn at the intersection K, the right side Information on the presence status of the obstacle B in both the area A1 and the left area A2 is important.

また、障害物認識部10は、上記第一の実施形態と同様に、連続性のある地物fについての認識率を判定する認識率判定部25を備えている。また、障害物Bが存在すると認識する認識率の閾値についても、上記第一の実施形態と同様に90〔%〕としている。したがって、例えば、図15(b)に示す画像認識結果に基づく3本の区画線fa5〜fa7の認識率が右側の領域A1及び左側の領域A2の双方について95〔%〕である場合、障害物認識部10は、右側の領域A1及び左側の領域A2の双方について障害物Bが存在しないと認識する。一方、図17(b)に示す画像認識結果に基づく3本の区画線fa5〜fa7の認識率が右側の領域A1について60〔%〕、左側の領域A2について30〔%〕である場合、障害物認識部10は、右側の領域A1及び左側の領域A2の双方について障害物Bが存在すると認識する。
なお、本実施形態においては、障害物認識部10は障害物Bの位置及び大きさを認識するための配置認識部26を備えていない。しかし、上記第一の実施形態と同様に、配置認識部26を備える構成とすることも好適な実施形態の一つである。
The obstacle recognition unit 10 includes a recognition rate determination unit 25 that determines the recognition rate for the continuous feature f, as in the first embodiment. Also, the threshold of the recognition rate for recognizing that the obstacle B is present is set to 90 [%] as in the first embodiment. Therefore, for example, when the recognition rate of the three lane markings fa5 to fa7 based on the image recognition result shown in FIG. 15B is 95% for both the right region A1 and the left region A2, the obstacle The recognition unit 10 recognizes that the obstacle B does not exist in both the right area A1 and the left area A2. On the other hand, if the recognition rates of the three lane markings fa5 to fa7 based on the image recognition result shown in FIG. 17B are 60% for the right region A1 and 30% for the left region A2, The object recognition unit 10 recognizes that the obstacle B exists in both the right area A1 and the left area A2.
In the present embodiment, the obstacle recognition unit 10 does not include the arrangement recognition unit 26 for recognizing the position and size of the obstacle B. However, as in the first embodiment, a configuration including the arrangement recognition unit 26 is also a preferred embodiment.

2−6.ナビゲーション用演算部11
ナビゲーション用演算部11は、上記のとおり、自車両Caの位置の表示や進路案内等のために用いる表示装置27及び音声出力装置28に接続されている。また、本実施形態においては、ナビゲーション用演算部11は、交差点Kにおいて自車両Caの減速が必要か否かを判定する減速必要性判定部30を備えている。この減速必要性判定部30は、地図情報Eに基づいて自車両Caが走行中の道路R0が交差点Kで交差する道路R1に対して優先道路であることが明らかでなく、走行状態判定部15から出力された走行状態情報が交差点Kまでの距離に対して車速が高いことを示している場合であって、更に障害物認識部10において交差点Kの通行に影響を与える障害物Bが存在すると認識した場合に、自車両Caの減速が必要であると判定する。この際、減速必要性判定部30は、障害物認識部10による交差点Kより右側の領域A1及び左側の領域A2のそれぞれについての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。すなわち、ナビゲーション用演算部11において予め設定されている案内経路やターンシグナルの操作状況等に基づいて、自車両Caが交差点Kで左折すると判断した場合には、減速必要性判定部30は、右側の領域A1についての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。一方、自車両Caが交差点Kで右折又は直進すると判断した場合には、減速必要性判定部30は、右側の領域A1及び左側の領域A2の双方についての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。
2-6. Calculation unit 11 for navigation
As described above, the navigation calculation unit 11 is connected to the display device 27 and the audio output device 28 that are used for displaying the position of the host vehicle Ca and for route guidance. In this embodiment, the navigation calculation unit 11 includes a deceleration necessity determination unit 30 that determines whether or not the host vehicle Ca needs to be decelerated at the intersection K. Based on the map information E, the deceleration necessity determination unit 30 is not clear that the road R0 on which the host vehicle Ca is traveling intersects at the intersection K is a priority road, and the traveling state determination unit 15 When the traveling state information output from the vehicle information indicates that the vehicle speed is high with respect to the distance to the intersection K, the obstacle recognition unit 10 further includes an obstacle B that affects the traffic at the intersection K. When it recognizes, it determines with the deceleration of the own vehicle Ca being required. At this time, the deceleration necessity determination unit 30 determines the necessity of deceleration of the host vehicle Ca based on the presence state of the obstacle B in each of the area A1 on the right side and the area A2 on the left side from the intersection K by the obstacle recognition unit 10. judge. That is, when it is determined that the host vehicle Ca makes a left turn at the intersection K based on the guidance route set in advance or the operation state of the turn signal in the navigation calculation unit 11, the deceleration necessity determination unit 30 The necessity of deceleration of the own vehicle Ca is determined based on the presence state of the obstacle B in the area A1. On the other hand, when it is determined that the host vehicle Ca makes a right turn or goes straight at the intersection K, the deceleration necessity determination unit 30 automatically determines based on the presence state of the obstacle B in both the right area A1 and the left area A2. The necessity for deceleration of the vehicle Ca is determined.

そして、ナビゲーション用演算部11は、減速必要性判定部30により自車両Caの減速必要性があると判定した場合には、運転者に対して減速を促す警告のための報知を行う。この報知は、表示装置27及び音声出力装置28の一方又は双方を用いて、減速を促す図形やメッセージの表示、音声案内等により行う。よって、ナビゲーション用演算部11、表示装置27及び音声出力装置28は、運転者への報知を行うための報知手段32としても機能する。また、ナビゲーション用演算部11は、後述する車両制御部16に接続されている。そして、ナビゲーション用演算部11は、減速必要性判定部30により自車両Caの減速必要性があると判定した場合には、車両制御部16に対して減速制御命令を出力し、自車両Caの減速制御を行わせる。   And the arithmetic operation part 11 for navigation performs the alert | report for the warning which prompts a driver | operator to decelerate, when it determines with the deceleration necessity determination part 30 having the deceleration necessity of the own vehicle Ca. This notification is performed by using one or both of the display device 27 and the voice output device 28, by displaying a graphic or message for prompting deceleration, voice guidance, or the like. Therefore, the navigation calculation unit 11, the display device 27, and the voice output device 28 also function as a notification unit 32 for performing notification to the driver. The navigation calculation unit 11 is connected to a vehicle control unit 16 described later. When the navigation calculation unit 11 determines that the deceleration necessity determination unit 30 determines that the host vehicle Ca needs to be decelerated, the navigation calculation unit 11 outputs a deceleration control command to the vehicle control unit 16, and Deceleration control is performed.

また、減速必要性判定部30は、障害物認識部10における障害物Bの存在状況の認識前の段階で、自車両Caの進行方向に存在する交差点Kでの減速要求があるか否かの判定を行う。すなわち、減速必要性判定部30は、交差点認識部14により自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合であって、走行状態判定部15により自車両Caの走行状態の判定が行われた際に、減速要求の判定を行う。そして、減速必要性判定部30は、地図情報Eに基づいて自車両Caが走行中の道路R0が交差点Kで交差する道路R1に対して優先道路であることが明らかでなく、更に走行状態判定部15から出力された走行状態情報が交差点Kまでの距離に対して車速が高いことを示している場合には、減速要求があると判定する。減速必要性判定部30は、減速要求があると判定した場合には、当該交差点Kで減速が必要となる可能性があると判定して減速要求情報を生成する。ここで生成された減速要求情報は、地物情報抽出部8へ出力される。   Further, the deceleration necessity determination unit 30 determines whether or not there is a deceleration request at the intersection K existing in the traveling direction of the host vehicle Ca at the stage before the obstacle recognition unit 10 recognizes the presence state of the obstacle B. Make a decision. In other words, the deceleration necessity determination unit 30 recognizes that the intersection K exists within the predetermined distance Lk in the traveling direction of the host vehicle Ca by the intersection recognition unit 14 and the traveling state determination unit 15 travels the host vehicle Ca. When the state is determined, a deceleration request is determined. The deceleration necessity determination unit 30 does not clearly determine that the road R0 on which the vehicle Ca is traveling is a priority road with respect to the road R1 intersecting at the intersection K based on the map information E, and further determines the traveling state. When the traveling state information output from the unit 15 indicates that the vehicle speed is high with respect to the distance to the intersection K, it is determined that there is a deceleration request. When determining that there is a deceleration request, the deceleration necessity determination unit 30 determines that there is a possibility that deceleration is required at the intersection K, and generates deceleration request information. The deceleration request information generated here is output to the feature information extraction unit 8.

2−7.車両制御部16
車両制御部16は、自車両Caの各部の動作制御を行う制御手段として機能する。ここでは、車両制御部16は、ナビゲーション用演算部11から減速制御命令が出力された場合に、自車両Caを減速させるための各部の動作制御を実行する。このような減速制御としては、具体的には、自車両Caの各車輪に設けられているホイールブレーキによる制動、スロットルをオフにして変速機のギヤ比を下げることによるエンジンブレーキを作用させる制動等が行われる。
2-7. Vehicle control unit 16
The vehicle control unit 16 functions as a control unit that controls the operation of each unit of the host vehicle Ca. Here, the vehicle control part 16 performs operation control of each part for decelerating the own vehicle Ca, when the deceleration control command is output from the calculating part 11 for navigation. As such deceleration control, specifically, braking by wheel brakes provided on each wheel of the host vehicle Ca, braking by applying engine braking by turning off the throttle and lowering the gear ratio of the transmission, etc. Is done.

2−8.周辺状況認識方法
次に、本実施形態に係る周辺状況認識装置1を含む車両制御装置3を兼ねたナビゲーション装置2において実行される周辺状況認識方法並びにそれを用いた減速案内方法及び減速制御方法の具体例について、図18に示すフローチャートに従って説明する。ここでは、まず、画像情報取得部5において、撮像装置14により撮像した画像情報Gを取得する(ステップ#31)。次に、自車位置演算部6において、自車位置情報Sを取得する(ステップ#32)。そして、地図情報取得部7において、ステップ#01で取得した自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する(ステップ#33)。その後、交差点認識部14において、自車両Caの進行方向の所定距離Lk内に交差点Kが存在するか否かの認識を行う(ステップ#34)。
2-8. Next, the surrounding situation recognition method executed in the navigation device 2 that also serves as the vehicle control device 3 including the surrounding situation recognition device 1 according to this embodiment, and the deceleration guide method and the deceleration control method using the same. A specific example will be described with reference to the flowchart shown in FIG. Here, first, the image information acquisition unit 5 acquires the image information G captured by the imaging device 14 (step # 31). Next, the vehicle position calculation unit 6 acquires the vehicle position information S (step # 32). Then, the map information acquisition unit 7 acquires map information E around the host vehicle Ca from the map database DB based on the host vehicle position information S acquired in step # 01 (step # 33). Thereafter, the intersection recognition unit 14 recognizes whether or not the intersection K exists within the predetermined distance Lk in the traveling direction of the host vehicle Ca (step # 34).

そして、ステップ#34において、自車両Caの進行方向の所定距離Lk内に交差点Kが存在しないと認識した場合には(ステップ#35:NO)、処理は終了する。一方、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には(ステップ#35:YES)、次に、走行状態判定部15において、交差点Kまでの距離に対して自車両Caの車速が高いか否かを判定する(ステップ#36)。次に、ナビゲーション用演算部11の減速必要性判定部30において、ステップ#34で認識された交差点Kでの減速要求があるか否かの判定を行う(ステップ#37)。ここで減速要求がないと判定された場合には(ステップ#37:NO)、処理は終了する。一方、減速要求があると判定された場合には(ステップ#37:YES)、次に、地物情報抽出部8において、自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された地物fについての地物情報Fを地図情報Eから抽出する(ステップ#38)。本例では、交差点Kに交差する道路R1に沿って配置された連続性のある地物fについての地物情報Fを地図情報Eから抽出する。次に、画像認識部9において、ステップ#38で抽出された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う(ステップ#39)。   If it is determined in step # 34 that the intersection K does not exist within the predetermined distance Lk in the traveling direction of the host vehicle Ca (step # 35: NO), the process ends. On the other hand, when it is recognized that the intersection K exists within the predetermined distance Lk in the traveling direction of the host vehicle Ca (step # 35: YES), the travel state determination unit 15 then determines the distance to the intersection K. It is determined whether or not the vehicle speed of the host vehicle Ca is high (step # 36). Next, the deceleration necessity determination unit 30 of the navigation calculation unit 11 determines whether or not there is a deceleration request at the intersection K recognized in step # 34 (step # 37). If it is determined that there is no deceleration request (step # 37: NO), the process ends. On the other hand, when it is determined that there is a deceleration request (step # 37: YES), the feature information extraction unit 8 then places the road R1 that intersects the intersection K existing in the traveling direction of the host vehicle Ca. The feature information F for the feature f thus extracted is extracted from the map information E (step # 38). In this example, the feature information F about the continuous feature f arranged along the road R1 intersecting the intersection K is extracted from the map information E. Next, the image recognition unit 9 performs image recognition of the feature f included in the image information G based on the feature information F extracted in step # 38 (step # 39).

その後、障害物認識部10において、ステップ#39の画像認識結果に基づいて、自車両Caの進行方向の交差点Kの通行に影響を与える障害物Bの存在状況を認識する(ステップ#40)。この障害物認識処理は、図11のフローチャートに示される上記第一の実施形態での障害物認識処理とほぼ同じであるが、ステップ#24の障害物Bの配置認識を行わない点で相違する。そして、ステップ#40において障害物Bが存在しないと認識した場合には(ステップ#41:NO)、処理は終了する。一方、ステップ#40において障害物Bが存在すると認識した場合には(ステップ#41:YES)、ナビゲーション用演算部11の減速必要性判定部30において、自車両Caの減速必要性を判定する(ステップ#42)。このステップ#42において自車両Caの減速必要性がないと判定した場合には(ステップ#43:NO)、処理は終了する。一方、ステップ#42において自車両Caの減速必要性があると判定した場合には(ステップ#43:YES)、ナビゲーション用演算部11及び車両制御部16において、運転者に対して減速を促す警告のための報知、及び自車両Caを減速させるための各部の動作制御の一方又は双方を実行する(ステップ#44)。以上で処理は終了する。   Thereafter, the obstacle recognition unit 10 recognizes the presence state of the obstacle B that affects the passage of the intersection K in the traveling direction of the host vehicle Ca based on the image recognition result of step # 39 (step # 40). This obstacle recognition process is almost the same as the obstacle recognition process in the first embodiment shown in the flowchart of FIG. 11 except that the obstacle recognition of the obstacle B in step # 24 is not performed. . When it is recognized in step # 40 that no obstacle B exists (step # 41: NO), the process ends. On the other hand, when it is recognized in step # 40 that the obstacle B exists (step # 41: YES), the deceleration necessity determination unit 30 of the navigation calculation unit 11 determines the necessity for deceleration of the host vehicle Ca ( Step # 42). If it is determined in step # 42 that the host vehicle Ca does not need to be decelerated (step # 43: NO), the process ends. On the other hand, if it is determined in step # 42 that the host vehicle Ca needs to be decelerated (step # 43: YES), the navigation calculation unit 11 and the vehicle control unit 16 warn the driver to decelerate. One or both of the notification for the control and the operation control of each part for decelerating the host vehicle Ca is executed (step # 44). The process ends here.

3.その他の実施形態
(1)上記第一の実施形態では、ナビゲーション装置2は車両制御部16を備えない構成として説明した。しかし、上記第一の実施形態に係る周辺状況認識装置1を含むナビゲーション装置2において、上記第二の実施形態と同様に車両制御部16を備えた構成とし、車両制御装置3を兼ねたナビゲーション装置2とすることも好適な実施形態の一つである。
3. Other Embodiments (1) In the first embodiment described above, the navigation device 2 has been described as a configuration that does not include the vehicle control unit 16. However, the navigation device 2 including the surrounding situation recognition device 1 according to the first embodiment has a configuration including the vehicle control unit 16 as in the second embodiment, and also serves as the vehicle control device 3. 2 is also one of the preferred embodiments.

(2)上記の各実施形態では、撮像装置4として、その進行方向周辺を撮像可能なフロントカメラを備えている場合について説明した。しかし、撮像装置4の構成は、これに限定されない。したがって、例えば、撮像装置4として、フロントカメラに加えて自車両Caの後方を撮像するバックカメラや、自車両Caの左右側方を撮像するサイドカメラ等を備える構成とし、これらの複数のカメラからの画像情報Gを用いて、障害物Bの認識を行う構成とすることも好適な実施形態の一つである。 (2) In each of the above-described embodiments, a case has been described in which the imaging device 4 includes a front camera capable of imaging the periphery of the traveling direction. However, the configuration of the imaging device 4 is not limited to this. Therefore, for example, the imaging device 4 includes a back camera that captures the rear of the host vehicle Ca in addition to the front camera, a side camera that captures the left and right sides of the host vehicle Ca, and the like. It is also a preferred embodiment that the obstacle B is recognized using the image information G.

(3)上記の各実施形態では、地物情報抽出部8において区画線faの地物情報Fを抽出して画像認識を行う場合について説明した。しかし、画像認識の対象とする地物fは区画線faに限定されない。すなわち、画像認識の対象を、道路の縁石や区画線fa以外の道路標示等の地物fとすることも好適な実施形態の一つである。また、ガードレール等の立体的な地物fを画像認識の対象とすることも可能である。なお、区画線fa以外の地物fを画像認識の対象とする場合であっても、縁石やガードレール等の道路に沿って配置された連続性のある地物fを対象とすれば、障害物Bの配置を道路に沿って連続的に認識することが可能となるのでより好適である。 (3) In each of the above embodiments, the case has been described in which the feature information extraction unit 8 extracts the feature information F of the lane marking fa and performs image recognition. However, the feature f to be subjected to image recognition is not limited to the lane marking fa. That is, in another preferred embodiment, the image recognition target is a feature f such as a road marking other than a curb or road marking fa. It is also possible to use a three-dimensional feature f such as a guardrail as an object of image recognition. Even if the feature f other than the lane marking fa is the target of image recognition, if the target feature is a continuous feature f arranged along a road such as a curb or a guardrail, it is an obstacle. It is more preferable because the arrangement of B can be continuously recognized along the road.

(4)上記の各実施形態では、本発明に係る周辺状況認識装置1をナビゲーション装置2や車両制御装置3に適用する場合の例について説明した。しかし、本発明に係る周辺状況認識装置1は、その他の装置、例えば、自車両Caの周辺状況に応じてシートベルトの張力を調節するシートベルトテンショナーやその他の車両用の安全装置等にも適用することが可能である。 (4) In each of the above-described embodiments, examples in the case where the surrounding situation recognition device 1 according to the present invention is applied to the navigation device 2 and the vehicle control device 3 have been described. However, the peripheral situation recognition apparatus 1 according to the present invention is also applicable to other apparatuses, for example, a seat belt tensioner that adjusts the tension of the seat belt according to the peripheral situation of the host vehicle Ca, and other vehicle safety devices. Is possible.

本発明によれば、撮像装置からの画像情報とデータベースから取得した地物情報とに基づいて、自車両の周辺における障害物の存在状況を認識することができる。したがって、本発明は、ナビゲーション装置による案内や車両制御装置による車両制御等に好適に利用することができる。   According to the present invention, it is possible to recognize the presence of an obstacle around the host vehicle based on the image information from the imaging device and the feature information acquired from the database. Therefore, the present invention can be suitably used for guidance by a navigation device, vehicle control by a vehicle control device, and the like.

本発明の第一の実施形態に係る周辺状況認識装置の全体構成を模式的に示すブロック図The block diagram which shows typically the whole structure of the periphery condition recognition apparatus which concerns on 1st embodiment of this invention. 撮像装置の配置を示す説明図Explanatory drawing which shows arrangement | positioning of an imaging device 地図データベースに格納されている地図情報の内容を示す説明図Explanatory diagram showing the contents of the map information stored in the map database 撮像装置により撮像された画像情報の一例を示す図The figure which shows an example of the image information imaged with the imaging device 自車両周辺の地図情報の一例を示す図The figure which shows an example of the map information around the own vehicle 地図情報から地物情報を抽出する処理の説明図Explanatory drawing of processing to extract feature information from map information (a)周囲に障害物が存在しない状況で取得された(b)画像情報及び(c)その画像情報の画像認識結果の例を示す図(A) The figure which shows the example of the image recognition result of (b) image information and (c) the image information acquired in the condition where there is no obstacle around (a)自車線の隣接車線に障害物が存在する状況で取得された(b)画像情報及び(c)その画像認識結果の例を示す図(A) The figure which shows the example of (b) image information acquired in the condition where an obstacle exists in the adjacent lane of the own lane, and (c) the image recognition result 障害物の位置及び大きさを認識する処理の説明図Explanatory diagram of processing to recognize the position and size of the obstacle 本発明の第一の実施形態に係る周辺状況認識方法及びそれを用いた車線変更案内方法を示すフローチャートThe flowchart which shows the surrounding condition recognition method which concerns on 1st embodiment of this invention, and a lane change guidance method using the same 図10のステップ#08の障害物認識処理を示すフローチャートThe flowchart which shows the obstruction recognition processing of step # 08 of FIG. 本発明の第二の実施形態に係る周辺状況認識装置の全体構成を模式的に示すブロック図The block diagram which shows typically the whole structure of the periphery condition recognition apparatus which concerns on 2nd embodiment of this invention. 自車両及びその進行方向に存在する交差点の周辺の地図情報の一例を示す図The figure which shows an example of the map information around the intersection which exists in the own vehicle and its advancing direction 自車両の進行方向に存在する交差点の周辺に障害物が存在しない状況を示す平面図The top view which shows the situation where there is no obstacle around the intersection which exists in the advancing direction of the own vehicle 図14に示される状況で撮像された(a)画像情報及び(b)その画像認識結果の例を示す図The figure which shows the example of (a) image information and (b) the image recognition result imaged in the condition shown by FIG. 自車両の進行方向に存在する交差点の通行に影響を与える障害物が存在する状況を示す平面図The top view which shows the situation where the obstacle which affects the traffic of the intersection which exists in the traveling direction of the own vehicle exists 図16に示される状況で撮像された(a)画像情報及び(b)その画像認識結果の例を示す図The figure which shows the example of (a) image information and (b) the image recognition result imaged in the condition shown by FIG. 本発明の第二の実施形態に係る周辺状況認識方法並びにそれを用いた減速案内方法及び減速制御方法を示すフローチャートFlowchart showing a surrounding situation recognition method and a deceleration guide method and a deceleration control method using the same according to the second embodiment of the present invention.

1:周辺状況認識装置
2:ナビゲーション装置
3:車両制御装置
4:撮像装置
5:画像情報取得部(画像情報取得手段)
6:自車位置演算部
7:地図情報取得部
8:地物情報抽出部
9:画像認識部(画像認識手段)
10:障害物認識部(障害物認識手段)
11:ナビゲーション用演算部
12:自車線認識部(自車線認識手段)
13:車線変更判定部
14:交差点認識部(距離情報取得手段)
15:走行状態判定部(走行状態判定手段)
16:車両制御部(制御手段)
17:地物情報取得手段
24:車速センサ(車速情報取得手段)
25:認識率判定部
26:配置認識部
27:表示装置
28:音声出力装置
29:車線変更要求生成部
30:減速必要性判定部
31:進路案内手段
32:報知手段
G:画像情報
S:自車位置情報
E:地図情報
F:地物情報
DB:地図データベース
La:自車線
Lb:隣接車線
B:障害物
Ca:自車両
f:地物
K:交差点
1: peripheral situation recognition device 2: navigation device 3: vehicle control device 4: imaging device 5: image information acquisition unit (image information acquisition means)
6: own vehicle position calculation unit 7: map information acquisition unit 8: feature information extraction unit 9: image recognition unit (image recognition means)
10: Obstacle recognition unit (obstacle recognition means)
11: Calculation unit for navigation 12: Own lane recognition unit (own lane recognition means)
13: Lane change determination unit 14: Intersection recognition unit (distance information acquisition means)
15: Traveling state determination unit (traveling state determination means)
16: Vehicle control unit (control means)
17: Feature information acquisition means 24: Vehicle speed sensor (vehicle speed information acquisition means)
25: Recognition rate determination unit 26: Arrangement recognition unit 27: Display device 28: Audio output device 29: Lane change request generation unit 30: Deceleration necessity determination unit 31: Route guidance unit 32: Notification unit G: Image information S: Self Vehicle position information E: Map information F: Feature information DB: Map database La: Own lane Lb: Adjacent lane B: Obstacle Ca: Own vehicle f: Feature K: Intersection

Claims (9)

自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得手段と、
自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得手段と、
前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識手段と、
その画像認識結果に基づいて、自車両の周辺における障害物の存在状況を認識する障害物認識手段と、を備え、
前記地物情報取得手段は、道路に沿って配置された連続性のある地物についての地物情報を取得し、
前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、自車両と当該地物との間に障害物が存在すると認識し、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識手段による画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する周辺状況認識装置。
Image information acquisition means for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle;
Feature information acquisition means for acquiring feature information about features around the vehicle from a database;
Image recognition means for performing image recognition of a feature included in the image information based on the feature information;
Obstacle recognition means for recognizing the presence of obstacles around the vehicle based on the image recognition result,
The feature information acquisition means acquires feature information about a continuous feature arranged along a road,
The obstacle recognizing unit is configured to detect the vehicle when the image recognizing unit cannot recognize all or a part of an image of the feature that should be included in the image information based on the feature information. And the feature is recognized as an obstacle, and the arrangement of the continuous feature based on the feature information based on the own vehicle and the image recognition result by the image recognition means A peripheral situation recognition device for recognizing the position and size of the obstacle based on the arrangement of the unrecognizable portion of the continuous feature based thereon .
車両が走行中の車線である自車線を認識する自車線認識手段を更に備え、
前記地物情報取得手段は、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、
前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、前記自車線に隣接する車線上に障害物が存在すると認識する請求項1に記載の周辺状況認識装置。
It further comprises own lane recognition means for recognizing the own lane that is the lane in which the own vehicle is traveling ,
The feature information acquisition means acquires feature information about a feature located behind a lane adjacent to the own lane from a database ,
The obstacle recognizing means, for the features that should be included in the image information based on the feature information, when all or part of the images of the features cannot be recognized by the image recognizing means, The surrounding state recognition apparatus according to claim 1, wherein an obstacle is recognized on the lane adjacent to the own lane.
前記障害物認識手段による認識結果に基づいて、前記自車線に隣接する車線への車線変更の可否を判定する車線変更判定手段を更に備える請求項2に記載の周辺状況認識装置。   The surrounding state recognition device according to claim 2, further comprising a lane change determination unit that determines whether or not a lane change to a lane adjacent to the own lane is possible based on a recognition result by the obstacle recognition unit. 前記連続性のある地物は、道路面上に設けられた区画線、及び道路に沿って配置された縁石の少なくとも一方を含む請求項1から3のいずれか一項に記載の周辺状況認識装置。 The surrounding situation recognition device according to any one of claims 1 to 3, wherein the continuous feature includes at least one of a lane marking provided on a road surface and a curb arranged along the road. . 前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記連続性のある地物についての、前記画像認識手段による当該地物の認識できた部分の割合に基づいて、前記障害物の存在状況を認識する請求項1から4のいずれか一項に記載の周辺状況認識装置。 The obstacle recognizing unit is based on a ratio of a portion of the feature that can be recognized by the image recognizing unit with respect to the continuous feature that should be included in the image information based on the feature information. The surrounding state recognition device according to any one of claims 1 to 4 , wherein the presence state of the obstacle is recognized. 請求項3に記載の周辺状況認識装置と、自車両の進路案内を行う進路案内手段と、を備え、
前記進路案内手段は、自車両の車線変更が必要であって、且つ前記車線変更判定手段により車線変更可能と判断した場合に、車線変更の案内を行うナビゲーション装置。
A surrounding situation recognition device according to claim 3, and a route guidance means for performing route guidance of the host vehicle,
The navigation device for guiding the lane change when the lane change of the host vehicle is necessary and the lane change determination unit determines that the lane change is possible.
請求項1からのいずれか一項に記載の周辺状況認識装置と、自車両の各部の動作制御を行う制御手段と、を備え、
前記制御手段は、前記障害物認識手段による認識結果に基づいて自車両の各部の動作制御を行う車両制御装置。
A surrounding situation recognition device according to any one of claims 1 to 5 , and a control means for controlling the operation of each part of the host vehicle,
The said control means is a vehicle control apparatus which controls operation | movement of each part of the own vehicle based on the recognition result by the said obstacle recognition means.
自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得ステップと、
自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得ステップと、
前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識ステップと、
前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車両と当該地物との間に障害物が存在すると認識する障害物認識ステップと、
を備え
前記地物情報取得ステップでは、道路に沿って配置された連続性のある地物についての地物情報を取得し、
前記障害物認識ステップでは、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識ステップによる画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する周辺状況認識方法。
An image information acquisition step of acquiring image information from an imaging device capable of imaging the periphery of the host vehicle;
A feature information acquisition step of acquiring feature information about features around the vehicle from a database;
An image recognition step for recognizing an image of a feature included in the image information based on the feature information;
For a feature that should be included in the image information based on the feature information, when all or a part of the image of the feature cannot be recognized by the image recognition step, between the vehicle and the feature An obstacle recognition step for recognizing that an obstacle exists in the
Equipped with a,
In the feature information acquisition step, the feature information about the continuous features arranged along the road is acquired,
In the obstacle recognizing step, further, the arrangement of the continuous features based on the own vehicle of the continuous features based on the feature information and the continuous features based on the image recognition result in the image recognition step. A surrounding situation recognition method for recognizing the position and size of the obstacle based on the arrangement of unrecognizable portions .
車両が走行中の車線である自車線を認識する自車線認識ステップを更に備え、
前記地物情報取得ステップは、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、
前記障害物認識ステップは、地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車線に隣接する車線上に障害物が存在すると認識する請求項8に記載の周辺状況認識方法。
A vehicle lane recognition step for recognizing the vehicle lane that is the lane in which the vehicle is traveling ;
The feature information obtaining step obtains pre Symbol feature information about feature located behind from the lane adjacent to the own lane from the database,
In the obstacle recognition step, when the feature which should be included in the image information on the basis of the feature information cannot be recognized by the image recognition step, all or a part of the feature can be recognized in the own lane. The surrounding situation recognition method according to claim 8, wherein an obstacle is recognized in an adjacent lane.
JP2006089020A 2006-03-28 2006-03-28 Peripheral situation recognition device and method Expired - Fee Related JP4692831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006089020A JP4692831B2 (en) 2006-03-28 2006-03-28 Peripheral situation recognition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006089020A JP4692831B2 (en) 2006-03-28 2006-03-28 Peripheral situation recognition device and method

Publications (2)

Publication Number Publication Date
JP2007266975A JP2007266975A (en) 2007-10-11
JP4692831B2 true JP4692831B2 (en) 2011-06-01

Family

ID=38639528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006089020A Expired - Fee Related JP4692831B2 (en) 2006-03-28 2006-03-28 Peripheral situation recognition device and method

Country Status (1)

Country Link
JP (1) JP4692831B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101262921B1 (en) 2009-11-10 2013-05-09 한국전자통신연구원 Apparatus for keeping a traffic lane for a vehicle and method thereof
EP2574958B1 (en) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Road-terrain detection method and system for driver assistance systems
JP2016048226A (en) * 2014-08-28 2016-04-07 パイオニア株式会社 Information processing apparatus, information processing method, and program for information processing and recording medium
KR102036050B1 (en) * 2014-12-30 2019-10-24 주식회사 만도 Apparatuses and Methods for line changing
CN108352116B (en) * 2015-07-31 2022-04-05 日立安斯泰莫株式会社 Vehicle surrounding information management device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168198A (en) * 2001-11-30 2003-06-13 Toyota Motor Corp Vehicle lane decision apparatus and vehicle controller
JP2004205398A (en) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd Vehicle radar device and optical axis adjustment method of radar

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09178505A (en) * 1995-12-27 1997-07-11 Pioneer Electron Corp Drive assist system
JP3592043B2 (en) * 1997-07-31 2004-11-24 トヨタ自動車株式会社 Intersection warning device
JPH11345392A (en) * 1998-06-02 1999-12-14 Nissan Motor Co Ltd Device and method for detecting obstacle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003168198A (en) * 2001-11-30 2003-06-13 Toyota Motor Corp Vehicle lane decision apparatus and vehicle controller
JP2004205398A (en) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd Vehicle radar device and optical axis adjustment method of radar

Also Published As

Publication number Publication date
JP2007266975A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4614098B2 (en) Peripheral situation recognition device and method
KR102295392B1 (en) Preparing autonomous vehicles for turns
JP4729905B2 (en) Vehicle notification device and program
CN106462727B (en) Vehicle, lane ending detection system and method
JP6566132B2 (en) Object detection method and object detection apparatus
JP6250180B2 (en) Vehicle irradiation control system and image irradiation control method
JP5198835B2 (en) Method and system for presenting video images
JP6930152B2 (en) Autonomous driving system
KR20210083462A (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle
US11987239B2 (en) Driving assistance device
JP2006209511A (en) Image recognition device and method, position specification device using it, vehicle controller, and navigation device
EP3986761A1 (en) Detection of emergency vehicles
US20140152432A1 (en) Method for Detecting a Traffic Lane by Means of a Camera
KR102367952B1 (en) Vision System, Vehicle having the same and method for controlling the vehicle
US11845435B2 (en) Driving assistance device
JP6613265B2 (en) Prediction device, vehicle, prediction method and program
JP2009023560A (en) Driving support device
EP3712873B1 (en) Danger spot identification device, danger spot identification method and program
JP5146482B2 (en) Intersection point map creation device and program for intersection point map creation device
JP4692831B2 (en) Peripheral situation recognition device and method
CN113228128B (en) Driving assistance method and driving assistance device
JP4912495B2 (en) Image recognition apparatus and method, and navigation apparatus
JP5458729B2 (en) Driving guidance device
JP6540517B2 (en) Driving support information provision device
JP2004295597A (en) Stop line detecting device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110209

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4692831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150304

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees