JP4692831B2 - Peripheral situation recognition device and method - Google Patents
Peripheral situation recognition device and method Download PDFInfo
- Publication number
- JP4692831B2 JP4692831B2 JP2006089020A JP2006089020A JP4692831B2 JP 4692831 B2 JP4692831 B2 JP 4692831B2 JP 2006089020 A JP2006089020 A JP 2006089020A JP 2006089020 A JP2006089020 A JP 2006089020A JP 4692831 B2 JP4692831 B2 JP 4692831B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- feature
- obstacle
- image
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、撮像装置からの画像情報とデータベースから取得した地物情報とに基づいて、自車両の周辺における障害物の存在状況を認識する周辺状況認識装置及び方法、並びにこの周辺状況認識装置を用いたナビゲーション装置及び車両制御装置に関する。 The present invention relates to a surrounding situation recognition device and method for recognizing the presence of an obstacle around a host vehicle based on image information from an imaging device and feature information acquired from a database, and the surrounding situation recognition device. The present invention relates to a navigation device and a vehicle control device used.
車両に搭載されるカメラやレーダ等を用いて自車両の周辺に存在する障害物を認識する技術が既に知られている。このような技術に関して、例えば下記の特許文献1には、以下のような障害物検出装置が開示されている。この装置は、ナビゲーション装置等から取得した情報に基づき自車両の走行路の進行方向前方あるいは予測した進行軌跡上の道路構成として、少なくとも交差道路の有無または車線数を検出する。そして、自車両の現在位置と進行方向(直進、右左折、車線変更等)に応じて、さらに、視線検出装置にて検出される運転者の視線方向に応じて、レーダの検知方向およびカメラの撮像方向を設定する。そして、制御装置はレーダやカメラにより検知した移動体や障害物が自車両の走行の支障となる可能性を算出し、この可能性に応じて制動装置や各種伝達装置やエアバッグ等の乗員保護装置を作動させる。
A technique for recognizing an obstacle existing around a host vehicle using a camera or a radar mounted on the vehicle is already known. Regarding such a technique, for example,
ここで、レーダは、レーザ光やミリ波等の発信信号を適宜の検知方向に向けて発信すると共に、この発信信号が障害物等によって反射されることで生じた反射信号を受信する。そして、これらの反射信号と発信信号とに基づいて、所定の検知エリア内の領域における障害物までの相対距離や相対速度等を算出する。また、カメラは、例えば可視光領域や赤外線領域にて撮像可能なCCDカメラ等であって、適宜の検知方向での外界を撮影する。そして、画像処理部により、カメラから出力される画像を画像処理して、自車両周辺の他の車両、歩行者等の障害物や標識等を検出する。また、これらの検出結果と共に、自車両から認識した各障害物までの相対距離の情報等を生成して出力する。 Here, the radar transmits a transmission signal such as a laser beam or a millimeter wave in an appropriate detection direction, and receives a reflection signal generated by reflecting the transmission signal by an obstacle or the like. Then, based on these reflection signal and transmission signal, a relative distance, a relative speed, and the like to an obstacle in a region within a predetermined detection area are calculated. The camera is, for example, a CCD camera that can capture an image in the visible light region or the infrared region, and images the outside world in an appropriate detection direction. Then, the image processing unit performs image processing on the image output from the camera, and detects other vehicles around the host vehicle, obstacles such as pedestrians, signs, and the like. Further, along with these detection results, information on the relative distances from the host vehicle to each obstacle recognized is generated and output.
しかし、上記の装置のように、レーダやカメラ等の撮像装置を用いた画像認識により、自車両の周辺の他の車両や歩行者等を直接的に認識する構成では、実際には誤認識が多く発生するため、実用的な装置とすることが困難であるという問題がある。すなわち、車両や歩行者等の認識対象物以外にも、現実の道路周辺には樹木、柵、歩道等の様々なものが存在し、それらがノイズ成分となるために認識対象物の正確な認識が妨げられる。また、特に画像認識を行う場合において、車両等の認識対象の形状や色彩等が様々であるため、それらの全てを正確に認識できる装置を構成することは困難である。そして、これらの問題を克服して高精度な認識を可能とするためには、高性能で高価なシステムが必要とされる。 However, as in the case of the above-described device, in a configuration that directly recognizes other vehicles, pedestrians, and the like around the host vehicle by image recognition using an imaging device such as a radar or a camera, erroneous recognition is actually performed. Since it occurs frequently, there is a problem that it is difficult to make a practical device. In other words, in addition to objects to be recognized such as vehicles and pedestrians, various objects such as trees, fences, and sidewalks exist around the actual road, and these become noise components, so that the object to be recognized is accurately recognized. Is disturbed. In particular, when performing image recognition, it is difficult to configure an apparatus that can accurately recognize all of the shapes, colors, and the like of recognition targets such as vehicles. In order to overcome these problems and enable highly accurate recognition, a high-performance and expensive system is required.
本発明は、上記の課題に鑑みてなされたものであり、その目的は、画像認識を用いて自車両周辺に存在する障害物を認識する場合において、当該認識対象としての障害物の形状や色彩等の様々な違いによる影響、或いは周辺に存在するノイズ成分となり得るものの影響を受け難く、安定的に障害物の認識が可能な周辺状況認識装置及び周辺状況認識方法を、比較的簡易な構成により実現することにある。 The present invention has been made in view of the above problems, and its object is to recognize the shape and color of an obstacle as a recognition target when recognizing an obstacle around the host vehicle using image recognition. The surrounding situation recognition device and the surrounding situation recognition method that are not easily affected by various differences such as the above, or that can be noise components that exist in the vicinity, and that can stably recognize obstacles, have a relatively simple configuration. It is to be realized.
上記目的を達成するための本発明に係る周辺状況認識装置の特徴構成は、自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得手段と、自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得手段と、前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識手段と、その画像認識結果に基づいて、自車両の周辺における障害物の存在状況を認識する障害物認識手段と、を備え、前記地物情報取得手段は、道路に沿って配置された連続性のある地物についての地物情報を取得し、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、自車両と当該地物との間に障害物が存在すると認識し、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識手段による画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する点にある。 In order to achieve the above object, the feature configuration of the surrounding situation recognition device according to the present invention is an image information acquisition means for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle, and features on the surroundings of the host vehicle. Feature information acquisition means for acquiring feature information from the database, image recognition means for performing image recognition of the feature included in the image information based on the feature information, and based on the image recognition result Obstacle recognition means for recognizing the presence of obstacles in the vicinity of the host vehicle, wherein the feature information acquisition means obtains feature information about continuous features arranged along the road. The obstacle recognizing means acquires the feature that should be included in the image information based on the feature information, when all or part of the image of the feature cannot be recognized by the image recognizing means. , Own vehicle and this Recognizes that an obstacle exists between the feature further comprises a arrangement relative to the vehicle of the feature with the continuous based on the feature information, the based on the image recognition results by the image recognition unit The position and the size of the obstacle are recognized based on the arrangement of the unrecognizable portion of the continuous feature .
この特徴構成によれば、自車両の周辺に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成によって自車両周辺の障害物の安定的な認識を行うことが可能な装置とすることができる。 According to this characteristic configuration, the obstacle existing around the host vehicle is recognized based on the image recognition result for the feature indicated in the feature information acquired from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it can be set as the apparatus which can perform the stable recognition of the obstacle around the own vehicle by a comparatively simple structure.
また、上記のように構成すれば、当該連続性のある地物の配置に応じて、障害物の配置を道路に沿って連続的に認識することが可能となる。したがって、自車両の周囲の障害物の配置をより詳しく認識することが可能となる。 Moreover, if comprised as mentioned above , according to the arrangement | positioning of the said continuous feature, it will become possible to recognize the arrangement | positioning of an obstacle continuously along a road. Therefore, it is possible to recognize the arrangement of obstacles around the host vehicle in more detail.
また、上記のように構成すれば、地物情報に基づいて連続性のある地物が画像認識されるべき位置にも関わらず、画像認識されない部分に障害物が存在するものとして、自車両の位置を基準として障害物の位置及び大きさを演算して認識することができる。したがって、障害物の存在状況をより詳細に認識することができる。 Further, if configured as described above, it is assumed that there is an obstacle in a portion where image recognition is not performed despite the position where the continuous feature should be image-recognized based on the feature information. The position and size of the obstacle can be calculated and recognized based on the position. Therefore, the presence state of the obstacle can be recognized in more detail.
ここで、自車両が走行中の車線である自車線を認識する自車線認識手段を更に備え、前記地物情報取得手段は、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、前記自車線に隣接する車線上に障害物が存在すると認識すると好適である。 Here, the vehicle further includes a vehicle lane recognizing unit that recognizes the vehicle lane that is the lane in which the vehicle is traveling, and the feature information acquisition unit includes a feature for a feature located in the back of the lane adjacent to the vehicle lane. Object information is acquired from a database, and the obstacle recognizing means recognizes, for the feature that should be included in the image information based on the feature information, all or a part of the image of the feature. When it cannot be recognized by the means, it is preferable to recognize that there is an obstacle on the lane adjacent to the own lane .
この構成によれば、自車線に隣接する車線上に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成によって自車線に隣接する車線上の障害物の安定的な認識を行うことが可能な装置とすることができる。 According to configuration of this, the recognition of the obstacle existing on a lane adjacent to the own lane, will be performed based on the image recognition results for features shown in the feature information obtained from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it can be set as the apparatus which can perform the stable recognition of the obstruction on the lane adjacent to the own lane with a comparatively simple structure.
ここで、前記障害物認識手段による認識結果に基づいて、前記自車線に隣接する車線への車線変更の可否を判定する車線変更判定手段を更に備える構成とすると好適である。 Here, it is preferable to further include lane change determination means for determining whether or not a lane change to a lane adjacent to the own lane is possible based on a recognition result by the obstacle recognition means.
このように構成すれば、障害物認識手段による自車線に隣接する車線上における障害物の存在状況の認識結果に基づいて、自車両の車線変更の可否を判定することができる。したがって、比較的簡易な構成によって車線変更の可否の安定的な判定を行うことが可能な装置とすることができる。 According to this configuration, it is possible to determine whether or not the lane of the host vehicle can be changed based on the recognition result of the presence condition of the obstacle on the lane adjacent to the host lane by the obstacle recognition unit. Therefore, it can be set as the apparatus which can perform the stable determination of the possibility of a lane change with a comparatively simple structure.
ここで、前記連続性のある地物は、道路面上に設けられた区画線、及び道路に沿って配置された縁石の少なくとも一方を含む構成とすると特に好適である。
これらの地物は、その周囲や背後に道路面以外の雑多なものが撮像されることが少なく、また道路面との色彩の差も大きい。そのため画像認識が比較的容易であり、一層安定的な障害物の認識を行うことが可能となる。
Here, it is particularly preferable that the continuous feature includes at least one of a lane marking provided on the road surface and a curb arranged along the road.
As for these features, various things other than the road surface are rarely imaged around and behind them, and the color difference from the road surface is large. Therefore, image recognition is relatively easy, and it becomes possible to recognize obstacles more stably.
また、前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記連続性のある地物についての、前記画像認識手段による当該地物の認識できた部分の割合に基づいて、前記障害物の存在状況を認識する構成とすると好適である。 Further, the obstacle recognizing means is a ratio of a portion of the feature that can be recognized by the image recognizing means with respect to the continuous features that should be included in the image information based on the feature information. It is preferable to adopt a configuration for recognizing the presence of the obstacle based on the above.
このように構成すれば、画像情報に含まれているべき連続性のある地物についての画像認識できた部分の割合に基づいて、その割合が高いほど障害物が存在する割合が少ないものとして、簡易的に障害物の存在状況を認識することが可能となる。 If constituted in this way, based on the ratio of the part that was able to recognize the image about the continuous feature that should be included in the image information, the higher the ratio, the less the ratio that the obstacle exists, It becomes possible to easily recognize the presence of an obstacle.
本発明に係るナビゲーション装置の特徴構成は、上記の構成を備えた周辺状況認識装置と、自車両の進路案内を行う進路案内手段と、を備え、前記進路案内手段は、自車両の車線変更が必要であって、且つ前記車線変更判定手段により車線変更可能と判断した場合に、車線変更の案内を行う点にある。 A characteristic configuration of the navigation device according to the present invention includes a surrounding situation recognition device having the above-described configuration, and a route guidance unit that performs route guidance of the host vehicle. The route guide unit is configured to change the lane of the host vehicle. When it is necessary and the lane change determination means determines that the lane change is possible, the lane change guidance is provided.
この特徴構成によれば、自車両の車線変更が必要な場合であっても、自車線に隣接する車線への車線変更が可能である場合にのみ車線変更の案内を行うので、車線変更の際の安全性を高めることが可能となる。また、車線変更が不可能な状況で車線変更の案内を行わないことで、運転者が案内によるわずらわしさを感じることを抑制できる。 According to this feature configuration, even when the lane change of the host vehicle is necessary, the lane change guidance is provided only when the lane change to the lane adjacent to the host lane is possible. It becomes possible to improve the safety of the machine. Moreover, it is possible to prevent the driver from feeling troublesome by not performing guidance for lane change in a situation where lane change is not possible.
本発明に係る車両制御装置の特徴構成は、上記の構成を備えた周辺状況認識装置と、自車両の各部の動作制御を行う制御手段と、を備え、前記制御手段は、前記障害物認識手段による認識結果に基づいて自車両の各部の動作制御を行う点にある。 A characteristic configuration of a vehicle control device according to the present invention includes a surrounding situation recognition device having the above-described configuration, and a control unit that performs operation control of each unit of the host vehicle, wherein the control unit is the obstacle recognition unit. The operation control of each part of the host vehicle is performed based on the recognition result of the vehicle.
この特徴構成によれば、自車両の周辺における障害物の存在状況に応じて、例えば、自車両が障害物に接近することを防止し或いは減速する等のための車両各部の制御又はそのような制御のための運転者の操作の補助等、適切な車両制御を行うことが可能となる。 According to this characteristic configuration, for example, the control of each part of the vehicle for preventing the host vehicle from approaching the obstacle or decelerating or the like according to the presence situation of the obstacle around the host vehicle or such Appropriate vehicle control, such as assisting the driver's operation for control, can be performed.
本発明に係る周辺状況認識方法の特徴構成は、自車両周辺を撮像可能な撮像装置からの画像情報を取得する画像情報取得ステップと、自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得ステップと、前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識ステップと、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車両と当該地物との間に障害物が存在すると認識する障害物認識ステップと、を備え、前記地物情報取得ステップでは、道路に沿って配置された連続性のある地物についての地物情報を取得し、前記障害物認識ステップでは、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識ステップによる画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する点にある。 The characteristic configuration of the surrounding situation recognition method according to the present invention includes an image information acquisition step for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle, and acquires feature information about the features around the host vehicle from the database. Included in the image information based on the feature information, and an image recognition step for performing image recognition of the feature included in the image information based on the feature information. An obstacle recognition step for recognizing that there is an obstacle between the vehicle and the feature when all or a part of the image of the feature is not recognized by the image recognition step; comprising a, in the feature information acquiring step, acquires feature information about the feature that a continuous arranged along the road, in the obstacle recognition step, further, based on the feature information The position of the obstacle based on the arrangement of the continuous feature based on the own vehicle and the arrangement of the unrecognizable portion of the continuous feature based on the image recognition result of the image recognition step. And the point is to recognize the size .
この特徴構成によれば、自車両の周辺に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成の装置を用いて自車両周辺の障害物の安定的な認識を行うことができる。 According to this characteristic configuration, the obstacle existing around the host vehicle is recognized based on the image recognition result for the feature indicated in the feature information acquired from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it is possible to stably recognize obstacles around the host vehicle using an apparatus having a relatively simple configuration.
また、上記のように構成すれば、当該連続性のある地物の配置に応じて、障害物の配置を道路に沿って連続的に認識することが可能となる。したがって、自車両の周囲の障害物の配置をより詳しく認識することが可能となる。 Moreover, if comprised as mentioned above , according to the arrangement | positioning of the said continuous feature, it will become possible to recognize the arrangement | positioning of an obstacle continuously along a road. Therefore, it is possible to recognize the arrangement of obstacles around the host vehicle in more detail.
また、上記のように構成すれば、地物情報に基づいて連続性のある地物が画像認識されるべき位置にも関わらず、画像認識されない部分に障害物が存在するものとして、自車両の位置を基準として障害物の位置及び大きさを演算して認識することができる。したがって、障害物の存在状況をより詳細に認識することができる。 Further, if configured as described above, it is assumed that there is an obstacle in a portion where image recognition is not performed despite the position where the continuous feature should be image-recognized based on the feature information. The position and size of the obstacle can be calculated and recognized based on the position. Therefore, the presence state of the obstacle can be recognized in more detail.
ここで、自車両が走行中の車線である自車線を認識する自車線認識ステップを更に備え、前記地物情報取得ステップは、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、前記障害物認識ステップは、地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車線に隣接する車線上に障害物が存在すると認識する障害物認識ステップと、を備えると好適である。 Here, further comprising a self-lane recognition step recognizes the own lane on which the vehicle is in the lane during driving, the feature information acquiring step, before Symbol for feature located behind from the lane adjacent to the own lane The feature information is acquired from the database, and the obstacle recognition step is configured to recognize the image of all or a part of the feature for the feature to be included in the image information based on the feature information. It is preferable to include an obstacle recognition step of recognizing that an obstacle exists on the lane adjacent to the own lane when the step cannot be recognized .
この構成によれば、自車線に隣接する車線上に存在する障害物の認識を、データベースから取得された地物情報に示される地物についての画像認識結果に基づいて行うことになる。したがって、障害物を直接的に画像認識する場合と比較して、障害物の形状や色彩等の影響を受け難いという利点がある。また、地物情報に基づいて位置、形状、色彩等が予め特定された地物の画像認識を行うため、周辺に存在するノイズ成分となり得るものの影響を受け難いという利点もある。したがって、比較的簡易な構成の装置を用いて自車線に隣接する車線上の障害物の安定的な認識を行うことができる。 According to configuration of this, the recognition of the obstacle existing on a lane adjacent to the own lane, will be performed based on the image recognition results for features shown in the feature information obtained from the database. Therefore, there is an advantage that it is difficult to be affected by the shape and color of the obstacle as compared with the case where the obstacle is directly recognized. In addition, since image recognition is performed on a feature whose position, shape, color, and the like are specified in advance based on the feature information, there is an advantage that it is difficult to be influenced by noise components that may be present in the vicinity. Therefore, it is possible to stably recognize an obstacle on the lane adjacent to the own lane using an apparatus having a relatively simple configuration.
1.第一の実施形態
まず、本発明の第一の実施形態について図面に基づいて説明する。本実施形態では、本発明に係る周辺状況認識装置1をナビゲーション装置2に適用した場合について説明する。図1は、本実施形態に係る周辺状況認識装置1の全体構成を模式的に示すブロック図である。本実施形態に係る周辺状況認識装置1は、地図データベースDBから取得した地物情報Fに基づいて、撮像装置4により撮像された画像情報Gに含まれている自車線Laの隣接車線Lbより奥に位置する区画線fa1の画像認識を行う(図7及び図8参照)。そして、画像情報Gに含まれているべき当該区画線fa1について画像認識できない部分がある場合に隣接車線Lb上に他の車両Cb等の障害物Bが存在すると認識する処理を行う。また、このような障害物Bの認識結果に基づいて、自車両Caの隣接車線Lbへの車線変更の可否を判定し、車線変更が必要な場合であって車線変更可能な場合にのみ運転者に対して車線変更を促すための案内を行う。
1. First Embodiment First, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a case where the surrounding
図1に示すように、この周辺状況認識装置1の各機能部、具体的には、画像情報取得部5、自車位置演算部6、地図情報取得部7、地物情報抽出部8、画像認識部9、障害物認識部10、ナビゲーション用演算部11、自車線認識部12、及び車線変更判定部13は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア(プログラム)或いはその両方により実装されて構成されている。また、地図データベースDBは、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。以下、各部の構成について詳細に説明する。
As shown in FIG. 1, each functional unit of the surrounding
1−1.撮像装置4
撮像装置4は、例えばCCDセンサやCMOSセンサ等の撮像素子と、この撮像素子に光を導くための光学系を構成するレンズ等を有して構成される。この撮像装置4は、自車両Caの周辺の少なくとも道路面を撮像可能に設けられている。本例では、図2に示すように、自車両Caは、撮像装置4として、その進行方向周辺を撮像可能なフロントカメラを備えている。図2中の一点鎖線は、この撮像装置4の撮像領域を示している。
1-1.
The
1−2.画像情報取得部5
画像情報取得部5は、撮像装置4により撮像した画像情報Gを取得する画像情報取得手段として機能する。ここでは、画像情報取得部5は、撮像装置4により撮像したアナログの撮像情報を所定の時間間隔で取り込み、デジタル信号の画像情報Gに変換して画像メモリ21に格納する。この際の画像情報Gの取り込みの時間間隔は、例えば、10〜50ms程度とすることができる。これにより、画像情報取得部5は、自車両Caの周辺を撮像した複数フレームの画像情報Gをほぼ連続的に取得することができる。一旦画像メモリ21に格納された画像情報Gは、画像認識部9及び自車線認識部12へ出力される。
1-2. Image
The image
1−3.自車位置演算部6
自車位置演算部6は、自車両Caの現在位置を示す自車位置情報Sを取得する自車位置情報取得手段として機能する。ここでは、自車位置演算部6は、GPS受信機22、方位センサ23、及び車速センサ24と接続されている。ここで、GPS受信機22は、GPS(Global Positioning System)衛星からのGPS信号を受信する装置である。このGPS信号は、通常1秒おきに受信され、自車位置演算部6へ出力される。自車位置演算部6では、GPS受信機22で受信されたGPS衛星からの信号を解析し、自車の位置(緯度及び経度)、進行方位、移動速度等の情報を取得することができる。方位センサ23は、自車両Caの進行方位又はその進行方位の変化を検出するセンサである。この方位センサ23は、例えば、ジャイロセンサ、地磁気センサ、ハンドルの回転部に取り付けた光学的な回転センサや回転型の抵抗ボリューム、車輪部に取り付ける角度センサ等により構成される。そして、方位センサ23は、その検出結果を自車位置演算部6へ出力する。車速センサ24は、自車両Caの車速や移動距離を検出するセンサである。この車速センサ24は、例えば、車両のドライブシャフトやホイール等が一定量回転する毎にパルス信号を出力する車速パルスセンサ、自車両Caの加速度を検知するヨー・Gセンサ及び検知された加速度を積分する回路等により構成される。そして、車速センサ24は、その検出結果としての車速情報を自車位置演算部6へ出力する。
1-3. Own vehicle
The own vehicle
そして、自車位置演算部6は、これらのGPS受信機22、方位センサ23及び車速センサ24からの出力に基づいて、公知の方法により自車両Caの現在位置を特定する演算を行う。また、自車位置演算部6は、地図データベースDBから自車位置周辺の地図情報Eを取得し、それに基づいて公知のマップマッチングを行うことにより自車両Caの現在位置を地図情報Eに示される道路上とする補正も行う。そして、この自車位置演算部6は、演算結果である自車両Caの現在位置の情報を自車位置情報Sとして地図情報取得部7、地物情報抽出部8、自車線認識部12、及びナビゲーション用演算部11へ出力する。この際、自車位置情報Sは、例えば、緯度及び経度で表された位置の情報として表される。なお、自車位置情報Sは、道路に沿った方向の自車両Caの位置を示しているが、道路が複数車線を有する場合に、自車両Caが走行している自車線Laを特定することができるほど詳細な情報とはなっていない。
And the own vehicle
1−4.地図データベースDB
地図データベースDBは、各地の地図情報を格納したデータベースである。図3は、地図データベースDBに格納されている地図情報Eの内容を示す説明図である。この図に示すように、地図データベースDBには、道路ネットワークレイヤX1、道路形状レイヤX2、地物レイヤX3が格納されており、これらにより地図情報Eが構成されている。
1-4. Map database DB
The map database DB is a database that stores map information of various locations. FIG. 3 is an explanatory diagram showing the contents of the map information E stored in the map database DB. As shown in this figure, the map database DB stores a road network layer X1, a road shape layer X2, and a feature layer X3, and these constitute map information E.
道路ネットワークレイヤX1は、道路間の接続情報を示すレイヤである。具体的には、緯度及び経度で表現された地図上の位置情報を有する多数のノードNの情報と、2つのノードNを連結して道路を構成する多数のリンクLの情報とを有して構成されている。また、各リンクLは、そのリンク情報として、道路の種別(高速道路、有料道路、国道、県道等の種別)やリンク長さ等の情報を有している。 The road network layer X1 is a layer indicating connection information between roads. Specifically, it has information on a large number of nodes N having position information on a map expressed by latitude and longitude, and information on a large number of links L constituting the road by connecting the two nodes N. It is configured. Each link L includes information such as the type of road (type of highway, toll road, national road, prefectural road, etc.) and link length as link information.
道路形状レイヤX2は、道路ネットワークレイヤX1に関連付けられて格納され、道路の形状を示すレイヤである。具体的には、2つのノードNの間(リンクL上)に配置されて緯度及び経度で表現された地図上の位置情報を有する多数の道路形状補完点Sの情報と、各道路形状補完点Sにおける道路幅Wの情報とを有して構成されている。 The road shape layer X2 is stored in association with the road network layer X1 and indicates the shape of the road. Specifically, information on a number of road shape complementary points S that are located between two nodes N (on the link L) and have position information on the map expressed in latitude and longitude, and each road shape complementary point Information of the road width W in S.
地物レイヤX3は、道路ネットワークレイヤX1及び道路形状レイヤX2に関連付けられて格納され、道路上及び道路の周辺に設けられた各種地物fの情報、すなわち地物情報Fが記録されているレイヤである。この地物レイヤX3に地物情報Fが格納される地物fは、ペイント系の地物fと立体系の地物fとに大別される。ペイント系の地物fとしては、例えば、道路に沿って車線を分ける区画線(実線、破線、二重線等の各種区画線を含む。)、各車線の進行方向を指定する進行方向別通行区分標示、横断歩道、停止線、速度表示、ゼブラゾーン等の道路面上に設けられる各種の道路標示が含まれる。また、立体系の地物fとしては、例えば、道路の両側に沿って設けられる縁石、ガードレール、各種の標識、信号機等の道路上又は道路の周辺に設けられる各種の立体物が含まれる。 The feature layer X3 is stored in association with the road network layer X1 and the road shape layer X2, and is a layer in which information of various features f provided on the road and in the vicinity of the road, that is, the feature information F is recorded. It is. The feature f in which the feature information F is stored in the feature layer X3 is roughly classified into a paint-type feature f and a three-dimensional feature f. Examples of the paint features f include, for example, lane lines that divide the lane along the road (including various lane lines such as a solid line, a broken line, and a double line), and traffic according to the traveling direction that specifies the traveling direction of each lane. Various road markings provided on the road surface such as section markings, pedestrian crossings, stop lines, speed indications, and zebra zones are included. The three-dimensional feature f includes, for example, various solid objects provided on or around the road such as curbs, guardrails, various signs, and traffic lights provided along both sides of the road.
また、地物情報Fは、その内容として各地物fの配置情報、種別情報、形態情報を含んでいる。ここで、配置情報は、各地物fの地図上の位置(緯度及び経度)及び方向の情報を含んでいる。種別情報は、各地物fの種別を示す情報であって、具体的には、「区画線(実線、破線、二重線等の線種も含む)」、「進行方向別通行区分標示」、「横断歩道」等の道路標示種別、「縁石」、「ガードレール」、「信号機」等の地物f自体の種別、「一時停止」、「駐車禁止標識」等の標識種別などの情報が含まれる。形態情報は、各地物fの特徴的な形状や色彩等の情報の他、立体系の地物fの場合には道路面からの高さの情報も含んでいる。 The feature information F includes the arrangement information, type information, and form information of each feature f as its contents. Here, the arrangement information includes information on the position (latitude and longitude) and direction of the feature f on the map. The type information is information indicating the type of each feature f, and specifically includes “division lines (including line types such as solid lines, broken lines, and double lines)”, “traveling direction markings according to traveling direction”, Includes information such as the type of road marking such as “pedestrian crossing”, the type of feature f itself such as “curbstone”, “guardrail”, and “traffic light”, and the type of sign such as “temporary stop” and “parking prohibition sign”. . In addition to information on the characteristic shape and color of each feature f, the form information includes height information from the road surface in the case of a three-dimensional feature f.
1−5.地図情報取得部7
地図情報取得部7は、自車位置演算部6から出力される自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する。そして、地図情報取得部7は、自車位置演算部6、地物情報抽出部8、自車線認識部12、及びナビゲーション用演算部11に地図情報Eを出力する。この際、地図情報取得部7が地図情報Eを取得する範囲は、地図情報Eの出力先により異なる。すなわち、地図情報取得部7は、出力先において必要とする地図情報Eの範囲に応じた範囲の地図情報Eを取得して出力する。例えば、自車位置演算部6でのマップマッチングや、自車線認識部12での自車線認識のためには、自車両Ca周辺の比較的狭い範囲の地図情報Eが用いられる。一方、ナビゲーション用演算部11による表示部27への地図表示のためには、表示縮尺に応じて比較的広い範囲の地図情報Eが用いられる。地図情報取得部7は、これらの用途に応じて必要な地図情報Eを取得して出力する。
1-5. Map
The map
1−6.自車線認識部12
自車線認識部12は、自車両Caが走行中の車線である自車線Laを認識する自車線認識手段として機能する。ここでは、自車線認識部12は、撮像装置4により撮像された画像情報Gの画像認識を行い、その画像認識結果と自車位置情報Sに示される自車位置の周辺の地図情報Eとを対比することにより、自車線Laの認識を行う。例えば、図4に示すような画像情報Gが取得された場合において、図5に示すような自車両Ca周辺の地図情報Eが取得された場合には、自車線Laは、3車線の中の中央車線であると認識することができる。すなわち、図4に示す画像情報Gに示される画像中では、自車両Caの位置である画像の幅方向中央に対して両側に破線の区画線fa2、fa3が位置しており、更にその両外側にそれぞれ実線の区画線fa1、fa4が位置している。一方、図5に示す地図情報Eによれば、自車両Caが走行している道路は3車線であり、道路の幅方向両側には実線の区画線の地物情報Fa1、Fa4、道路の幅方向中央側には各車線を区切る破線の区画線の地物情報Fa2、Fa3が位置していることがわかる。したがって、自車線認識部12は、これらの情報を対比することにより、自車線Laが3車線の中の中央車線であると認識することができる。また、自車線認識部12は、自車両Caの走行に従ってこのような自車線Laの認識を連続的に行い、その情報を蓄積することにより、自車線Laの認識精度を高める処理も行う。自車線認識部12は、自車線Laの認識結果の情報を、地物情報抽出部8及びナビゲーション用演算部11へ出力する。
1-6. Own
The own
1−7.地物情報抽出部8
地物情報抽出部8は、画像認識部9において画像認識を行う自車両Ca周辺の地物fについての地物情報Fを地図情報Eから抽出する地物情報抽出手段として機能する。したがって、本実施形態においては、地図情報取得部7及び地物情報抽出部8により、地物情報取得手段17が構成される。ここでは、地物情報抽出部8は、自車位置情報S、自車線認識部12による自車線Laの認識結果の情報、及び後述するナビゲーション用演算部11から出力される車線変更要求情報に基づいて、自車線Laに対して車線変更要求情報が示す車線変更方向側に隣接する隣接車線Lbより奥に位置する地物fについての地物情報Fを地図情報Eから抽出して取得する。ここで、隣接車線Lbより奥に位置する地物fとは、当該隣接車線Lbよりも更に車線変更方向側(右側又は左側)に位置する地物fとなる。この際、地物情報抽出部8は、道路に沿って配置された連続性のある地物fについての地物情報Fを抽出する。ここで、このような連続性のある地物fとしては、道路面上に設けられた実線又は破線の区画線faや道路に沿って配置された縁石fb等が好適であり、本例では、区画線faについての地物情報Fを抽出する。なお、「fa」の符号は、「fa1」〜「fa4」等の各種区画線を総称する符号として用いている。
1-7. Feature
The feature
ここでは一例として、図6に示す地図情報Eから、地物情報抽出部8により地物情報Fを抽出する処理について説明する。図6において、符号「Ca´」は、自車位置情報S及び自車線認識部12による自車線Laの認識結果の情報に示される自車両Caの位置を示している。この図に示すように、本例では、自車線Laは3車線の中の中央車線である。また、ナビゲーション用演算部11からの車線変更要求情報は、右車線への変更要求を示しているものとする。この場合、地物情報抽出部8は、自車線Laの右側の隣接車線(右車線)Lbより奥(右側)に位置する実線の区画線(車道中央線)fa1の地物情報Fa1を抽出する。本例では、地図情報取得部7から地物情報抽出部8へ出力される地図情報Eは、撮像装置4による撮像領域にほぼ一致する範囲の情報とされている。なお、撮像装置4による撮像領域は、自車両Caにおける撮像装置4の搭載位置、撮像方向、撮像画角等に基づいて予め定まっている。この地物情報抽出部8により抽出された地物情報Fは、画像認識部9へ出力される。
Here, as an example, processing for extracting the feature information F by the feature
また、地物情報抽出部8は、地図情報Eから、自車両Ca周辺の連続性のある地物f、本例では、自車線La及び隣接車線Lbを特定するための区画線fa1〜fa4の地物情報Fa1〜Fa4を抽出し、障害物認識部10の配置認識部26へ出力する。配置認識部26では、これらの地物情報Fに基づいて、自車線Laと隣接車線Lbとの位置関係の認識を行う。
In addition, the feature
1−8.画像認識部9
画像認識部9は、地物情報抽出部8から出力された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う画像認識手段として機能する。具体的には、画像認識部9は、まず、画像情報Gに対する二値化処理やエッジ検出処理等による輪郭抽出を用いて区画線fa等の道路標示(ペイント)の画像を抽出する。その後、画像認識部9は、地物情報抽出部8から出力された地物情報Fに示される地物fの位置及び形状等の情報に基づいて、画像情報G中における当該地物fの画像の配置を特定し、当該地物fの画像認識を行う。本例では、地物情報抽出部8から出力された地物情報Fに示される地物fは、自車線Laの右側の隣接車線(右車線)Lbより奥(右側)に位置する実線の区画線(車道中央線)fa1である。図7及び図8に、各状況で取得された画像情報G及びその画像情報Gの画像認識部9による認識結果の例を示す。図7は、(a)に示すように周囲に他の車両Cb等の障害物Bが存在しない状況で撮像された(b)画像情報Gと(c)その認識結果を示している。図8は、(a)に示すように自車線Laの右側の隣接車線Lbに他の車両Cbが存在する状況で撮像された(b)画像情報Gと(c)その認識結果を示している。
1-8.
The
図7(a)に示すように、自車線Laの右側の隣接車線Lbに障害物Bが存在しない場合には、図7(b)に示すように、画像情報Gには、この画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部(区画線fa1の画像情報Gに含まれているべき部分の内の全部)が撮像されていることになる。したがって、画像認識部9は、図7(c)に示すように、画像認識部9は、前記区画線fa1の全部の画像を認識することができる。一方、図8(a)に示すように、自車線Laの右側の隣接車線Lbに他の車両Cb等の障害物Bが存在する場合には、図8(b)に示すように、画像情報Gには、この画像情報Gに含まれているべき前記区画線fa1の一部が当該障害物Bの背後に隠れて撮像できないことになる。したがって、図8(c)に示すように、画像認識部9は、前記区画線fa1の画像の一部を認識することができず、前記区画線fa1の画像を断続的に認識することになる。そして、これら図7(c)又は図8(c)のような画像認識部9による画像認識結果の情報が、障害物認識部10へ出力される。
As shown in FIG. 7A, when there is no obstacle B in the adjacent lane Lb on the right side of the own lane La, the image information G includes the image information G as shown in FIG. That all of the solid lane line fa1 located behind the right adjacent lane Lb that should be included in the image (all of the portions that should be included in the image information G of the lane line fa1) are captured. Become. Therefore, as shown in FIG. 7C, the
1−9.障害物認識部10
障害物認識部10は、画像認識部9による画像認識結果に基づいて、自車両Caの周辺における障害物Bの存在状況を認識する障害物認識手段として機能する。本実施形態においては、障害物認識部10は、自車線Laに隣接する隣接車線Lb上における障害物Bの存在状況を認識する。すなわち、ここでは、障害物認識部10は、地物情報抽出部8から出力された地物情報Fに基づいて画像情報Gに含まれているべき地物fについて、当該地物fの全部又は一部の画像が画像認識部9により認識できない場合に、自車線Laに隣接する車線Lb上に障害物Bが存在すると認識する。ここで、地物情報Fに基づいて画像情報Gに含まれているべき地物fとは、地物情報抽出部8により地物情報Fが抽出された地物fであって撮像装置4による画像情報Gの撮像領域内に含まれている地物f(全体又は部分)である。また、このような地物fが、画像認識部9による画像認識の対象となる。本例では、この地物fは、上記のとおり、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1である。
1-9.
The
そして、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在する場合には、前記実線の区画線fa1の全部又は一部が当該障害物Bの背後に隠れて画像認識できないことを利用して、間接的に障害物Bの認識を行う。具体的には、図7(c)に示すように、画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部の画像を画像認識部9により認識できた場合には、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在しないと認識する。一方、図8(c)に示すように、画像情報Gに含まれているべき右側の隣接車線Lbより奥に位置する実線の区画線fa1の全部又は一部の画像を画像認識部9により認識できなかった場合には、障害物認識部10は、自車線Laの右側の隣接車線Lb上に障害物Bが存在すると認識する。すなわち、この障害物認識部10は、他の車両Cb等の障害物Bを直接的に画像認識して障害物Bの認識を行うのではなく、当該障害物Bが存在する場合に背後に隠れることになる区画線fa1等の画像認識が容易な地物fの画像認識結果を用いて間接的に障害物認識を行う。ここで、区画線faは、位置、形状、色彩等が予め特定されており、更に、その周囲や背後に道路面以外の雑多なものが撮像されることが少なく、また道路面との色彩の差も大きい。そのため、各種の形状や色彩を持った車両等の障害物Bを画像認識する場合と比較して画像認識が容易であり、周辺に存在するノイズ成分となり得るものの影響も受け難い。したがって、このような区画線faの画像認識結果を用いて間接的に障害物認識を行うことで、障害物認識の安定性を高めることができる。
Then, when the obstacle B is present on the adjacent lane Lb on the right side of the own lane La, the
また、本実施形態においては、障害物認識部10は、連続性のある地物fについての認識率を判定する認識率判定部25を備えている。そして、上記のような障害物Bが存在するか否かの認識を、認識率判定部25により判定される認識率に基づいて行う。これは、区画線fa1等の画像情報Gに含まれているべき地物fの一部が画像認識できない場合であっても、それが障害物Bの存在に起因するものでない場合が有り得ることを考慮して障害物Bの認識を行うことで、その認識精度を高めるためである。すなわち、現実には、障害物Bが存在しない場合であっても、画像認識の対象となる地物fの汚れやかすれ等、或いは画像認識の際の誤差等の各種の要因により、当該地物fの全部が完全に認識できない場合があり得る。そこで、これらの要因を考慮して、障害物認識部10は、認識率判定部25により判定される認識率が所定の閾値未満である場合に、障害物Bが存在すると認識する処理を行う。
In the present embodiment, the
ここでは、認識率は、認識対象である連続性のある地物fの画像情報Gに含まれているべき部分の内の全部が完全に画像認識されている場合を100〔%〕とし、画像認識できた部分の面積比を百分率で表すものとする。そして、例えば、地物fの汚れやかすれ等、或いは画像認識の際の誤差等の各種の要因により認識率が低下し得る範囲を10〔%〕に設定した場合、障害物Bが存在すると認識する認識率の閾値は90〔%〕となる。したがって、例えば、図7(c)に示す画像認識結果に基づく区画線fa1の認識率が95〔%〕であり、図8(c)に示す画像認識結果に基づく区画線fa1の認識率が40〔%〕である場合、障害物認識部10は、図7(c)の場合は障害物Bが存在しないと認識し、図8(c)の場合は障害物Bが存在すると認識する(図11参照)。
Here, the recognition rate is 100 [%] when all of the portions that should be included in the image information G of the continuous feature f that is the recognition target are completely recognized. The area ratio of the recognized part is expressed as a percentage. For example, when the range in which the recognition rate can be lowered due to various factors such as dirt or fading of the feature f or an error in image recognition is set to 10%, it is recognized that the obstacle B exists. The threshold for the recognition rate to be 90%. Therefore, for example, the recognition rate of the lane marking fa1 based on the image recognition result shown in FIG. 7C is 95 [%], and the recognition rate of the lane marking fa1 based on the image recognition result shown in FIG. In the case of [%], the
更に、障害物認識部10は配置認識部26を備えている。この配置認識部26は、地物情報Fに基づく連続性のある地物fの自車両Caを基準とした配置と、画像認識結果に基づく連続性のある地物fの認識できない部分の配置とに基づいて、障害物Bの位置及び大きさを認識する処理を行う。図9は、本例における配置認識部26により行う障害物Bの位置及び大きさを認識する処理の説明図である。この図では、図8(a)に示す状況と同様に、自車線Laの右側の隣接車線Lbより奥に位置する地物fが実線の区画線fa1であり、当該右側の隣接車線Lb上に他の車両Cbが存在する状況をとなっている。この場合、配置認識部26には、画像認識部9による画像認識結果の情報として、図9に示すように、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1の認識結果の情報が入力されている。また、配置認識部26には、地物情報抽出部8からの地物情報Fとして、区画線fa1〜fa4の地物情報Fa1〜Fa4が入力されている。
Further, the
そして、配置認識部26は、これらの地物情報F(Fa1〜Fa4)と画像認識結果に基づいて、障害物Bが存在すると推測される位置及び大きさを示す障害物領域Bcを導出する。そのため、配置認識部26は、まず、画像認識部9による画像認識結果に基づいて、自車両Caの中央を基準位置P0として、区画線fa1の認識できない部分の始端P1と終端P2とのなす角度θ1及び区画線fa1上における自車両Caの進行方向位置P3と始点P1とのなす角度θ2を導出する。ここで、区画線fa1上における自車両Caの進行方向位置P3は、基準位置P0を通り自車両Caの進行方向に直交する線と区画線fa1との交点としている。また、ここでは、始端P1、終端P2及び進行方向位置P3は、区画線fa1の中心線上の点としている。そして、角度θ1は、基準位置P0と区画線fa1との距離W、区画線fa1の認識できない部分の始端P1から終端P2までの長さL1、及び区画線fa1上における自車両Caの進行方向位置P3から始点P1までの長さL2に基づいて、下記の式(1)により演算して導出する。
θ1=tan−1〔(W×L1)/{W×W+L2×(L1+L2)}〕・・・(1)
また、角度θ2は、下記の式(2)により演算して導出する。
θ2=tan−1(L2/W)・・・(2)
And the arrangement | positioning
θ1 = tan−1 [(W × L1) / {W × W + L2 × (L1 + L2)}] (1)
Further, the angle θ2 is calculated and derived by the following equation (2).
θ2 = tan−1 (L2 / W) (2)
そして、配置認識部26は、図9に示すように、角度θ1及び角度θ2と、区画線fa1〜fa4の地物情報Fa1〜Fa4により特定される自車線La及び隣接車線Lbの配置とに基づいて障害物領域Bcを導出する。この障害物領域Bcの導出は、例えば、角度θ1及び角度θ2の値に応じて障害物領域Bcの位置及び大きさを予め規定した障害物テーブルに基づいて行う。この障害物テーブルは、例えば、障害物Bを、隣接車線Lb上のほぼ中央付近に位置する車両と仮定すれば、各種車両の幅及び長さの統計的データを用いて規定することができる。すなわち、角度θ1と角度θ2の値、及び自車線Laと隣接車線Lbの配置関係により、角度θ1の範囲内であって且つ隣接車線Lb内が障害物Bとしての車両が存在する領域として規定される。そこで、各種車両の幅及び長さの統計的データを用いて、この領域内に収まる適切な幅及び長さの車両に相当する大きさの矩形領域を障害物領域Bcとして規定することができる。この障害物テーブルは、これを様々な角度θ1及び角度θ2について行い、予めテーブル化したものである。
Then, as shown in FIG. 9, the
1−10.車線変更判定部13
車線変更判定部13は、障害物認識部10による認識結果に基づいて、自車線Laに隣接する隣接車線Lbへの車線変更の可否を判定する車線変更判定手段として機能する。本実施形態においては、車線変更判定部13は、基本的には、障害物認識部10により隣接車線Lb上に障害物Bが存在しないと認識した場合には車線変更が可能であると判定し、障害物認識部10により隣接車線Lb上に障害物Bが存在すると認識した場合には車線変更が不可能であると判定する。また、本実施形態においては、障害物認識部10は配置認識部26を備えている。そこで、隣接車線Lb上に障害物Bが存在すると認識した場合であっても、配置認識部26による障害物Bの位置及び大きさの認識結果に基づいて、自車両Caが車線変更するのに十分な空間が隣接車線Lb上に存在する場合には、車線変更判定部13は、当該空間の側方位置において車線変更が可能であると判定する。
1-10. Lane
The lane
1−11.ナビゲーション用演算部11
ナビゲーション用演算部11は、表示装置27を用いた自車位置の表示や、表示装置27及び音声出力装置28を用いた進路案内のための演算処理を行う。具体的には、ナビゲーション用演算部11は、地図情報取得部7により地図データベースDBから自車両Ca周辺の地図情報Eを取得して表示装置27に地図の画像を表示するとともに、当該地図の画像上に、自車位置演算部6から出力された自車位置情報Sに基づいて自車マークを重ね合わせて表示する処理を行う。また、ナビゲーション用演算部11は、公知の方法により出発地点と目的地点とを結ぶように予め設定された案内経路と自車位置情報Sとに基づいて、表示装置27及び音声出力装置28の一方又は双方を用いて進路案内を行う。よって、ナビゲーション用演算部11、表示装置27及び音声出力装置28は、自車両Caの進路案内を行う進路案内手段31として機能する。なお、図示は省略するが、ナビゲーション用演算部11は、この他にも、リモートコントローラやタッチパネルなどのユーザインタフェース等の、ナビゲーション装置として必要な公知の各種構成に接続されている。
1-11.
The
また、本実施形態においては、ナビゲーション用演算部11は、案内経路に従って進行するために自車両Caの車線変更が必要な場合に車線変更要求情報を生成する車線変更要求生成部29を備えている。この車線変更要求生成部29は、自車両Caが複数車線の道路を走行中であって、設定された案内経路に従って進行するために交差点等での進路変更が必要であり、且つ自車線認識部12により認識された自車線Laが進路変更のための適切な車線でない場合に、自車両Caの車線変更が必要と判定する。そして、車線変更要求生成部29は、車線変更が必要と判定した場合には、進路変更のための適切な車線側への車線変更を要求する車線変更要求情報を生成する。ここで生成された車線変更要求情報は、地物情報抽出部8へ出力される。
そして、ナビゲーション用演算部11は、車線変更要求生成部29により車線変更要求情報が生成され、且つ車線変更判定部13により車線変更が可能であると判定された場合に、運転者に対する車線変更の案内を行う。この際の車線変更の案内は、表示装置27及び音声出力装置28の一方又は双方を用いて、進路変更のための適切な車線側への車線変更を促す図形やメッセージの表示、音声案内等により行う。
Further, in the present embodiment, the
When the lane change request information is generated by the lane change
1−12.周辺状況認識方法
次に、本実施形態に係る周辺状況認識装置1を含むナビゲーション装置2において実行される周辺状況認識方法及びそれを用いた車線変更案内方法の具体例について、図10及び図11に示すフローチャートに従って説明する。ここでは、まず、画像情報取得部5において、撮像装置14により撮像した画像情報Gを取得する(ステップ#01)。次に、自車位置演算部6において、自車位置情報Sを取得する(ステップ#02)。そして、地図情報取得部7において、ステップ#01で取得した自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する(ステップ#03)。その後、自車線認識部12において、自車両Caが走行中の車線である自車線Laを認識する(ステップ#04)。
1-12. Next, a specific example of the surrounding situation recognition method executed in the
そして、自車両Caの車線変更が必要でない場合であって、ナビゲーション用演算部11で設定された案内経路と自車線認識部12により認識された自車線Laとに基づいて、車線変更要求生成部29において、車線変更要求が生成されていない場合には(ステップ#05:NO)、処理はそのまま終了する。一方、車線変更要求生成部29において車線変更要求が生成された場合には(ステップ#05:YES)、地物情報抽出部8において、自車両Ca周辺の地物fについての地物情報Fを地図情報Eから抽出する(ステップ#06)。本例では、自車線Laに対して車線変更要求情報が示す車線変更方向側に隣接する隣接車線Lbより奥に位置する地物fについての地物情報Fを地図情報Eから抽出する。次に、画像認識部9において、ステップ#06で抽出された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う(ステップ#07)。そして、障害物認識部10において、ステップ#07の画像認識結果に基づいて、自車両Caの周辺における障害物Bの存在状況を認識する(ステップ#08)。この障害物認識処理については、図11のフローチャートに従って後に詳細に説明する。
The lane change request generation unit is a case where the lane change of the host vehicle Ca is not necessary and is based on the guide route set by the
その後、車線変更判定部13において、障害物認識部10による認識結果に基づいて、自車線Laに隣接する隣接車線Lbへの車線変更の可否判定を行う(ステップ#09)。そして、車線変更が不可能であると判定した場合には(ステップ#10:NO)、処理はそのまま終了する。一方、車線変更が可能であると判定した場合には(ステップ#10:YES)、ナビゲーション用演算部11において、表示装置27及び音声出力装置28の一方又は双方を用いて車線変更の案内を行う(ステップ#11)。以上で処理は終了する。
Thereafter, the lane
次に、ステップ#08の障害物認識処理について説明する。本例では、図7及び図8に示すように、自車線Laの右側の隣接車線Lbより奥に位置する実線の区画線fa1(連続性のある地物fの一例)の画像認識を行い、その認識結果に基づいて自車線Laに隣接する隣接車線Lb上における障害物Bの存在状況を認識する処理を行う。そこで、図11に示すように、障害物認識部10では、まず、認識率判定部25において、ステップ#07の画像認識結果に基づいて、連続性のある地物fとしての実線の区画線fa1についての認識率を判定する(ステップ#21)。ここでは、上記のとおり、障害物Bが存在すると認識する認識率の閾値は90〔%〕としている。そこで、認識率が90〔%〕未満か否かを判定し、認識率が90〔%〕未満である場合には(ステップ#22:YES)、障害物Bが存在すると認識し(ステップ#23)、配置認識部26において障害物Bの位置及び大きさを認識する(ステップ#24)。一方、認識率が90〔%〕以上である場合には(ステップ#22:NO)、障害物Bが存在しないと認識する(ステップ#25)。以上で障害物認識処理は終了する。
Next, the obstacle recognition process in
2.第二の実施形態
次に、本発明の第二の実施形態について説明する。本実施形態では、本発明に係る周辺状況認識装置1を、車両制御装置3も兼ねたナビゲーション装置2に適用した場合について説明する。図12は、本実施形態に係る周辺状況認識装置1の全体構成を模式的に示すブロック図である。本実施形態に係る周辺状況認識装置1は、地図データベースDBから取得した地物情報Fに基づいて、撮像装置4により撮像された画像情報Gに含まれている自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された区画線faの画像認識を行う(図14及び図16参照)。そして、画像情報Gに含まれているべき当該区画線faについて画像認識できない部分がある場合に交差点Kの通行に影響を与える障害物Bが存在すると認識する処理を行う。また、このような障害物Bの認識結果に基づいて、自車両Caの運転者に対して減速を促す案内を行い、或いは自車両Caの減速制御を行う。
2. Second Embodiment Next, a second embodiment of the present invention will be described. This embodiment demonstrates the case where the surrounding
図12に示すように、この周辺状況認識装置1の各機能部、具体的には、画像情報取得部5、自車位置演算部6、地図情報取得部7、地物情報抽出部8、画像認識部9、障害物認識部10、ナビゲーション用演算部11、交差点認識部14、走行状態判定部15、及び車両制御部16は、CPU等の演算処理装置を中核部材として、入力されたデータに対して種々の処理を行うための機能部がハードウエア又はソフトウエア(プログラム)或いはその両方により実装されて構成されている。また、地図データベースDBは、上記第一の実施形態と同様に、例えば、ハードディスクドライブ、DVD−ROMを備えたDVDドライブ、CD−ROMを備えたCDドライブ等のように、情報を記憶可能な記録媒体とその駆動手段とを有する装置をハードウエア構成として備えている。以下、各部の構成について、上記第一の実施形態と相違する点を中心として説明する。
As shown in FIG. 12, each functional unit of the surrounding
本実施形態においては、画像情報取得部5で取得された画像情報Gは画像認識部9へ出力される。車速センサ24の検出結果としての車速情報は、自車位置演算部6及び走行状態判定部15へ出力される。自車位置演算部6は、演算結果である自車位置情報Sを地図情報取得部7、地物情報抽出部8、交差点認識部14、及びナビゲーション用演算部11へ出力する。地図情報取得部7は、自車位置演算部6、地物情報抽出部8、交差点認識部14、及びナビゲーション用演算部11に地図情報Eを出力する。
In the present embodiment, the image information G acquired by the image
2−1.交差点認識部14
交差点認識部14は、自車両Caの進行方向に存在する交差点Kを認識する交差点認識手段として機能する。ここでは、交差点認識部14は、地図情報取得部7により取得された地図情報Eと、自車位置演算部6から出力された自車位置情報Sとに基づいて、自車両Caの進行方向の所定距離Lk内に交差点Kが存在するか否かの認識を行う。ここで、交差点Kの情報を取得する自車両Caからの所定距離Lkは、撮像装置4により交差点K内の地物fを画像認識可能な範囲内に定めると好適であり、例えば100〔m〕等とすることができる。例えば、図13に示すような自車両Ca周辺の地図情報Eが取得された場合であって、自車両Caの位置から交差点Kの中心までの距離が所定距離Lk以下である場合には、交差点認識部14は、自車両Caの進行方向に交差点Kが存在すると認識する。交差点認識部14は、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には、走行状態判定部15へ自車両Caの位置から当該交差点Kまでの距離を示す距離情報を出力する。よって、この交差点認識部14は、交差点Kまでの距離情報を取得する距離情報取得手段としても機能する。また、交差点認識部14は、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には、地図情報取得部7により取得された地図情報Eを地物情報抽出部8へ出力する。
2-1.
The
2−2.走行状態判定部15
走行状態判定部15は、交差点Kまでの距離に対して車速が高いか否かを判定する走行状態判定手段として機能する。ここでは、走行状態判定部15は、車速センサ24により取得された自車両Caの走行速度を示す車速情報と、交差点認識部14から出力された交差点Kまでの距離情報とに基づいて自車両Caの走行状態の判定を行う。具体的には、走行状態判定部15は、自車両Caが交差点Kの手前に停止することを基準とした場合に、自車両Caの現在の車速での制動距離が、自車両Caから交差点Kまでの距離に対して十分に短い場合には、交差点Kまでの距離に対して車速が低いと判定する。一方、自車両Caの現在の車速での制動距離が、自車両Caから交差点Kまでの距離に近い場合やこれを超えている場合には、交差点Kまでの距離に対して車速が高いと判定する。なお、自車両Caの各速度での制動距離は、天候や路面状態等によって変化するものである。したがって、判定の基準としては悪条件での制動距離を用いるのが好適である。また、天候や路面状態等の情報を取得し、これらの情報に基づいて基準として用いる制動距離を変化させる構成としても好適である。この走行状態判定部15における判定は、自車両Caの位置から交差点Kまでの距離との関係で自車両Caの車速が高いと判定する閾値車速を規定したテーブル等を用いて行うことができる。そして、走行状態判定部15は、交差点Kまでの距離に対して車速が高いか低いかを示す走行状態情報をナビゲーション用演算部11へ出力する。
2-2. Traveling
The traveling
2−3.地物情報抽出部8
地物情報抽出部8は、自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された地物fについての地物情報Fを地図情報Eから抽出する地物情報抽出手段として機能する。したがって、本実施形態においては、地図情報取得部7及び地物情報抽出部8により、地物情報取得手段17が構成される。ここでは、地物情報抽出部8は、自車位置情報S及びナビゲーション用演算部11から出力される減速要求情報に基づいて、交差点Kに交差する道路R1に沿って配置された連続性のある地物fについての地物情報Fを地図情報Eから抽出して取得する。ここで、このような連続性のある地物fとしては、道路面上に設けられた実線又は破線の区画線faや道路に沿って配置された縁石等が好適であり、本例では、区画線faについての地物情報Fを抽出する。
2-3. Feature
The feature
ここでは一例として、図13に示す地図情報Eから、地物情報抽出部8により地物情報Fを抽出する処理について説明する。図13において、符号「Ca´」は、自車位置情報Sに示される自車両Caの位置を示している。この図に示すように、本例では、自車両Caの進行方向にT字路の交差点Kが存在している。そして、自車両Caが走行中の道路R0は1車線の一方通行道路であり、交差点Kで道路R0と交差する道路R1は片側1車線の2車線道路である。また、ナビゲーション用演算部11からは減速要求情報が出力されているものとする。この場合、地物情報抽出部8は、道路R1の手前側に配置された実線の区画線(車道外側線)fa5の地物情報Fa5、道路R1の幅方向中央部に配置された実線の区画線(車道中央線)fa6の地物情報Fa6、道路R1の奥側に配置された実線の区画線(車道外側線)fa7の地物情報Fa7を抽出する(fa5〜fa7については図14参照)。本例では、地図情報取得部7から地物情報抽出部8へ出力される地図情報Eは、撮像装置4による撮像領域(図14参照)にほぼ一致する範囲の情報とされている。なお、撮像装置4による撮像領域は、自車両Caにおける撮像装置4の搭載位置、撮像方向、撮像画角等に基づいて予め定まっている。この地物情報抽出部8により抽出された地物情報Fは、画像認識部9へ出力される。
Here, as an example, a process for extracting the feature information F by the feature
2−4.画像認識部9
画像認識部9は、地物情報抽出部8から出力された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う画像認識手段として機能する。具体的には、画像認識部9は、まず、画像情報Gに対する二値化処理やエッジ検出処理等による輪郭抽出を用いて区画線fa等の道路標示(ペイント)の画像を抽出する。その後、画像認識部9は、地物情報抽出部8から出力された地物情報Fに示される地物fの位置及び形状等の情報に基づいて、画像情報G中における当該地物fの画像の配置を特定し、当該地物fの画像認識を行う。本例では、地物情報抽出部8から出力された地物情報Fに示される地物fは、自車両Caの進行方向の交差点Kで交差する道路R1に沿って配置された3本の実線の区画線fa5〜fa7である。図14及び図16に、自車両Ca及び交差点Kの周辺の状況の例をそれぞれ示す。また、図15及び図17に、各状況で取得された画像情報G及びその画像情報Gの画像認識部9による認識結果の例を示す。ここで、図14は、交差点Kの周辺に障害物Bが存在しない状況を示しており、図16は、交差点Kの通行に影響を与える障害物Bが存在する状況を示している。そして、図15は、図14に示される状況で撮像された(a)画像情報Gと(b)その画像認識結果を示している。また、図17は、図16に示される状況で撮像された(a)画像情報Gと(b)その画像認識結果を示している。なお、図14及び図16は、図13に示される地図情報Eの内容と同様に、いずれも自車両Caの進行方向にT字路の交差点Kが存在している状況を示している。また、自車両Caが走行中の道路R0は1車線の一方通行道路であり、交差点Kで道路R0と交差する道路R1は片側1車線の2車線道路である。そして、自車両Caの進行方向には停止線fc1が存在している。
2-4.
The
図14に示すように、交差点Kの周辺に障害物Bが存在しない場合には、図15(a)に示すように、画像情報Gには、この画像情報Gに含まれているべき道路R1に沿って配置された区画線fa5〜fa7の全部(区画線fa5〜fa7の画像情報Gに含まれているべき部分の内の全部)が撮像されることになる。したがって、画像認識部9は、図15(b)に示すように、画像認識部9は、前記区画線fa5〜fa7の全部の画像を認識することができる。一方、図16に示す状況では、交差点Kの通行に影響を与える障害物Bとして、交差点Kの手前の左側の角部に建物fdが存在し、道路R1の手前側の車線には他の車両Cbが存在している。このため、図17(a)に示すように、画像情報Gには、この画像情報Gに含まれているべき道路R1に沿って配置された区画線fa5〜fa7の一部が、これらの障害物Bの背後に隠れて撮像できないことになる。したがって、画像認識部9は、図17(b)に示すように、画像認識部9は、前記区画線fa5〜fa7の一部の画像を認識することができない。この際、建物fdは、道路R1より手前側に位置するため、建物fdの背後には区画線fa5、fa6、及びfa7の3本ともが隠れて撮像されない。したがって、当該領域では画像認識部9は3本の区画線fa5、fa6、及びfa7の画像を認識できないことになる。これに対して、他の車両Cbは、道路R1の手前側の車線上に位置するため、他の車両Cbの背後には区画線fa6及びa7の2本が隠れて撮像されない。したがって、当該領域では画像認識部9は2本の区画線fa6及びa7の画像を認識できないことになる。なお、図14及び図16中のハッチングを施した区画線fa5〜fa7の領域は、画像認識部9により認識できた区画線fa5〜fa7の部分を示している。また、図14及び図16中の一点鎖線は、この撮像装置4の撮像領域を示している。そして、これら図15(b)又は図17(b)のような画像認識部9による画像認識結果の情報が、障害物認識部10へ出力される。
As shown in FIG. 14, when there is no obstacle B around the intersection K, as shown in FIG. 15A, the image information G includes a road R1 that should be included in the image information G. All of the division lines fa5 to fa7 arranged along the line (all of the parts that should be included in the image information G of the division lines fa5 to fa7) are captured. Therefore, as shown in FIG. 15B, the
2−5.障害物認識部10
障害物認識部10は、画像認識部9による画像認識結果に基づいて、自車両Caの進行方向の交差点Kの通行に影響を与える障害物Bの存在状況を認識する障害物認識手段として機能する。本実施形態においては、障害物認識部10は、地物情報抽出部8から出力された地物情報Fに基づいて画像情報Gに含まれているべき地物fについて、当該地物fの全部又は一部の画像が画像認識部9により認識できない場合に、交差点Kの通行に影響を与える障害物Bが存在すると認識する。ここで、交差点Kの通行に影響を与える障害物Bとしては、例えば、交差点Kの見通しを妨げる建物fd、樹木、駐車車両等の障害物B、又は交差点Kに交差する道路R1上を移動する車両Cbや歩行者等の障害物B等が含まれる。また、地物情報Fに基づいて画像情報Gに含まれているべき地物fとは、地物情報抽出部8により地物情報Fが抽出された地物fであって撮像装置4による画像情報Gの撮像領域内に含まれている地物f(全体又は部分)である。また、このような地物fが、画像認識部9による画像認識の対象となる。本例では、この地物fは、上記のとおり、自車両Caの進行方向の交差点Kで交差する道路R1に沿って配置された3本の実線の区画線fa5〜fa7である。
2-5.
The
そして、障害物認識部10は、自車両Caの進行方向の交差点Kで交差する道路R1の手前又は道路R1上に障害物Bが存在する場合には、道路R1に沿って配置された3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部が当該障害物Bの背後に隠れて画像認識できないことを利用して、間接的に障害物Bの認識を行う。具体的には、図15(b)に示すように、画像情報Gに含まれているべき3本の区画線fa5〜fa7の全部の画像を画像認識部9により認識できた場合には、障害物認識部10は、交差点Kの見通しを妨げる建物fdや道路R1上を移動する車両Cb等の交差点Kの通行に影響を与える障害物Bが存在しないと認識する。一方、図17(b)に示すように、画像情報Gに含まれているべき3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部の画像を画像認識部9により認識できなかった場合には、障害物認識部10は、交差点Kの通行に影響を与える障害物Bが存在すると認識する。すなわち、この障害物認識部10は、上記第一の実施形態と同様に、建物fdや他の車両Cb等の障害物Bを直接的に画像認識して障害物Bの認識を行うのではなく、当該障害物Bが存在する場合に背後に隠れることになる区画線fa5〜fa7等の画像認識が容易な地物fの画像認識結果を用いて間接的に障害物認識を行う。
The
また、障害物認識部10は、3本の区画線fa5〜fa7のいずれか一本以上の全部又は一部の画像が画像認識部9により認識できなかった場合に、当該認識できなかった区画線faの手前側に障害物Bが存在すると認識する。これにより、障害物認識部10は、自車両Caの進行方向に平行は方向における障害物Bの位置を概略的に認識することができる。すなわち、例えば図16に示すように、交差点Kの手前の左側の角部に建物fdは、3本の区画線fa5〜fa7よりも自車両Ca側に位置するため、3本の区画線fa5〜fa7の3本ともがこの建物fdの背後に隠れて画像認識できないことになる。したがって、障害物認識部10は、図17(b)の左側部分に示されるように、3本の区画線fa5〜fa7の3本ともの画像が認識できない場合には、最も手前の区画線fa5よりも手前側に障害物Bが存在すると認識する。一方、道路R1の手前側の車線上の他の車両Cbは、3本の区画線fa5〜fa7のうちの2本の区画線fa6及びfa7よりも自車両Ca側に位置するため、これら2本の区画線fa6及びfa7がこの車両Cbの背後に隠れて画像認識できないことになる。したがって、障害物認識部10は、図17(b)の右側部分に示されるように、3本の区画線fa5〜fa7のうちの2本の区画線fa6及びfa7の画像が認識できない場合には、それらのうちの手前側の区画線fa6よりも手前側に障害物Bが存在すると認識する。
The
また、本実施形態においては、障害物認識部10は、自車両Caの進行方向に向かって交差点Kより右側の領域A1と左側の領域A2とに分けて、障害物Bの存在状況の認識を行う。ここでは、図14及び図16に示すように、自車両Caから進行方向に延びる境界線aを境に右側の領域A1と左側の領域A2とに分けている。そして、障害物認識部10は、右側の領域A1と左側の領域A2とのそれぞれについて、個別に障害物Bが存在するか否かの認識を行う。このように障害物Bの認識を行うことにより、交差点Kでの自車両Caの進行方向に応じて障害物Bの存在状況の認識結果を適切に利用することが可能となる。すなわち、例えば、自車両Caが交差点Kで左折する場合には右側の領域A1についての障害物Bの存在状況の情報が重要となり、自車両Caが交差点Kで直進又は右折する場合には右側の領域A1及び左側の領域A2の双方についての障害物Bの存在状況の情報が重要となる。
In the present embodiment, the
また、障害物認識部10は、上記第一の実施形態と同様に、連続性のある地物fについての認識率を判定する認識率判定部25を備えている。また、障害物Bが存在すると認識する認識率の閾値についても、上記第一の実施形態と同様に90〔%〕としている。したがって、例えば、図15(b)に示す画像認識結果に基づく3本の区画線fa5〜fa7の認識率が右側の領域A1及び左側の領域A2の双方について95〔%〕である場合、障害物認識部10は、右側の領域A1及び左側の領域A2の双方について障害物Bが存在しないと認識する。一方、図17(b)に示す画像認識結果に基づく3本の区画線fa5〜fa7の認識率が右側の領域A1について60〔%〕、左側の領域A2について30〔%〕である場合、障害物認識部10は、右側の領域A1及び左側の領域A2の双方について障害物Bが存在すると認識する。
なお、本実施形態においては、障害物認識部10は障害物Bの位置及び大きさを認識するための配置認識部26を備えていない。しかし、上記第一の実施形態と同様に、配置認識部26を備える構成とすることも好適な実施形態の一つである。
The
In the present embodiment, the
2−6.ナビゲーション用演算部11
ナビゲーション用演算部11は、上記のとおり、自車両Caの位置の表示や進路案内等のために用いる表示装置27及び音声出力装置28に接続されている。また、本実施形態においては、ナビゲーション用演算部11は、交差点Kにおいて自車両Caの減速が必要か否かを判定する減速必要性判定部30を備えている。この減速必要性判定部30は、地図情報Eに基づいて自車両Caが走行中の道路R0が交差点Kで交差する道路R1に対して優先道路であることが明らかでなく、走行状態判定部15から出力された走行状態情報が交差点Kまでの距離に対して車速が高いことを示している場合であって、更に障害物認識部10において交差点Kの通行に影響を与える障害物Bが存在すると認識した場合に、自車両Caの減速が必要であると判定する。この際、減速必要性判定部30は、障害物認識部10による交差点Kより右側の領域A1及び左側の領域A2のそれぞれについての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。すなわち、ナビゲーション用演算部11において予め設定されている案内経路やターンシグナルの操作状況等に基づいて、自車両Caが交差点Kで左折すると判断した場合には、減速必要性判定部30は、右側の領域A1についての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。一方、自車両Caが交差点Kで右折又は直進すると判断した場合には、減速必要性判定部30は、右側の領域A1及び左側の領域A2の双方についての障害物Bの存在状況に基づいて自車両Caの減速必要性を判定する。
2-6.
As described above, the
そして、ナビゲーション用演算部11は、減速必要性判定部30により自車両Caの減速必要性があると判定した場合には、運転者に対して減速を促す警告のための報知を行う。この報知は、表示装置27及び音声出力装置28の一方又は双方を用いて、減速を促す図形やメッセージの表示、音声案内等により行う。よって、ナビゲーション用演算部11、表示装置27及び音声出力装置28は、運転者への報知を行うための報知手段32としても機能する。また、ナビゲーション用演算部11は、後述する車両制御部16に接続されている。そして、ナビゲーション用演算部11は、減速必要性判定部30により自車両Caの減速必要性があると判定した場合には、車両制御部16に対して減速制御命令を出力し、自車両Caの減速制御を行わせる。
And the
また、減速必要性判定部30は、障害物認識部10における障害物Bの存在状況の認識前の段階で、自車両Caの進行方向に存在する交差点Kでの減速要求があるか否かの判定を行う。すなわち、減速必要性判定部30は、交差点認識部14により自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合であって、走行状態判定部15により自車両Caの走行状態の判定が行われた際に、減速要求の判定を行う。そして、減速必要性判定部30は、地図情報Eに基づいて自車両Caが走行中の道路R0が交差点Kで交差する道路R1に対して優先道路であることが明らかでなく、更に走行状態判定部15から出力された走行状態情報が交差点Kまでの距離に対して車速が高いことを示している場合には、減速要求があると判定する。減速必要性判定部30は、減速要求があると判定した場合には、当該交差点Kで減速が必要となる可能性があると判定して減速要求情報を生成する。ここで生成された減速要求情報は、地物情報抽出部8へ出力される。
Further, the deceleration
2−7.車両制御部16
車両制御部16は、自車両Caの各部の動作制御を行う制御手段として機能する。ここでは、車両制御部16は、ナビゲーション用演算部11から減速制御命令が出力された場合に、自車両Caを減速させるための各部の動作制御を実行する。このような減速制御としては、具体的には、自車両Caの各車輪に設けられているホイールブレーキによる制動、スロットルをオフにして変速機のギヤ比を下げることによるエンジンブレーキを作用させる制動等が行われる。
2-7.
The
2−8.周辺状況認識方法
次に、本実施形態に係る周辺状況認識装置1を含む車両制御装置3を兼ねたナビゲーション装置2において実行される周辺状況認識方法並びにそれを用いた減速案内方法及び減速制御方法の具体例について、図18に示すフローチャートに従って説明する。ここでは、まず、画像情報取得部5において、撮像装置14により撮像した画像情報Gを取得する(ステップ#31)。次に、自車位置演算部6において、自車位置情報Sを取得する(ステップ#32)。そして、地図情報取得部7において、ステップ#01で取得した自車位置情報Sに基づいて、地図データベースDBから自車両Ca周辺の地図情報Eを取得する(ステップ#33)。その後、交差点認識部14において、自車両Caの進行方向の所定距離Lk内に交差点Kが存在するか否かの認識を行う(ステップ#34)。
2-8. Next, the surrounding situation recognition method executed in the
そして、ステップ#34において、自車両Caの進行方向の所定距離Lk内に交差点Kが存在しないと認識した場合には(ステップ#35:NO)、処理は終了する。一方、自車両Caの進行方向の所定距離Lk内に交差点Kが存在すると認識した場合には(ステップ#35:YES)、次に、走行状態判定部15において、交差点Kまでの距離に対して自車両Caの車速が高いか否かを判定する(ステップ#36)。次に、ナビゲーション用演算部11の減速必要性判定部30において、ステップ#34で認識された交差点Kでの減速要求があるか否かの判定を行う(ステップ#37)。ここで減速要求がないと判定された場合には(ステップ#37:NO)、処理は終了する。一方、減速要求があると判定された場合には(ステップ#37:YES)、次に、地物情報抽出部8において、自車両Caの進行方向に存在する交差点Kに交差する道路R1に配置された地物fについての地物情報Fを地図情報Eから抽出する(ステップ#38)。本例では、交差点Kに交差する道路R1に沿って配置された連続性のある地物fについての地物情報Fを地図情報Eから抽出する。次に、画像認識部9において、ステップ#38で抽出された地物情報Fに基づいて、画像情報Gに含まれている地物fの画像認識を行う(ステップ#39)。
If it is determined in
その後、障害物認識部10において、ステップ#39の画像認識結果に基づいて、自車両Caの進行方向の交差点Kの通行に影響を与える障害物Bの存在状況を認識する(ステップ#40)。この障害物認識処理は、図11のフローチャートに示される上記第一の実施形態での障害物認識処理とほぼ同じであるが、ステップ#24の障害物Bの配置認識を行わない点で相違する。そして、ステップ#40において障害物Bが存在しないと認識した場合には(ステップ#41:NO)、処理は終了する。一方、ステップ#40において障害物Bが存在すると認識した場合には(ステップ#41:YES)、ナビゲーション用演算部11の減速必要性判定部30において、自車両Caの減速必要性を判定する(ステップ#42)。このステップ#42において自車両Caの減速必要性がないと判定した場合には(ステップ#43:NO)、処理は終了する。一方、ステップ#42において自車両Caの減速必要性があると判定した場合には(ステップ#43:YES)、ナビゲーション用演算部11及び車両制御部16において、運転者に対して減速を促す警告のための報知、及び自車両Caを減速させるための各部の動作制御の一方又は双方を実行する(ステップ#44)。以上で処理は終了する。
Thereafter, the
3.その他の実施形態
(1)上記第一の実施形態では、ナビゲーション装置2は車両制御部16を備えない構成として説明した。しかし、上記第一の実施形態に係る周辺状況認識装置1を含むナビゲーション装置2において、上記第二の実施形態と同様に車両制御部16を備えた構成とし、車両制御装置3を兼ねたナビゲーション装置2とすることも好適な実施形態の一つである。
3. Other Embodiments (1) In the first embodiment described above, the
(2)上記の各実施形態では、撮像装置4として、その進行方向周辺を撮像可能なフロントカメラを備えている場合について説明した。しかし、撮像装置4の構成は、これに限定されない。したがって、例えば、撮像装置4として、フロントカメラに加えて自車両Caの後方を撮像するバックカメラや、自車両Caの左右側方を撮像するサイドカメラ等を備える構成とし、これらの複数のカメラからの画像情報Gを用いて、障害物Bの認識を行う構成とすることも好適な実施形態の一つである。
(2) In each of the above-described embodiments, a case has been described in which the
(3)上記の各実施形態では、地物情報抽出部8において区画線faの地物情報Fを抽出して画像認識を行う場合について説明した。しかし、画像認識の対象とする地物fは区画線faに限定されない。すなわち、画像認識の対象を、道路の縁石や区画線fa以外の道路標示等の地物fとすることも好適な実施形態の一つである。また、ガードレール等の立体的な地物fを画像認識の対象とすることも可能である。なお、区画線fa以外の地物fを画像認識の対象とする場合であっても、縁石やガードレール等の道路に沿って配置された連続性のある地物fを対象とすれば、障害物Bの配置を道路に沿って連続的に認識することが可能となるのでより好適である。
(3) In each of the above embodiments, the case has been described in which the feature
(4)上記の各実施形態では、本発明に係る周辺状況認識装置1をナビゲーション装置2や車両制御装置3に適用する場合の例について説明した。しかし、本発明に係る周辺状況認識装置1は、その他の装置、例えば、自車両Caの周辺状況に応じてシートベルトの張力を調節するシートベルトテンショナーやその他の車両用の安全装置等にも適用することが可能である。
(4) In each of the above-described embodiments, examples in the case where the surrounding
本発明によれば、撮像装置からの画像情報とデータベースから取得した地物情報とに基づいて、自車両の周辺における障害物の存在状況を認識することができる。したがって、本発明は、ナビゲーション装置による案内や車両制御装置による車両制御等に好適に利用することができる。 According to the present invention, it is possible to recognize the presence of an obstacle around the host vehicle based on the image information from the imaging device and the feature information acquired from the database. Therefore, the present invention can be suitably used for guidance by a navigation device, vehicle control by a vehicle control device, and the like.
1:周辺状況認識装置
2:ナビゲーション装置
3:車両制御装置
4:撮像装置
5:画像情報取得部(画像情報取得手段)
6:自車位置演算部
7:地図情報取得部
8:地物情報抽出部
9:画像認識部(画像認識手段)
10:障害物認識部(障害物認識手段)
11:ナビゲーション用演算部
12:自車線認識部(自車線認識手段)
13:車線変更判定部
14:交差点認識部(距離情報取得手段)
15:走行状態判定部(走行状態判定手段)
16:車両制御部(制御手段)
17:地物情報取得手段
24:車速センサ(車速情報取得手段)
25:認識率判定部
26:配置認識部
27:表示装置
28:音声出力装置
29:車線変更要求生成部
30:減速必要性判定部
31:進路案内手段
32:報知手段
G:画像情報
S:自車位置情報
E:地図情報
F:地物情報
DB:地図データベース
La:自車線
Lb:隣接車線
B:障害物
Ca:自車両
f:地物
K:交差点
1: peripheral situation recognition device 2: navigation device 3: vehicle control device 4: imaging device 5: image information acquisition unit (image information acquisition means)
6: own vehicle position calculation unit 7: map information acquisition unit 8: feature information extraction unit 9: image recognition unit (image recognition means)
10: Obstacle recognition unit (obstacle recognition means)
11: Calculation unit for navigation 12: Own lane recognition unit (own lane recognition means)
13: Lane change determination unit 14: Intersection recognition unit (distance information acquisition means)
15: Traveling state determination unit (traveling state determination means)
16: Vehicle control unit (control means)
17: Feature information acquisition means 24: Vehicle speed sensor (vehicle speed information acquisition means)
25: Recognition rate determination unit 26: Arrangement recognition unit 27: Display device 28: Audio output device 29: Lane change request generation unit 30: Deceleration necessity determination unit 31: Route guidance unit 32: Notification unit G: Image information S: Self Vehicle position information E: Map information F: Feature information DB: Map database La: Own lane Lb: Adjacent lane B: Obstacle Ca: Own vehicle f: Feature K: Intersection
Claims (9)
自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得手段と、
前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識手段と、
その画像認識結果に基づいて、自車両の周辺における障害物の存在状況を認識する障害物認識手段と、を備え、
前記地物情報取得手段は、道路に沿って配置された連続性のある地物についての地物情報を取得し、
前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、自車両と当該地物との間に障害物が存在すると認識し、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識手段による画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する周辺状況認識装置。 Image information acquisition means for acquiring image information from an imaging device capable of imaging the periphery of the host vehicle;
Feature information acquisition means for acquiring feature information about features around the vehicle from a database;
Image recognition means for performing image recognition of a feature included in the image information based on the feature information;
Obstacle recognition means for recognizing the presence of obstacles around the vehicle based on the image recognition result,
The feature information acquisition means acquires feature information about a continuous feature arranged along a road,
The obstacle recognizing unit is configured to detect the vehicle when the image recognizing unit cannot recognize all or a part of an image of the feature that should be included in the image information based on the feature information. And the feature is recognized as an obstacle, and the arrangement of the continuous feature based on the feature information based on the own vehicle and the image recognition result by the image recognition means A peripheral situation recognition device for recognizing the position and size of the obstacle based on the arrangement of the unrecognizable portion of the continuous feature based thereon .
前記地物情報取得手段は、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、
前記障害物認識手段は、前記地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識手段により認識できない場合に、前記自車線に隣接する車線上に障害物が存在すると認識する請求項1に記載の周辺状況認識装置。 It further comprises own lane recognition means for recognizing the own lane that is the lane in which the own vehicle is traveling ,
The feature information acquisition means acquires feature information about a feature located behind a lane adjacent to the own lane from a database ,
The obstacle recognizing means, for the features that should be included in the image information based on the feature information, when all or part of the images of the features cannot be recognized by the image recognizing means, The surrounding state recognition apparatus according to claim 1, wherein an obstacle is recognized on the lane adjacent to the own lane.
前記進路案内手段は、自車両の車線変更が必要であって、且つ前記車線変更判定手段により車線変更可能と判断した場合に、車線変更の案内を行うナビゲーション装置。 A surrounding situation recognition device according to claim 3, and a route guidance means for performing route guidance of the host vehicle,
The navigation device for guiding the lane change when the lane change of the host vehicle is necessary and the lane change determination unit determines that the lane change is possible.
前記制御手段は、前記障害物認識手段による認識結果に基づいて自車両の各部の動作制御を行う車両制御装置。 A surrounding situation recognition device according to any one of claims 1 to 5 , and a control means for controlling the operation of each part of the host vehicle,
The said control means is a vehicle control apparatus which controls operation | movement of each part of the own vehicle based on the recognition result by the said obstacle recognition means.
自車両周辺の地物についての地物情報をデータベースから取得する地物情報取得ステップと、
前記地物情報に基づいて、前記画像情報に含まれている地物の画像認識を行う画像認識ステップと、
前記地物情報に基づいて前記画像情報に含まれているべき地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車両と当該地物との間に障害物が存在すると認識する障害物認識ステップと、
を備え、
前記地物情報取得ステップでは、道路に沿って配置された連続性のある地物についての地物情報を取得し、
前記障害物認識ステップでは、更に、前記地物情報に基づく前記連続性のある地物の自車両を基準とした配置と、前記画像認識ステップによる画像認識結果に基づく前記連続性のある地物の認識できない部分の配置とに基づいて、前記障害物の位置及び大きさを認識する周辺状況認識方法。 An image information acquisition step of acquiring image information from an imaging device capable of imaging the periphery of the host vehicle;
A feature information acquisition step of acquiring feature information about features around the vehicle from a database;
An image recognition step for recognizing an image of a feature included in the image information based on the feature information;
For a feature that should be included in the image information based on the feature information, when all or a part of the image of the feature cannot be recognized by the image recognition step, between the vehicle and the feature An obstacle recognition step for recognizing that an obstacle exists in the
Equipped with a,
In the feature information acquisition step, the feature information about the continuous features arranged along the road is acquired,
In the obstacle recognizing step, further, the arrangement of the continuous features based on the own vehicle of the continuous features based on the feature information and the continuous features based on the image recognition result in the image recognition step. A surrounding situation recognition method for recognizing the position and size of the obstacle based on the arrangement of unrecognizable portions .
前記地物情報取得ステップは、前記自車線に隣接する車線より奥に位置する地物についての地物情報をデータベースから取得し、
前記障害物認識ステップは、地物情報に基づいて前記画像情報に含まれているべき前記地物について、当該地物の全部又は一部の画像が前記画像認識ステップにより認識できない場合に、自車線に隣接する車線上に障害物が存在すると認識する請求項8に記載の周辺状況認識方法。 A vehicle lane recognition step for recognizing the vehicle lane that is the lane in which the vehicle is traveling ;
The feature information obtaining step obtains pre Symbol feature information about feature located behind from the lane adjacent to the own lane from the database,
In the obstacle recognition step, when the feature which should be included in the image information on the basis of the feature information cannot be recognized by the image recognition step, all or a part of the feature can be recognized in the own lane. The surrounding situation recognition method according to claim 8, wherein an obstacle is recognized in an adjacent lane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006089020A JP4692831B2 (en) | 2006-03-28 | 2006-03-28 | Peripheral situation recognition device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006089020A JP4692831B2 (en) | 2006-03-28 | 2006-03-28 | Peripheral situation recognition device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007266975A JP2007266975A (en) | 2007-10-11 |
JP4692831B2 true JP4692831B2 (en) | 2011-06-01 |
Family
ID=38639528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006089020A Expired - Fee Related JP4692831B2 (en) | 2006-03-28 | 2006-03-28 | Peripheral situation recognition device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4692831B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101262921B1 (en) | 2009-11-10 | 2013-05-09 | 한국전자통신연구원 | Apparatus for keeping a traffic lane for a vehicle and method thereof |
EP2574958B1 (en) * | 2011-09-28 | 2017-02-22 | Honda Research Institute Europe GmbH | Road-terrain detection method and system for driver assistance systems |
JP2016048226A (en) * | 2014-08-28 | 2016-04-07 | パイオニア株式会社 | Information processing apparatus, information processing method, and program for information processing and recording medium |
KR102036050B1 (en) * | 2014-12-30 | 2019-10-24 | 주식회사 만도 | Apparatuses and Methods for line changing |
CN108352116B (en) * | 2015-07-31 | 2022-04-05 | 日立安斯泰莫株式会社 | Vehicle surrounding information management device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003168198A (en) * | 2001-11-30 | 2003-06-13 | Toyota Motor Corp | Vehicle lane decision apparatus and vehicle controller |
JP2004205398A (en) * | 2002-12-26 | 2004-07-22 | Nissan Motor Co Ltd | Vehicle radar device and optical axis adjustment method of radar |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09178505A (en) * | 1995-12-27 | 1997-07-11 | Pioneer Electron Corp | Drive assist system |
JP3592043B2 (en) * | 1997-07-31 | 2004-11-24 | トヨタ自動車株式会社 | Intersection warning device |
JPH11345392A (en) * | 1998-06-02 | 1999-12-14 | Nissan Motor Co Ltd | Device and method for detecting obstacle |
-
2006
- 2006-03-28 JP JP2006089020A patent/JP4692831B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003168198A (en) * | 2001-11-30 | 2003-06-13 | Toyota Motor Corp | Vehicle lane decision apparatus and vehicle controller |
JP2004205398A (en) * | 2002-12-26 | 2004-07-22 | Nissan Motor Co Ltd | Vehicle radar device and optical axis adjustment method of radar |
Also Published As
Publication number | Publication date |
---|---|
JP2007266975A (en) | 2007-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4614098B2 (en) | Peripheral situation recognition device and method | |
KR102295392B1 (en) | Preparing autonomous vehicles for turns | |
JP4729905B2 (en) | Vehicle notification device and program | |
CN106462727B (en) | Vehicle, lane ending detection system and method | |
JP6566132B2 (en) | Object detection method and object detection apparatus | |
JP6250180B2 (en) | Vehicle irradiation control system and image irradiation control method | |
JP5198835B2 (en) | Method and system for presenting video images | |
JP6930152B2 (en) | Autonomous driving system | |
KR20210083462A (en) | Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle | |
US11987239B2 (en) | Driving assistance device | |
JP2006209511A (en) | Image recognition device and method, position specification device using it, vehicle controller, and navigation device | |
EP3986761A1 (en) | Detection of emergency vehicles | |
US20140152432A1 (en) | Method for Detecting a Traffic Lane by Means of a Camera | |
KR102367952B1 (en) | Vision System, Vehicle having the same and method for controlling the vehicle | |
US11845435B2 (en) | Driving assistance device | |
JP6613265B2 (en) | Prediction device, vehicle, prediction method and program | |
JP2009023560A (en) | Driving support device | |
EP3712873B1 (en) | Danger spot identification device, danger spot identification method and program | |
JP5146482B2 (en) | Intersection point map creation device and program for intersection point map creation device | |
JP4692831B2 (en) | Peripheral situation recognition device and method | |
CN113228128B (en) | Driving assistance method and driving assistance device | |
JP4912495B2 (en) | Image recognition apparatus and method, and navigation apparatus | |
JP5458729B2 (en) | Driving guidance device | |
JP6540517B2 (en) | Driving support information provision device | |
JP2004295597A (en) | Stop line detecting device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110209 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140304 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4692831 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150304 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |