JP2020042323A - Driving support device, driving support system, and driving support method - Google Patents
Driving support device, driving support system, and driving support method Download PDFInfo
- Publication number
- JP2020042323A JP2020042323A JP2018166718A JP2018166718A JP2020042323A JP 2020042323 A JP2020042323 A JP 2020042323A JP 2018166718 A JP2018166718 A JP 2018166718A JP 2018166718 A JP2018166718 A JP 2018166718A JP 2020042323 A JP2020042323 A JP 2020042323A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- position information
- relative position
- driving support
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 40
- 238000004364 calculation method Methods 0.000 claims abstract description 82
- 238000004891 communication Methods 0.000 claims abstract description 53
- 238000012545 processing Methods 0.000 claims description 44
- 238000012937 correction Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 description 87
- 239000003550 marker Substances 0.000 description 43
- 230000008569 process Effects 0.000 description 25
- 230000007423 decrease Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 10
- 230000009467 reduction Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000006866 deterioration Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004092 self-diagnosis Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Abstract
Description
本発明は、隊列走行向けの運転支援装置に関する。 The present invention relates to a driving support device for platooning.
輸送の効率化のため運搬車両の隊列走行技術の開発が行われている。この技術では、後続車から先行車までの車間距離と先行車に対する後続車の姿勢の検出と車車間通信により適正速度等の走行パラメタを決定し、その走行パラメタに基づいて後続車の走行制御が行われて目標車間距離を保持しながら後続車が先行車に自動で追従走行する。 A platooning technology for transport vehicles has been developed to improve transportation efficiency. In this technology, traveling parameters such as an appropriate speed are determined by detecting the inter-vehicle distance from the succeeding vehicle to the preceding vehicle, the posture of the following vehicle with respect to the preceding vehicle, and inter-vehicle communication, and the traveling control of the following vehicle is performed based on the traveling parameters. The subsequent vehicle automatically follows the preceding vehicle while maintaining the target inter-vehicle distance.
この種の技術に関し、特許文献1に開示されている先行車検出システムでは、水平及び鉛直方向に所定間隔で先行車(他車)の背面に配置された少なくとも3個のマーカ要素をCCDカメラ等の撮影手段で撮影し、そのマーカ要素の像の位置関係から少なくとも先行車までの距離及び先行車との相対的姿勢角を算出している。
Regarding this type of technology, in a preceding vehicle detection system disclosed in
また、特許文献2には、自車(先行車)の走行速度を含む情報である自車両情報と、自車にとっての後続車の位置及び走行速度を含む情報である後続車情報とに基づいて、仮に退出予定路に退出するための減速を所定の基本減速度で実施した場合に、退出予定路に自車が退出するまでに自車と後続車との車間距離が所定の許容値未満となるか否かを推定する車両情報提供装置が開示されている。 Japanese Patent Application Laid-Open No. H11-163873 discloses based on self-vehicle information that is information including the traveling speed of the own vehicle (preceding vehicle) and succeeding vehicle information that is information including the position and running speed of the following vehicle for the own vehicle. If, for example, deceleration for leaving on the scheduled exit road is performed at a predetermined basic deceleration, the inter-vehicle distance between the own vehicle and a following vehicle is less than a predetermined allowable value before the own vehicle exits on the expected exit road. A vehicle information providing device for estimating whether or not the vehicle information will be provided is disclosed.
しかし、特許文献1の技術は、マーカ要素を撮影した画像に逆光などで白とびや黒つぶれが生じて後続車からのマーカの認識が難しくなった場合には追従のロバスト性が下がる。また、後続車のカメラ故障などでロバストな追従が困難になった場合、後続車を安全に停止させる手段が無い。 However, according to the technique disclosed in Japanese Patent Application Laid-Open No. H11-157, the robustness of following is reduced when an image of a marker element is overexposed or underexposed due to backlight or the like, and it becomes difficult to recognize the marker from a following vehicle. Further, when robust following becomes difficult due to a camera failure of the following vehicle, there is no means for safely stopping the following vehicle.
また、特許文献2の車両情報提供装置は、先行車両が減速開始地点から減速することを示す減速予告情報を車車間通信で後続車に送信することで、後続車に対して先行車両が減速を開始することを予告することは開示しているが、自車と後続車との車間距離の演算精度が低下する等して追従のロバスト性が下がった場合にどのような処理を行えば良いかについては言及がない。
Further, the vehicle information providing device of
本発明は上記事項に鑑みてなされたものであり、その目的は、逆光などの環境条件の影響、レンズの汚れや故障等で、隊列走行中の車両に搭載されたカメラの撮影画像に問題が発生した場合にも、追従のロバスト性を保つことが可能な運転支援装置を提供することにある。 The present invention has been made in view of the above problems, and has as its object the problem of images captured by cameras mounted on vehicles running in platoon due to the effects of environmental conditions such as backlight, dirt and breakdown of lenses, and the like. It is an object of the present invention to provide a driving support device that can maintain the robustness of following even when it occurs.
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、自車に搭載され、前記自車の前方及び後方のいずれか一方を走行する他車を撮影するカメラと、前記他車との車車間通信を実施する通信装置と、前記カメラによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する位置情報演算部と、前記自車と前記他車の相対位置情報であって前記他車が有する第2相対位置情報を前記通信装置を介して取得し、前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する補正位置情報演算部とを備える。 Although the present application includes a plurality of means for solving the above-described problems, to give an example, a camera mounted on the own vehicle, for photographing another vehicle traveling one of the front and rear of the own vehicle, A communication device that performs inter-vehicle communication with the other vehicle; and a position information calculation unit that calculates first relative position information that is relative position information between the own vehicle and the other vehicle based on an image captured by the camera. Acquiring, via the communication device, second relative position information that is relative position information of the own vehicle and the other vehicle and that the other vehicle has, and obtains the first relative position information and the second relative position information. A corrected position information calculation unit that calculates corrected relative position information that is corrected relative position information used for running control of a subsequent vehicle of the own vehicle and the other vehicle using both or the second relative position information; Is provided.
本発明によれば、逆光などの環境条件の影響、レンズの汚れや故障等でカメラの撮影画像に問題が発生した場合にも追従のロバスト性を保つことができる。上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。 ADVANTAGE OF THE INVENTION According to this invention, the robustness of following can be maintained even if a problem arises in the image | photographed image of a camera by the influence of environmental conditions, such as a backlight, the dirt of a lens, or a failure. Problems, configurations, and effects other than those described above will be apparent from the following description of the embodiments.
以下、本発明の実施形態について図面を用いて説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、各実施形態を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。また、以下の説明では、同一の構成要素が複数存在する場合、符号の末尾にアルファベットの大文字や小文字を付すことがあるが、各構成要素を区別する必要が無い場合や総称する場合には、当該アルファベットの大文字や小文字を省略して表記することがある。例えば、3台の車両19A、19B、19Cが存在するとき、これらをまとめて車両19と表記することがある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following description shows specific examples of the content of the present invention, and the present invention is not limited to these descriptions, and various modifications by those skilled in the art within the technical idea disclosed in the present specification. Changes and modifications are possible. In all the drawings for describing each embodiment, components having the same function are denoted by the same reference numerals, and the repeated description thereof may be omitted. Further, in the following description, when there are a plurality of the same constituent elements, upper and lower case letters of the alphabet may be added to the end of the reference numerals, but when it is not necessary to distinguish each constituent element or when collectively referred to, The uppercase and lowercase letters of the alphabet may be omitted. For example, when three vehicles 19A, 19B, and 19C exist, these may be collectively described as a vehicle 19.
<実施形態1>
図1は、本発明の第一の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。運転支援装置15は隊列走行する複数の車両(例えばトラック等の運搬車両)50のそれぞれに搭載されている。なお、本稿では説明を簡単にするために2台のトラック(先行車(先頭車)50A,後続車(後尾車)50B)が隊列走行する場合を例に挙げて説明する。先行車50Aに搭載された構成には末尾にAを付し、後続車50Bに搭載された構成には末尾にBを付す。したがって、図1の運転支援装置15Aは先行車50Aに搭載あれており、運転支援装置15Bは後続車50Bに搭載されている。
<First embodiment>
FIG. 1 is a schematic configuration diagram of a driving support device and a driving support system according to a first embodiment of the present invention. The
図1の運転支援システムは2つの運転支援装置15A,15Bで構成されている。先行車両50Aに搭載された運転支援装置15Aは、カメラ1Aと、制御装置11Aと、無線通信装置3Aと、報知装置10Aを備えており、後続車両50Bに搭載された運転支援装置15Bは、カメラ1Bと、制御装置11Bと、無線通信装置3Bと、走行制御装置9Bを備えている。
The driving support system in FIG. 1 includes two
運転支援装置15は、外界を認識するためのセンサ(外界センサ)であるカメラ1と、制御装置(例えばElectronic Control Unit(ECU))11と、他車(他の車両)との車車間通信を実施するための無線通信装置(車車間通信部)3と、自車(自車両)に乗員がいる場合に当該乗員に各種警告を報せるための報知装置であるアラーム10と、自車が自動走行する場合に制御装置11から出力される走行制御信号に基づいて自車の自動走行を実現するための各種制御を行う走行制御装置9を備えており、これらは自車にそれぞれ搭載されている。なお、アラーム10と走行制御装置9は必須の構成ではなく適宜省略が可能である。例えば、必ず自動走行がなされる車両(すなわち手動走行しない車両)からはアラーム10は省略可能であり、また、必ず運転手が搭乗して手動で制御する車両(すなわち自動走行しない車両)からは走行制御装置9は省略可能である。
The
カメラ(外界センサ)1は、自車の前方及び後方の少なくとも一方に取り付けられている。隊列走行する複数車両における先頭の車両50Aは自車の後方に1台カメラを取り付けるだけで足り、最後尾の車両50Bは自車の前方に1台カメラを取り付けるだけで足りる。その他の車両は自車の前方及び後方にカメラを取り付けることが好ましい。カメラ1は例えば自車から所定の目標車間距離を概ね保持して走行する先行車の後面又は後続車(他車)の前面に貼付されたマーカ25が撮影可能な取り付け角度で固定されている。これによりカメラ1には自車の前方及び後方の少なくとも一方を走行する他車のマーカ25が撮影される。なお、カメラ1を水平面内で回転駆動する駆動機構を取り付け、他車(先行車や後続車)と自車の相対位置関係に応じて当該駆動機構を適宜動作させることで、マーカ25をカメラ1で確実に撮影する構成を追加しても良い。
The camera (external sensor) 1 is attached to at least one of the front and rear of the vehicle. The
制御装置(ECU)11は、図示しない演算処理装置(例えばCPU)と、その演算処理装置が実行するプログラム等が記憶される記憶装置(例えば、メモリ、ハードディスク、フラッシュメモリ)と、内部の機器同士や外部との機器との通信を行うための通信装置等を備えたコンピュータである。制御装置11は、記憶装置に記憶されたプログラムを実行することで、位置情報演算部2、補正位置情報演算部4、走行制御部8として機能する。なお、プログラムの追加によりその他の機能(例えば、後述の原因判定部5)の実装も可能であり、適宜不要な機能の削除も可能である。
The control device (ECU) 11 includes an arithmetic processing unit (eg, a CPU) not shown, a storage device (eg, a memory, a hard disk, and a flash memory) that stores a program executed by the arithmetic processing device, and internal devices. And a computer provided with a communication device or the like for communicating with an external device. The control device 11 functions as the position
位置情報演算部2は、カメラ1によって撮影された画像(カメラ画像)に基づいて自車と他車の相対位置情報を演算する。相対位置情報には、自車と他車の車間距離情報や、ピッチ角、ロール角及びヨー角で定義される自車に対する他車の方向情報(角度情報)が含まれている。相対位置情報は、制御装置11の記憶装置内に予め記憶されているマーカ(マッチングテンプレート)25の形状を基にパタンマッチングによりカメラ画像内のマーカを検知し、そのサイズや歪みを検知することで演算される(詳細は後述)。その際のマッチング率(相関値)は相対位置情報の検出精度(演算精度)を示す指標値として制御装置11の記憶装置に格納される。本稿では、自車の制御装置11が演算してその記憶装置内に格納している相対位置情報を第1相対位置情報と称し、他車の制御装置11が演算してその記憶装置内に格納している相対位置情報を第2相対位置情報と称することがある。すなわち、第1相対位置情報は自車に搭載されたカメラ(外界センサ)1の検出結果に基づいて演算されたデータであり、第2相対位置情報は他車に搭載されたカメラ(外界センサ)1の検出結果に基づいて演算されたデータである。
The position
無線通信装置3は、車車間通信だけでなく、外部の設備(例えば路側機)やコンピュータとの通信にも利用される。無線通信装置3と制御装置11は通信線を介して相互通信可能に接続されており、無線通信装置3が受信したデータは制御装置11に出力可能に、制御装置11が出力したデータは無線通信装置3を介して外部に出力可能になっている。 The wireless communication device 3 is used not only for inter-vehicle communication but also for communication with external equipment (for example, a roadside device) or a computer. The wireless communication device 3 and the control device 11 are connected so as to be able to communicate with each other via a communication line, so that data received by the wireless communication device 3 can be output to the control device 11 and data output by the control device 11 is wireless communication. Output can be made to the outside via the device 3.
補正位置情報演算部4は、第2相対位置情報を無線通信装置3を介して取得し、第1相対位置情報と第2相対位置情報の双方または第2相対位置情報を用いて自車と他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する。演算された補正相対位置情報は走行制御部8に出力され、走行制御部8で補正相対位置情報に応じた走行制御装置9の走行制御信号に変換される。走行制御部8から走行制御装置9に対して走行制御信号が出力され、その走行制御信号に応じて走行制御装置9が動作する。 The corrected position information calculation unit 4 acquires the second relative position information via the wireless communication device 3 and uses the both of the first relative position information and the second relative position information or the second relative position information to determine whether or not the own vehicle is in another position. Corrected relative position information, which is corrected relative position information used for traveling control of a following vehicle among the vehicles, is calculated. The calculated corrected relative position information is output to the travel control unit 8 and is converted by the travel control unit 8 into a travel control signal of the travel control device 9 corresponding to the corrected relative position information. A traveling control signal is output from the traveling control unit 8 to the traveling control device 9, and the traveling control device 9 operates according to the traveling control signal.
走行制御装置9には、例えば、自車の走行方向を制御するステアリング(操舵制御装置)と、自車の走行速度を制御する内燃機関、電動モータ及び制動装置(速度制御装置)が含まれており、制御装置11はこれら各装置に対して個別に走行制御信号(例えば、操舵制御信号、加速制御信号、減速制御信号)を出力することで各装置を自動で作動させて自車の走行を制御している。 The traveling control device 9 includes, for example, a steering (steering control device) that controls the traveling direction of the own vehicle, an internal combustion engine that controls the traveling speed of the own vehicle, an electric motor, and a braking device (speed control device). In addition, the control device 11 outputs a travel control signal (for example, a steering control signal, an acceleration control signal, and a deceleration control signal) to each of these devices individually, thereby automatically operating each device and driving the vehicle. Controlling.
本実施形態では、後続車50Bを自車とし、先行車50Aを他車とし(すなわち、他車が自車の前方を走行する場合)、以下では後続車50Bの構成について説明する。
In the present embodiment, the succeeding
図2を用いて位置情報演算部2が実行する処理について説明する。本実施形態では、先行車50Aの後面と後続車50Bの前面に既知の大きさのマーカ25を貼付しており、先行車50Aのカメラ1Aで後続車50Bのマーカ25を、後続車50Bのカメラ1Bで先行車50Aのマーカ25を撮影している。図2中の画像23はカメラ1Aが後続車50Bの前面を撮影したもので、画像24はカメラ1Bが先行車50Aの後面を撮影したものである。ここでは、後続車50Bに搭載された制御装置11Bの位置情報演算部2が、カメラ1Bで撮影された画像24からマーカ25の領域をパタンマッチングで検知し、その検知された画像24内のマーカのサイズや歪みを計測することで先行車50Aとの相対位置情報を演算する例で説明する。
The processing executed by the position
また、図2の例では、先行車50Aに後続車50Bが追従しており、制御装置11B内の走行制御部8Bや走行制御装置9Bは後続車22が搭載している。
In the example of FIG. 2, the succeeding
カメラ1Bが取得した画像24から先行車両50Aと後続車50Bの相対位置情報を求める位置情報演算部2Bの処理の流れを図3に示す。この処理は後続車50Bに搭載された制御装置11B(位置情報演算部2B)によって実行される。
FIG. 3 shows a processing flow of the position information calculation unit 2B for obtaining relative position information of the preceding
S31で位置情報演算部2Bはカメラ1Bの画像24を取得する
S32で位置情報演算部2Bは画像24中からマーカ領域を検出する。検出方法としては、例えば、エッジ検出等の画像処理プログラムで画像24内のマーカ25の外枠矩形を求め、その求めた領域に対して既知のマーカテクスチャをパタンマッチングし相関値(マッチング率)が最大の領域を検出する処理が用いられる。
In S31, the position information calculation unit 2B acquires the image 24 of the camera 1B. In S32, the position information calculation unit 2B detects a marker area from the image 24. As a detection method, for example, an outer frame rectangle of the
S33では、S32で求めたマーカ領域の検出精度(演算精度)を求める。この例のようにパタンマッチングの相関値(マッチング率)が最大の領域を採用する場合には、その最大相関値を検知精度として求める。 In S33, the detection accuracy (calculation accuracy) of the marker area obtained in S32 is obtained. When a region having a maximum correlation value (matching rate) in pattern matching is employed as in this example, the maximum correlation value is obtained as the detection accuracy.
S34では、S32で求めたマーカ領域から、先行車50Aとの距離や姿勢等の相対位置情報を演算する。なお、サイズが既知のマーカ25を用いた距離や姿勢の推定は公知の方法で実現可能である。例えば、既知の大きさの矩形の中に識別用のパタン(図2の例では文字)が描かれているマーカ25を用いる。輪郭線抽出により4本のエッジに囲まれた頂点座標を抽出することでマーカ領域を抽出する。抽出した領域を正規化し、パタンマッチングによりテンプレートパタンとの類似度最大値を採る位置をマーカの位置とする。求まったマーカ座標系をカメラ座標系に変換することで、カメラとマーカ間の距離、ロール角、ピッチ角、ヨー角等の姿勢を求めることができる。
In S34, relative position information such as the distance and attitude to the preceding
本発明では、マーカパタンのパタンマッチングの類似度(マッチング率)を位置情報の検出精度として用いる。そこで、算出した位置や姿勢とともに類似度を検出精度として制御装置11内の記憶装置に記憶しておく。 In the present invention, the similarity (matching rate) of the pattern matching of the marker pattern is used as the detection accuracy of the position information. Therefore, the similarity is stored in the storage device in the control device 11 as the detection accuracy together with the calculated position and orientation.
図3の一連の処理が完了したら位置情報演算部2Bは一旦処理を中断し、次の制御周期が開始するタイミングでS31の処理を開始して先述の処理を実行する。 When the series of processes in FIG. 3 is completed, the position information calculation unit 2B temporarily suspends the process, starts the process of S31 at the timing when the next control cycle starts, and executes the above-described process.
なお、上記では後続車50Bの位置情報演算処理について説明したが、先行車50Aの位置情報演算処理も図3に示した処理で同様に実行可能である。
Although the position information calculation process of the succeeding
後続車50Bの無線通信装置(車車間通信部)3Bは、先行車50Aの制御装置11A(位置情報演算部2A)が演算した後続車50Bとの相対位置情報(第2相対位置情報)や、先行車50Aの制御装置11Aで演算・送信された後続車50Bの補正相対位置情報の受信が可能である。本発明では、他車である先行車50A側も後続車50Bとの位置関係情報(第2相対位置情報)を取得するカメラ1Aと位置情報演算部2Aを有しており、位置情報演算部2Aは車間距離と相対角度などの位置関係情報(第2相対位置情報)を計測している。
The wireless communication device (inter-vehicle communication unit) 3B of the following
後続車50Bの補正位置情報演算部4Bは、位置情報演算部2Bで求めた相対位置情報(第1相対位置情報)及び検知精度(マッチング率)と、先行車50Aから車車間通信で受信した相対位置情報(第2相対位置情報)および検知精度とに基づいて、補正相対位置情報を演算する。補正位置情報演算部4Bは、先行車50Aと後続車50Bから得られた第1相対位置情報、第2相対位置情報及び検知精度情報から、より信頼度の高い相対位置情報(補正相対位置情報)を作成し、それを走行制御信号の演算に利用している。
The corrected position information calculation unit 4B of the succeeding
この補正位置情報演算部4Bの処理につき図2と図4を用いて説明する。本実施形態では、先行車50Aもカメラ1Aと位置情報演算部2Aを持ち、後続車50Bの前面に貼付したマーカ25を検知する例により説明する。また、前述のように、本実施形態の位置情報演算部2A,2Bでは車間距離と、ロール角、ピッチ角及びヨー角等の姿勢を求めることができるが、以降の実施形態では説明を簡単にするため車間距離を求める例により説明する。
The processing of the correction position information calculation unit 4B will be described with reference to FIGS. In the present embodiment, an example will be described in which the preceding
図2は、進行方向前方に太陽があり、後続車50Bから見て先行車50Aが逆光になる条件の、カメラ1A,1Bの撮影画像の状態例を示している。この例では、後続車50B(カメラ1B)から見た先行車50Aが逆光になることで、後続車50Bのカメラ1Bで取得した画像24中のマーカ領域は黒飛びしてテクスチャが不明瞭になっている。これに対し、先行車50Aのカメラ1Aで取得した画像23中でのマーカ領域は明瞭に映っている。
FIG. 2 shows an example of the state of the captured images of the cameras 1A and 1B under the condition that the sun is ahead in the traveling direction and the preceding
このようなマーカ検出状態の場合の各位置情報演算部2A,2Bの処理の出力例を図20に示す。図20中、列26は先行車50Aのカメラ1Aで取得した画像23から位置情報演算部2Aで求めた情報(車間距離情報(第2相対位置情報)及び検出精度情報)である。列27は後続車50Bのカメラ1Bで取得した画像24から位置情報演算部2Bで求めた情報(車間距離情報(第1相対位置情報)及び検出精度情報)である。行28と行29はそれぞれマーカ検出により取得した車間距離情報と、マーカ検出の精度(マッチング率)である。
FIG. 20 shows an output example of the processing of the position
カメラ1Aによる画像23のように環境条件が良好でマーカ領域が明瞭に写る場合は、テンプレートマッチングの相関値(マッチング率)は、図20中に示すように95%と高い相関値をとる。これに対し逆光など光の条件が悪い場合には画像24のようにマーカ領域が黒飛びし、正確な輝度情報が得られなかったり、エッジが不明瞭になったりすることでマッチングの相関値が10%と低くなっている。位置・姿勢の推定には画像23,24内のマーカの矩形の頂点位置を用いるので、矩形のエッジが不明瞭になると頂点位置に誤差が発生したり又はマーカ領域と異なる領域を誤検出したりして、マッチング精度は低下すると判断できる。また、これにより相対位置情報の精度も低下する。 In the case where the environmental conditions are favorable and the marker area is clearly seen as in the image 23 by the camera 1A, the correlation value (matching rate) of the template matching takes a high correlation value of 95% as shown in FIG. On the other hand, when the light condition such as backlight is bad, the marker area is blackened out as in the image 24, and accurate luminance information cannot be obtained or the edge becomes unclear. It is as low as 10%. Since the positions of the vertices of the rectangles of the markers in the images 23 and 24 are used for estimating the position and orientation, if the edges of the rectangles become unclear, an error occurs in the vertices or an area different from the marker area is erroneously detected. Thus, it can be determined that the matching accuracy is reduced. This also lowers the accuracy of the relative position information.
図4は後続車50Bの補正位置情報演算部4Bの処理の流れを示す図である。
S41では、補正位置情報演算部4Bは、位置情報演算部2Bで演算された検知精度(マッチング率(マッチングの類似度))Afと、無線通信装置3Bを介して受信した先行車50Aの位置情報演算部2Bが演算した検知精度Apとから、自車(後続車50B)で算出した第1相対位置情報と他車(先行車50A)で算出した第2相対位置情報との信頼度による重みWp,Wfを演算する。図2と図20で説明した例では、先行車50Aの検出精度として95%、後続車50Bの検出精度として10%が得られている。重みの算出方法としてはたとえば下記の式(1)を用いて算出する方法が挙げられる。
FIG. 4 is a diagram showing a flow of processing of the correction position information calculation unit 4B of the succeeding
In S41, the corrected position information calculation unit 4B compares the detection accuracy (matching rate (matching similarity)) Af calculated by the position information calculation unit 2B with the position information of the preceding
Wp = Ap/(Ap+Af)
Wf = Af/(Ap+Af) …式(1)
Wp : 先行車情報の重み
Wf : 後続車情報の重み
Ap : 先行車の検出精度
Af : 後続車の検出精度
Wp = Ap / (Ap + Af)
Wf = Af / (Ap + Af) Equation (1)
Wp: Weight of preceding vehicle information Wf: Weight of following vehicle information Ap: Detection accuracy of preceding vehicle Af: Detection accuracy of following vehicle
式1により、図20のように得られた検知精度から算出すると、重みWp,Wfは下記の値となる。
Wp=95/(95+10)=0.9
Wf=10/(95+10)=0.1
When the weights Wp and Wf are calculated from the detection accuracy obtained as shown in FIG.
Wp = 95 / (95 + 10) = 0.9
Wf = 10 / (95 + 10) = 0.1
S42では、補正位置情報演算部4Bは、S41で算出した重みWp,Wfを用いて、後続車50B(自車)の位置情報演算部2Bが演算した車間距離Df(第1相対位置情報)と先行車50A(他車)の位置情報演算部2Aが演算した車間距離Dp(第2相対位置情報)から最終的な制御情報である車間距離D(補正相対位置情報)を下記式(2)を利用して算出する。
In S42, the corrected position information calculation unit 4B uses the weights Wp and Wf calculated in S41 to calculate the inter-vehicle distance Df (first relative position information) calculated by the position information calculation unit 2B of the succeeding
D = Wp*Dp+Wf*Dp …式(2)
D : 車間距離
Dp : 先行車(他車)の計測距離(第2相対位置情報)
Df : 後続車(自車)の計測距離(第1相対位置情報)
D = Wp * Dp + Wf * Dp Equation (2)
D: Inter-vehicle distance Dp: Measured distance of the preceding vehicle (other vehicle) (second relative position information)
Df: Measurement distance of the following vehicle (own vehicle) (first relative position information)
図20の例の場合、車間距離Dは下記の値となる。
D = 0.9*3+0.1*2=2.9
すなわち、補正後の相対位置情報としてより検知精度の高い方の計測情報の比重を高くした値が求まる。以上、検知精度の比率で第1相対位置情報と第2相対位置情報の加重平均をとる例を説明した。なお、ここでは相対位置情報のうち車間距離の加重平均を利用する場合を説明したが、姿勢(角度)についても同様に加重平均をとることができる。
In the case of the example of FIG. 20, the following distance D has the following value.
D = 0.9 * 3 + 0.1 * 2 = 2.9
That is, a value obtained by increasing the specific gravity of the measurement information having higher detection accuracy is obtained as the corrected relative position information. The example in which the weighted average of the first relative position information and the second relative position information is calculated based on the ratio of the detection accuracy has been described. Although the case where the weighted average of the inter-vehicle distances is used in the relative position information has been described here, the weighted average can be similarly calculated for the posture (angle).
他の実施方法としては、下記のような式で検知精度を補正したうえで式(1)、(2)により最終的な距離を算出する方法もある。
If((Ap<Th0 or Af<Th0)and max(Ap,Af)−min(Ap,Af)>Th1) then
Max(Ap,Af)=100
Min(Ap,Af)=0
As another implementation method, there is a method of correcting the detection accuracy by the following equation and calculating the final distance by the equations (1) and (2).
If ((Ap <Th0 or Af <Th0) and max (Ap, Af) -min (Ap, Af)> Th1) then
Max (Ap, Af) = 100
Min (Ap, Af) = 0
すなわち、一方の検知精度が所定の閾値Th0未満、かつ両方の検知精度の差が所定の閾値Th1より大きい場合には、加重平均をとらずに検知精度の高い方の計測値を採用する方法である。これにより例えば第1相対位置情報の検知精度が相対的に悪い場合、第2相対位置情報が車間距離D(補正相対位置情報)となる。検知精度が極端に低い場合は、計測される距離の値も実態と大きくかい離している可能性があるため、小さい重みでも加重平均を採ることで誤差を大きくする危険性を下げる効果がある。 That is, when one detection accuracy is less than the predetermined threshold value Th0 and the difference between the two detection accuracy values is larger than the predetermined threshold value Th1, a measurement value with a higher detection accuracy is adopted without taking a weighted average. is there. Thus, for example, when the detection accuracy of the first relative position information is relatively poor, the second relative position information becomes the inter-vehicle distance D (corrected relative position information). If the detection accuracy is extremely low, the value of the measured distance may be significantly different from the actual state, and therefore, even if the weight is small, taking the weighted average can reduce the risk of increasing the error.
また、上記の実施形態では、先行車50Aと後続車50Bそれぞれの検知精度の値により加重平均を採っているが、先行車50Aのカメラ1Aと、後続車50Bのカメラ1Bが同じ性能でなく差がある場合、性能の違いを重みとして加重平均を採る方法もある。重みをつける性能の違いとしては、カメラの解像度、レンズ明るさなど、対象の撮影状態に影響を与える条件を用いる。この場合、先行車50Aと後続車50Bの情報の重みWp,Wfを算出する式は下記式(3)として定義できる。
Further, in the above-described embodiment, the weighted average is obtained based on the detection accuracy values of the preceding
Wp = (Ap*Wpu)/((Ap*Wpu)+(Af*Wfu))
Wf = (Af*Wfu)/((Ap*Wpu)+(Af*Wfu)) …式(3)
Wpu : 先行車カメラ性能の重み
Wfu : 後続車カメラ性能の重み
Wp = (Ap * Wpu) / ((Ap * Wpu) + (Af * Wfu))
Wf = (Af * Wfu) / ((Ap * Wpu) + (Af * Wfu)) Equation (3)
Wpu: weight of the preceding vehicle camera performance Wfu: weight of the following vehicle camera performance
例えば図2の例で、先行車50Aのカメラ1Aの解像度が、後続車50Bのカメラ1Bの4倍とした場合、先行車50Aのカメラ1Aの情報取得性能は後続車50Bのカメラ1Bより劣ると考えられるため、下記の重みに設定するとする。
Wpu=0.55
Wfu=0.45
For example, in the example of FIG. 2, when the resolution of the camera 1A of the preceding
Wpu = 0.55
Wfu = 0.45
このとき式(3)により、重みWp,Wfの値は下記となる。
Wp= (95×0.55)/(95×0.55+10×0.45)=0.92
Wf= (10*0.45)/((95*0.55)+(10*0.45))=0.08
At this time, the values of the weights Wp and Wf are as follows from Expression (3).
Wp = (95 × 0.55) / (95 × 0.55 + 10 × 0.45) = 0.92
Wf = (10 * 0.45) / ((95 * 0.55) + (10 * 0.45)) = 0.08
そして、式(1)より、最終的な車間距離D(補正相対位置情報)は下記となる。
D = 0.92*3+0.08*2=2.92
From the equation (1), the final inter-vehicle distance D (corrected relative position information) is as follows.
D = 0.92 * 3 + 0.08 * 2 = 2.92
演算された車間距離D(補正相対位置情報)は、検知精度のみを考慮した加重平均の場合より、性能の良いカメラ1の計測した車間距離により近い値となり、性能の良いカメラ1の計測結果のほうの信頼度をより上げた計測結果となる。このような手段を採ることで、先行車50Aと後続車50Bのカメラ(視界センサ)1の性能に差がある場合も、より実態に近い計測結果を得ることができる。
The calculated inter-vehicle distance D (corrected relative position information) has a value closer to the inter-vehicle distance measured by the
なお、上記の実施形態では、第1相対位置情報と第2相対位置情報の加重平均を補正相対位置情報としたが、第1相対位置情報と第2相対位置情報の検知精度を比較し、第1相対位置情報と第2相対位置情報のうち検知精度の高い方を補正相対位置情報として選択しても良い。その際、第1相対位置情報と第2相対位置情報のうち一方の検知精度が所定の閾値を下回っていることや、第1相対位置情報と第2相対位置情報のうち一方の検知精度が他の所定の閾値を上回っていることを選択の条件として追加しても良い。 In the above embodiment, the weighted average of the first relative position information and the second relative position information is used as the corrected relative position information. However, the detection accuracy of the first relative position information and the second relative position information is compared, One of the first relative position information and the second relative position information having higher detection accuracy may be selected as the corrected relative position information. At this time, the detection accuracy of one of the first relative position information and the second relative position information is lower than a predetermined threshold value, or the detection accuracy of one of the first relative position information and the second relative position information is different. May be added as a selection condition.
また、上記の実施形態では先行車50Aも後続車50Bと同様に視界センサとしてカメラ1Aを用い、マーカ検知により相対位置情報を取得する例を採ったが、必ずしもこの構成は必須ではない。例えば、カメラ1Aでマーカ検出以外の方法を利用して相対位置情報を計測しても良いし、カメラ1A以外の視界センサ(例えば、ステレオカメラ、レーザ等の光学式センサ、超音波式センサ)により相対位置情報を取得して使用しても良い。
In the above-described embodiment, the preceding
ただし、カメラによるマーカ検知におけるマッチングの類似度のような検知精度を演算できない手段(例えば光学式センサや超音波式センサ)を外界センサとして利用した場合には、上記の実施形態で述べたような第1及び第2相対位置情報の加重平均を採ることができない。そのため、例えば先行車50Aと後続車50Bのうちカメラ1によって相対位置情報を演算している車両(例えば後続車50B)の検知精度が所定の閾値以下で許容範囲を下回る場合には、この車両よりも相対位置情報の検知精度が高いことが予測され得る、検知精度の演算が不可の外界センサを搭載した他方の車両(例えば先行車50A)の計測距離を車間距離D(補正相対位置情報)として採用するように構成しても良い。
However, when a means (for example, an optical sensor or an ultrasonic sensor) that cannot calculate the detection accuracy such as the similarity of the matching in the marker detection by the camera is used as the external sensor, the above-described embodiment is used. A weighted average of the first and second relative position information cannot be taken. Therefore, for example, when the detection accuracy of the vehicle (for example, the succeeding
補正位置情報演算部4Bは、以上のように算出した車間距離D(補正相対位置情報)を走行制御部8Bに出力する。走行制御部8Bは、車間距離Dが目標車間距離に近づくような加減速を規定する走行制御信号を演算し、それを走行制御装置9Bに出力する。これにより走行制御装置9Bが入力された走行制御信号に応じて動作することで車間距離を略一定に保った複数車両50A,50Bの隊列走行が実現される。
The corrected position information calculation unit 4B outputs the inter-vehicle distance D (corrected relative position information) calculated as described above to the travel control unit 8B. The traveling control unit 8B calculates a traveling control signal that regulates acceleration and deceleration such that the inter-vehicle distance D approaches the target inter-vehicle distance, and outputs the computed signal to the traveling control device 9B. As a result, the traveling control device 9B operates in response to the inputted traveling control signal, thereby realizing the platooning of the plurality of
以上が、本発明による運転支援装置の第一の実施形態である。上記のように運転支援装置15を構成すると、逆光等の影響で自車(後続車50B)のカメラ画像に白とびや黒つぶれが生じて自車(後続車50B)の相対位置情報(第1相対位置情報)の演算精度が低下するような場合には、逆行の影響のない他車(先行車50A)で演算された相対位置情報(第2相対位置情報)を利用する比重を高くすることで精度の低下が抑制されるので、よりロバストな追従走行が可能となる効果がある。
The above is the first embodiment of the driving support device according to the present invention. When the driving
<実施形態2>
図5は、本発明の第二の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第一の実施形態と構成は同一であり、異なる点は補正位置情報演算部4を有する運転支援装置15を搭載する自車が後続車50Bから先行車50Aに変更になった点である。すなわち他車(後続車50B)が自車(先行車50A)の後方を走行する場合に変更されている。
<
FIG. 5 is a schematic configuration diagram of a driving support device and a driving support system according to the second embodiment of the present invention. The configuration is the same as that of the first embodiment, and the difference is that the own vehicle equipped with the driving
図5の運転支援装置15の各構成要素1,3,9,11は第一の実施形態と同一であり、自車(先行車50A)の補正位置情報演算部4A(制御装置11A)で車間距離D(補正相対位置情報)を演算する点まで同じである。しかし、補正位置情報演算部4Aが他車(後続車50B)向けの補正相対位置情報を演算し、無線通信装置3Aがその補正相対位置情報を他車(後続車50B)に送信する点が異なっている。本実施形態の補正相対位置情報は具体的には車間距離Dである。自車(先行車50A)から車間距離Dを受信した他車(後続車50B)は、走行制御部8Bにおいて、車間距離Dが目標車間距離に近づくような加減速を規定する走行制御信号を演算し、それを走行制御装置9Bに出力する。これにより走行制御装置9Bが入力された走行制御信号に応じて動作することで車間距離を略一定に保った複数車両50A,50Bの隊列走行が実現される。
The
本実施形態の構成にすることで、第一の実施形態と同様の効果が得られる他、後続車50Bの運転支援装置15Bが第一の実施形態と比較して簡易な構成で追従走行を実現できる効果がある。
By adopting the configuration of the present embodiment, the same effects as those of the first embodiment can be obtained, and the driving
<実施形態3>
図6は、本発明の第三の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第一の実施形態の制御装置11の機能に原因判定部5を追加した構成となっている。原因判定部5は先行車50Aと後続車50Bの双方に追加可能である。
<Embodiment 3>
FIG. 6 is a schematic configuration diagram of a driving support device and a driving support system according to the third embodiment of the present invention. The configuration is such that a
原因判定部5は、位置情報演算部2で演算される相対位置情報の精度(検知精度)が所定の閾値よりも低い場合に、その精度低下の要因が一時的なものであるか(すなわち、ある程度の時間経過により解消可能なものか)、恒久的なものであるか(すなわち、ある程度の時間が経過しても解消困難なもの)について、カメラ1で撮影された画像情報(例えば、カメラ1のパラメタ、撮影画像の画像特徴量、画像に対して実施された画像処理の内容)やその他センサ情報に基づいて判定し、その判定結果に応じた出力をする(例えばアラームを出す)ことである。すなわち、原因判定部5は、カメラ1で取得した画像や、カメラパラメタ、その他センサ情報を用いて、相対位置情報の精度が低下する原因を自己診断し、原因が一時的で自然に解消するものか、恒久的に続き対策が必要なものかを判定する。
When the accuracy (detection accuracy) of the relative position information calculated by the position
なお、カメラ1による画像認識の性能の原因を自己診断する方法については、公知の方法(例えば、特許5863968号公報)により実現可能である。例えば、複数のアプリケーションを搭載した車載カメラにおいて汚れ等の性能の低下する現象が発生した場合に、各アプリケーションにとって最適のタイミングでパラメタ調整、汚れ除去やフェール判定を実施するために、性能低下の原因を画像により自己診断することが可能となっている。
The method of self-diagnosing the cause of the performance of image recognition by the
図7に示すのがカメラ1の画像認識精度低下の原因になる事象(図7の表の第2行参照)と、いずれの事象が発生しているかの判定に用いることができる情報の例である。図中列71、72,73,74,75、76が認識精度低下の原因となる事象の例であり、図中の行77、78、79、7a、7b、7c、7d、7e、7f、7g、7h、7iに示すのが、各事象が発生しているか否かを判定するのに用いる情報の例である。
FIG. 7 shows an example of an event (see the second row of the table in FIG. 7) that causes a reduction in the image recognition accuracy of the
判定に用いることのできる情報として、行77,78,79、7aに示すカメラパラメタと、行7bから7eに示す画像解析による判定と、行7f、7g、7h、7iに示す他センサによるものがある。まず、カメラパラメタは、露光補正の有無、シャッタースピード補正の有無、ゲイン補正の有無など、光の状態の判断に用いることのできる情報と、カメラ自身の状態(カメラ状態)の異常を示す状態信号の有無を例として挙げている。また、画像解析による判定は、例えば行7bに示す画像のエッジ強度の高低等の画像特徴量を抽出することによる判定と、行7dに示す、輝度が一定の領域を抽出するといった画像処理の実施により判定可能なものがある。また、他センサの情報として、走行時の時間帯、ワイパの動作の有無、気温や照度の高低等のセンサ情報のうち、精度低下原因事象の判定として利用可能なものを用いる。これらの複数センサや画像解析から得られる情報から、図7内の各欄に示すような基準により、列71−76中のどの事象であるかを判定する。
The information that can be used for the determination includes the camera parameters shown in
上記の認識精度低下の原因となる事象と判定に用いる情報との関係は、説明のための一例に過ぎず、その他にも認識精度低下の原因となる事象と判定に用いることのできる情報の公知の関係を用いて判断することができる。 The relationship between the event that causes the reduction in recognition accuracy and the information used for determination is merely an example for explanation, and other known events that can be used for determination and events that cause reduction in recognition accuracy are known. Can be determined using the relationship
図8は図7の関係図を用いた原因判定部5の判定処理の流れを示す図である。
S81では、原因判定部5は、位置情報演算部2で相対位置情報演算時に取得した検知精度(マッチング率)が所定の閾値未満か否かを判定する。検知精度が当該閾値未満の場合、S82に進む。当該閾値以上の場合には検知精度に問題ないため、以降の処理はスキップし終了する。ここでの閾値は実験などにより適切に決定する。
FIG. 8 is a diagram showing the flow of the determination process of the
In S81, the
S82では、原因判定部5は、制御装置11内の記憶装置やカメラ1からカメラパラメタを取得する。具体的には図7に示す、露光、シャッタースピード、ゲインの値と、カメラ状態に関するパラメタ等がカメラパラメタに該当する。前者3種の行77,78,79の情報は、外部の光の状態に影響されるパラメタであり、これらの値が通常値又は履歴の値と異なり補正がかかっているケースでは列71の「逆光」事象の発生が候補となる。また、行7aの「カメラ状態」はカメラの正常度を示すパラメタであり、これが異常を示すと故障判定となる。
In S82, the
S83では、原因判定部5は、他センサ情報を取得する。他センサの種類はたとえば図7に示す行7f、7g,7h,7iの時間帯、ワイパ、気温、照度などである。図7に示すように時間帯が朝/夕の場合は精度低下の原因事象として「逆光」が候補となり、照度が低い場合は「霧」や「事象A」が候補となる。
In S83, the
S84では、原因判定部5は画像解析を実施することで、認識精度の低下する原因を判定する情報を抽出する。図7の行7bに示す画像のエッジ強度を抽出し、これが閾値より低い場合には列72に示す霧など、画像の鮮明さが失われるような事象が発生していると判定できる。判定に用いる閾値はあらかじめ実験でデータを取得する等して適切な手段により決定しておく。また、行7dに示すように画像処理で輝度一定の固定領域を検出する処理を実施し、原因判定に用いる情報を一通り作成する。
In S84, the
S85で、原因判定部5は、検知精度低下原因を判定する。S83、S84,S85で取得した判断情報から、図7の列71〜76のいずれの事象に当てはまるかを、取得した行77〜行7iの情報の内容から総合的に判断し、精度低下の原因となる事象を求める。
In S85, the
S86で、原因判定部5は、精度低下の原因となる事象が一時的か、恒久的であるかを判定する。原因が恒久的であると判定した場合はS87の処理に進む。一時的であると判定した場合は処理を終了する。原因となる事象が一時的か恒久的であるかは、事象により図7の7j行に示すようにあらかじめ分類しておく。たとえば列71の逆光は太陽の位置の変化や進行方向の変更により、自然に解消する検知精度低下事象であるが、列75の汚れ付着は、何らかの汚れ除去処理を実施しない限り解消しない恒久的な精度低下である。
In S86, the
S86で恒久的な精度低下と判定された場合、S87では、原因判定部5はアラームフラグをONにして処理を終了する。
If it is determined in S86 that the accuracy has been permanently reduced, in S87, the
アラームフラグがONになっている場合には、後続車50Bのカメラ1Bに恒久的な問題が発生しており、自動追従の継続が困難な状態と判断できるため、状況に応じて適切な処理を実施して、後続車50Bの走行制御部8Bによる自動走行制御を中断する。その具体例は次のとおりである。
If the alarm flag is ON, a permanent problem has occurred in the camera 1B of the succeeding
後続車50Bが無人の場合にアラームフラグがONになった場合、先行車50Aのアラーム10を介して後続車の自動走行の継続が困難になった旨を通知する。この通知を受けた先行車50Aは後続車50Bに車車間通信で走行制御情報(車間距離D)を送信しながら可及的速やかに安全に停車する。一方、後続車50Bが有人の場合であっても、自動運転モードが選択されており、走行制御部8からの走行制御指令に基づいて走行制御装置9を動作して走行している場合には、後続車50Bのアラーム10Bを介して後続車の自動走行の継続が困難になった旨を搭乗者に通知し、可及的速やかに手動運転モードに切り換えることを促すことができる。
If the alarm flag is turned ON when the following
なお、恒久的な精度低下の要因が解消された後には、アラームフラグはOFFに設定される。 After the cause of the permanent deterioration in accuracy is eliminated, the alarm flag is set to OFF.
次に第3の実施形態の動作の具体例を図9、図10を用いて説明する。 Next, a specific example of the operation of the third embodiment will be described with reference to FIGS.
図9において、画像93は、追従走行中の先行車50Aの後方に搭載したカメラ1Aで後続車50Bの前面に取り付けたマーカ25を撮影した画像の一例である。また、画像94は、後続車50Bの前方に搭載したカメラ1Bで先行車50Aの後面に取り付けたマーカ25の画像の一例である。この例の場合、後続車50Bのカメラ1Bのレンズに汚れ95が付着しており、画像94上に汚れ95が撮影されているものとする。
In FIG. 9, an
図10は、図9の状況の場合の、先行車50Aおよび後続車50Bで取得された情報を格納したテーブルである。
FIG. 10 is a table that stores information acquired by the preceding
図10において、列107は先行車50Aの位置情報演算部2Aと原因判定部5Aの処理結果を示しており、列108は後続車50Bの位置情報演算部2Bと原因判定部5Bの処理結果を示している。
In FIG. 10, a
位置情報演算部2の処理では、先行車50A、後続車50Bそれぞれ行101、102に示すようにそれぞれのカメラ1を利用して、車間距離(相対位置情報)と車間距離取得の際の検知精度(マッチング率)を取得する。これらの情報に基づいて補正位置情報演算部4で先行車50A,後続車50Bの重みを決定し、車間距離Dを算出して追従制御に用いる。
In the processing of the position
原因判定部5では、図8のS81で、検出精度が所定の閾値を下回るか否かを判定する。この閾値を仮に50%と仮定すると、図9,10の例の場合、先行車50Aの検知精度は95%で閾値以上であるため、原因判定部5Aは問題ないとし処理を終了する。一方、後続車50Bの精度は10%で閾値以下であるため、原因判定部5Bは精度低下の原因判定のための情報を収集するためS82の処理に進む。
In S81 of FIG. 8, the
S82では原因判定部5Bはカメラパラメタを取得する。この例の場合、露光やシャッタースピード、ゲイン、カメラ状態共に通常値で問題ないとし、図10の行103に格納する。
In S82, the cause determination unit 5B acquires camera parameters. In the case of this example, the exposure, shutter speed, gain, and camera state are all normal values and stored in the
S83で原因判定部5Bは他センサ情報を取得する。この例の場合、他センサ情報についても通常値で問題ないとし、図10の行104に格納する。 In S83, the cause determination unit 5B acquires other sensor information. In the case of this example, it is assumed that there is no problem with the normal value for the other sensor information, and the information is stored in the row 104 of FIG.
S84では原因判定部5Bは画像解析を実施する。エッジ強度には問題はないが、輝度一定の領域が検出されたとする。走行中の車両に搭載したカメラ1(カメラ)で取得する画像は、撮影対象も常に動いているため輝度が一定領域は現れないのが通常であるが、輝度一定でかつ移動しない領域が連続して検出される場合には、レンズ上の汚れと判断できる。輝度一定領域を検出する画像処理手法としては、フレーム間差分や二値化、パタンマッチングなどの組合せにより検出可能である。これを図10の行106に格納する。
In S84, the cause determination unit 5B performs image analysis. Although there is no problem with the edge strength, it is assumed that an area with constant brightness is detected. In an image acquired by the camera 1 (camera) mounted on a running vehicle, a region where the luminance is constant does not usually appear because the photographing target is always moving, but a region where the luminance is constant and does not move is continuous. If it is detected by the detection, it can be determined that the lens is dirty. As an image processing method for detecting a constant brightness area, detection can be performed by a combination of an inter-frame difference, binarization, pattern matching, and the like. This is stored in
S85で、原因判定部5Bは検知精度低下の原因を判定する。図10の行103〜106に格納した情報を、図7に示す精度低下原因判定基準と照合し、該当する精度低下原因となる事象を判定する。この例の場合、カメラパラメタ、他センサに異常がなく、画像解析により輝度一定の領域が検出されているため、図7列75の「汚れ付着」の事象と判断できる。
In S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. The information stored in the
S86で、原因判定部5BはS85で判定した検知精度低下の原因が一時的なものか恒久的なものかを判定する。図7より、列75の「汚れ付着」と判定できるので、行7jより恒久的な原因と判断できる。
In S86, the cause determination unit 5B determines whether the cause of the decrease in detection accuracy determined in S85 is temporary or permanent. From FIG. 7, it can be determined that “dirt adhered” in the
S87に進み、原因判定部5BはアラームフラグをONにする。例えば、先行車50Aに運転手が搭乗しており後続車50Bが無人の場合(自動走行中)には、原因判定部5Bは無線通信装置3Bから信号を出力して先行車50Aのアラーム10Aを介して後続車の自動走行の継続が困難になった旨を先行車50Aの運転手に通知する。この通知を受けた先行車50Aの運転手は可及的速やかに停車して、必要に応じて後続車50Bのメンテナンス作業を行う。これにより各車両で相対位置情報の検知精度の低下が確認できた場合には速やかに原因を解消することができ、検知精度が低下した状態で継続して隊列走行が行われることを防止できる。
Proceeding to S87, the cause determining unit 5B turns on the alarm flag. For example, when the driver is in the preceding
以上が運転支援装置に原因判定部5を付加した、第3の実施形態の動作の例である。原因判定部5を付加することにより、先行車50Aと後続車50Bのいずれかで相対位置情報の検知精度が低下した場合には、もう一方のカメラ1で補完するのみでなく、精度低下の原因を自己診断し、対策が必要な場合にはアラームを出すこととした。これによりカメラ1に異常が発生した場合には、手動運転に切り替える、または、安全に停止して問題対策をするなどの対策を速やかにとることができ、異常のある状態で隊列走行が行われることを防止できる。
The above is an example of the operation of the third embodiment in which the
<実施形態4>
図11は、本発明の第四の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第三の実施形態の各制御装置11A,11Bに履歴格納部6を追加した構成である。
<Embodiment 4>
FIG. 11 is a schematic configuration diagram of a driving support device and a driving support system according to the fourth embodiment of the present invention. This is a configuration in which a history storage unit 6 is added to each of the control devices 11A and 11B of the third embodiment.
履歴格納部6を追加した目的は、第3実施形態では原因判定部5がアラームを出すか否かを判断する際にその時刻での自己診断の結果のみを参照していたが、これに加えて時系列の情報を用いて判断可能とすることである。履歴格納部6では、相対位置情報の検知精度低下の程度を示す指標(例えば車間距離D)の履歴を格納しておき、原因判定部5では、その履歴を基に検知精度の低下した状態が一定時間以上続いたと判断した場合に、走行状態が正常でないと判定しアラーム10Aに信号を出すこととした。検知精度を示す指標としては、位置情報演算部2の検知精度そのものを用いてもよいし、検知精度が低下した結果を示す車間距離Dと目標車間距離との乖離度や、後続車両50Bの加減速の変動等の指標のいずれかもしくは複数の組合せを用いることができる。
The purpose of adding the history storage unit 6 is that in the third embodiment, when the
履歴格納部6を追加した場合の運転支援装置15の動作を説明する。履歴格納部6に格納される検知精度情報として、以下の実施形態では車間距離Dの履歴を用いるとする。
The operation of the driving
履歴格納部6は、図4で説明した位置情報演算部2の処理S42で、先行車と後続車からの情報から車間距離D(補正相対位置情報)を算出した後に、車間距離Dを時刻情報とともに格納する。
The history storage unit 6 calculates the inter-vehicle distance D (corrected relative position information) from the information from the preceding vehicle and the following vehicle in the processing S42 of the position
図12に第4の実施形態の原因判定部5の処理の流れを示す。図8の処理の流れに、S121の判定を追加した処理の流れとなっている。S86で、原因判定部5は精度低下の原因が恒久的か否かを判定し、原因が一時的であると判定された場合にはS121の処理に移る。
FIG. 12 shows a flow of processing of the
S121では、原因判定部5は履歴格納部6に格納されている車間距離Dの履歴を参照し、検知精度が低下した状態が閾値期間(所定期間)以上継続しているか否かを判定する。閾値期間以上継続していればS87に進み、原因判定部5はアラームフラグをONにする。閾値期間以上継続していなければ、処理を終了する。
In S121, the
第4の実施形態の具体的な処理につき、図13−図18を用いて説明する。図13−図15は相対位置情報の検知精度が低い状態が閾値期間以上連続しない例に対し、図16−図18は相対位置情報の検知精度が低い状態が閾値期間以上連続する例である。 A specific process according to the fourth embodiment will be described with reference to FIGS. 13 to 15 show an example in which the state where the detection accuracy of the relative position information is low does not continue for a threshold period or more, and FIGS. 16 to 18 show an example in which the state where the detection accuracy of the relative position information is low continues for a threshold period or more.
図13は、逆光環境で先行車50Aと後続車50Bが隊列走行(追従走行)を実施している状態を示す。後続車50Bのカメラ1Bで取得した画像132は逆光の影響で画像の状態が悪い(例えば黒つぶれしている)とする。
FIG. 13 shows a state in which the preceding
図13の条件の際の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を図14に示す。位置情報演算部2の処理により行142、行143に示す車間距離(第1及び第2相対位置情報)と検出精度を求める。図4に示す補正位置情報演算部4の処理により、検出精度から先行車情報と後続車情報の重みを求め、車間距離Dを補正相対位置情報として算出する。
FIG. 14 shows output contents of processing results of the position
次に原因判定部5では図12の処理の流れより、まずS81で後続車50Bの検出精度が閾値以下であることを判定し、S82、S83,S84の処理によりカメラパラメタ(行144、145,146)、他のセンサ値(行147)、画像解析による画像特徴量(行148、行149)を取得する。
Next, in S81, the
S85の処理により、原因判定部5Bでは、検知精度低下の原因を判定する。この例の場合は図7と照合し、14aのように「逆光」が原因の精度低下と判定する。 By the processing in S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. In the case of this example, it is compared with FIG. 7, and it is determined that the accuracy is deteriorated due to “backlight” as in 14a.
S86の処理により、原因判定部5Bは原因が恒久的であるかを判定する。「逆光」は図7より14bに示すように「一時的」な原因であるのでS121に進む。 By the processing of S86, the cause determination unit 5B determines whether the cause is permanent. Since "backlight" is a "temporary" cause as shown by 14b in FIG. 7, the process proceeds to S121.
S121では、履歴格納部6Bを参照し、原因判定部5Bは検知精度低下状態が閾値期間以上継続しているか否かを判定する。図15に、この例での履歴格納部6Bに格納されている履歴の例を示す。この例では、目標車間距離に対して車間距離Dがどれくらい乖離しているかの履歴を採っている。図15中、横軸は時刻である。符合151を付した直線は車間距離Dの目標値であり、仮に2mとする。符合152を付した境界線は目標車間距離からの乖離許容範囲の上限値であり、仮に2.5mとする。符合153を付した境界線は目標車間距離からの乖離許容範囲の下限値であり、仮に1.5mとする。符合154を付した曲線が実際に補正位置情報演算部4Bで算出された車間距離Dである。
In S121, with reference to the history storage unit 6B, the cause determination unit 5B determines whether the detection accuracy deterioration state has continued for a threshold period or more. FIG. 15 shows an example of a history stored in the history storage unit 6B in this example. In this example, a history of how far the inter-vehicle distance D deviates from the target inter-vehicle distance is taken. In FIG. 15, the horizontal axis is time. The straight line denoted by
この例の場合、原因判定部5Bは、後続車50Bによる相対位置情報の検知精度は低下しているが、原因が一時的で、自然に解消する「逆光」であること、さらに、図15により、車間距離Dの履歴が目標車間距離の許容範囲内(2m±0.5m)に収まっていることに鑑みて、検知精度の低下は対策が必要なレベルにまで悪化していないと判断して処理を終了する。
In the case of this example, the cause determination unit 5B determines that the accuracy of the detection of the relative position information by the following
次に図16−18を用いて説明する。図16は、霧の環境で先行車50Aと後続車50Bが隊列走行(追従走行)を実施している状態を示す。先行車50Aのカメラ1Aで取得した画像161と、後続車50Bのカメラ1Bで取得した画像162はともに霧の影響で画像の状態が悪いが、照明等の条件の違いで後続車50Bが撮影した画像162の方が相対的に状態が悪いとする。
Next, a description will be given with reference to FIGS. FIG. 16 shows a state in which the preceding
図16の条件の際の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を図17に示す。位置情報演算部の処理により行172、行173に示す車間距離(第1及び第2相対位置情報)と検出精度を求める。図4に示す補正位置情報演算部4の処理により、検出精度から先行車情報と後続車情報の重みを求め、車間距離Dを補正相対位置情報として算出する。
FIG. 17 shows output contents of processing results of the position
次に原因判定部5では図12の処理の流れより、まずS81で後続車50Aの検出精度が閾値以下であることを判定し、S82、S83,S84の処理によりカメラパラメタ(行174)、他センサ(行175)、画像解析による画像特徴量(行176、行177、行178)を取得する。
Next, in S81, the
S85の処理により、原因判定部5Bは検知精度低下の原因を判定する。この例の場合は図7と照合し、179のように「霧」が原因の精度低下と判定する。 By the processing of S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. In the case of this example, it is compared with FIG. 7 and it is determined that the accuracy is reduced due to “fog” as in 179.
S86の処理により、原因判定部5Bは原因が恒久的であるかを判定する。「霧」は図7より17aに示すように「一時的」な原因であるのでS121に進む。 By the processing of S86, the cause determination unit 5B determines whether the cause is permanent. Since "fog" is a "temporary" cause as shown at 17a in FIG. 7, the process proceeds to S121.
S121では、履歴格納部6Bを参照し、原因判定部5Bは検知精度低下状態が閾値期間以上継続しているか否かを判定する。図18に、この例での履歴格納部6Bに格納されている履歴の例を示す。図15と同様に、図18中、横軸は時刻である。符合181を付した直線は車間距離Dの目標値であり、仮に2mとする。符合182を付した境界線は目標車間距離からの乖離許容範囲の上限値であり、仮に2.5mとする。符合183を付した境界線は目標車間距離からの乖離許容範囲の下限値であり、仮に1.5mとする。符合184を付した曲線が実際に補正位置情報演算部4で算出した車間距離Dである。
In S121, with reference to the history storage unit 6B, the cause determination unit 5B determines whether the detection accuracy deterioration state has continued for a threshold period or more. FIG. 18 shows an example of a history stored in the history storage unit 6B in this example. As in FIG. 15, the horizontal axis in FIG. 18 is time. The straight line denoted by
図15の例と異なり、目標車間距離からの乖離が、許容範囲(2m±0.5m)を超えている期間が矢印185で示す期間連続しており、この期間はあらかじめ定めた検知精度低下期間の閾値期間(所定期間)186を超えている。 Unlike the example of FIG. 15, a period in which the deviation from the target inter-vehicle distance exceeds the allowable range (2 m ± 0.5 m) is a continuous period indicated by an arrow 185, and this period is a predetermined detection accuracy reduction period. Exceeds the threshold period (predetermined period) 186.
この例の場合、原因判定部5Bは、後続車50Bの相対位置情報の検知精度は低下しているが、原因が一時的で自然に解消する「霧」であると判定する。しかし、図18より、車間距離Dの履歴が目標車間距離の許容範囲を超える期間185が閾値期間186を超えているため、一時的な精度低下でも長期間解消せず、車間距離Dが目標値から乖離した不安定な状態が続いていると判断する。この場合は、後続車両50Bの追従走行の安定性に問題があるとし、S87に進んで原因判定部5BはアラームフラグをONにする。
In the case of this example, the cause determination unit 5B determines that the detection accuracy of the relative position information of the following
以上が、履歴格納部6を追加した実施形態4の具体例である。相対位置情報の精度低下の原因が自然環境等による一時的な性質のものであっても、それが長期間連続した場合には、追従走行の安定性が失われている状態と判定して、アラーム10を発行して後続車両50Bを自動運転から手動運転に切り替える、先行車50Aの運転手に対して停止指示を出すなどの対策をとることができる。また逆に、いずれかのカメラ1の精度が低下しても、原因が一時的であり、走行の安定性が問題ない場合には、先行車50Aと後続車50Bの情報を活用しながら走行を継続できるので、過度な走行停止指示を回避できる効果もある。
The above is a specific example of the fourth embodiment in which the history storage unit 6 is added. Even if the cause of the decrease in the accuracy of the relative position information is of a temporary nature due to the natural environment, etc., if it continues for a long time, it is determined that the stability of the following running is lost, It is possible to take measures such as issuing the
<実施形態5>
図19は、本発明の第五の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。
<
FIG. 19 is a schematic configuration diagram of a driving support device and a driving support system according to the fifth embodiment of the present invention.
本実施形態は、管制センタに設置された制御装置(サーバコンピュータ)11Cを追加し、各車両50のカメラ1の画像を基に制御装置11Cで相対位置情報と補正相対位置情報の演算を行い、その補正相対位置情報を後続車50Bの運転支援装置15Bに送信している点が特徴となる。
In the present embodiment, a control device (server computer) 11C installed in the control center is added, and the relative position information and the corrected relative position information are calculated by the control device 11C based on the image of the
図19に示す運転支援システムは、先行車50Aに搭載された運転支援装置15Aと、後続車50Bに搭載された運転支援装置15Bと、これらの運転支援装置15A,15Bと相互に無線通信可能に構成された制御装置11Cを備えている。
The driving support system shown in FIG. 19 is configured such that the driving support device 15A mounted on the preceding
管制センタの制御装置11Cは、無線通信装置(コンピュータ側通信装置)3Cを有するサーバ用のコンピュータであり、位置情報演算部(コンピュータ側位置情報演算部)2C及び補正位置情報演算部(コンピュータ側補正位置情報演算部)4Cとして機能する。 The control device 11C of the control center is a server computer having a wireless communication device (computer-side communication device) 3C, and includes a position information calculation unit (computer-side position information calculation unit) 2C and a corrected position information calculation unit (computer-side correction). It functions as a position information calculation unit 4C.
運転支援装置15A,15Bは、カメラ1A,1Bで撮影された画像を無線通信装置3A,3Bを介してサーバ11Cに送信する。
The driving
管制センタの制御装置11Cは、受信したカメラ画像を基に先行車50Aと後続車50Bの相対位置情報を演算し、その相対位置情報と検出精度を基に補正相対位置情報を演算する。演算した補正相対位置情報は後続車両50Bに送信され、制御装置11Bの走行制御部8Bによって後続車両50Bの自動走行制御に利用される。
The control device 11C of the control center calculates relative position information of the preceding
無線通信装置3A,3B,3Cは、第1実施形態等のように車車間通信に限定せず、車両50と管制センタの制御装置11間の通信が可能になっている。本実施形態では、位置情報演算部2Cと補正位置情報演算部4Cを管制センタの制御装置11Cに持ち、先行車50Aと後続車50Bは取得した画像やその他センサ情報を無線通信装置3から管制センタに送信し、管制センタ側で先行車50A、および後続車50Bが取得した画像から相対位置情報や補正相対位置情報の取得を実施する構成である。
The wireless communication devices 3A, 3B, and 3C are not limited to inter-vehicle communication as in the first embodiment and the like, but are capable of communication between the vehicle 50 and the control device 11 of the control center. In the present embodiment, the position information calculation unit 2C and the corrected position information calculation unit 4C are provided in the control device 11C of the control center, and the preceding
なお、図19に示した例では、制御装置11A,11Bは、位置情報演算部2、補正位置情報演算部4、原因判定部5及び履歴格納部6のいくつかの機能を具備しないが、それらの機能を具備しても良い。
In the example shown in FIG. 19, the control devices 11A and 11B do not have some functions of the position
以上の構成を採ることで、カメラ1と無線通信装置3を搭載した車両が高度な制御装置を備えなくとも追従走行を実施することができる。また、本実施形態の適用は必ずしも一組の追従走行車両のみに限られず、例えば特定領域内を走行する複数の車両に適用すれば、センタでこれら複数の車両を一括制御できる。
By adopting the above configuration, the vehicle equipped with the
また、第三の実施形態で追加した原因判定部5をセンタの制御装置11Cに具備することで、精度低下の原因を判定し、アラームを出すこともできる。第四の実施形態で追加した履歴格納部6もセンタの制御装置11C具備することで、履歴による走行状態の安定性を判断し、アラームを出すこともできる。
Further, by providing the
また、管制センタで取得できる交通流センサなどの情報から、混雑していない安全な経路へ走行指示を出すこともできる。これにより、自動追従走行時に難易度の高い車線変更を伴わない走行が可能になる効果がある。 In addition, it is possible to issue a traveling instruction to a safe route without congestion from information such as a traffic flow sensor that can be obtained at the control center. As a result, there is an effect that it is possible to perform the traveling without the lane change with a high degree of difficulty during the automatic following travel.
また、原因判定部5での処理の結果、アラームフラグがONになり、停車する判断になった時に、管制センタでは交通流センサからの道路の混雑状況や地図情報から、停車するための安全な場所を判断し、先行車50Aに指示することもできる。
Also, as a result of the processing in the
以上が本発明による運転支援装置の実施形態である。公知技術のような後続車50Bのみがカメラ(外界センサ)1を搭載し先行車50Aに対する相対位置・姿勢を検出しながら追従走行する場合には、後続車50Bのカメラ1Bの視界が逆光などで一時的に悪化した場合には追従走行の継続が困難になる。しかし、上記各実施形態のように先行車50Aのカメラ1Aからの情報を利用して補正相対位置情報を算出し、その補正相対位置情報を基に後続車50Bを自動追従走行させることで安全な走行を継続することが可能となった。また、カメラ1での検知精度が悪化した場合に原因判定部5で検知精度低下の原因を自己診断することで、故障、汚れ付着などの異常がカメラ1に発生した場合、もしくは一時的な異常と考えられても長時間継続する場合には、自動運転から手動運転への切り替えや先行車50Aへの停止指示などを実施することで、安全な追従運転を支援することができる効果がある。
The above is the embodiment of the driving support device according to the present invention. In the case where only the succeeding
なお、以上の実施形態では、簡単のため主に後続車50Bが補正位置情報演算部4を備える例で説明したが、第二の実施形態のように先行車50Aに搭載してもよい。また、先行車50Aと後続車50B両方に搭載することもできる。
In the above embodiment, for simplicity, the example in which the
なお、本発明は、上記の各実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例が含まれる。例えば、本発明は、上記の各実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。また、ある実施の形態に係る構成の一部を、他の実施の形態に係る構成に追加又は置換することが可能である。 The present invention is not limited to the above embodiments, and includes various modifications without departing from the scope of the invention. For example, the present invention is not limited to one having all the configurations described in the above embodiments, but also includes one in which some of the configurations are deleted. In addition, part of the structure of one embodiment can be added to or replaced by the structure of another embodiment.
また、上記の制御装置11に係る各構成や当該各構成の機能及び実行処理等は、それらの一部又は全部をハードウェア(例えば各機能を実行するロジックを集積回路で設計する等)で実現しても良い。また、上記の制御装置11に係る構成は、演算処理装置(例えばCPU)によって読み出し・実行されることで当該制御装置11の構成に係る各機能が実現されるプログラム(ソフトウェア)としてもよい。当該プログラムに係る情報は、例えば、半導体メモリ(フラッシュメモリ、SSD等)、磁気記憶装置(ハードディスクドライブ等)及び記録媒体(磁気ディスク、光ディスク等)等に記憶することができる。 In addition, the components of the control device 11 and the functions and execution processes of the components are partially or wholly realized by hardware (for example, a logic that executes the functions is designed by an integrated circuit). You may. Further, the configuration of the control device 11 may be a program (software) that realizes each function of the configuration of the control device 11 by being read and executed by an arithmetic processing device (for example, a CPU). Information related to the program can be stored in, for example, a semiconductor memory (flash memory, SSD, etc.), a magnetic storage device (hard disk drive, etc.), a recording medium (magnetic disk, optical disk, etc.), and the like.
また、上記の各実施の形態の説明では、制御線や情報線は、当該実施の形態の説明に必要であると解されるものを示したが、必ずしも製品に係る全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えて良い。 Further, in the description of each of the above embodiments, the control lines and the information lines are understood to be necessary for the description of the embodiments, but all the control lines and the information lines related to the product are not necessarily required. Does not necessarily mean that In fact, it can be considered that almost all components are interconnected.
1…カメラ、2…位置情報演算部、3…無線通信装置、4…補正位置情報演算部、5…原因判定部(判定部)、6…履歴格納部、8…走行制御部、9…走行制御装置、10…アラーム(報知装置)、11…制御装置、15…運転支援装置、25…マーカ、50A…先行車(車両)、50B…後続車(車両)
DESCRIPTION OF
Claims (13)
前記自車の前方及び後方のいずれか一方を走行する他車を撮影するカメラと、
前記他車との車車間通信を実施する通信装置と、
前記カメラによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する位置情報演算部と、
前記自車と前記他車の相対位置情報であって前記他車で演算された第2相対位置情報を前記通信装置を介して取得し、前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する補正位置情報演算部とを備えることを特徴とする運転支援装置。 Mounted on own vehicle,
A camera that captures another vehicle traveling either forward or backward of the vehicle,
A communication device that performs inter-vehicle communication with the other vehicle,
A position information calculation unit that calculates first relative position information that is relative position information between the own vehicle and the other vehicle based on an image captured by the camera;
Acquiring, via the communication device, second relative position information that is relative position information of the own vehicle and the other vehicle and is calculated by the other vehicle, and obtains the first relative position information and the second relative position information; A corrected position information calculation unit that calculates corrected relative position information that is corrected relative position information used for running control of a subsequent vehicle of the own vehicle and the other vehicle using both or the second relative position information; A driving assistance device comprising:
前記他車が前記後続車の場合、
前記通信装置は、前記補正相対位置情報を前記他車へ送信することを特徴とする運転支援装置。 The driving support device according to claim 1,
When the other vehicle is the following vehicle,
The driving support apparatus, wherein the communication device transmits the corrected relative position information to the other vehicle.
前記自車が前記後続車の場合、
前記補正相対位置情報を利用して前記後続車の走行を制御する走行制御部をさらに備えることを特徴とする運転支援装置。 The driving support device according to claim 1,
When the own vehicle is the following vehicle,
A driving support device, further comprising a traveling control unit that controls traveling of the following vehicle using the corrected relative position information.
前記補正位置情報演算部は、前記第1相対位置情報の精度に関する情報と、前記通信装置を介して取得した前記第2相対位置情報の精度に関する情報とに基づいて、前記補正相対位置情報を演算することを特徴とする運転支援装置。 The driving support device according to claim 1,
The corrected position information calculation unit calculates the corrected relative position information based on information related to the accuracy of the first relative position information and information related to the accuracy of the second relative position information obtained via the communication device. A driving assistance device characterized by performing.
前記第1相対位置情報の精度と、前記通信装置を介して取得した前記第2相対位置情報の精度とのいずれか一方が所定の閾値よりも低い場合、その要因が一時的なものか否かを判定する判定部をさらに備えることを特徴とする運転支援装置。 The driving support device according to claim 1,
If one of the accuracy of the first relative position information and the accuracy of the second relative position information obtained via the communication device is lower than a predetermined threshold, whether or not the factor is temporary A driving support device, further comprising a determination unit that determines
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものであると前記判定部で判定された場合、前記後続車の走行制御を継続することを特徴とする運転支援装置。 The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The driving support device, wherein the traveling control unit continues the traveling control of the following vehicle when the determining unit determines that the factor is temporary.
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものでないと前記判定部で判定された場合、前記後続車の走行制御を中断することを特徴とする運転支援装置。 The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The driving support device, wherein the driving control unit interrupts the driving control of the following vehicle when the determining unit determines that the factor is not temporary.
前記判定部は、前記第1相対位置情報の精度が前記所定の閾値よりも低い場合、その要因を、前記カメラのパラメタ、前記カメラによって撮影された画像の画像特徴量、及び前記画像に対して実施された画像処理に基づいて判定することを特徴とする運転支援装置。 The driving support device according to claim 5,
When the accuracy of the first relative position information is lower than the predetermined threshold, the determination unit determines a factor based on a parameter of the camera, an image feature amount of an image captured by the camera, and the image. A driving support device for making a determination based on the implemented image processing.
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものであると前記判定部で判定されたとき、かつ、前記補正相対位置情報の精度が低下した状態が所定時間以上継続したとき、前記後続車の走行制御を中断することを特徴とする運転支援装置。 The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The traveling control unit is configured to determine, when the determination unit determines that the factor is temporary, and when the state in which the accuracy of the corrected relative position information is reduced continues for a predetermined time or longer, A driving support device for interrupting travel control.
前記自車の前方を走行する前記他車に搭載された第2運転支援装置と、
コンピュータとを備え、
前記第1運転支援装置において、前記カメラは前記自車の前方を走行する前記他車を撮影する第1カメラであり、前記通信装置は前記コンピュータとの無線通信を実施する第1通信装置であり、
前記第2運転支援装置は、前記他車の後方を走行する前記自車を撮影する第2カメラと、前記コンピュータとの無線通信を実施する第2通信装置とを備え、
前記コンピュータは、
前記第1通信装置から送信された前記第1カメラの画像に基づいて前記第1相対位置情報を演算し、前記第2通信装置から送信された前記第2カメラに基づいて前記第2相対位置情報を演算するコンピュータ側位置情報演算部と、
前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算するコンピュータ側補正位置情報演算部と、
前記コンピュータ側補正位置情報演算部で演算された前記補正相対位置情報を前記自車に送信するコンピュータ側通信装置とを備え、
前記第1運転支援装置は、前記コンピュータ側通信装置から送信される前記補正相対位置情報を利用して前記自車の走行を制御する走行制御部をさらに備えることを特徴とする運転支援システム。 A first driving assistance device, which is the driving assistance device according to claim 1 and is mounted on the vehicle,
A second driving support device mounted on the other vehicle traveling in front of the own vehicle;
Computer and
In the first driving support device, the camera is a first camera that photographs the other vehicle traveling in front of the own vehicle, and the communication device is a first communication device that performs wireless communication with the computer. ,
The second driving assistance device includes a second camera that captures an image of the own vehicle traveling behind the other vehicle, and a second communication device that performs wireless communication with the computer.
The computer is
The first relative position information is calculated based on the image of the first camera transmitted from the first communication device, and the second relative position information is calculated based on the second camera transmitted from the second communication device. Computer-side position information calculation unit for calculating
Using both the first relative position information and the second relative position information or the second relative position information, corrected relative position information that is corrected relative position information used for traveling control of the own vehicle is calculated. A computer-side correction position information calculation unit;
A computer-side communication device that transmits the corrected relative position information calculated by the computer-side corrected position information calculation unit to the host vehicle,
The driving assistance system according to claim 1, wherein the first driving assistance device further includes a traveling control unit that controls traveling of the own vehicle using the corrected relative position information transmitted from the computer-side communication device.
前記第1ステップによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する第2ステップと、
前記自車と前記他車の相対位置情報であって前記他車で演算された第2相対位置情報を前記他車から取得する第3ステップと、
前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する第4ステップとを備えることを特徴とする隊列走行車の運転支援方法。 A first step of photographing another vehicle traveling either forward or backward of the own vehicle;
A second step of calculating first relative position information that is relative position information of the own vehicle and the other vehicle based on the image captured in the first step;
A third step of obtaining, from the other vehicle, second relative position information that is relative position information of the own vehicle and the other vehicle and that is calculated by the other vehicle;
The corrected relative position information used for traveling control of the following vehicle among the own vehicle and the other vehicle using both the first relative position information and the second relative position information or the second relative position information. And a fourth step of calculating certain corrected relative position information.
前記他車が前記後続車の場合、
前記補正相対位置情報を前記他車に送信する第5ステップをさらに備えることを特徴とする隊列走行車の運転支援方法。 The driving support method for a platooning vehicle according to claim 11,
When the other vehicle is the following vehicle,
A driving support method for platooning vehicles, further comprising a fifth step of transmitting the corrected relative position information to the other vehicle.
前記自車が前記後続車の場合、
前記補正相対位置情報を利用して前記後続車の走行を制御する第6ステップをさらに備えることを特徴とする隊列走行車の運転支援方法。 The driving support method for a platooning vehicle according to claim 11,
When the own vehicle is the following vehicle,
A driving support method for platooning vehicles, further comprising a sixth step of controlling the running of the following vehicle using the corrected relative position information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166718A JP2020042323A (en) | 2018-09-06 | 2018-09-06 | Driving support device, driving support system, and driving support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018166718A JP2020042323A (en) | 2018-09-06 | 2018-09-06 | Driving support device, driving support system, and driving support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020042323A true JP2020042323A (en) | 2020-03-19 |
Family
ID=69798220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018166718A Pending JP2020042323A (en) | 2018-09-06 | 2018-09-06 | Driving support device, driving support system, and driving support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020042323A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022186401A (en) * | 2021-06-04 | 2022-12-15 | プライムプラネットエナジー&ソリューションズ株式会社 | Method and device for measuring displacement amount of object |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005050187A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Neighboring vehicle detection device |
JP2005115484A (en) * | 2003-09-17 | 2005-04-28 | Fujitsu Ten Ltd | Driving support device |
JP2010117771A (en) * | 2008-11-11 | 2010-05-27 | Toyota Motor Corp | Vehicle platooning control system |
WO2011108052A1 (en) * | 2010-03-03 | 2011-09-09 | パナソニック株式会社 | Road condition management system and road condition management method |
JP2013069178A (en) * | 2011-09-24 | 2013-04-18 | Denso Corp | Vehicle notification device and following traveling control system |
JP2017041074A (en) * | 2015-08-19 | 2017-02-23 | 株式会社東芝 | Driving assist apparatus, driving assist method, and program |
-
2018
- 2018-09-06 JP JP2018166718A patent/JP2020042323A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005050187A (en) * | 2003-07-30 | 2005-02-24 | Nissan Motor Co Ltd | Neighboring vehicle detection device |
JP2005115484A (en) * | 2003-09-17 | 2005-04-28 | Fujitsu Ten Ltd | Driving support device |
JP2010117771A (en) * | 2008-11-11 | 2010-05-27 | Toyota Motor Corp | Vehicle platooning control system |
WO2011108052A1 (en) * | 2010-03-03 | 2011-09-09 | パナソニック株式会社 | Road condition management system and road condition management method |
JP2013069178A (en) * | 2011-09-24 | 2013-04-18 | Denso Corp | Vehicle notification device and following traveling control system |
JP2017041074A (en) * | 2015-08-19 | 2017-02-23 | 株式会社東芝 | Driving assist apparatus, driving assist method, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022186401A (en) * | 2021-06-04 | 2022-12-15 | プライムプラネットエナジー&ソリューションズ株式会社 | Method and device for measuring displacement amount of object |
JP7414772B2 (en) | 2021-06-04 | 2024-01-16 | プライムプラネットエナジー&ソリューションズ株式会社 | Method and device for measuring displacement of object |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643475B2 (en) | Lane departure warning device and method | |
US9740942B2 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
US10127460B2 (en) | Lane boundary line information acquiring device | |
US9794543B2 (en) | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method | |
US11157753B2 (en) | Road line detection device and road line detection method | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
US10789491B2 (en) | Traffic light recognition device and traffic light recognition method | |
US20220177005A1 (en) | Method for checking a surroundings detection sensor of a vehicle and method for operating a vehicle | |
JP2019099138A (en) | Lane-keep auxiliary method and device | |
US20180134289A1 (en) | Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method | |
CN110167813B (en) | Travel route recognition device and travel route recognition method | |
US11631256B2 (en) | Travel path recognition apparatus and travel path recognition method | |
KR20190030344A (en) | Method and apparatus for recognizing object | |
JP2019191806A (en) | Abnormality detection device and abnormality detection method | |
US20200090347A1 (en) | Apparatus for estimating movement information | |
KR101268282B1 (en) | Lane departure warning system in navigation for vehicle and method thereof | |
JP2022036726A (en) | Object detector, object detection method, and computer program for object detection | |
JP2020187474A (en) | Traveling lane recognition device, traveling lane recognition method and program | |
JP2020042323A (en) | Driving support device, driving support system, and driving support method | |
EP3288260B1 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and carrier means | |
KR101912085B1 (en) | Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof | |
JP6564682B2 (en) | Object detection device, object detection method, and object detection program | |
JP2005329765A (en) | Run lane recognition device | |
JP6674127B2 (en) | Image processing device, photographing device, program, device control system and device | |
JP2020077293A (en) | Lane line detection device and lane line detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220726 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220920 |