JP2020042323A - Driving support device, driving support system, and driving support method - Google Patents

Driving support device, driving support system, and driving support method Download PDF

Info

Publication number
JP2020042323A
JP2020042323A JP2018166718A JP2018166718A JP2020042323A JP 2020042323 A JP2020042323 A JP 2020042323A JP 2018166718 A JP2018166718 A JP 2018166718A JP 2018166718 A JP2018166718 A JP 2018166718A JP 2020042323 A JP2020042323 A JP 2020042323A
Authority
JP
Japan
Prior art keywords
vehicle
position information
relative position
driving support
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018166718A
Other languages
Japanese (ja)
Inventor
都 堀田
Miyako Hotta
堀田  都
高浜 琢
Migaku Takahama
琢 高浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2018166718A priority Critical patent/JP2020042323A/en
Publication of JP2020042323A publication Critical patent/JP2020042323A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a driving support device that can maintain a robust tracking system even when a problem occurs in a photographic image of a camera mounted on one of the vehicles running in platoon.SOLUTION: A driving support device comprises: a camera 1 for photographing an other vehicle; a communication device 3 for having an inter-vehicle communication with the other vehicle; a position information calculation unit 2 for calculating first relative position information, which is the relative position information between an own vehicle and the other vehicle, on the basis of the images taken by the camera; and a corrected position information calculation unit 4 for calculating corrected relative position information, which is the corrected relative position information used for controlling the running of a subsequent vehicle 50B, one of the own vehicle and the other vehicle, by using both of the first relative position information and second relative position information, which the other vehicle has and which is the relative position information between the own vehicle and a front vehicle, or using the second relative position information, after the second relative position information is obtained through the communication device 3.SELECTED DRAWING: Figure 1

Description

本発明は、隊列走行向けの運転支援装置に関する。   The present invention relates to a driving support device for platooning.

輸送の効率化のため運搬車両の隊列走行技術の開発が行われている。この技術では、後続車から先行車までの車間距離と先行車に対する後続車の姿勢の検出と車車間通信により適正速度等の走行パラメタを決定し、その走行パラメタに基づいて後続車の走行制御が行われて目標車間距離を保持しながら後続車が先行車に自動で追従走行する。   A platooning technology for transport vehicles has been developed to improve transportation efficiency. In this technology, traveling parameters such as an appropriate speed are determined by detecting the inter-vehicle distance from the succeeding vehicle to the preceding vehicle, the posture of the following vehicle with respect to the preceding vehicle, and inter-vehicle communication, and the traveling control of the following vehicle is performed based on the traveling parameters. The subsequent vehicle automatically follows the preceding vehicle while maintaining the target inter-vehicle distance.

この種の技術に関し、特許文献1に開示されている先行車検出システムでは、水平及び鉛直方向に所定間隔で先行車(他車)の背面に配置された少なくとも3個のマーカ要素をCCDカメラ等の撮影手段で撮影し、そのマーカ要素の像の位置関係から少なくとも先行車までの距離及び先行車との相対的姿勢角を算出している。   Regarding this type of technology, in a preceding vehicle detection system disclosed in Patent Document 1, at least three marker elements arranged on the back of a preceding vehicle (another vehicle) at predetermined intervals in the horizontal and vertical directions are connected to a CCD camera or the like. And at least the distance to the preceding vehicle and the relative attitude angle with the preceding vehicle are calculated from the positional relationship of the image of the marker element.

また、特許文献2には、自車(先行車)の走行速度を含む情報である自車両情報と、自車にとっての後続車の位置及び走行速度を含む情報である後続車情報とに基づいて、仮に退出予定路に退出するための減速を所定の基本減速度で実施した場合に、退出予定路に自車が退出するまでに自車と後続車との車間距離が所定の許容値未満となるか否かを推定する車両情報提供装置が開示されている。   Japanese Patent Application Laid-Open No. H11-163873 discloses based on self-vehicle information that is information including the traveling speed of the own vehicle (preceding vehicle) and succeeding vehicle information that is information including the position and running speed of the following vehicle for the own vehicle. If, for example, deceleration for leaving on the scheduled exit road is performed at a predetermined basic deceleration, the inter-vehicle distance between the own vehicle and a following vehicle is less than a predetermined allowable value before the own vehicle exits on the expected exit road. A vehicle information providing device for estimating whether or not the vehicle information will be provided is disclosed.

特開2001−202497号公報JP 2001-202497 A

特開2017−10463号公報JP 2017-10463 A

しかし、特許文献1の技術は、マーカ要素を撮影した画像に逆光などで白とびや黒つぶれが生じて後続車からのマーカの認識が難しくなった場合には追従のロバスト性が下がる。また、後続車のカメラ故障などでロバストな追従が困難になった場合、後続車を安全に停止させる手段が無い。   However, according to the technique disclosed in Japanese Patent Application Laid-Open No. H11-157, the robustness of following is reduced when an image of a marker element is overexposed or underexposed due to backlight or the like, and it becomes difficult to recognize the marker from a following vehicle. Further, when robust following becomes difficult due to a camera failure of the following vehicle, there is no means for safely stopping the following vehicle.

また、特許文献2の車両情報提供装置は、先行車両が減速開始地点から減速することを示す減速予告情報を車車間通信で後続車に送信することで、後続車に対して先行車両が減速を開始することを予告することは開示しているが、自車と後続車との車間距離の演算精度が低下する等して追従のロバスト性が下がった場合にどのような処理を行えば良いかについては言及がない。   Further, the vehicle information providing device of Patent Document 2 transmits deceleration notice information indicating that the preceding vehicle decelerates from the deceleration start point to the following vehicle by inter-vehicle communication, so that the preceding vehicle decelerates with respect to the following vehicle. Although it is disclosed to give a notice to start, what kind of processing should be performed when the robustness of following decreases due to a decrease in the calculation accuracy of the following distance between the own vehicle and the following vehicle, etc. Is not mentioned.

本発明は上記事項に鑑みてなされたものであり、その目的は、逆光などの環境条件の影響、レンズの汚れや故障等で、隊列走行中の車両に搭載されたカメラの撮影画像に問題が発生した場合にも、追従のロバスト性を保つことが可能な運転支援装置を提供することにある。   The present invention has been made in view of the above problems, and has as its object the problem of images captured by cameras mounted on vehicles running in platoon due to the effects of environmental conditions such as backlight, dirt and breakdown of lenses, and the like. It is an object of the present invention to provide a driving support device that can maintain the robustness of following even when it occurs.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、自車に搭載され、前記自車の前方及び後方のいずれか一方を走行する他車を撮影するカメラと、前記他車との車車間通信を実施する通信装置と、前記カメラによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する位置情報演算部と、前記自車と前記他車の相対位置情報であって前記他車が有する第2相対位置情報を前記通信装置を介して取得し、前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する補正位置情報演算部とを備える。   Although the present application includes a plurality of means for solving the above-described problems, to give an example, a camera mounted on the own vehicle, for photographing another vehicle traveling one of the front and rear of the own vehicle, A communication device that performs inter-vehicle communication with the other vehicle; and a position information calculation unit that calculates first relative position information that is relative position information between the own vehicle and the other vehicle based on an image captured by the camera. Acquiring, via the communication device, second relative position information that is relative position information of the own vehicle and the other vehicle and that the other vehicle has, and obtains the first relative position information and the second relative position information. A corrected position information calculation unit that calculates corrected relative position information that is corrected relative position information used for running control of a subsequent vehicle of the own vehicle and the other vehicle using both or the second relative position information; Is provided.

本発明によれば、逆光などの環境条件の影響、レンズの汚れや故障等でカメラの撮影画像に問題が発生した場合にも追従のロバスト性を保つことができる。上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。   ADVANTAGE OF THE INVENTION According to this invention, the robustness of following can be maintained even if a problem arises in the image | photographed image of a camera by the influence of environmental conditions, such as a backlight, the dirt of a lens, or a failure. Problems, configurations, and effects other than those described above will be apparent from the following description of the embodiments.

本発明の第一の実施形態による運転支援装置の概略構成図である。1 is a schematic configuration diagram of a driving support device according to a first embodiment of the present invention. 運転支援装置を搭載する隊列走行車両を説明する図である。It is a figure explaining a platoon running vehicle carrying a driving support device. 位置情報演算部の処理の出力例を説明するための図である。FIG. 9 is a diagram for describing an output example of a process of a position information calculation unit. 補正位置情報演算部4の処理の流れを示す図である。FIG. 4 is a diagram showing a flow of processing of a correction position information calculation unit 4. 本発明の第二の実施形態による運転支援装置の概略構成図である。It is a schematic structure figure of a driving support device by a second embodiment of the present invention. 本発明の第三の実施形態による運転支援装置の概略構成図である。It is a schematic structure figure of a driving support device by a third embodiment of the present invention. 認識精度低下の原因になる事象と、いずれの事象が発生しているかの判定に用いることができる情報の例である。This is an example of an event that causes a reduction in recognition accuracy and information that can be used to determine which event has occurred. 原因判定部5の処理の流れを示す図である。FIG. 6 is a diagram showing a flow of processing of a cause determination unit 5. 追従走行中の先行車の後方に搭載したカメラ1Aと、カメラ1Aで撮影した後続車の前面についたマーカ画像の例と、後続車の前方に搭載したカメラ1Bで撮影した先行車の背面についたマーカ画像の例94である。An example of the camera 1A mounted behind the preceding vehicle during the following running, a marker image on the front of the following vehicle taken by the camera 1A, and the back of the preceding vehicle taken by the camera 1B mounted on the front of the following vehicle It is an example 94 of a marker image. 先行車および後続車で取得する情報処理結果の格納部である。This is a storage unit for information processing results acquired by the preceding vehicle and the following vehicle. 本発明の第四の実施形態による運転支援装置の概略構成図である。It is a schematic structure figure of a driving support device by a 4th embodiment of the present invention. 原因判定部5の処理の流れを示す図である。FIG. 6 is a diagram showing a flow of processing of a cause determination unit 5. 逆光の環境で走行中の追従走行の状態を示す図である。It is a figure which shows the state of the following driving | running | working driving | running | working in the environment of backlight. 図13の例の場合の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を示す図である。FIG. 14 is a diagram illustrating output contents of processing results of the position information calculation unit 2, the corrected position information calculation unit 4, and the cause determination unit 5 in the example of FIG. 図13の例の場合の履歴格納部6に格納されている履歴の例を示す図である。FIG. 14 is a diagram illustrating an example of a history stored in the history storage unit 6 in the case of the example of FIG. 13. 霧の環境で走行中の追従走行の状態を示す図である。It is a figure which shows the state of the following driving | running | working driving | running | working in a foggy environment. 図16の例の場合の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を示す図である。FIG. 17 is a diagram illustrating output contents of processing results of the position information calculation unit 2, the correction position information calculation unit 4, and the cause determination unit 5 in the case of the example of FIG. 図16の例の場合の履歴格納部6に格納されている履歴の例を示す図である。FIG. 17 is a diagram illustrating an example of a history stored in a history storage unit 6 in the case of the example of FIG. 16. 本発明の第五の実施形態による運転支援システムの概略構成図である。It is a schematic structure figure of a driving support system by a 5th embodiment of the present invention. 位置情報演算部の処理の出力例を示す図である。It is a figure showing an example of an output of processing of a position information operation part.

以下、本発明の実施形態について図面を用いて説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、各実施形態を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。また、以下の説明では、同一の構成要素が複数存在する場合、符号の末尾にアルファベットの大文字や小文字を付すことがあるが、各構成要素を区別する必要が無い場合や総称する場合には、当該アルファベットの大文字や小文字を省略して表記することがある。例えば、3台の車両19A、19B、19Cが存在するとき、これらをまとめて車両19と表記することがある。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following description shows specific examples of the content of the present invention, and the present invention is not limited to these descriptions, and various modifications by those skilled in the art within the technical idea disclosed in the present specification. Changes and modifications are possible. In all the drawings for describing each embodiment, components having the same function are denoted by the same reference numerals, and the repeated description thereof may be omitted. Further, in the following description, when there are a plurality of the same constituent elements, upper and lower case letters of the alphabet may be added to the end of the reference numerals, but when it is not necessary to distinguish each constituent element or when collectively referred to, The uppercase and lowercase letters of the alphabet may be omitted. For example, when three vehicles 19A, 19B, and 19C exist, these may be collectively described as a vehicle 19.

<実施形態1>
図1は、本発明の第一の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。運転支援装置15は隊列走行する複数の車両(例えばトラック等の運搬車両)50のそれぞれに搭載されている。なお、本稿では説明を簡単にするために2台のトラック(先行車(先頭車)50A,後続車(後尾車)50B)が隊列走行する場合を例に挙げて説明する。先行車50Aに搭載された構成には末尾にAを付し、後続車50Bに搭載された構成には末尾にBを付す。したがって、図1の運転支援装置15Aは先行車50Aに搭載あれており、運転支援装置15Bは後続車50Bに搭載されている。
<First embodiment>
FIG. 1 is a schematic configuration diagram of a driving support device and a driving support system according to a first embodiment of the present invention. The driving support device 15 is mounted on each of a plurality of vehicles (for example, transport vehicles such as trucks) 50 that run in platoon. For the sake of simplicity, the description will be made on an example in which two trucks (the preceding vehicle (leading vehicle) 50A and the following vehicle (rear vehicle) 50B) run in platoon. The components mounted on the preceding vehicle 50A are appended with an A, and the components mounted on the succeeding vehicle 50B are appended with a B. Therefore, the driving support device 15A of FIG. 1 is mounted on the preceding vehicle 50A, and the driving support device 15B is mounted on the following vehicle 50B.

図1の運転支援システムは2つの運転支援装置15A,15Bで構成されている。先行車両50Aに搭載された運転支援装置15Aは、カメラ1Aと、制御装置11Aと、無線通信装置3Aと、報知装置10Aを備えており、後続車両50Bに搭載された運転支援装置15Bは、カメラ1Bと、制御装置11Bと、無線通信装置3Bと、走行制御装置9Bを備えている。   The driving support system in FIG. 1 includes two driving support devices 15A and 15B. The driving support device 15A mounted on the preceding vehicle 50A includes a camera 1A, a control device 11A, a wireless communication device 3A, and a notification device 10A. The driving support device 15B mounted on the following vehicle 50B includes a camera. 1B, a control device 11B, a wireless communication device 3B, and a travel control device 9B.

運転支援装置15は、外界を認識するためのセンサ(外界センサ)であるカメラ1と、制御装置(例えばElectronic Control Unit(ECU))11と、他車(他の車両)との車車間通信を実施するための無線通信装置(車車間通信部)3と、自車(自車両)に乗員がいる場合に当該乗員に各種警告を報せるための報知装置であるアラーム10と、自車が自動走行する場合に制御装置11から出力される走行制御信号に基づいて自車の自動走行を実現するための各種制御を行う走行制御装置9を備えており、これらは自車にそれぞれ搭載されている。なお、アラーム10と走行制御装置9は必須の構成ではなく適宜省略が可能である。例えば、必ず自動走行がなされる車両(すなわち手動走行しない車両)からはアラーム10は省略可能であり、また、必ず運転手が搭乗して手動で制御する車両(すなわち自動走行しない車両)からは走行制御装置9は省略可能である。   The driving support device 15 performs inter-vehicle communication with the camera 1 as a sensor (external sensor) for recognizing the external world, a control device (for example, an electronic control unit (ECU)) 11, and another vehicle (another vehicle). A wireless communication device (inter-vehicle communication unit) 3 for performing the operation, an alarm 10 serving as a notification device for notifying the occupant of various warnings when the occupant is present in the own vehicle (own vehicle), A traveling control device 9 for performing various controls for realizing automatic traveling of the own vehicle based on a traveling control signal output from the control device 11 when traveling is provided, and these are respectively mounted on the own vehicle. . Note that the alarm 10 and the travel control device 9 are not essential components, and can be omitted as appropriate. For example, the alarm 10 can be omitted from a vehicle that is always driven automatically (that is, a vehicle that does not travel manually), and a vehicle that is always driven manually by a driver (that is, a vehicle that does not travel automatically) is driven. The control device 9 can be omitted.

カメラ(外界センサ)1は、自車の前方及び後方の少なくとも一方に取り付けられている。隊列走行する複数車両における先頭の車両50Aは自車の後方に1台カメラを取り付けるだけで足り、最後尾の車両50Bは自車の前方に1台カメラを取り付けるだけで足りる。その他の車両は自車の前方及び後方にカメラを取り付けることが好ましい。カメラ1は例えば自車から所定の目標車間距離を概ね保持して走行する先行車の後面又は後続車(他車)の前面に貼付されたマーカ25が撮影可能な取り付け角度で固定されている。これによりカメラ1には自車の前方及び後方の少なくとも一方を走行する他車のマーカ25が撮影される。なお、カメラ1を水平面内で回転駆動する駆動機構を取り付け、他車(先行車や後続車)と自車の相対位置関係に応じて当該駆動機構を適宜動作させることで、マーカ25をカメラ1で確実に撮影する構成を追加しても良い。   The camera (external sensor) 1 is attached to at least one of the front and rear of the vehicle. The first vehicle 50A in the plurality of vehicles traveling in the platoon only needs to attach one camera behind the own vehicle, and the last vehicle 50B only needs to attach one camera in front of the own vehicle. In other vehicles, it is preferable to attach cameras in front of and behind the own vehicle. For example, the camera 1 is fixed at an attachment angle at which a marker 25 attached to the rear surface of a preceding vehicle or the front surface of a following vehicle (another vehicle) that travels while substantially maintaining a predetermined target inter-vehicle distance from the own vehicle can be photographed. Thus, the camera 1 captures the marker 25 of another vehicle traveling at least one of the front and rear of the own vehicle. The marker 25 is attached to the camera 1 by attaching a drive mechanism for rotating the camera 1 in a horizontal plane and appropriately operating the drive mechanism according to the relative positional relationship between the other vehicle (preceding vehicle and the following vehicle) and the own vehicle. It is also possible to add a configuration for surely photographing with.

制御装置(ECU)11は、図示しない演算処理装置(例えばCPU)と、その演算処理装置が実行するプログラム等が記憶される記憶装置(例えば、メモリ、ハードディスク、フラッシュメモリ)と、内部の機器同士や外部との機器との通信を行うための通信装置等を備えたコンピュータである。制御装置11は、記憶装置に記憶されたプログラムを実行することで、位置情報演算部2、補正位置情報演算部4、走行制御部8として機能する。なお、プログラムの追加によりその他の機能(例えば、後述の原因判定部5)の実装も可能であり、適宜不要な機能の削除も可能である。   The control device (ECU) 11 includes an arithmetic processing unit (eg, a CPU) not shown, a storage device (eg, a memory, a hard disk, and a flash memory) that stores a program executed by the arithmetic processing device, and internal devices. And a computer provided with a communication device or the like for communicating with an external device. The control device 11 functions as the position information calculation unit 2, the corrected position information calculation unit 4, and the travel control unit 8 by executing a program stored in the storage device. Note that other functions (for example, the cause determination unit 5 described later) can be implemented by adding a program, and unnecessary functions can be deleted as appropriate.

位置情報演算部2は、カメラ1によって撮影された画像(カメラ画像)に基づいて自車と他車の相対位置情報を演算する。相対位置情報には、自車と他車の車間距離情報や、ピッチ角、ロール角及びヨー角で定義される自車に対する他車の方向情報(角度情報)が含まれている。相対位置情報は、制御装置11の記憶装置内に予め記憶されているマーカ(マッチングテンプレート)25の形状を基にパタンマッチングによりカメラ画像内のマーカを検知し、そのサイズや歪みを検知することで演算される(詳細は後述)。その際のマッチング率(相関値)は相対位置情報の検出精度(演算精度)を示す指標値として制御装置11の記憶装置に格納される。本稿では、自車の制御装置11が演算してその記憶装置内に格納している相対位置情報を第1相対位置情報と称し、他車の制御装置11が演算してその記憶装置内に格納している相対位置情報を第2相対位置情報と称することがある。すなわち、第1相対位置情報は自車に搭載されたカメラ(外界センサ)1の検出結果に基づいて演算されたデータであり、第2相対位置情報は他車に搭載されたカメラ(外界センサ)1の検出結果に基づいて演算されたデータである。   The position information calculation unit 2 calculates relative position information between the own vehicle and another vehicle based on an image (camera image) captured by the camera 1. The relative position information includes inter-vehicle distance information between the own vehicle and another vehicle, and direction information (angle information) of the other vehicle with respect to the own vehicle defined by the pitch angle, the roll angle, and the yaw angle. The relative position information is obtained by detecting a marker in the camera image by pattern matching based on the shape of the marker (matching template) 25 stored in the storage device of the control device 11 in advance, and detecting its size and distortion. It is calculated (details will be described later). The matching rate (correlation value) at that time is stored in the storage device of the control device 11 as an index value indicating the detection accuracy (computation accuracy) of the relative position information. In this document, the relative position information calculated by the control device 11 of the own vehicle and stored in the storage device is referred to as first relative position information, and the control device 11 of the other vehicle calculates and stores the relative position information in the storage device. This relative position information may be referred to as second relative position information. That is, the first relative position information is data calculated based on the detection result of the camera (outside sensor) 1 mounted on the own vehicle, and the second relative position information is the camera (outside sensor) mounted on another vehicle. 1 is data calculated based on the detection result.

無線通信装置3は、車車間通信だけでなく、外部の設備(例えば路側機)やコンピュータとの通信にも利用される。無線通信装置3と制御装置11は通信線を介して相互通信可能に接続されており、無線通信装置3が受信したデータは制御装置11に出力可能に、制御装置11が出力したデータは無線通信装置3を介して外部に出力可能になっている。   The wireless communication device 3 is used not only for inter-vehicle communication but also for communication with external equipment (for example, a roadside device) or a computer. The wireless communication device 3 and the control device 11 are connected so as to be able to communicate with each other via a communication line, so that data received by the wireless communication device 3 can be output to the control device 11 and data output by the control device 11 is wireless communication. Output can be made to the outside via the device 3.

補正位置情報演算部4は、第2相対位置情報を無線通信装置3を介して取得し、第1相対位置情報と第2相対位置情報の双方または第2相対位置情報を用いて自車と他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する。演算された補正相対位置情報は走行制御部8に出力され、走行制御部8で補正相対位置情報に応じた走行制御装置9の走行制御信号に変換される。走行制御部8から走行制御装置9に対して走行制御信号が出力され、その走行制御信号に応じて走行制御装置9が動作する。   The corrected position information calculation unit 4 acquires the second relative position information via the wireless communication device 3 and uses the both of the first relative position information and the second relative position information or the second relative position information to determine whether or not the own vehicle is in another position. Corrected relative position information, which is corrected relative position information used for traveling control of a following vehicle among the vehicles, is calculated. The calculated corrected relative position information is output to the travel control unit 8 and is converted by the travel control unit 8 into a travel control signal of the travel control device 9 corresponding to the corrected relative position information. A traveling control signal is output from the traveling control unit 8 to the traveling control device 9, and the traveling control device 9 operates according to the traveling control signal.

走行制御装置9には、例えば、自車の走行方向を制御するステアリング(操舵制御装置)と、自車の走行速度を制御する内燃機関、電動モータ及び制動装置(速度制御装置)が含まれており、制御装置11はこれら各装置に対して個別に走行制御信号(例えば、操舵制御信号、加速制御信号、減速制御信号)を出力することで各装置を自動で作動させて自車の走行を制御している。   The traveling control device 9 includes, for example, a steering (steering control device) that controls the traveling direction of the own vehicle, an internal combustion engine that controls the traveling speed of the own vehicle, an electric motor, and a braking device (speed control device). In addition, the control device 11 outputs a travel control signal (for example, a steering control signal, an acceleration control signal, and a deceleration control signal) to each of these devices individually, thereby automatically operating each device and driving the vehicle. Controlling.

本実施形態では、後続車50Bを自車とし、先行車50Aを他車とし(すなわち、他車が自車の前方を走行する場合)、以下では後続車50Bの構成について説明する。   In the present embodiment, the succeeding vehicle 50B is defined as the own vehicle, and the preceding vehicle 50A is defined as another vehicle (that is, when the other vehicle runs ahead of the own vehicle). Hereinafter, the configuration of the following vehicle 50B will be described.

図2を用いて位置情報演算部2が実行する処理について説明する。本実施形態では、先行車50Aの後面と後続車50Bの前面に既知の大きさのマーカ25を貼付しており、先行車50Aのカメラ1Aで後続車50Bのマーカ25を、後続車50Bのカメラ1Bで先行車50Aのマーカ25を撮影している。図2中の画像23はカメラ1Aが後続車50Bの前面を撮影したもので、画像24はカメラ1Bが先行車50Aの後面を撮影したものである。ここでは、後続車50Bに搭載された制御装置11Bの位置情報演算部2が、カメラ1Bで撮影された画像24からマーカ25の領域をパタンマッチングで検知し、その検知された画像24内のマーカのサイズや歪みを計測することで先行車50Aとの相対位置情報を演算する例で説明する。   The processing executed by the position information calculation unit 2 will be described with reference to FIG. In the present embodiment, a marker 25 of a known size is attached to the rear surface of the preceding vehicle 50A and the front surface of the following vehicle 50B, and the marker 25 of the following vehicle 50B is attached to the camera 1A of the preceding vehicle 50A. 1B, the marker 25 of the preceding vehicle 50A is photographed. An image 23 in FIG. 2 is obtained by the camera 1A photographing the front surface of the following vehicle 50B, and an image 24 is obtained by the camera 1B photographing the rear surface of the preceding vehicle 50A. Here, the position information calculation unit 2 of the control device 11B mounted on the following vehicle 50B detects the area of the marker 25 from the image 24 captured by the camera 1B by pattern matching, and detects the marker in the detected image 24. An example will be described in which the relative position information with respect to the preceding vehicle 50A is calculated by measuring the size and distortion of the preceding vehicle.

また、図2の例では、先行車50Aに後続車50Bが追従しており、制御装置11B内の走行制御部8Bや走行制御装置9Bは後続車22が搭載している。   In the example of FIG. 2, the succeeding vehicle 50B follows the preceding vehicle 50A, and the traveling control unit 8B and the traveling control device 9B in the control device 11B are mounted on the following vehicle 22.

カメラ1Bが取得した画像24から先行車両50Aと後続車50Bの相対位置情報を求める位置情報演算部2Bの処理の流れを図3に示す。この処理は後続車50Bに搭載された制御装置11B(位置情報演算部2B)によって実行される。   FIG. 3 shows a processing flow of the position information calculation unit 2B for obtaining relative position information of the preceding vehicle 50A and the following vehicle 50B from the image 24 acquired by the camera 1B. This process is executed by the control device 11B (the position information calculation unit 2B) mounted on the following vehicle 50B.

S31で位置情報演算部2Bはカメラ1Bの画像24を取得する
S32で位置情報演算部2Bは画像24中からマーカ領域を検出する。検出方法としては、例えば、エッジ検出等の画像処理プログラムで画像24内のマーカ25の外枠矩形を求め、その求めた領域に対して既知のマーカテクスチャをパタンマッチングし相関値(マッチング率)が最大の領域を検出する処理が用いられる。
In S31, the position information calculation unit 2B acquires the image 24 of the camera 1B. In S32, the position information calculation unit 2B detects a marker area from the image 24. As a detection method, for example, an outer frame rectangle of the marker 25 in the image 24 is obtained by an image processing program such as an edge detection, and a known marker texture is subjected to pattern matching with respect to the obtained area to obtain a correlation value (matching rate). Processing for detecting the largest area is used.

S33では、S32で求めたマーカ領域の検出精度(演算精度)を求める。この例のようにパタンマッチングの相関値(マッチング率)が最大の領域を採用する場合には、その最大相関値を検知精度として求める。   In S33, the detection accuracy (calculation accuracy) of the marker area obtained in S32 is obtained. When a region having a maximum correlation value (matching rate) in pattern matching is employed as in this example, the maximum correlation value is obtained as the detection accuracy.

S34では、S32で求めたマーカ領域から、先行車50Aとの距離や姿勢等の相対位置情報を演算する。なお、サイズが既知のマーカ25を用いた距離や姿勢の推定は公知の方法で実現可能である。例えば、既知の大きさの矩形の中に識別用のパタン(図2の例では文字)が描かれているマーカ25を用いる。輪郭線抽出により4本のエッジに囲まれた頂点座標を抽出することでマーカ領域を抽出する。抽出した領域を正規化し、パタンマッチングによりテンプレートパタンとの類似度最大値を採る位置をマーカの位置とする。求まったマーカ座標系をカメラ座標系に変換することで、カメラとマーカ間の距離、ロール角、ピッチ角、ヨー角等の姿勢を求めることができる。   In S34, relative position information such as the distance and attitude to the preceding vehicle 50A is calculated from the marker area obtained in S32. Note that the estimation of the distance and the posture using the marker 25 having a known size can be realized by a known method. For example, a marker 25 in which a pattern for identification (character in the example of FIG. 2) is drawn in a rectangle of a known size is used. The marker area is extracted by extracting the vertex coordinates surrounded by the four edges by contour extraction. The extracted region is normalized, and the position where the maximum similarity with the template pattern is obtained by pattern matching is set as the position of the marker. By converting the obtained marker coordinate system into the camera coordinate system, the posture between the camera and the marker, such as the roll angle, the pitch angle, and the yaw angle, can be obtained.

本発明では、マーカパタンのパタンマッチングの類似度(マッチング率)を位置情報の検出精度として用いる。そこで、算出した位置や姿勢とともに類似度を検出精度として制御装置11内の記憶装置に記憶しておく。   In the present invention, the similarity (matching rate) of the pattern matching of the marker pattern is used as the detection accuracy of the position information. Therefore, the similarity is stored in the storage device in the control device 11 as the detection accuracy together with the calculated position and orientation.

図3の一連の処理が完了したら位置情報演算部2Bは一旦処理を中断し、次の制御周期が開始するタイミングでS31の処理を開始して先述の処理を実行する。   When the series of processes in FIG. 3 is completed, the position information calculation unit 2B temporarily suspends the process, starts the process of S31 at the timing when the next control cycle starts, and executes the above-described process.

なお、上記では後続車50Bの位置情報演算処理について説明したが、先行車50Aの位置情報演算処理も図3に示した処理で同様に実行可能である。   Although the position information calculation process of the succeeding vehicle 50B has been described above, the position information calculation process of the preceding vehicle 50A can be similarly executed by the process shown in FIG.

後続車50Bの無線通信装置(車車間通信部)3Bは、先行車50Aの制御装置11A(位置情報演算部2A)が演算した後続車50Bとの相対位置情報(第2相対位置情報)や、先行車50Aの制御装置11Aで演算・送信された後続車50Bの補正相対位置情報の受信が可能である。本発明では、他車である先行車50A側も後続車50Bとの位置関係情報(第2相対位置情報)を取得するカメラ1Aと位置情報演算部2Aを有しており、位置情報演算部2Aは車間距離と相対角度などの位置関係情報(第2相対位置情報)を計測している。   The wireless communication device (inter-vehicle communication unit) 3B of the following vehicle 50B includes relative position information (second relative position information) with the following vehicle 50B calculated by the control device 11A (position information calculation unit 2A) of the preceding vehicle 50A, It is possible to receive the corrected relative position information of the following vehicle 50B calculated and transmitted by the control device 11A of the preceding vehicle 50A. In the present invention, the preceding vehicle 50A, which is another vehicle, also has the camera 1A and the position information calculation unit 2A that acquire the positional relationship information (second relative position information) with the succeeding vehicle 50B, and the position information calculation unit 2A. Measures positional relationship information (second relative position information) such as an inter-vehicle distance and a relative angle.

後続車50Bの補正位置情報演算部4Bは、位置情報演算部2Bで求めた相対位置情報(第1相対位置情報)及び検知精度(マッチング率)と、先行車50Aから車車間通信で受信した相対位置情報(第2相対位置情報)および検知精度とに基づいて、補正相対位置情報を演算する。補正位置情報演算部4Bは、先行車50Aと後続車50Bから得られた第1相対位置情報、第2相対位置情報及び検知精度情報から、より信頼度の高い相対位置情報(補正相対位置情報)を作成し、それを走行制御信号の演算に利用している。   The corrected position information calculation unit 4B of the succeeding vehicle 50B calculates the relative position information (first relative position information) and the detection accuracy (matching rate) obtained by the position information calculation unit 2B and the relative position information received from the preceding vehicle 50A by the inter-vehicle communication. Corrected relative position information is calculated based on the position information (second relative position information) and the detection accuracy. The corrected position information calculation unit 4B obtains more reliable relative position information (corrected relative position information) from the first relative position information, the second relative position information, and the detection accuracy information obtained from the preceding vehicle 50A and the following vehicle 50B. Which is used for calculating the travel control signal.

この補正位置情報演算部4Bの処理につき図2と図4を用いて説明する。本実施形態では、先行車50Aもカメラ1Aと位置情報演算部2Aを持ち、後続車50Bの前面に貼付したマーカ25を検知する例により説明する。また、前述のように、本実施形態の位置情報演算部2A,2Bでは車間距離と、ロール角、ピッチ角及びヨー角等の姿勢を求めることができるが、以降の実施形態では説明を簡単にするため車間距離を求める例により説明する。   The processing of the correction position information calculation unit 4B will be described with reference to FIGS. In the present embodiment, an example will be described in which the preceding vehicle 50A also has the camera 1A and the position information calculation unit 2A, and detects the marker 25 attached to the front surface of the succeeding vehicle 50B. Further, as described above, the position information calculation units 2A and 2B of the present embodiment can obtain the inter-vehicle distance and the postures such as the roll angle, the pitch angle, and the yaw angle, but the following embodiments will simply describe. The following describes an example of obtaining the inter-vehicle distance.

図2は、進行方向前方に太陽があり、後続車50Bから見て先行車50Aが逆光になる条件の、カメラ1A,1Bの撮影画像の状態例を示している。この例では、後続車50B(カメラ1B)から見た先行車50Aが逆光になることで、後続車50Bのカメラ1Bで取得した画像24中のマーカ領域は黒飛びしてテクスチャが不明瞭になっている。これに対し、先行車50Aのカメラ1Aで取得した画像23中でのマーカ領域は明瞭に映っている。   FIG. 2 shows an example of the state of the captured images of the cameras 1A and 1B under the condition that the sun is ahead in the traveling direction and the preceding vehicle 50A is backlight when viewed from the following vehicle 50B. In this example, since the preceding vehicle 50A viewed from the following vehicle 50B (camera 1B) is backlit, the marker area in the image 24 obtained by the camera 1B of the following vehicle 50B is blackened and the texture becomes unclear. ing. On the other hand, the marker area in the image 23 acquired by the camera 1A of the preceding vehicle 50A is clearly shown.

このようなマーカ検出状態の場合の各位置情報演算部2A,2Bの処理の出力例を図20に示す。図20中、列26は先行車50Aのカメラ1Aで取得した画像23から位置情報演算部2Aで求めた情報(車間距離情報(第2相対位置情報)及び検出精度情報)である。列27は後続車50Bのカメラ1Bで取得した画像24から位置情報演算部2Bで求めた情報(車間距離情報(第1相対位置情報)及び検出精度情報)である。行28と行29はそれぞれマーカ検出により取得した車間距離情報と、マーカ検出の精度(マッチング率)である。   FIG. 20 shows an output example of the processing of the position information calculation units 2A and 2B in the case of such a marker detection state. In FIG. 20, column 26 is information (inter-vehicle distance information (second relative position information) and detection accuracy information) obtained by the position information calculation unit 2A from the image 23 obtained by the camera 1A of the preceding vehicle 50A. Column 27 is information (inter-vehicle distance information (first relative position information) and detection accuracy information) obtained by the position information calculation unit 2B from the image 24 obtained by the camera 1B of the following vehicle 50B. Lines 28 and 29 show the inter-vehicle distance information obtained by marker detection and the accuracy (matching rate) of marker detection, respectively.

カメラ1Aによる画像23のように環境条件が良好でマーカ領域が明瞭に写る場合は、テンプレートマッチングの相関値(マッチング率)は、図20中に示すように95%と高い相関値をとる。これに対し逆光など光の条件が悪い場合には画像24のようにマーカ領域が黒飛びし、正確な輝度情報が得られなかったり、エッジが不明瞭になったりすることでマッチングの相関値が10%と低くなっている。位置・姿勢の推定には画像23,24内のマーカの矩形の頂点位置を用いるので、矩形のエッジが不明瞭になると頂点位置に誤差が発生したり又はマーカ領域と異なる領域を誤検出したりして、マッチング精度は低下すると判断できる。また、これにより相対位置情報の精度も低下する。   In the case where the environmental conditions are favorable and the marker area is clearly seen as in the image 23 by the camera 1A, the correlation value (matching rate) of the template matching takes a high correlation value of 95% as shown in FIG. On the other hand, when the light condition such as backlight is bad, the marker area is blackened out as in the image 24, and accurate luminance information cannot be obtained or the edge becomes unclear. It is as low as 10%. Since the positions of the vertices of the rectangles of the markers in the images 23 and 24 are used for estimating the position and orientation, if the edges of the rectangles become unclear, an error occurs in the vertices or an area different from the marker area is erroneously detected. Thus, it can be determined that the matching accuracy is reduced. This also lowers the accuracy of the relative position information.

図4は後続車50Bの補正位置情報演算部4Bの処理の流れを示す図である。
S41では、補正位置情報演算部4Bは、位置情報演算部2Bで演算された検知精度(マッチング率(マッチングの類似度))Afと、無線通信装置3Bを介して受信した先行車50Aの位置情報演算部2Bが演算した検知精度Apとから、自車(後続車50B)で算出した第1相対位置情報と他車(先行車50A)で算出した第2相対位置情報との信頼度による重みWp,Wfを演算する。図2と図20で説明した例では、先行車50Aの検出精度として95%、後続車50Bの検出精度として10%が得られている。重みの算出方法としてはたとえば下記の式(1)を用いて算出する方法が挙げられる。
FIG. 4 is a diagram showing a flow of processing of the correction position information calculation unit 4B of the succeeding vehicle 50B.
In S41, the corrected position information calculation unit 4B compares the detection accuracy (matching rate (matching similarity)) Af calculated by the position information calculation unit 2B with the position information of the preceding vehicle 50A received via the wireless communication device 3B. From the detection accuracy Ap calculated by the calculation unit 2B, a weight Wp based on the reliability of the first relative position information calculated for the own vehicle (the following vehicle 50B) and the second relative position information calculated for the other vehicle (the preceding vehicle 50A). , Wf. In the example described with reference to FIGS. 2 and 20, 95% is obtained as the detection accuracy of the preceding vehicle 50A, and 10% is obtained as the detection accuracy of the following vehicle 50B. As a method of calculating the weight, for example, a method of calculating using the following equation (1) is given.

Wp = Ap/(Ap+Af)
Wf = Af/(Ap+Af) …式(1)
Wp : 先行車情報の重み
Wf : 後続車情報の重み
Ap : 先行車の検出精度
Af : 後続車の検出精度
Wp = Ap / (Ap + Af)
Wf = Af / (Ap + Af) Equation (1)
Wp: Weight of preceding vehicle information Wf: Weight of following vehicle information Ap: Detection accuracy of preceding vehicle Af: Detection accuracy of following vehicle

式1により、図20のように得られた検知精度から算出すると、重みWp,Wfは下記の値となる。
Wp=95/(95+10)=0.9
Wf=10/(95+10)=0.1
When the weights Wp and Wf are calculated from the detection accuracy obtained as shown in FIG.
Wp = 95 / (95 + 10) = 0.9
Wf = 10 / (95 + 10) = 0.1

S42では、補正位置情報演算部4Bは、S41で算出した重みWp,Wfを用いて、後続車50B(自車)の位置情報演算部2Bが演算した車間距離Df(第1相対位置情報)と先行車50A(他車)の位置情報演算部2Aが演算した車間距離Dp(第2相対位置情報)から最終的な制御情報である車間距離D(補正相対位置情報)を下記式(2)を利用して算出する。   In S42, the corrected position information calculation unit 4B uses the weights Wp and Wf calculated in S41 to calculate the inter-vehicle distance Df (first relative position information) calculated by the position information calculation unit 2B of the succeeding vehicle 50B (own vehicle). From the inter-vehicle distance Dp (second relative position information) calculated by the position information calculation unit 2A of the preceding vehicle 50A (other vehicle), an inter-vehicle distance D (corrected relative position information) as final control information is calculated by the following equation (2). Use and calculate.

D = Wp*Dp+Wf*Dp …式(2)
D : 車間距離
Dp : 先行車(他車)の計測距離(第2相対位置情報)
Df : 後続車(自車)の計測距離(第1相対位置情報)
D = Wp * Dp + Wf * Dp Equation (2)
D: Inter-vehicle distance Dp: Measured distance of the preceding vehicle (other vehicle) (second relative position information)
Df: Measurement distance of the following vehicle (own vehicle) (first relative position information)

図20の例の場合、車間距離Dは下記の値となる。
D = 0.9*3+0.1*2=2.9
すなわち、補正後の相対位置情報としてより検知精度の高い方の計測情報の比重を高くした値が求まる。以上、検知精度の比率で第1相対位置情報と第2相対位置情報の加重平均をとる例を説明した。なお、ここでは相対位置情報のうち車間距離の加重平均を利用する場合を説明したが、姿勢(角度)についても同様に加重平均をとることができる。
In the case of the example of FIG. 20, the following distance D has the following value.
D = 0.9 * 3 + 0.1 * 2 = 2.9
That is, a value obtained by increasing the specific gravity of the measurement information having higher detection accuracy is obtained as the corrected relative position information. The example in which the weighted average of the first relative position information and the second relative position information is calculated based on the ratio of the detection accuracy has been described. Although the case where the weighted average of the inter-vehicle distances is used in the relative position information has been described here, the weighted average can be similarly calculated for the posture (angle).

他の実施方法としては、下記のような式で検知精度を補正したうえで式(1)、(2)により最終的な距離を算出する方法もある。
If((Ap<Th0 or Af<Th0)and max(Ap,Af)−min(Ap,Af)>Th1) then
Max(Ap,Af)=100
Min(Ap,Af)=0
As another implementation method, there is a method of correcting the detection accuracy by the following equation and calculating the final distance by the equations (1) and (2).
If ((Ap <Th0 or Af <Th0) and max (Ap, Af) -min (Ap, Af)> Th1) then
Max (Ap, Af) = 100
Min (Ap, Af) = 0

すなわち、一方の検知精度が所定の閾値Th0未満、かつ両方の検知精度の差が所定の閾値Th1より大きい場合には、加重平均をとらずに検知精度の高い方の計測値を採用する方法である。これにより例えば第1相対位置情報の検知精度が相対的に悪い場合、第2相対位置情報が車間距離D(補正相対位置情報)となる。検知精度が極端に低い場合は、計測される距離の値も実態と大きくかい離している可能性があるため、小さい重みでも加重平均を採ることで誤差を大きくする危険性を下げる効果がある。   That is, when one detection accuracy is less than the predetermined threshold value Th0 and the difference between the two detection accuracy values is larger than the predetermined threshold value Th1, a measurement value with a higher detection accuracy is adopted without taking a weighted average. is there. Thus, for example, when the detection accuracy of the first relative position information is relatively poor, the second relative position information becomes the inter-vehicle distance D (corrected relative position information). If the detection accuracy is extremely low, the value of the measured distance may be significantly different from the actual state, and therefore, even if the weight is small, taking the weighted average can reduce the risk of increasing the error.

また、上記の実施形態では、先行車50Aと後続車50Bそれぞれの検知精度の値により加重平均を採っているが、先行車50Aのカメラ1Aと、後続車50Bのカメラ1Bが同じ性能でなく差がある場合、性能の違いを重みとして加重平均を採る方法もある。重みをつける性能の違いとしては、カメラの解像度、レンズ明るさなど、対象の撮影状態に影響を与える条件を用いる。この場合、先行車50Aと後続車50Bの情報の重みWp,Wfを算出する式は下記式(3)として定義できる。   Further, in the above-described embodiment, the weighted average is obtained based on the detection accuracy values of the preceding vehicle 50A and the following vehicle 50B. However, the camera 1A of the preceding vehicle 50A and the camera 1B of the following vehicle 50B do not have the same performance but have a difference. If there is, there is a method of taking a weighted average using the difference in performance as a weight. As the difference in the weighting performance, a condition that affects the shooting state of the target, such as the resolution of the camera and the brightness of the lens, is used. In this case, an expression for calculating the weights Wp and Wf of the information of the preceding vehicle 50A and the succeeding vehicle 50B can be defined as the following expression (3).

Wp = (Ap*Wpu)/((Ap*Wpu)+(Af*Wfu))
Wf = (Af*Wfu)/((Ap*Wpu)+(Af*Wfu)) …式(3)
Wpu : 先行車カメラ性能の重み
Wfu : 後続車カメラ性能の重み
Wp = (Ap * Wpu) / ((Ap * Wpu) + (Af * Wfu))
Wf = (Af * Wfu) / ((Ap * Wpu) + (Af * Wfu)) Equation (3)
Wpu: weight of the preceding vehicle camera performance Wfu: weight of the following vehicle camera performance

例えば図2の例で、先行車50Aのカメラ1Aの解像度が、後続車50Bのカメラ1Bの4倍とした場合、先行車50Aのカメラ1Aの情報取得性能は後続車50Bのカメラ1Bより劣ると考えられるため、下記の重みに設定するとする。
Wpu=0.55
Wfu=0.45
For example, in the example of FIG. 2, when the resolution of the camera 1A of the preceding vehicle 50A is four times that of the camera 1B of the following vehicle 50B, the information acquisition performance of the camera 1A of the preceding vehicle 50A is inferior to that of the camera 1B of the following vehicle 50B. Therefore, it is assumed that the following weights are set.
Wpu = 0.55
Wfu = 0.45

このとき式(3)により、重みWp,Wfの値は下記となる。
Wp= (95×0.55)/(95×0.55+10×0.45)=0.92
Wf= (10*0.45)/((95*0.55)+(10*0.45))=0.08
At this time, the values of the weights Wp and Wf are as follows from Expression (3).
Wp = (95 × 0.55) / (95 × 0.55 + 10 × 0.45) = 0.92
Wf = (10 * 0.45) / ((95 * 0.55) + (10 * 0.45)) = 0.08

そして、式(1)より、最終的な車間距離D(補正相対位置情報)は下記となる。
D = 0.92*3+0.08*2=2.92
From the equation (1), the final inter-vehicle distance D (corrected relative position information) is as follows.
D = 0.92 * 3 + 0.08 * 2 = 2.92

演算された車間距離D(補正相対位置情報)は、検知精度のみを考慮した加重平均の場合より、性能の良いカメラ1の計測した車間距離により近い値となり、性能の良いカメラ1の計測結果のほうの信頼度をより上げた計測結果となる。このような手段を採ることで、先行車50Aと後続車50Bのカメラ(視界センサ)1の性能に差がある場合も、より実態に近い計測結果を得ることができる。   The calculated inter-vehicle distance D (corrected relative position information) has a value closer to the inter-vehicle distance measured by the camera 1 having good performance than the case of the weighted average considering only the detection accuracy, and the measurement result of the camera 1 having good performance is obtained. This results in a measurement result with higher reliability. By adopting such means, even when there is a difference in the performance of the camera (view sensor) 1 between the preceding vehicle 50A and the following vehicle 50B, it is possible to obtain a measurement result closer to the actual state.

なお、上記の実施形態では、第1相対位置情報と第2相対位置情報の加重平均を補正相対位置情報としたが、第1相対位置情報と第2相対位置情報の検知精度を比較し、第1相対位置情報と第2相対位置情報のうち検知精度の高い方を補正相対位置情報として選択しても良い。その際、第1相対位置情報と第2相対位置情報のうち一方の検知精度が所定の閾値を下回っていることや、第1相対位置情報と第2相対位置情報のうち一方の検知精度が他の所定の閾値を上回っていることを選択の条件として追加しても良い。   In the above embodiment, the weighted average of the first relative position information and the second relative position information is used as the corrected relative position information. However, the detection accuracy of the first relative position information and the second relative position information is compared, One of the first relative position information and the second relative position information having higher detection accuracy may be selected as the corrected relative position information. At this time, the detection accuracy of one of the first relative position information and the second relative position information is lower than a predetermined threshold value, or the detection accuracy of one of the first relative position information and the second relative position information is different. May be added as a selection condition.

また、上記の実施形態では先行車50Aも後続車50Bと同様に視界センサとしてカメラ1Aを用い、マーカ検知により相対位置情報を取得する例を採ったが、必ずしもこの構成は必須ではない。例えば、カメラ1Aでマーカ検出以外の方法を利用して相対位置情報を計測しても良いし、カメラ1A以外の視界センサ(例えば、ステレオカメラ、レーザ等の光学式センサ、超音波式センサ)により相対位置情報を取得して使用しても良い。   In the above-described embodiment, the preceding vehicle 50A uses the camera 1A as the field-of-view sensor similarly to the following vehicle 50B, and acquires the relative position information by marker detection, but this configuration is not necessarily essential. For example, the relative position information may be measured by using a method other than marker detection by the camera 1A, or by a view sensor other than the camera 1A (for example, an optical sensor such as a stereo camera, a laser, or an ultrasonic sensor). You may acquire and use relative position information.

ただし、カメラによるマーカ検知におけるマッチングの類似度のような検知精度を演算できない手段(例えば光学式センサや超音波式センサ)を外界センサとして利用した場合には、上記の実施形態で述べたような第1及び第2相対位置情報の加重平均を採ることができない。そのため、例えば先行車50Aと後続車50Bのうちカメラ1によって相対位置情報を演算している車両(例えば後続車50B)の検知精度が所定の閾値以下で許容範囲を下回る場合には、この車両よりも相対位置情報の検知精度が高いことが予測され得る、検知精度の演算が不可の外界センサを搭載した他方の車両(例えば先行車50A)の計測距離を車間距離D(補正相対位置情報)として採用するように構成しても良い。   However, when a means (for example, an optical sensor or an ultrasonic sensor) that cannot calculate the detection accuracy such as the similarity of the matching in the marker detection by the camera is used as the external sensor, the above-described embodiment is used. A weighted average of the first and second relative position information cannot be taken. Therefore, for example, when the detection accuracy of the vehicle (for example, the succeeding vehicle 50B) of which the relative position information is calculated by the camera 1 out of the preceding vehicle 50A and the following vehicle 50B is less than a predetermined threshold value and falls below an allowable range, the vehicle is taken out of this vehicle. Also, the measurement distance of the other vehicle (for example, the preceding vehicle 50A) equipped with an external sensor that cannot detect the calculation of the detection accuracy, which can be expected to have high detection accuracy of the relative position information, is set as the inter-vehicle distance D (corrected relative position information). You may comprise so that it may be employ | adopted.

補正位置情報演算部4Bは、以上のように算出した車間距離D(補正相対位置情報)を走行制御部8Bに出力する。走行制御部8Bは、車間距離Dが目標車間距離に近づくような加減速を規定する走行制御信号を演算し、それを走行制御装置9Bに出力する。これにより走行制御装置9Bが入力された走行制御信号に応じて動作することで車間距離を略一定に保った複数車両50A,50Bの隊列走行が実現される。   The corrected position information calculation unit 4B outputs the inter-vehicle distance D (corrected relative position information) calculated as described above to the travel control unit 8B. The traveling control unit 8B calculates a traveling control signal that regulates acceleration and deceleration such that the inter-vehicle distance D approaches the target inter-vehicle distance, and outputs the computed signal to the traveling control device 9B. As a result, the traveling control device 9B operates in response to the inputted traveling control signal, thereby realizing the platooning of the plurality of vehicles 50A and 50B with the inter-vehicle distance kept substantially constant.

以上が、本発明による運転支援装置の第一の実施形態である。上記のように運転支援装置15を構成すると、逆光等の影響で自車(後続車50B)のカメラ画像に白とびや黒つぶれが生じて自車(後続車50B)の相対位置情報(第1相対位置情報)の演算精度が低下するような場合には、逆行の影響のない他車(先行車50A)で演算された相対位置情報(第2相対位置情報)を利用する比重を高くすることで精度の低下が抑制されるので、よりロバストな追従走行が可能となる効果がある。   The above is the first embodiment of the driving support device according to the present invention. When the driving support device 15 is configured as described above, the camera image of the own vehicle (following vehicle 50B) is overexposed or underexposed due to the influence of backlight or the like, and the relative position information (first vehicle) of the own vehicle (following vehicle 50B) is obtained. If the calculation accuracy of the relative position information is reduced, the specific gravity using the relative position information (second relative position information) calculated by the other vehicle (preceding vehicle 50A) which is not affected by the reverse movement is increased. In this case, a decrease in accuracy is suppressed, so that there is an effect that a more robust following travel becomes possible.

<実施形態2>
図5は、本発明の第二の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第一の実施形態と構成は同一であり、異なる点は補正位置情報演算部4を有する運転支援装置15を搭載する自車が後続車50Bから先行車50Aに変更になった点である。すなわち他車(後続車50B)が自車(先行車50A)の後方を走行する場合に変更されている。
<Embodiment 2>
FIG. 5 is a schematic configuration diagram of a driving support device and a driving support system according to the second embodiment of the present invention. The configuration is the same as that of the first embodiment, and the difference is that the own vehicle equipped with the driving support device 15 having the corrected position information calculation unit 4 has been changed from the following vehicle 50B to the preceding vehicle 50A. That is, this is changed when the other vehicle (the following vehicle 50B) runs behind the own vehicle (the preceding vehicle 50A).

図5の運転支援装置15の各構成要素1,3,9,11は第一の実施形態と同一であり、自車(先行車50A)の補正位置情報演算部4A(制御装置11A)で車間距離D(補正相対位置情報)を演算する点まで同じである。しかし、補正位置情報演算部4Aが他車(後続車50B)向けの補正相対位置情報を演算し、無線通信装置3Aがその補正相対位置情報を他車(後続車50B)に送信する点が異なっている。本実施形態の補正相対位置情報は具体的には車間距離Dである。自車(先行車50A)から車間距離Dを受信した他車(後続車50B)は、走行制御部8Bにおいて、車間距離Dが目標車間距離に近づくような加減速を規定する走行制御信号を演算し、それを走行制御装置9Bに出力する。これにより走行制御装置9Bが入力された走行制御信号に応じて動作することで車間距離を略一定に保った複数車両50A,50Bの隊列走行が実現される。   The components 1, 3, 9, and 11 of the driving support device 15 of FIG. 5 are the same as those of the first embodiment, and the corrected position information calculation unit 4A (control device 11A) of the own vehicle (preceding vehicle 50A) controls the distance between vehicles. This is the same up to the point where the distance D (corrected relative position information) is calculated. However, the difference is that the corrected position information calculation unit 4A calculates the corrected relative position information for the other vehicle (the following vehicle 50B), and the wireless communication device 3A transmits the corrected relative position information to the other vehicle (the following vehicle 50B). ing. Specifically, the corrected relative position information of the present embodiment is the inter-vehicle distance D. The other vehicle (subsequent vehicle 50B) that has received the inter-vehicle distance D from the own vehicle (preceding vehicle 50A) calculates, in the traveling control unit 8B, a traveling control signal that regulates acceleration and deceleration such that the inter-vehicle distance D approaches the target inter-vehicle distance. And outputs it to the travel control device 9B. As a result, the traveling control device 9B operates in response to the inputted traveling control signal, thereby realizing the platooning of the plurality of vehicles 50A and 50B with the inter-vehicle distance kept substantially constant.

本実施形態の構成にすることで、第一の実施形態と同様の効果が得られる他、後続車50Bの運転支援装置15Bが第一の実施形態と比較して簡易な構成で追従走行を実現できる効果がある。   By adopting the configuration of the present embodiment, the same effects as those of the first embodiment can be obtained, and the driving support device 15B of the succeeding vehicle 50B realizes the following traveling with a simple configuration as compared with the first embodiment. There is an effect that can be done.

<実施形態3>
図6は、本発明の第三の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第一の実施形態の制御装置11の機能に原因判定部5を追加した構成となっている。原因判定部5は先行車50Aと後続車50Bの双方に追加可能である。
<Embodiment 3>
FIG. 6 is a schematic configuration diagram of a driving support device and a driving support system according to the third embodiment of the present invention. The configuration is such that a cause determination unit 5 is added to the function of the control device 11 of the first embodiment. The cause determination unit 5 can be added to both the preceding vehicle 50A and the following vehicle 50B.

原因判定部5は、位置情報演算部2で演算される相対位置情報の精度(検知精度)が所定の閾値よりも低い場合に、その精度低下の要因が一時的なものであるか(すなわち、ある程度の時間経過により解消可能なものか)、恒久的なものであるか(すなわち、ある程度の時間が経過しても解消困難なもの)について、カメラ1で撮影された画像情報(例えば、カメラ1のパラメタ、撮影画像の画像特徴量、画像に対して実施された画像処理の内容)やその他センサ情報に基づいて判定し、その判定結果に応じた出力をする(例えばアラームを出す)ことである。すなわち、原因判定部5は、カメラ1で取得した画像や、カメラパラメタ、その他センサ情報を用いて、相対位置情報の精度が低下する原因を自己診断し、原因が一時的で自然に解消するものか、恒久的に続き対策が必要なものかを判定する。   When the accuracy (detection accuracy) of the relative position information calculated by the position information calculation unit 2 is lower than a predetermined threshold, the cause determination unit 5 determines whether the cause of the decrease in accuracy is temporary (ie, Image information taken by the camera 1 (for example, the camera 1) determines whether the image can be eliminated after a certain amount of time passes or is permanent (that is, it is difficult to eliminate even after a certain amount of time). Is determined based on the parameters described above, the image feature amount of the captured image, the content of the image processing performed on the image) and other sensor information, and an output is performed in accordance with the determination result (for example, an alarm is issued). . That is, the cause determination unit 5 self-diagnoses the cause of the decrease in the accuracy of the relative position information using the image acquired by the camera 1, the camera parameters, and other sensor information, and the cause is temporarily and naturally resolved. It is determined whether the countermeasures are necessary permanently.

なお、カメラ1による画像認識の性能の原因を自己診断する方法については、公知の方法(例えば、特許5863968号公報)により実現可能である。例えば、複数のアプリケーションを搭載した車載カメラにおいて汚れ等の性能の低下する現象が発生した場合に、各アプリケーションにとって最適のタイミングでパラメタ調整、汚れ除去やフェール判定を実施するために、性能低下の原因を画像により自己診断することが可能となっている。   The method of self-diagnosing the cause of the performance of image recognition by the camera 1 can be realized by a known method (for example, Japanese Patent No. 5863968). For example, when performance degradation such as dirt occurs in an in-vehicle camera equipped with multiple applications, the cause of performance degradation is to perform parameter adjustment, dirt removal and failure judgment at the optimal timing for each application. Can be self-diagnosed with images.

図7に示すのがカメラ1の画像認識精度低下の原因になる事象(図7の表の第2行参照)と、いずれの事象が発生しているかの判定に用いることができる情報の例である。図中列71、72,73,74,75、76が認識精度低下の原因となる事象の例であり、図中の行77、78、79、7a、7b、7c、7d、7e、7f、7g、7h、7iに示すのが、各事象が発生しているか否かを判定するのに用いる情報の例である。   FIG. 7 shows an example of an event (see the second row of the table in FIG. 7) that causes a reduction in the image recognition accuracy of the camera 1 and information that can be used to determine which event has occurred. is there. Columns 71, 72, 73, 74, 75, and 76 in the figure are examples of events that cause a reduction in recognition accuracy, and rows 77, 78, 79, 7a, 7b, 7c, 7d, 7e, 7f, 7g, 7h, and 7i show examples of information used to determine whether each event has occurred.

判定に用いることのできる情報として、行77,78,79、7aに示すカメラパラメタと、行7bから7eに示す画像解析による判定と、行7f、7g、7h、7iに示す他センサによるものがある。まず、カメラパラメタは、露光補正の有無、シャッタースピード補正の有無、ゲイン補正の有無など、光の状態の判断に用いることのできる情報と、カメラ自身の状態(カメラ状態)の異常を示す状態信号の有無を例として挙げている。また、画像解析による判定は、例えば行7bに示す画像のエッジ強度の高低等の画像特徴量を抽出することによる判定と、行7dに示す、輝度が一定の領域を抽出するといった画像処理の実施により判定可能なものがある。また、他センサの情報として、走行時の時間帯、ワイパの動作の有無、気温や照度の高低等のセンサ情報のうち、精度低下原因事象の判定として利用可能なものを用いる。これらの複数センサや画像解析から得られる情報から、図7内の各欄に示すような基準により、列71−76中のどの事象であるかを判定する。   The information that can be used for the determination includes the camera parameters shown in rows 77, 78, 79, and 7a, the determination based on the image analysis shown in rows 7b to 7e, and the information obtained from other sensors shown in rows 7f, 7g, 7h, and 7i. is there. First, the camera parameters include information that can be used to determine the state of light, such as whether or not there is exposure correction, whether or not there is shutter speed correction, and whether or not there is gain correction, and a state signal that indicates an abnormality in the state of the camera itself (camera state). Is given as an example. The determination by the image analysis is performed by extracting an image feature amount such as the level of the edge strength of the image shown in the row 7b, and performing image processing such as extracting a region with a constant luminance shown in the row 7d. Some can be determined by: In addition, as the information of the other sensors, of the sensor information such as the time zone at the time of traveling, the presence or absence of the operation of the wiper, and the temperature and illuminance, the information that can be used as the determination of the cause of the decrease in accuracy is used. Based on the information obtained from the plurality of sensors and the image analysis, it is determined which of the events in columns 71 to 76 is based on the criteria shown in each column in FIG.

上記の認識精度低下の原因となる事象と判定に用いる情報との関係は、説明のための一例に過ぎず、その他にも認識精度低下の原因となる事象と判定に用いることのできる情報の公知の関係を用いて判断することができる。   The relationship between the event that causes the reduction in recognition accuracy and the information used for determination is merely an example for explanation, and other known events that can be used for determination and events that cause reduction in recognition accuracy are known. Can be determined using the relationship

図8は図7の関係図を用いた原因判定部5の判定処理の流れを示す図である。
S81では、原因判定部5は、位置情報演算部2で相対位置情報演算時に取得した検知精度(マッチング率)が所定の閾値未満か否かを判定する。検知精度が当該閾値未満の場合、S82に進む。当該閾値以上の場合には検知精度に問題ないため、以降の処理はスキップし終了する。ここでの閾値は実験などにより適切に決定する。
FIG. 8 is a diagram showing the flow of the determination process of the cause determination unit 5 using the relationship diagram of FIG.
In S81, the cause determination unit 5 determines whether the detection accuracy (matching rate) acquired at the time of calculating the relative position information by the position information calculation unit 2 is less than a predetermined threshold. If the detection accuracy is less than the threshold, the process proceeds to S82. If the threshold value is exceeded, there is no problem in the detection accuracy, and the subsequent processing is skipped and ends. The threshold here is appropriately determined by experiments or the like.

S82では、原因判定部5は、制御装置11内の記憶装置やカメラ1からカメラパラメタを取得する。具体的には図7に示す、露光、シャッタースピード、ゲインの値と、カメラ状態に関するパラメタ等がカメラパラメタに該当する。前者3種の行77,78,79の情報は、外部の光の状態に影響されるパラメタであり、これらの値が通常値又は履歴の値と異なり補正がかかっているケースでは列71の「逆光」事象の発生が候補となる。また、行7aの「カメラ状態」はカメラの正常度を示すパラメタであり、これが異常を示すと故障判定となる。   In S82, the cause determination unit 5 acquires camera parameters from the storage device in the control device 11 and the camera 1. Specifically, the values of the exposure, shutter speed, gain, and parameters related to the camera state shown in FIG. 7 correspond to the camera parameters. The information in the former three types of rows 77, 78, and 79 are parameters that are affected by the state of external light, and when these values are different from normal values or history values and are corrected, the column 71 “ The occurrence of a "backlight" event is a candidate. The “camera state” in the row 7a is a parameter indicating the normality of the camera, and if this indicates an abnormality, a failure is determined.

S83では、原因判定部5は、他センサ情報を取得する。他センサの種類はたとえば図7に示す行7f、7g,7h,7iの時間帯、ワイパ、気温、照度などである。図7に示すように時間帯が朝/夕の場合は精度低下の原因事象として「逆光」が候補となり、照度が低い場合は「霧」や「事象A」が候補となる。   In S83, the cause determination unit 5 acquires other sensor information. The types of the other sensors are, for example, the time zones of rows 7f, 7g, 7h, and 7i, the wiper, the temperature, and the illuminance shown in FIG. As shown in FIG. 7, when the time zone is morning / evening, “backlight” is a candidate for the cause of the accuracy deterioration, and when the illuminance is low, “fog” or “event A” is a candidate.

S84では、原因判定部5は画像解析を実施することで、認識精度の低下する原因を判定する情報を抽出する。図7の行7bに示す画像のエッジ強度を抽出し、これが閾値より低い場合には列72に示す霧など、画像の鮮明さが失われるような事象が発生していると判定できる。判定に用いる閾値はあらかじめ実験でデータを取得する等して適切な手段により決定しておく。また、行7dに示すように画像処理で輝度一定の固定領域を検出する処理を実施し、原因判定に用いる情報を一通り作成する。   In S84, the cause determination unit 5 performs image analysis to extract information for determining the cause of the decrease in recognition accuracy. The edge strength of the image shown in row 7b of FIG. 7 is extracted, and if this is lower than the threshold value, it can be determined that an event such as the fog shown in column 72 that causes loss of image clarity has occurred. The threshold value used for the determination is determined in advance by appropriate means, such as by acquiring data through experiments. In addition, as shown in a row 7d, a process of detecting a fixed area having a constant luminance by image processing is performed, and information used for cause determination is generated.

S85で、原因判定部5は、検知精度低下原因を判定する。S83、S84,S85で取得した判断情報から、図7の列71〜76のいずれの事象に当てはまるかを、取得した行77〜行7iの情報の内容から総合的に判断し、精度低下の原因となる事象を求める。   In S85, the cause determination unit 5 determines the cause of the decrease in detection accuracy. Based on the determination information acquired in S83, S84, and S85, it is comprehensively determined which of the events in columns 71 to 76 of FIG. Find the event that becomes

S86で、原因判定部5は、精度低下の原因となる事象が一時的か、恒久的であるかを判定する。原因が恒久的であると判定した場合はS87の処理に進む。一時的であると判定した場合は処理を終了する。原因となる事象が一時的か恒久的であるかは、事象により図7の7j行に示すようにあらかじめ分類しておく。たとえば列71の逆光は太陽の位置の変化や進行方向の変更により、自然に解消する検知精度低下事象であるが、列75の汚れ付着は、何らかの汚れ除去処理を実施しない限り解消しない恒久的な精度低下である。   In S86, the cause determination unit 5 determines whether the event that causes the decrease in accuracy is temporary or permanent. If it is determined that the cause is permanent, the process proceeds to S87. If it is determined to be temporary, the process ends. Whether the causal event is temporary or permanent is previously classified according to the event as shown in line 7j of FIG. For example, the back light in the row 71 is a detection accuracy reduction event that is naturally resolved by a change in the position of the sun or a change in the traveling direction, but the stain on the row 75 is permanent and cannot be eliminated unless some stain removal processing is performed. Accuracy is reduced.

S86で恒久的な精度低下と判定された場合、S87では、原因判定部5はアラームフラグをONにして処理を終了する。   If it is determined in S86 that the accuracy has been permanently reduced, in S87, the cause determination unit 5 turns on the alarm flag and ends the process.

アラームフラグがONになっている場合には、後続車50Bのカメラ1Bに恒久的な問題が発生しており、自動追従の継続が困難な状態と判断できるため、状況に応じて適切な処理を実施して、後続車50Bの走行制御部8Bによる自動走行制御を中断する。その具体例は次のとおりである。   If the alarm flag is ON, a permanent problem has occurred in the camera 1B of the succeeding vehicle 50B, and it can be determined that continuation of the automatic tracking is difficult, so that appropriate processing is performed according to the situation. Then, the automatic traveling control by the traveling control unit 8B of the following vehicle 50B is interrupted. The specific example is as follows.

後続車50Bが無人の場合にアラームフラグがONになった場合、先行車50Aのアラーム10を介して後続車の自動走行の継続が困難になった旨を通知する。この通知を受けた先行車50Aは後続車50Bに車車間通信で走行制御情報(車間距離D)を送信しながら可及的速やかに安全に停車する。一方、後続車50Bが有人の場合であっても、自動運転モードが選択されており、走行制御部8からの走行制御指令に基づいて走行制御装置9を動作して走行している場合には、後続車50Bのアラーム10Bを介して後続車の自動走行の継続が困難になった旨を搭乗者に通知し、可及的速やかに手動運転モードに切り換えることを促すことができる。   If the alarm flag is turned ON when the following vehicle 50B is unmanned, a notification is given via the alarm 10 of the preceding vehicle 50A that it is difficult to continue the automatic running of the following vehicle. The preceding vehicle 50A that has received this notification stops the vehicle as quickly and safely as possible while transmitting the traveling control information (the inter-vehicle distance D) to the following vehicle 50B via inter-vehicle communication. On the other hand, even when the following vehicle 50B is manned, if the automatic driving mode is selected and the vehicle is traveling by operating the traveling control device 9 based on the traveling control command from the traveling control unit 8, In addition, it is possible to notify the occupant via the alarm 10B of the following vehicle 50B that the continuation of the automatic running of the following vehicle has become difficult, and to prompt the user to switch to the manual driving mode as soon as possible.

なお、恒久的な精度低下の要因が解消された後には、アラームフラグはOFFに設定される。   After the cause of the permanent deterioration in accuracy is eliminated, the alarm flag is set to OFF.

次に第3の実施形態の動作の具体例を図9、図10を用いて説明する。   Next, a specific example of the operation of the third embodiment will be described with reference to FIGS.

図9において、画像93は、追従走行中の先行車50Aの後方に搭載したカメラ1Aで後続車50Bの前面に取り付けたマーカ25を撮影した画像の一例である。また、画像94は、後続車50Bの前方に搭載したカメラ1Bで先行車50Aの後面に取り付けたマーカ25の画像の一例である。この例の場合、後続車50Bのカメラ1Bのレンズに汚れ95が付着しており、画像94上に汚れ95が撮影されているものとする。   In FIG. 9, an image 93 is an example of an image obtained by photographing the marker 25 attached to the front surface of the following vehicle 50B with the camera 1A mounted behind the preceding vehicle 50A that is following the vehicle. The image 94 is an example of an image of the marker 25 attached to the rear surface of the preceding vehicle 50A by the camera 1B mounted in front of the succeeding vehicle 50B. In the case of this example, it is assumed that dirt 95 has adhered to the lens of the camera 1B of the following vehicle 50B, and the dirt 95 has been photographed on the image 94.

図10は、図9の状況の場合の、先行車50Aおよび後続車50Bで取得された情報を格納したテーブルである。   FIG. 10 is a table that stores information acquired by the preceding vehicle 50A and the succeeding vehicle 50B in the situation of FIG.

図10において、列107は先行車50Aの位置情報演算部2Aと原因判定部5Aの処理結果を示しており、列108は後続車50Bの位置情報演算部2Bと原因判定部5Bの処理結果を示している。   In FIG. 10, a column 107 shows the processing results of the position information calculating unit 2A and the cause determining unit 5A of the preceding vehicle 50A, and a column 108 shows the processing results of the position information calculating unit 2B and the cause determining unit 5B of the succeeding vehicle 50B. Is shown.

位置情報演算部2の処理では、先行車50A、後続車50Bそれぞれ行101、102に示すようにそれぞれのカメラ1を利用して、車間距離(相対位置情報)と車間距離取得の際の検知精度(マッチング率)を取得する。これらの情報に基づいて補正位置情報演算部4で先行車50A,後続車50Bの重みを決定し、車間距離Dを算出して追従制御に用いる。   In the processing of the position information calculating section 2, the preceding vehicle 50A and the following vehicle 50B use the respective cameras 1 as shown in rows 101 and 102, respectively, and detect the inter-vehicle distance (relative position information) and the inter-vehicle distance. (Matching rate). Based on these information, the correction position information calculation unit 4 determines the weight of the preceding vehicle 50A and the following vehicle 50B, calculates the inter-vehicle distance D, and uses it for the following control.

原因判定部5では、図8のS81で、検出精度が所定の閾値を下回るか否かを判定する。この閾値を仮に50%と仮定すると、図9,10の例の場合、先行車50Aの検知精度は95%で閾値以上であるため、原因判定部5Aは問題ないとし処理を終了する。一方、後続車50Bの精度は10%で閾値以下であるため、原因判定部5Bは精度低下の原因判定のための情報を収集するためS82の処理に進む。   In S81 of FIG. 8, the cause determination unit 5 determines whether the detection accuracy is lower than a predetermined threshold. Assuming that this threshold value is 50%, in the case of the examples of FIGS. 9 and 10, the detection accuracy of the preceding vehicle 50A is 95%, which is equal to or greater than the threshold value. On the other hand, since the accuracy of the succeeding vehicle 50B is 10% or less than the threshold value, the cause determination unit 5B proceeds to the process of S82 in order to collect information for determining the cause of the decrease in accuracy.

S82では原因判定部5Bはカメラパラメタを取得する。この例の場合、露光やシャッタースピード、ゲイン、カメラ状態共に通常値で問題ないとし、図10の行103に格納する。   In S82, the cause determination unit 5B acquires camera parameters. In the case of this example, the exposure, shutter speed, gain, and camera state are all normal values and stored in the row 103 in FIG.

S83で原因判定部5Bは他センサ情報を取得する。この例の場合、他センサ情報についても通常値で問題ないとし、図10の行104に格納する。   In S83, the cause determination unit 5B acquires other sensor information. In the case of this example, it is assumed that there is no problem with the normal value for the other sensor information, and the information is stored in the row 104 of FIG.

S84では原因判定部5Bは画像解析を実施する。エッジ強度には問題はないが、輝度一定の領域が検出されたとする。走行中の車両に搭載したカメラ1(カメラ)で取得する画像は、撮影対象も常に動いているため輝度が一定領域は現れないのが通常であるが、輝度一定でかつ移動しない領域が連続して検出される場合には、レンズ上の汚れと判断できる。輝度一定領域を検出する画像処理手法としては、フレーム間差分や二値化、パタンマッチングなどの組合せにより検出可能である。これを図10の行106に格納する。   In S84, the cause determination unit 5B performs image analysis. Although there is no problem with the edge strength, it is assumed that an area with constant brightness is detected. In an image acquired by the camera 1 (camera) mounted on a running vehicle, a region where the luminance is constant does not usually appear because the photographing target is always moving, but a region where the luminance is constant and does not move is continuous. If it is detected by the detection, it can be determined that the lens is dirty. As an image processing method for detecting a constant brightness area, detection can be performed by a combination of an inter-frame difference, binarization, pattern matching, and the like. This is stored in row 106 of FIG.

S85で、原因判定部5Bは検知精度低下の原因を判定する。図10の行103〜106に格納した情報を、図7に示す精度低下原因判定基準と照合し、該当する精度低下原因となる事象を判定する。この例の場合、カメラパラメタ、他センサに異常がなく、画像解析により輝度一定の領域が検出されているため、図7列75の「汚れ付着」の事象と判断できる。   In S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. The information stored in the rows 103 to 106 in FIG. 10 is compared with the accuracy reduction cause determination criterion shown in FIG. 7 to determine the corresponding event that causes the accuracy reduction. In the case of this example, since there is no abnormality in the camera parameters and other sensors, and a region with constant luminance is detected by image analysis, it can be determined that the event is "dirt adhesion" in the column 75 in FIG.

S86で、原因判定部5BはS85で判定した検知精度低下の原因が一時的なものか恒久的なものかを判定する。図7より、列75の「汚れ付着」と判定できるので、行7jより恒久的な原因と判断できる。   In S86, the cause determination unit 5B determines whether the cause of the decrease in detection accuracy determined in S85 is temporary or permanent. From FIG. 7, it can be determined that “dirt adhered” in the column 75, so that the permanent cause can be determined from the row 7 j.

S87に進み、原因判定部5BはアラームフラグをONにする。例えば、先行車50Aに運転手が搭乗しており後続車50Bが無人の場合(自動走行中)には、原因判定部5Bは無線通信装置3Bから信号を出力して先行車50Aのアラーム10Aを介して後続車の自動走行の継続が困難になった旨を先行車50Aの運転手に通知する。この通知を受けた先行車50Aの運転手は可及的速やかに停車して、必要に応じて後続車50Bのメンテナンス作業を行う。これにより各車両で相対位置情報の検知精度の低下が確認できた場合には速やかに原因を解消することができ、検知精度が低下した状態で継続して隊列走行が行われることを防止できる。   Proceeding to S87, the cause determining unit 5B turns on the alarm flag. For example, when the driver is in the preceding vehicle 50A and the following vehicle 50B is unmanned (during automatic driving), the cause determination unit 5B outputs a signal from the wireless communication device 3B and issues an alarm 10A for the preceding vehicle 50A. The driver of the preceding vehicle 50A is notified of the fact that it has become difficult to continue the automatic running of the following vehicle via the preceding vehicle. Upon receiving this notification, the driver of the preceding vehicle 50A stops as soon as possible, and performs maintenance work on the following vehicle 50B as necessary. As a result, when a decrease in the detection accuracy of the relative position information can be confirmed in each vehicle, the cause can be quickly eliminated, and it is possible to prevent continuous platooning with the detection accuracy being reduced.

以上が運転支援装置に原因判定部5を付加した、第3の実施形態の動作の例である。原因判定部5を付加することにより、先行車50Aと後続車50Bのいずれかで相対位置情報の検知精度が低下した場合には、もう一方のカメラ1で補完するのみでなく、精度低下の原因を自己診断し、対策が必要な場合にはアラームを出すこととした。これによりカメラ1に異常が発生した場合には、手動運転に切り替える、または、安全に停止して問題対策をするなどの対策を速やかにとることができ、異常のある状態で隊列走行が行われることを防止できる。   The above is an example of the operation of the third embodiment in which the cause determination unit 5 is added to the driving support device. If the detection accuracy of the relative position information is reduced in one of the preceding vehicle 50A and the following vehicle 50B by adding the cause determination unit 5, not only the other camera 1 complements the detection accuracy but also the cause of the reduction in accuracy. Was self-diagnosed and an alarm was issued if a countermeasure was necessary. Thus, if an abnormality occurs in the camera 1, measures such as switching to manual operation or stopping safely and taking measures against the problem can be taken promptly, and platooning is performed in an abnormal state. Can be prevented.

<実施形態4>
図11は、本発明の第四の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。第三の実施形態の各制御装置11A,11Bに履歴格納部6を追加した構成である。
<Embodiment 4>
FIG. 11 is a schematic configuration diagram of a driving support device and a driving support system according to the fourth embodiment of the present invention. This is a configuration in which a history storage unit 6 is added to each of the control devices 11A and 11B of the third embodiment.

履歴格納部6を追加した目的は、第3実施形態では原因判定部5がアラームを出すか否かを判断する際にその時刻での自己診断の結果のみを参照していたが、これに加えて時系列の情報を用いて判断可能とすることである。履歴格納部6では、相対位置情報の検知精度低下の程度を示す指標(例えば車間距離D)の履歴を格納しておき、原因判定部5では、その履歴を基に検知精度の低下した状態が一定時間以上続いたと判断した場合に、走行状態が正常でないと判定しアラーム10Aに信号を出すこととした。検知精度を示す指標としては、位置情報演算部2の検知精度そのものを用いてもよいし、検知精度が低下した結果を示す車間距離Dと目標車間距離との乖離度や、後続車両50Bの加減速の変動等の指標のいずれかもしくは複数の組合せを用いることができる。   The purpose of adding the history storage unit 6 is that in the third embodiment, when the cause determination unit 5 determines whether or not to issue an alarm, only the self-diagnosis result at that time is referred to. That is, it is possible to make a determination using time-series information. The history storage unit 6 stores the history of the index (for example, the inter-vehicle distance D) indicating the degree of the decrease in the detection accuracy of the relative position information, and the cause determination unit 5 detects the state in which the detection accuracy has decreased based on the history. When it is determined that the driving state has continued for a certain time or longer, it is determined that the traveling state is not normal, and a signal is issued to the alarm 10A. As the index indicating the detection accuracy, the detection accuracy itself of the position information calculation unit 2 may be used, the divergence between the inter-vehicle distance D indicating the result of the reduced detection accuracy and the target inter-vehicle distance, and the addition of the following vehicle 50B. Any one or a combination of a plurality of indices such as fluctuations in deceleration can be used.

履歴格納部6を追加した場合の運転支援装置15の動作を説明する。履歴格納部6に格納される検知精度情報として、以下の実施形態では車間距離Dの履歴を用いるとする。   The operation of the driving support device 15 when the history storage unit 6 is added will be described. In the following embodiments, the history of the inter-vehicle distance D is used as the detection accuracy information stored in the history storage unit 6.

履歴格納部6は、図4で説明した位置情報演算部2の処理S42で、先行車と後続車からの情報から車間距離D(補正相対位置情報)を算出した後に、車間距離Dを時刻情報とともに格納する。   The history storage unit 6 calculates the inter-vehicle distance D (corrected relative position information) from the information from the preceding vehicle and the following vehicle in the processing S42 of the position information calculation unit 2 described with reference to FIG. Store with

図12に第4の実施形態の原因判定部5の処理の流れを示す。図8の処理の流れに、S121の判定を追加した処理の流れとなっている。S86で、原因判定部5は精度低下の原因が恒久的か否かを判定し、原因が一時的であると判定された場合にはS121の処理に移る。   FIG. 12 shows a flow of processing of the cause determination unit 5 according to the fourth embodiment. The processing flow shown in FIG. 8 is obtained by adding the determination in S121 to the processing flow shown in FIG. In S86, the cause determination unit 5 determines whether the cause of the decrease in accuracy is permanent, and if it is determined that the cause is temporary, the process proceeds to S121.

S121では、原因判定部5は履歴格納部6に格納されている車間距離Dの履歴を参照し、検知精度が低下した状態が閾値期間(所定期間)以上継続しているか否かを判定する。閾値期間以上継続していればS87に進み、原因判定部5はアラームフラグをONにする。閾値期間以上継続していなければ、処理を終了する。   In S121, the cause determination unit 5 refers to the history of the inter-vehicle distance D stored in the history storage unit 6 and determines whether the state in which the detection accuracy has been reduced has continued for a threshold period (predetermined period) or more. If it has continued for the threshold period or more, the process proceeds to S87, and the cause determination unit 5 turns on the alarm flag. If it has not continued for the threshold period or more, the process ends.

第4の実施形態の具体的な処理につき、図13−図18を用いて説明する。図13−図15は相対位置情報の検知精度が低い状態が閾値期間以上連続しない例に対し、図16−図18は相対位置情報の検知精度が低い状態が閾値期間以上連続する例である。   A specific process according to the fourth embodiment will be described with reference to FIGS. 13 to 15 show an example in which the state where the detection accuracy of the relative position information is low does not continue for a threshold period or more, and FIGS. 16 to 18 show an example in which the state where the detection accuracy of the relative position information is low continues for a threshold period or more.

図13は、逆光環境で先行車50Aと後続車50Bが隊列走行(追従走行)を実施している状態を示す。後続車50Bのカメラ1Bで取得した画像132は逆光の影響で画像の状態が悪い(例えば黒つぶれしている)とする。   FIG. 13 shows a state in which the preceding vehicle 50A and the following vehicle 50B are performing platooning (follow-up running) in a backlight environment. It is assumed that the image 132 acquired by the camera 1B of the following vehicle 50B has a poor image state (for example, blackout) due to the influence of the backlight.

図13の条件の際の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を図14に示す。位置情報演算部2の処理により行142、行143に示す車間距離(第1及び第2相対位置情報)と検出精度を求める。図4に示す補正位置情報演算部4の処理により、検出精度から先行車情報と後続車情報の重みを求め、車間距離Dを補正相対位置情報として算出する。   FIG. 14 shows output contents of processing results of the position information calculation unit 2, the correction position information calculation unit 4, and the cause determination unit 5 under the conditions of FIG. The distance between vehicles (first and second relative position information) and the detection accuracy shown in rows 142 and 143 are obtained by the processing of the position information calculation unit 2. The weight of the preceding vehicle information and the following vehicle information is obtained from the detection accuracy by the processing of the correction position information calculation unit 4 shown in FIG. 4, and the inter-vehicle distance D is calculated as the correction relative position information.

次に原因判定部5では図12の処理の流れより、まずS81で後続車50Bの検出精度が閾値以下であることを判定し、S82、S83,S84の処理によりカメラパラメタ(行144、145,146)、他のセンサ値(行147)、画像解析による画像特徴量(行148、行149)を取得する。   Next, in S81, the cause determination unit 5 determines that the detection accuracy of the succeeding vehicle 50B is equal to or less than the threshold value in the processing flow of FIG. 12, and performs camera parameters (rows 144, 145, and 145) by the processing of S82, S83, and S84. 146), other sensor values (row 147), and image feature amounts (row 148, row 149) by image analysis are acquired.

S85の処理により、原因判定部5Bでは、検知精度低下の原因を判定する。この例の場合は図7と照合し、14aのように「逆光」が原因の精度低下と判定する。   By the processing in S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. In the case of this example, it is compared with FIG. 7, and it is determined that the accuracy is deteriorated due to “backlight” as in 14a.

S86の処理により、原因判定部5Bは原因が恒久的であるかを判定する。「逆光」は図7より14bに示すように「一時的」な原因であるのでS121に進む。   By the processing of S86, the cause determination unit 5B determines whether the cause is permanent. Since "backlight" is a "temporary" cause as shown by 14b in FIG. 7, the process proceeds to S121.

S121では、履歴格納部6Bを参照し、原因判定部5Bは検知精度低下状態が閾値期間以上継続しているか否かを判定する。図15に、この例での履歴格納部6Bに格納されている履歴の例を示す。この例では、目標車間距離に対して車間距離Dがどれくらい乖離しているかの履歴を採っている。図15中、横軸は時刻である。符合151を付した直線は車間距離Dの目標値であり、仮に2mとする。符合152を付した境界線は目標車間距離からの乖離許容範囲の上限値であり、仮に2.5mとする。符合153を付した境界線は目標車間距離からの乖離許容範囲の下限値であり、仮に1.5mとする。符合154を付した曲線が実際に補正位置情報演算部4Bで算出された車間距離Dである。   In S121, with reference to the history storage unit 6B, the cause determination unit 5B determines whether the detection accuracy deterioration state has continued for a threshold period or more. FIG. 15 shows an example of a history stored in the history storage unit 6B in this example. In this example, a history of how far the inter-vehicle distance D deviates from the target inter-vehicle distance is taken. In FIG. 15, the horizontal axis is time. The straight line denoted by reference numeral 151 is a target value of the inter-vehicle distance D, and is assumed to be 2 m. The boundary line denoted by reference numeral 152 is the upper limit of the allowable range of deviation from the target inter-vehicle distance, and is assumed to be 2.5 m. The boundary line denoted by reference numeral 153 is the lower limit of the allowable deviation from the target inter-vehicle distance, and is assumed to be 1.5 m. The curve denoted by reference numeral 154 is the inter-vehicle distance D actually calculated by the corrected position information calculation unit 4B.

この例の場合、原因判定部5Bは、後続車50Bによる相対位置情報の検知精度は低下しているが、原因が一時的で、自然に解消する「逆光」であること、さらに、図15により、車間距離Dの履歴が目標車間距離の許容範囲内(2m±0.5m)に収まっていることに鑑みて、検知精度の低下は対策が必要なレベルにまで悪化していないと判断して処理を終了する。   In the case of this example, the cause determination unit 5B determines that the accuracy of the detection of the relative position information by the following vehicle 50B is low, but the cause is temporary, and it is “backlight” that naturally resolves. In view of the fact that the history of the inter-vehicle distance D is within the allowable range of the target inter-vehicle distance (2 m ± 0.5 m), it is determined that the decrease in the detection accuracy has not deteriorated to a level requiring a measure. The process ends.

次に図16−18を用いて説明する。図16は、霧の環境で先行車50Aと後続車50Bが隊列走行(追従走行)を実施している状態を示す。先行車50Aのカメラ1Aで取得した画像161と、後続車50Bのカメラ1Bで取得した画像162はともに霧の影響で画像の状態が悪いが、照明等の条件の違いで後続車50Bが撮影した画像162の方が相対的に状態が悪いとする。   Next, a description will be given with reference to FIGS. FIG. 16 shows a state in which the preceding vehicle 50A and the following vehicle 50B are performing platooning (following) in a fog environment. The image 161 obtained by the camera 1A of the preceding vehicle 50A and the image 162 obtained by the camera 1B of the following vehicle 50B both have poor image conditions due to the influence of fog. It is assumed that the state of the image 162 is relatively worse.

図16の条件の際の位置情報演算部2と、補正位置情報演算部4、原因判定部5の処理の結果の出力内容を図17に示す。位置情報演算部の処理により行172、行173に示す車間距離(第1及び第2相対位置情報)と検出精度を求める。図4に示す補正位置情報演算部4の処理により、検出精度から先行車情報と後続車情報の重みを求め、車間距離Dを補正相対位置情報として算出する。   FIG. 17 shows output contents of processing results of the position information calculation unit 2, the correction position information calculation unit 4, and the cause determination unit 5 under the conditions of FIG. The inter-vehicle distances (first and second relative position information) and detection accuracy shown in rows 172 and 173 are obtained by the processing of the position information calculation unit. The weight of the preceding vehicle information and the following vehicle information is obtained from the detection accuracy by the processing of the correction position information calculation unit 4 shown in FIG. 4, and the inter-vehicle distance D is calculated as the correction relative position information.

次に原因判定部5では図12の処理の流れより、まずS81で後続車50Aの検出精度が閾値以下であることを判定し、S82、S83,S84の処理によりカメラパラメタ(行174)、他センサ(行175)、画像解析による画像特徴量(行176、行177、行178)を取得する。   Next, in S81, the cause determination unit 5 determines that the detection accuracy of the succeeding vehicle 50A is equal to or less than the threshold value, and the camera parameters (line 174) and other parameters are determined by the processing of S82, S83, and S84. The sensor (line 175) acquires the image feature amount (line 176, line 177, line 178) by the image analysis.

S85の処理により、原因判定部5Bは検知精度低下の原因を判定する。この例の場合は図7と照合し、179のように「霧」が原因の精度低下と判定する。   By the processing of S85, the cause determination unit 5B determines the cause of the decrease in detection accuracy. In the case of this example, it is compared with FIG. 7 and it is determined that the accuracy is reduced due to “fog” as in 179.

S86の処理により、原因判定部5Bは原因が恒久的であるかを判定する。「霧」は図7より17aに示すように「一時的」な原因であるのでS121に進む。   By the processing of S86, the cause determination unit 5B determines whether the cause is permanent. Since "fog" is a "temporary" cause as shown at 17a in FIG. 7, the process proceeds to S121.

S121では、履歴格納部6Bを参照し、原因判定部5Bは検知精度低下状態が閾値期間以上継続しているか否かを判定する。図18に、この例での履歴格納部6Bに格納されている履歴の例を示す。図15と同様に、図18中、横軸は時刻である。符合181を付した直線は車間距離Dの目標値であり、仮に2mとする。符合182を付した境界線は目標車間距離からの乖離許容範囲の上限値であり、仮に2.5mとする。符合183を付した境界線は目標車間距離からの乖離許容範囲の下限値であり、仮に1.5mとする。符合184を付した曲線が実際に補正位置情報演算部4で算出した車間距離Dである。   In S121, with reference to the history storage unit 6B, the cause determination unit 5B determines whether the detection accuracy deterioration state has continued for a threshold period or more. FIG. 18 shows an example of a history stored in the history storage unit 6B in this example. As in FIG. 15, the horizontal axis in FIG. 18 is time. The straight line denoted by reference numeral 181 is a target value of the inter-vehicle distance D, and is assumed to be 2 m. The boundary line with reference numeral 182 is the upper limit of the allowable range of deviation from the target inter-vehicle distance, and is assumed to be 2.5 m. The boundary line with reference numeral 183 is the lower limit of the allowable range of deviation from the target inter-vehicle distance, and is assumed to be 1.5 m. The curve to which reference numeral 184 is attached is the inter-vehicle distance D actually calculated by the correction position information calculation unit 4.

図15の例と異なり、目標車間距離からの乖離が、許容範囲(2m±0.5m)を超えている期間が矢印185で示す期間連続しており、この期間はあらかじめ定めた検知精度低下期間の閾値期間(所定期間)186を超えている。   Unlike the example of FIG. 15, a period in which the deviation from the target inter-vehicle distance exceeds the allowable range (2 m ± 0.5 m) is a continuous period indicated by an arrow 185, and this period is a predetermined detection accuracy reduction period. Exceeds the threshold period (predetermined period) 186.

この例の場合、原因判定部5Bは、後続車50Bの相対位置情報の検知精度は低下しているが、原因が一時的で自然に解消する「霧」であると判定する。しかし、図18より、車間距離Dの履歴が目標車間距離の許容範囲を超える期間185が閾値期間186を超えているため、一時的な精度低下でも長期間解消せず、車間距離Dが目標値から乖離した不安定な状態が続いていると判断する。この場合は、後続車両50Bの追従走行の安定性に問題があるとし、S87に進んで原因判定部5BはアラームフラグをONにする。   In the case of this example, the cause determination unit 5B determines that the detection accuracy of the relative position information of the following vehicle 50B is lowered, but the cause is “fog” which is temporary and resolves naturally. However, from FIG. 18, since the period 185 in which the history of the inter-vehicle distance D exceeds the allowable range of the target inter-vehicle distance exceeds the threshold period 186, even if the accuracy temporarily decreases, the accuracy does not disappear for a long time. It is determined that the unstable state deviating from is continuing. In this case, it is determined that there is a problem in the stability of the follow-up running of the following vehicle 50B, and the process proceeds to S87, where the cause determination unit 5B turns on the alarm flag.

以上が、履歴格納部6を追加した実施形態4の具体例である。相対位置情報の精度低下の原因が自然環境等による一時的な性質のものであっても、それが長期間連続した場合には、追従走行の安定性が失われている状態と判定して、アラーム10を発行して後続車両50Bを自動運転から手動運転に切り替える、先行車50Aの運転手に対して停止指示を出すなどの対策をとることができる。また逆に、いずれかのカメラ1の精度が低下しても、原因が一時的であり、走行の安定性が問題ない場合には、先行車50Aと後続車50Bの情報を活用しながら走行を継続できるので、過度な走行停止指示を回避できる効果もある。   The above is a specific example of the fourth embodiment in which the history storage unit 6 is added. Even if the cause of the decrease in the accuracy of the relative position information is of a temporary nature due to the natural environment, etc., if it continues for a long time, it is determined that the stability of the following running is lost, It is possible to take measures such as issuing the alarm 10 to switch the succeeding vehicle 50B from automatic driving to manual driving, and issuing a stop instruction to the driver of the preceding vehicle 50A. Conversely, even if the accuracy of any of the cameras 1 is reduced, if the cause is temporary and there is no problem in running stability, the driving is performed while utilizing the information of the preceding vehicle 50A and the following vehicle 50B. Since it can be continued, there is also an effect that an excessive traveling stop instruction can be avoided.

<実施形態5>
図19は、本発明の第五の実施形態に係る運転支援装置及び運転支援システムの概略構成図である。
<Embodiment 5>
FIG. 19 is a schematic configuration diagram of a driving support device and a driving support system according to the fifth embodiment of the present invention.

本実施形態は、管制センタに設置された制御装置(サーバコンピュータ)11Cを追加し、各車両50のカメラ1の画像を基に制御装置11Cで相対位置情報と補正相対位置情報の演算を行い、その補正相対位置情報を後続車50Bの運転支援装置15Bに送信している点が特徴となる。   In the present embodiment, a control device (server computer) 11C installed in the control center is added, and the relative position information and the corrected relative position information are calculated by the control device 11C based on the image of the camera 1 of each vehicle 50. The feature is that the corrected relative position information is transmitted to the driving support device 15B of the succeeding vehicle 50B.

図19に示す運転支援システムは、先行車50Aに搭載された運転支援装置15Aと、後続車50Bに搭載された運転支援装置15Bと、これらの運転支援装置15A,15Bと相互に無線通信可能に構成された制御装置11Cを備えている。   The driving support system shown in FIG. 19 is configured such that the driving support device 15A mounted on the preceding vehicle 50A, the driving support device 15B mounted on the succeeding vehicle 50B, and the driving support devices 15A and 15B can wirelessly communicate with each other. It has a configured control device 11C.

管制センタの制御装置11Cは、無線通信装置(コンピュータ側通信装置)3Cを有するサーバ用のコンピュータであり、位置情報演算部(コンピュータ側位置情報演算部)2C及び補正位置情報演算部(コンピュータ側補正位置情報演算部)4Cとして機能する。   The control device 11C of the control center is a server computer having a wireless communication device (computer-side communication device) 3C, and includes a position information calculation unit (computer-side position information calculation unit) 2C and a corrected position information calculation unit (computer-side correction). It functions as a position information calculation unit 4C.

運転支援装置15A,15Bは、カメラ1A,1Bで撮影された画像を無線通信装置3A,3Bを介してサーバ11Cに送信する。   The driving support devices 15A and 15B transmit images captured by the cameras 1A and 1B to the server 11C via the wireless communication devices 3A and 3B.

管制センタの制御装置11Cは、受信したカメラ画像を基に先行車50Aと後続車50Bの相対位置情報を演算し、その相対位置情報と検出精度を基に補正相対位置情報を演算する。演算した補正相対位置情報は後続車両50Bに送信され、制御装置11Bの走行制御部8Bによって後続車両50Bの自動走行制御に利用される。   The control device 11C of the control center calculates relative position information of the preceding vehicle 50A and the following vehicle 50B based on the received camera image, and calculates corrected relative position information based on the relative position information and the detection accuracy. The calculated corrected relative position information is transmitted to the following vehicle 50B, and is used by the running control unit 8B of the control device 11B for automatic running control of the following vehicle 50B.

無線通信装置3A,3B,3Cは、第1実施形態等のように車車間通信に限定せず、車両50と管制センタの制御装置11間の通信が可能になっている。本実施形態では、位置情報演算部2Cと補正位置情報演算部4Cを管制センタの制御装置11Cに持ち、先行車50Aと後続車50Bは取得した画像やその他センサ情報を無線通信装置3から管制センタに送信し、管制センタ側で先行車50A、および後続車50Bが取得した画像から相対位置情報や補正相対位置情報の取得を実施する構成である。   The wireless communication devices 3A, 3B, and 3C are not limited to inter-vehicle communication as in the first embodiment and the like, but are capable of communication between the vehicle 50 and the control device 11 of the control center. In the present embodiment, the position information calculation unit 2C and the corrected position information calculation unit 4C are provided in the control device 11C of the control center, and the preceding vehicle 50A and the following vehicle 50B transmit the acquired images and other sensor information from the wireless communication device 3 to the control center. And the control center acquires the relative position information and the corrected relative position information from the images acquired by the preceding vehicle 50A and the following vehicle 50B.

なお、図19に示した例では、制御装置11A,11Bは、位置情報演算部2、補正位置情報演算部4、原因判定部5及び履歴格納部6のいくつかの機能を具備しないが、それらの機能を具備しても良い。   In the example shown in FIG. 19, the control devices 11A and 11B do not have some functions of the position information calculation unit 2, the corrected position information calculation unit 4, the cause determination unit 5, and the history storage unit 6. May be provided.

以上の構成を採ることで、カメラ1と無線通信装置3を搭載した車両が高度な制御装置を備えなくとも追従走行を実施することができる。また、本実施形態の適用は必ずしも一組の追従走行車両のみに限られず、例えば特定領域内を走行する複数の車両に適用すれば、センタでこれら複数の車両を一括制御できる。   By adopting the above configuration, the vehicle equipped with the camera 1 and the wireless communication device 3 can perform the following traveling without having an advanced control device. In addition, the application of the present embodiment is not necessarily limited to only one set of following vehicles. For example, if the present embodiment is applied to a plurality of vehicles traveling in a specific area, the plurality of vehicles can be collectively controlled at a center.

また、第三の実施形態で追加した原因判定部5をセンタの制御装置11Cに具備することで、精度低下の原因を判定し、アラームを出すこともできる。第四の実施形態で追加した履歴格納部6もセンタの制御装置11C具備することで、履歴による走行状態の安定性を判断し、アラームを出すこともできる。   Further, by providing the cause determination unit 5 added in the third embodiment in the control device 11C of the center, it is possible to determine the cause of the decrease in accuracy and issue an alarm. Since the history storage unit 6 added in the fourth embodiment also includes the center control device 11C, it is possible to determine the stability of the running state based on the history and to issue an alarm.

また、管制センタで取得できる交通流センサなどの情報から、混雑していない安全な経路へ走行指示を出すこともできる。これにより、自動追従走行時に難易度の高い車線変更を伴わない走行が可能になる効果がある。   In addition, it is possible to issue a traveling instruction to a safe route without congestion from information such as a traffic flow sensor that can be obtained at the control center. As a result, there is an effect that it is possible to perform the traveling without the lane change with a high degree of difficulty during the automatic following travel.

また、原因判定部5での処理の結果、アラームフラグがONになり、停車する判断になった時に、管制センタでは交通流センサからの道路の混雑状況や地図情報から、停車するための安全な場所を判断し、先行車50Aに指示することもできる。   Also, as a result of the processing in the cause determination unit 5, when the alarm flag is turned on and it is determined that the vehicle is to be stopped, the control center uses the traffic congestion status and the map information from the traffic flow sensor to provide a safe It is also possible to determine the location and instruct the preceding vehicle 50A.

以上が本発明による運転支援装置の実施形態である。公知技術のような後続車50Bのみがカメラ(外界センサ)1を搭載し先行車50Aに対する相対位置・姿勢を検出しながら追従走行する場合には、後続車50Bのカメラ1Bの視界が逆光などで一時的に悪化した場合には追従走行の継続が困難になる。しかし、上記各実施形態のように先行車50Aのカメラ1Aからの情報を利用して補正相対位置情報を算出し、その補正相対位置情報を基に後続車50Bを自動追従走行させることで安全な走行を継続することが可能となった。また、カメラ1での検知精度が悪化した場合に原因判定部5で検知精度低下の原因を自己診断することで、故障、汚れ付着などの異常がカメラ1に発生した場合、もしくは一時的な異常と考えられても長時間継続する場合には、自動運転から手動運転への切り替えや先行車50Aへの停止指示などを実施することで、安全な追従運転を支援することができる効果がある。   The above is the embodiment of the driving support device according to the present invention. In the case where only the succeeding vehicle 50B carries a camera (external sensor) 1 and follows the vehicle while detecting the relative position and attitude with respect to the preceding vehicle 50A as in the known art, the field of view of the camera 1B of the following vehicle 50B is backlit. If it deteriorates temporarily, it will be difficult to continue following. However, as in the above embodiments, the corrected relative position information is calculated using the information from the camera 1A of the preceding vehicle 50A, and the following vehicle 50B is automatically followed to travel based on the corrected relative position information. It became possible to continue running. In addition, when the detection accuracy of the camera 1 is deteriorated, the cause determining unit 5 performs a self-diagnosis of the cause of the detection accuracy deterioration. Even if it is considered that the operation is continued for a long time, switching from automatic driving to manual driving, a stop instruction to the preceding vehicle 50A, and the like are performed, so that there is an effect that safe following operation can be supported.

なお、以上の実施形態では、簡単のため主に後続車50Bが補正位置情報演算部4を備える例で説明したが、第二の実施形態のように先行車50Aに搭載してもよい。また、先行車50Aと後続車50B両方に搭載することもできる。   In the above embodiment, for simplicity, the example in which the subsequent vehicle 50B mainly includes the correction position information calculation unit 4 has been described. However, the following vehicle 50B may be mounted on the preceding vehicle 50A as in the second embodiment. Further, it can be mounted on both the preceding vehicle 50A and the succeeding vehicle 50B.

なお、本発明は、上記の各実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内の様々な変形例が含まれる。例えば、本発明は、上記の各実施の形態で説明した全ての構成を備えるものに限定されず、その構成の一部を削除したものも含まれる。また、ある実施の形態に係る構成の一部を、他の実施の形態に係る構成に追加又は置換することが可能である。   The present invention is not limited to the above embodiments, and includes various modifications without departing from the scope of the invention. For example, the present invention is not limited to one having all the configurations described in the above embodiments, but also includes one in which some of the configurations are deleted. In addition, part of the structure of one embodiment can be added to or replaced by the structure of another embodiment.

また、上記の制御装置11に係る各構成や当該各構成の機能及び実行処理等は、それらの一部又は全部をハードウェア(例えば各機能を実行するロジックを集積回路で設計する等)で実現しても良い。また、上記の制御装置11に係る構成は、演算処理装置(例えばCPU)によって読み出し・実行されることで当該制御装置11の構成に係る各機能が実現されるプログラム(ソフトウェア)としてもよい。当該プログラムに係る情報は、例えば、半導体メモリ(フラッシュメモリ、SSD等)、磁気記憶装置(ハードディスクドライブ等)及び記録媒体(磁気ディスク、光ディスク等)等に記憶することができる。   In addition, the components of the control device 11 and the functions and execution processes of the components are partially or wholly realized by hardware (for example, a logic that executes the functions is designed by an integrated circuit). You may. Further, the configuration of the control device 11 may be a program (software) that realizes each function of the configuration of the control device 11 by being read and executed by an arithmetic processing device (for example, a CPU). Information related to the program can be stored in, for example, a semiconductor memory (flash memory, SSD, etc.), a magnetic storage device (hard disk drive, etc.), a recording medium (magnetic disk, optical disk, etc.), and the like.

また、上記の各実施の形態の説明では、制御線や情報線は、当該実施の形態の説明に必要であると解されるものを示したが、必ずしも製品に係る全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えて良い。   Further, in the description of each of the above embodiments, the control lines and the information lines are understood to be necessary for the description of the embodiments, but all the control lines and the information lines related to the product are not necessarily required. Does not necessarily mean that In fact, it can be considered that almost all components are interconnected.

1…カメラ、2…位置情報演算部、3…無線通信装置、4…補正位置情報演算部、5…原因判定部(判定部)、6…履歴格納部、8…走行制御部、9…走行制御装置、10…アラーム(報知装置)、11…制御装置、15…運転支援装置、25…マーカ、50A…先行車(車両)、50B…後続車(車両)   DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... Position information calculation part, 3 ... Wireless communication device, 4 ... Correction position information calculation part, 5 ... Cause determination part (determination part), 6 ... History storage part, 8 ... Travel control part, 9 ... Travel Control device, 10 alarm (notification device), 11 control device, 15 driving assist device, 25 marker, 50A preceding vehicle (vehicle), 50B following vehicle (vehicle)

Claims (13)

自車に搭載され、
前記自車の前方及び後方のいずれか一方を走行する他車を撮影するカメラと、
前記他車との車車間通信を実施する通信装置と、
前記カメラによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する位置情報演算部と、
前記自車と前記他車の相対位置情報であって前記他車で演算された第2相対位置情報を前記通信装置を介して取得し、前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する補正位置情報演算部とを備えることを特徴とする運転支援装置。
Mounted on own vehicle,
A camera that captures another vehicle traveling either forward or backward of the vehicle,
A communication device that performs inter-vehicle communication with the other vehicle,
A position information calculation unit that calculates first relative position information that is relative position information between the own vehicle and the other vehicle based on an image captured by the camera;
Acquiring, via the communication device, second relative position information that is relative position information of the own vehicle and the other vehicle and is calculated by the other vehicle, and obtains the first relative position information and the second relative position information; A corrected position information calculation unit that calculates corrected relative position information that is corrected relative position information used for running control of a subsequent vehicle of the own vehicle and the other vehicle using both or the second relative position information; A driving assistance device comprising:
請求項1の運転支援装置において、
前記他車が前記後続車の場合、
前記通信装置は、前記補正相対位置情報を前記他車へ送信することを特徴とする運転支援装置。
The driving support device according to claim 1,
When the other vehicle is the following vehicle,
The driving support apparatus, wherein the communication device transmits the corrected relative position information to the other vehicle.
請求項1の運転支援装置において、
前記自車が前記後続車の場合、
前記補正相対位置情報を利用して前記後続車の走行を制御する走行制御部をさらに備えることを特徴とする運転支援装置。
The driving support device according to claim 1,
When the own vehicle is the following vehicle,
A driving support device, further comprising a traveling control unit that controls traveling of the following vehicle using the corrected relative position information.
請求項1の運転支援装置において、
前記補正位置情報演算部は、前記第1相対位置情報の精度に関する情報と、前記通信装置を介して取得した前記第2相対位置情報の精度に関する情報とに基づいて、前記補正相対位置情報を演算することを特徴とする運転支援装置。
The driving support device according to claim 1,
The corrected position information calculation unit calculates the corrected relative position information based on information related to the accuracy of the first relative position information and information related to the accuracy of the second relative position information obtained via the communication device. A driving assistance device characterized by performing.
請求項1の運転支援装置において、
前記第1相対位置情報の精度と、前記通信装置を介して取得した前記第2相対位置情報の精度とのいずれか一方が所定の閾値よりも低い場合、その要因が一時的なものか否かを判定する判定部をさらに備えることを特徴とする運転支援装置。
The driving support device according to claim 1,
If one of the accuracy of the first relative position information and the accuracy of the second relative position information obtained via the communication device is lower than a predetermined threshold, whether or not the factor is temporary A driving support device, further comprising a determination unit that determines
請求項5の運転支援装置において、
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものであると前記判定部で判定された場合、前記後続車の走行制御を継続することを特徴とする運転支援装置。
The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The driving support device, wherein the traveling control unit continues the traveling control of the following vehicle when the determining unit determines that the factor is temporary.
請求項5の運転支援装置において、
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものでないと前記判定部で判定された場合、前記後続車の走行制御を中断することを特徴とする運転支援装置。
The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The driving support device, wherein the driving control unit interrupts the driving control of the following vehicle when the determining unit determines that the factor is not temporary.
請求項5の運転支援装置において、
前記判定部は、前記第1相対位置情報の精度が前記所定の閾値よりも低い場合、その要因を、前記カメラのパラメタ、前記カメラによって撮影された画像の画像特徴量、及び前記画像に対して実施された画像処理に基づいて判定することを特徴とする運転支援装置。
The driving support device according to claim 5,
When the accuracy of the first relative position information is lower than the predetermined threshold, the determination unit determines a factor based on a parameter of the camera, an image feature amount of an image captured by the camera, and the image. A driving support device for making a determination based on the implemented image processing.
請求項5の運転支援装置において、
前記補正相対位置情報を利用して前記後続車の自動走行を制御する走行制御部をさらに備え、
前記走行制御部は、前記要因が一時的なものであると前記判定部で判定されたとき、かつ、前記補正相対位置情報の精度が低下した状態が所定時間以上継続したとき、前記後続車の走行制御を中断することを特徴とする運転支援装置。
The driving support device according to claim 5,
Further comprising a travel control unit that controls the automatic travel of the following vehicle using the corrected relative position information,
The traveling control unit is configured to determine, when the determination unit determines that the factor is temporary, and when the state in which the accuracy of the corrected relative position information is reduced continues for a predetermined time or longer, A driving support device for interrupting travel control.
請求項1の運転支援装置であり前記自車に搭載された第1運転支援装置と、
前記自車の前方を走行する前記他車に搭載された第2運転支援装置と、
コンピュータとを備え、
前記第1運転支援装置において、前記カメラは前記自車の前方を走行する前記他車を撮影する第1カメラであり、前記通信装置は前記コンピュータとの無線通信を実施する第1通信装置であり、
前記第2運転支援装置は、前記他車の後方を走行する前記自車を撮影する第2カメラと、前記コンピュータとの無線通信を実施する第2通信装置とを備え、
前記コンピュータは、
前記第1通信装置から送信された前記第1カメラの画像に基づいて前記第1相対位置情報を演算し、前記第2通信装置から送信された前記第2カメラに基づいて前記第2相対位置情報を演算するコンピュータ側位置情報演算部と、
前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算するコンピュータ側補正位置情報演算部と、
前記コンピュータ側補正位置情報演算部で演算された前記補正相対位置情報を前記自車に送信するコンピュータ側通信装置とを備え、
前記第1運転支援装置は、前記コンピュータ側通信装置から送信される前記補正相対位置情報を利用して前記自車の走行を制御する走行制御部をさらに備えることを特徴とする運転支援システム。
A first driving assistance device, which is the driving assistance device according to claim 1 and is mounted on the vehicle,
A second driving support device mounted on the other vehicle traveling in front of the own vehicle;
Computer and
In the first driving support device, the camera is a first camera that photographs the other vehicle traveling in front of the own vehicle, and the communication device is a first communication device that performs wireless communication with the computer. ,
The second driving assistance device includes a second camera that captures an image of the own vehicle traveling behind the other vehicle, and a second communication device that performs wireless communication with the computer.
The computer is
The first relative position information is calculated based on the image of the first camera transmitted from the first communication device, and the second relative position information is calculated based on the second camera transmitted from the second communication device. Computer-side position information calculation unit for calculating
Using both the first relative position information and the second relative position information or the second relative position information, corrected relative position information that is corrected relative position information used for traveling control of the own vehicle is calculated. A computer-side correction position information calculation unit;
A computer-side communication device that transmits the corrected relative position information calculated by the computer-side corrected position information calculation unit to the host vehicle,
The driving assistance system according to claim 1, wherein the first driving assistance device further includes a traveling control unit that controls traveling of the own vehicle using the corrected relative position information transmitted from the computer-side communication device.
自車の前方及び後方のいずれか一方を走行する他車を撮影する第1ステップと、
前記第1ステップによって撮影された画像に基づいて前記自車と前記他車の相対位置情報である第1相対位置情報を演算する第2ステップと、
前記自車と前記他車の相対位置情報であって前記他車で演算された第2相対位置情報を前記他車から取得する第3ステップと、
前記第1相対位置情報と前記第2相対位置情報の双方または前記第2相対位置情報を用いて前記自車及び前記他車のうち後続車の走行制御に利用される補正後の相対位置情報である補正相対位置情報を演算する第4ステップとを備えることを特徴とする隊列走行車の運転支援方法。
A first step of photographing another vehicle traveling either forward or backward of the own vehicle;
A second step of calculating first relative position information that is relative position information of the own vehicle and the other vehicle based on the image captured in the first step;
A third step of obtaining, from the other vehicle, second relative position information that is relative position information of the own vehicle and the other vehicle and that is calculated by the other vehicle;
The corrected relative position information used for traveling control of the following vehicle among the own vehicle and the other vehicle using both the first relative position information and the second relative position information or the second relative position information. And a fourth step of calculating certain corrected relative position information.
請求項11の隊列走行車の運転支援方法において、
前記他車が前記後続車の場合、
前記補正相対位置情報を前記他車に送信する第5ステップをさらに備えることを特徴とする隊列走行車の運転支援方法。
The driving support method for a platooning vehicle according to claim 11,
When the other vehicle is the following vehicle,
A driving support method for platooning vehicles, further comprising a fifth step of transmitting the corrected relative position information to the other vehicle.
請求項11の隊列走行車の運転支援方法において、
前記自車が前記後続車の場合、
前記補正相対位置情報を利用して前記後続車の走行を制御する第6ステップをさらに備えることを特徴とする隊列走行車の運転支援方法。
The driving support method for a platooning vehicle according to claim 11,
When the own vehicle is the following vehicle,
A driving support method for platooning vehicles, further comprising a sixth step of controlling the running of the following vehicle using the corrected relative position information.
JP2018166718A 2018-09-06 2018-09-06 Driving support device, driving support system, and driving support method Pending JP2020042323A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166718A JP2020042323A (en) 2018-09-06 2018-09-06 Driving support device, driving support system, and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166718A JP2020042323A (en) 2018-09-06 2018-09-06 Driving support device, driving support system, and driving support method

Publications (1)

Publication Number Publication Date
JP2020042323A true JP2020042323A (en) 2020-03-19

Family

ID=69798220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166718A Pending JP2020042323A (en) 2018-09-06 2018-09-06 Driving support device, driving support system, and driving support method

Country Status (1)

Country Link
JP (1) JP2020042323A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022186401A (en) * 2021-06-04 2022-12-15 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement amount of object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005050187A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Neighboring vehicle detection device
JP2005115484A (en) * 2003-09-17 2005-04-28 Fujitsu Ten Ltd Driving support device
JP2010117771A (en) * 2008-11-11 2010-05-27 Toyota Motor Corp Vehicle platooning control system
WO2011108052A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Road condition management system and road condition management method
JP2013069178A (en) * 2011-09-24 2013-04-18 Denso Corp Vehicle notification device and following traveling control system
JP2017041074A (en) * 2015-08-19 2017-02-23 株式会社東芝 Driving assist apparatus, driving assist method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005050187A (en) * 2003-07-30 2005-02-24 Nissan Motor Co Ltd Neighboring vehicle detection device
JP2005115484A (en) * 2003-09-17 2005-04-28 Fujitsu Ten Ltd Driving support device
JP2010117771A (en) * 2008-11-11 2010-05-27 Toyota Motor Corp Vehicle platooning control system
WO2011108052A1 (en) * 2010-03-03 2011-09-09 パナソニック株式会社 Road condition management system and road condition management method
JP2013069178A (en) * 2011-09-24 2013-04-18 Denso Corp Vehicle notification device and following traveling control system
JP2017041074A (en) * 2015-08-19 2017-02-23 株式会社東芝 Driving assist apparatus, driving assist method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022186401A (en) * 2021-06-04 2022-12-15 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement amount of object
JP7414772B2 (en) 2021-06-04 2024-01-16 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement of object

Similar Documents

Publication Publication Date Title
US10643475B2 (en) Lane departure warning device and method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US10127460B2 (en) Lane boundary line information acquiring device
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
US11157753B2 (en) Road line detection device and road line detection method
JP5966747B2 (en) Vehicle travel control apparatus and method
US10789491B2 (en) Traffic light recognition device and traffic light recognition method
US20220177005A1 (en) Method for checking a surroundings detection sensor of a vehicle and method for operating a vehicle
JP2019099138A (en) Lane-keep auxiliary method and device
US20180134289A1 (en) Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method
CN110167813B (en) Travel route recognition device and travel route recognition method
US11631256B2 (en) Travel path recognition apparatus and travel path recognition method
KR20190030344A (en) Method and apparatus for recognizing object
JP2019191806A (en) Abnormality detection device and abnormality detection method
US20200090347A1 (en) Apparatus for estimating movement information
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
JP2022036726A (en) Object detector, object detection method, and computer program for object detection
JP2020187474A (en) Traveling lane recognition device, traveling lane recognition method and program
JP2020042323A (en) Driving support device, driving support system, and driving support method
EP3288260B1 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and carrier means
KR101912085B1 (en) Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof
JP6564682B2 (en) Object detection device, object detection method, and object detection program
JP2005329765A (en) Run lane recognition device
JP6674127B2 (en) Image processing device, photographing device, program, device control system and device
JP2020077293A (en) Lane line detection device and lane line detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920