JP4686236B2 - Inter-vehicle communication system - Google Patents
Inter-vehicle communication system Download PDFInfo
- Publication number
- JP4686236B2 JP4686236B2 JP2005105451A JP2005105451A JP4686236B2 JP 4686236 B2 JP4686236 B2 JP 4686236B2 JP 2005105451 A JP2005105451 A JP 2005105451A JP 2005105451 A JP2005105451 A JP 2005105451A JP 4686236 B2 JP4686236 B2 JP 4686236B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- data
- unit
- moving body
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Description
本発明は、車両同士が通信を行う車両間通信システムに関する。 The present invention relates to an inter-vehicle communication system in which vehicles communicate with each other.
従来、カーナビゲーションシステムなどを利用し、車両内に設けられた表示装置や音声出力装置に道路状況などを出力する装置が知られている。 2. Description of the Related Art Conventionally, a device that outputs a road condition or the like to a display device or an audio output device provided in a vehicle using a car navigation system or the like is known.
特許文献1に記載の交差点事故防止装置は、カメラおよび表示部を備えており、自車両が交差点に進入した際に、自車両のカメラが過去に撮影した交差点付近の映像を表示部に表示させる装置である。
The intersection accident prevention apparatus described in
また、特許文献2に記載の障害物報知装置は、赤外線カメラおよびスポットランプを備えており、自車両の赤外線カメラによって撮影された画像から障害物(移動体)を検出し、スポットランプが検出された障害物に電磁波マーカを照射することによって、運転者に障害物を知らせる装置である。
Moreover, the obstacle notification device described in
また、特許文献3に記載の移動体接近報知装置は、自車両近傍の移動体を検出する移動体検出手段と報知手段とを備え、自車両および検出された移動体の進路を推定し、これらが接近する場合に、報知手段が運転者に接近を報知する装置である。
しかしながら、前記した各特許文献に開示された装置は、自車両が移動体を検出することを前提にしたものであり、自車両が検出することができなかった移動体に関する情報を運転者に知らせることができないという問題があった。 However, the devices disclosed in the above-mentioned patent documents are based on the premise that the own vehicle detects a moving body, and inform the driver of information on the moving body that the own vehicle could not detect. There was a problem that I could not.
本発明は、前記した問題を解決すべく創案されたものであり、自車両が検出できなかった移動体の存在を運転者に知らせることが可能な車両間通信システムを提供することを課題とする。 The present invention has been developed to solve the above-described problems, and an object of the present invention is to provide an inter-vehicle communication system capable of notifying the driver of the presence of a moving body that the host vehicle cannot detect. .
前記課題を解決するため、請求項1に記載の発明は、車両同士が通信を行う車両間通信システムであって、車両ごとに設けられた、当該車両の周囲を撮像する撮像手段と、前記撮像手段によって撮像された画像から移動体を検出する移動体検出部と、車両ごとに設けられた発音手段と、車両ごとに設けられた、前記車両の前記発音手段に出力する音声データを生成する音声データ生成部と、車両ごとに設けられた、データの送受信を行う送受信手段と、車両ごとに設けられた、当該車両と、他の車両の前記移動体検出部によって検出された移動体と、が出会うか否かを判定する出会い判定部と、車両ごとに設けられた、前記車両の位置に関する車両位置データを検出する車両位置データ検出手段と、車両ごとに設けられた、前記撮像手段によって撮像された画像から前記移動体の位置に関する移動体位置データを生成する移動体位置データ生成部と、前記撮像手段によって撮像された移動体に関する情報を共有する車両の組み合わせを決定する情報共有車両決定部と、前記撮像手段の撮像領域が記憶された記憶部と、を備え、一の車両の前記音声データ生成部は、一の車両の前記出会い判定部によって生成された判定結果を知らせる音声データを生成し、一の車両の前記発音手段に出力し、一の車両の前記出会い判定部は、一の車両の前記車両位置データ検出手段によって検出された一の車両の前記車両位置データと、他の車両の前記移動体位置データ生成部によって生成された前記移動体位置データと、に基づいて出会い判定を行い、前記情報共有車両決定部は、前記車両位置データ検出手段によって検出された前記車両位置データと、前記記憶部に記憶された前記撮像手段の撮像領域に基づいて、前記撮像領域が所定割合以上重なっている車両同士を、前記した一の車両及び他の車両として組み合わせることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
このようにすることで、ある車両の撮像手段が撮影できなかった移動体と車両とが出会う可能性を発音手段に発音させることができ、かかる移動体の存在を運転手に知らせることができる。
また、このようにすることで、車両と移動体との出会い判定を好適に行うことができる。
また、このようにすることで、各車両の通信相手の設定が好適に行われる。
また、このようにすることで、移動体に関する通信を減らすことができる。
By doing so, it is possible to cause the sounding means to pronounce the possibility that the vehicle and the vehicle that the imaging means of the vehicle could not photograph can meet, and to inform the driver of the presence of such a moving body.
Moreover, by doing in this way, the encounter determination with a vehicle and a mobile body can be performed suitably.
Moreover, the communication partner of each vehicle is suitably set by doing in this way.
In addition, communication related to the mobile object can be reduced by doing in this way.
また、請求項2に記載の発明は、請求項1に記載の車両間通信システムであって、情報を共有する車両の探索を開始するか否かを判定する探索開始判定部をさらに備え、前記探索開始判定部が情報を共有する車両の探索を開始すると判定した場合に、前記情報共有車両決定部が情報を共有する車両の組み合わせを決定することを特徴とする。
The invention according to
このようにすることで、必要なときのみに車両の組み合わせを決定するので、情報処理量を減らすことができる。 By doing in this way, since the combination of vehicles is determined only when necessary, the amount of information processing can be reduced.
また、請求項3に記載の発明は、請求項2に記載の車両間通信システムであって、前記探索開始判定部は、前記車両の前記移動体検出部が移動体を検出した場合に、当該車両に対する情報共有車両の探索を開始するか否かを判定し、前記情報共有車両決定部は、前記探索開始判定部が当該車両に対する情報共有車両の探索を開始すると判定した場合に、当該車両と情報を共有する車両を決定することを特徴とする。
The invention according to
このようにすることで、移動体を検出していないときの通信を行わずに済ませることができる。 By doing in this way, it is possible to avoid communication when a moving object is not detected.
また、請求項4に記載の発明は、請求項3に記載の車両間通信システムであって、前記記憶部には、地図データがさらに記憶されており、前記探索開始判定部は、前記車両位置データと、前記地図データと、に基づいて、前記車両が前記地図データにおけるノードに接近しているか否かを判定し、前記情報共有車両決定部は、前記探索開始判定部が前記車両が前記ノードに接近していると判定した場合に、当該車両と情報を共有する車両を決定することを特徴とする。
The invention according to
このようにすることで、死角が多く移動体との出会い頻度が大きい交差点(ノード)で、移動体の存在を運転手に知らせることができる。
また、ノード(交差点など)に接近している場合のみに通信を行うようになり、通信量を減らすことができる。
By doing so, it is possible to inform the driver of the presence of the moving body at an intersection (node) where there are many blind spots and the frequency of encounter with the moving body is large.
Further, communication is performed only when a node (such as an intersection) is approaching, and the amount of communication can be reduced.
また、請求項5に記載の発明は、請求項4に記載の車両間通信システムであって、前記車両の近傍に位置する車両を抽出する近傍車両抽出部をさらに備え、前記情報共有車両決定部は、前記近傍車両抽出部によって抽出された車両の中から、情報を共有する車両を決定することを特徴とする。
The invention according to claim 5 is the inter-vehicle communication system according to
このようにすることで、通信を行う車両の絞込みが好適に行われる。 By doing in this way, narrowing down of the vehicle which communicates is performed suitably.
また、請求項6に記載の発明は、請求項2から請求項5のいずれか一項に記載の車両間通信システムであって、前記記憶部には、車両速度と停止距離との関係がさらに記憶されており、前記探索開始判定部は、車両速度に応じた停止距離に基づいて、探索開始を判定することを特徴とする。
The invention according to claim 6 is the inter-vehicle communication system according to any one of
このようにすることで、車両が確実に停止可能な距離において出会い判定結果を運転手に通知することができる。 By doing so, it is possible to notify the driver of the encounter determination result at a distance where the vehicle can surely stop.
また、請求項7に記載の発明は、請求項6に記載の車両間通信システムであって、前記停止距離は、走行環境に基づいて補正されていることを特徴とする。 Further, an invention according to claim 7, a vehicle communication system of claim 6, wherein the stopping distance is characterized in that it is corrected based on the running environment.
ここでいう走行環境とは、天候条件(乾燥路面、湿潤路面)、ABS搭載の有無、タイヤの種類(夏用タイヤ、スタッドレスタイヤ)などである。停止距離がこれらに基づいて補正されるので、より実環境に合った判定が可能となる。 Here, the traveling environment includes weather conditions (dry road surface, wet road surface), presence / absence of ABS mounting, tire type (summer tire, studless tire), and the like. Since the stop distance is corrected based on these, it is possible to make a determination more suitable for the actual environment.
本発明によれば、自車両が検出できなかった移動体の存在を、他車両が検出したデータに基づいて運転者に知らせることが可能な車両間通信システムを提供することができる。 According to the present invention, it is possible to provide an inter-vehicle communication system capable of notifying a driver of the presence of a moving body that could not be detected by the host vehicle based on data detected by another vehicle.
以下、本発明の実施形態について、適宜図面を参照しながら説明する。同様の部分には同一符号を付し、重複する説明を省略する。なお、以下の説明における「速度」は、スカラー量である。また、説明の便宜上、自車両が検出した移動体を単に「移動体」、他車両が検出した移動体を「他移動体」と記載し、区別することがある。 Hereinafter, embodiments of the present invention will be described with reference to the drawings as appropriate. Similar parts are denoted by the same reference numerals, and redundant description is omitted. In the following description, “speed” is a scalar quantity. For convenience of explanation, a moving body detected by the host vehicle may be simply referred to as a “moving body”, and a moving body detected by another vehicle may be described as an “other moving body”.
(車両間通信システム1)
まず、本発明の実施形態に係る車両間通信システムの概略について説明する。図1は、本発明の実施形態に係る車両間システムを示すシステム構成図である。
図1に示すように、本発明の実施形態に係る車両間通信システム1は、カーナビゲーションシステムと共用可能なシステムであり、複数の車両Cに個別に設けられた車載装置2と、車両管理装置3と、を備えている。車載装置2は、基地局4およびネットワーク5を介して車両管理装置3と双方向通信可能であるとともに、車両管理装置3を介して他の車両Cの車載装置2とも双方向通信可能である。また、車載装置2は、車両管理装置3を介さずに他の車両Cの車載装置2と直接通信することも可能である。以下、複数の車両Cについて区別が必要である場合には「車両C1、車両C2、・・・」と記載し、区別が必要でない場合には「車両C」と記載する。
(Vehicle communication system 1)
First, an outline of an inter-vehicle communication system according to an embodiment of the present invention will be described. FIG. 1 is a system configuration diagram showing an inter-vehicle system according to an embodiment of the present invention.
As shown in FIG. 1, an
(車載装置2)
続いて、車載装置2について説明する。図2は、図1の車載装置を示すブロック図である。
図2に示すように、本発明の実施形態に係る車載装置2は、カメラ11,11と、地磁気センサ12と、ジャイロセンサ13と、GPS受信器14と、車速センサ15と、車両センサ16と、操作スイッチ17と、地図データ入力機18と、送受信機19と、表示装置20と、スピーカ21と、車両制御装置22と、記憶部23と、主制御部30と、を備えている。
(In-vehicle device 2)
Next, the in-
As shown in FIG. 2, the in-
(カメラ11,11)
カメラ11,11は、映像をデジタルデータとして取り込むことができるものであり、例えばカラーCCD(Charge-Coupled Device)カメラが使用される。カメラ11,11は、左右に平行に並んで配置され、撮影した画像は特徴抽出部31および出力データ生成部41に出力される。このカメラ11,11は、車両Cにその前方を撮影可能に設けられている。
このカメラ11,11が、「撮像手段」の一例である。
(Camera 11, 11)
The cameras 11 and 11 are capable of capturing video as digital data. For example, a color CCD (Charge-Coupled Device) camera is used. The cameras 11 and 11 are arranged side by side in parallel on the left and right, and the captured image is output to the
The cameras 11 and 11 are an example of “imaging means”.
(地磁気センサ12)
地磁気センサ12は、方位に関するデータ(以下、「方位データ」と記載する。)を検出し、車両データ生成部35に出力する。
(Geomagnetic sensor 12)
The
(ジャイロセンサ13)
ジャイロセンサ13は、車両Cの向きに関するデータ(以下、「車両向きデータ」と記載する。)を検出し、車両データ生成部35に出力する。
このジャイロセンサ13が、「車両向きデータ検出手段」の一例である。
(Gyro sensor 13)
The
The
(GPS受信器14)
GPS受信器14は、GPS(Global Positioning System)を利用して車両Cの位置(緯度、経度)に関するデータ(以下、「車両位置データ」と記載する。)を検出し、車両データ生成部35に出力する。
このGPS受信器14が、「車両位置データ検出手段」の一例である。
(GPS receiver 14)
The
The
(車速センサ15)
車速センサ15は、車両Cの速度(以下、「車両速度データ」と記載する。)を検出し、車両データ生成部35に出力する。
(Vehicle speed sensor 15)
The
(車両センサ16)
車両センサ16は、車両Cの各種状態を検出するものであり、ブレーキペダルの操作量、アクセルペダルの操作量、エンジン回転数、ハンドルの操作量などを検出するセンサを含むセンサ群である。
(Vehicle sensor 16)
The
(操作スイッチ17)
操作スイッチ17は、車載装置2の駆動状態を操作するためのスイッチ群であり、例えば、表示装置20のON/OFFを切り換えるスイッチ、スピーカ21の出力音量を調節するスイッチなどを備えている。
(Operation switch 17)
The
(地図データ入力機18)
地図データ入力機18は、地図データを入力し、記憶部23に記憶させるためのものである。
(Map data input machine 18)
The map
(送受信機19)
送受信機19は、主制御部30から出力された各種データを基地局4へ送信するとともに、車両管理装置3の制御部50(図3参照)から出力され、基地局4から送信された各種データ、および、他の車両Cの主制御部30から出力され、送受信機19から送信された各種データを受信する無線通信装置である。
この送受信機19が、「送受信手段」の一例である。
(Transceiver 19)
The transceiver 19 transmits various data output from the
The transceiver 19 is an example of “transmission / reception means”.
(表示装置20)
表示装置20は、カメラ11,11によって撮像された車両Cの周囲の画像や、後記する記憶部23に記憶された地図データに基づく画像を出力するための装置である。
また、表示装置20は、後記する画像データ生成部41aにより生成された画像データに基づき、画像を表示するとともに、後記する文字データ生成部41bにより生成された文字データに基づき、文字を表示する。
この表示装置20は、車両Cの車室内に設けられており、運転者が視認可能な位置に設けられている。
この表示装置20が、「表示手段」の一例である。
(Display device 20)
The
The
The
The
(スピーカ21)
スピーカ21は、後記する音声データ生成部41dにより生成された音声データに基づき、音声を出力する。
このスピーカ21は、車両Cの車室内に設けられており、出力した音声を運転者に伝達可能となっている。
このスピーカ21が、「発音手段」の一例である。
(Speaker 21)
The speaker 21 outputs sound based on the sound data generated by the sound
The speaker 21 is provided in the passenger compartment of the vehicle C and can transmit the output sound to the driver.
The speaker 21 is an example of “sound generation means”.
(車両制御装置22)
車両制御装置(ECU:Electrical Control Unit)22は、車両Cの動作を制御する装置である。車両制御装置22は、車両センサ16の検出結果および出力データ生成部41の出力に基づいて、ブレーキ液圧を制御したり、クラクションに警報音を発生させたりする。
(Vehicle control device 22)
The vehicle control device (ECU: Electrical Control Unit) 22 is a device that controls the operation of the vehicle C. Based on the detection result of the
(記憶部23)
記憶部23は、車載装置2が搭載された車両Cに関する車両ID、地図データなどを記憶している。
(Storage unit 23)
The memory |
(主制御部30)
主制御部30は、特徴抽出部31と、対象物検出部32と、対象物データ生成部33と、対象物データ通知部34と、車両データ生成部35と、車両データ通知部36と、データ受信部37と、他移動体データ推定部38と、ローカルマップ生成部39と、出会い判定部40と、出力データ生成部41と、を備えている。
(Main control unit 30)
The
(特徴抽出部31)
特徴抽出部31は、画像のエッジ成分を抽出すると共に、距離画像を得る。
(Feature extraction unit 31)
The
(対象物検出部32)
対象物検出部32は、特徴抽出部31の抽出結果に基づいて、スネーク法などを用いて距離画像のグループクラスタを求め、前回のクラスタとの同一性を判定し、対象物を検出するものであり、「移動体検出部」の一例である。これら特徴抽出部31および対象物検出部32による対象物の検出手法としては、例えば、本願発明と同一の出願人によって出願された特開2004−46426号公報、特開2004−103018号公報に記載の手法を用いることができる。
対象物としては、人、自転車、車両(普通車両、バス、トラックなど)などを含む移動体と、交差点と、が挙げられる。
また、対象物検出部32は、この対象物に関するデータ(以下、「対象物相対データ」と記載する。)を生成し、後記する対象物データ生成部33およびローカルマップ生成部39に出力する。
対象物相対データは、対象物IDと、対象物画像データと、対象物相対位置データと、対象物相対速度データと、対象物相対方向データと、種別データと、を含むデータである。
対象物IDは、対象物検出部32によって、検出された移動体ごとに付与される。
対象物画像データは、対象物を表示させるための画像データである。
対象物相対位置データは、検出された対象物の重心位置に関するデータであり、対象物の車両Cに対する相対位置を示すデータである。
対象物相対速度データは、検出された対象物の速度に関するデータであり、対象物の車両Cに対する相対速度を示すデータである。対象物検出部32は、新しいフレーム(画像)と過去のフレームとを比較することによって対象物相対速度データを算出する。
対象物相対方向データは、検出された対象物の方向(移動方向)に関するデータであり、対象物の車両Cに対する相対移動方向を示すデータである。対象物検出部32は、新しいフレーム(画像)と過去のフレームとを比較することによって対象物相対方向データを算出する。
種別データは、検出された対象物の種類に関するデータである。対象物検出部32は、予め記憶された対象物の種類とその形状とを関連付けたデータを参照することによって、検出された対象物が何であるかを特定し、種別データを生成する。
なお、対象物検出部32は、各種データを算出・生成するにあたり、車両データ生成部35によって生成された車両データを参照することもできる。これは、車両Cの移動方向、車両速度を考慮した上で対象物の各種データを算出・生成するためである。
(Object detection unit 32)
The
Examples of the object include moving objects including people, bicycles, vehicles (ordinary vehicles, buses, trucks, etc.), and intersections.
Further, the
The object relative data is data including object ID, object image data, object relative position data, object relative speed data, object relative direction data, and type data.
The object ID is given to each moving object detected by the
The object image data is image data for displaying the object.
The object relative position data is data relating to the position of the center of gravity of the detected object, and is data indicating the relative position of the object with respect to the vehicle C.
The object relative speed data is data relating to the speed of the detected object, and is data indicating the relative speed of the object with respect to the vehicle C. The
The object relative direction data is data relating to the direction (movement direction) of the detected object, and is data indicating the relative movement direction of the object with respect to the vehicle C. The
The type data is data relating to the type of the detected object. The
The
(対象物データ生成部33)
対象物データ生成部33は、対象物検出部32によって検出された検出結果(対象物相対データ)と、車両データ生成部35によって生成された車両データ(後記する)に基づいて、対象物データを生成する。すなわち、対象物データ生成部33は、対象物と車両との相対関係(対象物相対データ)と、車両の道路に対するデータ(車両データ)と、に基づいて、対象物の道路に対するデータ(対象物データ)を生成する。
対象物データは、対象物IDと、対象物画像データと、対象物位置データと、対象物速度データと、対象物方向データと、種別データと、を含むデータである。
すなわち、対象物データ生成部33は、対象物位置データ生成部(移動体データ生成部)であり、対象物速度データ生成部(移動体速度データ生成部)であり、対象物方向データ生成部(移動体データ生成部)である。なお、対象物位置データ、対象物速度データおよび対象物方向データは、これらと同等な物理量を表すデータであればよく、例えば、対象物位置データとして、対象物を検出した車両Cの位置データと、対象物の車両Cに対する相対位置データと、を用いることもできる。このような場合には、GPS受信器14および対象物検出部32の組み合わせが、対象物位置データ生成部に相当することになる。これは、他のデータについても同様である。
(Object data generation unit 33)
The object
The object data is data including object ID, object image data, object position data, object speed data, object direction data, and type data.
That is, the object
(対象物データ通知部34)
対象物データ通知部34は、対象物データ生成部33によって生成された対象物移動体データに当該車両Cの車両IDを付与して出力する。出力された対象物データは、送受信機19を介して車両管理装置3および他の車両Cの車載装置2に通知される。
また、対象物データ通知部34は、車両管理装置3および他の車両Cの車載装置2に対する通信状態を接続/切断するための信号を出力する。
(Subject data notification unit 34)
The target object
In addition, the object
(車両データ生成部35)
車両データ生成部35は、地磁気センサ12、ジャイロセンサ13、GPS受信器14および車速センサ15の検出結果に基づいて、車両データを生成する。この車両データは、自車の車両ID、車両向きデータ、車両位置データ、車両速度データを含むデータである。生成された車両データは、車両データ通知部36およびローカルマップ生成部39に出力される。また、車両データ生成部35は、カルマンフィルタにより、現時点での車両向きデータ、車両位置データ、車両速度データを推定し、これら推定されたデータを車両データに採用している。
(Vehicle data generation unit 35)
The vehicle
(車両データ通知部36)
車両データ通知部36は、車両データ生成部35によって生成された車両データを出力する。出力された車両データは、送受信機19を介して車両管理装置3に通知される。
(Vehicle data notification unit 36)
The vehicle
(データ受信部37)
データ受信部37は、車両管理装置3および他の車両Cの車載装置2から送信されたデータを受信する。受信されるデータの一種である他移動体データは、対象物データ通知部34および他移動体データ推定部38に出力される。
(Data receiver 37)
The
(他移動体データ推定部38)
他移動体データ推定部38は、入力された他移動体データから、現時点での他移動体データ(以下、「他移動体推定データ」と記載する。)を推定する。かかる推定は、カルマンフィルタにより行われる。また、他移動体データ推定部38は、移動体推定データの一部として、他移動体データおよび車両データに基づいて、他移動体の自車両Cに対する相対位置に関するデータ(以下、「他移動体相対位置データ」と記載する。)を生成する。
(Other mobile data estimation unit 38)
The other mobile body
(ローカルマップ生成部39)
ローカルマップ生成部39は、車両データ生成部35によって生成された車両データと、対象物データ生成部33によって生成された移動体データと、他移動体データ推定部38によって推定された他移動体推定データと、に基づいて、車両Cの周囲の状況に関するローカルマップを生成する。このローカルマップは、車両Cの周囲の移動体の位置、速度などを時間的に管理し、これら過去の履歴から現在の移動体の位置、速度などを推定するものである。出会い判定部40は、この推定されたデータに基づいて、自車両Cと移動体とが出会うか否かを判定する。
ここで、ローカルマップ生成部39は、車両データ生成部35によって生成された車両データおよび対象物データ生成部33によって生成された対象物データと、他移動体データ推定部38によって推定された他移動体推定データと、の同一性を判定する。そして、ローカルマップ生成部39は、これらの同一性が否定された場合にのみ、他移動体推定データをローカルマップに統合する。
これは、自車両Cと同一である他移動体と、自車両Cがデータを取得した移動体と同一である他移動体と、をローカルマップに統合することにより、データの重複が発生してしまうことを防ぐためである。
(Local map generator 39)
The local
Here, the local
This is because duplication of data occurs by integrating the other moving body that is the same as the own vehicle C and the other moving body that is the same as the moving body from which the own vehicle C has acquired data into the local map. It is for preventing it.
(出会い判定部40)
出会い判定部40は、自車両Cと他車両によって検出された移動体(他移動体)とが出会うか否かを判定する。判定結果は、出力データ生成部41に出力される。この出会い判定部40による判定手法の詳細は後記する。
(Meeting determination unit 40)
The
(出力データ生成部41)
出力データ生成部41は、ローカルマップおよび出会い判定部40による判定結果に基づいて、他移動体の存在および他移動体との出会い判定結果を運転者に伝達するための出力データを生成するためのものであり、画像データ生成部41aと、文字データ生成部41bと、表示データ生成部41cと、音声データ生成部41dと、制御データ生成部41eと、を備えている。
(Output data generation unit 41)
The output data generation unit 41 generates output data for transmitting the existence determination result of the other mobile body and the encounter determination result with the other mobile body to the driver based on the determination result by the local map and the
(画像データ生成部41a)
画像データ生成部41aは、他移動体の存在を表示する画像データを生成し、表示データ生成部41cを介して表示装置20に表示させる。
(Image
The image
(文字データ生成部41b)
文字データ生成部41bは、他移動体の存在や、他移動体と自車両Cとの出会い判定結果を表す文字データを生成し、表示データ生成部41cを介して表示装置20に表示させる。
この画像データ生成部41aおよび文字データ生成部41bが、「画像/文字データ生成部」の一例である。
(Character
The character
The image
(表示データ生成部41c)
表示データ生成部41cは、画像データ生成部41aによって生成された画像データと、文字データ生成部41bによって生成された文字データと、に基づいて、表示データを生成し、表示装置20に表示させる。
(Display
The display
(音声データ生成部41d)
音声データ生成部41dは、他移動体の存在や、他移動体と自車両Cとの出会い判定結果を報知する音声データを生成し、スピーカ21に発話させる。
音声データの生成には、予め記憶された文字情報と音声データとの対応関係が利用される。
(Audio
The sound
For the generation of voice data, a correspondence relationship between character information stored in advance and voice data is used.
(制御データ生成部41e)
制御データ生成部41eは、他移動体と自車両Cとの出会い判定結果に基づいて自車両Cの動作を制御する制御データを生成し、車両制御装置22に自車両Cを制御させる。
(
The control
(車両管理装置3)
続いて、車両管理装置3について説明する。図3は、図1の車両管理装置を示すブロック図である。
図3に示すように、車両管理装置3は、制御部50と、入力装置61と、記憶部62と、を備えている。
(Vehicle management device 3)
Next, the
As shown in FIG. 3, the
(制御部50)
制御部50は、車両データ受信部51と、地図マッチング部52と、対象物データ受信部53と、探索開始判定部54と、近傍車両抽出部55と、視野重複判定部56と、情報共有車両決定部57と、情報共有車両通知部58と、他移動体データ通知部59と、を備えている。
(Control unit 50)
The
(車両データ受信部51)
車両データ受信部51は、各車両Cの車載装置2から送信された車両データを受信する。受信された車両データは、地図マッチング部52に出力される。
(Vehicle data receiver 51)
The vehicle
(地図マッチング部52)
地図マッチング部52は、車両データと、記憶部62に記憶された地図データとをマッチングさせる。かかるマッチングによって、車両Cが走行している道路(アーク)、車両Cが向かっている交差点(ノード)が設定される。
(Map matching unit 52)
The
(対象物データ受信部53)
対象物データ受信部53は、移動体を検出した車両Cから、車両IDを付与した対象物データを受信する。受信された車両IDおよび対象物データは、地図マッチング部52によってマッチングされた後、探索開始判定部54に出力される。
(Object data receiving unit 53)
The object
(探索開始判定部54)
探索開始判定部54は、対象物データを送信してきた車両Cに関して、当該車両Cと情報を共有する車両(情報共有車両)の探索を行うか否かを判定する。かかる探索手法についての詳細は後記する。
(Search start determination unit 54)
The search
(近傍車両抽出部55)
近傍車両抽出部55は、地図マッチング部52によってマッチングされた車両データに基づいて、対象物データ受信部53によって受信された対象物データに付与された車両IDに関する車両の近傍に位置する車両Cを抽出する。かかる抽出手法についての詳細は後記する。
(Nearby vehicle extraction unit 55)
The nearby
(視野重複判定部56)
視野重複判定部(撮像領域重複判定部)56は、近傍車両抽出部55によって抽出された車両Cの中から、対象物データを送信してきた車両Cと、それぞれの視野、すなわち、カメラC1,C1による撮像領域が重複するか否か、および、どの程度重複するか、を判定する。なお、視野重複の判定手法についての詳細は後記する。
(View overlap determination unit 56)
The field-of-view overlap determination unit (imaging region overlap determination unit) 56 includes the vehicle C that has transmitted the object data from the vehicle C extracted by the nearby
(情報共有車両決定部57)
情報共有車両決定部57は、近傍車両抽出部55によって抽出された車両Cの中から、対象物データを送信してきた車両Cと情報の共有を行う車両を選択し、これら情報共有車両の組み合わせを決定する。かかる決定において、情報共有車両決定部57は、視野重複判定部56による判定結果を使用することができる。
(Information sharing vehicle determination unit 57)
The information sharing
(情報共有車両通知部58)
情報共有車両通知部58は、情報共有車両決定部57で決定された車両に対して、その旨を通知する。図6の例では、情報共有車両通知部58は、車両C1に車両C2が情報共有車両である旨を通知するとともに、車両C2に車両C1が情報共有車両である旨を通知する。また、情報共有車両通知部58は、移動体を検出した車両C1の車両データを車両C2の車載装置2に通知する。
(Information Sharing Vehicle Notification Unit 58)
The information sharing
(他移動体データ通知部59)
他移動体データ通知部59は、情報共有車両決定部57によって決定された情報共有車両のうち、対象物を検出していない他の車両Cに対して対象物データ(他移動体データ)を通知する。
(Other mobile data notification unit 59)
The other moving body
(入力装置61)
入力装置61は、記憶部62に記憶される各種データ(地図データなど)を入力するための装置である。
(Input device 61)
The
(記憶部62)
記憶部62は、地図データ、各車両Cから送信された車両データ、各車両Cのカメラ情報(カメラ11,11の車体に対する取り付け方向、撮像領域など)、などを記憶している。このうち、地図データは、交差点をノード、各交差点を連結する道路をアークとして設定されたデータである。
(Storage unit 62)
The
(車両間通信システムの第一の動作例)
続いて、車両間通信システム1の第一の動作例について、車載装置2、車両管理装置3の順に説明する。
(First operation example of inter-vehicle communication system)
Next, a first operation example of the
(車載装置の第一の動作例)
まず、車載装置2の動作例について説明する。図4は、車載装置の第一の動作例を説明するためのフローチャートである。
まず、車載装置2と車両管理装置3とが通信可能に接続される(ステップS1)。
続いて、カメラ11,11が画像を取得する(ステップS2)。
続いて、特徴抽出部31が画像の特徴を抽出し、対象物検出部32が、対象物の一種である移動体を検出する(ステップS3)。
続いて、車両データ通知部36が、車両データを車両管理装置3に通知する(ステップS4)。
対象物検出部32によって検出された移動体がある場合には(ステップS5でYes)、対象物データ生成部33が対象物データの一種である移動体データを生成し(ステップS6)、対象物データ通知部34が移動体データを車両管理装置3に通知する(ステップS7)。
続いて、ローカルマップ生成部39が移動体データをローカルマップに統合する(ステップS8)。
なお、ステップS5において、移動体が検出されていない場合には(ステップS5でNo)、ステップS9に移行する。
(First operation example of in-vehicle device)
First, an operation example of the in-
First, the in-
Subsequently, the cameras 11 and 11 acquire images (step S2).
Subsequently, the
Subsequently, the vehicle
When there is a moving object detected by the object detection unit 32 (Yes in step S5), the object
Subsequently, the local
If no moving object is detected in step S5 (No in step S5), the process proceeds to step S9.
続いて、データ受信部37が、車両管理装置3から他移動体データを受信する(ステップS9)。
他移動体データがある場合には(ステップS10でYes)、他移動体データ推定部38が他移動体データを推定し(他移動体推定データを生成し)(ステップS11)、ローカルマップ生成部39が他移動体推定データをローカルマップに統合する(ステップS12)。
そして、出力データ生成部41が出力データを生成し(ステップS13)、生成された出力データを出力し、他移動体の存在を運転者に通知する(ステップS14)。その後、ステップS2に移行し、一連の処理を繰り返す。
なお、ステップS10でNoの場合には、ステップS2に移行し、一連の処理を繰り返す。
なお、ステップS12においてローカルマップに統合された他移動体が、自車両Cおよび自車両Cによって検出された移動体と同一である場合には、ステップS12およびステップS14の処理は省略される。
Subsequently, the
When there is other mobile object data (Yes in step S10), the other mobile object
And the output data generation part 41 produces | generates output data (step S13), outputs the produced | generated output data, and notifies a driver | operator of presence of another moving body (step S14). Then, it transfers to step S2 and repeats a series of processes.
If No in step S10, the process proceeds to step S2 to repeat a series of processes.
In addition, when the other moving body integrated with the local map in step S12 is the same as the moving body detected by the own vehicle C and the own vehicle C, the processes of step S12 and step S14 are omitted.
(車両管理装置の第一の動作例)
続いて、車両管理装置3の第一の動作例について説明する。図5は、車両管理装置の第一の動作例を説明するためのフローチャートである。
まず、車両データ受信部51が、前記したステップS4において各車両Cの車両データ通知部36が通知した車両データを受信する(ステップS21)。
続いて、対象物データ受信部52が、前記したステップS7において車両Cの対象物データ通知部34が通知した移動体データを受信する(ステップS22)。
受信した移動体データがある場合には(ステップS23でYes)、探索開始判定部54が起動し、探索開始の可否を判定する(ステップS24)。
探索を開始した場合には(ステップS25でYes)、近傍車両抽出部55が、対象物データを通知してきた車両Cの近傍に位置する車両を抽出する(ステップ26)。
近傍に車両が存在する場合には(ステップS27でYes)、視野重複判定部56が、車両Cと近傍車両との視野の重複度合いを判定し、情報共有車両決定部57が、この判定結果に基づいて、近傍の車両の中から、移動体データを通知してきた車両Cと情報を共有する車両を決定する(ステップS28)。
車両Cと情報を共有する車両がある場合には(ステップS29でYes)、情報共有車両通知部58が、情報共有車両に決定された各車両にその旨を通知するとともに(ステップS30)、他移動体データ通知部59が、この対象物データを他移動体データとして情報を共有する車両に通知する(ステップS31)。その後、ステップS21に移行し、一連の処理を繰り返す。
なお、ステップS23、S25、S27、S29でNoの場合には、ステップS21に移行し、一連の処理を繰り返す。
(First operation example of vehicle management device)
Then, the 1st operation example of the
First, the vehicle
Subsequently, the object
If there is mobile data received (Yes in step S23), the search
When the search is started (Yes in step S25), the nearby
When there is a vehicle in the vicinity (Yes in step S27), the visual field
When there is a vehicle that shares information with the vehicle C (Yes in step S29), the information sharing
In addition, when it is No in steps S23, S25, S27, and S29, the process proceeds to step S21 and a series of processes is repeated.
(各手法の詳細説明)
続いて、車両C1,C2,C3および移動体Mが図6に示す配置状態であるときを例にとり、探索開始判定部54による情報共有車両の探索開始判定、近傍車両抽出部55による近傍車両の抽出、および、視野重複判定部56による視野重複の判定、の手法についてさらに詳しく説明する。図6は、情報共有車両の探索開始判定、近傍車両の抽出および視野重複の判定の手法の一例を説明するための図である。
(Detailed explanation of each method)
Subsequently, taking the case where the vehicles C1, C2, C3 and the moving body M are in the arrangement state shown in FIG. 6 as an example, the search
(探索開始判定)
まず、車両管理装置3の探索開始判定部54による情報共有車両の探索開始判定の手法の一例について説明する。
図6に示すように、車両管理装置3の記憶部62に記憶された地図データには、道路の交差点(信号)が、ノードNとして設定されている。
探索開始判定部54は、移動体Mを検出した車両C1について、車両C1から送信された車両データに含まれる位置データおよび車両速度データと、地図データにおけるノードNの位置データと、に基づいて、車両C1に関する余裕停止距離Lを算出する。
L = (Tc + Ti)×VC1 +Ls ・・・(1)
ここで、
Tc:通信確立+他車両情報取得に要する時間
Ti:画像処理時間
VC1:車両C1の現在車両速度(ノードNに近づく方向を「正」、ノードNから離れる方向を「負」とする。)
Ls:車両C1の現在車両速度に基づく停止距離
である。
(Search start judgment)
First, an example of a method for determining the search start of the information sharing vehicle by the search
As shown in FIG. 6, a road intersection (signal) is set as a node N in the map data stored in the
The search
L = (Tc + Ti) × V C1 + Ls (1)
here,
Tc: Time required for establishment of communication + acquisition of other vehicle information Ti: Image processing time V C1 : Current vehicle speed of the vehicle C1 (the direction approaching the node N is “positive” and the direction away from the node N is “negative”)
Ls: a stopping distance based on the current vehicle speed of the vehicle C1.
この余裕停止距離Lは、車両間通信システム1の通信などに要する時間を考慮し、車両C1がノードNの手前で停止できる距離である。
探索開始判定部54は、車両C1とノードNとの距離LC1が余裕停止距離L以下となった場合に、車両C1に対する情報共有車両の探索を行うように判定する。すなわち、探索開始判定部54は、移動体Mを検出した車両C1が所定条件でノードN(交差点)に接近している場合に、情報共有車両の探索を開始する必要があると判定する。
なお、停止距離Lsは、天候条件(乾燥路面、湿潤路面)、車両条件(ABSの有無)、タイヤ条件(夏用タイヤ、スタッドレス)などの走行環境によって変化し、これら走行環境と停止距離Lsとの関係が記憶部23に予め記憶されている。そして、走行環境は、車両センサ16または図示しない入力装置から各車両Cの主制御部30に入力され、車両データの一部として車両管理装置3に送信される。
また、走行環境に関するデータ(走行環境データ)を取得する走行環境データ取得部と、走行環境データを車両管理装置3に通知する走行環境データ通知部と、を主制御部30内に備え、走行環境データと車両データとを別に処理する構成であっても良い。
The marginal stop distance L is a distance that allows the vehicle C1 to stop before the node N in consideration of the time required for the communication of the
The search
The stop distance Ls varies depending on the travel environment such as weather conditions (dry road surface, wet road surface), vehicle conditions (with or without ABS), tire conditions (summer tires, studless), and the like. Is stored in the
The
図7は、余裕停止距離を説明するためのグラフである。
図7(a)は、天候条件が「乾燥路面」である場合における、車両条件およびタイヤ条件ごとの停止距離Lsおよび余裕停止距離Lを表すグラフである。図7(b)は、路面条件が「湿潤路面」である場合における、車両条件およびタイヤ条件ごとの停止距離Lsおよび余裕停止距離Lを表すグラフである。
ここで、停止距離Ls1〜Ls4および余裕停止距離L1〜L4の条件設定は、以下の通りである。
Ls1,L1:タイヤ条件「夏用タイヤ装着」、車両条件「ABS付き」
Ls2,L2:タイヤ条件「夏用タイヤ装着」、車両条件「ABS無し」
Ls3,L3:タイヤ条件「スタッドレスタイヤ装着」、車両条件「ABS付き」
Ls4,L4:タイヤ条件「スタッドレスタイヤ装着」、車両条件「ABS無し」
図7(a)(b)に示すように、停止距離Lsは、天候条件(路面条件)によって異なる値をとる。また、それに従い、余裕停止距離Lも天候条件によって異なる。また、停止距離Lsは、天候条件だけでなく、車両条件(ABSの有無)、タイヤ条件(夏用タイヤ、スタッドレスタイヤ)などによっても変化し、記憶部23は、これらの対応関係を記憶している。
そして、記憶部23は、天候条件、車両条件、タイヤ条件などに基づく停止距離Lsを記憶しているとともに、時間Tc,Tiが設定されているため、探索開始判定部54は、これらと車両速度VC1とに基づいて、車両速度VC1を制動初速度とした余裕停止距離Lを算出することができる。
なお、車載装置2は、車両間通信システム1と接続されたカーナビゲーションシステムや、車両Cに搭載された雨滴センサの検出結果から天候条件を取得することができる。
また、車載装置2は、車両CがABS搭載車両である場合には、スリップ検出に基づいて天候条件を判定することもできる。
また、車載装置2は、車両Cのワイパの作動状況に基づいて天候条件を判定することもできる。
また、車載装置2は、図示しない入力装置から車両条件およびタイヤ条件を入力可能である。
FIG. 7 is a graph for explaining the margin stop distance.
FIG. 7A is a graph showing the stop distance Ls and the marginal stop distance L for each vehicle condition and tire condition when the weather condition is “dry road surface”. FIG. 7B is a graph showing the stop distance Ls and the marginal stop distance L for each vehicle condition and tire condition when the road surface condition is “wet road surface”.
Here, the condition settings of the stop distances Ls1 to Ls4 and the margin stop distances L1 to L4 are as follows.
Ls1, L1: Tire condition “Summer tires”, Vehicle condition “With ABS”
Ls2, L2: Tire condition “Summer tire wearing”, Vehicle condition “No ABS”
Ls3, L3: Tire condition “Studless tire wearing”, Vehicle condition “With ABS”
Ls4, L4: Tire condition “Studless tire wearing”, Vehicle condition “No ABS”
As shown in FIGS. 7A and 7B, the stop distance Ls varies depending on the weather conditions (road surface conditions). Accordingly, the marginal stop distance L varies depending on the weather conditions. Further, the stop distance Ls varies depending not only on weather conditions but also on vehicle conditions (with or without ABS), tire conditions (summer tires, studless tires), etc., and the
And since the memory |
The in-
Further, when the vehicle C is an ABS-equipped vehicle, the in-
The in-
The in-
(近傍車両抽出)
続いて、車両管理装置3の近傍車両抽出部55による近傍車両の抽出の手法の一例について説明する。
近傍車両抽出部55は、探索開始判定部54が情報共有車両の探索を開始する必要があると判定した場合に、車両C1の近傍の車両を抽出する。
近傍車両抽出部55は、車両データ受信部51によって受信されて記憶部62に記憶された各車両Cの車両位置データに基づいて、車両C1から所定距離内、すなわち、図6に示す近傍車両抽出領域EA内に位置する他の車両Cを抽出する。ここでは、車両C2および車両C3が抽出される。
このように、情報共有車両の決定の前処理として、近傍車両抽出部55が車両C1の近傍に位置する車両C2,C3を抽出するので、遠方の車両Cを無視することができ、情報共有車両決定における処理を簡略化することができる。
(Nearby vehicle extraction)
Next, an example of a method for extracting a nearby vehicle by the nearby
The nearby
The neighboring
As described above, as the preprocessing for determining the information sharing vehicle, the nearby
(視野重複判定)
続いて、車両管理装置3の視野重複判定部56による視野重複の判定の手法の一例について説明する。
視野重複判定部56は、近傍車両抽出部55が車両C1の近傍の車両C(C2,C3)を抽出した場合に、車両C1の視野DA1と近傍の車両C(C2,C3)の視野DA2,DA3との重複割合を算出する。
そして、情報共有車両決定部57は、記憶部62に記憶された各車両Cのデータ(カメラの撮像領域または移動体検出領域)に基づいて、車両C1の撮像領域DA1の50%以上を自身の撮像領域(ここでは、車両C2の撮像領域DA2が該当する。車両C3の撮像領域DA3は該当しない。)として重複する車両Cを、車両C1と情報を共有する車両に決定する。ここでは、車両C2が車両C1にとっての情報共有車両であり、車両C3は情報共有車両に該当しない。
かかる撮像領域の重複の割合は、適宜設定変更可能である。
また、撮像領域の先端部は、適宜設定変更可能である。この撮像領域の先端部の設定によって、情報共有車両の選出結果を調節可能である。なお、図6以降に図示された撮像領域の大きさと車両との関係は、発明を説明するためにデフォルメされており、実際の関係を正確に表したものではない。
(View overlap determination)
Next, an example of a method for determining the overlap of visual fields by the visual field
When the nearby
Then, based on the data (camera imaging area or moving object detection area) of each vehicle C stored in the
The ratio of overlapping of the imaging regions can be changed as appropriate.
In addition, the setting of the tip of the imaging region can be changed as appropriate. The selection result of the information sharing vehicle can be adjusted by setting the tip of the imaging region. Note that the relationship between the size of the imaging area and the vehicle illustrated in FIG. 6 and subsequent figures is deformed for the purpose of explaining the invention, and does not accurately represent the actual relationship.
(出会い判定)
続いて、出会い判定部40による車両Cと他移動体との出会い判定について説明する。図8は、車両と移動体との出会い判定について説明するための図である。
図8に示すように、車両C1と車両C2とが共通のノード(交差点)Nに向かって走行している。そして、車両C1が移動体Mを撮影している。
車両C2の出会い判定部40は、ローカルマップに基づいて、自車両C2と他移動体MとがノードNを通過する時刻の差Ts(以下、「余裕時間Ts」と記載する。)を算出する。
余裕時間Tsは、下記式(2)によって算出される。
Ts = |LM/VM−LC2/VC2| ・・・(2)
ここで、
LM:他移動体MのノードNまでの距離
VM:他移動体MのノードNに向かう速度
LC2:自車両C2のノードNまでの距離
VC2:自車両C2の車両速度
である。
(Meeting determination)
Subsequently, an encounter determination between the vehicle C and another moving body by the
As shown in FIG. 8, the vehicle C1 and the vehicle C2 are traveling toward a common node (intersection) N. The vehicle C1 is shooting the moving object M.
The
The margin time Ts is calculated by the following equation (2).
Ts = | L M / V M -L C2 / V C2 | ··· (2)
here,
L M: distance to the node N of the other mobile body M V M: other speed towards the node N of the moving object M L C2: distance V to the node N of the vehicle C2 C2: a vehicle speed of the vehicle C2.
すなわち、出会い判定部40は、他移動体Mの移動体位置データ、移動体方向データおよび移動体速度データと、自車両C2の車両位置データ、車両向きデータおよび車両速度データと、地図データにおけるノードNの位置データと、に基づいて、他移動体Mと自車両C2との出会いを判定している。
That is, the
なお、車両C2が走行中の道路の法定速度をV0とし、V1=V0+ΔV0(ΔV0はV0の20%)としたとき、余裕時間Tsおよび前記した余裕停止距離Lの算出において、自車両C2の車両速度VC2として、V0またはV1を代用することも可能である。これは、何らかの理由(例えば、カーブ通過中で減速中など)でその時点での車両速度の実測値が、V1から外れている場合などが考えられ、このような場合には、V0またはV1で算出した方が好ましいと考えられるためである。
そして、車両C2の車両速度VC2がV1よりも大きいとき、文字データ生成部41bが、この旨を伝える文字データを生成し、表示装置20に表示させることもできる。
表示例としては、例えば、「スピードが出過ぎています。」などである。また、音声データ生成部41dが、文字データと同様の内容を伝える音声データを生成し、スピーカ21に発話させることもできる。
When the legal speed of the road on which the vehicle C2 is traveling is V0 and V1 = V0 + ΔV0 (ΔV0 is 20% of V0), the vehicle of the host vehicle C2 is calculated in the calculation of the margin time Ts and the margin stop distance L described above. V0 or V1 can be substituted for the speed V C2 . This may be the case where the actual measured value of the vehicle speed at that time deviates from V1 for some reason (for example, passing through a curve, etc.). In such a case, V0 or V1 This is because the calculation is considered preferable.
When the vehicle speed V C2 of the vehicle C2 is greater than V1, the character
An example of the display is, for example, “Too much speed”. In addition, the voice
出会い判定部40は、余裕時間Tsの値に基づいて、移動体Mと車両C2との出会い可能性を、4段階に分けて判定する。
(1)Ts≧30secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「なし」と判定する。
(2)20sec≦Ts<30secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「小」と判定する。
(3)10sec≦Ts<20secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「中」と判定する。
(4)Ts<10secのときには、出会い判定部40は、移動体Mと車両C2との出会い可能性「大」と判定する。
そして、文字データ生成部41bおよび音声データ生成部41dは、余裕時間Tsの値に基づいて文字データおよび音声データを生成して表示装置20およびスピーカ21に出力し、表1に示す情報を運転者に通知する。
The
(1) When Ts ≧ 30 sec, the
(2) When 20 sec ≦ Ts <30 sec, the
(3) When 10 sec ≦ Ts <20 sec, the
(4) When Ts <10 sec, the
Then, the character
減速指示の例としては、「スピードを落としてください。」が挙げられる。
徐行指示の例としては、「徐行してください。」が挙げられる。
停止指示の例としては、「停止してください。」が挙げられる。
An example of a deceleration instruction is “Please reduce the speed”.
An example of the slowing instruction is “Please slow down”.
An example of a stop instruction is “Please stop”.
他移動体通行方向案内の例としては、「左から自転車が近づいています。」が挙げられる。
他移動体通行状況案内の例としては、「○秒後に前方交差点に自転車が左から進入します。」が挙げられる。
これら運転手への指示と他移動体Mの案内とが、出会い判定部40による判定結果を知らせるデータの一例である。その他、音声データ生成部41dが運転手への指示を含む音声データを生成しても良く、文字データ生成部41bが移動体Mの案内(通行方向案内、通行状況案内)を含む文字データを生成しても良い。
An example of other moving body direction guidance is “a bicycle is approaching from the left”.
As an example of other mobile body traffic situation guidance, “A bicycle enters the front intersection from the left after ○ second”.
These instructions to the driver and guidance of the other moving body M are examples of data that informs the determination result by the
また、余裕時間Tsが5秒以下のとき、制御データ生成部41eが車両制御装置22を駆動してブレーキを利かせ、自車両Cを停止させることが望ましい。
Further, when the margin time Ts is 5 seconds or less, it is desirable that the control
なお、余裕時間Tsが表1に示す範囲内であっても、距離LM,LC2が図7に示す範囲外である場合には、表1に示す警報を発生しないようにすることが望ましい。なお、距離LMを使用するのは、移動体Mが車両である場合であり、自転車、人などの場合は除く。
これは、距離LM,LC2が短すぎる場合(第一の所定値よりも小さい場合)には、警報を発生しても運転者が対応する余裕がなく、却って混乱を招くおそれがあるためである。また、距離LM,LC2が長すぎる場合(第二の所定値よりも大きい場合)には、警報を発生しなくても運転者が対応することが可能であると考えられるためである。この距離LM,LC2の範囲を考慮するか否かは、車両C2、他移動体Mの走行道路によるものであり、その関係を表2に示す。
Even if the margin time Ts is within the range shown in Table 1, it is desirable not to generate the alarm shown in Table 1 if the distances L M and L C2 are outside the range shown in FIG. . The distance L M is used when the moving body M is a vehicle, and is not used for bicycles, people, and the like.
This is because if the distances L M and L C2 are too short (smaller than the first predetermined value), there is no room for the driver to respond even if an alarm is issued, which may cause confusion. It is. Further, when the distances L M and L C2 are too long (larger than the second predetermined value), it is considered that the driver can respond without generating an alarm. Whether or not to consider the ranges of the distances L M and L C2 depends on the traveling road of the vehicle C2 and the other moving body M, and the relationship is shown in Table 2.
また、これら第一の所定値および第二の所定値を走行環境によって変化させる構成であっても良い。この場合には、第一の所定値および第二の所定値と走行環境との関係が記憶部23に予め記憶されていることが望ましい。
Moreover, the structure which changes these 1st predetermined values and 2nd predetermined values with driving | running | working environment may be sufficient. In this case, it is desirable that the relationship between the first predetermined value and the second predetermined value and the travel environment is stored in the
続いて、車両C1および車両C2が情報共有車両に設定された場合を例にとり、車両C2における移動体Mの画像表示について説明する。
図9は、本発明の実施形態に係る車両間通信システムの第一の動作例に基づく作用を説明するための図であり、車両C1、車両C2および移動体Mの配置状態を説明するための図である。図10は、図9の平面図である。図11は、車両C1のカメラによって撮影された画像を示す図である。図12は、車両C2のカメラによって撮影された画像を示す図である。図13は、移動体の画像の補正を説明するための図であり、(a)は補正前を示す図、(b)は補正後を示す図である。図14は、車両C2の表示装置に表示された移動体画像を示す図である。
Subsequently, image display of the moving body M in the vehicle C2 will be described by taking as an example the case where the vehicle C1 and the vehicle C2 are set as information sharing vehicles.
FIG. 9 is a diagram for explaining the operation based on the first operation example of the inter-vehicle communication system according to the embodiment of the present invention, and for explaining the arrangement state of the vehicle C1, the vehicle C2, and the moving body M. FIG. FIG. 10 is a plan view of FIG. FIG. 11 is a diagram illustrating an image captured by the camera of the vehicle C1. FIG. 12 is a diagram illustrating an image captured by the camera of the vehicle C2. FIGS. 13A and 13B are diagrams for explaining correction of an image of a moving body, in which FIG. 13A is a diagram showing before correction, and FIG. 13B is a diagram showing after correction. FIG. 14 is a diagram illustrating a moving body image displayed on the display device of the vehicle C2.
図9および図10に示すように、車両C1は、ノードNに向かって走行している。また、車両C2は、車両C2とは別の道(アーク)においてノードNに向かって走行している。また、移動体Mは、車両C1と同じ道(アーク)においてノードNに向かって走行している。
図11に示すように、車両C1のカメラ11,11は、移動体Mを撮影しており、対象物検出部32が、移動体Mに関する移動体画像MIを検出している。
また、図12に示すように、車両C2のカメラ11,11は、建物Bが障害となり、移動体Mを撮影することができていない。
そこで、車両C1の対象物検出部32によって撮影された移動体画像MIが、車両管理装置3を介して車両C2の車載装置2に送信される。車両C2の画像データ生成部41aは、車両C1の車両位置データと、車両C2の車両位置データと、移動体(他移動体)Mの相対位置データと、に基づいて、図13(b)に示す補正された他移動体画像MI’を生成する。ここで、車両C1の車両位置データを利用するのは、車両C1,C2の位置関係によって補正の仕方(反転の有無など)が変わるためである。そして、車両C2の画像データ生成部41aは、カメラ11,11が撮影した画像と、他移動体画像MI’とを合成した画像データを生成し、図14に示すように、表示装置20に表示させる。ここで、画像データ生成部41aは、他移動体画像MI’の合成位置は、他移動体推定データに基づいて決定しており、建物Bがないと仮定した場合に車両C2のカメラ11,11が移動体Mを直接撮像したのに似た画像データを生成している。
このようにすることで、車両C2が検出できなかった移動体Mを、車両C2の表示装置20に表示させ、車両C2の運転者に知らせることができる。
As shown in FIGS. 9 and 10, the vehicle C <b> 1 is traveling toward the node N. Further, the vehicle C2 travels toward the node N on a road (arc) different from the vehicle C2. In addition, the moving body M is traveling toward the node N on the same road (arc) as the vehicle C1.
As shown in FIG. 11, the cameras 11 and 11 of the vehicle C <b> 1 photograph the moving object M, and the
Further, as shown in FIG. 12, the cameras 11 and 11 of the vehicle C <b> 2 cannot capture the moving body M because the building B becomes an obstacle.
Therefore, the moving body image MI photographed by the
By doing in this way, the moving body M which the vehicle C2 was not able to detect can be displayed on the
また、車両C2の音声データ生成部41dは、他移動体Mの存在を音声で知らせるための音声データを生成し、スピーカ21に発話させる。
発話例としては、「左前方に自転車がいます。」などである。
このようにすることで、車両C2が検出できなかった移動体Mを、車両C2の運転者に音声で知らせることができる。
In addition, the sound
An example of an utterance is “There is a bicycle in the left front”.
By doing in this way, the moving body M which the vehicle C2 was not able to detect can be notified to the driver of the vehicle C2 by voice.
また、文字データ生成部41bは、出会い判定部40の判定結果を文字として表示装置20に表示させる。
また、音声データ生成部41dは、出会い判定部40の判定結果を音声としてスピーカ21に発話させる。
Moreover, the character
In addition, the voice
(タイミングチャート)
図15は、車両間通信システムの第一の動作例に基づく通信例を示すタイミングチャートである。
まず、車両C1の車載装置2が、前方の画像について特徴抽出および対象物検出を行う。そして、車両C1の車載装置が、対象物データの一種である移動体データを車両管理装置3に送信する。
移動体データを受信した車両管理装置3は、探索開始判定、近傍車両抽出、視野重複判定および情報共有車両決定を順に行い、情報共有車両に決定された車両C(ここでは、車両C2,C3)に他移動体データおよび情報共有連絡信号を送信する。
他移動体データを受信した車両C2,C3の車載装置2は、他移動体データに関して、ローカルマップ統合、画像補正、画像表示を順に行う。
そして、一旦情報共有車両として決定されると、その後、車両管理装置3は、探索開始判定、近傍車両抽出、情報共有車両決定を省略することもできる。なお、これらを省略しない構成も可能である。
また、車両C2,C3の車載装置2は、自身のカメラ11,11が他移動体を撮像するようになったときに、通信切断信号を車両管理装置3へ送信する。かかる通信切断信号は、対象物データ通知部34によって生成、出力される。
また、車両管理装置3が、車両C1と車両C2,C3との撮像領域の重複がなくなったときに、通信切断信号を車両C1,C2,C3の車載装置2へ送信する構成であっても良い。
(Timing chart)
FIG. 15 is a timing chart illustrating a communication example based on the first operation example of the inter-vehicle communication system.
First, the in-
The
The in-
And once it determines as an information sharing vehicle, the
The in-
Further, the
前記したように、車両間通信システム1は、車両C2の車載装置2が、自身で検出できなかった移動体Mについてのデータを車両C1から受信することで、車両C2の表示装置20に移動体Mを表示することができ、車両C2のスピーカ21に移動体Mの存在および存在位置を発話させることができる。
また、車両間通信システム1は、車両C2と移動体Mとの出会い判定を行い、その判定結果を車両C2の表示装置20およびスピーカ21に出力することができる。
したがって、車両間通信システム1は、車両C2のカメラ11,11が撮像できなかった移動体Mの存在および存在位置を、画像、文字、音声の少なくとも一つを用いて車両C2の運転者に知らせることができる。
また、車両間通信システム1は、移動体Mと車両C2とが出会う可能性を、画像、文字、音声の少なくとも一つを用いて車両C2の運転者に知らせることができる。
As described above, in the
Further, the
Therefore, the
Further, the
(車両間通信システムの第二の動作例)
続いて、車両間通信システム1の第二の動作例について説明する。なお、車両管理装置3の動作例は、図5に示したものと同一であるため、車載装置2の動作例のみについて説明する。
(Second operation example of inter-vehicle communication system)
Next, a second operation example of the
(車載装置の第二の動作例)
車載装置2の第二の動作例について説明する。図16は、車載装置の第二の動作例を説明するためのフローチャートである。
まず、対象物データ通知部34がフラグを「0」に設定する(ステップS41)。
このフラグは、車両Cの車載装置2の通信相手を定めるものであり、フラグが「0」のときには、車載装置2と車両管理装置3とが接続される。また、フラグが「1」のときには、車載装置2と車両管理装置3とが切断されるとともに、自車両Cの車載装置2と他の車両Cの車載装置2とが接続される。これら通信接続/切断は、公知の技術により行われる。
(Second operation example of in-vehicle device)
A second operation example of the in-
First, the object
This flag determines the communication partner of the in-
ステップS42〜ステップS48は、図4のステップS2〜ステップS8と同一動作であるので、説明を省略する。 Steps S42 to S48 are the same as steps S2 to S8 in FIG.
ステップS48までの処理終了後、フラグが「0」である場合には(ステップS49でNo)、データ受信部37が、車両管理装置3から他移動体データおよび情報共有車両通知信号を受信する(ステップS50)。
情報共有車両がある場合には(ステップS51でYes)、対象物データ通知部34がフラグを「1」に設定する(ステップS52)。
また、ステップS49でYesの場合には、データ受信部37が、情報共有車両から他移動体データを受信する(ステップS53)。
そして、ステップS52またはステップS53の後、他移動体データがある場合には(ステップS54でYes)、ステップS55〜ステップS58を行う。これらステップS55〜ステップS58は、図4のステップS11〜ステップS14と同一動作であるので、説明を省略する。
ステップS54でNoの場合には、対象物データ通知部34がフラグを「0」に設定する(ステップS59)。ステップS51でNoの場合、ステップS58の処理後およびステップS59の処理後には、ステップS42に移行し、一連の処理を繰り返す。
If the flag is “0” after the processing up to step S48 is completed (No in step S49), the
If there is an information sharing vehicle (Yes in step S51), the object
Further, in the case of Yes in step S49, the
And after step S52 or step S53, when there exists other mobile body data (it is Yes at step S54), step S55-step S58 are performed. Steps S55 to S58 are the same as steps S11 to S14 in FIG.
In the case of No in step S54, the object
このようにすることで、一旦情報共有車両として設定された車両同士は、その後車両管理装置3を介さずに通信することができる。したがって、他移動体データの通信に要する時間を短縮することができる。
By doing in this way, vehicles once set as information sharing vehicles can communicate without going through
(車両間通信システムの第三の動作例)
続いて、車両間通信システム1の第三の動作例について説明する。図17は、車両間通信システムの第三の動作例を説明するためのフローチャートである。なお、第三の動作例は、図9および図10に示す状況に適用される。
車両C2がノード(交差点)Nに接近しているときに、探索開始判定部54が、各車両Cから送信された車両データに基づいて、探索を行うと判定し(ステップS61でYes)、近傍車両抽出部55が、同一ノードNに接近する車両があるかを判定する(ステップS62)。
近傍車両抽出部55が車両C1を抽出すると(ステップS62でYes)、情報共有車両決定部56が車両C1,C2を情報共有車両に決定し、情報共有車両通知部58が、情報共有連絡信号を車両C1,C2に通知する。
そして、車両C1の近傍に移動体Mがいる場合には(ステップS63でYes)、車両C1の対象物検出部32が移動体Mを検出し(ステップS64)、車両C1の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS65)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS66)。
(Third operation example of the inter-vehicle communication system)
Subsequently, a third operation example of the
When the vehicle C2 is approaching the node (intersection) N, the search
When the nearby
And when the moving body M exists in the vicinity of the vehicle C1 (it is Yes at step S63), the target
And the
なお、第三の動作例以降の動作例においても、音声による移動体Mの位置の通知や、音声、画像および文字のいずれかによる出会い判定結果の通知を行うことができる。 In the operation examples after the third operation example, the position of the moving body M can be notified by voice, and the encounter determination result can be notified by any of voice, image, and characters.
(車両間通信システムの第四の動作例)
続いて、車両間通信システム1の第四の動作例について説明する。図18は、車両間通信システムの第四の動作例の状況説明図である。図19は、車両間通信システムの第四の動作例を説明するためのフローチャートである。
第四の動作例は、図18に示すように、トラックなどの大型車である車両C4が交差点に進入している場合に適用される。車両C4の車載装置2は、その前方、後方、左側方および右側方を撮影するためのカメラを備えており、撮像領域DA41,DA42,DA43,DA44を撮影可能となっている。
まず、探索開始判定部54が、車両C2がノードに接近していると判定すると(ステップS81でYes)、近傍車両抽出部55が、車両C2の前方に車両があるか否かを判定する(ステップS82)。
そして、車両C2の近傍に車両C4がいる場合には(ステップS82でYes)、情報共有車両決定部56が車両C2,C4を情報共有車両に決定し、情報共有車両通知部57が、情報共有連絡信号を車両C2,C4に通知する。
そして、車両C4の近傍に移動体Mがいる場合には(ステップS83でYes)、車両C4の対象物検出部32が移動体Mを検出し(ステップS84)、車両C4の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS85)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS86)。
(Fourth operation example of the inter-vehicle communication system)
Next, a fourth operation example of the
As shown in FIG. 18, the fourth operation example is applied when a vehicle C4 that is a large vehicle such as a truck enters an intersection. The in-
First, when the search
When the vehicle C4 is in the vicinity of the vehicle C2 (Yes in step S82), the information sharing
And when the moving body M exists in the vicinity of the vehicle C4 (it is Yes at step S83), the target
And the
なお、ステップS81における交差点への接近判定のかわりに、横断歩道への接近判定を行っても良い。
また、ステップS81、ステップS82の判定に、車両C2の車載装置2における対象物検出部32の検出結果を利用しても良い。
また、この第四の動作例以降の動作例においては、情報共有車両決定部56は、撮影領域の重複を判断することなく情報共有車両を決定することができる。
In addition, you may perform the approach determination to a pedestrian crossing instead of the approach determination to an intersection in step S81.
Moreover, you may utilize the detection result of the target
Further, in the operation examples after the fourth operation example, the information sharing
(車両間通信システムの第五の動作例)
続いて、車両間通信システム1の第五の動作例について説明する。図20は、車両間通信システムの第五の動作例の状況説明図である。図21は、車両間通信システムの第五の動作例を説明するためのフローチャートである。
第五の動作例は、図20に示すように、車両C2の対向車線側にバスである車両C5がバス停BSに停車している場合に適用される。車両C5の車載装置2は、その前方および後方を撮影するためのカメラを備えており、撮像領域DA51,DA52を撮影可能となっている。
まず、探索開始判定部54が、車両C2が車両C5とすれ違おうとしていると判定し(ステップS101でYes)、かつ、車両C5が停車中であると判定すると(ステップS101でYes)、情報共有車両決定部56が車両C2,C5を情報共有車両に決定する。
そして、車両C5の近傍に移動体Mがいる場合には(ステップS103でYes)、車両C5の対象物検出部32が移動体Mを検出し(ステップS104)、車両C5の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS106)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS106)。
(Fifth operation example of inter-vehicle communication system)
Next, a fifth operation example of the
As shown in FIG. 20, the fifth operation example is applied when the vehicle C5, which is a bus, stops at the bus stop BS on the opposite lane side of the vehicle C2. The in-
First, when the search
When the moving body M is in the vicinity of the vehicle C5 (Yes in step S103), the
And the
(車両間通信システムの第六の動作例)
続いて、車両間通信システム1の第六の動作例について説明する。図22は、車両間通信システムの第六の動作例の状況説明図である。図23は、本発明の実施形態に係る車両間通信システムの第七の動作例を説明するためのフローチャートである。
第六の動作例は、図22に示すように、車両C2がバス停BSに停車中のバスである車両C5を追い越そうとする場合に適用される。
まず、探索開始判定部54が、車両C2が車両C5を追い越そうとしていると判定すると(ステップS121でYes)、情報共有車両決定部56が車両C2,C5を情報共有車両に決定する。
そして、車両C5の近傍に移動体Mがいる場合には(ステップS122でYes)、車両C5の対象物検出部32が移動体Mを検出し(ステップS123)、車両C5の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS124)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS125)。
(Sixth operation example of inter-vehicle communication system)
Subsequently, a sixth operation example of the
As shown in FIG. 22, the sixth operation example is applied when the vehicle C2 tries to pass the vehicle C5 that is a bus stopped at the bus stop BS.
First, when the search
And when the moving body M exists in the vicinity of the vehicle C5 (Yes in step S122), the target
And the
(車両間通信システムの第七の動作例)
続いて、車両間通信システム1の第七の動作例について説明する。図24は、車両間通信システムの第七の動作例の状況説明図である。図25は、車両間通信システムの第七の動作例を説明するためのフローチャートである。
第七の動作例は、図24に示すように、車両C2の同一車線前方にトラックなどの大型車である車両C4が走行している場合に適用される。
まず、探索開始判定部54が、車両C4が車両C2の前方を走行していると判定すると(ステップS141でYes)、情報共有車両決定部56が車両C2,C4を情報共有車両に決定する。
そして、車両C4の近傍に移動体Mがいる場合には(ステップS142でYes)、車両C4の対象物検出部32が移動体Mを検出し(ステップS143)、車両C4の対象物データ通知部34が移動体Mに関する移動体データを車両C2の車載装置2に通知する(ステップS144)。
そして、車両C2の表示装置20が移動体Mを表示する(ステップS145)。
(Seventh operation example of inter-vehicle communication system)
Subsequently, a seventh operation example of the
As shown in FIG. 24, the seventh operation example is applied when a vehicle C4, which is a large vehicle such as a truck, is traveling in front of the same lane of the vehicle C2.
First, when the search
If the moving object M is in the vicinity of the vehicle C4 (Yes in step S142), the
And the
(第八の動作例)
続いて、車両間通信システム1の第八の動作例について説明する。第八の動作例は、前記した第五ないし第七の動作例と組み合わせて実施可能であり、また、第五ないし第七の動作例と同一状況において、第八の動作例を単独で実施することも可能である。ここでは、第八の動作例を第五の動作例と同一状況で単独に実施した場合を例にとって説明する。
図26は、車両間通信システムの第八の動作例を説明するための状況説明図である。図27および図28は、車両間通信システムの第八の動作例を示すフローチャートである。
なお、図26では、各車両の撮像領域を省略している。また、記憶部23,62に記憶された地図データには、ノードN同士を繋ぐアークArが道路中央に設定されており、車両間通信システム1は、このアークArを利用する。
(Eighth operation example)
Next, an eighth operation example of the
FIG. 26 is a situation explanatory diagram for explaining an eighth operation example of the inter-vehicle communication system. 27 and 28 are flowcharts showing an eighth operation example of the inter-vehicle communication system.
In FIG. 26, the imaging area of each vehicle is omitted. Further, in the map data stored in the
まず、車両C4の対象物検出部32が移動体Mを検出すると(ステップS161でYes)、車両管理装置3の情報共有車両決定部57は、近傍車両抽出部55によって抽出された車両Cの中から情報共有車両を決定する。そして、情報共有車両に決定された車両C5,C2間で通信を行う。ここでは、車両C5に関する各種データと移動体Mに関する各種データとが、車両C5の車載装置2から車両C2の車載装置2に送信される。そして、車両C2の車載装置2は、検出された移動体Mの数iの分だけ、ステップS162〜ステップS172の処理を行うループに入る。なお、図26には、一つの移動体Mのみが図示されている。
First, when the
そして、i番目の移動体Mが車両C2とアークArを共有している場合には(ステップS163でYes)、車両C2の出会い判定部40が、i番目の移動体Mの現在位置とアークArとが直交する点Pの位置を算出する(ステップS164)。なお、ステップS163でNoの場合には、次の移動体Mについての処理に移行する。
そして、車両C5と車両C2との距離dが所定距離ε(例えば、ε=50m)よりも短い場合には(ステップS165でYes)、j番目の車両C2の出会い判定部40が、j番目の車両C4とアークArとが直交する点Qの位置を算出する(ステップS166)。
そして、車両C2の出会い判定部40が、車両C2が点Pに到達するのに要する時間tpを算出する(ステップS167)。時間tPは、下記式(3)によって算出される。
tp=|Q−P|/VC2−α ・・・(3)
(αはマージン。車両C2が加速する場合を考慮し、車両C2が点Pにやや早く到達することを想定している。)
そして、i番目の移動体Mの移動速度VMがほぼ0(例えば、時速2km以下)のときには(ステップS168でYes)、出会い判定部40は、移動体Mの現在位置と点Pとの距離dMPが条件式(4)を満たすか否かを判定する(ステップS169)。
dMP<Vmax×tp ・・・(4)
(Vmaxは、移動体Mの最大速度であり、移動体Mの種類ごとに予め記憶部23に記憶されている。)
距離dMPが条件式(4)を満たす場合には(ステップS169でYes)、画像データ生成部41aが移動体Mを表示する画像データを生成するとともに、音声データ生成部41dが移動体Mとの出会い可能性に基づく警報(減速指示、徐行指示など)を知らせる音声データを生成する。これらのデータは、表示装置20およびスピーカ21を介して運転者に通知される(ステップS170)。
距離dMPが条件式(4)を満たさない場合には(ステップS169でNo)、画像データ生成部41aが移動体Mを表示する画像データを生成する。画像データは、表示装置20を介して運転者に通知される(ステップS171)。
When the i-th moving body M shares the arc Ar with the vehicle C2 (Yes in step S163), the
When the distance d between the vehicle C5 and the vehicle C2 is shorter than a predetermined distance ε (eg, ε = 50 m) (Yes in step S165), the
Then, the
tp = | Q−P | / V C2 −α (3)
(Α is a margin. Considering the case where the vehicle C2 is accelerated, it is assumed that the vehicle C2 reaches the point P slightly earlier.)
Then, the moving speed of the i-th mobile M V M is nearly zero (e.g., per hour 2km or less) when the (Yes at step S168), the
d MP <V max × tp (4)
(V max is the maximum velocity of the moving body M, which is stored in advance in the
When the distance d MP satisfies the conditional expression (4) (Yes in step S169), the image
When the distance d MP does not satisfy the conditional expression (4) (No in step S169), the image
また、ステップS168でNoの場合には、移動体Mの未来位置である点Mfを算出する(ステップS181)。この点Mfの算出は、例えば、カルマンフィルタによる移動体Mの位置推定を tP/Δt 回(ここで、Δtはカルマンフィルタの計算サイクルタイム)繰り返し実施することによって行われる。
そして、出会い判定部40は、点Mと点Mfとを結ぶ線分LMMfとアークArとが交わるか否かを判定する(ステップS182)。
Further, in the case of No in step S168, a point Mf that is the future position of the moving object M is calculated (step S181). The calculation of the point Mf is performed, for example, by repeatedly performing the position estimation of the moving object M by the Kalman filter t p / Δt times (where Δt is the calculation cycle time of the Kalman filter).
Then, the
ステップS182でYesの場合には、画像データ生成部41aが移動体Mを表示する画像データを生成するとともに、音声データ生成部41dが移動体Mとの出会い可能性に基づく警報(減速指示、徐行指示など)を知らせる音声データを生成する。これらのデータは、表示装置20およびスピーカ21を介して運転者に通知される(ステップS183)。
ステップS182でNoの場合には、画像データ生成部41aが移動体Mを表示する画像データを生成する。画像データは、表示装置20を介して運転者に通知される(ステップS183)。
In the case of Yes in step S182, the image
In the case of No in step S182, the image
このように、移動体Mの移動速度VMの値によって、その後の処理を変えたのは、以下の理由による。
移動体Mの移動速度VMがほぼゼロの場合には、移動体Mのその後の移動を推定しにくい。そのため、車両C2の車載装置2は、移動体Mが車両C2と出会う方向へ最速移動を行うことを想定した処理を行う。
また、移動体Mの移動速度VMがある程度大きい(ゼロではない)場合には、移動体Mのその後の移動を推定しやすい。そのため、車両C2の車載装置2は、かかる推定を利用した処理を行う。
Thus, the value of the moving speed V M of the moving object M, for changing the subsequent processing for the following reason.
If the moving speed V M is approximately zero moving object M is difficult to estimate the subsequent movement of the moving body M. Therefore, the in-
Further, when the moving speed V M of the moving object M is large to some extent (non-zero), it is easy to estimate the subsequent movement of the moving body M. Therefore, the in-
なお、ステップS170,S171,S183,S184において、車載装置2は、文字情報による運転者への通知を使用することもできる。
In addition, in step S170, S171, S183, S184, the vehicle-mounted
また、車両C2の後続車両Cがある場合には、車両管理装置3の情報共有車両決定部57によって決定された情報共有車両ごとにこれらの処理を行うこともできる。
Further, when there is a succeeding vehicle C of the vehicle C2, these processes can be performed for each information sharing vehicle determined by the information sharing
なお、第八の動作例を単独実施する場合は、第五ないし第七の動作例と組み合わせて実施する場合と比較して、移動体Mを検出した場合にのみ近傍車両の抽出を行えば良く、システムの処理速度を高めることができる。 In the case of performing the eighth operation example alone, it is only necessary to extract a nearby vehicle only when the moving object M is detected, as compared to the case of combining with the fifth to seventh operation examples. , Can increase the processing speed of the system.
以上、本発明の実施形態について説明したが、本発明は前記した各実施形態に限定されず、本発明の要旨を逸脱しない範囲で適宜設計変更可能である。
例えば、車両管理装置3が出会い判定部を備えている構成であってもよい。
また、車両管理装置3の構成の一部または全部を、各車両の車載装置2に組み込んだ構成であっても良く、車載装置2の主制御部30内の構成の一部または全部を、車両管理装置3に組み込んだ構成であっても良い。また、車両位置データ検出手段は、GPS受信器に限定されない。また、各種データは、それと同一の意味を持つ物理量によるデータに置換可能である。
また、撮像領域の設定や、近傍車両抽出領域EAの広さは、適宜設定可能である。
また、移動体Mの画像の代わりに、移動体Mを表すマークや合成画像を表示装置に表示させる構成であっても良い。
また、当該車両のカメラが撮影した画像に他の車両のカメラが撮影した移動体画像を合成するだけでなく、カーナビゲーションシステムによる地図画像に他の車両のカメラが撮影した移動体画像を合成する構成であっても良い。
また、画像データ生成部が出会い判定部の判定結果を表示するための画像データを生成し、出力する構成であっても良い。さらには、文字データ生成部および画像データ生成部が出会い判定結果を表示するための文字データおよび画像データを生成し、文字および画像によって出会い判定結果を運転者に知らせる構成であっても良い。
また、ローカルマップ生成部39などによる各種データの推定(現在データへの変換)は、適宜設定可能である。
As mentioned above, although embodiment of this invention was described, this invention is not limited to each above-mentioned embodiment, In the range which does not deviate from the summary of this invention, a design change is possible suitably.
For example, the
Further, a part or all of the configuration of the
In addition, the setting of the imaging area and the size of the nearby vehicle extraction area EA can be set as appropriate.
Further, instead of the image of the moving body M, a mark representing the moving body M or a composite image may be displayed on the display device.
In addition to combining the moving body image captured by the camera of the other vehicle with the image captured by the camera of the vehicle, the moving body image captured by the camera of the other vehicle is combined with the map image by the car navigation system. It may be a configuration.
The image data generation unit may generate and output image data for displaying the determination result of the encounter determination unit. Furthermore, the character data generation unit and the image data generation unit may generate character data and image data for displaying the encounter determination result, and notify the driver of the encounter determination result using the character and the image.
In addition, various data estimation (conversion to current data) by the local
1 車両間通信システム
2 車載装置
3 車両管理装置
11 カメラ
13 ジャイロセンサ
14 GPS検出器
20 表示装置
23 スピーカ
32 対象物検出部
33 対象物データ生成部
35 車両データ生成部
41a 画像データ生成部
41b 文字データ生成部
41d 音声データ生成部
41e 制御データ生成部
54 探索開始判定部
55 近傍車両抽出部
57 情報共有車両決定部
62 記憶部
DESCRIPTION OF
Claims (7)
車両ごとに設けられた、当該車両の周囲を撮像する撮像手段と、
前記撮像手段によって撮像された画像から移動体を検出する移動体検出部と、
車両ごとに設けられた発音手段と、
車両ごとに設けられた、前記車両の前記発音手段に出力する音声データを生成する音声データ生成部と、
車両ごとに設けられた、データの送受信を行う送受信手段と、
車両ごとに設けられた、当該車両と、他の車両の前記移動体検出部によって検出された移動体と、が出会うか否かを判定する出会い判定部と、
車両ごとに設けられた、前記車両の位置に関する車両位置データを検出する車両位置データ検出手段と、
車両ごとに設けられた、前記撮像手段によって撮像された画像から前記移動体の位置に関する移動体位置データを生成する移動体位置データ生成部と、
前記撮像手段によって撮像された移動体に関する情報を共有する車両の組み合わせを決定する情報共有車両決定部と、
前記撮像手段の撮像領域が記憶された記憶部と、
を備え、
一の車両の前記音声データ生成部は、一の車両の前記出会い判定部によって生成された判定結果を知らせる音声データを生成し、一の車両の前記発音手段に出力し、
一の車両の前記出会い判定部は、一の車両の前記車両位置データ検出手段によって検出された一の車両の前記車両位置データと、他の車両の前記移動体位置データ生成部によって生成された前記移動体位置データと、に基づいて出会い判定を行い、
前記情報共有車両決定部は、前記車両位置データ検出手段によって検出された前記車両位置データと、前記記憶部に記憶された前記撮像手段の撮像領域に基づいて、前記撮像領域が所定割合以上重なっている車両同士を、前記した一の車両及び他の車両として組み合わせる
ことを特徴とする車両間通信システム。 An inter-vehicle communication system in which vehicles communicate with each other,
Imaging means provided for each vehicle for imaging the surroundings of the vehicle;
A moving body detection unit that detects a moving body from an image captured by the imaging unit;
Pronunciation means provided for each vehicle;
An audio data generating unit that generates audio data to be output to the sounding means of the vehicle, provided for each vehicle;
Transmission / reception means for transmitting / receiving data provided for each vehicle;
An encounter determination unit that determines whether or not the vehicle and the moving body detected by the moving body detection unit of another vehicle meet each other, provided for each vehicle;
Vehicle position data detecting means for detecting vehicle position data relating to the position of the vehicle provided for each vehicle;
A moving body position data generating unit that generates moving body position data related to the position of the moving body from an image captured by the imaging means, provided for each vehicle;
An information sharing vehicle determination unit that determines a combination of vehicles that share information on the moving object imaged by the imaging means;
A storage unit storing an imaging area of the imaging means;
With
The sound data generation unit of one vehicle generates sound data that informs the determination result generated by the encounter determination unit of one vehicle, and outputs the sound data to the sound generation unit of one vehicle,
The encounter determination unit of one vehicle is generated by the vehicle position data of one vehicle detected by the vehicle position data detection unit of one vehicle and the moving body position data generation unit of another vehicle. Based on the mobile object position data, make an encounter determination,
The information sharing vehicle determining unit is configured to overlap the imaging region by a predetermined ratio or more based on the vehicle position data detected by the vehicle location data detecting unit and the imaging region of the imaging unit stored in the storage unit. A vehicle-to-vehicle communication system characterized by combining existing vehicles as one vehicle and another vehicle described above.
前記探索開始判定部が情報を共有する車両の探索を開始すると判定した場合に、前記情報共有車両決定部が情報を共有する車両の組み合わせを決定する
ことを特徴とする請求項1に記載の車両間通信システム。 A search start determination unit that determines whether or not to start searching for a vehicle that shares information;
The vehicle according to claim 1 , wherein when the search start determination unit determines to start searching for a vehicle that shares information, the information sharing vehicle determination unit determines a combination of vehicles that share information. Communication system.
前記情報共有車両決定部は、前記探索開始判定部が当該車両に対する情報共有車両の探索を開始すると判定した場合に、当該車両と情報を共有する車両を決定する
ことを特徴とする請求項2に記載の車両間通信システム。 The search start determination unit determines whether or not to start searching for an information sharing vehicle for the vehicle when the moving body detection unit of the vehicle detects a moving body,
The information sharing vehicle determination unit, when the search start determination unit determines that starts searching for the information sharing vehicle with respect to the vehicle, to claim 2, characterized in that determining a vehicle to share the vehicle and information The vehicle-to-vehicle communication system described.
前記探索開始判定部は、前記車両位置データと、前記地図データと、に基づいて、前記車両が前記地図データにおけるノードに接近しているか否かを判定し、
前記情報共有車両決定部は、前記探索開始判定部が前記車両が前記ノードに接近していると判定した場合に、当該車両と情報を共有する車両を決定する
ことを特徴とする請求項3に記載の車両間通信システム。 The storage unit further stores map data,
The search start determination unit determines whether the vehicle is approaching a node in the map data based on the vehicle position data and the map data.
The information sharing vehicle determination unit, when the search start determination unit determines that the vehicle is approaching to the node, to claim 3, characterized in that determining a vehicle to share the vehicle and information The vehicle-to-vehicle communication system described.
前記情報共有車両決定部は、前記近傍車両抽出部によって抽出された車両の中から、情報を共有する車両を決定する
ことを特徴とする請求項4に記載の車両間通信システム。 Further comprising a nearby vehicle extraction unit for extracting a vehicle located in the vicinity of the vehicle;
The inter-vehicle communication system according to claim 4 , wherein the information sharing vehicle determination unit determines a vehicle that shares information from among the vehicles extracted by the neighboring vehicle extraction unit.
前記探索開始判定部は、車両速度に応じた停止距離に基づいて、探索開始を判定する
ことを特徴とする請求項2から請求項5のいずれか一項に記載の車両間通信システム。 The storage unit further stores a relationship between the vehicle speed and the stop distance,
The inter-vehicle communication system according to any one of claims 2 to 5, wherein the search start determination unit determines a search start based on a stop distance according to a vehicle speed.
ことを特徴とする請求項6に記載の車両間通信システム。 The inter-vehicle communication system according to claim 6 , wherein the stop distance is corrected based on a traveling environment.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005105451A JP4686236B2 (en) | 2005-03-31 | 2005-03-31 | Inter-vehicle communication system |
US11/365,914 US7778770B2 (en) | 2005-03-31 | 2006-03-02 | Communication system between vehicles |
KR1020060028036A KR100885738B1 (en) | 2005-03-31 | 2006-03-28 | Communication system between vehicles |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005105451A JP4686236B2 (en) | 2005-03-31 | 2005-03-31 | Inter-vehicle communication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006285695A JP2006285695A (en) | 2006-10-19 |
JP4686236B2 true JP4686236B2 (en) | 2011-05-25 |
Family
ID=37407550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005105451A Expired - Fee Related JP4686236B2 (en) | 2005-03-31 | 2005-03-31 | Inter-vehicle communication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4686236B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5041099B2 (en) * | 2009-02-27 | 2012-10-03 | トヨタ自動車株式会社 | Vehicle relative position estimation device and vehicle relative position estimation method |
WO2011089641A1 (en) * | 2010-01-20 | 2011-07-28 | 三菱電機株式会社 | Radio communication device |
JP6657612B2 (en) * | 2015-01-26 | 2020-03-04 | 株式会社リコー | Information processing apparatus, information processing system, and program |
JP7523223B2 (en) * | 2020-02-04 | 2024-07-26 | 株式会社デンソーテン | Information processing device, distribution system, and information processing method |
JP7477980B2 (en) * | 2020-02-04 | 2024-05-02 | 株式会社デンソーテン | Information processing device, management server, distribution system, and information processing method |
JP2021124928A (en) * | 2020-02-04 | 2021-08-30 | 株式会社デンソーテン | Information processing device, distribution system, and information processing method |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644498A (en) * | 1992-07-23 | 1994-02-18 | Mazda Motor Corp | Information transmission device for vehicle |
JPH1079100A (en) * | 1996-09-04 | 1998-03-24 | Oki Electric Ind Co Ltd | Device for preventing collision |
JP2000046574A (en) * | 1998-07-24 | 2000-02-18 | Honda Motor Co Ltd | Navigation device for vehicle |
JP2000242898A (en) * | 1999-02-22 | 2000-09-08 | Equos Research Co Ltd | Peripheral vehicle notification device |
JP2001101566A (en) * | 1999-09-30 | 2001-04-13 | Toshiba Corp | Traffic safety confirming system |
JP2002117494A (en) * | 2000-10-11 | 2002-04-19 | Honda Motor Co Ltd | Peripheral information display device |
JP2002157684A (en) * | 2000-11-21 | 2002-05-31 | Honda Motor Co Ltd | On-vehicle display device |
JP2003006797A (en) * | 2001-06-21 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Surrounding image display device and image distribution method |
JP2003016595A (en) * | 2001-06-27 | 2003-01-17 | Fujitsu Ten Ltd | Traveling support device |
JP2004171153A (en) * | 2002-11-18 | 2004-06-17 | Mazda Motor Corp | Vehicular information providing device |
JP2005005978A (en) * | 2003-06-11 | 2005-01-06 | Denso Corp | Surrounding condition recognition system |
JP2005032010A (en) * | 2003-05-09 | 2005-02-03 | Fujitsu Ten Ltd | Vehicle communication system, vehicle communication method, on-vehicle communication equipment, vehicle communication managing device and vehicle information collecting device |
JP2006215911A (en) * | 2005-02-04 | 2006-08-17 | Sumitomo Electric Ind Ltd | Apparatus, system and method for displaying approaching mobile body |
-
2005
- 2005-03-31 JP JP2005105451A patent/JP4686236B2/en not_active Expired - Fee Related
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644498A (en) * | 1992-07-23 | 1994-02-18 | Mazda Motor Corp | Information transmission device for vehicle |
JPH1079100A (en) * | 1996-09-04 | 1998-03-24 | Oki Electric Ind Co Ltd | Device for preventing collision |
JP2000046574A (en) * | 1998-07-24 | 2000-02-18 | Honda Motor Co Ltd | Navigation device for vehicle |
JP2000242898A (en) * | 1999-02-22 | 2000-09-08 | Equos Research Co Ltd | Peripheral vehicle notification device |
JP2001101566A (en) * | 1999-09-30 | 2001-04-13 | Toshiba Corp | Traffic safety confirming system |
JP2002117494A (en) * | 2000-10-11 | 2002-04-19 | Honda Motor Co Ltd | Peripheral information display device |
JP2002157684A (en) * | 2000-11-21 | 2002-05-31 | Honda Motor Co Ltd | On-vehicle display device |
JP2003006797A (en) * | 2001-06-21 | 2003-01-10 | Matsushita Electric Ind Co Ltd | Surrounding image display device and image distribution method |
JP2003016595A (en) * | 2001-06-27 | 2003-01-17 | Fujitsu Ten Ltd | Traveling support device |
JP2004171153A (en) * | 2002-11-18 | 2004-06-17 | Mazda Motor Corp | Vehicular information providing device |
JP2005032010A (en) * | 2003-05-09 | 2005-02-03 | Fujitsu Ten Ltd | Vehicle communication system, vehicle communication method, on-vehicle communication equipment, vehicle communication managing device and vehicle information collecting device |
JP2005005978A (en) * | 2003-06-11 | 2005-01-06 | Denso Corp | Surrounding condition recognition system |
JP2006215911A (en) * | 2005-02-04 | 2006-08-17 | Sumitomo Electric Ind Ltd | Apparatus, system and method for displaying approaching mobile body |
Also Published As
Publication number | Publication date |
---|---|
JP2006285695A (en) | 2006-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100885738B1 (en) | Communication system between vehicles | |
US9809223B2 (en) | Driving assistant for vehicles | |
US11641492B2 (en) | Image processing apparatus and image processing method | |
JP2022520968A (en) | Estimating object attributes using visual image data | |
CN110574357B (en) | Imaging control apparatus, method for controlling imaging control apparatus, and moving body | |
EP3493152A1 (en) | Image processing device and surroundings recognition device | |
US20190283742A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6764573B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2019093998A (en) | Vehicle control device, vehicle control method and program | |
JP4686236B2 (en) | Inter-vehicle communication system | |
JP4686235B2 (en) | Inter-vehicle communication system | |
CN105083161A (en) | Object recognition apparatus and method for recognizing objects | |
JP2019137185A (en) | Vehicle control system, vehicle control method, and program | |
JPWO2019155719A1 (en) | Calibration device and calibration method and program | |
JP7286691B2 (en) | Determination device, vehicle control device, determination method, and program | |
JP4585355B2 (en) | Inter-vehicle communication system | |
JP4848644B2 (en) | Obstacle recognition system | |
JPWO2017145818A1 (en) | Signal processing apparatus, signal processing method, and program | |
JP4585356B2 (en) | Inter-vehicle communication system | |
JP7184951B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
WO2020195965A1 (en) | Information processing device, information processing method, and program | |
JP7409309B2 (en) | Information processing device, information processing method, and program | |
CN110217228B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7250837B2 (en) | Control device, control method and program | |
CN112567427B (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110208 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4686236 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |